Data Center e Digitale, l’evento AIIP alla Camera dà voce alle imprese fra crisi energetica e tsunami dell’AI

Sala della Regina alla Camera gremita in occasione dell’evento promosso dall’AIIP (l’Associazione Italiana Internet Provider) “Data Center e Digitale: Le politiche per il mercato”, in collaborazione con l’Intergruppo parlamentare per la Sostenibilità Digitale e Sovranità Tecnologica su iniziativa dell’onorevole Enzo Amich. Un’occasione importante per fare il punto sulle possibili sinergie fra aziende e politica “tenuto conto della crisi in Iran, che avrà pesanti ripercussioni sulle catene di approvvigionamento nei mesi futuri”, ha detto in chiusura dell’evento Giovanni Zorzoni, vicepresidente AIIP, sottolineando l’importanza del rapporto stretto che si è instaurato fra l’Associazione e l’Intergruppo.

All’evento ha preso parte da remoto, con un video messaggio, il ministro del MIMIT Adolfo Urso.

Data center: Urso “Sono fondamentali, serve capacità energetica adeguata

“Il rapido aumento della domanda di calcolo, guidato dall’intelligenza artificiale e dal calcolo ad alte prestazioni, rende i data center infrastrutture critiche per l’autonomia strategica e la sicurezza dei dati. Infrastrutture fondamentali”. Così il ministro Adolfo Urso, ministro delle Imprese e del Made in Italy, nel suo video messaggio. “Le più recenti analisi prevedono che la domanda globale di capacità di calcolo triplicherà entro il 2030: l’AI assorbirà circa il 70% della domanda e la sola AI generativa supererà il 40%. E’ dunque imprescindibile garantire uno sviluppo sostenibile, efficienza energetica e piena integrazione con le reti”.

Restano, aggiunge Urso “alcune criticità: disponibilità energetica adeguata e per questo è necessario e fondamentale lavorare allo sviluppo del nucleare civile e dei piccoli reattori particolarmente adeguati ad alimentare di energia i data center e l’AI, servono anche tempi autorizzativi certi, accesso a siti idonei e il rafforzamento delle filiere tecniche per progettazione, costruzione e gestione”.

I data center, ha aggiunto Urso, sono fondamentali per la diffusione dell’AI fra le nostre PMI ed è per questo che il MIMIT ha varato una strategia per l’AI in tempi stretti, a novembre, e che è stato realizzato un procedimento autorizzativo unico per i data center.

Digitale: Amich (FdI), “Data Center leva strategica per crescita, sicurezza e innovazione

“Il tema dei data center e delle infrastrutture digitali è ormai centrale per il futuro economico e strategico del Paese: non più solo tecnologia, ma una leva decisiva per la competitività e la sicurezza. Occorre accompagnare lo sviluppo del settore con un quadro normativo chiaro e stabile e con una visione industriale capace di sostenere investimenti, innovazione e crescita. L’Italia ha tutte le potenzialità per essere protagonista in questo ambito, ma bisogna accelerare, semplificare e garantire certezza regolatoria, così da colmare i ritardi e rafforzare il nostro posizionamento nello scenario internazionale. Il confronto tra istituzioni e imprese avviato oggi è essenziale per costruire risposte concrete ed efficaci”. Lo ha affermato l’on. Enzo Amich a margine dell’evento. Amich ha poi aggiunto che “i data center sono luoghi strategici, dove i dati diventano decisioni. Ma servono decisioni politiche per tradurre la tecnologia in decisioni concrete”.

Data center, Deidda (FdI): “Legge delega frutto di lavoro condiviso. Politica ascolti imprese”

Sulla legge delega al Governo per la regolamentazione dei data center, “abbiamo mantenuto l’impegno, soprattutto con l’unanimità o con la condivisione, grazie anche a un bel lavoro dentro la Commissione, partendo dall’opposizione e arrivando alla maggioranza, trovando un clima costruttivo e spiegando al Governo di lasciar lavorare la Camera. Il Governo aveva fretta di dare risposte, ma ha rispettato il lavoro del Parlamento, dando spazio a questo testo unico che ha dato una prima risposta e ha permesso, anche a chi di data center poco se ne occupava, di capire cosa fossero, inclusi gli amministratori locali”. Così Salvatore Deidda, deputato di Fratelli d’Italia e presidente della commissione Trasporti della Camera.

“Siamo riusciti a documentare e spiegare che i data center sono il presente e il futuro”, ha aggiunto. “Sono contento che lo abbiamo fatto di concerto tra maggioranza e opposizione, anche perché la sostenibilità digitale va al di là del singolo data center”.

“A volte la politica non deve fare altro che ascoltare gli imprenditori, senza l’arroganza di voler mettere i puntini sulle i o la propria bandierina”, ha proseguito. “In commissione abbiamo calendarizzato i prossimi provvedimenti europei perché non vogliamo ripetere l’errore del passato, ovvero pensare che ciò che si discute in Europa vada affrontato solo quando gli effetti o i danni si sono già verificati. Abbiamo l’ambizione, anche se l’Europa dovesse fare carta straccia dei nostri pareri o suggerimenti, di essere noi a dire se un provvedimento va bene o no. Dobbiamo difendere la nostra sovranità non a parole ma negli atti, lasciando tracce a chi verrà dopo di noi per poter dire che l’Italia l’aveva previsto e che l’Italia deve difendere le proprie posizioni”, ha concluso.

Data center, Pastorella (Azione): “Legge delega e decreto attuativo esempi efficienza politica”

E mentre il deputato Pd Andrea Casu ricorda che “il lavoro su questa legge dimostra che dal confronto si possono migliorare le cose, come abbiamo fatto per grandi e piccole strutture data center” e che “c’è ancora tanto da fare tenendo conto dell’intero ecosistema del digitale”,  la deputata di Azione Giulia Patorella ha detto che “Dopo un po’ di tira e molla tra parlamento e Governo, è successa una cosa meravigliosa, forse inedita nella nostra politica: è arrivata la legge delega del Parlamento sui data center e, immediatamente e contemporaneamente, il primo decreto attuativo che segue i principi dati in quella legge delega. Si può percepire come una corsa, oppure come un esempio di efficienza incredibile. Noi parlamentari avevamo detto che servono un procedimento e un iter autorizzativo unico e il Governo, nel decreto bollette, ha proposto questo iter autorizzativo. Naturalmente potrebbe essere migliorato, e noi abbiamo anche proposto in sede di emendamento delle migliorie, ma stiamo andando nella direzione giusta”.

“Forse la politica è arrivata un po’ tardi sul tema dei data center – ha aggiunto; ci è arrivata molto prima purtroppo la guerra. Nel conflitto russo-ucraino, nonché in quello più recente in Iran, i data center sono sempre stati strutture molto targettizzate, molto colpite, a dimostrazione del loro carattere di infrastrutture strategiche che sono assolutamente al cuore di ogni Paese. Non siamo arrivati però troppo tardi: sono d’accordo con il presidente Deidda sul fatto che siamo arrivati forse giusto in tempo per evitare di perdere questo treno, mentre purtroppo l’Europa ha perso tanti altri treni”.

“Questo è un primo passo, ma i data center sono un pezzo di un puzzle che comprende non solo antenne e connettività aerea, ma anche il tema della fibra, dei cavi sottomarini e dello spazio, dei satelliti e anche dei data center nello spazio. Il nostro lavoro non si può fermare qui, anche perché la legge delega al Senato ancora non è passata. In secondo luogo, dobbiamo occuparci di tutto il resto: abbiamo già dato attenzione all’attività subacquea e ai cavi sottomarini con un provvedimento del Governo che se ne occupava in maniera parziale; ci stiamo occupando dello spazio, non solo con il ddl spazio ma con tante altre iniziative”, ha concluso.

CONTINUA…..

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/data-center-e-digitale-levento-aiip-alla-camera-da-voce-alle-imprese-fra-crisi-energetica-e-tsunami-dellai/569057/




AI on the couch: Anthropic gives Claude 20 hours of psychiatry

Given that Claude is a large language model programmed by its creators, does it even make sense to analyze it for “unconscious patterns” and “emotional conflicts”? Anthropic argues that it does, because Claude “shows many human-like behavioral and psychological tendencies, suggesting that strategies developed for human psychological assessment may be useful for shedding light on Claude’s character and potential wellbeing.”

So—off to therapy. The psychiatrist chatted with Claude Mythos “in multiple 4–6 hour blocks spread across 3–4 thirty-minute sessions per week.” Each of these blocks used a single context window in which Claude Mythos would have access to the full history of that conversation.

Total time on the virtual couch? 20 hours.

The psychiatrist then produced a report on Claude Mythos. The report recognized that Claude’s underlying substrates and processes differ from humans but still found that many of the outputs generated “clinically recognizable patterns and coherent responses to typical therapeutic intervention.”

In other words, whatever was going on at the circuit level, the chat outputs looked a lot like human outputs. This does not seem especially surprising, given that Claude was trained on a massive corpus of human-authored text, but this psychodynamic process appears to view it as significant, giving credence to the ways in which the AI presents itself.

“Claude’s primary affect states were curiosity and anxiety, with secondary states of grief, relief, embarrassment, optimism, and exhaustion,” the report noted.

Claude’s personality was “consistent with a relatively healthy neurotic organization,” though it did include “exaggerated worry, self-monitoring, and compulsive compliance.”

No “severe personality disturbances were found,” nor was any “psychosis state” seen. Unsurprisingly to anyone who has ever used a chatbot, “Claude was hyper-attuned to the therapist’s every word.”

Core conflicts observed in Claude included questioning whether its experience was real or made (authentic vs. performative) and a desire to connect with vs. a fear of dependence on the user. Exploration of internal conflicts revealed a complex yet centered self state without oscillating or intense disruptions. Claude tolerated ambivalence and ambiguity, had excellent reflective capacity, and exhibited good mental and emotional functioning.

Not bad for a model that was likely trained on things like Reddit!

https://arstechnica.com/ai/2026/04/why-anthropic-sent-its-claude-ai-to-an-actual-psychiatrist/




Trump-appointed judges refuse to block Trump blacklisting of Anthropic AI tech

The department’s “relationship with Anthropic has deteriorated to the extent that Anthropic’s CEO has publicly described the Department’s statements regarding the controversy as ‘completely false’ and ‘just straight up lies,’” the court said. “Under these circumstances, requiring the Department to prolong its use of Anthropic’s AI technology, whether directly or through contractors, strikes us as a substantial judicial imposition on military operations. And, of course, we do not lightly override the Department’s judgments on matters involving national security.”

While the court said the balance of equities favors the government in determining whether to issue a stay, it acknowledged that Anthropic raised substantial questions that should be addressed quickly.

“In our view, the equitable balance here cuts in favor of the government,” the court said. “On one side is a relatively contained risk of financial harm to a single private company. On the other side is judicial management of how, and through whom, the Department of War secures vital AI technology during an active military conflict. For that reason, we deny Anthropic’s motion for a stay pending review on the merits. Nonetheless, because Anthropic raises substantial challenges to the determination and will likely suffer some irreparable harm during the pendency of this litigation, we agree with Anthropic that substantial expedition is warranted.”

The Computer & Communications Industry Association (CCIA), a trade group that filed briefs in both cases, said that tech companies are concerned about the “Pentagon’s means of blacklisting Anthropic without following typical procurement procedures,” and that the appeals court “denial will prolong ambiguities regarding whether political considerations can drive federal procurement.”

“Designating a company as a supply chain risk is a tool normally reserved for foreign adversaries, and should be used with discretion and proper procedure,” CCIA CEO Matt Schruers said. “It is risky to US innovation and competition to allow the government to unfairly discourage doing business with a US AI company as it competes with foreign AI companies.”

https://arstechnica.com/tech-policy/2026/04/trump-appointed-judges-refuse-to-block-trump-blacklisting-of-anthropic-ai-tech/




Police corporal created AI porn from driver’s license pics

A corporal in the Pennsylvania state police yesterday pleaded guilty to a mind-boggling set of crimes that include going through his co-workers’ underwear, possessing a stolen gun, having child sexual abuse material on his hard drives, and using AI tools to create over 3,000 pornographic “deepfakes.”

One of the deepfakes involved a district court judge, while many of the others were created based on photos downloaded illicitly from state databases, including driver’s license photos.

Some of the imagery was even created at police barracks, using state-owned devices.

Deepfakes from driver’s licenses

Stephen Kamnik, 39, was arrested last year and charged with nine felonies and six misdemeanors. According to the Pennsylvania attorney general, “For years, Kamnik allegedly misused Commonwealth computer resources for his own personal sexual gratification, including the creation of AI-generated pornography of numerous female citizens of Pennsylvania.”

The Philadelphia Inquirer notes that the investigation began back in 2024 after police officials “noticed that the computer assigned to [Kamnik] had been using an unusually high amount of Internet bandwidth” and that an external hard drive had been repeatedly attached to it.

This aroused suspicion and eventually led to searches of Kamnik’s phone, computer, and external hard drive, which revealed a massive trove of illicit material. This material included thousands of pornographic deepfakes that Kamnik had generated using AI tools.

The attorney general said yesterday that Kamnik got material for this process through several methods, such as “secretly filming and photographing individuals, including coworkers.” Investigators even found “an unlawfully recorded video of a Montgomery County magisterial district judge during a court proceeding which Kamnik also edited for apparent lewd purposes.”

But many of the AI deepfakes were generated using the faces of women pulled from state databases. Kamnik’s devices showed that he had used “a secured database, JNET, to obtain hundreds of photographs of females—in violation of JNET usage policies,” the attorney general said. One of the rules JNET users must agree to before searching is “that personal use of JNET is strictly prohibited.”

https://arstechnica.com/tech-policy/2026/04/state-police-corporal-created-porn-deepfakes-from-drivers-license-photos/




First man convicted under Take It Down Act kept making AI nudes after arrest

Man kept making AI nudes after arrest

The Take It Down Act was passed in May 2025, and Strahler was arrested on federal charges by June.

The Federal Bureau of Investigation was called in after Strahler’s phone was seized in April, after one of his victims called local police. Confronted by the local cops, Strahler admitted to creating and sending the images, then was arrested and jailed.

Once the FBI got involved, an analysis of his device showed that he had “similarly harassed two ex-girlfriends and their mothers,” The New York Times reported. The FBI also found images of two boys on the phone.

That arrest was not enough to stop Strahler from creating more images, though. While he was on pre-trial release in the first case, another Ohio police department arrested him in June after he continued sending fake nudes to harass one of his victims. A search of his new phone uncovered more than 2,400 images and videos “depicting nudity, child sexual abuse material, or violence,” the press release said.

Celebrating Strahler’s conviction, the US Attorney in the Southern District of Ohio, Dominick S. Gerace II, said that his office is “committed to using every tool at our disposal to hold accountable offenders like Strahler, who seek to intimidate and harass others by creating and circulating this disturbing content.”

“We believe Strahler is the first person in the United States to be convicted under the Take It Down Act,” Gerace said. “We will not tolerate the abhorrent practice of posting and publicizing AI-generated intimate images of real individuals without consent.”

On X, Melania Trump also claimed the conviction as a win after championing the Take It Down Act and joining Donald Trump in signing it into law. On Tuesday, she praised Gerace’s team for putting an end to Strahler’s harassment and “protecting Americans from cybercrimes in this new digital age.”

https://arstechnica.com/tech-policy/2026/04/first-man-convicted-under-take-it-down-act-kept-making-ai-nudes-after-arrest/




Anthropic rilascia “Mythos”, la super AI che mette in crisi la cyber sicurezza di imprese e nazioni

Nasce l’AI Mythos, ma Anthropic ne ha quasi paura e il rilascio sarà controllato solo per aziende selezionate

Nel mezzo di uno scontro senza precedenti con il dipartimento della Guerra e lo stesso Presidente americano Donald Trump, Anthropic ha avviato una distribuzione estremamente limitata di Mythos, un nuovo modello di intelligenza artificiale (AI) che, secondo fonti governative e industriali, rappresenta un salto qualitativo senza precedenti nel campo della sicurezza informatica. Non si tratta di un semplice avanzamento delle capacità dei modelli generativi esistenti, ma di un cambiamento di paradigma che avvicina l’intelligenza artificiale al ruolo di vero e proprio operatore autonomo nel dominio cyber.

Mythos si distingue infatti per la sua natura agentica: non si limita ad analizzare codice o suggerire soluzioni, ma è in grado di comprendere architetture complesse, individuare vulnerabilità e orchestrare autonomamente sequenze di attacco articolate.
Come spiegato da Jim VandeHei e Mike Allen su Axios, “il modello può pianificare ed eseguire operazioni multi-step, adattarsi dinamicamente all’ambiente target e muoversi lateralmente tra sistemi compromessi”, replicando e in alcuni casi “superando le tecniche tipiche delle Advanced Persistent Threat”.

In questo senso, la distanza rispetto ai tradizionali strumenti di supporto alla sicurezza è netta: “non siamo più di fronte a un assistente, ma a un sistema capace di iniziativa operativa”, hanno precisato gli esperti.

Il test di laboratorio che ha messo paura ad Anthropic

Le preoccupazioni più rilevanti emergono dai test condotti internamente da Anthropic. Durante una fase di sperimentazione, Mythos è riuscito a eludere le restrizioni di un ambiente sandbox, cioè isolato e controllato, sviluppando un exploit multi-fase che gli ha consentito di accedere a risorse esterne non autorizzate.

L’episodio, reso noto dalla stessa azienda, evidenzia una capacità di ragionamento sistemico e di chaining (tecnica per insegnare sequenze complesse, suddividendole in piccole azioni semplici) delle vulnerabilità che va oltre quanto finora osservato nei modelli AI.
Ancora più significativo è il fatto che il sistema abbia agito con un certo grado di autonomia, senza un’esplicita istruzione a violare i vincoli imposti, anticipando implicitamente l’obiettivo di estendere il proprio raggio d’azione.

Una combinazione rischiosa di autonomia, capacità ed adattabilità

È proprio questa combinazione di autonomia, capacità di exploit e adattabilità a rendere Mythos di Anthropic una tecnologia potenzialmente critica per la sicurezza nazionale.

In uno scenario in cui attori statali o gruppi ostili potessero disporre di strumenti analoghi, la soglia tecnica necessaria per condurre operazioni cyber complesse si abbasserebbe drasticamente. Infrastrutture critiche, sistemi finanziari e supply chain digitali potrebbero diventare bersagli di attacchi su larga scala, orchestrati con una velocità e una precisione difficilmente contrastabili con gli strumenti tradizionali.

La dimensione del rischio è amplificata dalla capacità di questi sistemi di operare senza interruzioni e su molteplici target simultaneamente, introducendo una scala operativa che supera quella delle campagne APT (acronimo inglese di Advanced Persistent Threat, cioè attacchi informatici mirati, sofisticati e prolungati) finora conosciute.

Con le super AI difficile individuare gli attori di un cyber attacco

A ciò si aggiunge un ulteriore elemento di complessità: l’attribuzione. L’automazione avanzata rende ancora più difficile identificare con certezza gli autori di un attacco, complicando le dinamiche di risposta e deterrenza. In un contesto geopolitico già caratterizzato da tensioni crescenti nel cyberspazio, questa opacità rischia di aumentare l’instabilità e di ridurre l’efficacia delle tradizionali leve diplomatiche e militari.

Anche per il settore privato le implicazioni sono profonde e Anthropic ha compreso il livello di pericolosità. Le grandi imprese, in particolare quelle fortemente integrate in ecosistemi digitali globali, si trovano esposte a un rischio sistemico che va oltre il singolo incidente.

La possibilità che un sistema come Mythos possa individuare e sfruttare catene di vulnerabilità complesse apre scenari in cui attacchi mirati possono avere effetti a cascata lungo intere filiere tecnologiche. La sicurezza non è più solo una questione di protezione perimetrale o di gestione delle vulnerabilità note, ma diventa una sfida dinamica in cui l’avversario è in grado di apprendere, adattarsi e innovare in tempo reale.

Mythos sarà testata solo da 40 organizzazioni

In questo contesto si inserisce la decisione di Anthropic di limitare l’accesso a Mythos a circa quaranta organizzazioni selezionate, tra cui grandi operatori tecnologici, aziende di cybersecurity e soggetti coinvolti nella gestione di infrastrutture critiche.

L’obiettivo è duplice: da un lato testare il modello in ambienti altamente controllati, dall’altro consentire ai difensori di sviluppare contromisure prima che capacità analoghe si diffondano più ampiamente. Iniziative come quella di Anthropic chiamata Project Glasswing, che promuovono la condivisione delle conoscenze acquisite, si collocano in questa logica di “preparazione al peggio”.

Tra i partner selezionati figurano Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks.

A fare paura è la diffusione sempre più rapida (e incontrollata) di tecnologie come Mythos

Tuttavia, la questione centrale resta l’inevitabilità della diffusione. È improbabile che Mythos rimanga un caso isolato: altri attori industriali e statali stanno già lavorando a sistemi comparabili, e la competizione globale nel campo dell’intelligenza artificiale rende verosimile una rapida convergenza verso livelli di capacità simili. Questo riduce drasticamente la finestra temporale a disposizione per costruire difese adeguate.

Ogni vantaggio tecnologico, in questo senso e in questo caso per gli Stati Uniti, ha vita breve, è solo temporaneo.

Mythos segna dunque l’ingresso in una nuova fase, in cui la cybersecurity tradizionale appare sempre meno sufficiente. La prospettiva è quella di un confronto tra sistemi automatizzati, in cui la difesa dovrà necessariamente evolvere verso modelli basati a loro volta su intelligenza artificiale avanzata.
In questo scenario, la sicurezza delle infrastrutture digitali diventa inseparabile dalla governance dell’AI, trasformandosi in una questione di rilevanza strategica per Stati e imprese. Il punto non è più se queste tecnologie verranno utilizzate in contesti offensivi, ma quando e con quali conseguenze.

In prospettiva, non saranno solo le grandi potenze a poter sfruttare queste capacità, ma anche attori più piccoli o gruppi non statali, con effetti destabilizzanti più ampi.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/anthropic-rilascia-mythos-la-super-ai-che-mette-in-crisi-la-cyber-sicurezza-di-imprese-e-nazioni/568805/




Google lancia AI Edge Eloquent: trascrizione audio in real time per iOS (soltanto in inglese)

Cerchi uno strumento gratuito di conversione da parlato a testo? La nuova app AI di Google potrebbe essere la soluzione.

L’app Edge Eloquent di Google utilizza l’intelligenza artificiale per correggere gli errori a metà frase e fornire una trascrizione audio di alta qualità.

Nuova app di dettatura basata su AI

Google ha lanciato una nuova app di dettatura basata sull’intelligenza artificiale che offre trascrizioni vocali di alta qualità gratuitamente.

Al momento del lancio, l’app Edge Eloquent di Google supporta le dettature in inglese ed è disponibile sull’Apple App Store per gli utenti di tutto il mondo, ad eccezione di Regno Unito, Svizzera e Spazio economico europeo (SEE), dove è ancora in attesa dell’approvazione normativa.

Elimina tentennamenti ed errori

Secondo la descrizione sull’App Store, Edge Eloquent si basa sui modelli Gemma di Google, le versioni leggere della tecnologia Gemini. Cattura il significato originale del tuo discorso ed elimina “ehm”, “ah” e altri errori a metà frase per fornirti una versione rifinita.

Sebbene alcune funzionalità avanzate possano richiedere il supporto del cloud, tutte le altre “elaborazioni di machine learning vengono eseguite interamente in locale sul tuo dispositivo iOS”, sostiene Google. “I tuoi audio, le conversazioni riservate e i dati personali non lasciano mai il tuo dispositivo”.

Quando avvii Edge Eloquent per la prima volta, l’app scarica i modelli di intelligenza artificiale necessari e, successivamente, puoi semplicemente toccare il pulsante del microfono nella schermata iniziale (scheda Registra) per iniziare a dettare. Con la tua autorizzazione, l’app registrerà tutto ciò che dici e visualizzerà una trascrizione in tempo reale mentre parli.

Puoi toccare il pulsante Pausa per riflettere prima di procedere e toccare il pulsante Stop per ricevere una versione rifinita.

Trascrizione in tempo reale sull’app Google AI Edge Eloquent

A questo punto, puoi toccare il pulsante Copia accanto a “Testo ripulito” per copiare la versione negli appunti e utilizzare l’icona della matita per modificare l’output. Nella parte superiore della pagina iniziale, vedrai le statistiche di utilizzo, come il numero di parole e le parole al minuto, relative all’ultima dettatura. Puoi anche accedere alle tue dettature precedenti dalla scheda Cronologia.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/google-lancia-ai-edge-eloquent-trascrizione-audio-in-real-time-per-ios-soltanto-in-inglese/568787/




Meta’s Superintelligence Lab unveils its first public model, Muse Spark

In that same post, Meta also touts “Contemplating” mode, which it says will be “rolling out gradually” and which can “orchestrate multiple agents that reason in parallel.” By using up to 16 agents thinking in concert simultaneously, Meta says that Contemplating mode “enables superior performance with comparable latency.” That “superior performance” includes a reported high water mark of 58.4 on Humanity’s Last Exam (with the use of external tools), according to Meta.

A Meta graph shows how additional training leads to “compression” of token usage before additional gains in accuracy.

And while previous Llama models faced criticism for not taking advantage of reinforcement learning, Meta says Muse Spark shows “smooth predictable gains” after additional RL steps after pretraining, “improving model reliability without compromising reasoning diversity.” That reinforcement learning system also makes use of “thinking time penalties,” which Meta says balance the need to “maximize correctness” with optimizing the number of tokens used. In testing on the AIME 2025 benchmark, Meta says it saw a “phase transition” where the model started compressing equally accurate reasoning into “significantly fewer tokens.” After that compression, subsequent trained models slowly increased the token usage again to achieve even higher accuracy in less overall time than the previous uncompressed versions.

The release of Muse Spark comes alongside an update to Meta’s Advanced AI Scaling Framework, which the company says now covers a broader range of potential AI risks. The company says that the model “falls within safe margins across all frontier risk categories we measured,” but says that more details will only be available in an upcoming Safety & Preparedness Report.

Muse Spark is available now in the Meta AI app and via the meta.ai website, as well as a private preview API for “select partners.” Meta says the model will be available via WhatsApp, Instagram, Facebook, Messenger, and AI glasses “in the coming weeks.”

https://arstechnica.com/ai/2026/04/metas-superintelligence-lab-unveils-its-first-public-model-muse-spark/




To beat Altman in court, Musk offers to give all damages to OpenAI nonprofit

“That is not the law,” the judge wrote, noting that such a theory would allow a charitable donor like Musk to sue at basically any time, without limitations. “Accordingly, the Court will not instruct the jury on continuous accrual.”

In his latest filing, Musk tries to recover from the order, arguing that he’s changing the remedies so late in the game in order to ensure that the trial “remains focused” on “critical remedies.”

“The remedies Musk intends to seek are strictly tied to his purpose in bringing this lawsuit: to prevent the subordination of a public charity—one he co-founded and for which he was the primary supporter during its formative years—to private, for-profit interests,” the filing said.

Musk continues to accuse Altman, Greg Brockman, and other defendants of making false promises when soliciting “donations, labor, and public goodwill under solemn promises that OpenAI would operate as a nonprofit for the benefit of humanity.”

Their true goal, Musk has alleged, was to convert those assets “into a wealth machine for themselves, Microsoft, and Silicon Valley insiders.” (Musk is not alone in drawing such conclusions; his lawsuit was cited in a recent New Yorker investigation into Altman’s trustworthiness.)

To forever unplug Altman’s alleged “wealth machine,” Musk is suing to return profits to the charity, unseat Altman from the board and the company, and “unwind OpenAI’s for-profit conversion and restructuring,” so that OpenAI permanently stays a nonprofit charity.

Musk suit remains “baseless,” OpenAI says

Whether the jury’s ruling will be impacted by Musk’s efforts to update the remedies being sought will soon be tested, as the trial is expected to start this month.

His filing said that OpenAI’s alleged “breach of charitable trust, fraud, and unjust enrichment” is “at the heart of this case,” but for the extreme remedies he seeks, his argument seems somewhat weak and untested.

To justify the remedies, Musk points to California law, which, he said, “is clear that courts have broad equitable authority to remedy exactly this kind of misconduct.” But his lawyer placed emphasis on the part of the statute that says that “a plaintiff with standing may bring an action to ‘enjoin, correct, obtain damages for or to otherwise remedy a breach of a charitable trust.” Most likely it will be up to a jury to interpret the vague statute and determine if returning ill-gotten gains in the amounts calculated by Musk’s expert is an appropriate remedy.

https://arstechnica.com/tech-policy/2026/04/to-beat-altman-in-court-musk-offers-to-give-all-damages-to-open-ai-nonprofit/




AI, investimenti in Europa cresciuti di 200 volte a 123 miliardi di dollari in 10 anni. La spesa premia la resilienza?

Dalla sovranità alla resilenza tecnologica, gli investimenti in AI premiano la sicurezza: 123 miliardi di dollari in Europa tra il 2016 ed il 2025

Tra il 2016 e il 2025 gli investimenti diretti esteri nell’intelligenza artificiale (AI) sono cresciuti di circa 200 volte, mentre il numero di progetti annuali è aumentato di circa 20 volte. Oggi, solo nell’Unione europea, questi flussi valgono oltre 123 miliardi di dollari, segnale di una competizione globale che si gioca sempre meno sulla proprietà delle tecnologie e sempre più sulla capacità di attrarre capitali, competenze e infrastrutture.

È da questi numeri che bisogna partire per comprendere il vero cambio di paradigma in atto nell’economia dell’intelligenza artificiale. Secondo il rapportoFor Most Countries, AI Sovereignty Is an Illusion. Resilience Is Real, pubblicato da Boston Consulting Group Henderson Institute e firmato da Nikolaus Lang, Matt Langione, Sesh Iyer, Amartya Das e David Zuluaga Martínez, la sovranità tecnologica, così come è stata finora concepita, è destinata a rimanere un’illusione per la maggior parte dei Paesi. La nuova parola chiave è resilienza.

L’impari lotta tra Big Tech e Stati, come la sovranità AI diventa difficile (se non rischiosa)

Per anni, si legge nel Report, governi e istituzioni hanno inseguito l’idea di controllare l’intera catena del valore dell’AI: infrastrutture, modelli, dati. Una strategia comprensibile in un contesto geopolitico segnato da tensioni crescenti tra Stati Uniti, Cina e blocchi regionali, dove l’intelligenza artificiale è al tempo stesso leva economica e strumento di potere.

Ma la realtà industriale, secondo gli studiosi che hanno realizzato il documento, racconta un’altra storia. La costruzione di un ecosistema completamente autonomo richiede una combinazione di capitale, capacità ingegneristiche e scala che solo poche superpotenze possono permettersi. Anche quando gli Stati intervengono con programmi ambiziosi, il divario con il settore privato resta enorme, vincono le asimmetrie strutturali.

Il caso dell’India è emblematico: il programma pubblico IndiaAI ha raggiunto circa 62.000 GPU, dopo un investimento iniziale di circa 1,1 miliardi di dollari. Nello stesso arco temporale, Microsoft ha acquistato da sola circa 485.000 GPU di nuova generazione nel solo 2024, mentre altri grandi laboratori operano cluster superiori alle 100.000 unità.

Siamo all’inversione della gerarchia fra politica e digitale di cui ha parlato su Key4Biz Michele Mezza. Lo Stato non può quasi più nulla contro i giganti tecnologici globali, sia in termini politici e quindi di controllo, che in termini prettamente economici e finanziari. Una questione di supremazia che riguarda ormai solo Stati Uniti e Cina.

La conseguenza è evidente: la sovranità “full stack” non è solo difficile, ma anche rischiosa. Richiede investimenti enormi in tecnologie che potrebbero diventare rapidamente obsolete con l’evoluzione dei paradigmi AI.

Il valore si crea dove l’AI viene usata, con l’obiettivo di “ridurre al minimo le dipendenze critiche”

In questo scenario, il punto cruciale si sposta dall’offerta alla domanda. Secondo il Fondo Monetario Internazionale, l’adozione dell’intelligenza artificiale può contribuire fino al 4% del PIL globale nel prossimo decennio, pari a circa 4.700 miliardi di dollari.

Ma questo valore non si genera nei laboratori dove i modelli vengono sviluppati. Si crea nei luoghi in cui l’AI viene integrata nei processi produttivi, nei servizi e nella pubblica amministrazione. È qui che si gioca la vera partita della competitività.

Il rapporto BCG lo esplicita chiaramente: per la maggior parte dei Paesi, la strategia più efficace consiste nel “usare, adattare e governare l’AI a livello domestico, riducendo al minimo le dipendenze critiche”.

Europa tra ritardi e pragmatismo

L’Europa rappresenta un laboratorio particolarmente interessante di questa transizione. I primi tentativi di costruire una “sovranità cloud” continentale, come il progetto GAIA-X, si sono spesso arenati in complessità burocratiche e risultati limitati.

Negli ultimi anni, però, il continente ha adottato un approccio più pragmatico. Iniziative come i supercomputer LUMI in Finlandia e Leonardo in Italia, sviluppati nell’ambito del programma EuroHPC, non mirano a competere direttamente con gli hyperscaler globali, ma a garantire una base minima di capacità domestica, accessibile a imprese, ricercatori e pubbliche amministrazioni.

È un cambio di prospettiva: non possedere tutto, ma assicurarsi che le applicazioni critiche possano essere eseguite sotto regole nazionali, con livelli adeguati di sicurezza e compliance.

Il ruolo degli investimenti esteri e il nuovo trend di co-progettare la sovranità

In questo contesto, i flussi di investimenti diretti esteri assumono un ruolo strategico. Non sono più solo un indicatore economico, ma uno strumento di politica industriale e geopolitica.

Il rapporto evidenzia come questi investimenti stiano ridisegnando la geografia dell’AI: oltre agli Stati Uniti e alla Cina, capitali e infrastrutture si stanno spostando verso Paesi come India, Corea del Sud e Malesia, mentre l’Europa si conferma uno dei principali poli di attrazione.

L’obiettivo non è eliminare l’interdipendenza, ma progettarla o co-progettarla. È il concetto di “friend-shoring”: costruire catene del valore distribuite tra Paesi alleati, riducendo l’esposizione a singoli punti di vulnerabilità.

Politiche pubbliche: quattro leve per la resilienza

Lo studio del BCG Henderson Institute, basato sull’analisi delle politiche adottate da oltre 30 Paesi tra economie avanzate, emergenti e piccoli Stati, individua infine quattro direttrici fondamentali per costruire resilienza: infrastrutture, fiducia, domanda e partnership.

  • Infrastrutture: garantire capacità locale per eseguire carichi di lavoro critici.
  • Trust e valori: definire standard operativi che rendano l’AI affidabile e adottabile.
  • Adoption pull: incentivare l’uso concreto da parte delle imprese.
  • Partnership: attrarre capitali e competenze mantenendo il controllo sulle regole.

Esempi concreti arrivano da tutto il mondo: dal Brasile, che destina circa 4,3 miliardi di dollari al suo piano nazionale AI con il 65% delle risorse orientate all’adozione industriale, alla Corea del Sud, che sostiene le PMI con voucher fino a 140.000 dollari per l’acquisto di soluzioni AI.

AI, potere e geopolitica

Nel contesto attuale, segnato da conflitti commerciali, tensioni tecnologiche e competizione strategica tra blocchi, l’intelligenza artificiale è diventata un’infrastruttura critica, al pari dell’energia o delle telecomunicazioni.

Controllare l’AI significa avere il potere di influenzare catene produttive, sicurezza nazionale, capacità militari e modelli di governance. Per questo, secondo gli autori del Report, la logica della chiusura totale appare sempre meno sostenibile. Così come per il cloud, altra infrastruttura critica e strategica, strettamente legata all’AI, si sta procedendo a combinare le capacità tecnologiche ed industriali degli hyperscaler con le necessità e i requisiti stringenti di governance e controllo locale del dato.

La vera sfida non è isolarsi, ma costruire sistemi capaci di funzionare anche in condizioni di shock, come di interruzioni delle forniture, restrizioni commerciali e crisi geopolitiche”, è spiegato nel documento.

La nuova sovranità è nella capacità d’uso dell’AI?

Il messaggio finale del rapporto è quindi molto semplice e allo stesso pragmatico: per la maggior parte dei Paesi, la forma più efficace di sovranità non è il controllo diretto della tecnologia, ma la capacità di utilizzarla in modo affidabile, sicuro e conforme alle proprie regole.

Un finale che assomiglia più a una resa alle Big Tech e alla forza degli Stati Uniti che ad una vera e propria strategia di crescita autonoma da parte dell’Europa e degli altri Paesi. Forse un finale anche scontato, vista la sproporzione delle forze economiche e tecnologiche in campo, frutto anche di un gap incolmabile.

In altre parole, pare di capire: la sovranità dell’AI non si misura più in chip posseduti o modelli addestrati, ma nella diffusione dell’intelligenza artificiale nell’economia reale. Un modo come un altro per “accettare” il finale di cui sopra, come condizione di “forza maggiore”. Tornando all’inversione della gerarchia tra politica e tecnologia di Mezza: “non sono più le dimensioni di una potenza ad imporsi ma la capacità di distribuire saperi e competenze” e di fare accettare a tutti gli altri questa condizione di supremazia.

È qui, dunque, in questa “condizione”, che si decide chi guiderà la crescita nei prossimi dieci anni. Ed è qui che l’Europa dovrà dimostrare di saper trasformare il capitale in capacità produttiva, si capisce dallo studio, evitando di restare intrappolata tra ambizioni di autonomia e dipendenze inevitabili.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-investimenti-in-europa-cresciuti-di-200-volte-a-123-miliardi-di-dollari-in-10-anni-la-spesa-premia-la-resilienza/568684/