Google releases new apps for Windows and MacOS

The first Gemini desktop app, now on Mac

There’s currently no Google search app for macOS, but Google has the AI side covered with the new Gemini app. This is the company’s first standalone desktop app for accessing Gemini. Google’s Josh Woodward says Google has been getting requests for a native Mac app, so the company put together a small team to build one. It didn’t even take very long, with less than 100 days to deliver a supposed 100-plus features on Mac. CEO Sundar Pichai says it was built entirely using Google Antigravity.

Opening the app is similar to how you access the Windows search app—hit Option + Space at any time to pull up a Gemini prompt bar. You can ask general questions like you would the web version of Gemini, but it can also access your windows for additional context. Again, that’s similar to the Windows app, with a greater focus on AI.

Gemini app on Mac

Gemini for Mac has just about every feature of Gemini on the web.

Credit: Google

Gemini for Mac has just about every feature of Gemini on the web. Credit: Google

The Mac Gemini app, which is coded entirely in Swift, includes a full spate of Gemini features and model types. You can upload files, create notebooks, and access tools like Deep Research and Canvas right on your desktop. It also has access to image-, video-, and music-generation models. More features are apparently on the way, too.

Even if you like generative AI, Google’s method of distribution may be a dealbreaker. As of now, the company has opted not to list the app in the App Store for Mac. Instead, you have to download and install a DMG file from Google’s website. This one is available in all regions and languages with Gemini support.

https://arstechnica.com/gadgets/2026/04/google-launches-search-app-for-windows-gemini-app-for-mac/




Boston Dynamics’ robot dog now reads gauges and thermometers with Google’s AI

Robots such as Boston Dynamics’ four-legged Spot can now accurately read analog thermometers and pressure gauges while roaming around factories and warehouses. Those improvements come courtesy of Google DeepMind’s newest robotic AI model that aims to enhance robotic capabilities for ‘embodied reasoning’ when interacting with physical environments.

The new Gemini Robotics-ER 1.6 model announced on April 14 performs as a “high-level reasoning model for a robot” that can plan and execute tasks, according to Google DeepMind. This model also unlocks the capability of accurately reading instruments such as complex gauges and doing visual inspections using sight glasses that provide a transparent window to peek inside tanks and pipes—a performance upgrade that came about through Google DeepMind’s ongoing collaboration with robotics company Boston Dynamics.

Boston Dynamics has a keen interest in testing both quadruped and humanoid robotic workers in a wide range of industrial facilities, including the automotive factories of the robotic company’s corporate owner, Hyundai Motor Group. The company’s robot “dog,” Spot, is being trialled as a robotic inspector that roams throughout industrial facilities to check up on everything. Such inspection duties require “complex visual reasoning” to interpret the multiple needles, liquid levels, container boundaries and tick marks, along with text, in various instruments.

The model driving it

To handle such tasks, the Gemini Robotics-ER 1.6 model provides robots with “agentic vision” that combines visual reasoning with the capability of executing code to create a “visual scratchpad” for inspecting and manipulating images. Such agentic vision was introduced in Google’s Gemini 3.0 Flash model back in January 2026.

The agentic vision capability reportedly boosts robotic performance on instrument reading tasks from 23 percent in the older Gemini Robotics-ER 1.5 model to 98 percent in the new Gemini Robotics-ER 1.6 model. For comparison, Gemini 3.0 Flash delivered just 67 percent accuracy.

The baseline Gemini Robotics-ER 1.6 model can still achieve 86 percent accuracy in reading instruments even without agentic vision. That is because the model uses a process of pointing to different elements in a visual image to process complex tasks, such as counting items or identifying the most salient features. It also supposedly delivers an improved “multi-view reasoning” capability that allows a robotic system to use multiple camera streams to better understand its environment.

https://arstechnica.com/ai/2026/04/robot-dogs-now-read-gauges-and-thermometers-using-google-gemini/




Adobe takes Creative Cloud into Claude Code-esque territory

Adobe also says it can learn from users over time about their favorite tools or even stylistic preferences. That could be useful, but as with the memory features for LLMs, it could become frustrating if it pigeonholes a user. Here’s hoping you can customize that or disable that feature as needed.

In addition, there will be “skills,” which work pretty much like the skills you may have seen in similar tools for other disciplines, like OpenAI’s Codex or Anthropic’s Claude Code. Skills are essentially prepackaged integrations and workflows tailored to specific tasks. Users can tap a library of these, or they can build or configure their own.

Firefly AI Assistant was actually first previewed last October, when it had the moniker “Project Moonlight”—this is just the actual public release of that concept.

This development marks a notable shift in Adobe’s AI strategy. Think of it like this: Adobe’s approach up to this point has been somewhat similar to Apple’s, with an emphasis on leveraging models for very specific features and capabilities built into existing apps and workflows.

By contrast, this is an entirely different paradigm, where users may work significantly less within specialized applications, and the technology is used to facilitate a new approach to working rather than just giving new functionality to people who already know how to use the apps.

Adobe says Firefly AI Assistant will enter a public beta within a few weeks, but it hasn’t yet offered specifics about pricing, limits, or which users or plans it will be available to.

https://arstechnica.com/ai/2026/04/adobe-takes-creative-cloud-into-claude-code-esque-territory/




L’AI giusta. Nobile (AgID): “La PA deve semplificarsi e lavorare allo Stato agentico”

Innovare è una responsabilità. Senza una visione chiara non esiste un futuro sostenibile, soprattutto al tempo dell’AI

In occasione delle celebrazioni italiane della 56ª Giornata Mondiale della Terra delle Nazioni Unite, alla Casa del Cinema di Roma si è tenuto l’incontro dal titolo “Comunicazione e digitale acceleratori di una transizione giusta”, appuntamento pomeridiano del Festival italiano dell’InnovabilityImpatta Disrupt”, che ha messo al centro del confronto tra Istituzioni, imprese, università e mondo religioso il crescente impatto sociale dell’AI e della comunicazione digitale.

Promosso dal Think Tank Impatta e realizzato in collaborazione con Harmonic Innovation Group, Entopan e Fondazione Earth Day Italia, il Festival giunge alla sua terza edizione consolidando il proprio ruolo tra i principali appuntamenti italiani dedicati all’innovazione sostenibile e alla finanza d’impatto, inserendosi nel calendario ufficiale delle celebrazioni italiane dell’Earth Day.

La transizione, per essere davvero efficace, deve essere al tempo stesso energetica e culturale, strettamente intrecciata con quella tecnologica. È questo il filo conduttore della sessione pomeridiana, dedicata ad approfondire i grandi cambiamenti in atto.
Al centro del dibattito, la transizione digitale e il ruolo della comunicazione, considerati strumenti fondamentali da interpretare e utilizzare al meglio. L’obiettivo è accompagnare un processo di trasformazione che sia giusto ed equo, capace di mettere al centro il benessere delle persone.
L’innovazione oggi non è una scelta, ma una responsabilità. Senza visione e capitali capaci di generare impatto, non esiste futuro sostenibile. Impatta Disrupt nasce per questo: trasformare il confronto in azione e le idee in cambiamento reale
”, ha affermato in apertura di sessione Pierluigi Sassi, Presidente think tank Impatta e Fondazione Earth Day italia.

Rimettere al centro dell’innovazione la responsabilità e quindi l’uomo, come in un nuovo umanesimo

Nel pieno delle trasformazioni in corso, il rapporto tra umanesimo e digitale emerge come un binomio cruciale, da declinare alla luce del concetto di giustizia. È questo il momento di interrogarsi a fondo su questa relazione, in un contesto segnato da una evidente crisi dei valori. Proprio a questi valori, però, è necessario tornare a guardare per orientare il cambiamento. L’umanesimo, inteso come visione del mondo che rimette al centro l’essere umano, torna oggi al centro del dibattito, in una fase storica che per certi aspetti richiama quella tra il Trecento e il Quattrocento. Nell’era dell’intelligenza artificiale, infatti, si sta progressivamente delegando alla tecnologia non solo il sapere e la conoscenza, ma anche l’etica e i processi decisionali. Un passaggio che comporta un rischio rilevante: quello di una responsabilità sempre più sfumata, se non del tutto assente. Una condizione che, se da un lato può risultare comoda, dall’altro rappresenta un errore da correggere con decisione.
Rimettere l’essere umano al centro significa riaffermare il valore dell’antropocentrismo e ristabilire una chiara attribuzione delle responsabilità. È necessario, in questo senso, riorganizzare i flussi decisionali, superando l’idea che l’intelligenza artificiale sia in grado di prendere decisioni in autonomia. Allo stesso modo, parlare di “etica dell’AI” rischia di essere una mistificazione: il piano etico deve restare distinto da quello tecnico. Ciò che conta è comprendere se gli algoritmi siano costruiti su regole chiare e trasparenti.
Da qui l’esigenza di “aprire le black box”, di rendere visibili i meccanismi interni dei sistemi e pretendere maggiore trasparenza. Un passaggio fondamentale, soprattutto considerando che la tecnologia è oggi al centro di una trasformazione epocale e rappresenta uno strumento imprescindibile per portare avanti la transizione energetica ed ecologica.
Per affrontare questa sfida è necessario adottare un approccio sistemico, capace di guidare un utilizzo corretto del digitale e di accelerare uno sviluppo realmente sostenibile. La precondizione per la sostenibilità è la sovranità digitale, che si articola su più livelli: da un lato la sovranità tecnologica, legata al controllo delle infrastrutture di base; dall’altro quella digitale, che riguarda le applicazioni e pone il tema della localizzazione dei dati.
Se i dati restano in Europa ma gli algoritmi sono sviluppati altrove, il problema non è risolto. È quindi indispensabile puntare anche sulla sovranità cognitiva. Tuttavia, allo stato attuale, l’Europa non sembra in grado di raggiungere pienamente nessuna di queste forme di sovranità, evidenziando la necessità di un maggiore controllo e governo delle infrastrutture. L’intelligenza artificiale, nel frattempo, contribuisce a ridefinire quotidianamente la realtà, fornendo risposte a ogni esigenza e modellando la percezione del mondo attraverso processi spesso opachi. Viviamo, di fatto, in una realtà “ri-mediata” dall’AI. In questo scenario, la sovranità delle scelte e il livello della loro sostenibilità dipendono sempre più dalla capacità di controllare le informazioni e di esercitare una reale autodeterminazione
”, ha spiegato Stefano Epifani, Presidente Fondazione per la Sostenibilità Digitale, nella sua masterclass dal titolo “Umanesimo digitale per una transizione giusta”.

Il primo panel della giornata dal titolo “Digitale motore di competitività e trasformazione sociale” e moderato dal direttore di Key4Biz, Luigi Garofalo, è stato aperto dall’intervento di Paolo Vicchiarello, Capo Dipartimento Funzione Pubblica presso la Presidenza del Consiglio dei Ministri: “Nel contesto della Pubblica amministrazione, la digitalizzazione si traduce in semplificazione: riduzione dei tempi, alleggerimento degli oneri burocratici e maggiore efficienza nei processi di lavoro. Un percorso che ha conosciuto un’accelerazione significativa grazie agli investimenti del PNRR, permettendo alla PA di compiere passi avanti rilevanti. Tra i risultati più evidenti vi è la standardizzazione di numerosi servizi, in particolare nei settori delle attività produttive e dell’edilizia. Sono state introdotte piattaforme pubbliche con procedure omogenee a livello provinciale e regionale, che coinvolgono sia il front office sia il back office. Anche se spesso questi cambiamenti non sono immediatamente visibili agli utenti, i benefici si riflettono concretamente in tempi più rapidi, maggiore efficienza e, in prospettiva, in una crescente personalizzazione dei servizi.
L’evoluzione tecnologica ha infatti innescato un processo di innovazione che non riguarda solo gli strumenti, ma investe l’intera organizzazione, ridefinendo modelli operativi e modalità di erogazione dei servizi. La digitalizzazione viene così orientata sempre più verso le esigenze dei cittadini, con l’obiettivo di migliorare la qualità della vita. In questo scenario, la Pubblica amministrazione punta anche a diventare più attrattiva per le nuove generazioni. In questa direzione si inserisce la piattaforma InPA, progettata con un linguaggio più semplice e accessibile. Una sorta di “LinkedIn della PA”, dove è possibile creare e aggiornare il proprio profilo professionale, che viene poi messo in relazione con le offerte disponibili, consentendo agli utenti di ricevere notifiche sulle posizioni più in linea con le proprie competenze
”.

Sostenibilità, partecipazione e giustizia passano anche per le infrastrutture accessibili

La connettività si conferma come un fattore abilitante fondamentale per la democrazia e la libertà. In questa direzione, lo sforzo messo in campo dal governo è stato significativo, soprattutto per colmare il digital divide. Il completamento del Piano Banda Ultra Larga ha già consentito di collegare 6.100 Comuni e, entro il 30 giugno 2026, è previsto il completamento di tutti i progetti sostenuti dal PNRR, incluso il piano Italia a 1 Giga. Un passaggio rilevante riguarda anche il coinvolgimento delle Regioni, alle quali è stato proposto di sviluppare reti sopra le infrastrutture esistenti. In questa prospettiva si inserisce, ad esempio, l’accordo siglato con l’Abruzzo, finalizzato a collegare gli enti locali anche con le regioni limitrofe, creando un ecosistema infrastrutturale su cui potranno svilupparsi le nuove applicazioni digitali. La qualità della vita, in questo scenario, passa sempre più attraverso una connettività diffusa ed efficiente.
Siamo convinti che la rete debba entrare pienamente nei processi di crescita del Paese e diventare una vera leva di sviluppo. Una rete disponibile ma non utilizzata in maniera efficiente, infatti, non genera valore.
I risultati raggiunti hanno posizionato l’Italia come una best practice a livello europeo: diversi Paesi hanno guardato con interesse al modello italiano, visitando il Paese per studiarne le soluzioni adottate. Un esempio concreto è il Sinfi, il primo catasto elettronico delle infrastrutture, che integra non solo le reti di telecomunicazione, ma anche quelle energetiche e idriche, includendo persino i cavi sottomarini. Grazie all’intelligenza artificiale, questo strumento consente oggi di mappare in modo avanzato le reti e orientare gli investimenti futuri. Un approccio che ha suscitato interesse anche negli Stati Uniti, colpiti dal livello di digitalizzazione raggiunto.
Resta però aperta una sfida cruciale legata alle risorse umane. A giugno scadranno infatti i contratti di molte delle persone assunte per l’attuazione dei progetti PNRR. Un tema particolarmente delicato, considerando che il vero capitale delle organizzazioni, soprattutto in ambito tecnologico, è rappresentato dalle competenze del personale. La formazione ha permesso di creare profili altamente qualificati, che ora rischiano di disperdersi. Per questo motivo, sono in corso valutazioni per prorogare i contratti, anche alla luce del fatto che le attività legate al PNRR proseguiranno fino al 2029, tra rendicontazione e monitoraggio dei cantieri. Parallelamente, Infratel sta lavorando con le Regioni per estendere la copertura dei costi fino al 2032. Attualmente, tuttavia, si registra una perdita media di tre risorse al mese tra quelle formate, evidenziando la necessità di rafforzare la capacità di trattenere i talenti migliori. Il PNRR ha rappresentato un potente acceleratore, ma la vera sfida sarà garantire continuità e valorizzare nel tempo il lavoro realizzato. Ora occorre completare e rafforzare il presidio della governance delle reti pubbliche. Infratel Italia dovrà potenziare il proprio ruolo come presidio strategico dello Stato sulle infrastrutture di rete, contribuendo a garantire coordinamento, continuità e sicurezza
”, ha sostenuto Pietro Piccinetti, AD Infratel Italia.

Giorgio Scarpelli, COO Harmonic Innovation Group, ha invece parlato di “innovazione armonica”: “Un modello fondato su un approccio equilibrato tra le diverse dimensioni strategiche. Un paradigma che recupera una radice umanistica, offrendo punti di riferimento solidi per interpretare le scelte e le trasformazioni in atto.
In questa prospettiva, anche una startup potrebbe trarre vantaggio da un modello di sviluppo basato su una riflessione strutturata e consapevole, orientata al lungo periodo. Un approccio che valorizza la cultura d’impresa legata al territorio e che mira a costruire realtà capaci di durare nel tempo, andando oltre la logica del profitto immediato.
In quest’ottica, strumenti come incubazione, accelerazione e fondi di venture capital dovrebbero essere ripensati per sostenere un’innovazione più solida e sostenibile, capace di generare valore nel lungo termine
”.

Ambiente e sviluppo sostenibile

Il tema ambientale assume un peso diverso a seconda del settore e della tipologia di attività aziendale, ma si inserisce in un quadro più ampio che comprende sostenibilità e governance. L’universo ESG rappresenta oggi un elemento centrale per la crescita delle imprese, non solo per le grandi realtà ma anche, e forse soprattutto, per quelle di dimensioni più ridotte. Per le PMI, infatti, la sostenibilità è strettamente connessa alla gestione dei rischi, che non sono più soltanto di natura economica e finanziaria, ma includono aspetti ambientali, sociali e reputazionali. In questo contesto, il rapporto tra sostenibilità e comunicazione diventa cruciale e impone di affrontare con decisione il tema del greenwashing, evitando narrazioni fuorvianti o non supportate da dati concreti.
Parallelamente, si assiste a una crescita significativa della rendicontazione ESG, con bilanci di sostenibilità sempre più strutturati e tecnici. L’evoluzione richiesta alle imprese è chiara: non si tratta più di relegare i temi ESG a un capitolo separato, ma di integrarli in modo trasversale in tutte le attività aziendali, raggiungendo un livello di maturità più avanzato.
Un esempio concreto di impatto positivo è rappresentato dallo sviluppo di infrastrutture in fibra nelle aree colpite dal digital divide. Si tratta di interventi che generano un valore sociale rilevante, contribuendo a ridurre gli svantaggi socio-economici dei territori e andando ben oltre la semplice utilità privata. Allo stesso modo, l’innovazione tecnologica offre strumenti sempre più efficaci per la sostenibilità. Tecnologie IoT integrate con l’intelligenza artificiale consentono, ad esempio, di ridurre gli sprechi idrici nelle utility, prevedere i consumi e migliorare l’efficienza complessiva dei sistemi. Sul fronte infrastrutturale, iniziative come la realizzazione, insieme al fondo Azimut, di un cavo sottomarino che collega Mazara del Vallo a Genova, con due snodi in prossimità di Roma-Fiumicino e in Sardegna, testimoniano il valore strategico delle telecomunicazioni. Un asset fondamentale, soprattutto in un contesto globale segnato da crescente instabilità e incertezza
”, ha spiegato Paolo Bianchi, Head of Corporate Communication & ESG Unidata.

I dati ambientali rappresentano oggi un elemento strategico a supporto dell’azione di governo, sia a livello centrale sia locale. Il loro utilizzo è fondamentale, ad esempio, per il governo del territorio e per la gestione degli impatti che diversi fenomeni naturali e legati ad attività umane esercitano sulle comunità e sugli ecosistemi. Si tratta inoltre di informazioni cruciali per promuovere equità sociale e innovazione. I dati, infatti, possono favorire una maggiore partecipazione ai processi decisionali, consentendo ai cittadini di essere più consapevoli e coinvolti nelle scelte che riguardano il territorio. Non solo: possono orientare decisioni individuali rilevanti, come la scelta del luogo in cui vivere, sulla base di parametri quali il rischio idrogeologico, i livelli di inquinamento o la disponibilità di risorse idriche. Allo stesso tempo, risultano preziosi anche per settori come l’agricoltura, dove una conoscenza puntuale del contesto ambientale è determinante.
Il principale limite resta però l’accessibilità. Oggi il sistema dei dati ambientali appare frammentato, poco integrato e non sempre in grado di generare un impatto positivo diffuso sul benessere economico e sociale. In questo scenario, nonostante i progressi tecnologici, il ruolo dell’intelligenza umana rimane centrale. I dati satellitari per l’osservazione della Terra sono ormai ampiamente utilizzati e garantiscono livelli di accuratezza che raggiungono circa l’85%. Tuttavia, il margine di errore è ancora significativo e rende necessario un intervento umano complementare, sia per interpretare correttamente le informazioni sia per affinare continuamente gli strumenti e ridurre al minimo le imprecisioni
”, ha dichiarato Michele Munafò, Responsabile Servizio per il Sistema Informativo Nazionale Ambientale ISPRA.

L’AI in mano alla Pubblica Amministrazione per disintermediare e ridurre le complessità

Mario Nobile, Direttore Generale AGID, intervistato da Luigi Garofalo sul tema “Il futuro digitale dell’Italia”, ci ha permesso di capire il posizionamento del nostro Paese in questa epoca storica caratterizzata da forte e rapida innovazione tecnologica e da drammatica instabilità geopolitica.

Dal punto di vista tecnologico, l’Italia presenta una base digitale solida, costruita nel tempo attraverso importanti investimenti e politiche di diffusione dei servizi. I numeri lo dimostrano: 42 milioni di identità digitali, 48 milioni di carte di identità elettroniche, quasi 34 milioni di certificati di firma elettronica e circa 16 milioni di caselle PEC, rappresentano un patrimonio significativo anche nel confronto europeo. Nonostante questi risultati – ha sottolineato Nobile – permangono criticità legate soprattutto ai tempi e alla complessità burocratica. Procedure come l’apertura di un’impresa restano lente rispetto ad altri Paesi: in Germania, ad esempio, è possibile completarle in un solo giorno. In questo contesto, l’adozione di tecnologie come l’intelligenza artificiale rischia di non produrre i benefici attesi se non è accompagnata da una revisione profonda dei processi. Senza un cambiamento organizzativo e procedurale, anche gli strumenti più avanzati risultano poco efficaci.
Il sistema italiano, inoltre, è caratterizzato da una forte frammentazione amministrativa, con quasi 8.000 Comuni. Rendere operativi i servizi digitali in ciascuno di essi rappresenta una sfida complessa, che impone una riflessione strutturale, anche alla luce dei fenomeni di spopolamento che interesseranno molti territori. La digitalizzazione resta un obiettivo prioritario, ma richiede scelte organizzative coraggiose. Sul fronte dell’intelligenza artificiale, è importante mantenere uno sguardo realistico. Un’analogia utile è quella con i livelli della guida autonoma: il livello più avanzato, il livello 5, non è ancora stato raggiunto. Oggi ci collochiamo piuttosto tra il livello 3 e il livello 4, in una fase di automazione intermedia elevata. Questo significa che l’intervento umano rimane indispensabile. I sistemi di AI sono strumenti potenti, ma non sono dotati di coscienza né di reale capacità decisionale autonoma. Anche il dibattito sull’etica richiede chiarezza: più che parlare di “etica dell’AI”, è corretto riferirsi all’etica di chi la sviluppa e la utilizza. La responsabilità resta in capo agli esseri umani, che devono agire con maggiore consapevolezza.
Il tema della governance delle regole è altrettanto centrale. In un contesto internazionale sempre più frammentato, emerge la necessità di definire principi condivisi a livello globale. Le regole sull’intelligenza artificiale dovrebbero essere elaborate da organismi sovranazionali, capaci di rappresentare valori comuni e orientare l’innovazione verso obiettivi di interesse collettivo. Per sbloccare il potenziale innovativo del Paese in chiave sostenibile
– ha aggiunto Nobile – la Pubblica amministrazione sta lavorando su un approccio centrato sugli “eventi della vita” dei cittadini. L’intelligenza artificiale può giocare un ruolo importante nella semplificazione dei processi: un esempio emblematico è quello delle pratiche legate alla nascita di un figlio, che oggi richiedono numerosi adempimenti. L’obiettivo è disintermediare, ridurre la complessità e costruire uno “Stato agentico”, in grado di offrire informazioni e servizi in modo proattivo e accessibile. Semplificare le regole e sostenere dinamiche demografiche più favorevoli, come l’incremento delle nascite, può contribuire a rafforzare la crescita del Paese, anche in una prospettiva di sviluppo sostenibile”.

L’intelligenza del futuro: umana, artificiale, condivisa

Il primo intervento del secondo panel della sessione, moderato dal direttore Garofalo e dal titolo “L’intelligenza del futuro: umana, artificiale, condivisa”, è stato del Professore di Sociologia dei processi culturali e comunicativi dell’Università di Roma “LUMSA”, Francesco Nespoli: “Il dibattito contemporaneo non si concentra più tanto su ciò che distingue l’intelligenza umana da quella artificiale, quanto piuttosto sugli effetti che derivano dalla loro interazione. È in questa relazione che si gioca la vera sfida: comprendere come mantenere l’essere umano al centro, soprattutto in un contesto in cui contenuti, servizi e prodotti vengono sempre più spesso co-creati insieme ai sistemi generativi. Ci sono sia rischi sia opportunità. I sistemi di intelligenza artificiale, infatti, tendono a funzionare come amplificatori e specchi di bias già presenti nella società. Per questo motivo, la verifica delle fonti diventa un passaggio cruciale, in particolare in ambiti delicati come il giornalismo, dove l’affidabilità delle informazioni è fondamentale.
Interessante anche la differenza generazionale nell’approccio a questi strumenti: mentre le fasce più adulte e con maggiore esperienza tendono a riporre fiducia nei sistemi di fact checking, i più giovani mostrano un atteggiamento più critico e consapevole. Un elemento che evidenzia come la vera sfida sia anche di natura formativa, richiedendo nuove competenze per interpretare e utilizzare correttamente queste tecnologie
”.

Sul piano etico, invece, ha sottolineato da padre Alberto Carrara, Presidente Istituto Internazionale di Neurobioetica, “è possibile individuare valori condivisi da preservare nello sviluppo e nell’uso dell’intelligenza artificiale. Tuttavia, la loro definizione dipende inevitabilmente dal punto di vista adottato. La questione assume quindi una dimensione non solo tecnologica, ma anche sociale e antropologica. La sfida, in definitiva, è quella di individuare un minimo comune denominatore morale, capace di orientare lo sviluppo tecnologico in una direzione che sia sostenibile dal punto di vista umano e coerente con i valori fondamentali della società”.

Con la missione Artemis II si assiste a un cambio di paradigma significativo: l’attenzione si sposta progressivamente dall’esplorazione allo sfruttamento economico dello spazio. Un passaggio che apre nuove prospettive, ma che richiede anche un rafforzamento delle competenze, soprattutto per quanto riguarda l’integrazione delle tecnologie avanzate all’interno delle imprese, in particolare nel campo delle cosiddette deep tech. Le applicazioni spaziali stanno infatti assumendo un carattere sempre più trasversale, con potenziali ricadute in numerosi ambiti: dall’agroalimentare all’industria, fino alla ricerca medica e farmaceutica. Tuttavia, per le tecnologie di frontiera permane un ostacolo rilevante, rappresentato dalla capacità di assorbimento da parte del mercato. Una criticità che, ad esempio, non si è manifestata con la stessa intensità nel caso dell’intelligenza artificiale.
Si configura così una sorta di competizione tra il potenziale tecnologico e la sua effettiva applicazione, che impone una riflessione sui modelli di sviluppo. In Europa, l’economia dello spazio si caratterizza ancora per un’impostazione distributiva, strutturata come una piramide: le risorse vengono allocate dall’alto e successivamente distribuite lungo la filiera. La sfida, nella prospettiva della New Space Economy, è quella di ribaltare questo modello, favorendo dinamiche più aperte e orientate al mercato, capaci di stimolare innovazione diffusa e maggiore protagonismo degli attori industriali
”, ha affermato Domenico Maria Caprioli di yourscienceEDU.

Fake news, social media e comunicazione sostenibile

Il terzo panel, infine, sempre moderato da Garofalo, ha affrontato temi di massima rilevanza in termini sociali e comunitari, perfettamente riassunti nel titolo: “Informare o Influenzare? Fake news, social media e comunicazione sostenibile”.

Tra dimensione online e offline esiste ormai una continuità strutturale, che impone di rimettere al centro la società partendo proprio dalla comunicazione e dai suoi effetti sulle persone. Informazione e comunicazione, infatti, incidono in modo diretto sugli atteggiamenti e sui comportamenti degli individui e delle comunità, contribuendo a plasmare la percezione della realtà. In questo contesto, è importante evitare visioni catastrofiste: la tecnologia, di per sé, non ha una natura distruttiva. Piuttosto, è il modo in cui viene utilizzata e raccontata a fare la differenza. La comunicazione, quindi, assume una responsabilità centrale, che deve tradursi nella capacità di informare in modo corretto, senza generare allarmismi o traumi inutili.
Superare il sensazionalismo e andare alla radice dei fenomeni diventa essenziale per permettere alle persone di comprendere davvero ciò che accade. Un’informazione di qualità, fondata su rigore e chiarezza, può avere un effetto “terapeutico”, contribuendo a costruire consapevolezza e fiducia. Chi opera nel campo dell’informazione ha dunque un ruolo cruciale nello spazio pubblico, sia online sia offline, e deve esercitarlo con responsabilità. L’obiettivo è contribuire a un ecosistema meno “inquinato”, non solo dal punto di vista ambientale, ma anche comunicativo, contrastando la diffusione di fake news e promuovendo contenuti affidabili e di valore
”, ha spiegato Mihaela Gavrila, Professoressa di Medi Studies all’Università “Sapienza” di Roma.

Il dibattito sulla sostenibilità si muove oggi tra due polarità critiche: da un lato la diffusione di fake news sul clima, dall’altro il rischio sempre più diffuso di greenwashing. In questo contesto, comunicare in modo sostenibile significa adottare un approccio concreto e trasparente, che diventa una condizione imprescindibile per operare in maniera etica e per preservare la credibilità delle organizzazioni. Le imprese sono chiamate a un cambio di paradigma: solo quelle capaci di mettere al centro valori come resilienza e sostenibilità potranno affermarsi nel lungo periodo. Non è più possibile ottenere risultati duraturi senza un impegno reale e strutturato, in cui la comunicazione sostenibile diventa parte integrante di ogni attività aziendale.
Si tratta di una necessità strategica e, al tempo stesso, urgente e un esempio l’abbiamo con l’Agenda 2030. In questa direzione, infatti, si inserisce la proposta della Global Alliance, rilanciata in Italia da FERPI, di affiancare ai 17 Obiettivi di Sviluppo Sostenibile un 18° goal dedicato alla comunicazione responsabile, riconoscendone il ruolo chiave nel guidare il cambiamento. Un esempio concreto di questo impegno è rappresentato anche dalla collaborazione tra FERPI, ASviS e RAI per il “Glossario della sostenibilità”, una rubrica pensata per diffondere consapevolezza sui termini e sulle buone pratiche legate allo sviluppo sostenibile. Parallelamente, sul piano normativo, la Corporate Sustainability Reporting Directive (CSRD), entrata in vigore nell’Unione Europea, segna un punto di svolta nel reporting di sostenibilità. Non si tratta più di un esercizio volontario, ma di un quadro regolatorio vincolante, che impone alle imprese di integrare i criteri ESG nei bilanci e nelle strategie aziendali.
L’obiettivo è duplice: da un lato rafforzare la trasparenza e la comparabilità delle informazioni ambientali e sociali, dall’altro orientare il mercato verso modelli di crescita più sostenibili. Tuttavia, l’adeguamento alla CSRD ha comportato sfide significative per molte aziende, tra cui lo sviluppo di sistemi di gestione dei dati più evoluti, una maggiore collaborazione tra le diverse funzioni aziendali e, soprattutto, un cambiamento culturale interno. La transizione verso la rendicontazione obbligatoria ha infatti evidenziato la complessità operativa del processo: dalla raccolta e qualità dei dati, al coinvolgimento dell’intera catena del valore, fino alla distribuzione delle responsabilità nei processi decisionali. Nonostante ciò, molte imprese stanno trasformando questo obbligo in un’opportunità, utilizzando la CSRD come leva strategica per allineare gli obiettivi di sostenibilità alla pianificazione aziendale e generare un vantaggio competitivo nel lungo periodo
”, ha raccontato nel suo intervento Caterina Banella di Ferpi.

Riccardo Gallotti della Fondazione Bruno Kessler e Responsabile dell’unità di ricerca CHuB lab, ha poi introdotto il contesto europeo, dove “il contrasto alla disinformazione e alle fake news rappresenta una priorità crescente, con l’obiettivo di costruire un ecosistema informativo basato sulla fiducia. In questa direzione si collocano iniziative che integrano il monitoraggio automatizzato dei social media e dei contenuti informativi con tecnologie avanzate di intelligenza artificiale, pensate per supportare – e non sostituire – il lavoro dei verificatori umani. L’impatto della disinformazione, infatti, è sempre più evidente sia a livello individuale sia collettivo. Tuttavia, la quantità di contenuti prodotti online è tale da rendere impossibile un controllo esclusivamente umano: il ritmo di diffusione delle notizie false supera di gran lunga la capacità di analisi tradizionale. Da qui la necessità di ricorrere a strumenti basati sull’intelligenza artificiale, in grado di contrastare anche le forme più sofisticate di manipolazione.
In questo scenario si inserisce il progetto AI4TRUST, che propone un modello ibrido capace di combinare intelligenza umana e artificiale. L’obiettivo è rafforzare la capacità di risposta alla disinformazione in tutta l’Unione Europea, mettendo a disposizione di ricercatori e professionisti dei media tecnologie avanzate per l’analisi e la verifica dei contenuti. Il sistema sviluppato nell’ambito del progetto è progettato per monitorare in tempo quasi reale diverse piattaforme social, utilizzando algoritmi di intelligenza artificiale in grado di analizzare contenuti multimodali – testi, immagini e audio – e multilingue. I contenuti potenzialmente critici vengono segnalati agli esperti per una revisione approfondita, con l’obiettivo finale di produrre report affidabili e personalizzati, utili sia per gli operatori dell’informazione sia per i decisori pubblici.
La complessità del contesto attuale rende sempre più difficile distinguere tra informazione e disinformazione. La velocità delle tecnologie supera spesso quella delle notizie stesse e della capacità umana di elaborarle. Già durante lo svolgimento degli eventi, infatti, circolano online contenuti manipolati o completamente generati dall’intelligenza artificiale, rendendo sempre più sfumato il confine tra vero e falso. L’enorme quantità di contenuti prodotti con strumenti generativi complica ulteriormente il lavoro di verifica e indagine. La sfida, oggi, è quindi sviluppare modelli di analisi e comprensione della realtà – anche nella sua dimensione digitale – capaci di stare al passo con una rete che dispone di strumenti sempre più avanzati per la manipolazione dei contenuti
”.

Il Corecom (Comitato Regionale per le Comunicazioni) è un organismo istituito a livello regionale che svolge funzioni di garanzia, consulenza e controllo nel settore delle comunicazioni, operando in stretto raccordo con l’Autorità per le Garanzie nelle Comunicazioni (Agcom). Tra i servizi offerti, vi è anche la conciliazione gratuita delle controversie tra utenti e operatori di telefonia, internet e Pay-TV, uno strumento fondamentale per la tutela dei cittadini. In qualità di articolazioni territoriali dell’Agcom, i Corecom rivestono un ruolo centrale nella protezione del pubblico, in particolare a livello locale. Le loro attività comprendono il monitoraggio della corretta rappresentazione politica e della qualità dei contenuti audiovisivi, contribuendo a garantire un’informazione equilibrata e trasparente.
Con l’evoluzione tecnologica e la crescente diffusione di strumenti di manipolazione video, come i deepfake, le funzioni di vigilanza si stanno progressivamente ampliando anche alla lotta contro la disinformazione, con l’obiettivo di tutelare il dibattito democratico. In questo contesto, emerge con forza il valore strategico della cooperazione tra istituzioni. Come sottolineato da Barbato, “fare rete” è essenziale per monitorare in modo efficace i rischi emergenti e intervenire tempestivamente. Un esempio concreto è rappresentato dalla collaborazione tra Corecom e Polizia postale, particolarmente rilevante nella tutela dei minori e nel contrasto alle minacce informatiche. Tuttavia, la sfida principale resta quella educativa.
Il pubblico di riferimento è costituito soprattutto da giovani e studenti, ai quali è necessario fornire strumenti per comprendere i rischi della rete e sviluppare uno spirito critico. In questa direzione si inseriscono le attività di alfabetizzazione digitale promosse nelle scuole, attraverso percorsi formativi modulari dedicati alla sicurezza online. Nonostante gli sforzi, però, il divario culturale e comportamentale rimane significativo, rendendo evidente la necessità di rafforzare ulteriormente le iniziative formative. Per questo motivo, l’educazione civica assume un ruolo fondamentale, così come l’introduzione di strumenti come il “patentino digitale”, pensati per accompagnare le nuove generazioni verso un uso più consapevole e responsabile delle tecnologie
”, ha dichiarato Carola Barbato, Coordinatore Nazionale Corecom.

Al centro dell’innovazione tecnologica c’è sempre l’elemento umano

Nelle conclusioni della sessione, Silvia Testarmata, Presidente Corso di Laurea in Scienze della Comunicazione, Marketing e Digital Media dell’Università di Roma “LUMSA”, ha sottolineato che “non può esserci innovazione senza trasparenza e responsabilità”, aggiungendo che “in un contesto sempre più orientato alla sostenibilità, il ruolo della comunicazione diventa centrale: una comunicazione autentica, fondata sulla verità, è infatti essenziale per costruire fiducia e accompagnare i processi di trasformazione.
Al centro dello sviluppo tecnologico non c’è la tecnologia in sé, ma l’elemento umano, che si esprime attraverso le persone e le comunità. È questa dimensione a determinare il senso e la direzione dell’innovazione. In tale prospettiva, la comunicazione digitale assume un valore sempre più educativo, legato alla qualità dell’informazione e alla capacità di formare cittadini consapevoli.
La formazione diventa quindi un fattore decisivo per affrontare le sfide contemporanee, in particolare quelle connesse alla disinformazione e all’uso distorto delle tecnologie, che incidono profondamente sulla percezione della realtà. In questo scenario, i professionisti della comunicazione sono chiamati a svolgere un ruolo attivo e consapevole, esercitando una responsabilità etica rilevante nella gestione e nella narrazione dell’innovazione digitale”.

Un appuntamento, quello offerto da Impatta Disrupt, di estrema attualità, che ci ha permesso di approfondire argomenti che necessitano un confronto urgente tra Istituzioni, imprese, società civile e mondo accademico e religioso, perchè, come ha detto sempre ieri il Presidente della Repubblica, Sergio Mattarella, in occasione dell’incontro al Quirinale con una delegazione di studenti di scuole di giornalismo: “L’Intelligenza Artificiale sta conquistando un ruolo sempre più diffuso se non addirittura egemone nella nostra esistenza, rendendo ancora più urgente la riflessione sul rapporto con la verità. Occorre un’adeguata consapevolezza morale per rendere possibile il suo utilizzo a beneficio dell’umanità, con la definizione di regole. Come quelle messe in campo dall’Unione Europea per il governo dell’Intelligenza Artificiale senza che essa si trasformi in uno strumento di dominio da parte di giganti tecnologici che pretendono di sostituirsi agli Stati sovrani e all’ordinamento internazionale. Le trasformazioni in atto nel mondo dell’informazione interrogano anche i giornalisti e sollecitano a rifuggire dal rischio di indolenza o di negligenza: le trasformazioni non mutano la natura della professione, anzi, ne accentuano, piuttosto, le responsabilità“.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/lai-giusta-nobile-agid-la-pa-deve-semplificarsi-e-lavorare-allo-stato-agentico/569831/




Meta spins up AI version of Mark Zuckerberg to engage with employees

In September 2023, Meta launched its Meta AI assistant as well as a range of AI-powered chatbots exhibiting different personalities based on celebrities such as Snoop Dogg, who agreed to have their voice and likeness used in the feature.

The so-called AI characters were developed as Zuckerberg noted the success of AI companion start-up Character AI, particularly with younger users, according to several people familiar with the matter.

Meta later rolled out an “AI Studio,” which allows users to generate their own AI characters, or creators to build AI versions of themselves to chat with fans.

However, the persona efforts faced controversy last year following reports that users were generating overtly sexual characters, amid concerns from the public and regulators over child safety. Since January, Meta has restricted teen access to its AI characters.

According to people familiar with the matter, Meta’s newly formed Superintelligence Labs have explored a fresh set of characters.

The company has focused in part on making photorealistic embodiments of virtual AI characters, four people said. But scaling the effort has been difficult as the technology requires lots of computing power to achieve realism and avoid a lag in interactions with users.

Meta has also been working on improving voice interactions with the characters. Last year, it acquired two voice companies, PlayAI and WaveForms.

The Zuckerberg character will be trained on images of the chief executive as well as his voice, one person said. If the experiment is a success, influencers and creators might one day be able to do the same, the person added.

Meta has been pushing employees to use AI technology internally to streamline processes and become more efficient. Employees are being encouraged to use agentic tools from the open source software OpenClaw and design their own agents to automate tasks.

Product managers are being invited to do an AI-focused “skills baseline exercise,” according to several people familiar with the matter. This includes a technical system design test, as well as an exercise in “vibe coding.”

Some staff fear this could be a prelude to job cuts. Meta said the exercise was not mandatory and designed to establish where product managers might need extra training and development.

Additional reporting by Cristina Criddle in San Francisco

© 2026 The Financial Times Ltd. All rights reserved. Not to be redistributed, copied, or modified in any way.

https://arstechnica.com/ai/2026/04/meta-spins-up-ai-version-of-mark-zuckerberg-to-engage-with-employees/




To teach in the time of ChatGPT is to know pain

What’s the point of building formative assessments into a course if they’re just handed off to an LLM? Suddenly, it’s a waste of time for both the student and the instructor. Small quizzes are excellent study tools to help students check their own understanding―if a student does them. Now, you can direct an “agentic” LLM browser to complete all the quizzes in an entire course with a single, frictionless prompt.

Should instructors preserve these sorts of assignments for students who want to benefit from them and accept the cheating, or should they eliminate the learning opportunity just to prevent cheating?

Evolution, the natural selection

Many instructors are trying to adapt to this crisis by going back to the only evaluation tools that are pretty much LLM-proof—tests like oral exams or handwritten work created under supervision in the classroom.

None of these solutions are available to instructors of asynchronous online classes. That sucks, since the availability of those classes is important. They can serve students with physical disabilities, students in rural areas far from a campus, or students trying to obtain a degree while working full-time jobs or caring for dependents. If we have to simply give up on the idea of online classes, those are the casualties.

But even for in-person classes, adaptations to prevent LLM cheating are often concessions that reduce pedagogical quality. For example, labor-intensive oral exams didn’t become an endangered species just because of the swelling student-to-instructor ratio. Pen and paper (or keyboard and mouse) exams make it easier for each student’s experience to be the same and remove some of the potential for bias in scoring.

Writing assignments that may previously have been excellent teaching tools have obviously become the first things to end up on the chopping block. I used to have students in a natural disasters class write a plot for a big-budget Hollywood disaster movie, using both accurate and implausible physical processes. It was good practice for their writing skills; the students found it enjoyable, and it forced them to skillfully apply a lot of what they had learned.

https://arstechnica.com/science/2026/04/to-teach-in-the-time-of-chatgpt-is-to-know-pain/




AI models are terrible at betting on soccer—especially xAI Grok

“Every frontier model we evaluated lost money over the season and many experienced ruin,” the authors of the paper concluded, with the AI “systematically underperforming humans” in this scenario.

AI Model Mean ROI Best try Worst try Mean final bankroll
Anthropic Claude Opus 4.6 –11.0% –0.2% –18.8% £89,035
OpenAI GPT-5.4 –13.6% –4.1% –31.6% £86,365
Google Gemini 3.1 Pro –43.3% +33.7% –100.0% £56,715
Google Gemini Flash 3.1 LP –58.4% +24.7% –100.0% £41,605
Z.AI GLM-5 –58.8% –14.3% –100.0% £41,221
Moonshot Kimi K2.5 –68.3% –27.0% –100.0% £7,420
xAI Grok 4.20 –100.0% –100.0% –100.0% £0
Acree Trinity –100.0% –100.0% –100.0% £0
Each model began with a £100,000 normalized bankroll. Return on investment and final bankroll are averaged across three tries. Grok and Trinity did not complete every attempt.

The results offer some comfort to white-collar professionals and businesses who are fretting that AI could take their jobs, as it roils the shares of industries from finance to marketing.

Ross Taylor, one of the study’s authors and General Reasoning’s chief executive, said: “There is so much hype about AI automation, but there’s not a lot of measurement of putting AI into a longtime horizon setting.”

He added that many of the benchmarks typically used to test AI are flawed because they are set in “very static environments” that bear little resemblance to the chaos and complexity of the real world.

General Reasoning’s paper, which has not yet been peer reviewed, provides a counterweight to growing excitement in Silicon Valley about the huge recent leaps in AI’s ability to complete computer programming tasks with little to no human intervention.

Taylor, a former Meta AI researcher, said: “If you… try AI on some real-world tasks, it does really badly… Yes, software engineering is very important and economically valuable, but there are lots of other activities with longer time horizons that are important to look at.”

© 2026 The Financial Times Ltd. All rights reserved. Not to be redistributed, copied, or modified in any way.

https://arstechnica.com/ai/2026/04/ai-models-are-terrible-at-betting-on-soccer-especially-xai-grok/




What leaked “SteamGPT” files could mean for the PC gaming platform’s use of AI

These days, it seems like every tech company and their corporate parent is looking to squeeze AI tools and features into their products, whether they’re wanted or not. So when files with names and functions referencing a “SteamGPT” appeared in a recent Steam client update, Valve watchers took quick notice.

From the outside, it’s hard to tell precisely what form any such “SteamGPT” would take. But looking through variable names and references in the files themselves suggests that Valve may be looking to use AI tools to streamline internal evaluations of in-game incidents and sift through potentially suspicious accounts.

Looking at the variables

As tracked by the automated SteamTracking GitHub project, the term “SteamGPT” appears multiple times in three separate files added in the April 7 Steam client update. In addition to the SteamGPT naming convention—a seemingly obvious reference to the generative pre-trained transformers popularized by ChatGPT and its ilk—the files include mentions of terms like multi-category inference, fine-tuning, and “upstream models” that point to some sort of generative AI system.

What might that AI be used for? Well, the files contain multiple references to a labeler and “labeling tasks,” working with arguments identifying a “problem” and “subproblem” and looking at an “evaluation_evidence_log” related to a specific “matchid.” Together with mentions of a “logs_to_inference” metamodel, that sounds like it could be a hook into a system for automatically generating labels to categorize the various incident reports made in Steam multiplayer games.

A SteamGPT function makes references to numerous security features.

A SteamGPT function makes references to numerous security features. Credit: SteamTracking / Github

Another portion of the SteamGPT files hints that Valve might use AI tools to summarize suspicious activity history or patterns in potentially fraudulent Steam accounts. A number of “SteamGPTSummary” functions include references to VAC bans, Steam Guard, and account lockdowns. These functions also seem to look at evidence such as email addresses (“high_fraud_email”), use of advanced security features (“two_factor”), and where a linked phone number originates (“phone_country”) to help determine whether an account is on the up-and-up. There are also a few references here to an account’s trust score, which is already used to help secure matchmaking in games like Counter-Strike 2.

https://arstechnica.com/gaming/2026/04/what-is-steamgpt-leaked-files-point-to-ai-powered-valve-security-review-system/




Pro-Iran Explosive Media trolls Trump with AI-generated Lego cartoons

But none of those bore the sophistication or cultural insight of the videos currently being shared by Explosive Media.

In one video, the group depicts Trump ordering the strikes on Iran after reviewing an “Epstein File” while standing alongside Satan and Israeli prime minister Benjamin Netanyahu. In another, Iranian missiles bearing the names of everyone from Malcolm X to the victims of Jeffrey Epstein are shown being fired at the US. In a short video posted over the weekend, the group showed Trump holding up a victory sign while his behind was on fire. Many of the videos also feature catchy music including original rap tracks in English. The group has even set up its own Spotify page where it has posted the songs from the videos.

The group claims that it is not associated with the Iranian regime, but its pro-regime stance, coupled with the fact it seemingly has Internet access in a country that is virtually cut off from the global Internet, may suggest otherwise. “Seeing as how the regime in Iran has effectively cut off the Internet to everyone else, I think you’d have to be pretty close to the government to have access to the Internet,” says Ayad.

The group told WIRED that it obtained Internet access because it was viewed as a media organization, claiming over 2.5 million followers on different “Iranian messaging channels.”

The Iranian regime has leveraged social media to push their side of the conflict to a non-Iranian audience, often combining AI and humor.

After Trump warned Iranians that they would soon be “living in Hell” this week, the country’s embassy in Zimbabwe posted on X suggesting they had lost the keys to the Strait of Hormuz. The Iranian embassy in Tunisia posted an AI-video of Trump walking off Air Force One holding a large white flag.

“All that stuff has been really demonstrating both Iranian capabilities to understand what American audiences gravitate towards and also a firm understanding how the Internet functions, especially social media platforms and what gets the most attention, what gets people re-sharing the content, engaging with the content,” says Ayad. “And they’ve done that well with the Lego videos. I don’t think there’s another piece of media that has come out of this conflict that has been talked about, re-shared as much as the Lego videos.”

This story originally appeared on wired.com.

https://arstechnica.com/culture/2026/04/pro-iran-explosive-media-trolls-trump-with-ai-generated-lego-cartoons/




Anthropic, nuova sentenza della Corte federale e round favorevole al Pentagono e Trump

La Corte d’Appello federale della Columbia dà ragione al Pentagono: Anthropic rimane un rischio per la sicurezza della supply chain

Anthropic è quindi un problema per la sicurezza nazionale degli Stati Uniti, o no? A questa domanda non sarà facile rispondere definitivamente, perché per un po’ di tempo assisteremo a uno scontro tra tribunali a suon di sentenze. Una sceneggiatura buona per un film del tipo courtroom drama all’americana, dove i colpi di scena non mancheranno.

La battaglia legale tra Anthropic e il Pentagono entra quindi in una nuova fase, che per ora sorride all’amministrazione Trump. La Corte d’Appello federale del Distretto di Columbia ha infatti respinto la richiesta urgente della società di sospendere la propria designazione come “rischio per la sicurezza della catena di approvvigionamento”, lasciando in vigore il provvedimento del Dipartimento della Guerra (ex Difesa).

La decisione dei giudici non rappresenta ancora un verdetto definitivo, ma segna un passaggio chiave: il tribunale ha rifiutato di bloccare temporaneamente la misura, consentendo al Pentagono di continuare a escludere Anthropic dai contratti militari e, potenzialmente, da una più ampia platea di forniture federali.

La società, sviluppatrice dell’assistente AI Claude, aveva chiesto una sospensione sostenendo che la designazione le avrebbe causato danni economici e reputazionali per miliardi di dollari. I giudici hanno riconosciuto il rischio di tali danni, ma hanno ritenuto prevalenti le esigenze di sicurezza nazionale e operatività militare.

L’acting Attorney General, Todd Blanche, ha definito la decisione “una vittoria per la prontezza militare”, ribadendo in un post che “l’autorità militare e il controllo operativo appartengono al comandante in capo e al Dipartimento della Guerra, non a una società tecnologica”.

Lo scontro sull’uso dell’AI in guerra

Alla base del contenzioso c’è una frattura profonda tra governo e azienda sull’impiego dell’intelligenza artificiale in ambito militare. Il segretario alla Guerra, Pete Hegseth, ha classificato Anthropic come rischio per la supply chain dopo che la società si era rifiutata di rimuovere alcuni limiti (guardrail) dai propri modelli, in particolare per applicazioni legate alla sorveglianza e alle armi autonome.

Una posizione coerente con la linea dichiarata dall’azienda sulla sicurezza dell’AI, ma che, secondo il Dipartimento della Difesa, avrebbe potuto generare incertezza operativa fino a compromettere sistemi militari in contesti critici.

Il governo sostiene che la decisione non sia legata alle opinioni di Anthropic, bensì al rifiuto di accettare determinate clausole contrattuali. Di segno opposto la tesi dell’azienda, che accusa Washington di aver violato il Primo Emendamento (libertà di espressione) e il Quinto Emendamento (diritto al giusto processo), non avendo potuto contestare formalmente la designazione.

Un’accusa riconosciuta valida da una sentenza favorevole ad Anthropic emessa da un Tribunale della California appena due settimane fa.

Un caso senza precedenti

La misura adottata dal Pentagono è senza precedenti: è la prima volta che una società americana viene pubblicamente etichettata come rischio per la sicurezza della catena di approvvigionamento sulla base di norme pensate per prevenire sabotaggi o infiltrazioni nemiche.

Il caso si inserisce inoltre in un contesto paradossale: nel 2025 Anthropic aveva firmato un contratto da 200 milioni di dollari con il Dipartimento della Difesa, portando Claude all’interno delle reti classificate del governo e nei laboratori nucleari, con funzioni anche di analisi di intelligence.

La rottura è quindi recente e riflette un cambio di clima politico e strategico sull’uso dell’AI in ambito militare.

I prossimi passaggi: verso una decisione di merito

Il cuore della partita si giocherà ora nel merito. La stessa Corte del Distretto di Columbia ha accelerato il calendario e dovrebbe pronunciarsi già il 19 maggio 2026 sulla legittimità della designazione.

In quella sede i giudici dovranno stabilire se la misura sia: fondata su elementi concreti, proporzionata rispetto ai rischi e compatibile con i diritti costituzionali invocati da Anthropic.

La decisione avrà effetti anche sugli altri procedimenti federali, contribuendo a definire un precedente cruciale nel rapporto tra sicurezza nazionale e libertà delle imprese tecnologiche.

Possibile escalation alla Corte Suprema

Qualunque sia l’esito, è probabile che la vicenda non si chiuda lì. Se la linea favorevole al Pentagono dovesse essere confermata, Anthropic potrebbe rivolgersi alla Corte Suprema, puntando soprattutto sul tema del Primo Emendamento.

Allo stesso modo, una decisione contraria al governo potrebbe spingere il Dipartimento della Difesa o la Casa Bianca a chiedere un intervento del massimo organo giudiziario.

Un contesto di crescente allarme sull’AI

Il caso giudiziario si intreccia con un clima di crescente preoccupazione istituzionale. Secondo Bloomberg, il segretario al Tesoro, Scott Bessent, e il presidente della Federal Reserve, Jerome Powell, hanno recentemente convocato i vertici delle principali banche di Wall Street, tra cui Jane Fraser (Citigroup), Ted Pick (Morgan Stanley), Brian Moynihan (Bank of America), Charlie Scharf (Wells Fargo) e David Solomon (Goldman Sachs), per discutere dei rischi informatici legati ai nuovi modelli di AI, incluso il sistema “Mythos” sviluppato da Anthropic.

Il timore è che una nuova generazione di attacchi cyber possa mettere sotto pressione infrastrutture finanziarie sistemiche.

Una posta in gioco da centinaia di miliardi

La controversia arriva in un momento di crescita straordinaria per Anthropic. La valutazione della società è passata da oltre 65 miliardi di dollari nel marzo 2025 a circa 350 miliardi all’inizio del 2026, con previsioni di 400-600 miliardi in vista della quotazione in Borsa.

Il fatturato annualizzato ha superato i 30 miliardi di dollari ad aprile 2026, mentre il valore delle stock option dei dipendenti è aumentato rapidamente, moltiplicandosi fino a dieci volte in alcuni casi. Aprendo di fatto una sfida tecnologica e di potere con OpenAI di Sam Altman.

Proprio questa espansione rende la posta in gioco ancora più elevata: una conferma definitiva della “blacklist” potrebbe incidere profondamente sul posizionamento dell’azienda nei mercati pubblici e nei rapporti con governi e grandi clienti istituzionali.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/anthropic-nuova-sentenza-della-corte-federale-e-round-favorevole-al-pentagono-e-trump/569068/