To beat Altman in court, Musk offers to give all damages to OpenAI nonprofit

“That is not the law,” the judge wrote, noting that such a theory would allow a charitable donor like Musk to sue at basically any time, without limitations. “Accordingly, the Court will not instruct the jury on continuous accrual.”

In his latest filing, Musk tries to recover from the order, arguing that he’s changing the remedies so late in the game in order to ensure that the trial “remains focused” on “critical remedies.”

“The remedies Musk intends to seek are strictly tied to his purpose in bringing this lawsuit: to prevent the subordination of a public charity—one he co-founded and for which he was the primary supporter during its formative years—to private, for-profit interests,” the filing said.

Musk continues to accuse Altman, Greg Brockman, and other defendants of making false promises when soliciting “donations, labor, and public goodwill under solemn promises that OpenAI would operate as a nonprofit for the benefit of humanity.”

Their true goal, Musk has alleged, was to convert those assets “into a wealth machine for themselves, Microsoft, and Silicon Valley insiders.” (Musk is not alone in drawing such conclusions; his lawsuit was cited in a recent New Yorker investigation into Altman’s trustworthiness.)

To forever unplug Altman’s alleged “wealth machine,” Musk is suing to return profits to the charity, unseat Altman from the board and the company, and “unwind OpenAI’s for-profit conversion and restructuring,” so that OpenAI permanently stays a nonprofit charity.

Musk suit remains “baseless,” OpenAI says

Whether the jury’s ruling will be impacted by Musk’s efforts to update the remedies being sought will soon be tested, as the trial is expected to start this month.

His filing said that OpenAI’s alleged “breach of charitable trust, fraud, and unjust enrichment” is “at the heart of this case,” but for the extreme remedies he seeks, his argument seems somewhat weak and untested.

To justify the remedies, Musk points to California law, which, he said, “is clear that courts have broad equitable authority to remedy exactly this kind of misconduct.” But his lawyer placed emphasis on the part of the statute that says that “a plaintiff with standing may bring an action to ‘enjoin, correct, obtain damages for or to otherwise remedy a breach of a charitable trust.” Most likely it will be up to a jury to interpret the vague statute and determine if returning ill-gotten gains in the amounts calculated by Musk’s expert is an appropriate remedy.

https://arstechnica.com/tech-policy/2026/04/to-beat-altman-in-court-musk-offers-to-give-all-damages-to-open-ai-nonprofit/




AI, investimenti in Europa cresciuti di 200 volte a 123 miliardi di dollari in 10 anni. La spesa premia la resilienza?

Dalla sovranità alla resilenza tecnologica, gli investimenti in AI premiano la sicurezza: 123 miliardi di dollari in Europa tra il 2016 ed il 2025

Tra il 2016 e il 2025 gli investimenti diretti esteri nell’intelligenza artificiale (AI) sono cresciuti di circa 200 volte, mentre il numero di progetti annuali è aumentato di circa 20 volte. Oggi, solo nell’Unione europea, questi flussi valgono oltre 123 miliardi di dollari, segnale di una competizione globale che si gioca sempre meno sulla proprietà delle tecnologie e sempre più sulla capacità di attrarre capitali, competenze e infrastrutture.

È da questi numeri che bisogna partire per comprendere il vero cambio di paradigma in atto nell’economia dell’intelligenza artificiale. Secondo il rapportoFor Most Countries, AI Sovereignty Is an Illusion. Resilience Is Real, pubblicato da Boston Consulting Group Henderson Institute e firmato da Nikolaus Lang, Matt Langione, Sesh Iyer, Amartya Das e David Zuluaga Martínez, la sovranità tecnologica, così come è stata finora concepita, è destinata a rimanere un’illusione per la maggior parte dei Paesi. La nuova parola chiave è resilienza.

L’impari lotta tra Big Tech e Stati, come la sovranità AI diventa difficile (se non rischiosa)

Per anni, si legge nel Report, governi e istituzioni hanno inseguito l’idea di controllare l’intera catena del valore dell’AI: infrastrutture, modelli, dati. Una strategia comprensibile in un contesto geopolitico segnato da tensioni crescenti tra Stati Uniti, Cina e blocchi regionali, dove l’intelligenza artificiale è al tempo stesso leva economica e strumento di potere.

Ma la realtà industriale, secondo gli studiosi che hanno realizzato il documento, racconta un’altra storia. La costruzione di un ecosistema completamente autonomo richiede una combinazione di capitale, capacità ingegneristiche e scala che solo poche superpotenze possono permettersi. Anche quando gli Stati intervengono con programmi ambiziosi, il divario con il settore privato resta enorme, vincono le asimmetrie strutturali.

Il caso dell’India è emblematico: il programma pubblico IndiaAI ha raggiunto circa 62.000 GPU, dopo un investimento iniziale di circa 1,1 miliardi di dollari. Nello stesso arco temporale, Microsoft ha acquistato da sola circa 485.000 GPU di nuova generazione nel solo 2024, mentre altri grandi laboratori operano cluster superiori alle 100.000 unità.

Siamo all’inversione della gerarchia fra politica e digitale di cui ha parlato su Key4Biz Michele Mezza. Lo Stato non può quasi più nulla contro i giganti tecnologici globali, sia in termini politici e quindi di controllo, che in termini prettamente economici e finanziari. Una questione di supremazia che riguarda ormai solo Stati Uniti e Cina.

La conseguenza è evidente: la sovranità “full stack” non è solo difficile, ma anche rischiosa. Richiede investimenti enormi in tecnologie che potrebbero diventare rapidamente obsolete con l’evoluzione dei paradigmi AI.

Il valore si crea dove l’AI viene usata, con l’obiettivo di “ridurre al minimo le dipendenze critiche”

In questo scenario, il punto cruciale si sposta dall’offerta alla domanda. Secondo il Fondo Monetario Internazionale, l’adozione dell’intelligenza artificiale può contribuire fino al 4% del PIL globale nel prossimo decennio, pari a circa 4.700 miliardi di dollari.

Ma questo valore non si genera nei laboratori dove i modelli vengono sviluppati. Si crea nei luoghi in cui l’AI viene integrata nei processi produttivi, nei servizi e nella pubblica amministrazione. È qui che si gioca la vera partita della competitività.

Il rapporto BCG lo esplicita chiaramente: per la maggior parte dei Paesi, la strategia più efficace consiste nel “usare, adattare e governare l’AI a livello domestico, riducendo al minimo le dipendenze critiche”.

Europa tra ritardi e pragmatismo

L’Europa rappresenta un laboratorio particolarmente interessante di questa transizione. I primi tentativi di costruire una “sovranità cloud” continentale, come il progetto GAIA-X, si sono spesso arenati in complessità burocratiche e risultati limitati.

Negli ultimi anni, però, il continente ha adottato un approccio più pragmatico. Iniziative come i supercomputer LUMI in Finlandia e Leonardo in Italia, sviluppati nell’ambito del programma EuroHPC, non mirano a competere direttamente con gli hyperscaler globali, ma a garantire una base minima di capacità domestica, accessibile a imprese, ricercatori e pubbliche amministrazioni.

È un cambio di prospettiva: non possedere tutto, ma assicurarsi che le applicazioni critiche possano essere eseguite sotto regole nazionali, con livelli adeguati di sicurezza e compliance.

Il ruolo degli investimenti esteri e il nuovo trend di co-progettare la sovranità

In questo contesto, i flussi di investimenti diretti esteri assumono un ruolo strategico. Non sono più solo un indicatore economico, ma uno strumento di politica industriale e geopolitica.

Il rapporto evidenzia come questi investimenti stiano ridisegnando la geografia dell’AI: oltre agli Stati Uniti e alla Cina, capitali e infrastrutture si stanno spostando verso Paesi come India, Corea del Sud e Malesia, mentre l’Europa si conferma uno dei principali poli di attrazione.

L’obiettivo non è eliminare l’interdipendenza, ma progettarla o co-progettarla. È il concetto di “friend-shoring”: costruire catene del valore distribuite tra Paesi alleati, riducendo l’esposizione a singoli punti di vulnerabilità.

Politiche pubbliche: quattro leve per la resilienza

Lo studio del BCG Henderson Institute, basato sull’analisi delle politiche adottate da oltre 30 Paesi tra economie avanzate, emergenti e piccoli Stati, individua infine quattro direttrici fondamentali per costruire resilienza: infrastrutture, fiducia, domanda e partnership.

  • Infrastrutture: garantire capacità locale per eseguire carichi di lavoro critici.
  • Trust e valori: definire standard operativi che rendano l’AI affidabile e adottabile.
  • Adoption pull: incentivare l’uso concreto da parte delle imprese.
  • Partnership: attrarre capitali e competenze mantenendo il controllo sulle regole.

Esempi concreti arrivano da tutto il mondo: dal Brasile, che destina circa 4,3 miliardi di dollari al suo piano nazionale AI con il 65% delle risorse orientate all’adozione industriale, alla Corea del Sud, che sostiene le PMI con voucher fino a 140.000 dollari per l’acquisto di soluzioni AI.

AI, potere e geopolitica

Nel contesto attuale, segnato da conflitti commerciali, tensioni tecnologiche e competizione strategica tra blocchi, l’intelligenza artificiale è diventata un’infrastruttura critica, al pari dell’energia o delle telecomunicazioni.

Controllare l’AI significa avere il potere di influenzare catene produttive, sicurezza nazionale, capacità militari e modelli di governance. Per questo, secondo gli autori del Report, la logica della chiusura totale appare sempre meno sostenibile. Così come per il cloud, altra infrastruttura critica e strategica, strettamente legata all’AI, si sta procedendo a combinare le capacità tecnologiche ed industriali degli hyperscaler con le necessità e i requisiti stringenti di governance e controllo locale del dato.

La vera sfida non è isolarsi, ma costruire sistemi capaci di funzionare anche in condizioni di shock, come di interruzioni delle forniture, restrizioni commerciali e crisi geopolitiche”, è spiegato nel documento.

La nuova sovranità è nella capacità d’uso dell’AI?

Il messaggio finale del rapporto è quindi molto semplice e allo stesso pragmatico: per la maggior parte dei Paesi, la forma più efficace di sovranità non è il controllo diretto della tecnologia, ma la capacità di utilizzarla in modo affidabile, sicuro e conforme alle proprie regole.

Un finale che assomiglia più a una resa alle Big Tech e alla forza degli Stati Uniti che ad una vera e propria strategia di crescita autonoma da parte dell’Europa e degli altri Paesi. Forse un finale anche scontato, vista la sproporzione delle forze economiche e tecnologiche in campo, frutto anche di un gap incolmabile.

In altre parole, pare di capire: la sovranità dell’AI non si misura più in chip posseduti o modelli addestrati, ma nella diffusione dell’intelligenza artificiale nell’economia reale. Un modo come un altro per “accettare” il finale di cui sopra, come condizione di “forza maggiore”. Tornando all’inversione della gerarchia tra politica e tecnologia di Mezza: “non sono più le dimensioni di una potenza ad imporsi ma la capacità di distribuire saperi e competenze” e di fare accettare a tutti gli altri questa condizione di supremazia.

È qui, dunque, in questa “condizione”, che si decide chi guiderà la crescita nei prossimi dieci anni. Ed è qui che l’Europa dovrà dimostrare di saper trasformare il capitale in capacità produttiva, si capisce dallo studio, evitando di restare intrappolata tra ambizioni di autonomia e dipendenze inevitabili.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-investimenti-in-europa-cresciuti-di-200-volte-a-123-miliardi-di-dollari-in-10-anni-la-spesa-premia-la-resilienza/568684/




What the heck is wrong with our AI overlords?

I don’t—thankfully—have to follow every statement that Sam Altman, the CEO of OpenAI, makes about the world. Many of these statements seem more like “hustles” or “pitches” than attempts to speak thoughtfully about the future. Even if they are genuine statements of belief, they often read like a teenager’s first sci-fi novel, written under the influence of weed and way too much Star Trek.

Consider, for instance, Altman’s blog post “A Gentle Singularity,” published last year and read by nearly 600,000 people. Its central thesis seems to be that AI is all upside; everything has been great so far, and everything will be even greater in the future! I mean, just wait until we build robots that we can shove these AIs into—then tell those robots to go make more robots.

If we have to make the first million humanoid robots the old-fashioned way, but then they can operate the entire supply chain—digging and refining minerals, driving trucks, running factories, etc.—to build more robots, which can build more chip fabrication facilities, data centers, etc, then the rate of progress will obviously be quite different.

Everything is getting better; indeed, it’s getting better faster thanks to “self-reinforcing loops” like this. Downsides? Trick question! There aren’t any real downsides because people get used to things. Quickly. Just listen to how great it’s gonna be:

The rate of technological progress will keep accelerating, and it will continue to be the case that people are capable of adapting to almost anything. There will be very hard parts like whole classes of jobs going away, but on the other hand the world will be getting so much richer so quickly that we’ll be able to seriously entertain new policy ideas we never could before. We probably won’t adopt a new social contract all at once, but when we look back in a few decades, the gradual changes will have amounted to something big.

If history is any guide, we will figure out new things to do and new things to want, and assimilate new tools quickly (job change after the industrial revolution is a good recent example). Expectations will go up, but capabilities will go up equally quickly, and we’ll all get better stuff. We will build ever-more-wonderful things for each other.

Perhaps you have looked around at the world recently and wondered whether building “ever-more-wonderful things for each other” is actually a good description of what you are seeing.

https://arstechnica.com/tech-policy/2026/04/what-the-heck-is-wrong-with-our-ai-overlords/




Bluesky users are mastering the fine art of blaming everything on “vibe coding”

Social network Bluesky saw some intermittent service disruptions on Monday. On its own, this fact isn’t that noteworthy—Bluesky has seen similar service disruptions in the past, and this one coincided with widespread service problems being reported with other popular sites (Bluesky officially blamed the temporary problems on an “upstream service provider”).

What made this outage notable for many Bluesky users, though, was the instant assumption that it was the result of sloppy, AI-assisted “vibe coding” by the Bluesky development team.

Amid Monday’s service issues, many Bluesky feeds were filled with hundreds of posts that laid the blame on developers who were allegedly relying on unreliable AI tools to ship faulty code. Some used memes, others used alt text, still others used irony or wry humor to call out Bluesky’s development team for this alleged sloppiness.

Overall, though, the mood among these vibe-code blamers was one of righteous anger. “Any developer or programmer using ‘vibe-coding’ or any reliance on AI to code things is clearly too stupid to know how to do the job they’re paid to do and should be fired out of a cannon,” Bluesky user T-Kay wrote, summing up the, er, vibe. “Coding takes skill, not slop.”

bluesky employees: we are vibe coding the entire website using only AI now

yeah dude, i can tell

[image or embed]

— lex luddy (ichiban appreciator) (@lexluddy.xyz) April 6, 2026 at 10:29 AM

It’s the kind of reaction that highlights just how many tech users are still reflexively repulsed by the idea that AI tools were used in any way to create the products they use. Even as professional coders are becoming increasingly enthusiastic about the power of AI coding tools, many end users still see them as a boogeyman to instantly blame for any and all observed ills in the tech industry.

“Things are changing. Fast.”

Before yesterday’s outage, many on the Bluesky development team faced social media backlash for admitting they used AI tools in their work. Bluesky founder and Chief Innovation Officer Jay Graber posted point-blank in late March that “Bluesky is made with AI, the engineers and even some non-engineers use Claude Code,” for instance. And Bluesky Technical Advisor Jeromy Johnson (who goes by the handle “Why” on the site) has been an outspoken proponent of AI coding tools, saying in February that “In the past two months Claude has written about 99% of my code. Things are changing. Fast.”

https://arstechnica.com/ai/2026/04/bluesky-users-are-mastering-the-fine-art-of-blaming-everything-on-vibe-coding/




Testing suggests Google’s AI Overviews tell millions of lies per hour

Looking up information on Google today means confronting AI Overviews, the Gemini-powered search robot that appears at the top of the results page. AI Overviews has had a rough time since its 2024 launch, attracting user ire over its scattershot accuracy, but it’s getting better and usually provides the right answer. That’s a low bar, though. A new analysis from The New York Times attempted to assess the accuracy of AI Overviews, finding it’s right 90 percent of the time. The flip side is that 1 in 10 AI answers is wrong, and for Google, that means hundreds of thousands of lies going out every minute of the day.

The Times conducted this analysis with the help of a startup called Oumi, which itself is deeply involved in developing AI models. The company used AI tools to probe AI Overviews with the SimpleQA evaluation, a common test to rank the factuality of generative models like Gemini. Released by OpenAI in 2024, SimpleQA is essentially a list of more than 4,000 questions with verifiable answers that can be fed into an AI.

Oumi began running its test last year when Gemini 2.5 was still the company’s best model. At the time, the benchmark showed an 85 percent accuracy rate. When the test was rerun following the Gemini 3 update, AI Overviews answered 91 percent of the questions correctly. If you extrapolate this miss rate out to all Google searches, AI Overviews is generating tens of millions of incorrect answers per day.

The report includes several examples of where AI Overviews went wrong. When asked for the date on which Bob Marley’s former home became a museum, AI Overviews cited three pages, two of which didn’t discuss the date at all. The final one, Wikipedia, listed two contradictory years, and AI Overviews confidently chose the wrong one. The benchmark also prompts models to produce the date on which Yo Yo Ma was inducted into the classical music hall of fame. While AI Overviews cited the organization’s website that listed Ma’s induction, it claimed there’s no such thing as the Classical Music Hall of Fame.

https://arstechnica.com/google/2026/04/analysis-finds-google-ai-overviews-is-wrong-10-percent-of-the-time/




OpenAI a California e Delaware, indagare Musk per “anticoncorrenza”

OpenAI scrive una Lettera ai procuratori generali della California e del Delaware

OpenAI alza il livello dello scontro con Elon Musk, a poche settimane dall’avvio del processo che potrebbe ridefinire gli equilibri dell’intelligenza artificiale (AI) globale. Secondo quanto riportato dalla Reuters, la società guidata da Sam Altman ha inviato una lettera formale ai procuratori generali della California, Rob Bonta, e del Delaware, Kathy Jennings, chiedendo di indagare su presunti “comportamenti impropri e anticoncorrenziali” da parte del fondatore di Tesla e SpaceX e dei suoi collaboratori.

Nel documento, firmato dal Chief Strategy Officer, Jason Kwon, OpenAI sostiene che le azioni legali e le iniziative pubbliche di Musk non sarebbero semplicemente parte di una disputa commerciale, ma farebbero parte di una strategia più ampia per ostacolare la crescita dell’azienda e influenzare il futuro sviluppo dell’intelligenza artificiale avanzata.

Secondo OpenAI, la causa intentata da Musk, che chiede oltre 100 miliardi di dollari di risarcimento alla fondazione non profit da cui è nata l’organizzazione, rappresenterebbe un rischio esistenziale. Un esito sfavorevole, sottolinea la società, potrebbe “mettere in ginocchio” OpenAI e comprometterne la missione originaria: sviluppare un’intelligenza artificiale generale (AGI) a beneficio dell’intera umanità.

La lettera invita quindi le autorità a verificare se le iniziative di Musk, incluse presunte attività di coordinamento con altri grandi player tecnologici, possano configurare violazioni delle norme sulla concorrenza.

Sam Altman

OpenAI contesa da Sam Altman e Musk

Lo scontro tra Elon Musk e Sam Altman affonda le radici nella nascita stessa di OpenAI. Fondata nel 2015 come laboratorio non profit, l’organizzazione vedeva tra i suoi promotori proprio Musk e Altman. Tuttavia, il rapporto si incrina rapidamente: Musk lascia il progetto nel 2018, dopo divergenze strategiche, tra cui un tentativo, mai concretizzato, di integrare OpenAI con Tesla.

Negli anni successivi, OpenAI evolve verso un modello ibrido, con una struttura “capped-profit” per attrarre capitali necessari allo sviluppo di tecnologie sempre più costose. È proprio questa trasformazione che Musk contesta nella causa avviata nel 2024, sostenendo di essere stato “manipolato” e accusando l’azienda di aver tradito la missione originaria.

Parallelamente, Musk ha fondato xAI, società concorrente che sviluppa il chatbot Grok, entrando direttamente in competizione con ChatGPT.

Verso il processo del 27 aprile

Il confronto approderà ora in tribunale. Dopo una decisione di un giudice di Oakland, il caso sarà esaminato da una giuria nel Distretto Settentrionale della California, con selezione dei giurati prevista per il 27 aprile.

Si tratta di un passaggio cruciale: oltre alla richiesta miliardaria, la causa potrebbe incidere sulla governance di OpenAI e sul suo modello di sviluppo. Per questo, l’azienda teme che il contenzioso possa rallentare o deviare i suoi investimenti sull’AGI.

OpenAI descrive le mosse di Musk come una serie di “attacchi” mirati a indebolire la società. In precedenti comunicazioni agli investitori, aveva già avvertito che il fondatore di xAI avrebbe potuto ricorrere a dichiarazioni “eclatanti e non aderenti alla realtà”.

Tra gli elementi più controversi citati nella lettera, è riportato dalla Cnbc, vi sarebbero anche attività di raccolta di informazioni su Sam Altman e la diffusione di accuse ritenute infondate. Inoltre, OpenAI richiama un presunto tentativo, non concretizzato, di coinvolgere Mark Zuckerberg, CEO di Meta, in iniziative contro l’azienda.

Dal canto suo, Musk ha più volte accusato OpenAI di essersi trasformata in una società orientata al profitto, sostenendo che ciò tradisca gli impegni iniziali presi nei confronti della comunità scientifica e del pubblico.

Una partita strategica per il mercato dell’AI

Al di là dello scontro personale, la vicenda riflette una competizione più ampia tra i principali attori dell’intelligenza artificiale. OpenAI, sostenuta da partner industriali e finanziari, punta a consolidare la propria leadership nello sviluppo di modelli avanzati. Musk, con xAI, ambisce invece a costruire un’alternativa, in un mercato sempre più affollato che vede protagonisti anche Google, Meta e altri colossi tecnologici.

La richiesta di intervento alle autorità da parte di OpenAI segna dunque un’escalation: non più solo una disputa legale tra ex soci, ma una questione che tocca la regolazione del mercato e il futuro dell’innovazione.

La competizione sull’AI non si gioca più solamente sul piano tecnologico, ma anche su quello legale e regolatorio. Le decisioni che arriveranno dai tribunali e dalle autorità potrebbero influenzare in modo significativo l’evoluzione di uno dei settori più strategici dell’economia globale.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/openai-a-california-e-delaware-indagare-musk-per-anticoncorrenza/568666/




Anthropic dopo la scomunica del Pentagono: la tecnologia si separa dalle istituzioni per comunicare con le autorità

Mai una scomunica è stata cosi fruttifera quale quella dichiarata dalla Casa Bianca ai danni di Anthropic, dai tempi di Enrico VIII che, sulla spinta del rifiuto di Clemente VII di annullare il suo matrimonio, creò la chiesa Anglicana, architrave dell’impero britannico.

Rispetto all’anno scorso, la società che produce il sistema di intelligenza artificiale Claude, che si è ribellata alle pretese del Pentagono di usare le sue tecnologie senza vincoli o limiti etici, ha più che triplicato il suo fatturato, passando da 9 a 30 miliardi.

Ma siamo solo all’inizio. Proprio lo scontro con Trump, che avviene nel pieno di una guerra che vede le forze americane sulla linea del fuoco, invece di produrre una reazione di rigetto e critica da parte dell’opinione pubblica, secondo la tradizione del nazionalismo statunitense nelle circostanze belliche- right or wrong is my country – si registra una straordinaria adesione alle posizioni dei proprietari della società, gli italo americani fratelli Amodei.

Da mesi si assiste ad una trasmigrazione di utenti dalle proposte di ChatGPT a quelle di Anthropic. Ma questa spinta non riguarda solo l’emotività popolare, ma anche il sensibile e cinico mondo del business.

Infatti, insieme ai successi di fatturato, Anthropic informa di una nuova combinazione strategica con Google e Broadcom, società di produzione delle unità di calcolo, per la produzione di TCU, i nuovissimi microchip progettati dal motore di ricerca di Moutain View, che dovrebbero sostituire le fondamentali CPU di Nvidia nel cuore dei sistemi di intelligenza artificiale.

Un’operazione questa che, insieme al salto quantico atteso, sembra destinata a mutare radicalmente il volto del mercato digitale e soprattutto la struttura stessa delle infrastrutture che ancora lo contengono.
Un nuovo microchip, quale si annuncia il TCU (Tensor Processor Unit), è un’unità  sviluppata da Google proprio per l’apprendimento neurale, che in una sinergia con Anthropic potrebbe rapidamente soppiantare l’attuale applicazione basata sulla produzione di Nvidia.

Siamo dunque ad un ulteriore giro di boa, dove non solo i gruppi tecnologici si separano dalle istituzioni politiche ma, proprio in opposizione ai comandi militari, nel pieno di un conflitto, elaborano linee di sviluppo che contrastano con i programmi degli stati maggiori.

Sembra paradossalmente avverarsi quello che nel nostro ultimo libro, “Guerre in Codice, come le intelligenze artificiali resettano la democrazia” (Donzelli), abbiamo definito di Peter Thiel’s Switch, ossia quell’inversione gerarchia fra politica e digitale, dove, come teorizza il templare della Silicon Valley, la politica comunica quello che le tecnologie decidono.

Solo che questa affermazione di supremazia dei gruppi di calcolo avviene sul versante ideologico opposto a quello guidato dal capo di Palantir.

Potrebbe essere l’ennesimo segnale di uno scollamento fra la leadership Maga, la tendenza sovranista dei repubblicani che ha portato Trump alla Casa Bianca. Ma inevitabilmente ci parla di un processo più di fondo, in cui, la potenza computazionale sfonda ogni limite geopolitico e si afferma come struttura di base dei processi sociali e politici.

Proprio nel 250° anniversario della pubblicazione della Ricchezza delle Nazioni di Adama Smith, che diede un fondamento teorico al nascente capitalismo industriale basato sulle dinamiche globali di un capitalismo che formava le nazioni, oggi si pone all’ordine del giorno un nuovo primato sociale costituito proprio dalla differenziazione fra le diverse forme di tecnologie automatiche.

Il successo di Anthropic non rappresenta solo la preminenza di una vocazione libertaria, o comunque democratica dei sistemi tecnologici, ma ci rappresenta la pretesa di queste tecnologie di riassumere nel proprio universo di calcolo tutte le variabili, riducendo ogni valore ad un calcolo appunto.

Una posizione, per certi versi, non dissimile da quello che in qualche modo si afferma in Cina, dove la supremazia dell’apparato di governo si basa proprio sulla capacità di armonizzare la potenza digitale con la forma di amministrazione del paese. Stiamo passando da uno Stato-algoritmo, in cui un regime si sosteneva con lo sviluppo tecnologico, ad un algoritmo che si fa Stato, in cui è la tecnologia, nelle sue continue progressioni che mutano la forma e i contenuti delle relazioni sociali, che si propone come codice di controllo e governo.

Sia in una versione più conservatrice e autoritaria, quale quella teorizzata da Peter Thiel, sia in una più aperta e dinamica, quale quella che oggi viene rappresentata da Anthropic. Ma in entrambi i casi siamo ad una riclassificazione delle dinamiche geopolitiche e culturali, in cui, come vediamo anche nel conflitto attorno all’Iran, o in quello in Ucraina, non sono più le dimensioni di una potenza ad imporsi ma la capacità di distribuire saperi e competenze per rendere inafferrabile la testa del sistema bellico, che ormai coincide con la vita civile di una comunità.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/il-boom-di-anthropic-dopo-la-scomunica-del-pentagono-la-tecnologia-si-separa-dalle-istituzioni-per-comunicare-con-le-autorita-nazionali/568622/




Intel is going all-in on advanced chip packaging

Last month, Anwar Ibrahim, the prime minister of Malaysia, revealed in a post on Facebook that Intel is expanding its Malaysian chip-making facilities, which were first established back in the 1970s. Ibrahim said the head of Intel’s Foundry, Naga Chandrasekaran, had “outlined plans to commence the first phase” of expansion, which would include advanced packaging.

“I welcome Intel’s decision to begin operations for the complex later this year,” a translated version of Ibrahim’s post read. An Intel spokesperson, John Hipsher, confirmed that it’s building out additional chip assembly and test capacity in Penang, “amid rising global demand for Intel Foundry packaging solutions.”

Package store

According to Chandrasekaran, who took over Intel’s Foundry operations in 2025 and spoke exclusively with WIRED during the reporting of this story, the term “advanced packaging” itself didn’t exist a decade ago.

Chips have always required some sort of integration of transistors and capacitors, which control and store energy. For a long time the semiconductor industry was focused on miniaturization, or, shrinking the size of components on chips. As the world began demanding more from its computers in the 2010s, chips started to get even more dense with processing units, high-bandwidth memory, and all of the necessary connective parts. Eventually, chipmakers started to take a system-in-packages or package-on-package approach, in which multiple components were stacked on top of one another in order to squeeze more power and memory out of the same surface space. 2D stacking gave way to 3D stacking.

TSMC, the world’s leading semiconductor manufacturer, began offering packaging technologies like CoWoS (chip on wafer on substrate) and, later, SoIC (system on integrated chip) to customers. Essentially, the pitch was that TSMC would handle not just the front end of chip-making—the wafer part—but also the back end, where all of the chip tech would be packaged together.

https://arstechnica.com/gadgets/2026/04/intel-is-going-all-in-on-advanced-chip-packaging/




Google announces Gemma 4 open AI models, switches to Apache 2.0 license

Google’s Gemini AI models have improved by leaps and bounds over the past year, but you can only use Gemini on Google’s terms. The company’s Gemma open-weight models have provided more freedom, but Gemma 3, which launched over a year ago, is getting a bit long in the tooth. Starting today, developers can start working with Gemma 4, which comes in four sizes optimized for local usage. Google has also acknowledged developer frustrations with AI licensing, so it’s dumping the custom Gemma license.

Like past versions of its open-weight models, Google has designed Gemma 4 to be usable on local machines. That can mean plenty of things, of course. The two large Gemma variants, 26B Mixture of Experts and 31B Dense, are designed to run unquantized in bfloat16 format on a single 80GB Nvidia H100 GPU. Granted, that’s a $20,000 AI accelerator, but it’s still local hardware. If quantized to run at lower precision, these big models will fit on consumer GPUs.

Google also claims it has focused on reducing latency to really take advantage of Gemma’s local processing. The 26B Mixture of Experts model activates only 3.8 billion of its 26 billion parameters in inference mode, giving it much higher tokens-per-second than similarly sized models. Meanwhile, 31B Dense is more about quality than speed, but Google expects developers to fine-tune it for specific uses.

[embedded content]

What’s new in Gemma 4

The other two Gemma 4 models, Effective 2B (E2B) and Effective 4B (E4B), are aimed at mobile devices. These options were designed to maintain low memory usage during inference, running at an effective 2 billion or 4 billion parameters. Google says the Pixel team worked closely with Qualcomm and MediaTek to optimize these models for devices like smartphones, Raspberry Pi, and Jetson Nano. Not only do they use less memory and battery than Gemma 3, but Google also touts “near-zero latency” this time around.

More powerful, more open

All the new Gemma 4 models will reportedly leave Gemma 3 in the dust—Google claims these are the most capable models you can run on your local hardware. Google says Gemma 31B will debut at number three on the Arena list of top open AI models, behind GLM-5 and Kimi 2.5. However, even the biggest Gemma 4 variant is a fraction of the size of those models, making it theoretically much cheaper to run.

https://arstechnica.com/ai/2026/04/google-announces-gemma-4-open-ai-models-switches-to-apache-2-0-license/




Anthropic says its leak-focused DMCA effort unintentionally hit legit GitHub forks

An Anthropic-backed DMCA effort to remove its recently leaked Claude Code client source code from GitHub this week resulted in the accidental removal of many legitimate forks of its official public code repository. While that overzealous takedown has now been reversed, Anthropic still faces an extreme uphill battle in limiting the spread of its recently leaked code.

The DMCA notice that GitHub received late Tuesday focuses on a repository containing the leaked source code originally posted by GitHub user nirholas (archived here) and nearly 100 specifically named forks of that repository. In a note appended to that request, though, GitHub said it had acted to take down a network of 8,100 similar forked repositories because “the submitter alleged that all or most of the forks were infringing to the same extent as the parent repository.”

That expanded takedown affected many repositories that didn’t contain leaked code but instead forked Anthropic’s official public Claude Code repository, which the company shares to encourage public bug reports and fixes. Many coders took to social media to complain about being swept up in the DMCA dragnet despite not sharing any leaked code.

“I’m sorry that your people shipped your source code, and that your lawyers don’t know how to read a repo,” coder Robert McLaws wrote. “I will be filing a DCMA counter-notice.”

By Wednesday, Anthropic had moved to fix the issue with GitHub, requesting that the site restrict its takedowns to the 96 fork URLs specifically listed in its takedown notice and to “reinstate all other repositories that were disabled by network-wide processing.” Anthropic’s head of Claude Code, Boris Cherny, said on social media that the overzealous takedowns were “not intentional,” and Anthropic’s Thariq Shihipar added that they were the result of “a communication mistake.”

https://arstechnica.com/ai/2026/04/anthropic-says-its-leak-focused-dmca-effort-unintentionally-hit-legit-github-forks/