L’accordo di Anthropic con SpaceX e xAI per l’utilizzo del supercomputer Colussus 1 e dei futuri data center orbitali
Anthropic, la società che sviluppa i modelli di intelligenza artificiale Claude, ha siglato due accordi strategici che mostrano la vera dimensione della corsa globale all’AI: non conta più soltanto la qualità degli algoritmi, ma soprattutto la disponibilità di infrastrutture di calcolo.
Il primo accordo riguarda SpaceXAI e xAI, che metteranno a disposizione di Anthropic il supercomputer Colossus 1, descritto come uno dei sistemi AI più grandi e rapidi mai costruiti. Il cluster dispone di oltre 220.000 GPU NVIDIA, incluse H100, H200 e future GB200, ed è progettato per addestramento, inferenza e simulazioni AI su scala estrema. Anthropic utilizzerà questa capacità aggiuntiva per aumentare le prestazioni dei servizi Claude Pro e Claude Max.
L’intesa prevede inizialmente circa 300 megawatt di capacità computazionale supplementare, una potenza paragonabile a quella assorbita da grandi data center hyperscale. Il dato rende evidente quanto il fabbisogno energetico dell’intelligenza artificiale stia crescendo rapidamente: la potenza necessaria per addestrare e far funzionare i modelli di nuova generazione sta mettendo sotto pressione reti elettriche, sistemi di raffreddamento e disponibilità di hardware.
L’aspetto più ambizioso dell’accordo riguarda però il lungo periodo. Anthropic ha infatti manifestato interesse a collaborare con SpaceX per sviluppare infrastrutture AI orbitali da più gigawatt. L’idea nasce dalla convinzione che, in futuro, i limiti terrestri legati a energia, spazio fisico e raffreddamento potrebbero non essere sufficienti per sostenere la crescita dell’intelligenza artificiale. SpaceX ritiene di essere l’unica azienda con la frequenza di lanci e l’economia di scala necessarie per trasformare il “compute orbitale” in un progetto industriale concreto.
Anthropic verserà a Google 200 miliardi di dollari in cinque anni per chip avanzati e capacità cloud
Parallelamente, Anthropic avrebbe firmato con Google uno degli accordi economici più grandi mai visti nel settore tecnologico. Secondo The Information, la società si sarebbe impegnata a spendere fino a 200 miliardi di dollari nei prossimi cinque anni per ottenere accesso a chip avanzati e infrastrutture cloud. L’obiettivo è garantirsi la capacità computazionale necessaria a continuare lo sviluppo dei modelli Claude in un mercato dove la domanda di GPU e server cresce più rapidamente dell’offerta disponibile.
Il valore dell’accordo evidenzia la nuova geografia del potere nell’intelligenza artificiale. Le grandi piattaforme cloud (da Google a Amazon, Microsoft e Oracle) stanno diventando infrastrutture indispensabili per le aziende AI. Secondo le stime riportate, questi operatori avrebbero già accumulato impegni contrattuali vicini ai 2 trilioni di dollari legati alla domanda di servizi AI.
La pressione economica è enorme. Le proiezioni citate indicano che entro il 2026 OpenAI potrebbe sostenere costi server per 45 miliardi di dollari, mentre Anthropic potrebbe arrivare a 20 miliardi. Il problema principale non riguarda più soltanto i chip, ma anche la disponibilità di memoria RAM, energia elettrica e capacità di raffreddamento dei data center.
Questi accordi mostrano come l’intelligenza artificiale stia diventando una questione infrastrutturale globale sempre critica e soprattutto una risorsa strategica scarsa. La competizione non si gioca più solo sui modelli software, ma sulla capacità di assicurarsi supercomputer, energia e accesso privilegiato ai grandi sistemi cloud. Ce ne sarà per tutti?
Novità su Google, per aggiungere Key4Biz tra le tue fonti preferite, clicca qui
Leggi le altre notizie sull’home page di Key4biz
https://www.key4biz.it/ai-anthropic-si-garantisce-laccesso-al-supercomputer-di-spacex-e-ai-chip-avanzati-di-google/572166/


