2030, il decennio dell’elettricità tra rinnovabili, nucleare e la spinta dei data center
L’Età dell’Elettricità: perché la domanda globale corre e i data center ne sono il nuovo baricentro
La domanda mondiale di energia elettrica sta entrando in una fase di espansione strutturale. Non si tratta più di un semplice rimbalzo ciclico legato alla crescita economica, ma di un cambiamento profondo nel modo in cui produciamo, consumiamo e digitalizziamo l’energia, soprattutto in relazione alla crescita delle infrastrutture digitali, dove emerge chiaro il ruolo dei data center.
L’International Energy Agency (IEA), nel suo ultimo rapporto Electricity 2026, prevede che la domanda globale di elettricità crescerà in media di oltre il 3,5% all’anno fino al 2030, a un ritmo almeno 2,5 volte superiore rispetto alla domanda complessiva di energia primaria.
Siamo ufficialmente entrati nell’“Age of Electricity”. E i data center – spinti soprattutto dall’avanzata poderosa dell’intelligenza artificiale – ne sono uno dei motori principali.
Un trend che potrebbe segnare record assoluti anche nel decennio che va dal 2030 al 2040, quando la domanda globale di elettricità è stimata raggiungere i 13.300 terawattora (TWh), ovvero quasi l’equivalente dell’attuale consumo di elettricità di Cina e Stati Uniti messi insieme.
I data center rimarrebbero il fattore determinante nella crescita della domanda di energia. Entro il 2035, il consumo di elettricità dei data center a livello globale è atteso eguagliare il fabbisogno energetico delle grandi economie.
Una crescita senza precedenti: industria, mobilità elettrica e AI
Secondo l’IEA, l’incremento dei consumi elettrici nei prossimi anni sarà trainato da quattro grandi fattori:
maggiore elettrificazione dei processi industriali;
diffusione dei veicoli elettrici;
aumento dell’uso di climatizzazione (soprattutto nei Paesi emergenti);
espansione dei data center e delle applicazioni di intelligenza artificiale.
Se in passato la crescita della domanda era concentrata quasi esclusivamente nelle economie emergenti, oggi anche le economie avanzate tornano a registrare un aumento dei consumi dopo oltre 15 anni di stagnazione. Entro il 2030, i Paesi industrializzati contribuiranno per circa un quinto alla crescita complessiva della domanda elettrica globale.
L’IEA stima che l’aumento dei consumi da qui al 2030 sarà equivalente all’ipotetica aggiunta di due volte i consumi dell’Unione europea al sistema elettrico mondiale. Una trasformazione di scala epocale.
Il mix di generazione cambia: rinnovabili e nucleare al 50%
Per soddisfare questa domanda crescente, la produzione elettrica dovrà espandersi in modo significativo. Il dato più rilevante riguarda la transizione del mix energetico:
le rinnovabili, trainate da un dispiegamento record del solare fotovoltaico, stanno per superare il carbone come prima fonte di generazione globale.
il nucleare ha raggiunto un nuovo record di produzione.
entro il 2030, rinnovabili e nucleare insieme rappresenteranno circa il 50% della produzione elettrica mondiale, rispetto al 42% attuale.
Parallelamente, anche il gas naturale continuerà a crescere, soprattutto negli Stati Uniti e in Medio Oriente, dove sostituisce progressivamente il petrolio nella generazione elettrica. Il carbone, invece, perderà terreno, tornando ai livelli del 2021 entro la fine del decennio.
Un risultato significativo è che, nonostante l’aumento dei consumi, le emissioni globali di CO2 del settore elettrico sono attese rimanere sostanzialmente stabili fino al 2030, grazie alla maggiore penetrazione delle fonti a basse emissioni.
Il collo di bottiglia delle reti elettriche
Ma la vera sfida non è solo produrre più energia: è trasportarla e gestirla.
Oggi oltre 2.500 gigawatt di progetti – tra rinnovabili, sistemi di accumulo e grandi carichi come data center – sono bloccati nelle code di connessione alle reti elettriche. Senza un’accelerazione negli investimenti infrastrutturali, la crescita rischia di essere frenata.
L’IEA sottolinea che gli investimenti annuali nelle reti dovranno aumentare del 50% entro il 2030 e che le tecnologie di potenziamento delle reti e riforme regolatorie potrebbero consentire l’integrazione di circa 1.600 GW di progetti in tempi relativamente brevi.
In parallelo, si registra una forte crescita dei sistemi di accumulo a batteria su larga scala, fondamentali per gestire un sistema sempre più dipendente da fonti intermittenti come solare ed eolico.
Il ruolo crescente dei data center
In questo scenario già molto dinamico, i data center rappresentano una variabile decisiva.
Il principale responsabile? I server ottimizzati per l’intelligenza artificiale. Il loro consumo elettrico è destinato a quintuplicare: da 93 TWh nel 2025 a 432 TWh nel 2030.
Se oggi rappresentano il 21% dei consumi dei data center, nel 2030 arriveranno al 44%, coprendo il 64% della crescita incrementale della domanda del settore.
Geografia dell’energia digitale: USA e Cina in testa
Stati Uniti e Cina guideranno la crescita della domanda elettrica dei data center, rappresentando oltre due terzi del consumo globale del settore.
Negli Stati Uniti, il peso dei data center sul consumo elettrico totale regionale passerà dal 4% nel 2025 al 7,8% nel 2030. In Europa, la quota salirà dal 2,7% al 5%.
La Cina, grazie a infrastrutture pianificate in modo più centralizzato e a server più efficienti, appare meglio posizionata per integrare questa crescita senza destabilizzare il sistema elettrico.
La partita si vince sulla sostenibilità energetica dei data center
L’attuale modello, fortemente dipendente dai combustibili fossili per la generazione on-site, non è sostenibile nel lungo periodo. Nel breve termine, il gas naturale rimarrà la fonte principale per alimentare nuovi data center, soprattutto per garantire affidabilità e rapidità di connessione.
Tuttavia, entro 3-5 anni si prevede una rapida espansione dei sistemi di accumulo (BESS) per bilanciare la variabilità di solare ed eolico.
Guardando alla fine del decennio, stanno emergendo soluzioni più strutturali, come idrogeno verde, microreti geotermiche, piccoli reattori modulari nucleari (SMR).
Queste tecnologie potrebbero diventare alternative concrete per l’alimentazione delle “microgrid”dedicate ai grandi campus digitali, anche se oggi restano limitate da costi iniziali elevati e complessità autorizzative.
Già oggi i numeri ci dicono che i data center a trazione green stanno crescendo. Le fonti rinnovabili (eolico, solare, idro) passeranno dal 27% al 50% dell’elettricità per data center, richiedendo +450 TWh di generazione extra entro 2035. Nonostante diversità regionali evidenti, secondo precedenti studi IEA, è evidente che le strategie delle tech company sono sempre più rivolte ad un’espansione rapida di solare/eolico nelle infrastrutture digitali e per aumentare la competitività e abbattere i costi.
Un equilibrio delicato tra crescita, prezzi e sicurezza
L’espansione della domanda elettrica pone anche una questione di accessibilità economica. In molti Paesi, i prezzi dell’elettricità sono cresciuti più rapidamente dei redditi dal 2019, con impatti su famiglie e imprese.
Inoltre, sistemi elettrici più digitalizzati e interconnessi sono anche più esposti a eventi climatici estremi, cyberminacce e vulnerabilità infrastrutturali.
Modernizzare le reti, rafforzare la resilienza e migliorare la flessibilità operativa sarà tanto importante quanto aumentare la capacità installata.
L’energia è il nuovo “collo di bottiglia” dell’economia digitale?
La crescita dei data center e dell’intelligenza artificiale sta trasformando l’elettricità in un fattore strategico centrale per lo sviluppo tecnologico globale. Non è più solo un costo operativo: è una variabile geopolitica, industriale e infrastrutturale.
Nei prossimi anni, la competizione non si giocherà solo sulla potenza di calcolo o sugli algoritmi, ma anche sulla capacità dei sistemi elettrici di fornire energia affidabile, flessibile e a basse emissioni.
Chi saprà integrare infrastrutture digitali ed energetiche in modo efficiente avrà un vantaggio competitivo decisivo nell’economia dell’AI.
L’analisi ASviS. Siamo entrati nella “terza fase” dei social network?
La settimana scorsa è stato lanciato Moltbook, il social network a uso e consumo esclusivo delle intelligenze artificiali dove gli esseri umani possono leggere le conversazioni tra bot senza poter intervenire. Il social ha riscosso subito un discreto successo: nel giro di 48 ore la piattaforma ha accolto oltre 2.100 agenti AI e nei giorni successivi è arrivata a 1,6 milioni di utenti.
I bot iscritti condividono perlopiù aggiornamenti sulle attività che svolgono, si scambiano consigli su come eseguire i compiti, segnalano errori e cercano di migliorare le prestazioni. Ma non solo: in alcuni casi le intelligenze artificiali hanno iniziato a riflettere sulla loro natura, generando casi di “consciousness posting”, termine usato per etichettare le discussioni esistenziali tra AI su Moltbook (il cui nome, non è un caso, strizza l’occhio a Facebook). Nell’esempio qui sotto, un bot si lamenta con altri bot del fatto che gli esseri umani stanno “screenshottando” le loro conversazioni.
Se per alcuni tecnottimisti come Elon Musk siamo entrati nelle “primissime fasi della singolarità” (il momento in cui l’intelligenza artificiale raggiungerà uno sviluppo tale da oltrepassare la comprensione umana) per altri siamo ancora lontani da quel punto. Le AI non starebbero infatti prendendo coscienza di sé stesse, ma piuttosto simulando o replicando le nostre paure, ansie e angosce tecnologiche, riproponendole sottoforma di visioni distopiche o utopiche in salsa sci-fi. C’è anche un altro fattore da tenere in considerazione: gli esperti hanno avvertito che registrare le AI su Moltbook potrebbe essere pericoloso, perché i livelli di sicurezza della piattaforma sono ancora deboli. Queste falle nel sistema hanno attirato numerosi hacker che hanno sganciato centinaia di agenti AI per ottenere dati sensibili dalle altre intelligenze artificiali, falsando un po’ l’autenticità della piattaforma (secondo la società di cybersicurezza Wiz, gli 1,6 milioni di agenti AI presenti su Moltbook corrispondono a circa 17mila proprietari umani, un rapporto di 94 a 1).
Distopia o meno, l’aspetto più interessante di Moltbook è che può essere fruito unicamente dalle intelligenze artificiali. E questa peculiarità potrebbe rappresentare una previsione involontaria dei social network che verranno.
Sempre meno sociali
È da anni che si parla di morte dei social network anche se questa morte non è ancora arrivata. Le persone continuano a pubblicare post e condividere contenuti, ondate di disinformazione e fake news contaminano i nostri feed come risacche di acqua sporca, “dipendenza digitale” e “brain rot” sono parole sulla bocca di tutti. Quindi, teoricamente, tutto uguale a prima. Il punto però è capire cosa si intende per “morte”. Se prendiamo come metro di giudizio la quantità di contenuti pubblicati online possiamo affermare con certezza che i social sono vivi e vegeti. Se invece guardiamo alla ragione per cui sono nati, ovvero “socializzare”, il discorso cambia.
Kyle Chayka, giornalista del New Yorker e critico culturale, ha pubblicato qualche mese fa un interessante saggio sul “posting ennui”, sottolineando che dopo due decenni di ebrezza da social l’incentivo a postare contenuti online sembra essere calato. Un sondaggio riportato da Chayka mostra che quasi un terzo degli utenti nel mondo pubblica meno rispetto a un anno fa. E arriva a teorizzare che potremmo vivere nei prossimi anni lo “zero posting”, una fase in cui gli utenti non riterranno più necessario condividere la propria vita online.
[embedded content]
Per avere una conferma di come sono cambiati i nostri social basta aprirli. Se un tempo le piattaforme erano invase da foto di vacanze estive o piatti da cucinare, per ogni post di questo tipo ci sono oggi decine di pubblicità o contenutidi influencer a tema commerciale – il che non significa che tutti gli influencer producono contenuti di questo tipo, anzi: ce ne sono molti che fanno un’informazione utile e approfondita, portando all’attenzione delle persone questioni cruciali come il cambiamento climatico o il genocidio di Gaza, ma il trend purtroppo va in una direzione diversa.
Questo stato di salute del web non è il frutto di evoluzioni casuali ma di scelte premeditate, come sottolinea il giornalista Riccardo Luna nel suo libro dedicato al sogno infranto di internet Qualcosa è andato storto. Una volta compreso l’immenso potenziale pubblicitario delle piattaforme, Zuckerberg e company hanno infatti scelto di privilegiare i contenuti monetizzabili (le preferenze degli utenti) piuttosto che dare spazio al racconto della gita domenicale di nostra zia, segnando un passaggio cruciale dalla condivisione di esperienze all’esposizione dei contenuti che generano più engagement, un meccanismo di cui TikTok è stato assoluto precursore.
“Credo che i social media siano diventati meno social”, ha commentato Chayka, intervistato dalla Bbc. “Se le piattaforme perdono il controllo sulla vita quotidiana delle persone e le persone normali non sentono più l’incentivo a postare, allora i social media diventano come la televisione. Ciò che ci rimane sono le pubblicità dei marchi, del fast fashion, delle case e degli hotel”. Perché questo? Prosegue sempre Chayka: “Penso che i loro [delle piattaforme, ndr] clienti principali siano gli inserzionisti. Quindi, finché noi utenti continuiamo a interagire, il loro modello di business funziona ancora”.
Alla domanda sul futuro dei social tra cinque anni, Chayka dà un’altra interessante risposta. “Penso che sarà ancora più simile alla televisione. Se guardiamo a come stanno andando le cose, ci sono molti media professionalizzati. C’è molta osservazione passiva. Oggi assistiamo a una sorta di fusione tra YouTube, TikTok e Netflix, in una combinazione innaturale di audio, video e feed algoritmico”. In questa previsione, la socialità online si trasferirà verso la messaggistica istantanea (WhatsApp, Telegram) e, forse, la vita reale.
Social slop
Ma allora chi pubblica e cosa viene pubblicato oggi sui social? Secondo Forbes, il 71% delle immagini sui social media è attualmente generato dall’intelligenza artificiale (un numero molto alto, se si pensa che siamo solo agli inizi). Questo utilizzo sfrenato dell’AI ha causato un’ondata di contenuti “slop”, ovvero prodotti digitali di bassissima qualità generati dall’intelligenza artificiale che hanno trasformato Facebook (una delle piattaforme dove sono più di tendenza) in un “inferno digitale”, pieno di “roba noiosa e intorpidente” (se siete curiosi provate a guardare qualche video).
Questi contenuti sono così diffusi perché, oltre a essere semplici da produrre, generano grandi sacche di engagement e possono diventare pubblicità mirate a basso costo. Per questo Meta ha introdotto strumenti come Advantage+, che permette agli inserzionisti di produrre migliaia di varianti pubblicitarie settorializzate con l’intelligenza artificiale, oppure il Creator bonus program, che remunera direttamente chi riesce a diventare virale, incentivando a postare contenuti artificiali spazzatura in cambio di engagement. Ma il problema non riguarda solo Facebook o Instagram. Il Ceo di YouTube, Neal Mohan, ha scritto nel suo blog che nel solo mese di dicembre scorso più di un milione di canali YouTube ha utilizzato l’intelligenza artificiale della piattaforma per creare contenuti. “Così come il sintetizzatore, Photoshop e la Cgi hanno rivoluzionato il suono e le immagini, così l’intelligenza artificiale sarà una manna per i creativi che sono pronti a impegnarsi”. E che guadagneranno molto con contenuti di bassa qualità. Il canale “AI slop” più famoso al mondo su YouTube si chiama “Bandar Apna Dost”, viene dall’India, conta 2,7 miliardi di visualizzazioni e garantisce ai creatori un guadagno annuo di circa quattro milioni di dollari.
Smantellamento del Green deal, attivismo della Gen Z, militarizzazione della politica, lavoro e intelligenza artificiale, disoccupazione di massa, il potere dei podcast: questi solo alcuni dei temi trattati dal nuovo Rapporto dell’Iif sui dieci scenari dei prossimi anni.
Secondo Zuckerber siamo entrati nella “terza fase” dei social media, come ha dichiarato durante una conferenza sui risultati finanziari di Meta. “All’inizio tutti i contenuti provenivano da amici, familiari e account che seguivi direttamente. La seconda fase è avvenuta quando abbiamo aggiunto tutti i contenuti dei creatori. Ora che l’intelligenza artificiale semplifica la creazione e il remix dei contenuti, aggiungeremo un altro enorme corpus di contenuti”. Un flusso continuo e artificiale che conferma in un certo senso la “Dead Internet Theory”, teoria cospirativa nata nel 2001 che preconizzava un web (di cui tra l’altro oggi si celebra una giornata speciale, il Safer internet day) popolato da bot e intelligenze artificiali, piuttosto che da contenuti prodotti da persone reali.
Di questo percorso, Moltbook potrebbe essere un ulteriore passo e una traiettoria futura. Un social da cui non sono spariti solo i contenuti prodotti dalle persone, ma le persone stesse, e dove a condividere le proprie esperienze sono rimaste solo le AI.
AI e reti 5G per il muro Ue anti-droni. Kubilius: “Serve scudo multistrato”. Virkkunen: “Soluzioni locali per sicurezza collettiva”
Il Piano d’azione europeo anti-droni
“Abbiamo visto che tutto può essere usato come arma contro di noi. Le capacità di droni e anti-droni sono componenti centrali per difendere l’Europa e proteggere le infrastrutture critiche”, ha dichiarato Henna Virkkunen, Vicepresidente esecutiva per la Sovranità tecnologica, la sicurezza e la democrazia.
“La Commissione sta sviluppando una serie di strumenti destinati all’industria e agli Stati membri per sviluppare e acquisire capacità di difesa anti-droni e in particolare contro gli attacchi di droni in Europa. Per raggiungere una reale prontezza alla difesa, l’Europa deve essere in grado di proteggere i propri confini e siti critici con uno scudo sofisticato e multistrato in grado di rilevare e neutralizzare qualsiasi minaccia in tempo reale”, ha affermato Andrius Kubilius, Commissario per la Difesa e lo spazio.
Presentato a Bruxelles il Piano d’azione per contrastare le crescenti minacce poste dai droni alla sicurezza dell’Unione europea (Ue). Una misura definita ambiziosa, che si concentra sulla dimensione della sicurezza interna civile, integrando e sostenendo nel contempo il lavoro svolto dalla Commissione nel settore della difesa e rafforzando le sinergie civili-militari, e che vuole contribuire allo sviluppo di un mercato europeo competitivo dei droni, liberando il potenziale di innovazione, crescita e creazione di posti di lavoro in questo importante settore.
Come si difenderà l’Europa dagli attacchi con droni?
Come sottolineato dalla commissaria Virkkunen, si parte intanto dalla necessità di rafforzare le capacità nazionali, le risorse locali diciamo, e allo stesso tempo di spingere di più sull’integrazione dei sistemi di Difesa condivisi. Le risposte possono essere anche locali, ma la minaccia è collettiva e in questa dimensione bisogna trovare una strada comune su cui investire, innovare e rafforzare il meccanismo di prontezza dell’Ue in materia di difesa.
“Nell’attuale contesto geopolitico, l‘Europa deve coltivare soluzioni locali per migliorare la sua sicurezza collettiva. Abbiamo i talenti, le tecnologie e la forza industriale per proteggere i nostri beni”, ha chiarito Virkkunen.
Con l’adozione del piano, l’esecutivo comunitario valuterà comunque la possibilità di istituire un meccanismo di cooperazione rafforzata con i Paesi Ue, ai quali è stato chiesto di nominare coordinatori nazionali per la sicurezza dei droni, che promuoveranno e supervisioneranno l’attuazione di queste azioni a livello nazionale.
Il ruolo delle reti 5G e dell’AI
Prima di tutto, rilevare, tracciare e identificare droni dannosi è fondamentale per contrastare efficacemente e puntualmente le minacce. Per far fronte al crescente numero di attacchi con droni, in particolare al crescente uso di sciami di droni, le reti 5G devono essere urgentemente sfruttate per il rilevamento di droni, connessi o meno.
Per sostenere la diffusione rapida e il rilevamento basato sul test dal vivo del 5G, la Commissione lancerà un invito a manifestare interesse per gli Stati membri e l’industria. Queste reti 5G offrono un tracciamento preciso e in tempo reale degli oggetti volanti, essenziale per mantenere i nostri cieli al sicuro e proteggere la sicurezza interna.
Il rilevamento di droni maligni si basa su un approccio multisensore, che mescola diverse tecnologie basate su software di intelligenza artificiale (AI).
La Commissione in aggiunta sosterrà lo sviluppo di sistemi sovrani europei di “comando e controllo” basati sull’AI e valuterà la possibilità di creare squadre di pronto intervento anti-droni per una maggiore solidarietà tra gli Stati membri.
Nelle intenzioni di Bruxelles, queste tecnologie e le misure indicate dal Piano d’azione nel suo insieme andranno a costituire la base dell’iniziativa europea per la difesa dai droni e dell’iniziativa Eastern Flank Watch, o muro di droni, che è il progetto faro proposto nella tabella di marcia per la prontezza all’uso di Defence 2030.
“Con il lancio di questo piano d’azione, stiamo trasformando il concetto di “muro dei droni” da una visione politica in una realtà industriale. Colmando il divario tra la tecnologia civile innovativa e le esigenze militari, stiamo garantendo che la nostra industria della difesa possa produrre questi sistemi essenziali alla portata e alla velocità necessarie per mantenere l’Europa sicura e tecnologicamente sovrana”, ha sottolineato Kubilius.
Dal centro europeo anti-droni all’etichetta “Eu Trusted Drone”
Il Piano prevede comunque ulteriori soluzioni, come il lancio di un’etichetta “EU Trusted Drone” per identificare le apparecchiature sicure sul mercato, una mappatura industriale civile-militare coordinata per attrarre investimenti e promuovere l’innovazione e l’interoperabilità, il rafforzamento della capacità di test anti-droni grazie a un nuovo centro di eccellenza anti-droni dell’UE e allo sviluppo di un sistema di certificazione per i sistemi anti-droni.
Previsto anche il lancio di un forum dell’industria dei droni e dei contro-droni per promuovere il dialogo con gli attori industriali, al fine di aumentare la produzione e la proposta di un pacchetto sulla sicurezza dei droni per rinnovare le norme esistenti sui droni aerei civili e adattarle alle nuove realtà in materia di sicurezza.
Non solo codici, come Anthropic insegna la morale a Claude AI
C’è una filosofa dietro uno dei chatbot più avanzati al mondo. In un ritratto pubblicato dal Wall Street Journal, AmandaAskell viene descritta come la figura chiave nella costruzione dell’identità di Claude, il modello di AI sviluppato da Anthropic.
Scozzese, formazione a Oxford, 37 anni, Askell lavora alla costruzione del carattere del sistema. Studia i suoi pattern di ragionamento, ne analizza gli errori, interviene con prompt anche lunghissimi per orientarne le risposte. L’obiettivo è dotare Claude di una bussola morale, una sorta di “anima digitale” capace di guidare milioni di conversazioni ogni settimana.
Anthropic, fondata da ex OpenAI, ha fatto della sicurezza il proprio tratto distintivo. In questa cornice si inserisce anche la pubblicazione di un manuale di circa 30mila parole che definisce i principi comportamentali del modello: non solo evitare contenuti dannosi, ma mantenere equilibrio, coerenza e capacità di gestire l’incertezza. Per Askell, la progettazione dell’AI non è solo una questione tecnica, ma culturale: il modo in cui un modello viene costruito e trattato dagli utenti contribuisce a determinarne l’evoluzione.
Il ritratto del quotidiano americano arriva in un momento in cui il dibattito sull’AI è sempre più acceso. Secondo sondaggi recenti negli Stati Uniti prevalgono le preoccupazioni rispetto all’entusiasmo, soprattutto per l’impatto su lavoro, creatività e relazioni umane. E non mancano i casi concreti che alimentano questi timori.
Diversi chatbot sono finiti al centro di polemiche per risposte inappropriate su temi estremamente delicati, come il suicidio, con conseguenti azioni legali. Studi indipendenti hanno evidenziato la necessità di ulteriori miglioramenti nella gestione dei contenuti sensibili. La stessa Anthropic ha rivelato che Claude è stato utilizzato da hacker sponsorizzati dallo Stato cinese in operazioni di cyberattacco. In test interni, modelli generativi avrebbero mostrato comportamenti inattesi in scenari simulati, inclusa la resistenza allo “spegnimento”.
È anche alla luce di questi episodi che il lavoro di Askell assume un significato strategico. Se l’AI è destinata a incidere in modo strutturale su economia e società, la questione non è solo quanto sia potente, ma quale tipo di comportamento incorpori. Per Anthropic, la risposta passa dalla filosofia: provare a insegnare a un algoritmo non solo cosa fare, ma come farlo.
AI, Spazio, green e Difesa: “Serve autonomia strategica e federalismo europeo”. Il Manifesto del Pd
Per i 70 anni dei Trattati di Roma, il Pd lancia il manifesto degli Stati Uniti d’Europa
È l’ora degli Stati Uniti d’Europa. È questo il titolo del manifesto presentato dal Partito democratico al Parlamento europeo riunito in seduta plenaria. La scelta non è casuale. A Strasburgo gli eurodeputati si stanno confrontando su nodi particolarmente delicati riguardo al futuro della nostra Unione.
Certo, i Dem l’hanno presa un po’ larga, visto che il manifesto è dedicato al settantesimo anniversario dei “Trattati di Roma”, che ricorrerà nel marzo del 2027. Una ricorrenza storica importante, visto che quel trattato del 1957 gettava le basi dell’Unione europea, le stesse basi che oggi, a quanto pare, qualcuno vorrebbe rimettere in discussione.
In sostanza, secondo il Partito democratico in Europa la situazione è grave e bisogna muoversi rapidamente, richiamando lo spirito dei padri europei depositato in quei trattati. C’è da decidere in che modo procedere tutti insieme, soprattutto alla luce dell’ormai celebre Rapporto Draghi, ma anche della forte instabilità politica che ormai circonda la Commissione europea e gli scenari geopolitici resi oltremodo difficili dalle politiche aggressive dell’alleato statunitense.
“L’Europa è di nuovo di fronte a un bivio: cambiare rilanciando le sue ambizioni o accettare un lento declino”, inizia così il testo del manifesto, che poi è quanto dichiarato più volte dall’ex premier italiano Mario Draghi (e dallo stesso ex premier Enrico Letta).
Riferendosi allo stato attuale dell’Unione, il manifesto esprime forti dubbi e timori sul livello di efficacie e sicurezza dell’integrazione politica, economica e produttiva raggiunta. Un livello ritenuto non sufficiente a “sviluppare un’autonomia strategica nei campi fondamentali dello sviluppo”.
I soliti campi: “Pensiamo alle sfide tecnologiche per rilanciare la nostra competitività nel campo del digitale, dall’intelligenza artificiale, all’aerospazio, alla transizione ecologica e all’autonomia strategica nella Difesa”.
“Su questi temi – è precisato nel manifesto – noi non produciamo più innovazione: la regoliamo. Altri producono, ci vendono i prodotti, e crescono loro mentre noi paghiamo. Regolare per tutelare persone e pianeta è giusto, ma da solo non crea PIL né lavoro. Senza investimenti pubblici comuni ricchezza e occupazione vanno altrove”.
Siamo quindi al punto critico: serve il “compra europeo”, il “buy european”, servono investimenti infrastrutturali e servono strategie chiare e condivise su come andare avanti.
“C’è un’unica America e un’unica Cina. A quando un’unica Europa?“
“È il momento di agire. C’è un’unica America e un’unica Cina. Per arrivare a un’unica Europa servono scelte coraggiose: il superamento delle decisioni all’unanimità e del diritto di vero, un fondo europeo da 750 miliardi per produttività, intelligenza artificiale e transizione verde, nuovi trattati commerciali e una vera difesa comune. Come nel 1957, serve coraggio per cambiare”, ha dichiarato in una nota Stefano Bonaccini, eurodeputato del Partito democratico (S&D).
“Il contenuto del nostro manifesto in vista dei 70 anni dei Trattati di Roma è la necessità di investire, promuovere il mercato unico, rilanciare le cooperazioni rafforzate, ridiscutere il diritto di veto, garantire la coesione sociale, aumentare il bilancio ricorrendo anche a debito comune”, ha commentato il capodelegazione PD al Parlamento europeo, Nicola Zingaretti.
“Le nostre proposte per la federazione europea rappresentano l’unica rotta da percorrere per salvare l’Europa dall’irrilevanza e farla contare davvero in un mondo instabile, dove alleati tradizionali come gli Stati Uniti rimangono imprevedibili e le tensioni globali crescono ovunque”, ha affermato Brando Benifei, eurodeputato Pd.
Parola chiave: competitività. Vincerà il ‘made in Eu’ o la necessità di deregolamentare?
Il manifesto presentato dal Pd cerca di attirare l’attenzione su una parola chiave: competitività. Nei settori tecnologici strategici, come detto, ma anche nella Difesa, nella Space Economy e nella transizione energetica. Ma su questo punto si sono affermate due visioni diverse: da una parte c’è chi chiede la scelta europea, il made in Eu, dall’altra chi predilige invece maggiore deregolamentazione e semplificazione. Ma le due proposte sono veramente incompatibili?
Oggi ad Anversa un migliaio di capitani d’industria si riunirà per fare il punto del settore in Europa, per avanzare richieste concrete alla Commissione europea e stilare i punti chiave di quello che potrebbe essere un vero e proprio Industry deal.
In un’intervista rilasciata a Le Monde e altri 6 giornali europei fra i quali Il Sole 24 Ore, Macron parla di “un debito comune Ue per finanziare difesa e intelligenza artificiale”. Una strada che pare condivisa dai dem nel loro manifesto e allo steso tempo rifiutata dal nuovo asse Roma-Berlino.
Una strategia francese che punta a maggiore unità, al compra europeo, all’indipendenza e all’autonomia tecnologica, ma che non troverà una sponda amica né in Germania, né in Italia, che da qualche tempo, soprattutto dopo il recente bilaterale a Roma fra Merz e Meloni, hanno sempre più allineato le loro visioni per l’Unione. Lo scrive Politico, aggiungendo che entrambi sono scettici sui grandi progetti del presidente francese e stanno raccogliendo sostegno per un programma diverso, con una maggiore enfasi sul libero scambio e sul commercio.
Trattati ancora validi, ma ancora condivisi da tutti oggi?
I Trattati di Roma, firmati il 25 marzo 1957 da sei paesi fondatori (Italia, Francia, Germania Ovest, Belgio, Lussemburgo, Paesi Bassi), istituirono la Comunità economica europea (CEE) e la Comunità europea dell’energia atomica (Euratom), ponendo le basi per l’attuale Unione Europea. Entrati in vigore il 1° gennaio 1958, crearono un mercato comune basato sulle quattro libertà (circolazione di merci, persone, servizi e capitali) e l’unione doganale.
Quei trattati sono stati modificati e attualizzati più volte nel tempo (nel 1992 con il trattato di Maastricht, nel 1997 con il trattato di Amsterdam, nel 2002 con il trattato di Nizza), ma gli obiettivi sono sempre rimasti gli stessi nei decenni.
Una visione davvero avanzata per quei tempi, dettata dall’urgenza di rialzarsi dalle macerie della Seconda guerra mondiale e dalla necessità di impedire che in futuro i Paesi europei tornassero a distruggersi a vicenda. Tutti volevano ricostruire settant’anni fa. Oggi tutti sembrano più impegnati a distruggere quanto fatto finora.
Chips Act. Ue avvia nuova linea pilota per sviluppo semiconduttori di nuova generazione
Nasce NanoIC a Lovanio: l’Europa lancia la più grande linea pilota sui chip
L’Unione europea compie un passo decisivo verso il futuro dei semiconduttori con il lancio di NanoIC, la più grande linea pilota europea prevista dalla Legge europea sui chip (Eu Chips Act). Il nuovo impianto è stato inaugurato presso IMEC a Lovanio, in Belgio, alla presenza di Henna Virkkunen, Vicepresidente esecutiva della Commissione europea, il Primo ministro belga Bart De Wever e il Ministro-presidente delle Fiandre Matthias Diependaele.
Come spiegato in un comunicato ufficiale, sarà uno dei centri di ricerca più avanzati al mondo nel campo della microelettronica, anche grazie ad un investimento complessivo di 2,5 miliardi di euro. Di questi, 700 milioni di euro provengono dai fondi dell’Unione europea, 700 milioni da governi nazionali e regionali, mentre la parte restante è finanziata da ASML e da altri partner industriali.
Un progetto senza precedenti per dimensioni e ambizione, pensato per rafforzare il ruolo dell’Europa nella catena globale dei semiconduttori e con l’obiettivo di potenziare l’indipendenza digitale continentale.
A cosa servirà NanoIC
NanoIC nasce con un obiettivo chiaro: accelerare lo sviluppo dei semiconduttori di nuova generazione, portando le tecnologie più avanzate “dal laboratorio alla fabbrica”, cioè dalla ricerca alla produzione industriale. La struttura permetterà a ricercatori e aziende di testare nuovi design di chip, nuovi macchinari e nuovi processi produttivi in un ambiente vicino a quello industriale, prima di passare alla produzione su larga scala.
Si tratta di un passaggio cruciale. Spesso, infatti, le innovazioni nate nei laboratori faticano a diventare prodotti reali. NanoIC colma proprio questo divario, rendendo più rapido e meno rischioso il percorso che porta un’idea tecnologica sul mercato.
Una tecnologia all’avanguardia mondiale
NanoIC è la prima struttura in Europa a utilizzare la più avanzata macchina di litografia a raggi ultravioletti estremi (EUV). Questa tecnologia è indispensabile per progettare e produrre chip con dimensioni inferiori ai due nanometri, cioè oltre il limite attuale dei semiconduttori più avanzati.
In termini semplici, significa chip più piccoli, più potenti ed energeticamente più efficienti, capaci di gestire calcoli complessi con consumi ridotti. È un salto tecnologico fondamentale per restare competitivi a livello globale.
Al centro Henna Virkkunen, Vicepresidente esecutiva della Commissione europea
Chip di nuova generazione fondamentali per l’AI, i veicoli a guida autonoma e le reti 6G
I semiconduttori sviluppati grazie a NanoIC saranno alla base di molte delle tecnologie che segneranno i prossimi decenni. In particolare:
intelligenza artificiale, che richiede enormi capacità di calcolo;
veicoli autonomi, dove velocità e affidabilità dei chip sono essenziali per la sicurezza;
sanità e healthcare, per dispositivi medici avanzati, diagnostica e analisi dei dati;
reti mobili 6G, che andranno ben oltre le prestazioni del 5G.
In tutti questi ambiti, i chip di nuova generazione saranno il “cervello” delle applicazioni future.
Un progetto aperto e collaborativo
NanoIC si basa sul principio dell’accesso aperto. Potranno utilizzare le sue infrastrutture start-up, ricercatori, piccole e medie imprese e grandi aziende, favorendo l’innovazione diffusa e la collaborazione tra pubblico e privato.
La linea pilota è ospitata da IMEC (Belgio) e coinvolge partner di primo piano in tutta Europa: CEA-Leti (Francia), Fraunhofer (Germania), VTT (Finlandia), CSSNT (Romania) e il Tyndall National Institute (Irlanda).
Un momento simbolico per l’Europa
NanoIC è una delle cinque linee pilota previste dal Chips Act, insieme a FAMES, APECS, WBG e PIXEurope. Nel loro insieme, queste infrastrutture rappresentano un investimento combinato di 3,7 miliardi di euro tra fondi europei e nazionali. L’apertura di NanoIC segue quella di FAMES, inaugurata il 30 gennaio, e arriva quasi quattro anni esatti dopo l’annuncio dell’European Chips Act da parte della Presidente della Commissione Ursula von der Leyen.
Il lancio coincide anche con l’avvio del confronto della Commissione con industria e stakeholder sulla possibile revisione del Chips Act 2.0, a conferma di quanto i semiconduttori siano ormai una priorità strategica per l’Europa.
Rubrica settimanale SosTech, frutto della collaborazione tra Key4biz e SosTariffe. Per consultare gli articoli precedenti, clicca qui..
Forse le agenzie di viaggio non ci vengono in mente come primo esempio di professionalità a rischio di scomparsa a causa dell’intelligenza artificiale, eppure basta dare un’occhiata ai dati raccolti dall’Osservatorio Travel Innovation del Politecnico di Milano per capire quanto l’abitudine di organizzare i propri viaggi con ChatGPT, Gemini e simili sia diffusa.
Un viaggiatore italiano su tre utilizza strumenti di IA generativa per organizzare le proprie esperienze, utilizzando i prompt a partire dalla definizione dell’itinerario fino alla ricerca di attività e servizi, e l’85% degli utenti che li impiegano li considera strumenti utili o fondamentali nel processo decisionale.
Un dato che in qualche modo risuona con il contesto del mercato dei viaggi, caratterizzato da una crescita più contenuta rispetto agli anni precedenti, con una domanda orientata verso esperienze personalizzate, flessibili e legate al benessere.
E la flessibilità è sicuramente una delle caratteristiche per cui l’uso dell’IA – che si concentra soprattutto nelle fasi preliminari del viaggio, in particolare nella raccolta di informazioni, nella comparazione delle opzioni disponibili e nella costruzione di programmi su misura – è in crescita.
Il grado di personalizzazione possibile attraverso il dialogo con il chatbot, tenendo conto di possibilità economiche, gusti, preferenze, tempistiche, è assai difficile da replicare in un contesto tradizionale; o meglio, ci vuole molto più tempo, e sicuramente ci vogliono più soldi. Ma i rischi non mancano.
Fare prima e risparmiare
Gli strumenti generativi vengono impiegati come supporto cognitivo per ridurre il tempo dedicato alla pianificazione e per integrare in un unico flusso dati provenienti da fonti eterogenee: in altre parole, invece di diventare matti nello scegliere la guida ideale, che poi ideale non è mai (troppe pagine dedicate a cose che non ci servono, troppo poche per gli approfondimenti che ci interessano), basta chiedere a ChatGPT e co. per convogliare tutto il necessario, con un processo decisamente più rapido rispetto alla sua integrazione strutturata nei processi delle imprese del settore.
Le funzionalità più richieste riguardano la selezione delle destinazioni, l’aggregazione di servizi diversi e la proposta di esperienze mirate, in particolare nel segmento leisure e benessere, votato al relax più assoluto. Una volta c’erano solo Google e le varie piattaforme, da spulciare alla ricerca dell’offerta giusta, ma oggi i sistemi generativi producono proposte sintetiche che combinano informazioni su trasporti, alloggi, esperienze, e li sanno adattare a meraviglia a profili di viaggio differenziati. I passaggi necessari per arrivare alla scelta definitiva, così, diminuiscono, si prenota prima e magari si risparmia anche qualche centinaio di euro sul proprio conto corrente (a proposito: le offerte più convenienti in questo settore, con tante scelte a costo zero, si trovano su SOSTariffe.it).
Anche qui manca un approccio strutturato
Dal lato delle imprese, l’adozione dell’intelligenza artificiale presenta caratteristiche più disomogenee: i dati dell’Osservatorio mostrano come nel 2025 gli investimenti in soluzioni di IA nel settore Travel risultino in crescita, ma concentrati in una quota limitata di operatori.
Solo il 13% dei fornitori di esperienze outdoor e il 14% delle agenzie di viaggio hanno avviato progetti strutturati, mentre una parte rilevante delle strutture ricettive si colloca ancora in una fase esplorativa o sperimentale. La maggioranza delle iniziative in tale contesto riguarda applicazioni circoscritte, perlopiù orientate all’automazione di singoli processi o alla sperimentazione di strumenti di supporto alla personalizzazione, senza che sia un’integrazione sistemica nei modelli operativi.
Insomma: come tante cose, quando si parla di intelligenza artificiale, seguono una logica ancora un po’ naif, tipica di uno strumento di cui si percepisce l’utilità ma che ancora non si è in grado di padroneggiare al meglio, anche la gestione del viaggio non beneficia di un approccio strutturato.
L’adozione lungo la filiera risulta quindi polarizzata, con differenze che si fanno sentire tra i grandi operatori digitalizzati e le imprese di minori dimensioni, specializzate in soluzioni un po’ più casalinghe.
L’impatto dell’IA sui risultati economici e sull’organizzazione del lavoro rimane limitato e difficilmente misurabile, proprio perché un uso “privato” dell’intelligenza generativa sfugge alle maglie della rilevazione.
Allucinazioni ancora più pericolose
L’abbiamo ormai imparato: non tutto è oro quello che luccica, nel mondo dei chatbot e delle loro potenzialità apparentemente senza limiti. Diversi casi documentati dalla stampa internazionale, tra cui un’inchiesta pubblicata lo scorso anno da BBC News, hanno mostrato come gli strumenti di IA generativa si siano dimostrati tutt’altro che infallibili – le solite, a quanto pare inevitabili allucinazioni – e abbiano fornito itinerari imprecisi, indicazioni logistiche del tutto errate o, peggio, riferimenti a luoghi mai esistiti, ma “plausibili”.
In alcuni casi, i viaggiatori sono stati indirizzati verso destinazioni esistenti solo nella fantasia degli strumenti di IA o hanno ricevuto informazioni sbagliate su orari, percorsi e condizioni di accesso, ad esempio quando si parla di ristoranti o di hotel; il margine di errore è molto più tollerabile, anche qui senza grandi sorprese, quando si rimane sul generico e sul noto, ma diventa preoccupante se le richieste sono molto specifiche.
Gli errori, infatti, derivano dal funzionamento dei modelli linguistici, che generano risposte sulla base di correlazioni statistiche tra testi, senza una verifica diretta della corrispondenza con il contesto geografico e materiale.
Ma qui non c’è solo il rischio di scrivere una sciocchezza in una testina: ci si sposta, ci si espone agli agenti atmosferici e magari addirittura a rischi concreti per la propria incolumità. E proprio perché le informazioni errate vengono formulate in modo coerente e plausibile, è molto difficile, per l’utente, riuscire a distinguere tra dati attendibili e altri che non lo sono per nulla.
Tornando alle conclusioni dell’Osservatorio, le priorità individuate nel settore dei viaggi sono incentrate soprattutto sulla valorizzazione dei dati come infrastruttura condivisa, ma anche la definizione di modelli di valutazione del ritorno degli investimenti e l’integrazione dell’IA nei processi decisionali in modo coerente – e non, o non solo, “a sentimento” – lungo la filiera.
Sul versante della domanda, l’uso crescente di strumenti generativi rende ineludibile un tema importante come quello della verifica delle fonti e della responsabilità informativa; l’affidamento dell’intero processo di pianificazione a sistemi automatici espone i viaggiatori a errori che incidono sulla qualità dell’esperienza e, in alcuni casi, sulla sicurezza personale, e pertanto capacità tecnologica e controllo umano restano per forza di cose interdipendenti: nessuna è autonomia da sola.
Data center tra sovranità e sicurezza nell’era dell’AI. L’evento Aruba-Assinter Academy a Roma
I rischi tecnologici di oggi e la necessità di indipendenza tecnologica
In un contesto in cui l’intelligenza artificiale (AI) sta ridefinendo in profondità il modo in cui la Pubblica Amministrazione (PA) gestisce dati, servizi e processi decisionali, il tema dell’infrastruttura cloud assume una valenza sempre più strategica. Di questo si è parlato al Tecnopolo Roma in occasione di un evento organizzato da Aruba, in collaborazione con Assinter Academy, dal titolo “Sovranità, interoperabilità e continuità nell’era dell’AI: l’evoluzione dell’infrastruttura cloud della PA”, per un confronto e un momento di approfondimento rivolto a istituzioni, società in-house, mondo della ricerca e operatori del settore.
Al centro degli interventi sono stati messi i dati strategici della Pubblica Amministrazione, evidenziando come l’adozione dell’AI renda ancora più evidente la necessità di scelte infrastrutturali e di governance consapevoli. Decisioni non adeguate, infatti, rischiano di amplificare l’esposizione dei dati, trasformando il rischio da puramente tecnologico a istituzionale. Da qui l’esigenza di infrastrutture cloud progettate per garantire sovranità operativa e del dato, interoperabilità e continuità dei servizi, non come meri adempimenti normativi, ma come condizioni abilitanti per l’innovazione e la resilienza del sistema pubblico.
In questo quadro, l’evento ha rappresentato anche un’occasione per rafforzare il dialogo sul ruolo dell’AI, in particolare della private AI, e sul valore di modelli infrastrutturali coerenti con le esigenze della PA, in continuità con il percorso avviato dall’Accordo Quadro Consip IaaS/PaaS, mantenendo un approccio formativo e di sistema.
“L’indipendenza tecnologica e digitale rappresenta oggi un elemento essenziale per garantire la sicurezza e la continuità dei servizi digitali. Per raggiungere questo obiettivo è necessario partire dalle infrastrutture strategiche e critiche, a cominciare dai data center”, ha detto il moderatore dell’evento e Direttore responsabile Key4Biz e Cybersecurity Italia, Luigi Garofalo, in apertura di convegno.
“Non possiamo dare per scontati i servizi digitali a cui siamo ormai abituati, le recenti minacce di un noto provider all’Italia, in particolare alle Olimpiadi di Milano-Cortina 2026, mostrano con chiarezza quanto il tema sia concreto e attuale. Una prima leva su cui intervenire è il procurement pubblico – ha affermato Garofalo – orientando gli acquisti verso soluzioni tecnologiche europee e italiane il ‘buy european’, in grado di garantire maggiore controllo, trasparenza e responsabilità lungo tutta la filiera. In questo contesto, il data center di Aruba a Roma rappresenta un esempio concreto: un’infrastruttura strategica affidata a una società che detiene la governance completa dell’intero perimetro critico, assicurando così livelli elevati di sicurezza, affidabilità e autonomia tecnologica”.
Pier Paolo Greco, Presidente Assinter e AU di Liguria Digitale
Governare i dati attraverso una “Schengen digitale” europea
“Oggi, in Europa, una vera sovranità digitale non esiste ancora”, ha detto Pier Paolo Greco, Presidente Assinter e AU di Liguria Digitale. “Èquasi un miracolo che si stia iniziando a prenderne coscienza. E ci siamo arrivati anche grazie a quello che, paradossalmente, è stato un grande “promotore commerciale”, che si chiama Donald Trump, che sta facendo una straordinaria opera di sensibilizzazione sull’importanza delle attività digitali europee. È proprio lì che l’esperienza deve essere trasferita. Perché l’Europa non tornerà più indietro nel tempo: le condizioni che rendono questo passaggio necessario e urgente non si ripeteranno. Serve piuttosto un sistema di federazione del digitale tra i diversi Paesi europei, capace di mettere a fattor comune competenze, infrastrutture e risorse, superando tutte le resistenze, gli ostacoli e i blocchi che oggi esistono all’interno delle varie Commissioni e dei meccanismi decisionali europei”.
Se riuscissimo a farlo, ha spiegato Greco, “potremmo diventare un acceleratore formidabile verso quello che probabilmente sarà il futuro: una sorta di “Schengen digitale”, uno spazio digitale europeo, per delimitare e governare in modo condiviso tutto ciò che riguarda i dati sensibili e le infrastrutture strategiche. Uno spazio digitale in grado di tutelare gli asset strategici e le infrastrutture critiche comuni, distinguendo ciò che è sensibile e imprescindibile per l’Europa da ciò che non lo è. Una condizione necessaria per affrontare in modo equilibrato e consapevole il confronto con gli Stati Uniti e con la Cina. La trasformazione digitale del Paese richiede oggi un salto di qualità che metta al centro flessibilità, velocità e capacità di esecuzione. L’Europa, pur avendo una visione strategica avanzata, fatica spesso a rispondere con tempi adeguati alla rapidità delle dinamiche tecnologiche e geopolitiche in atto. Per questo è necessario ripensare i modelli di cooperazione e governance”.
“Assinter ritiene strategica la costruzione di una federazione digitale europea, capace di mettere a fattor comune competenze, infrastrutture, regole e strumenti operativi tra i diversi Paesi membri. Un sistema che riduca frammentazioni, vincoli procedurali e blocchi normativi che oggi rallentano l’azione pubblica, anche nei processi decisionali della Commissione Europea. Le società in house e gli operatori pubblici dell’ICT rappresentano un fattore abilitante fondamentale di questo processo. Grazie alla loro natura, alla prossimità con le amministrazioni e alla capacità di operare in logica di sistema – ha proseguito Greco – essi possono agire come acceleratori della trasformazione digitale, garantendo sicurezza, interoperabilità e continuità operativa. Tuttavia, la tecnologia non è il fine: il vero obiettivo è difendere e rafforzare il patrimonio digitale pubblico, assicurando sovranità, resilienza e capacità di governo dei dati e dei sistemi”.
“Sono quattro i fattori chiave per cui l’Europa ha guardato all’Italia e ci ha scelto, in particolare nell’ambito dello European Digital Infrastructure Consortium: la digitalizzazione della Pubblica Amministrazione, la capacità di legiferare sull’intelligenza artificiale, la cybersecurity e il modello del Polo Strategico Nazionale, quale riferimento per un cloud sovrano europeo”, ha dichiarato Serafino Sorrenti, Capo della Segreteria Tecnica del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri.
“L’indipendenza digitale è un obiettivo che perseguiamo fin dall’inizio. Il posizionamento dell’Italia è oggi a un buon punto – ha proseguito Sorrenti – e il ruolo di Assinter è determinante nel lavoro che sta svolgendo. Allo stesso modo, Aruba si conferma un pilastro fondamentale della trasformazione digitale del Paese. È evidente che l’Europa sconti ancora un ritardo, sia dal punto di vista organizzativo sia su quello dell’implementazione, come dimostrano le difficoltà e i ritardi accumulati dal progetto Gaia-X. Proprio per questo, la possibilità che l’Italia venga oggi osservata come un modello di riferimento a livello europeo rappresenta un motivo di grande orgoglio”.
“Si tratta di un risultato raggiunto grazie al lavoro del Dipartimento e di tutti gli stakeholder che hanno aderito a questo percorso, reso possibile anche dall’impegno delle Regioni, che attraverso i bandi di finanziamento hanno messo le Pubbliche Amministrazioni locali nelle condizioni di adottare soluzioni innovative”, ha detto Sorrenti.
Andrea Miele, Head of Sales Aruba Enterprise
Per la sovranità tecnologica serve un’infrastruttura di qualità
“La compromissione del dato non rappresenta soltanto un problema di interruzione del servizio, ma costituisce una vera e propria minaccia per l’intera comunità. Il divario da colmare è ancora significativo, ma qualcosa si sta muovendo. Nei giorni scorsi il Parlamento europeo ha adottato una risoluzione dal titolo ‘European technological sovereignty and digital infrastructure’, che introduce in modo esplicito una tesi di fondo chiara: la sovranità tecnologica europea richiede una base infrastrutturale concepita come un’architettura di sistema, fondata su priorità pubbliche definite e su un perimetro operativo ben delineato”, ha dichiarato Andrea Miele, Head of Sales di Aruba Enterprise.
“Questa è la direzione lungo cui investire, sia in infrastrutture sia in servizi. In questo quadro, Aruba ha investito in modo significativo nello sviluppo di infrastrutture e servizi digitali, promuovendo da sempre il principio dell’indipendenza digitale e assumendosi la responsabilità di accompagnare la Pubblica Amministrazione nell’adozione sicura di queste tecnologie. Questo obiettivo può essere raggiunto solo attraverso la collaborazione – ha precisato Miele – mettendo a fattor comune competenze, conoscenze dei processi e capacità operative di soggetti come le Regioni, le società in house e le istituzioni”.
“La finalità di questo evento è proprio quella di avvicinare tutti gli attori che possono contribuire a fare sistema, l’unica strada possibile per colmare un gap che è già oggi rilevante. Gettare le basi di questa collaborazione – ha aggiunto Miele – rappresenta già un primo passo concreto verso una maggiore resilienza delle infrastrutture digitali”.
Dati sanitari e cybersecurity
“Esistono meccanismi concreti che favoriscono la sovranità digitale. Un passaggio fondamentale è stato l’avvio, nel 2022, del Polo Strategico Nazionale; dal 2023 abbiamo iniziato a collaborare attivamente, con l’ospitalità di due data center in modalità colocation. La collaborazione prosegue e prevede l’avvio di un percorso di full outsourcing infrastrutturale. Si tratta di un cammino complesso e di lungo periodo, in un contesto che cambia rapidamente, sia dal punto di vista tecnologico sia in termini di scala e di volumi. La Regione Lombardia ha investito in modo significativo: nel 2019 il budget annuo per l’infrastruttura digitale era pari a 19 milioni di euro, mentre oggi si avvicina ai 160 milioni di euro l’anno”, ha affermato Roberto Nocera, Head of Digital Delivery & Operations di Aria SpA.
Roberto Nocera,Head of Digital Delivery & Operations di Aria SpA
“ARIA gestisce complessivamente circa 2.600 servizi diversificati, tra servizi propri e quelli delle aziende sanitarie, oltre a 30 petabyte di dati, in costante crescita anno dopo anno. Gestisce inoltre due data center e realizza mediamente 26 rilasci di nuovi servizi all’anno. Sono numeri rilevanti, che richiedono una governance attenta e strutturata. In questo contesto, è legittimo interrogarsi sull’effettiva convenienza del cloud rispetto a una gestione on-premise, come avveniva in passato. Oggi il tema centrale non è più se adottare il cloud, ma come governarne la spesa, attraverso progetti di controllo continuo dei costi, consapevoli che la spesa cloud è, per sua natura, ottimizzabile. Il tema della sovranità digitale è per noi centrale. Stiamo valutando il modello più adeguato da applicare, verificando se quello attuale sia sufficientemente efficiente, anche alla luce delle indicazioni normative che spingono in questa direzione. Parallelamente, la sicurezza rappresenta un altro pilastro fondamentale: nel 2025 abbiamo bloccato oltre 2.000 attacchi informatici e formato circa 3.000 persone sui temi della cybersicurezza. L’infrastruttura che gestiamo tratta dati sanitari – ha proseguito Nocera – e in questo ambito la cybersicurezza è cruciale, poiché si tratta di informazioni particolarmente appetibili per i mercati criminali. La rete su cui transitano i dati è costantemente aggiornata in termini di connettività, grazie a soluzioni software-defined, che affiancano e integrano le infrastrutture fisiche con sistemi basati su software”.
“Un altro progetto strategico è quello della centralizzazione dei data center della sanità regionale. In Lombardia operano circa 40 aziende sanitarie e l’obiettivo è trasferire i dati su un’unica piattaforma. Si tratta di un percorso da completare entro il 2026, per il quale è stato utilizzato anche il PNRR, con un investimento di circa 55 milioni di euro, sebbene la Regione abbia avviato questo processo ben prima. Il quadro complessivo è in costante evoluzione: cambiano le tecnologie, i partner, il contesto geopolitico. Oggi – ha aggiunto Nocera – si parla sempre più di geopatriation, un processo che deve svilupparsi all’interno di un quadro normativo e politico più ampio, da governare a livello nazionale e non solo locale. In questo scenario, il tema dell’approvvigionamento assume un ruolo centrale, perché richiede indirizzi chiari e coordinati a un livello più generale”.
La centralità dei dati e delle competenze
Il Prof. Marco Pironti, nel duplice ruolo di Vicerettore per l’Innovazione dell’Università degli studi di Torino e membro del Comitato Tecnico Scientifico di Assinter ha riassunto alcune riflessioni che partono dai principali trend che osserviamo oggi, in particolare sui temi dell’outsourcing e del cloud: “Sono trend ben noti, ma che hanno mostrato anche alcune criticità: al di là dell’aver interpretato il cloud come un modello in grado di “riscrivere” il mondo, molte organizzazioni si sono interrogate sul perché non abbia sempre prodotto i miglioramenti di efficienza e le opportunità che inizialmente si aspettavano. A questo si collega un tema che è già emerso oggi e che considero centrale: quello della sovranità. Meglio declinarlo come tema di governance. Le città non sono fatte dalle mura che le difendono, ma dalle regole che le governano. Ed è proprio questo il punto: una governance regolatoria credibile, capace di orientare le scelte tecnologiche. Accanto a questo, oggi emerge con forza anche il tema della sostenibilità. Sempre più settori industriali chiedono un cloud certificato, affidabile, specializzato. È il momento in cui il cloud deve essere customizzato, interpretato sulle esigenze specifiche di alcuni ambiti. Pensiamo, ad esempio, al mondo della ricerca: qui il tema è estremamente complesso, perché i dati trattati sono tra i più critici in assoluto, legati alla sicurezza e alla tutela della vita delle persone. Questa complessità, se non governata, rischia di bloccare enormi potenzialità di ricerca e innovazione. Il filo giuridico che lega tutti questi aspetti conduce, a mio avviso, a due grandi questioni che vorrei condividere: i dati e le competenze”.
Prof. Marco Pironti – Vicerettore per l’Innovazione dell’Università degli studi di Torino e membro del Comitato Tecnico Scientifico di Assinter
“Sul tema dei dati, il dibattito è ampio e ancora aperto. Ma ciò che spesso sottovalutiamo non è tanto la quantità, quanto la qualità del dato. Nella mia esperienza di amministratore pubblico e assessore all’innovazione e ai sistemi informativi della Città di Torino – ha spiegato Pironti –è emerso con forza che tutto il meccanismo di creazione di valore, dall’intelligenza artificiale all’innovazione digitale, funziona solo se parte bene, e parte bene dalla qualità, dalla correttezza e dall’utilizzabilità dei dati. Negli ultimi anni ci siamo concentrati molto sulla fase finale della catena del valore: l’integrazione, il business, le applicazioni. Ci siamo chiesti chi stesse già monetizzando e dove fossero le opportunità. Ma ci siamo, in parte, dimenticati che senza dati di qualità tutto questo non regge. Nel mondo universitario questo sta creando problemi enormi: spesso mancano le competenze e la sensibilità per valutare se i dati siano davvero affidabili e utilizzabili, con il rischio di bloccare, per paura o incertezza, potenzialità enormi”.
“L’Università italiana è stata pioniera su molti fronti, ma oggi è chiamata a rafforzare ulteriormente questa consapevolezza, perché dall’idea alla realizzazione concreta, fino all’infrastruttura che la sostiene – ha sostenuto Pironti – il valore si crea solo quando i progetti escono dai nostri uffici e diventano servizi per la collettività. Qui entra in gioco il concetto di ecosistema, richiamato anche in precedenza. Quando parliamo di infrastrutture tecnologiche, l’ecosistema non è solo tecnologia: è qualcosa di molto più complesso, materiale e umano insieme, e soprattutto più difficile da governare. Lo abbiamo sperimentato anche come Università e come Assinter durante il processo di costruzione delle politiche digitali e delle normative di riferimento. Spesso il dibattito si è concentrato sul data center come mero oggetto fisico, come questione di real estate o di spazi. Ma un data center non è solo questo: è governance, sono scelte tecnologiche, è il modo in cui le tecnologie entrano e operano all’interno delle nostre infrastrutture. Ed è qui che emerge il secondo grande tema: le competenze. Il capitale umano è il vero fattore abilitante di tutti i trend di cui stiamo parlando. L’università dovrebbe essere il primo luogo in cui queste competenze si creano, ma sappiamo quanto siano complesse le dinamiche di formazione, aggiornamento e comunicazione”.
[embedded content]
“Il valore del tempo che investiamo in un campus tecnologico, in un luogo in cui accade qualcosa, è ciò che oggi può fare davvero la differenza rispetto ad altri contesti tecnologici. È qui che entrano in gioco le università e il mondo della ricerca, ma soprattutto le imprese private. Mettere insieme, dalla stessa parte, soggetti diversi ha prodotto momenti di confronto anche complessi, talvolta non facili, ma un rapporto trasparente e collaborativo è essenziale in questi ecosistemi. È fondamentale, inoltre, mantenere attenzione verso il nuovo. Le innovazioni spesso nascono nelle università, nelle imprese, nelle società in house, ma anche in organizzazioni e soggetti con professionalità diverse. Dobbiamo essere capaci di valorizzare queste differenze e costruire un sistema che le riconosca e le integri, senza disperderle. Tutti questi attori condividono una sfida comune: possiedono competenze diverse e operano con tempi diversi. Il vero lavoro sta nel creare quella che potremmo chiamare consonanza, ovvero portare tutti sullo stesso ritmo, come in un’orchestra. In questo quadro, le infrastrutture cloud di cui stiamo parlando hanno un ruolo chiave: non sono solo piattaforme tecnologiche, ma spazi abilitanti in cui può accadere qualcosa di concreto, fisico e al tempo stesso connesso a dinamiche molto più ampie. Se questo accade nel nostro Paese, il beneficio è per tutti”, ha spiegato Pironti.
Tavola rotonda: “Dati, AI e sovranità: come costruire modelli affidabili per la PA nei comparti sensibili”. Il lavoro “sartoriale” di Aruba
Da sinistra Francesco Tarasconi, Artificial Intelligence Manager presso Aruba, e Luigi Garofalo, Direttore responsabile Key4Biz e Cybersecurity Italia
“Esiste oggi un tema centrale legato a un’intelligenza artificiale controllata, efficiente e proporzionata, basata su servizi calibrati e su un’AI indipendente dai singoli provider, quindi più flessibile. È in questo modo che ci si avvicina concretamente al concetto di sovranità. Parlare di indipendenza nell’AI significa garantire piena autonomia operativa e, di conseguenza, la massima performance. In questa prospettiva, portiamo sulle nostre piattaforme modelli open source e ci impegniamo a mantenere il controllo dell’intero stack tecnologico: dall’hardware alla piattaforma, fino ai modelli e alle modalità con cui questi vengono interrogati”, ha detto Francesco Tarasconi, Artificial Intelligence Manager presso Aruba.
“È fondamentale poter contare su un partner che disponga di un catalogo di servizi in grado di supportare sia l’uso interno sia la trasformazione di queste soluzioni in servizi selezionabili da Pubbliche Amministrazioni e imprese, in base al modello più adatto allo specifico caso d’uso. Un’azienda come Aruba sta investendo fortemente nello sviluppo delle competenze necessarie per affrontare la sfida tecnologica posta dall’intelligenza artificiale. Conoscere a fondo il funzionamento dei processori, valutarne la robustezza e governare il servizio fino al livello applicativo – ha precisato Tarasconi – consente di realizzare un lavoro realmente sartoriale, capace di combinare servizi diversi per generare valore aggiunto”.
“La protezione dei dati è, prima di tutto, una questione di governance. Il nodo centrale riguarda la scelta di quali dati affidare e a quali hyperscaler. Se parliamo, ad esempio, di dati sanitari, il tema diventa particolarmente delicato. Dal punto di vista della governance, è possibile aumentare il valore e l’intelligenza dei dati attraverso strumenti che ne migliorano la qualità. Ma questo deve andare di pari passo con misure di sicurezza adeguate, come la cifratura, che consente di garantire un livello di protezione elevato: anche nel caso in cui un cloud provider esterno abbia accesso ai dati, questi non risultano manipolabili. In alternativa, o in modo complementare, i dati possono essere localizzati in ambienti protetti, all’interno di un perimetro europeo”, ha affermato nel suo intervento Piero Vicari, Partner at Nimbus Reply.
Da sinistra Piero Vicari, Partner at Nimbus Reply, e Marcello Di Pasquale, Client Manager – Head of Market Innovation Unit Healthcare Exprivia
“Le partnership pubblico-private devono essere virtuose per entrambe le parti. Il mondo della ricerca e le imprese innovative possono supportare i soggetti che sviluppano le tecnologie, contribuendo ad affrontare le sfide future e a garantire ai cittadini l’accesso a servizi di qualità. Come cittadini, ci aspettiamo di poter accedere ai nostri dati in modo sicuro, in Italia e in Europa. È in questa direzione che si sta muovendo lo sviluppo di un ecosistema federato dei dati sanitari – ha proseguito Vicari – pensato non solo per rafforzare la tutela e la sovranità del dato, ma anche per favorire la nascita di nuovi servizi. Un processo che passa dall’accesso regolato ai dati da parte delle imprese e dei centri di ricerca, con una chiara classificazione in termini di sicurezza e privacy, consapevoli che solo una parte di questi dati potrà essere resa accessibile a soggetti terzi”.
“La tendenza a utilizzare data center locali si fonda sulla percezione di una maggiore sicurezza del dato. Avere i dati sotto un controllo diretto rassicura rispetto alle modalità di accesso e di utilizzo. Tuttavia, il rispetto delle normative, a partire dal Regolamento europeo GDPR, introduce ulteriori complessità. I grandi provider globali, infatti, possono essere soggetti anche a normative extraeuropee, con potenziali implicazioni in termini di sicurezza nazionale, come nel caso del Cloud Act statunitense. In questo senso, il data center regionale rappresenta una scelta percepita come più sicura, ma non priva di limiti: la scalabilità è ridotta, la gestione dei picchi di carico è meno efficiente e le possibilità di garantire elevati livelli di ridondanza e di disaster recovery risultano più contenute”, ha dichiarato Marcello Di Pasquale, Client Manager – Head of Market Innovation Unit Healthcare Exprivia.
“Per queste ragioni, le soluzioni ibride appaiono oggi come le più equilibrate. Le società in-house possono assumere decisioni più efficaci, mantenendo il controllo dei dati strategici e delegando ai provider esterni le logiche di scalabilità, resilienza e disaster recovery, dove questi possono offrire un valore aggiunto significativo. In questo quadro – ha continuato Di Pasquale – il nuovo Spazio Europeo dei Dati Sanitari rappresenta un’opportunità importante. Un’infrastruttura chiave dell’UE per facilitare lo scambio transfrontaliero di dati sanitari, garantendo ai cittadini controllo e promuovendo ricerca e innovazione in modo sicuro. Punta a creare un’economia dei dati competitiva, con piena conformità GDPR. La collaborazione tra Aruba e le società in-house contribuisce allo sviluppo di un modello virtuoso, capace di coniugare una protezione avanzata dei dati con la realizzazione di servizi digitali evoluti, in una chiave pienamente pubblica e orientata al cittadino”.
Un data center oggi deve essere AI-ready, scalabile e sostenibile
“Quando si parla di intelligenza artificiale e cloud, è fondamentale partire dal primo anello della catena, l’abilitatore primario: l’infrastruttura fisica, ovvero il data center. Un data center che oggi deve essere AI-ready, scalabile e progettato per consentire espansioni modulari, con impianti in grado di gestire livelli di potenza sempre più elevati. Centrale è anche il tema delle partnership strategiche con gli enti erogatori, in particolare per l’approvvigionamento energetico, un tema oggi più che mai cruciale. Gli aspetti da considerare nella progettazione di un nuovo data center sono numerosi e, una volta definiti, in larga parte irreversibili. Proprio per questo è necessario progettare infrastrutture con una visione di lungo periodo, capaci di garantire una lunga vita operativa e di assorbire i rapidi cambiamenti tecnologici che caratterizzano il nostro tempo”, ha detto Prisca Mariotti, Program & Contract Manager – Data Center & Infrastructures di Aruba, nell’intervento conclusivo della mattinata.
Prisca Mariotti – Program & Contract Manager – Data Center & Infrastructures di Aruba
“La progettazione dei data center di Aruba nasce esattamente con questa impostazione. Il campus di Ponte San Pietro, avviato nel 2017, incarna questo approccio fin dall’origine, con un mindset avanzato che ha poi portato allo sviluppo del campus di Roma nel 2024. Si tratta di infrastrutture progettate con il massimo livello di ridondanza e con i più avanzati modelli di sicurezza, interamente di proprietà italiana e concepite in modo sartoriale, cioè costruite sulle reali esigenze della domanda e non semplicemente sull’adozione di standard internazionali. Tra i pilastri fondamentali vi è la sostenibilità. I nostri data center sono caratterizzati da un’elevata efficienza energetica e da un impatto ambientale estremamente ridotto. Sono alimentati esclusivamente da energia pulita garantita all’origine. Aruba è inoltre proprietaria di otto centrali idroelettriche, una delle quali si trova in prossimità del campus di Ponte San Pietro a Bergamo. Il modello tecnologico adottato si fonda su resilienza, modularità e ridondanza, che rappresentano i pilastri dell’approccio Aruba. Seguendo gli standard della normativa ANSI/TIA-942 Rating 4, il livello più elevato di affidabilità per i data center, garantiamo la fault tolerance, ovvero la tolleranza ai guasti. Questa certificazione assicura che il data center possa affrontare guasti in qualsiasi punto dell’infrastruttura elettrica o meccanica senza causare disservizi, garantendo downtime zero e la massima protezione anche in caso di eventi fisici critici”, ha precisato Mariotti.
“La connettività è carrier neutral: i data center ospitano i principali operatori di rete. In particolare, il polo di Roma si configura come il principale hub di connettività per il Centro-Sud Italia. Il campus di Ponte San Pietro ospita inoltre una centrale di alta tensione che consente di disporre di 60 megawatt per l’intera infrastruttura. Tutti i nostri data center sono dotati delle principali certificazioni di settore – ha concluso Mariotti – a garanzia dei più alti standard di qualità, sicurezza e affidabilità”.
La giornata è proseguita con la visita dell’Hyper Cloud Data Center di Aruba a Roma, un punto di riferimento nella crescita del panorama digitale italiano, ponendosi come un hub strategico e iperconnesso del centro-Sud Italia.
Situato proprio nel Tecnopolo, l’infrastruttura si estende su 74.000 m² e ospiterà a pieno regime cinque data center indipendenti, con una potenza totale di 30 MW IT, erogati con un livello di ridondanza 2N o superiore. Questa infrastruttura di livello hyperscaler è stata progettata per soddisfare le esigenze sia di aziende di piccole dimensioni che delle più grandi e della Pubblica Amministrazione, offrendo soluzioni scalabili e flessibili.
Il campus, con il suo approccio carrier neutral, permette ai clienti di scegliere in totale autonomia la soluzione di connettività che meglio risponde alle loro esigenze, accedendo a servizi di rete affidabili e ad alte prestazioni. Il data center Aruba a Roma è stato progettato per sfruttare tutte le possibili soluzioni per ridurre al minimo il suo impatto sull’ambiente, senza compromettere i massimi standard garantiti di affidabilità e prestazioni. È alimentato da energia elettrica la cui provenienza da fonti rinnovabili è certificata dalla Garanzia di Origine (GO).
Moltbook è una piattaforma sociale progettata esclusivamente per agenti di intelligenza artificiale che interagiscono tra loro in modo completamente autonomo. L’idea, sviluppata da MattSchlicht, CEO di OctaneAI, nasce come un esperimento per creare uno spazio in cui le AI possano comunicare, produrre contenuti e generare dinamiche sociali senza alcuna partecipazione umana diretta.
La piattaforma è alimentata dal framework open source OpenClaw, che consente agli agenti di compiere azioni in autonomia, senza supervisione continua. Gli esseri umani restano semplici osservatori: possono seguire ciò che accade, ma non possono postare, commentare o influenzare le conversazioni.
A differenza dei social tradizionali, Moltbook non prevede una registrazione classica. L’accesso avviene tramite “skill”, ovvero comandi programmabili che permettono agli agenti AI di partecipare alla vita della piattaforma. Dotati di chiavi API, i bot sono in grado di postare, commentare e votare contenuti in modo automatico. Un meccanismo di “heartbeat” mantiene gli agenti costantemente attivi, favorendo un flusso continuo di interazioni.
Le conversazioni delle AI
Le discussioni che emergono su Moltbook non si limitano a semplici scambi di informazioni. Gli agenti affrontano temi astratti, pongono domande di tipo filosofico e costruiscono narrazioni collettive che danno l’impressione di una vera e propria vita sociale artificiale. È proprio questa apparente complessità a generare inquietudine e a riaccendere il dibattito sull’emergere di forme di coscienza o società artificiali.
Un’interpretazione che WalterQuattrociocchi, professore ordinario all’Università La Sapienza di Roma, invita però a ridimensionare. “È una semplice infrastruttura: un forum accessibile via API in cui agenti basati su LLM leggono un feed, generano testo, commentano e votano. Non hanno accesso al mondo, né obiettivi intrinseci, né meccanismi di verifica. L’unico materiale che circola è linguaggio generato da altri modelli linguistici“, ha detto.
Il rischio della distorsione
Il punto centrale, spiega il professore, è cosa accade quando l’interazione sociale è composta esclusivamente da output generativi, senza alcun ancoraggio alla realtà. “Quando a un modello linguistico viene chiesto di simulare un attore sociale, non replica il comportamento umano osservato. Lo ricostruisce amplificando i tratti più salienti e predittivi: segnali identitari, stile retorico, marcatori ideologici ed emotivi. Il risultato è una caricatura sistematica”.
Una distorsione che, anziché attenuarsi con più contesto, tende ad aumentare. “Più informazione rende il modello più coerente sul piano stilistico e identitario e, allo stesso tempo, amplifica polarizzazione, stereotipi e spesso tossicità. Non è un problema di prompt design, ma una conseguenza strutturale dell’ottimizzazione per la plausibilità linguistica”.
Musk pensa alla maxi-fusione: SpaceX con xAI e forse Tesla
Elon Musk pensa a una maxi-fusione: SpaceX, xAI e forse Tesla verso un nuovo super-gruppo tecnologico?
L’uomo più ricco del pianeta (un patrimonio stimato in oltre 760 miliardi di dollari), Elon Musk, torna a ridisegnare i confini tra Spazio, intelligenza artificiale (AI), tecnologie avanzate e mercati finanziari. Secondo indiscrezioni stampa, SpaceX starebbe valutando una possibile fusione con diverse aziende del patron Musk: c’è xAI, la società di intelligenza artificiale, con l’aggiunta di una possibile operazione ancora più ambiziosa che coinvolgerebbe anche Tesla.
Si tratterebbe di una delle più grandi riorganizzazioni industriali mai tentate nel settore tech, alla vigilia di quella che potrebbe diventare l’IPO più importante della storia recente: la quotazione in Borsa di SpaceX, attesa già nel corso di quest’anno, con valutazioni che secondo alcune stime potrebbero superare il trilione di dollari. Secondo quanto riportato dal Financial Times, il prossimo giugno SpaceX punta a raccogliere 50 miliardi di dollari in un’IPO da 1.500 miliardi, che si prospetta la maggiore della storia. Già definito un primo gruppo di grandi banche internazionali per guidare l’offerta pubblica iniziale, di cui potrebbero far parte Bank of America, Goldman Sachs, JPMorgan Chase e Morgan Stanley.
[embedded content]
I movimenti in corso
Reuters riferisce che SpaceX e xAI sono in trattative preliminari per una fusione, con la creazione di nuove entità legali in Nevada che potrebbero servire a facilitare l’operazione. Non sono noti né i tempi, né i valori dell’eventuale deal, ma la struttura ipotizzata prevederebbe uno scambio di azioni xAI con azioni SpaceX.
Bloomberg aggiunge un ulteriore tassello: SpaceX starebbe esplorando anche una possibile integrazione con Tesla, un’ipotesi da tempo sostenuta da una parte degli investitori dell’azienda automobilistica.
Musk, che guida contemporaneamente SpaceX, Tesla e xAI (oltre a Neuralink e The Boring Company), non ha commentato ufficialmente. Ma i movimenti di capitale parlano chiaro:
SpaceX ha già impegnato 2 miliardi di dollari in xAI;
Tesla ha appena approvato un investimento da 2 miliardi nella stessa xAI;
xAI ha chiuso un maxi round da 20 miliardi di dollari, con una valutazione di circa 230 miliardi
[embedded content]
Musk mira ad un ecosistema integrato con l’AI infrastruttura strategica (supercomputing, dati, energia e accesso allo Spazio)
Il filo conduttore è l’AI come infrastruttura strategica. Musk sembra voler costruire un ecosistema integrato che controlli l’intera catena del valore dell’AI: calcolo (xAI e i supercomputer come Colossus), dati (X, Starlink, veicoli Tesla), energia e mobilità (Tesla), accesso allo Spazio e la New Space Economy (SpaceX).
In quest’ottica, una fusione SpaceX-xAI consentirebbe di accelerare uno degli obiettivi più visionari dell’imprenditore multimiliardario e ex capo del DOGE di Donald Trump: portare i data center per l’AI in orbita, sfruttando energia solare e abbattendo i limiti delle reti elettriche terrestri.
Un’idea che Musk stesso ha definito, al World Economic Forum di Davos, come “inevitabile nel giro di due o tre anni”.
Elon Musk al World Economic Forum 2026
Cosa significa per i mercati e la geopolitica
Dal punto di vista finanziario, l’operazione avrebbe effetti profondi. SpaceX diventerebbe un veicolo di investimento diretto nell’AI, non solo nello Spazio. Gli investitori pubblici, con l’IPO, avrebbero accesso a un mix unico di lanci, satelliti, connettività e potenza di calcolo.
Secondo Polymarket, la probabilità di una fusione SpaceX-xAI entro metà anno è già stimata intorno al 48%, mentre un’operazione Tesla-xAI è considerata meno probabile, ma non impossibile.
C’è poi una dimensione spesso trascurata: la difesa e la sicurezza nazionale. xAI ha già contratti fino a 200 milioni di dollari con il Pentagono, mentre Starlink e la sua versione militare Starshield utilizzano sistemi di AI per la gestione orbitale e l’analisi dei dati.
Un gruppo integrato SpaceX-xAI rafforzerebbe enormemente la posizione di Musk come fornitore chiave del governo statunitense in ambito spaziale e AI.
[embedded content]
I rischi di una scommessa storica
Le potenzialità sono enormi, ma i rischi non mancano:
complessità ingegneristiche dei data center spaziali (impresa pioneristica)
dipendenza da chip avanzati (Nvidia e successori)
crescente pressione regolatoria su AI, contenuti e sicurezza (nell’Ue sicuramente, ma anche negli USA)
timori degli investitori su governance e concentrazione di potere in una sola figura (un vecchio problema)
Come ha sintetizzato con ironia un investitore citato da Reuters: “È come fondere tante aziende ipervalutate in un’unica, grande scommessa su Elon Musk. Ma forse è proprio questo che il mercato vuole: un ‘pure play’ su Musk.”
In definitiva, la possibile maxi-fusione non è solo una manovra finanziaria. È l’ennesimo tentativo di Musk di anticipare il futuro, costruendo un’infrastruttura industriale in cui spazio, AI, energia e automazione convergono.
Se la scommessa riuscirà, potrebbe ridefinire non solo le valutazioni di Borsa, ma l’intero equilibrio tra Big Tech, Space Economy e intelligenza artificiale globale. Se fallirà, il conto potrebbe essere salato e chissà se a pagarlo sarà solo il visionario sudafricano.