Nvidia punta a ricavare dai chip per l’AI un trilione di dollari entro il 2027

Nvidia alza ulteriormente le aspettative sull’intelligenza artificiale. Durante la conferenza GTC, il CEO Jensen Huang ha annunciato che i chip AI dell’azienda potrebbero generare fino a 1 trilione di dollari di ricavi cumulati entro il 2027. Una stima che, secondo quanto riportato da Bloomberg, riflette una domanda di potenza di calcolo in continua espansione.

La strategia di Nvidia sta evolvendo rapidamente. Se le GPU restano il cuore dell’offerta, l’azienda sta ampliando il proprio portafoglio tecnologico per coprire l’intera filiera dell’AI.

Nvidia: l’ingresso nel mercato CPU e nei sistemi completi

Parallelamente, Nvidia sta rafforzando la propria presenza nel mercato delle CPU e dei sistemi completi per data center. L’azienda punta su soluzioni modulari, progettate per essere più efficienti dal punto di vista energetico e più facilmente scalabili. Una risposta diretta a un mercato sempre più competitivo, dove, oltre a rivali storici come AMD e Intel, anche grandi clienti stanno sviluppando chip proprietari.

Il passaggio dall’addestramento all’inferenza sta ridefinendo le esigenze tecnologiche. Con l’adozione crescente di sistemi AI nei servizi digitali e nei processi aziendali, diventa centrale la capacità di gestire carichi continui e in tempo reale.

In questo scenario acquistano peso fattori come il consumo energetico, la gestione della memoria e la scalabilità delle infrastrutture. L’evoluzione verso l’AI agentica amplifica ulteriormente queste esigenze.

Chip: un mercato in espansione ma sempre più competitivo

L’ottimismo di Nvidia si inserisce in un mercato in forte crescita, alimentato da nuove applicazioni e partnership industriali. Come evidenzia Bloomberg, l’espansione dell’AI sta ampliando rapidamente il mercato potenziale dei semiconduttori.

Allo stesso tempo, però, la competizione si intensifica. Oltre ai produttori tradizionali, emergono nuovi attori e strategie alternative, tra cui lo sviluppo interno di chip da parte delle big tech.

Nonostante le prospettive positive, gli investitori mantengono un atteggiamento prudente. Restano interrogativi sulla sostenibilità della crescita e sulla capacità di Nvidia di mantenere il proprio vantaggio competitivo in un contesto in rapido cambiamento.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/nvidia-punta-a-ricavare-dai-chip-per-lai-un-trilione-di-dollari-entro-il-2027/568687/




Meta taglia il personale ma spinge sull’AI, accordo da 27 miliardi con Nebius

Nonostante la notizia del taglio del 20% della forza lavoro, ovvero di circa 16mila dipendenti, Meta “spende” 27 miliardi di dollari e lo fa con un accordo con Nebius, provider cloud con sede ad Amsterdam nato dallo spin-off delle attività internazionali di Yandex.

Si tratta di una delle operazioni più rilevanti mai realizzate dal gruppo guidato da Mark Zuckerberg in ambito infrastrutturale.

Perché serve tutta questa potenza di calcolo

Nel dettaglio, circa 12 miliardi di dollari saranno destinati all’acquisto di capacità computazionale dedicata a partire dal 2027. Altri 15 miliardi riguardano invece infrastrutture in fase di costruzione, inizialmente pensate per clienti terzi ma già opzionate da Meta. L’operazione segnala una domanda crescente e anticipata di risorse per sostenere lo sviluppo dei modelli AI.

Lo sviluppo dei modelli di nuova generazione richiede quantità sempre maggiori di risorse computazionali. Non solo per l’addestramento, ma anche per l’utilizzo su larga scala all’interno dei servizi digitali.

Meta sta integrando l’AI in tutte le sue piattaforme – Facebook, Instagram e WhatsApp – tra chatbot, assistenti virtuali e strumenti avanzati per utenti e aziende. Questo implica infrastrutture in grado di sostenere carichi continui e distribuiti su miliardi di utenti.

Una strategia industriale già avviata

L’accordo con Nebius si inserisce in un percorso già avviato. Nel 2025 Meta aveva firmato una precedente intesa da circa 3 miliardi di dollari con lo stesso fornitore. Parallelamente, il gruppo ha rafforzato le partnership con Nvidia e AMD e sta sviluppando chip proprietari.

L’obiettivo è duplice: aumentare le prestazioni e ridurre la dipendenza da fornitori esterni. In questo contesto, l’infrastruttura diventa un elemento centrale della strategia industriale.

La corsa globale ai data center

Il caso Meta riflette una tendenza più ampia. Le principali big tech stanno aumentando gli investimenti in data center e hardware per l’AI. Le stime indicano una spesa complessiva di circa 650 miliardi di dollari nel 2026 da parte degli hyperscaler.

L’accordo con Nebius e i possibili tagli al personale mostrano una direzione chiara: l’AI sta diventando il centro della strategia industriale di Meta. La competizione si gioca sempre più su infrastruttura, potenza di calcolo e capacità di riorganizzare rapidamente le risorse.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/meta-taglia-il-personale-ma-spinge-sullai-accordo-da-27-miliardi-con-nebius/568651/




La madre italiana dell’AI. Luigia Carlucci Aiello: “È nelle nostre vite e va disciplinata, guai a farsi trovare impreparati”

La prima docente donna del primo corso di AI in Italia

È riconosciuta da tutti come la madrina italiana dell’intelligenza artificiale (AI). Luigia Carlucci Aiello ha dedicato gran parte della sua vita professionale a questa tecnologia, con 170 pubblicazioni all’attivo, lavorando allo Stanford Artificial Intelligence Laboratory (SAIL), diretto da John McCarthy, e a numerosi progetti nazionali, gruppi di lavoro e reti di eccellenza dell’Unione europea.
Nel 1988 fonda ed è primo presidente della Associazione italiana per l’intelligenza artificiale.

Una lunga carriera nel mondo della tecnologia avanzata, visto dall’esterno come luogo di pura ricerca e innovazione, ma difficile da vivere dall’interno, a causa della discriminazione di genere, da cui purtroppo non era immune, almeno in passato.

Luigia Carlucci Aiello

Quando ha iniziato i suoi studi universitari, nel 1964, “alla scuola Normale Superiore di Pisa c’era un ambiente maschile e maschilista”, ha detto Carlucci Aiello in un’intervista a La Repubblica. “Al Cnr di Pisa, dove venni assunta nel 1970, invece, eravamo poche donne su oltre 50 uomini – ha aggiunto la matematica –ed eravamo tutti uguali. C’era bisogno di menti e braccia in un settore ancora nuovo”.

La sua passione erano i numeri ed il suo sogno era quello di insegnare nel liceo del suo paese. Il confronto con la matematica pura creò un conflitto con il suo bisogno di concretezza e decise di specializzarsi in matematica applicata ai calcolatori, iniziando così la sua carriera nel campo dell’informatica. Pisa è infatti una città importante nella storia dell’informatica italiana, è qui che nel 1961 nasce il primo calcolatore elettronico italiano e nel 1986 la prima connessione Internet.

Ero un mostro strano per la mia formazione eccentrica. Nel 1990, quando già ero una professoressa ordinaria da 10 anni alla Sapienza, passai al triennio. Ero la prima docente del primo corso di IA”, ha spiegato nell’intervista rilasciata a Romina Marceca.

Un messaggio per i ‘potenti’: “Non mettetevi nelle mani dei venditori, a chi non ha etica, a chi pensa solo al guadagno”

L’IA è già nelle nostre vite. Guai a farsi trovare impreparati, altrimenti la subiremo soltanto. Il mio messaggio, comunque, è rivolto soprattutto ai potenti. Non devono mettersi in mano ai venditori, a chi non ha etica, a chi pensa solo al guadagno”, ha affermato Carlucci Aiello, riferendosi ovviamente alle Big Tech, che detengono le tecnologie AI, e ai decisori pubblici, che hanno il compito di indicare la via più giusta e più sicura, sia in termini etici che di regole, per diffondere questa tecnologia tra la gente.

Con un monito chiaro e inequivocabile: “L’uso dell’IA deve essere disciplinato”.

[embedded content]

Riguardo poi al futuro, la professoressa non ha dubbi, l’intelligenza artificiale è qui per cambiare il mondo, le macchine che andrà a gestire “faranno i lavori pericolosi al nostro posto”, ma attenzione al modo in cui si approccia a questa tecnologia dirompente: “Mi preoccupano l’ignoranza e l’incoscienza”.

L’AI è in grado di abilitare una vera e propria rivoluzione industriale, al pari e superiore a quelle che hanno segnato profondamente gli ultimi 3 secoli quasi, ma nasconde dei rischi: etici e culturali, relativi alla tenuta dei sistemi democratici e ai diritti, nonché di natura ambientale.

C’è chi sottovaluta le enormi quantità di acqua ed energia consumate dall’IA. Il rischio è un’accelerazione della crisi ambientale”, ha sottolineato Carlucci Aiello.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/la-madre-italiana-dellai-luigia-carlucci-aiello-e-nelle-nostre-vite-e-va-disciplinata-guai-a-farsi-trovare-impreparati/568638/




Pentagono, come l’AI entra dalle decisioni strategiche fino alle attività burocratiche della guerra in Iran

OpenAI ha firmato un accordo con il Pentagono per portare i suoi sistemi di intelligenza artificiale anche in ambienti militari classificati. Una scelta che segna un cambio di passo importante per l’azienda e che solleva diversi dubbi su come questa tecnologia verrà utilizzata.

Secondo quanto riportato da MIT Technology Review, i limiti previsti dall’accordo appaiono meno rigidi di quanto dichiarato. Anche il divieto di uso per la sorveglianza interna non è così chiaro.

AI e uso militare: le motivazioni di OpenAI

Non è chiaro cosa abbia spinto OpenAI a questa svolta. Non è la prima big tech a rivedere posizioni precedenti sui contratti militari, ma la rapidità del cambio di rotta è significativa. Da un lato c’è il fattore economico: l’azienda sostiene costi elevati per l’addestramento dei modelli e cerca nuove fonti di ricavo, inclusa la pubblicità. Dall’altro, Altman insiste su una visione ideologica: le democrazie liberali, e i loro eserciti, devono avere accesso alle AI più avanzate per competere con la Cina. Anche questa impostazione, osserva MIT Technology Review, è parte della narrativa con cui l’azienda giustifica l’ingresso nel settore militare.

Pentagono e lo scontro con Anthropic

Prima dell’ingresso di OpenAI, il Pentagono utilizzava già modelli avanzati di AI sviluppati da Anthropic, la società guidata da Dario Amodei. Il suo sistema Claude era impiegato in ambienti classificati e in attività mission-critical: analisi di intelligence, pianificazione operativa, simulazioni strategiche e supporto a operazioni cyber.

Poi però il rapporto si è però incrinato bruscamente. Il Dipartimento della Guerra ha chiesto accesso senza limiti alla tecnologia, pretendendo che le aziende accettassero “qualsiasi uso lecito” dell’AI. Anthropic si è rifiutata di rimuovere due salvaguardie fondamentali: il divieto di utilizzo per la sorveglianza di massa interna e quello relativo allo sviluppo di armi completamente autonome, cioè in grado di colpire senza intervento umano.

Da qui lo scontro. Il Pentagono ha minacciato di escludere l’azienda dai propri sistemi, di classificarla come “rischio per la catena di approvvigionamento” – una misura normalmente riservata a soggetti ostili – e perfino di ricorrere al Defense Production Act per imporre l’accesso alle tecnologie. Anthropic ha portato il caso anche sul piano pubblico e legale, trasformando una disputa tecnica in un confronto politico più ampio.

Il punto non è se l’AI debba essere usata in ambito militare ma quali limiti debbano essere imposti. Fino a che punto le aziende private possono imporre vincoli etici quando operano dentro l’apparato della sicurezza nazionale.

La questione più rilevante riguarda gli sviluppi futuri. OpenAI ha accettato di operare in un contesto operativo complesso e sensibile, proprio mentre gli Stati Uniti intensificano le operazioni militari contro l’Iran, con un uso crescente dell’AI. Come evidenzia MIT Technology Review, l’azienda si sta posizionando direttamente “nel cuore del combattimento”, accettando implicazioni operative e politiche di alto livello.

AI e uso militare: analisi dei bersagli e decisioni operative

Non è ancora chiaro quando i modelli OpenAI saranno pienamente operativi in ambienti classificati: servirà integrarli con altri sistemi già in uso. Tuttavia, la pressione per accelerare è alta, anche alla luce delle recenti tensioni proprio con Anthropic.

In uno scenario concreto, un analista umano potrebbe inserire una lista di potenziali obiettivi e chiedere al modello di AI di analizzarli e stabilire priorità. Il sistema potrebbe integrare informazioni logistiche, posizione di mezzi e risorse, e analizzare input eterogenei come testi, immagini e video. Formalmente resterebbe l’obbligo di verifica umana, ma questo solleva un interrogativo: se il controllo è reale, quanto l’AI accelera davvero le decisioni?

Da anni il Pentagono utilizza sistemi come Maven per analizzare automaticamente immagini da droni e individuare obiettivi. I modelli generativi, come quelli di OpenAI o Claude di Anthropic, potrebbero aggiungere un’interfaccia conversazionale, capace di interpretare intelligence e suggerire azioni. MIT Technology Review sottolinea come questa rappresenti una discontinuità: per la prima volta l’AI generativa viene testata non solo per analisi, ma per raccomandazioni operative sul campo.

OpenAI e la partnership con Anduril

A fine 2024 OpenAI ha annunciato una collaborazione con Anduril, azienda specializzata in sistemi militari autonomi e tecnologie anti-drone. L’obiettivo è analizzare in tempo reale attacchi con droni e supportarne l’intercettazione. Secondo OpenAI, questo utilizzo non viola le proprie policy perché rivolto contro macchine e non persone.

Anduril già utilizza AI per analizzare dati da sensori e videocamere, ma è meno focalizzata su interfacce conversazionali. Qui potrebbero inserirsi i modelli OpenAI, permettendo ai militari di interrogare i sistemi e ricevere indicazioni in linguaggio naturale.

Il contesto è altamente critico: il 1° marzo sei militari statunitensi sono morti in Kuwait a seguito di un attacco con droni iraniani non intercettato. Il sistema Lattice di Anduril, che integra difese, missili e piattaforme autonome, è al centro di contratti miliardari, tra cui uno da 20 miliardi di dollari con l’esercito USA. Se l’integrazione con OpenAI si dimostrasse efficace, potrebbe essere estesa rapidamente a tutta questa infrastruttura.

Pentagono, non solo guerra: l’AI nelle attività amministrative

Parallelamente, il Dipartimento della Difesa sta spingendo l’adozione dell’AI anche nelle funzioni non operative. A dicembre, il segretario alla Difesa Pete Hegseth ha promosso GenAI.mil, una piattaforma che consente al personale militare di utilizzare modelli commerciali per attività amministrative come contratti, logistica e acquisti.

Dopo Google Gemini e il modello Grok di xAI, anche OpenAI è entrata nella piattaforma. I suoi sistemi saranno utilizzati per redigere documenti, contratti e supportare la gestione operativa. Anche se questi utilizzi non incidono direttamente sulle decisioni militari sensibili, rappresentano un passaggio chiave: l’AI viene integrata in ogni livello dell’apparato difensivo.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/openai-come-lai-entra-dalle-decisioni-strategiche-fino-alle-attivita-burocratiche-della-guerra-in-iran/568583/




Chip, TSMC verso i 2 trilioni di dollari di capitalizzazione

La Taiwan Semiconductor Manufacturing Company (TSMC) si avvicina alla soglia dei 2 trilioni di dollari di capitalizzazione di mercato ed è pronta ad entrare nel prestigioso club dei 7 composto da Nvidia, Microsoft, Apple, Alphabet, Amazon e Meta.

L’azienda, sostenuta dalla crescente domanda globale di chip avanzati destinati alle infrastrutture di AI, rappresenta oggi uno dei nodi più strategici dell’intera industria tecnologica, fornendo i semiconduttori progettati da alcune delle aziende più influenti del settore.

TSMC e il ruolo centrale nella filiera dell’AI

TSMC occupa una posizione chiave nella catena di approvvigionamento globale dei semiconduttori. L’azienda produce infatti i processori progettati da giganti tecnologici come Nvidia, Apple e AMD.

Questa centralità industriale rende la fonderia taiwanese uno dei principali beneficiari della crescita del mercato dei chip avanzati, alimentata dall’esplosione dei data center dedicati all’addestramento e all’esecuzione di modelli di AI.

TSMC: leadership tecnologica nei nodi più avanzati

Il vantaggio competitivo di TSMC deriva soprattutto dalla sua leadership nei nodi produttivi più avanzati. L’azienda ha avviato la produzione di massa dei chip a 2 nanometri alla fine del 2025, consolidando il proprio primato tecnologico rispetto ai concorrenti.

La capacità produttiva per questo processo risulta già prenotata fino al 2027, segnale di una domanda particolarmente elevata da parte dei principali designer di chip. Nel 2025 circa il 70% della spesa dei maggiori sviluppatori di semiconduttori è confluita nelle linee produttive di TSMC, mentre il principale concorrente, Samsung Electronics, ha mantenuto una quota sensibilmente inferiore.

Prezzi in aumento e domanda sostenuta

Forte di questa posizione dominante, TSMC ha iniziato ad aumentare i prezzi delle lavorazioni più avanzate. Nel 2026 gli incrementi previsti oscillano tra il 3% e il 10% per i processi più sofisticati.

L’azienda prevede inoltre ulteriori aumenti annuali fino al 2029, sostenuti da una visibilità sulla domanda di lungo periodo e da una capacità produttiva già fortemente impegnata.

Nuovi investimenti e riduzione dei rischi geopolitici

Parallelamente alla crescita della domanda, TSMC ha avviato un piano di investimenti compreso tra 52 e 56 miliardi di dollari per espandere la propria capacità produttiva. Il programma include la costruzione di nuovi impianti negli Stati Uniti, una scelta che risponde anche alla necessità di ridurre i rischi geopolitici legati alla concentrazione industriale a Taiwan.

In un contesto caratterizzato dalla rapida espansione dei data center e dei dispositivi compatibili con AI, la posizione dominante dell’azienda nella produzione di chip avanzati potrebbe continuare a rafforzarsi. Per gli analisti, questa dinamica rende plausibile che TSMC diventi una delle prossime società a entrare stabilmente nel ristretto gruppo delle aziende con una capitalizzazione superiore ai 2 trilioni di dollari.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/chip-tsmc-verso-i-2-trilioni-di-dollari-di-capitalizzazione/568417/




AI, Meta prepara una nuova ondata record di licenziamenti. 16mila dipendenti a casa

Meta, al via un nuovo round di licenziamenti record per far fronte agli investimenti dell’intelligenza artificiale. Secondo fonti citate da Reuters, ai dirigenti interni è stato chiesto di preparare piani di riduzione del personale, anche se il calendario e la dimensione finale dei tagli non sono ancora stati definiti.

Se confermata, l’operazione potrebbe rappresentare una delle più ampie ristrutturazioni nella storia recente del gruppo guidato da Mark Zuckerberg.

Licenziamenti Meta: una possibile riduzione del 20% della forza lavoro

Meta contava circa 79.000 dipendenti a livello globale alla fine del 2025. Un taglio superiore al 20% potrebbe quindi tradursi nell’eliminazione di quasi 16mila posti di lavoro. Di più di quanto avvenne tra il 2022 e il 2023.

All’epoca Zuckerberg aveva definito quel periodo “l’anno dell’efficienza”, un programma di riorganizzazione volto a semplificare la struttura interna e ridurre i costi operativi dopo anni di espansione molto rapida.

La corsa alle infrastrutture per l’AI

Il nuovo piano di riduzione del personale si inserisce in una strategia più ampia che vede Meta aumentare drasticamente gli investimenti nelle infrastrutture dedicate all’AI. L’azienda prevede di destinare fino a 600 miliardi di dollari entro il 2028 alla costruzione di data center e cluster di calcolo necessari per l’addestramento di modelli di grandi dimensioni.

Parallelamente la società sta reclutando ricercatori e ingegneri specializzati offrendo compensi multimilionari e ha avviato la creazione di un gruppo interno dedicato allo sviluppo di sistemi di “superintelligenza”.

Le acquisizioni recenti di Meta: da Moltboot fino a Manus

La spinta verso l’AI si riflette anche nelle operazioni di mercato. Meta ha recentemente acquisito la piattaforma Moltbook, progettata per lo sviluppo di agenti digitali, e avrebbe avviato trattative per la startup cinese Manus.

Queste mosse evidenziano una competizione sempre più intensa tra le grandi aziende tecnologiche nel campo delle tecnologie generative, dove le capacità computazionali e i modelli proprietari rappresentano oggi uno dei principali fattori di vantaggio competitivo.

Automazione e cambiamento del lavoro tecnologico

Secondo dirigenti e analisti del settore, la diffusione di strumenti automatizzati e sistemi basati su AI sta già modificando profondamente l’organizzazione del lavoro nelle aziende tecnologiche. Progetti che in passato richiedevano interi team di sviluppo possono oggi essere realizzati da gruppi molto più piccoli grazie a strumenti di automazione avanzata.

Questa trasformazione sta ridisegnando il funzionamento interno delle grandi piattaforme digitali e potrebbe avere conseguenze rilevanti non solo sulla struttura operativa delle aziende, ma anche sull’occupazione nel settore tecnologico globale.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-meta-prepara-una-nuova-ondata-record-di-licenziamenti-16mila-dipendenti-a-casa/568411/




AI, l’espansione dei data center rimette in crisi il mercato dei chip. Aumenti per PC e smartphone

Crisi dei chip, ci risiamo. La domanda senza precedenti di memoria AI per i data center sta mettendo in crisi i produttori che non riescono ad aumentare la capacità produttiva abbastanza rapidamente.

Secondo un’analisi di Bloomberg, si tratta di una stretta nella disponibilità di componenti che potrebbe durare ancora a lungo. Le grandi aziende tecnologiche stanno accelerando gli investimenti nell’infrastruttura per l’AI e nel 2026 la spesa globale potrebbe arrivare a circa 650 miliardi di dollari, con un aumento di circa l’80% rispetto all’anno precedente.

Il ruolo dei chip di memoria nei sistemi digitali

I chip di memoria sono fondamentali perché immagazzinano i dati utilizzati dai processori. I computer utilizzano principalmente due tipi di memoria: la NAND, impiegata per lo storage permanente come negli SSD, e la DRAM, che rappresenta la memoria di lavoro dei sistemi informatici.

Con l’AI sta diventando sempre più importante una versione avanzata della DRAM chiamata HBM (High Bandwidth Memory), progettata per trasferire dati molto più velocemente nei server che alimentano i modelli di intelligenza artificiale.

La corsa dei data center per l’AI

La crescita dei modelli di AI e dei data center sta facendo esplodere la domanda di memoria. Secondo Bloomberg Intelligence, i data center hanno rappresentato circa il 50% del consumo globale di DRAM nel 2025, contro il 32% di cinque anni prima, e la quota potrebbe superare il 60% entro il 2030.

Per assicurarsi le forniture, le aziende che sviluppano AI sono disposte a pagare prezzi più elevati e a firmare contratti di lungo periodo. I produttori di memoria stanno quindi concentrando la produzione sui chip più avanzati destinati ai server per l’AI, riducendo la disponibilità di memoria per i dispositivi tradizionali.

I prezzi dell’elettronica potrebbero salire

Le conseguenze si stanno già riflettendo sul mercato dell’elettronica di consumo. Il costo della memoria nei laptop è aumentato rapidamente e aziende come HP e Dell hanno iniziato ad alzare i prezzi o a ridurre la quantità di memoria nei dispositivi. Anche smartphone e console di gioco potrebbero diventare più costosi.

Chip, produzione limitata e pochi grandi produttori

Il problema è aggravato dal fatto che il mercato globale dei chip di memoria è dominato da tre aziende — Samsung, SK Hynix e Micron — e costruire nuove fabbriche richiede anni e investimenti miliardari. Inoltre i chip più avanzati utilizzati per l’AI sono particolarmente complessi da produrre su larga scala.

Per questo motivo la carenza potrebbe prolungarsi nel tempo. Se da un lato i produttori di memoria stanno beneficiando della forte domanda generata dall’AI, dall’altro molte aziende dell’elettronica di consumo rischiano di affrontare costi più elevati, margini più ridotti e un rallentamento nell’innovazione dei prodotti.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-lespansione-dei-data-center-rimette-in-crisi-il-mercato-dei-chip-aumenti-per-pc-e-smartphone/568328/




Anche la PA al passo con l’AI. Le Linee guida di AgID per lo sviluppo e il procurement

AgID presenta le linee guida strategiche dedicate alla gestione dell’AI nella Pubblica Amministrazione

L’introduzione dell’intelligenza artificiale (AI) nella Pubblica Amministrazione (PA) italiana entra in una fase di consolidamento istituzionale. Le nuove “Linee guida per il procurement di sistemi di IA” e le “Linee guida per lo sviluppo di sistemi di IA” nella PA, elaborate nel quadro delle attività dell’Agenzia per l’Italia Digitale (AgID), delineano per la prima volta un impianto metodologico integrato che accompagna l’intero ciclo di vita delle tecnologie: dalla progettazione alla gara pubblica, fino alla gestione operativa dei sistemi.

I due documenti sono stati presentati in conferenza stampa stamattina, con la partecipazione del Direttore Generale di AgID, Mario Nobile, e gli interventi dei tecnici dell’Agenzia Fabio Massimi, Alessandra Pieroni e Giovanni Melardi.

Da oggi e fino all’11 aprile sono in consultazione pubblica le “Linee Guida per lo sviluppo di sistemi di Intelligenza Artificiale nella pubblica amministrazione” e le Linee Guida per il procurement di IA nella Pubblica Amministrazione” adottate con la Determinazione n.43/2026

Si tratta di un passaggio strategico per la modernizzazione dello Stato. L’obiettivo, hanno spiegato i partecipanti all’evento di presentazione, non è solo favorire l’adozione di nuove tecnologie, ma “costruire un linguaggio comune tra amministrazioni pubbliche e mercato, definendo standard tecnici, modelli economici e strumenti contrattuali”, che consentano alla PA di dialogare con i fornitori in modo più consapevole e strutturato.

Le linee guida introducono infatti una serie di strumenti innovativi: nuovi modelli di procurement collaborativo, un Capitolato speciale per i sistemi di AI, una metrica economica per valutare il costo reale delle tecnologie e, sul piano tecnico, un quadro di riferimento che comprende lo stack tecnologico dell’AI, i livelli di autonomia dei sistemi, un’architettura logica standard e una classificazione delle amministrazioni in base al loro grado di maturità tecnologica.

I due documenti sulle linee guida sono ormai prossimi alla conclusione del percorso di adozione – ha spiegato Mario Nobilei testi riguardano due aspetti complementari: da un lato lo sviluppo dei sistemi di intelligenza artificiale nella Pubblica Amministrazione, dall’altro il procurement, cioè le modalità con cui le amministrazioni potranno acquisire modelli e soluzioni di IA dal mercato. L’obiettivo di questo momento di confronto è fornire alcuni elementi aggiuntivi rispetto all’abstract inviato nei giorni scorsi e condividere quelli che riteniamo i punti più rilevanti delle linee guida, sia per quanto riguarda lo sviluppo dei sistemi di intelligenza artificiale sia per le modalità con cui la Pubblica Amministrazione potrà acquisirli attraverso il procurement pubblico”.

Il lavoro svolto, ha aggiunto il Direttore Generale di AgID, punta proprio a fornire alle amministrazioni strumenti concreti per affrontare una trasformazione tecnologica che richiede nuove competenze, nuovi modelli di governance e un rapporto più strutturato con il mercato dell’innovazione.

AgID nei mesi scorsi aveva già pubblicato l’aggiornamento 2026 del Piano Triennale per l’informatica nella Pubblica Amministrazione. Tra le principali novità introdotte il numero di strumenti operativi a disposizione delle PA, il monitoraggio sulla gestione documentale, i progetti dedicati all’IT Wallet e all’uso proprio dell’intelligenza artificiale.

Come partecipare alla consultazione 

E’ possibile partecipare alla consultazione sulle linee guida pubblicate fino all’11 aprile 2026 attraverso i commenti su Forum Italia: 

Un procurement pubblico pensato per l’intelligenza artificiale. La necessità di un linguaggio comune a tutta la PA

Le linee guida sul procurement partono da una constatazione: l’adozione dell’AI nella PA non può essere gestita con gli strumenti tradizionali degli appalti IT. Le soluzioni basate su algoritmi e modelli di machine learning presentano caratteristiche peculiari: dipendono fortemente dalla qualità dei dati, richiedono aggiornamenti continui, comportano costi distribuiti lungo l’intero ciclo di vita, possono evolvere rapidamente nel tempo.

Per questo il procurement pubblico viene ripensato come leva strategica per orientare lo sviluppo dell’ecosistema dell’intelligenza artificiale, integrando dimensione tecnologica, economica e organizzativa.

Nel quadro delle nuove politiche pubbliche sull’intelligenza artificiale, i documenti presentati da AgID si inseriscono in un percorso più ampio che comprende tre linee guida dedicate alla gestione dell’IA nella Pubblica Amministrazione. Esiste già una terza linea guida dedicata all’adozione dell’intelligenza artificiale nella PA, attualmente pubblicata in consultazione pubblica. Quest’ultima incide in particolare sull’organizzazione delle amministrazioni e sulle modalità con cui gli enti pubblici devono strutturarsi per gestire in modo efficace l’introduzione di queste tecnologie.

Abbiamo già osservato che, anche prima della pubblicazione definitiva, queste linee guida sono state adottate e utilizzate da diverse amministrazioni particolarmente avanzate. Stiamo monitorando con attenzione la loro applicazione concreta attraverso un confronto continuo con le amministrazioni che le stanno sperimentando sul campo”, ha affermato Fabio Massimi. Proprio da questo lavoro di osservazione e confronto è emersa una necessità molto chiara: la Pubblica Amministrazione ha bisogno di un linguaggio comune quando parla di intelligenza artificiale.

Si tratta di un’esigenza apparentemente semplice, ma in realtà fondamentale. Per questo motivo abbiamo deciso di affiancare alle linee guida un ulteriore documento dedicato a termini e definizioni: in sostanza un glossario dell’intelligenza artificiale. Il glossario ha un obiettivo preciso: costruire un vocabolario condiviso per tutto l’ecosistema pubblico, utile non solo per favorire il dialogo tra amministrazioni – ha aggiunto Massimi – ma soprattutto per rendere più chiaro e trasparente il confronto tra PA e operatori privati. L’adozione concreta delle tecnologie non può avvenire senza un dialogo costruttivo tra amministrazioni pubbliche e fornitori. La PA opera in un contesto fortemente regolato: quando una tecnologia viene introdotta deve essere tradotta in atti amministrativi, documentazione tecnica, capitolati di gara e contratti”.

Da qui l’importanza di definire con precisione i termini utilizzati: “Molti concetti che utilizziamo quotidianamente quando parliamo di intelligenza artificiale non hanno ancora una definizione ufficiale. Li troviamo negli articoli di giornale, nella documentazione dei fornitori o nel dibattito pubblico, ma spesso non esiste una definizione formalmente utilizzabile all’interno della documentazione amministrativa”.

Aggregazione e cooperazione tra amministrazioni

Uno dei pilastri del nuovo approccio riguarda la cooperazione tra amministrazioni pubbliche. Storicamente, la digitalizzazione della PA italiana è stata caratterizzata da una forte frammentazione degli investimenti. Le linee guida cercano di superare questo limite promuovendo forme di aggregazione della domanda e modelli di procurement condiviso.

Attraverso strumenti comuni e iniziative collaborative tra enti, le amministrazioni possono: ridurre la duplicazione degli investimenti tecnologici; generare economie di scala; favorire il riutilizzo delle soluzioni sviluppate; rafforzare la capacità negoziale della PA nei confronti dei fornitori.

Inoltre, nei casi in cui il fabbisogno tecnologico non sia ancora pienamente definito, le amministrazioni possono ricorrere a procedure più flessibili, come il dialogo competitivo o le procedure competitive con negoziazione, che permettono un confronto diretto con il mercato nella definizione della soluzione tecnologica più adeguata.

Il capitolato speciale per i sistemi di AI, gli elementi innovativi

Un altro elemento chiave delle linee guida è l’introduzione di un capitolato speciale d’appalto dedicato ai sistemi di AI. Nel caso dell’intelligenza artificiale, il capitolato non è soltanto un documento tecnico, ma uno strumento di governance che consente alla Pubblica Amministrazione di mantenere il controllo sui sistemi adottati.

Le linee guida indicano che il capitolato deve includere elementi specifici per garantire: architetture aperte e modulari, portabilità dei dati, sostituibilità delle componenti tecnologiche, monitoraggio delle prestazioni dei modelli nel tempo. L’obiettivo è evitare il rischio di lock-in tecnologico, cioè la dipendenza da un singolo fornitore, e garantire che i sistemi possano essere aggiornati, modificati o sostituiti nel corso del tempo.

Nel presentare le linee guida sullo sviluppo dei sistemi di intelligenza artificiale, Alessandra Pieroni ha evidenziato i principali elementi innovativi che caratterizzano i documenti.

Il primo riguarda l’introduzione dei livelli di autonomia dei sistemi di IA, in particolare nel caso delle architetture agentiche. Per chiarire il grado di automazione effettivo di queste tecnologie, le linee guida adottano una classificazione ispirata alla scala della guida autonoma della Society of Automotive Engineers (SAE), che va dal livello 0 al livello 5. Attualmente, le applicazioni dell’IA nella Pubblica Amministrazione si collocano tra il livello 2 e il livello 3, cioè sistemi parzialmente autonomi in cui agenti software eseguono sequenze di operazioni ben definite per automatizzare e migliorare i processi amministrativi. I livelli più avanzati restano per ora confinati alla sperimentazione o alla ricerca.
Il secondo elemento
– ha precisato Pieroni – riguarda la definizione di una architettura logica di riferimento per lo sviluppo dei sistemi di IA nella PA. Il modello proposto è basato su un orchestratore centrale di intelligenza artificiale, circondato da un livello di API middleware che garantisce interoperabilità e separazione tra modelli, dati e strumenti applicativi. Si tratta di un’impostazione che richiama i principi della Service Oriented Architecture (SOA) e che consente alle amministrazioni di integrare diverse soluzioni tecnologiche evitando il rischio di lock-in”.

Questo approccio architetturale permette inoltre di utilizzare modelli e servizi distribuiti in ambienti differenti – on-premise, cloud o ibridi – e di combinare tecnologie diverse, dal machine learning tradizionale ai modelli più avanzati. Proprio per questo, secondo i tecnici, le amministrazioni sono chiamate a sperimentare diverse configurazioni tecnologiche, avviando progetti pilota che permettano di individuare le soluzioni più efficaci in termini di prestazioni e sostenibilità”, ha concluso Pieroni.

Il capitolato tecnico

Per quanto riguarda le linee guida sul procurement dei sistemi di intelligenza artificiale, Giovanni Melardi ha spiegato che il lavoro è stato sviluppato a partire dai principi generali contenuti nel Codice dei contratti pubblici, adattandoli alle specificità delle tecnologie di IA.

In particolare, ha detto Melardi, “le linee guida individuano tre elementi centrali. Il primo riguarda l’introduzione di una nuova metrica per il calcolo dei costi dei sistemi di intelligenza artificiale, poiché i metodi tradizionali di valutazione economica non risultano pienamente adeguati per tecnologie caratterizzate da costi distribuiti nel tempo. Il modello proposto tiene conto non solo degli investimenti iniziali (CAPEX), ma anche dei costi operativi (OPEX) che emergono nel corso del ciclo di vita del sistema. Tali costi vengono poi rapportati a indicatori di produttività, come il numero di risposte generate da sistemi conversazionali o i servizi erogati a cittadini e imprese. A supporto delle amministrazioni, le linee guida includono anche uno strumento operativo che simula un caso concreto, ad esempio l’adozione di un chatbot da parte di un comune, per mostrare come calcolare le diverse voci di costo e il valore complessivo del sistema.
Il secondo elemento riguarda la possibilità per le amministrazioni di aggregarsi nell’acquisto di sistemi di IA. Le linee guida raccomandano infatti di sfruttare le opportunità offerte dalla normativa vigente per realizzare forme di procurement congiunto. Questo approccio consente di ottimizzare la domanda pubblica, rafforzare la capacità negoziale delle amministrazioni e favorire la condivisione di competenze e infrastrutture tra enti con diversi livelli di maturità digitale.
Infine, un ruolo centrale è attribuito alla definizione del Capitolato tecnico, considerato uno strumento fondamentale per tradurre le esigenze della Pubblica Amministrazione in requisiti tecnici chiari e verificabili. Per facilitare l’applicazione pratica delle indicazioni, le linee guida organizzano le raccomandazioni in tabelle e schemi operativi, nei quali vengono indicati gli scenari in cui è opportuno ricorrere all’aggregazione tra amministrazioni, gli strumenti disponibili e i benefici attesi dall’utilizzo di tali modalità di acquisizione
”.

LCOAI: la nuova metrica economica dell’AI

Uno degli aspetti più innovativi riguarda la dimensione economica. Le linee guida introducono il Levelized Cost of Artificial Intelligence (LCOAI), ovvero il Costo Livellato dell’Intelligenza Artificiale, una metrica pensata per stimare il costo reale dei sistemi lungo l’intero ciclo di vita.

A differenza delle tradizionali valutazioni basate sul prezzo iniziale di acquisto, il LCOAI considera: investimenti infrastrutturali, gestione e qualità dei dati, potenza computazionale, aggiornamento dei modelli, manutenzione operativa.

In questo modo vengono integrati CAPEX e OPEX, consentendo alle amministrazioni di confrontare in modo più realistico diverse architetture tecnologiche, ad esempio soluzioni cloud, on-premise o ibride, e di definire basi d’asta più coerenti.

Una nuova governance pubblica dell’intelligenza artificiale

Nel loro insieme, le linee guida rappresentano molto più di un documento tecnico. Definiscono un modello di governance dell’intelligenza artificiale nella Pubblica Amministrazione, che integra dimensioni tecnologiche, economiche e organizzative.

L’introduzione di metriche come il LCOAI, di modelli architetturali standard e di strumenti di procurement dedicati consente alla PA di passare da una logica di semplice acquisizione tecnologica a una strategia strutturata di sviluppo e gestione dell’AI.

In questo senso, il procurement pubblico diventa uno strumento di politica dell’innovazione: non solo un meccanismo amministrativo per acquistare tecnologie, ma una leva per orientare il mercato, rafforzare le capacità pubbliche e costruire un ecosistema nazionale dell’intelligenza artificiale.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/pa-linee-guida-per-lo-sviluppo-e-il-procurement-di-sistemi-ai-nobile-agid-serve-un-linguaggio-comune-quando-si-parla-con-le-imprese/568249/




Energia solare spina dorsale della nuova economia elettrica globale. Crescita guidata da AI e data center

Rinnovabili globali verso il raddoppio della capacità entro il 2031: solare e AI guidano la nuova economia energetica

La transizione energetica globale accelera. Nei prossimi cinque anni la capacità installata di energia da fonti rinnovabili è destinata a più che raddoppiare, passando da 4,1 terawatt (TW) nel 2025 a 8,4 TW entro il 2031, con un tasso medio annuo di crescita (CAGR) del 13%. È questa la previsione centrale del nuovo report “Renewable Energy: Strategic Intelligence” pubblicato da GlobalData, che fotografa un sistema energetico mondiale sempre più orientato verso tecnologie pulite, spinte da riduzione dei costi, innovazione tecnologica e domanda crescente di elettricità.

Secondo gli analisti della società di intelligence economica, il motore principale della crescita sarà il solare fotovoltaico, sostenuto da una scalabilità senza precedenti e da una continua deflazione dei costi lungo l’intera filiera produttiva. Parallelamente, l’intelligenza artificiale e l’esplosione dei data center stanno emergendo come nuovi driver della domanda elettrica globale, contribuendo a rafforzare il ruolo delle rinnovabili nella sicurezza energetica.

In un contesto internazionale segnato da volatilità nei mercati di petrolio e gas, conflitti geopolitici e nuove competizioni industriali, la diffusione delle energie pulite appare sempre più come una leva strategica per ridurre le dipendenze energetiche e stabilizzare i sistemi economici.

Rinnovabili dominate dal fotovoltaico, eolico a ruota. Solare ‘spina dorsale’ del sistema elettrico mondiale

Il report evidenzia come il 2025 rappresenti un anno record per la capacità installata mondiale, con tutte le principali tecnologie rinnovabili in crescita. La capacità rinnovabile globale ha raggiunto livelli senza precedenti, con il solare fotovoltaico che domina il mix energetico, rappresentando il 56,1% della capacità installata totale.

Seguono:

  • Eolico: 33,5%
  • Bioenergia: 5,3%

Il sorpasso tecnologico è ormai compiuto anche sul fronte della generazione elettrica. Nel 2025 il solare è diventato la principale fonte rinnovabile di produzione di elettricità, superando l’eolico:

  • Produzione solare: 2.800 TWh
  • Produzione eolica: 2.770 TWh

Secondo Rehaan Aleem Shiledar, Power Analyst di GlobalData: “Il solare fotovoltaico e l’eolico continueranno a essere centrali nella transizione energetica globale. Nel 2025 il solare è diventato la principale fonte di generazione elettrica rinnovabile, superando l’eolico”.

Il dato segnala una trasformazione strutturale dei mercati energetici: il solare non è più una tecnologia emergente, ma la spina dorsale del sistema elettrico globale in costruzione.

Il predominio asiatico: la Cina guida la transizione

Dal punto di vista geografico, il report evidenzia con chiarezza il peso crescente dell’Asia-Pacifico. La regione APAC domina sia il solare sia l’eolico, con: 699,5 GW di capacità eolica e 1.550 GW di capacità solare fotovoltaica

Il vero epicentro della rivoluzione energetica è però la Cina. Il Paese ha accelerato massicciamente lo sviluppo del fotovoltaico grazie a: obiettivi di neutralità carbonica, investimenti industriali lungo l’intera filiera e forti riduzioni dei costi tecnologici.

Il risultato è impressionante. Nel 2025 la Cina ha generato 1.150 TWh di elettricità solare, pari a circa il 41% della produzione globale di fotovoltaico.

Il report sottolinea inoltre che: oltre il 90% della crescita degli investimenti energetici nel 2025 in Cina è arrivata dal clean energy; la filiera delle rinnovabili ha contribuito per oltre un terzo alla crescita economica complessiva del Paese

In altre parole, Pechino sta utilizzando la transizione energetica come leva industriale e geopolitica.

Trump rallenterà la crescita del solare negli USA. India in ascesa

Dietro la Cina, i principali mercati emergenti del solare sono Stati Uniti e India.

Produzione solare nel 2025:

  • USA: 486 TWh
  • India: 189 TWh

In entrambi i Paesi la crescita è sostenuta da forti riduzioni dei costi, politiche di supporto e necessità di decarbonizzare il sistema elettrico

Negli Stati Uniti un ruolo decisivo è stato svolto dall’Inflation Reduction Act, mentre in India il governo continua a sostenere il settore con le grandi missioni nazionali per il solare.

Tuttavia il report evidenzia un cambiamento politico significativo negli Stati Uniti. Secondo GlobalData, con il secondo mandato di Donald Trump, il mercato energetico americano potrebbe entrare in una fase più complessa.

Le energie rinnovabili stanno entrando in una fase di espansione a due velocità: negli Stati Uniti il sostegno federale si sta orientando verso i combustibili fossili e lontano dagli incentivi verdi, rallentando lo sviluppo dei progetti e aumentando i costi”, ha precisato Shiledar.

Questo potrebbe tradursi in: costi più elevati per i progetti, maggiore volatilità, tempi di realizzazione più lunghi.

Il solare domina, ma l’eolico resta pilastro della transizione

Dal punto di vista tecnologico, il report mostra una chiara gerarchia.

Solare fotovoltaico. È la tecnologia con il più alto tasso di espansione grazie a: scalabilità industriale, forte riduzione dei costi e tempi rapidi di installazione. Il solare è ormai tra le fonti più economiche di produzione elettrica.

Eolico. Resta il secondo pilastro della transizione energetica, soprattutto nelle installazioni su larga scala e offshore. Nonostante il sorpasso del fotovoltaico nella produzione elettrica, l’eolico mantiene una quota del 33,5% della capacità installata rinnovabile globale.

Bioenergia. Con una quota del 5,3%, rappresenta una componente stabile del mix energetico rinnovabile, soprattutto per applicazioni industriali e di cogenerazione.

L’intelligenza artificiale diventa il “cervello” del futuro sistema energetico a rinnovabili

Uno degli aspetti più interessanti del report riguarda il ruolo crescente dell’intelligenza artificiale nella gestione delle energie rinnovabili. Secondo GlobalData, l’AI sta diventando un elemento indispensabile per l’integrazione delle fonti intermittenti come solare ed eolico.

L’intelligenza artificiale consente infatti di analizzare enormi flussi di dati meteorologici, migliorare la previsione della produzione, ottimizzare l’uso delle batterie, coordinare le smart grid e ridurre le perdite di energia.

Consentendo il bilanciamento in tempo reale tra domanda e offerta di elettricità – ha proseguito Shiledar – l’intelligenza artificiale riduce la curtailment e i costi operativi, rafforzando allo stesso tempo la resilienza complessiva della rete”.

Numerosi grandi player industriali stanno già adottando queste tecnologie su larga scala, tra cui: Vestas, ENERCON, JinkoSolar, First Solar. L’AI sta trasformando le rinnovabili da tecnologie intermittenti a sistemi energetici intelligenti e gestibili in tempo reale.

Data center e AI: il nuovo grande motore della domanda elettrica da rinnovabili

La diffusione dell’intelligenza artificiale non incide solo sulla gestione delle reti, ma anche sulla domanda di energia. I data center per l’AI stanno diventando uno dei principali fattori di crescita del consumo elettrico globale.

Per questo motivo le grandi aziende tecnologiche stanno accelerando gli investimenti nelle energie rinnovabili. Tra gli esempi citati nel report:

  • Google e NextEra Energy hanno annunciato nel dicembre 2025 una collaborazione per sviluppare data center AI su scala gigawatt alimentati da energia pulita
  • Equinix ha siglato un accordo con CleanMax per un progetto di 33 MW di energia rinnovabile dedicata

Gli hyperscaler stanno dunque diventando attori centrali della transizione energetica, contribuendo a finanziare nuovi impianti rinnovabili.

Un mondo a due velocità: da una parte Cina (e Asia) dall’altra gli USA

Il report di GlobalData parla esplicitamente di una transizione energetica “a due velocità”. Da una parte ci sono Cina, Asia-Pacifico e gran parte del resto del mondo che stanno accelerando rapidamente la diffusione delle rinnovabili.

Dall’altra, gli Stati Uniti rischiano una fase di rallentamento a causa delle nuove politiche federali. Il risultato è una progressiva “decoupling” della transizione energetica globale dalla politica energetica americana.

Petrolio, gas e conflitti: perché le rinnovabili sono una questione geopolitica

La crescita delle rinnovabili non è soltanto una questione ambientale o tecnologica. È sempre più una questione geopolitica. La volatilità dei mercati di petrolio e gas, aggravata negli ultimi anni da: conflitti regionali, tensioni commerciali, interruzioni delle catene di approvvigionamento.

ha dimostrato quanto le economie siano vulnerabili alla dipendenza dai combustibili fossili.
Le rinnovabili, al contrario: riducono l’esposizione ai mercati globali delle materie prime, rafforzano l’autonomia energetica, stabilizzano i costi dell’elettricità nel lungo periodo.

La partita europea: autonomia energetica e competitività industriale

In questo nuovo scenario globale, l’Europa si trova di fronte a una partita decisiva. Dopo la crisi energetica legata alla guerra in Ucraina, l’Unione europea ha accelerato la strategia di indipendenza energetica, puntando su: solare, eolico offshore, idrogeno verde e reti elettriche intelligenti.

Il programma REPowerEU ha già dimostrato come le rinnovabili possano diventare uno strumento per ridurre la dipendenza dalle importazioni di gas.

Tuttavia l’Europa deve affrontare tre sfide fondamentali:

  1. recuperare terreno industriale rispetto alla Cina nella produzione di tecnologie energetiche;
  2. accelerare le autorizzazioni per nuovi impianti;
  3. rafforzare le infrastrutture di rete e accumulo.

Il rischio è che il continente rimanga leader nella regolazione ma non nella produzione industriale della nuova economia energetica.

Verso la nuova economia elettrica globale

Il quadro delineato da GlobalData è chiaro: il sistema energetico mondiale sta entrando in una nuova fase. Le rinnovabili non sono più una nicchia tecnologica, ma la struttura portante dell’economia energetica del XXI secolo.

Solare, eolico, intelligenza artificiale e infrastrutture digitali stanno convergendo per costruire un sistema energetico: più distribuito; più intelligente; meno dipendente dai combustibili fossili.

Se le previsioni si realizzeranno, entro il 2031 il mondo disporrà di 8,4 TW di capacità rinnovabile installata. Un cambiamento che non riguarda solo l’energia, ma l’intero equilibrio economico e geopolitico globale.

D’altronde, come ha ben evidenziato l’International Energy Agency (IEA), nel suo ultimo rapporto Electricity 2026, si stima che la domanda globale di elettricità crescerà in media di oltre il 3,5% all’anno fino al 2030, a un ritmo almeno 2,5 volte superiore rispetto alla domanda complessiva di energia primaria. Si apre una nuova era per l’elettricità.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/energia-solare-spina-dorsale-della-nuova-economia-elettrica-globale-crescita-guidata-da-ai-e-data-center/568220/




All’Università di Pisa l’AI diventa obbligatoria per superare l’esame

L’intelligenza artificiale entra ufficialmente nell’aule universitarie non come strumento da limitare, ma come requisito per superare l’esame.

Succede nel corso di Advanced Programming della laurea magistrale in Computer Science del Dipartimento di Informatica dell’Università di Pisa. Si tratta di una delle prime sperimentazioni di questo tipo nel panorama universitario italiano.

Università di Pisa: come l’intelligenza artificiale viene usata nel corso

Il corso, tenuto nel primo semestre dai professori Antonio Cisternino e Andrea Corradini, è stato completamente ripensato per adattarsi ai cambiamenti che stanno interessando il mercato del lavoro nel settore tecnologico. Meno attenzione alla semplice scrittura del codice e più enfasi sulla capacità di leggerlo, interpretarlo e valutarlo. Un passaggio che riflette un’evoluzione più ampia del lavoro digitale, dove l’operatore umano assume sempre più il ruolo di supervisore di sistemi intelligenti.

“Il mestiere del programmatore sta cambiando radicalmente”, spiega Antonio Cisternino. “L’AI scriverà sempre più codice. La domanda è: quali competenze deve avere un informatico quando non è più lui a scriverlo direttamente? Serve un ruolo diverso, più critico e consapevole”.

Nel caso del corso pisano, l’intelligenza artificiale è stata integrata in tutte le fasi del percorso didattico. È stato sviluppato un GPT in grado di generare materiale didattico a partire dalle trascrizioni delle lezioni, mentre durante le attività in aula l’AI è stata utilizzata per creare simulazioni e contenuti interattivi a supporto dell’apprendimento.

“Ho valutato soprattutto la capacità di controllare e criticare il lavoro prodotto dall’AI”, sottolinea Cisternino. “Quello sarà il compito che i giovani professionisti dovranno svolgere. I progetti sono stati di ottima qualità: quando gli studenti hanno solide basi riescono a usare l’intelligenza artificiale in modo significativo e non passivo”.

L’elemento più innovativo riguarda però la prova finale. Gli studenti hanno dovuto realizzare un progetto utilizzando necessariamente l’intelligenza artificiale, dimostrando non solo di saper sfruttare lo strumento, ma soprattutto di saperne valutare criticamente i risultati.

Come cambia il lavoro di uno sviluppatore

L’esperienza dell’Università di Pisa si inserisce in un dibattito più ampio sulla trasformazione della didattica universitaria nell’era dell’AI. Negli ultimi anni il settore tecnologico ha già registrato forti cambiamenti occupazionali: nel 2025 tra 50 e 70 mila posti di lavoro sono stati tagliati nel comparto globale delle Big Tech, mentre Amazon ha annunciato ulteriori 14 mila licenziamenti. Anche Jack Dorsey, ex CEO di Twitter e Block, ha comunicato via social una riduzione del 40% della forza lavoro, motivata proprio dalla sostituzione di alcune attività con sistemi di intelligenza artificiale.

In questo contesto, la pressione occupazionale rischia di colpire soprattutto i profili junior, più facilmente sostituibili rispetto alle figure senior. Per questo motivo, secondo i docenti, il sistema universitario deve aggiornare rapidamente contenuti e metodi di insegnamento.

“Non abbiamo dieci anni per adattare il sistema formativo, come accadde con l’introduzione dell’informatica trent’anni fa”, conclude Cisternino. “Servono azioni concrete nel breve periodo e un dibattito nazionale. L’Università può e deve giocare un ruolo centrale per preparare le nuove generazioni al mondo del lavoro post-AI”.

La reazione di chi lavora già con l’AI

Una trasformazione percepita chiaramente anche da chi lavora ogni giorno con il codice. Saverio Puccia, cybersecurity expert ed ex studente dell’Università di Pisa, racconta che l’impatto dei nuovi strumenti di AI agentica lo ha inizialmente sorpreso e spiazzato, mostrando come le macchine siano ormai in grado di replicare una larga parte delle competenze di un programmatore.

“Il passaggio dall’entusiasmo allo smarrimento è stato rapidissimo. La macchina riusciva a replicare almeno il 70/80% delle skill di un programmatore e per la prima volta ho avuto paura del futuro che attende chi come me fa questo mestiere. Inizialmente ho provato una sorta di rigetto e rifiuto e ho iniziato ad essere scettico e sospettoso”, ha detto l’esperto. “Ci sono voluti dei giorni per giungere alla consapevolezza che volenti o nolenti questa tecnologia è qui per restare e sconvolgere i paradigmi conosciuti sinora. E così ho iniziato ad approcciarmi con curiosità cercando i modi più efficaci di governare “la bestia” e farla lavorare come voglio io”, ha continuato.

“Leggo oggi che una facoltà storica come Informatica a Pisa, a cui resto legato per i trascorsi da studente, è giunta ad una conclusione simile ed è pronta per trasferire questo nuovo paradigma negli insegnamenti. Questa decisione mitiga il mio senso di smarrimento, ed è un atto coraggioso che può e deve fare scuola. Dovremmo ringraziare i Docenti Antonio Cisternino e Andrea Corradini e l’Università per aver fatto cadere un tabù e aver aperto questo dibattito pubblico. Tutto il tempo che faremo scorrere da ora ad una pacifica accettazione della realtà dei fatti sarà debito che accumuleremo nei confronti di realtà che invece il percorso l’hanno completato”, ha concluso.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/alluniversita-di-pisa-lai-diventa-obbligatoria-per-superare-lesame/568180/