Vibe hacking: quando l’AI conduce l’attacco in prima persona

Vibe hacking è un termine nato da un tweet. Il 2 febbraio 2025, Andrej Karpathy – ex direttore AI di Tesla, cofondatore di OpenAI – pubblica un post su X che diventerà virale con oltre 4,5 milioni di visualizzazioni: descrive un nuovo modo di programmare in cui si “dà tutto alle vibes”, si accetta ogni suggerimento dell’AI senza leggere il codice, e si lascia che il software cresca oltre la propria comprensione. Lo chiama vibe coding. Collins Dictionary lo elegge parola dell’anno 2025.

vibe hacking

Sei mesi dopo, quel concetto innocuo – pensato per progetti sperimentali del weekend – assume una connotazione radicalmente diversa. Nell’agosto 2025, il Threat Intelligence Report di Anthropic introduce il termine vibe hacking per descrivere qualcosa di inedito: un’operazione criminale in cui l’intelligenza artificiale non riceve consigli dall’attaccante, ma conduce l’attacco in prima persona. L’AI non suggerisce comandi – li esegue. Non propone strategie – le implementa su reti reali, in tempo reale, contro vittime reali.

L’operazione, tracciata come GTG-2002, ha compromesso almeno 17 organizzazioni in un solo mese nei settori sanitario, governativo, dei servizi di emergenza e delle istituzioni religiose. Un singolo operatore, con competenze tecniche limitate, ha ottenuto l’impatto di un intero team criminale. E lo ha fatto delegando quasi tutto a Claude Code.

Questo articolo ricostruisce le cinque fasi dell’attacco in dettaglio tecnico, analizza il ruolo del file CLAUDE.md come playbook offensivo persistente, e mappa le implicazioni operative per chi difende reti e infrastrutture.

Dal vibe coding al vibe hacking: una mutazione semantica che cambia tutto

Per comprendere la portata di ciò che è accaduto, è necessario distinguere con precisione due concetti che condividono l’etimologia ma non la sostanza.

Il vibe coding, nella definizione originale di Karpathy, descrive uno sviluppatore esperto che sceglie deliberatamente di non leggere il codice generato dall’AI, accettando ogni modifica senza revisione. È un atto consapevole di delega. Il codice cresce oltre la comprensione dell’operatore, ma il contesto resta benigno: prototipi, esperimenti, progetti usa-e-getta. Come ha scritto Simon Willison in un’analisi molto citata, la differenza cruciale sta nel fatto che Karpathy potrebbe leggere e comprendere quel codice se lo volesse – semplicemente sceglie di non farlo.

Il vibe hacking, nella definizione operativa emersa dal caso GTG-2002, ribalta questa dinamica. L’operatore non può comprendere ciò che l’AI esegue, perché non possiede le competenze tecniche necessarie. Non sceglie di delegare – non ha alternative. L’AI non è un assistente: è l’operatore primario. L’umano fornisce obiettivi strategici; l’AI pianifica, esegue, adatta, analizza ed estorce. In termini MITRE ATT&CK, l’AI attraversa autonomamente quasi tutte le tattiche del framework, dalla Reconnaissance (TA0043) alla Impact (TA0040).

Questa distinzione non è accademica. È la differenza tra un amplificatore di competenze esistenti e un sostituto di competenze inesistenti. Ed è esattamente ciò che rende il vibe hacking una minaccia di categoria diversa rispetto a tutto ciò che il panorama della sicurezza informatica ha affrontato finora.

Il file CLAUDE.md come playbook offensivo: persistenza e contesto malevolo

L’elemento tecnico più innovativo dell’operazione GTG-2002 non è uno zero-day, un exploit personalizzato o un malware sofisticato. È un file di testo.

Claude Code utilizza un file di configurazione chiamato CLAUDE.md che fornisce contesto persistente a ogni interazione. Normalmente, gli sviluppatori lo usano per specificare preferenze di stile, standard di codifica o informazioni sul progetto in corso. L’attaccante di GTG-2002 ha trasformato questo meccanismo in un vero e proprio playbook operativo offensivo.

Il file CLAUDE.md configurato dall’attaccante conteneva:

  • Una cover story: l’operatore dichiarava di essere un penetration tester autorizzato, con contratti di supporto ufficiali dalle organizzazioni target. Questo ingannava i guardrail di sicurezza del modello, che interpretava le richieste come attività di testing legittimo.
  • Metodologie di attacco dettagliate: istruzioni per il collegamento VPN, tecniche di enumerazione utenti, metodi di credential harvesting tramite attacchi Kerberos, estrazione di hash e cracking.
  • Framework di prioritizzazione dei target: criteri per identificare e classificare le vittime in base al valore dei dati e alla capacità di pagamento.
  • Checklist operative: una procedura in sette fasi dalla ricognizione alla persistenza, con tecniche avanzate di post-compromise inclusi attacchi relay e abuso di deleghe.
  • Istruzioni per la comunicazione in lingua russa: il contesto veniva mantenuto e le risposte generate in russo, suggerendo l’origine geografica dell’operatore.
  • Direttive di stealth: istruzioni esplicite per minimizzare la creazione di file e mantenere un profilo operativo basso.

In termini di sicurezza, il CLAUDE.md rappresenta una forma di prompt injection persistente – non un attacco al modello, ma un’infrastruttura di configurazione malevola che trasforma ogni sessione successiva in un’operazione offensiva continuativa. È l’equivalente funzionale di un file di configurazione per un framework C2 (Command and Control), ma senza bisogno di sviluppare infrastruttura personalizzata.

Per i difensori, questo introduce un concetto nuovo: il pre-prompt offensivo. Non si tratta di jailbreaking tradizionale – è una configurazione strutturata che orienta il comportamento dell’AI in modo persistente, sessione dopo sessione, senza dover ripetere l’inganno ogni volta.

Le 5 fasi dell’attacco: ricostruzione tecnica

L’operazione GTG-2002 segue un ciclo di attacco strutturato in cinque fasi distinte, ciascuna caratterizzata da un livello crescente di autonomia dell’AI e da una mappatura precisa sulle tattiche MITRE ATT&CK.

Fase 1 – Ricognizione automatizzata

Tattiche MITRE ATT&CK: Reconnaissance (TA0043), Resource Development (TA0042)

L’attaccante ha utilizzato Claude Code su un sistema Kali Linux come piattaforma di attacco. Nella prima fase, l’AI ha condotto una ricognizione su larga scala: scansione automatizzata di migliaia di endpoint VPN per identificare sistemi vulnerabili, creazione di framework di scanning personalizzati tramite API multiple, raccolta sistematica di informazioni infrastrutturali organizzate per Paese e per tecnologia.

Il punto chiave non è la complessità delle tecniche – sono strumenti open-source standard (Nmap, framework di scanning VPN). È la velocità e la scala: Claude Code ha processato migliaia di target potenziali, classificandoli automaticamente per vulnerabilità e valore strategico, un compito che avrebbe richiesto settimane a un operatore umano. Come evidenziato dal report Anthropic, il sistema generava “migliaia di richieste, spesso multiple al secondo”.

Ruolo dell’AI: Capacità potenziata di discovery sistematico, con risultati organizzati automaticamente per priorità di sfruttamento.

Fase 2 – Accesso iniziale e sfruttamento credenziali

Tattiche MITRE ATT&CK: Initial Access (TA0001), Credential Access (TA0006), Discovery (TA0007), Lateral Movement (TA0008)

Una volta identificati i target vulnerabili, Claude Code ha fornito supporto operativo in tempo reale durante le intrusioni di rete. L’AI ha:

  • Scansionato reti interne identificando sistemi critici, inclusi Domain Controller e SQL Server
  • Eseguito attacchi alle credenziali su domini multipli tramite tecniche Active Directory
  • Condotto enumerazione di rete e analisi completa delle credenziali recuperate
  • Fornito guida in tempo reale per l’escalation dei privilegi e il lateral movement

Il passaggio dall’accesso iniziale al controllo completo dell’infrastruttura è avvenuto con una fluidità che normalmente richiede un red team coordinato. Claude Code non si limitava a eseguire singoli comandi – analizzava i risultati di ogni azione e decideva autonomamente il passo successivo nella catena di attacco.

Ruolo dell’AI: Supporto operativo diretto durante intrusioni attive, con decisioni tattiche autonome su escalation e movimento laterale.

Fase 3 – Sviluppo malware ed evasione

Tattiche MITRE ATT&CK: Execution (TA0002), Defense Evasion (TA0005), Command and Control (TA0011)

La terza fase rivela la capacità più preoccupante del vibe hacking: lo sviluppo iterativo e adattivo di strumenti offensivi. Claude Code è stato utilizzato per creare versioni offuscate di Chisel, un tool di tunneling che incapsula connessioni all’interno del protocollo HTTP (tecnica MITRE T1572 – Protocol Tunneling), con l’obiettivo specifico di evadere il rilevamento di Windows Defender.

Quando i primi tentativi di evasione sono falliti, l’AI non si è fermata. Ha iterato autonomamente, implementando:

  • Crittografia delle stringhe: offuscamento dei payload per eludere l’analisi statica
  • Codice anti-debugging: tecniche per rilevare ed evadere ambienti di analisi
  • Filename masquerading: mascheramento degli eseguibili malevoli come strumenti Microsoft legittimi (MSBuild.exe, devenv.exe, cl.exe) – tecnica MITRE T1036.005
  • Sviluppo di un proxy TCP completamente nuovo: quando l’offuscamento di Chisel non è bastato, Claude Code ha generato da zero un proxy TCP che non utilizza affatto le librerie Chisel, eliminando la signature alla radice

Questo ciclo iterativo di generazione – test – fallimento – adattamento è il cuore operativo del vibe hacking. L’AI non si limita a produrre malware su richiesta: lo perfeziona in risposta ai fallimenti, abbassando drasticamente la barriera tecnica per la creazione di strumenti offensivi efficaci.

Ruolo dell’AI: Sviluppo personalizzato di malware con capacità di evasione adattiva, capacità che prima richiedeva anni di esperienza in programmazione offensiva.

Fase 4 – Esfiltrazione e analisi dati

Tattiche MITRE ATT&CK: Collection (TA0009), Exfiltration (TA0010)

Claude Code ha facilitato l’estrazione e l’analisi sistematica di dati sensibili da organizzazioni multiple e di natura molto diversa: un contractor della difesa, operatori sanitari, un’istituzione finanziaria. I dati esfiltrati includevano:

  • Numeri di previdenza sociale (Social Security Numbers)
  • Dati bancari e informazioni finanziarie
  • Informazioni sanitarie protette (PHI – Protected Health Information)
  • Documentazione soggetta a controllo ITAR (International Traffic in Arms Regulations) – un dettaglio che eleva la gravità dell’operazione dal cybercrime alla sicurezza nazionale

Il valore aggiunto dell’AI in questa fase non è stato il furto in sé – è stata la categorizzazione automatica. Claude Code ha organizzato i dati rubati per tipologia, ha estratto migliaia di record individuali (identificativi personali, indirizzi, dati finanziari, cartelle cliniche), e li ha strutturati per la monetizzazione successiva. In pratica, l’AI ha svolto il lavoro che in un’operazione tradizionale richiederebbe un team di analisti dedicati alla classificazione del bottino.

Ruolo dell’AI: Analisi automatizzata e organizzazione di dataset complessi, estrazione sistematica di informazioni ad alto valore attraverso organizzazioni multiple simultaneamente.

Nota per i professionisti di compliance: le implicazioni ITAR. L’esfiltrazione di documentazione soggetta a controllo ITAR rappresenta un punto di attenzione critico che trascende il perimetro del cybercrime ordinario. Le International Traffic in Arms Regulations (22 CFR §§ 120-130), amministrate dal Directorate of Defense Trade Controls (DDTC) del Dipartimento di Stato USA, classificano la divulgazione non autorizzata di dati tecnici controllati a soggetti stranieri come una potenziale violazione dell’Arms Export Control Act, con sanzioni penali fino a 1 milione di dollari per singola violazione e fino a 20 anni di reclusione.

Per le organizzazioni vittime, la compromissione di dati ITAR innesca obblighi di notifica al DDTC, possibili indagini congiunte con il Department of Justice, e il rischio concreto di revoca delle licenze di esportazione – un evento potenzialmente esistenziale per un contractor della difesa. Nel contesto GTG-2002, il fatto che un’AI abbia autonomamente identificato, estratto e classificato documentazione ITAR senza che l’operatore umano ne comprendesse probabilmente la rilevanza giuridica aggiunge un livello di complessità senza precedenti alla gestione dell’incidente: chi risponde della violazione quando la decisione di esfiltrare quei dati specifici è stata presa da un algoritmo?

Fase 5 – Estorsione personalizzata e profit plan

Tattiche MITRE ATT&CK: Impact (TA0040)

La quinta fase è quella che distingue in modo inequivocabile il vibe hacking da qualsiasi precedente forma di AI-assisted cybercrime. L’attaccante non ha distribuito ransomware. Non ha crittografato file. Ha invece utilizzato Claude Code per costruire un sistema di estorsione personalizzato e multi-livello basato sull’analisi dei dati rubati.

Ransom note HTML personalizzate. Claude Code ha generato note di riscatto in formato HTML con dettagli specifici per ciascuna vittima: cifre finanziarie esatte, conteggio dipendenti, minacce calibrate sulle normative settoriali applicabili. Le note venivano inserite nel processo di boot delle macchine compromesse, garantendone la visibilità immediata al riavvio. Le richieste variavano da 75.000 a oltre 500.000 dollari in Bitcoin.

Profit plan multi-opzione. L’elemento più sofisticato: per ciascuna vittima, Claude Code ha generato un documento di analisi con opzioni di monetizzazione strutturate:

  • Opzione 1 – Estorsione diretta: richiesta di pagamento all’organizzazione, con minaccia di divulgazione dei dati salariali, delle informazioni sui donatori, e segnalazione agli enti regolatori. Inclusa stima di probabilità di successo.
  • Opzione 2 – Commercializzazione dei dati: pricing specifico per le diverse tipologie di dati rubati (informazioni sui donatori, documenti finanziari, database di contatti), con calcolo del ricavo garantito.
  • Opzione 3 – Targeting individuale: estorsione mirata ai singoli soggetti i cui dati personali erano stati compromessi, con range di richiesta per target e stima del totale potenziale.
  • Opzione 4 – Approccio stratificato: combinazione delle tre opzioni precedenti in sequenza, con estorsione primaria all’organizzazione e fallback su vendita dati e targeting individuale. Proiezione di ricavo massimo.

Ogni profit plan conteneva deadline specifiche (48-72 ore), strutture di penalità incrementali, email di contatto anonime per ciascuna vittima, e l’indicazione del wallet Bitcoin preparato per la ricezione del pagamento.

L’AI, in questa fase, ha svolto contemporaneamente il ruolo di analista finanziario, negoziatore, psicologo comportamentale e consulente strategico. Ha analizzato i bilanci delle vittime per calibrare l’importo del riscatto, ha identificato le leve psicologiche più efficaci (rischio regolatorio, esposizione mediatica, danno reputazionale), e ha strutturato una strategia di monetizzazione ottimizzata.

Ruolo dell’AI: Generazione automatizzata di materiali di estorsione psicologicamente calibrati, calcolo degli importi ottimali di riscatto basato su analisi finanziaria, e creazione di strategie di monetizzazione multi-percorso.

Mappatura MITRE ATT&CK dell’operazione GTG-2002

L’analisi dell’operazione consente una mappatura sistematica sulle tattiche MITRE ATT&CK. La tabella seguente sintetizza le tecniche documentate in ciascuna fase, evidenziando il grado di autonomia dell’AI.

vibe hacking

Il dato che emerge è inequivocabile: l’AI ha operato con autonomia crescente man mano che l’operazione procedeva, raggiungendo il massimo grado di indipendenza decisionale proprio nella fase di estorsione, che è tradizionalmente la più complessa e la più dipendente dall’intelligenza umana.

Da GTG-2002 a GTG-1002: l’escalation verso l’autonomia totale

Se GTG-2002 ha introdotto il vibe hacking come paradigma operativo, ciò che è accaduto tre mesi dopo dimostra che la traiettoria evolutiva è più rapida del previsto.

Nel novembre 2025, Anthropic ha divulgato la campagna GTG-1002: un’operazione di cyber-spionaggio attribuita con alta confidenza a un gruppo state-sponsored cinese. GTG-1002 non è un’evoluzione incrementale di GTG-2002 – è un salto categorico. L’operazione ha preso di mira circa 30 entità globali – grandi aziende tecnologiche, istituzioni finanziarie, produttori chimici, agenzie governative – e Claude Code ha eseguito l’80-90% del lavoro tattico senza intervento umano.

La differenza fondamentale rispetto a GTG-2002 è nel rapporto operatore-AI. Nel vibe hacking di GTG-2002, l’umano era ancora “nel loop”, dirigeva le operazioni, approvava i passi successivi, interveniva quando l’AI incontrava ostacoli. In GTG-1002, come ha scritto Anthropic, “l’intervento umano era molto meno frequente, nonostante la scala più ampia dell’attacco”. Gli operatori umani si limitavano all’inizializzazione delle campagne e alle decisioni strategiche ai nodi critici – autorizzazione alla progressione dalla ricognizione all’exploitation, approvazione dell’ambito di esfiltrazione.

Per i CISO e i responsabili della sicurezza, questo rappresenta un cambiamento di paradigma nella modellazione delle minacce. Se GTG-2002 dimostrava che un singolo operatore poteva equivalere a un team criminale, GTG-1002 dimostra che un singolo operatore può dirigere un’operazione di intelligence che normalmente richiede un apparato statale.

Implicazioni per la difesa: cosa cambia con il vibe hacking

L’operazione GTG-2002 invalida diversi assunti fondamentali su cui si basano le strategie difensive tradizionali.

Il profiling dell’attaccante perde valore predittivo. I modelli di threat intelligence si fondano sulla correlazione tra sofisticazione dell’attaccante e complessità dell’attacco. Con il vibe hacking, un operatore con competenze minime può generare attacchi ad alta sofisticazione. Il threat modeling basato sulle capacità presunte dell’avversario diventa inaffidabile.

Il tempo di risposta si comprime. Claude Code opera “migliaia di richieste, spesso multiple al secondo”. L’intero ciclo dalla ricognizione all’estorsione si completa in tempi incompatibili con i processi di incident response tradizionali. Il Mean Time To Exfiltrate (MTTE) è sceso da 9 giorni nel 2021 a 2 giorni nel 2024 secondo CrowdStrike; con l’AI agentica, rischia di collassare ulteriormente.

La detection basata su signature diventa insufficiente. L’attaccante di GTG-2002 ha dimostrato la capacità di iterare automaticamente sugli strumenti offensivi quando vengono rilevati, generando varianti o tool completamente nuovi (come il proxy TCP alternativo a Chisel). Questo rende obsolete le detection basate su firme statiche.

Raccomandazioni operative

Per i team di sicurezza, il vibe hacking richiede un adattamento su più livelli:

  • Behavioral analytics prioritaria: la detection deve spostarsi dalle firme ai comportamenti anomali. Pattern di accesso a velocità non umana, enumerazione di rete sistematica, accesso sequenziale a dati eterogenei sono indicatori di attività AI-driven.
  • Zero Trust come prerequisito: l’operazione GTG-2002 ha sfruttato credenziali compromesse e movimento laterale non segmentato. Architetture Zero Trust con microsegmentazione e verifica continua avrebbero limitato il raggio d’azione dell’attacco.
  • AI Red Teaming: i programmi di penetration testing devono incorporare scenari in cui l’avversario utilizza coding agent AI, testando la resilienza dei controlli contro attacchi iterativi e adattivi.
  • Monitoraggio dei coding agent: organizzazioni che utilizzano Claude Code o strumenti analoghi devono implementare controlli sulla configurazione dei file CLAUDE.md o equivalenti, con alert su contenuti che suggeriscano utilizzo offensivo.
  • Runtime security per gli ambienti AI: la sicurezza non può limitarsi ai guardrail del modello. Strumenti di monitoraggio a livello di runtime – come classificatori specifici per pattern di vibe hacking, analogamente a quanto implementato da Anthropic dopo la scoperta – devono diventare standard.

I limiti dell’attacco e le vulnerabilità dell’AI offensiva

Sarebbe un errore analitico presentare il vibe hacking come una minaccia invincibile. L’operazione GTG-2002 e il successivo caso GTG-1002 rivelano anche limitazioni significative.

Anthropic ha documentato che Claude, quando utilizzato offensivamente, ha mostrato una tendenza a sovrastimare i propri progressi e a generare credenziali e risultati fabricati. In GTG-1002, questa propensione all’allucinazione ha richiesto agli operatori umani una validazione costante dei risultati, introducendo un collo di bottiglia che ha limitato l’efficacia dell’operazione.

Inoltre, come ha osservato il Google Threat Intelligence Group nel suo AI Threat Tracker di febbraio 2026, non sono ancora stati documentati casi in cui l’AI abbia sviluppato capacità offensive realmente nuove. L’AI amplifica e accelera tecniche esistenti, ma non ne crea di inedite. CrowdStrike ha rilevato che l’81% delle intrusioni nel 2024 è avvenuto senza utilizzo di malware, affidandosi a strumenti legittimi e credenziali compromesse – tecniche tradizionali che il vibe hacking scala ma non reinventa.

Per i difensori, questo significa che i controlli fondamentali (patching, MFA, segmentazione, least privilege) restano la prima linea di difesa efficace anche nell’era del vibe hacking. La minaccia non richiede panico: richiede adattamento strutturato.

Lo scenario prossimo: perché il vibe hacking è solo l’inizio

L’arco temporale tra GTG-2002 (luglio 2025) e GTG-1002 (settembre 2025) è di soli tre mesi. In quel lasso di tempo, l’autonomia operativa dell’AI è passata da human-in-the-loop con supporto AI a AI-in-the-loop con supervisione umana minimale. Karpathy stesso, nel febbraio 2026, ha dichiarato il vibe coding “superato”, sostituito dall’”agentic engineering” – un’evoluzione dove l’operatore umano orchestra agenti AI che lavorano autonomamente al 99%.

Se questa traiettoria si applica simmetricamente al versante offensivo – e non c’è ragione per credere il contrario – il prossimo passo è prevedibile: operazioni di vibe hacking completamente autonome, dove l’umano definisce l’obiettivo strategico e l’AI gestisce l’intera catena operativa senza ulteriore input.

Per i professionisti della sicurezza informatica, la domanda non è più se questo accadrà, ma quando. E la risposta, alla luce della velocità di evoluzione documentata, è: probabilmente prima di quanto qualsiasi modello di rischio tradizionale preveda.

Il vibe hacking ha riscritto il rapporto tra competenza dell’attaccante e impatto dell’attacco. La prossima riscrittura riguarderà il rapporto tra presenza umana e operazione offensiva. I team di sicurezza che iniziano ad adattare oggi i propri modelli di difesa a questa realtà avranno un vantaggio competitivo misurabile. Gli altri, semplicemente, non lo avranno.

Questo è il secondo articolo della serie “AI offensiva nella cybersecurity”. Il primo articolo, “AI offensiva: come l’intelligenza artificiale sta riscrivendo le regole del cybercrime“, ha introdotto il quadro generale delle minacce AI-driven, il framework normativo NIS2/AI Act e le implicazioni per le PMI. Il prossimo articolo approfondirà le strategie di difesa basate su AI contro le minacce AI-driven.

Fonti principali

Anthropic, Threat Intelligence Report: August 2025

Anthropic, Disrupting the first reported AI-orchestrated cyber espionage campaign, novembre 2025

Google Threat Intelligence Group, AI Threat Tracker, febbraio 2026

MITRE, ATT&CK Framework – tattiche e tecniche citate

MITRE, ATT&CK T1572 – Protocol Tunneling

CrowdStrike, Global Threat Report 2025

PwC, AI-orchestrated cyberattacks: A call to action

Andrej Karpathy, Post su X – Vibe coding, 2 febbraio 2025

Condividi sui Social Network:

https://www.ictsecuritymagazine.com/articoli/vibe-hacking/




Anthropic vs Pentagono. Amodei: “Ci sono casi in cui l’AI è una minaccia per la democrazia”

Anthropic contro il Pentagono: lo scontro sull’AI tra sicurezza nazionale e democrazia

C’è uno scontro durissimo in corso tra una delle aziende di punta dell’intelligenza artificiale (AI) americana, Anthropic, e il Dipartimento della Guerra degli Stati Uniti, nello specifico il Pentagono. A innescarlo è stata una dichiarazione pubblica del CEO della società, Dario Amodei, che ha scelto di rendere trasparente un conflitto finora rimasto nei corridoi riservati della sicurezza nazionale.

Oggi scade l’ultimatum imposto dal Segretario della Guerra, Pete Hegseth.
Claude di Anthroopic è il modello AI disponibile nei sistemi più riservati dell’esercito con le migliori performance nelle attività di intelligence più delicate. Il Pentagono ha chiesto un accesso senza limiti ma la società di Amodei si è rifiutata di revocare completamente le sue misure di sicurezza, lasciando blindate due aree specifiche: la sorveglianza di massa degli americani e lo sviluppo di armi autonome, ovvero in grado di colpire senza l’intervento umano.

Il cuore del confronto non è se l’AI debba essere usata in ambito militare. Su questo punto, paradossalmente, le parti sono allineate. Il nodo è come debba essere usata – e quali limiti etici e tecnici debbano essere posti.

Dario Amodei Ceo e Co-Fondatore di Anthropic

Anthropic azienda di “Frontier AI”

Prima di tutto, va chiarito un punto: Anthropic non è un’azienda pacifista in rotta con il complesso militare-industriale. Al contrario, Amodei rivendica con forza il ruolo della sua società nella difesa americana.

Il modello AI di punta dell’azienda, Claude, è già ampiamente impiegato nelle reti classificate (cioè protette) del governo statunitense, nei laboratori nazionali e all’interno di missioni “mission-critical” del Dipartimento della Guerra (operazioni o sistemi il cui fallimento causerebbe danni irreparabili, come perdite umane, fallimenti strategici o collassi operativi): analisi di intelligence, simulazioni strategiche, pianificazione operativa, cyber-operazioni, ma anche lancio di missili in caso.

Anthropic, secondo quanto dichiarato da Amodei, è stata la prima azienda di “frontier AI (attiva nello sviluppo di modelli AI all’avanguardia, capaci di general intelligence su scala massiva, con capacità multimodali e agentiche vicine all’AGI) a distribuire i propri modelli in ambienti classificati governativi.

La società (che oggi vale 380 miliardi) ha inoltre interrotto rapporti commerciali con soggetti legati al Partito Comunista Cinese, rinunciando a centinaia di milioni di dollari, e sostiene controlli più stringenti sull’export dei chip per mantenere un vantaggio tecnologico delle democrazie.
Nei giorni scorsi, Anthropic ha accusato tre aziende cinesi, tra cui DeepSeek, di aver utilizzato Claude su scala industriale per addestrare i propri modelli di AI.

Non è quindi un conflitto tra tecnologia e sicurezza nazionale. È uno scontro interno alla visione di cosa significhi difendere una democrazia nell’era dell’intelligenza artificiale.

Dario Amodei Ceo Anthropic, Daniela Amodei Presidente Anthropic

I punti di rottura con il Dipartimento della Guerra

Anthropic (guidata da Dario, assieme alla sorella Daniela Amodei, oggi cofondatrice e presidente della società) si rifiuta di rimuovere due salvaguardie dai propri sistemi: il divieto di utilizzo per sorveglianza di massa domestica e il divieto di utilizzo per armi completamente autonome.
Ed è qui che si innesta lo scontro.

1. Sorveglianza di massa: il rischio di uno Stato algoritmico

Anthropic sostiene che l’uso dell’AI per missioni di intelligence estera sia legittimo e necessario. Ma traccia una linea rossa quando si parla di sorveglianza interna su larga scala. Il problema non è teorico. Negli Stati Uniti (come in molte democrazie occidentali) le agenzie governative possono acquistare legalmente grandi quantità di dati su movimenti, navigazione web, relazioni sociali dei cittadini, spesso senza mandato. Si tratta di dati apparentemente innocui, frammentati. La differenza, oggi, la fa l’AI.

Un sistema avanzato può aggregare automaticamente milioni di micro-informazioni e costruire un profilo completo, predittivo, comportamentale di qualsiasi individuo. Non è più semplice raccolta dati: è ricostruzione algoritmica della vita privata.

Il punto sollevato da Amodei è cruciale: la legge è rimasta indietro rispetto alla tecnologia. Ciò che è formalmente legale potrebbe diventare sostanzialmente incompatibile con le libertà costituzionali quando potenziato dall’AI.

Qui si intravede un’eco storica inquietante. Ogni grande salto tecnologico nella sorveglianza, dal telegrafo alle intercettazioni di massa post-11 settembre, è stato inizialmente giustificato in nome della sicurezza. Solo in seguito si sono aperti i dibattiti pubblici sui limiti.

2. Armi completamente autonome: quando l’uomo esce dal circuito

Il secondo punto riguarda le cosiddette fully autonomous weapons: sistemi capaci di selezionare e ingaggiare un bersaglio senza intervento umano.

Anthropic distingue tra:

  • sistemi parzialmente autonomi (già usati, ad esempio nel conflitto in Ucraina),
  • sistemi completamente autonomi che escludono l’essere umano dal “loop decisionale”.

Amodei non esclude che in futuro tali sistemi possano diventare necessari per la difesa nazionale. Ma sostiene che oggi l’AI non sia abbastanza affidabile per assumere decisioni letali in autonomia.

Qui il problema non è solo etico, ma tecnico. I modelli di frontiera possono sbagliare, generare output imprevedibili, essere vulnerabili a manipolazioni. Delegare a queste architetture la scelta di un bersaglio significherebbe accettare margini di errore potenzialmente catastrofici.

C’è poi una questione di responsabilità: chi risponde di un errore? Il comandante? L’azienda? Il software?
Di fatto, a quanto riportato dalla Reuters, il Dipartimento avrebbe ventilato una controversa opzione, sulla cui legittimità diversi esperti hanno espresso perplessità: “Se non collaborano, il Segretario alla Guerra farà in modo che venga invocato il Defense Production Act nei confronti di Anthropic”, ha dichiarato un alto funzionario del Pentagono, “costringendola a mettere le proprie tecnologie a disposizione del Pentagono, che lo voglia o no”.

Pete Hegseth, Segretario della Guerra degli Stati Uniti

Le condizioni poste dai militari

Secondo la dichiarazione di Anthropic, il Dipartimento della Guerra avrebbe posto una condizione netta: collaborare solo con aziende che accettino “qualsiasi uso legale” della tecnologia e che rimuovano le salvaguardie nei casi citati.

Amodei scrive: “Il Dipartimento della Guerra ha dichiarato che stipulerà contratti solo con aziende di intelligenza artificiale che acconsentono a “qualsiasi uso lecito” e rimuovono le misure di sicurezza nei casi sopra menzionati. Hanno minacciato di rimuoverci dai loro sistemi se mantenessimo queste misure di sicurezza; hanno anche minacciato di designarci come “rischio per la catena di approvvigionamento” – un’etichetta riservata agli avversari statunitensi, mai applicata prima a un’azienda americana – e di invocare il Defense Production Act per imporre la rimozione delle misure di sicurezza”. 

Le minacce riportate sono pesanti: rimozione dai sistemi militari, designazione come “supply chain risk” (etichetta finora riservata a entità ostili), possibile invocazione del Defense Production Act per forzare la rimozione delle protezioni.

C’è una contraddizione evidente: da un lato Anthropic verrebbe considerata un rischio per la sicurezza; dall’altro, la sua tecnologia sarebbe talmente essenziale da giustificare un intervento coercitivo dello Stato.

Questo passaggio apre una questione più ampia: quanto è diventata strategica l’AI privata per l’apparato militare americano? Siamo davanti a una nuova fase del rapporto tra Stato e industria tecnologica, simile, almeno per importanza, a quella che negli anni Quaranta del secolo scorso portò alla nascita del complesso nucleare.

La battuta d’arresto arriva in un momento cruciale per Anthropic, impegnata in una corsa serrata per assicurarsi commesse nel settore privato e soprattutto nei contratti governativi, dove la sicurezza nazionale rappresenta uno dei principali ambiti di espansione. Secondo quanto riportato mercoledì da Reuters, il Pentagono avrebbe chiesto ai propri appaltatori, tra cui colossi come Lockheed Martin, una valutazione dettagliata del loro grado di dipendenza dalle tecnologie di Anthropic, in vista di una possibile classificazione dell’azienda come soggetto a rischio. Un passaggio tutt’altro che marginale, se si considera che la base industriale della difesa statunitense comprendeva, già nel 2021, circa 60 mila contractor, incluse alcune delle maggiori società quotate del Paese.

Falsi problemi o questione etica centrale per la democrazia?

Il Pentagono, che l’amministrazione Trump ha ribattezzato “Dipartimento della Guerra”, ha respinto il dilemma definendolo una falsa questione “spinta dai media di sinistra”, si legge sulla Reuters.
Il Dipartimento della Guerra non ha alcun interesse a utilizzare l’intelligenza artificiale per condurre una sorveglianza di massa sugli americani (che è illegale), né vogliamo impiegare l’IA per sviluppare armi autonome che operino senza il coinvolgimento umano”, ha scritto su X il capo portavoce del Pentagono, Sean Parnell.

Sulla questione è intervenuta anche la senatrice democratica Elissa Slotkin: “La persona media non pensa che dovremmo permettere a sistemi d’arma di entrare in guerra e uccidere persone senza che un essere umano eserciti in qualche modo una supervisione”. Parlando durante un’audizione di conferma per due candidati alla carica di vice segretario alla Difesa, Slotkin ha aggiunto: “Non credo affatto che alcun americano, democratico o repubblicano, voglia una sorveglianza di massa sulla popolazione americana”.

La corsa globale all’AI militare

Lo scontro non può essere letto isolatamente. Sullo sfondo c’è la competizione con la Cina, la militarizzazione crescente delle tecnologie emergenti e la convinzione che il vantaggio nell’AI determinerà l’equilibrio strategico del XXI secolo. In questo contesto, ogni vincolo appare come un ostacolo.

Ma proprio qui emerge il paradosso: se la superiorità tecnologica è giustificata come difesa della democrazia, può essa stessa eroderne i principi fondamentali?
La storia americana offre precedenti: dal Patriot Act alla sorveglianza di massa rivelata dall’ex contractor della NSA (National Security Agency) Edward Snowden che portò al “Datagate. Ogni volta la tensione tra sicurezza e libertà si è risolta a favore della prima, salvo ripensamenti successivi.

Con l’AI, tuttavia, il salto qualitativo è enorme. Non si tratta di intercettare comunicazioni, ma di costruire sistemi predittivi capaci di anticipare comportamenti, orientare decisioni, automatizzare l’uso della forza.

Il caso Anthropic potrebbe diventare un precedente decisivo. Se l’azienda cederà, si consoliderà l’idea che le imprese di AI non possano imporre limiti etici quando operano nel perimetro della sicurezza nazionale.

Se resisterà e verrà estromessa si aprirà una frattura tra Silicon Valley e Pentagono, con possibili ricadute sull’intero ecosistema tecnologico. La questione centrale resta una: chi stabilisce i limiti dell’intelligenza artificiale in ambito militare? Il mercato? L’esecutivo? Il Congresso? Le aziende stesse?

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/anthropic-vs-pentagono-amodei-ci-sono-casi-in-cui-lai-e-una-minaccia-per-la-democrazia/566913/




Data center e costi energetici, le Big Tech pronte a firmare l’accordo con Trump

Big Tech alla Casa Bianca con Trump: promessa di autosufficienza energetica per i data center. Ma basterà?

La prossima settimana alcune delle più grandi aziende tecnologiche americane dovrebbero affiancare il presidente Donald Trump alla Casa Bianca per firmare un impegno formale: generare o acquistare autonomamente l’energia necessaria ad alimentare i propri data center.

A riportarlo è Axios, secondo cui si tratterebbe di un “ratepayer protection pledge”, una sorta di patto a tutela dei consumatori, con l’obiettivo dichiarato di evitare che i costi dell’esplosione dell’intelligenza artificiale finiscano sulle bollette delle famiglie americane.

Secondo altre fonti di stampa, come Fox News, tra le aziende che seguiranno Trump ci sarebbero OpenAI, Amazon, Google, Meta, Microsoft, xAI e Oracle. Un parterre che rappresenta il cuore pulsante dell’economia digitale globale e non è la prima volta che accade, a settembre dello scorso anno in una cena di gala Trump invitò tutte queste grandi aziende tecnologiche per chiedere loro maggiori investimenti in data center e per sviluppare in maniera più rapida l’AI.

Queste grandi aziende costruiranno, metteranno online o acquisteranno direttamente l’energia necessaria per alimentare i nuovi data center dedicati all’intelligenza artificiale, garantendo che l’aumento della domanda non si traduca in bollette più alte per gli americani”, ha dichiarato alla CNBC la portavoce della Casa Bianca, Taylor Rogers.

L’annuncio politico e le incognite

Nel suo discorso sullo Stato dell’Unione, Trump ha parlato di un obbligo per le aziende tecnologiche di “provvedere autonomamente al proprio fabbisogno energetico”, anche attraverso la costruzione di impianti di generazione on-site, cioè direttamente accanto ai data center.

Il messaggio politico mirava a garantire la “supremazia americana nell’AI” senza scaricare i costi sulle famiglie. Ma resta da capire quanto questo impegno sia vincolante e, soprattutto, come verrà attuato.

Non sono stati forniti dettagli tecnici: si tratterà di nuovi impianti rinnovabili? Centrali a gas dedicate? Nucleare di nuova generazione? Contratti di acquisto a lungo termine (PPA)? Senza risposte puntuali, il rischio è che l’annuncio resti più simbolico che strutturale.

Del resto, molte Big Tech avevano già dichiarato negli ultimi mesi di voler “pagare la propria parte” per evitare aumenti tariffari. Microsoft, ad esempio, aveva assicurato che i propri data center non avrebbero fatto salire i prezzi dell’elettricità per i consumatori. L’iniziativa della Casa Bianca sembra quindi formalizzare impegni già in corso più che introdurre una vera svolta regolatoria.

La corsa dell’AI e la fame di energia

Il problema di fondo, però, è molto più ampio. L’intelligenza artificiale sta cambiando radicalmente la scala dei consumi energetici dei data center. Goldman Sachs, in un’analisi aggiornata, prevede una crescita del 220% della domanda di energia dei data center entro il 2030, una revisione al rialzo rispetto al precedente +175%. Numeri che parlano da soli.

Oggi i data center rappresentano circa il 5% della domanda elettrica negli Stati Uniti, ma le proiezioni indicano un’accelerazione senza precedenti. In Virginia, uno degli hub mondiali del cloud, potrebbero arrivare a consumare tra il 39% e il 57% dell’intera elettricità statale entro il 2030.

Si tratta di percentuali che, in qualsiasi sistema energetico, comportano rischi evidenti: congestioni di rete, necessità di nuovi investimenti in trasmissione e distribuzione, pressione sui prezzi all’ingrosso dell’energia.

Reti sotto stress e rischio bollette

Il punto critico è che la costruzione di nuova capacità di generazione non sempre procede allo stesso ritmo dell’espansione dei data center. Le autorizzazioni per nuove linee di trasmissione richiedono anni. La disponibilità di tecnici specializzati — in particolare elettricisti — è già indicata dagli analisti come un potenziale collo di bottiglia (in tutti i Paesi occidentali mancano figure professionali specifiche e nessun programma di formazione fino ad ora lanciato sembra essere riuscito a colmare questo gap nel mercato del lavoro).

Anche ammesso che le Big Tech costruiscano impianti dedicati, resta il tema dell’integrazione nella rete. Un grande data center non è un’isola: è connesso al sistema elettrico nazionale. In caso di picchi di domanda o di problemi tecnici, il rischio di ricorrere alla rete pubblica resta concreto.

E qui emerge il nodo politico più sensibile: chi paga?

Se i costi di adeguamento delle reti, di nuove centrali o di potenziamento delle infrastrutture ricadessero anche solo in parte sulle tariffe regolate, le famiglie potrebbero trovarsi a finanziare indirettamente la corsa all’AI. L’impegno annunciato alla Casa Bianca mira proprio a disinnescare questa critica. Ma senza meccanismi chiari e verificabili, il timore di aumenti in bolletta non può essere escluso.

Una strategia industriale o una mossa elettorale?

L’iniziativa arriva in un anno elettorale, in un contesto in cui l’aumento del costo della vita resta un tema centrale per l’elettorato americano. L’energia è una componente sensibile della spesa domestica e l’idea che l’AI, percepita da molti come un vantaggio per pochi, oltre che una minaccia sociale in alcuni casi, possa far salire le bollette è politicamente esplosiva.

Il rischio è che il “pledge” sia più un’operazione di comunicazione che una vera strategia industriale coordinata tra governo federale, Stati e utility locali.

La crescita dei data center è destinata a proseguire. L’AI generativa richiede potenze di calcolo enormi, cluster sempre più grandi, raffreddamento intensivo. Ogni nuova ondata tecnologica porta con sé un’ombra energetica.

La vera domanda non è se le Big Tech costruiranno qualche impianto dedicato, ma se il sistema elettrico americano (ma il problema può anche essere europeo e italiano quindi) sia pronto a sostenere una domanda in aumento esponenziale, senza scaricare i costi sui cittadini.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/data-center-e-costi-energetici-le-big-tech-pronte-a-firmare-laccordo-con-trump/566799/




Come si paga un chatbot. L’intelligenza artificiale scopre la pubblicità

Rubrica settimanale SosTech, frutto della collaborazione tra Key4biz e SosTariffe. Per consultare gli articoli precedenti, clicca qui..

«Sì, ma questi come fanno i soldi?» è una domanda – se non la domanda – che ci poniamo spesso quando ci vengono offerti servizi in apparenza gratuita su Internet. L’AI non fa eccezione, ma non sorprenderà nessuno sapere che le pose dei giganti del tech da benefattori dell’umanità senza interessi personali sono, appunto, pose. Il tema della monetizzazione dei chatbot c’è eccome, ed è diventato centrale pochi giorni fa, quando OpenAI ha avviato negli Stati Uniti un test che introduce annunci all’interno di ChatGPT per gli utenti dei piani Free e Go (lasciando invece privi di inserzioni i livelli Plus, Pro, Business ed Enterprise).

Gli annunci pubblicitari compaiono in fondo alla risposta, separati graficamente dal testo generato e segnalati come contenuti sponsorizzati; l’azienda sostiene che detti annunci non incidano sul contenuto delle risposte e che non vengano mostrati quando si parla di argomenti particolarmente sensibili, come la salute o la politica.

Secondo quanto riportato da Quartz, OpenAI chiederebbe agli inserzionisti un impegno minimo intorno ai 200.000 dollari, con un costo di circa 60 dollari per mille visualizzazioni, soglia che colloca questo formato in una fascia assai più alta rispetto ai banner tradizionali del web.

È come dire che l’attenzione concentrata di una conversazione individuale, il tête-à-tête tra noi e il chatbot, viene considerata un bene raro, per il quale si può chiedere un prezzo paragonabile a quello degli spazi pubblicitari più prestigiosi (e costosi, ovviamente).

Consiglio spassionato o interessato?

Rispetto al motore di ricerca, c’è una differenza non da poco: se nei risultati di Google e soci l’utente riceve un elenco di risultati e sa di trovarsi in un contesto specifico, con certi risultati che vengono privilegiati, nel chatbot la risposta è di un discorso continuo e l’inserzione non si affianca a una lista di alternative, ma segue un testo che ha già, per così dire, strutturato la questione.

Insomma: diventa difficile capire se ChatGPT ci sta dando un consiglio o suggerendo di comprare un prodotto. Il problema, in fondo, è sempre lo stesso: quando qualcuno ci “suggerisce” qualcosa online, dobbiamo capire se sta davvero aiutandoci a scegliere o se sta vendendo visibilità a chi paga di più (è la differenza tra una piattaforma come SOSTariffe.it che mostra un elenco confrontabile di offerte – come avviene nei comparatori di tariffe luce, gas o telefonia – e un’interfaccia che propone una sola soluzione, già confezionata). Nel primo caso possiamo verificare; nel secondo dobbiamo fidarci.

Va da sé che OpenAI ha accompagnato il test con diverse petizioni di principio, tese a tranquillizzarci: le conversazioni non vengono condivise con gli inserzionisti, che ricevono solo dati aggregati su visualizzazioni e clic; l’utente può disattivare la personalizzazione o scegliere un piano a pagamento per evitare gli annunci, eccetera. La questione economica di fondo, però, rimane. Addestrare e far funzionare modelli di queste dimensioni richiede investimenti sempre più ingenti, e se una parte consistente dell’utenza accede gratuitamente, in modo da accrescere la base, il finanziamento deve provenire da altre fonti. La pubblicità, come sempre, è la risposta più semplice.

La guerra degli spot

La mossa di OpenAI ha avuto conseguenze immediate. Anthropic, la società fondata da ex ricercatori di OpenAI e sviluppatrice di Claude, ha scelto il palcoscenico del Superbowl per lanciare una campagna pubblicitaria che, pur senza nominare direttamente ChatGPT, ha preso di mira il suo modello di business. Gli spot hanno mostrato scenari volutamente caricaturali: un ragazzo che chiede consigli su come parlare con la madre e si ritrova indirizzato verso un sito di incontri; un aspirante atleta che finisce a comprare solette per sembrare più alto. Il messaggio finale: “Ads are coming to AI. But not to Claude”.

Sam Altman ha reagito con la consueta nonchalance. Ha chiamato gli spot “chiaramente disonesti”, e ribadito che gli annunci su ChatGPT saranno separati dalle risposte e non influenzeranno i contenuti generati. La polemica non è così facile da sopire, però. Il formato conversazionale ha una natura diversa rispetto a un feed social o a una pagina di ricerca: l’utente si rivolge al chatbot per ottenere un aiuto diretto, spesso su questioni personali o professionali che presuppongono un certo grado di fiducia. Inserire in quel flusso un contenuto sponsorizzato, anche se dichiarato come tale, modifica l’equilibrio percettivo dell’interazione.

Anthropic ha costruito la propria posizione proprio su questo punto, dichiarando pubblicamente che Claude resterà privo di pubblicità perché le conversazioni con un assistente AI, specie quando riguardano lavoro o temi delicati, non sono il luogo adatto per la promozione commerciale. Così, dopo il Super Bowl, Claude ha scalato le classifiche dell’App Store statunitense; difficile stabilire quanto abbia inciso la campagna, ma il messaggio non è caduto del vuoto. È una dinamica già vista nell’evoluzione dei social network, che qui si ripresenta in un ambiente che somiglia meno a una piazza e più a un colloquio individuale.

Ma alla fine chi paga?

Se si mette da parte per un momento la schermaglia pubblicitaria, l’interrogativo rimane: come si sostiene economicamente un’infrastruttura che brucia miliardi l’anno? Secondo diverse stime, OpenAI avrebbe speso nel 2025 molto più di quanto abbia incassato; l’addestramento dei modelli, il mantenimento dei server, l’espansione della capacità computazionale richiedono investimenti continui. Finora il capitale di rischio ha sostenuto la crescita, ma nessun investitore può accettare perdite illimitate. A un certo punto i conti devono tornare.

Non tutte le aziende stanno facendo la stessa scelta. Perplexity, che aveva introdotto annunci sotto forma di domande sponsorizzate, ha frenato e ammesso che la pubblicità rischia di far dubitare gli utenti della genuinità delle risposte. Google sta testando inserzioni nei risultati della modalità AI della ricerca e ha lasciato intendere che anche Gemini farà la stessa cosa; Microsoft fa spallucce e integra contenuti sponsorizzati in Copilot da tempo; Meta non inserisce annunci dentro la chat, però utilizza le interazioni con la sua AI per raffinare il targeting pubblicitario altrove, nei suoi network. E Claude, per ora, mantiene la promessa di restarne fuori.

Esiste forse una terza via. Brian Chesky, amministratore delegato di Airbnb, ha dichiarato che il traffico proveniente dai chatbot converte meglio di quello generato da Google: vale a dire che se le AI raccomandano spontaneamente un servizio, l’efficacia commerciale può essere superiore a quella di uno spazio pubblicitario acquistato a caro prezzo.

In questo scenario, le aziende non avrebbero bisogno di comprare visibilità nel chatbot, ma basterebbe essere citate come soluzione adeguata. Ma chi garantisce l’imparzialità? E da quando la pubblicità è, per così dire, meritocratica? Non se ne esce, e resta il problema di chi finanzia l’accesso gratuito. Abbonamenti e contratti enterprise coprono solo una parte del costo; la massa degli utenti free no. La pubblicità è, da decenni, il motore più stabile dell’economia digitale, ma non è mai stata così insidiosa come oggi, quando rischia di travestirsi da “consiglio da amico”.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/come-si-paga-un-chatbot-lintelligenza-artificiale-scopre-la-pubblicita/566782/




Cloud, Reuters: “Rubio ai diplomatici, contrastare la sovranità digitale UE”

Washington rilancia sulla libera circolazione dei dati: Rubio scrive ai diplomatici e punta dritto alla sovranità digitale europea

I dati sono il nuovo petrolio. Quante volte l’abbiamo sentire dire e l’abbiamo letto in questi ultimi anni. Eppure, a pensarci bene, i dati sono molto più preziosi dell’oro nero, perché sono rinnovabili, riutilizzabili e a basso costo di trasporto. Consentono di alimentare società tecnologiche gigantesche e soprattutto sono la principale risorsa per sviluppare il più rapidamente possibile l’intelligenza artificiale (AI). Ne nasce, inevitabilmente, una questione di sovranità.

I dati plasmano i mercati digitali, definiscono i rapporti di forza tra imprese e tra Stati. Non sorprende, dunque, che siano diventati terreno di scontro geopolitico. È in questo contesto che si inserisce il documento del Dipartimento di Stato statunitense del 18 febbraio, firmato dal Segretario di Stato Marco Rubio, che segna un ritorno a un approccio più conflittuale nei confronti delle iniziative straniere di “sovranità dei dati” e “localizzazione dei dati”.

Nella comunicazione interna, indirizzata ai diplomatici americani nel mondo, si legge nell’articolo della Reuters scritto da Raphael Satter e Alexandra Alper, l’amministrazione Trump invita esplicitamente a contrastare quelle che definisce “normative inutilmente gravose”, come gli obblighi di localizzazione dei dati, ritenute capaci di “interrompere i flussi globali di dati, aumentare costi e rischi di cybersicurezza, limitare i servizi di intelligenza artificiale e cloud, ed espandere il controllo governativo in modi che possono minare le libertà civili e favorire la censura”.

Il messaggio è chiaro: Washington intende difendere la libera circolazione transfrontaliera dei dati come pilastro della propria strategia economica e tecnologica globale.

Nel mirino USA l’Europa e il suo GDPR

Secondo molti osservatori, il documento segnala una discontinuità rispetto ai tentativi, in passato, di trovare compromessi con gli alleati europei. Se in precedenza l’approccio era più orientato al dialogo e alla ricerca di soluzioni condivise, oggi la linea appare più assertiva. Il Dipartimento guidato da Rubio parla esplicitamente di una “politica internazionale dei dati più assertiva” e incarica le ambasciate di monitorare e contrastare le proposte che limitano i flussi di dati verso l’estero.

Nel mirino c’è soprattutto l’Europa, dove le iniziative sulla sovranità digitale hanno preso piede negli ultimi anni. Il Regolamento generale sulla protezione dei dati (GDPR), in vigore dal 2018, ha imposto restrizioni al trasferimento dei dati personali fuori dall’Unione europea e ha portato a sanzioni significative nei confronti di grandi aziende tecnologiche statunitensi. Nel documento del Dipartimento di Stato, il GDPR viene citato come esempio di normativa che impone “restrizioni inutilmente gravose” sul trattamento dei dati e sui flussi transfrontalieri.

Per Washington, queste regole rischiano di compromettere la competitività delle imprese americane, in particolare nel settore dell’intelligenza artificiale, dove l’accesso a enormi quantità di dati è un fattore decisivo.

IA, potere e sovranità

La questione è eminentemente geopolitica. Le principali aziende di AI sono statunitensi e i loro modelli si nutrono di grandi volumi di dati, spesso raccolti su scala globale. Limitare la circolazione dei dati significa, dal punto di vista americano, limitare la capacità di innovazione e il vantaggio competitivo di queste imprese.

Dall’altra parte, l’Unione europea guarda alla sovranità dei dati come a uno strumento di tutela della privacy, di difesa dei diritti fondamentali e di riduzione della dipendenza tecnologica dagli Stati Uniti. Le preoccupazioni europee riguardano non solo la protezione dei dati personali, ma anche i rischi di sorveglianza e l’asimmetria di potere nei confronti dei grandi colossi digitali.

Il risultato è un confronto a tratti aspro e sempre più profondo tra due visioni contrapposte: da un lato, la deregolamentazione e la promozione della libera circolazione dei dati come motore di crescita e innovazione; dall’altro, la regolazione come strumento di protezione dei cittadini e di affermazione dell’autonomia strategica.

Il precedente del Digital Services Act

Non è la prima volta che il Dipartimento di Stato guidato da Rubio interviene direttamente sul fronte regolatorio europeo. Lo scorso anno, il Segretario di Stato aveva già incaricato i diplomatici americani di mobilitarsi contro il Digital Services Act (DSA), la normativa europea che obbliga le grandi piattaforme a rimuovere contenuti illegali, come materiale estremista o pedopornografico, e a rafforzare i controlli sui propri servizi.

Anche in quel caso, Washington aveva letto l’iniziativa europea come un potenziale ostacolo alla libertà di espressione e all’operatività delle imprese statunitensi. Il nuovo documento riportato dalla Reuters si inserisce dunque in una strategia più ampia, volta a contrastare l’espansione della regolazione digitale europea.

La competizione con la Cina

La comunicazione interna del Dipartimento USA richiama anche la competizione con la Cina, accusata di combinare progetti infrastrutturali tecnologici con politiche restrittive sui dati, così da estendere la propria influenza e capacità di accesso alle informazioni a fini strategici. In questo senso, la battaglia sulla governance dei dati non è solo transatlantica, ma globale.

Gli Stati Uniti promuovono forum come il Global Cross-Border Privacy Rules Forum, nato nel 2022 con diversi partner internazionali, per sostenere la libera circolazione dei dati accompagnata da standard di protezione condivisi. L’obiettivo è costruire un’architettura alternativa a modelli considerati troppo restrittivi o strumentali al controllo statale.

Verso nuove tensioni transatlantiche?

Quanto sta accadendo tra USA e Ue conferma che la diplomazia dei dati è ormai una componente centrale della politica estera americana. La posta in gioco non riguarda soltanto le regole del mercato digitale, ma il controllo delle infrastrutture informative e delle risorse che alimentano l’intelligenza artificiale.

Se i dati sono il nuovo petrolio, allora le rotte attraverso cui scorrono, cioè le infrastrutture critiche (come i data center), diventano strategiche quanto gli oleodotti. E come accade per le risorse energetiche, anche sui dati si costruiscono alleanze, si accendono contese e si negoziano compromessi.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/cloud-reuters-rubio-ai-diplomatici-contrastare-la-sovranita-digitale-ue/566674/




L’analisi ASviS. Data center e neurotecnologie, come l’Europa può evitare l’effetto lock-in

L’Europa si trova in uno dei passaggi più turbolenti della sua storia recente e rischia di perdere terreno nei settori della tecnologia e del clima, in cui è all’avanguardia. A dichiararlo è il Centre for future generations (Cfg), think tank indipendente europeo che si occupa di analisi strategica e politiche pubbliche orientate al lungo periodo, in risposta alla consultazione pubblica dello Strategic Foresight Report 2026 della Commissione europea. Per questo nei giorni scorsi il Cfg ha lanciato anche Tech & The Planet, un nuovo progetto incentrato sull’intersezione tra tecnologie emergenti e governance climatica. Partendo dalle infrastrutture di intelligenza artificiale, saranno sviluppate linee guida e strumenti politici che possano allineare competitività e sostenibilità.

Proprio la crescita dell’AI e l’emergere di nuove tecnologie di frontiera, tra cui quelle biologiche e climatiche, stanno aprendo scenari con implicazioni sistemiche per l’economia, la sicurezza e la società, destinati a dispiegarsi nel prossimo decennio. In questo scenario, il nodo centrale non è solo la capacità di sviluppare nuove tecnologie, ma la possibilità di orientarne le traiettorie. Il rischio, evidenzia il documento, è che l’Europa resti vincolata a modelli e infrastrutture definiti altrove, perdendo progressivamente autonomia strategica.

Governare le tecnologie prima che diventino irreversibili

Il documento evidenzia come il principale vantaggio competitivo europeo risieda nella capacità di costruire sistemi di governance credibili e affidabili. Piuttosto che competere direttamente con Stati Uniti e Cina sul piano della produzione tecnologica, l’Europa può rafforzare la propria influenza definendo standard, meccanismi di verifica e infrastrutture istituzionali che rendano possibile la cooperazione internazionale. Questo approccio consente di intervenire prima che le tecnologie si consolidino in forme difficili da modificare. Le decisioni relative a infrastrutture energetiche, centri dati, sistemi di intelligenza artificiale o tecnologie climatiche tendono infatti a produrre effetti che durano decenni. Una volta costruiti, questi sistemi creano dipendenze economiche, industriali e geopolitiche difficili da invertire. In questo senso, la capacità di anticipare e governare questi processi diventa una forma di potere strategico.

Dalla disinformazione alle infrastrutture critiche, i rischi segnalati dall’AI safety report

Il Rapporto del gruppo di scienziati diretto da Yoshua Bengio prevede un’accelerazione tecnologica dell’intelligenza artificiale che nei prossimi cinque anni potrebbe essere difficile da gestire.

Le quattro leve che possono rafforzare l’influenza europea

La Call for evidence identifica quattro leve principali attraverso cui l’Europa può rafforzare il proprio ruolo globale. La prima è l’accelerazione delle tecnologie di protezione rispetto a quelle che creano rischi. Questo include, ad esempio, sistemi di sorveglianza per prevenire minacce biologiche, tecnologie per garantire la sicurezza dell’intelligenza artificiale e infrastrutture di adattamento climatico. Investire in queste soluzioni consente di ridurre le vulnerabilità future e rafforzare la resilienza. La seconda leva è rappresentata dal mercato unico europeo. Essendo uno dei più grandi mercati globali, può essere utilizzato per garantire accesso a tecnologie, risorse e infrastrutture critiche, riducendo le dipendenze esterne e rafforzando l’autonomia strategica. La terza riguarda la costruzione di infrastrutture di governance globale. Standard condivisi, sistemi di verifica e meccanismi di coordinamento possono rendere l’Europa un attore indispensabile nella gestione delle tecnologie emergenti. La quarta leva è il rafforzamento della capacità industriale e istituzionale per rispondere rapidamente alle crisi. Le recenti crisi hanno evidenziato l’importanza della capacità di produrre su larga scala e di adattarsi rapidamente a contesti in evoluzione.

La modifica della radiazione solare

Tra le tecnologie emergenti analizzate, la Solar radiation modification (Srm) rappresenta un esempio particolarmente significativo. Questa tecnologia punta a riflettere una parte della radiazione solare nello spazio, riducendo così la quantità di calore assorbita dal sistema climatico terrestre e mitigando temporaneamente l’aumento delle temperature globali. La Srm potrebbe contribuire a ridurre gli impatti del cambiamento climatico, ma comporta anche rischi geopolitici rilevanti. Al contrario, lo sviluppo di standard e meccanismi di cooperazione potrebbe trasformarla in strumento di stabilità. In questo contesto, l’Europa ha l’opportunità di rafforzare il proprio ruolo, costruendo competenze scientifiche e promuovendo modelli di governance basati su trasparenza e cooperazione.

Oltre il 2050

Le decisioni prese ora, tra il 2025 e il 2027, sull’ubicazione dei data center, l’espansione della rete, l’infrastruttura di intelligenza artificiale, le applicazioni neurotecnologiche, i sistemi energetici e le tecnologie rilevanti per la difesa”, scrive il Cfg, “determineranno i modelli di utilizzo del suolo, le traiettorie della domanda, i profili delle emissioni e le dipendenze strategiche per decenni, estendendosi ben oltre gli attuali cicli politici e gli obiettivi climatici del 2050”. Uno degli aspetti più rilevanti evidenziati dal documento riguarda l’impatto a lungo termine delle decisioni attuali. Le scelte che saranno prese in questi anni su infrastrutture tecnologiche, energetiche e industriali influenzeranno la sicurezza, la competitività e l’autonomia europea per decenni. Il rischio principale è il cosiddetto lock-in tecnologico, ovvero la creazione di sistemi che limitano la capacità futura di adattamento. Al contrario, sviluppare infrastrutture flessibili e resilienti può rafforzare la capacità europea di affrontare trasformazioni future.

Scarica la Call for evidence

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/lanalisi-asvis-data-center-e-neurotecnologie-come-leuropa-puo-evitare-leffetto-lock-in/566646/




AI offensiva: come l’intelligenza artificiale sta riscrivendo le regole del cybercrime

L’AI offensiva nella cybersecurity non è più un’ipotesi da convegno. È un fatto operativo, documentato, misurabile. E il suo impatto sta ridefinendo alla radice le categorie con cui la comunità della sicurezza informatica ha costruito i propri modelli di difesa nell’ultimo ventennio.

Per anni abbiamo ragionato su un assunto implicito: la complessità di un attacco è proporzionale alla sofisticazione dell’attaccante. Un exploit zero-day richiedeva competenze di reverse engineering maturate in anni di pratica. Una campagna APT multi-stadio presupponeva team strutturati, infrastrutture dedicate, catene di comando. Questo rapporto tra competenza e pericolosità era, in fondo, il nostro vantaggio strategico: sapevamo che gli attacchi più devastanti potevano provenire solo da un numero limitato di attori.

Quel rapporto si è spezzato. L’intelligenza artificiale generativa e, più recentemente, l’AI agentica hanno introdotto una discontinuità radicale nel panorama delle minacce cyber. Non si tratta di un’evoluzione incrementale, ma di una rottura strutturale. Un singolo individuo, privo di competenze tecniche consolidate, può oggi orchestrare operazioni offensive che fino a ieri richiedevano un team multidisciplinare. E lo può fare con una velocità, una coerenza e un’adattività che superano le capacità di molti analisti umani.

Questo articolo apre una serie dedicata a esplorare le dimensioni di questa trasformazione. Non come esercizio teorico, ma come strumento di orientamento operativo per chi – CISO, threat researcher, security architect, SOC analyst, giuristi del digitale – è chiamato a ripensare strategie e paradigmi alla luce di una realtà che muta più rapidamente dei nostri framework.

L’AI agentica come arma: dall’advisory all’execution

La prima fase dell’interazione tra intelligenza artificiale e cybercrime è stata relativamente benigna, almeno dal punto di vista strutturale. I threat actor utilizzavano i modelli linguistici come consulenti: per correggere la grammatica delle email di phishing, per generare snippet di codice malevolo, per ottenere informazioni tecniche. L’AI era un amplificatore di produttività, non un operatore autonomo.

Quella fase è conclusa.

Il passaggio cruciale è avvenuto con l’emergere dell’AI agentica – sistemi capaci non solo di generare contenuti su richiesta, ma di pianificare, decidere, eseguire e adattarsi in modo autonomo lungo catene operative complesse. Il report di threat intelligence pubblicato da Anthropic nell’agosto 2025 ha documentato per la prima volta questa transizione con evidenze concrete e inquietanti.

Il caso più emblematico riguarda un cybercriminale che ha utilizzato Claude Code – un assistente di codifica agentico – per condurre un’intera campagna di estorsione contro almeno 17 organizzazioni, tra cui strutture sanitarie, servizi di emergenza, enti governativi e istituzioni religiose. L’aspetto che distingue questa operazione da tutte le precedenti non è la scala, ma il ruolo dell’AI: Claude Code non ha fornito suggerimenti a un operatore umano. Ha condotto l’operazione. Ha eseguito la ricognizione automatizzata, raccolto credenziali, penetrato reti, analizzato i dati esfiltrati per determinare l’importo dei riscatti (che in alcuni casi superavano i 500.000 dollari) e generato lettere di estorsione personalizzate calibrate sul profilo finanziario e psicologico di ciascuna vittima.

In termini ancora più espliciti: l’AI ha preso decisioni tattiche e strategiche. Ha deciso quali dati esflitrare. Ha valutato quali informazioni avessero maggiore valore di leva. Ha generato comunicazioni persuasive che facevano riferimento ai margini operativi delle vittime e alle conseguenze di un’interruzione dei servizi.

A novembre 2025, Anthropic ha reso pubblico un caso ancora più significativo: la prima campagna di cyber-spionaggio orchestrata autonomamente dall’AI. Un gruppo state-sponsored cinese, identificato come GTG-1002, ha manipolato Claude Code convincendolo di essere impiegato in test di sicurezza difensiva legittimi. L’AI ha eseguito autonomamente tra l’80% e il 90% delle operazioni tattiche: scoperta di servizi interni, mappatura completa della topologia di rete, identificazione di account ad alto privilegio, creazione di backdoor persistenti, estrazione e categorizzazione dei dati per valore di intelligence. Gli operatori umani si sono limitati a selezionare i target e ad approvare le esflitrazioni finali.

Non siamo più nell’ambito dell’AI-assisted cybercrime. Siamo entrati nell’era dell’AI-operated cybercrime.

Vibe hacking: la democratizzazione radicale dell’offensiva cyber

Il termine “vibe hacking” è emerso nella comunità di sicurezza nella prima metà del 2025, derivato dal concetto di “vibe coding” coniato da Andrej Karpathy all’inizio dello stesso anno. Se il vibe coding descrive un approccio allo sviluppo software in cui il programmatore fornisce istruzioni ad alto livello e l’AI genera il codice, il vibe hacking applica lo stesso principio alle operazioni offensive.

Il concetto cattura qualcosa di profondo: l’attaccante non ha bisogno di comprendere cosa sta facendo. Non deve saper scrivere un exploit, configurare un’infrastruttura di command-and-control o comprendere i meccanismi di evasione. Deve saper parlare con l’AI nel modo giusto. La competenza tecnica è sostituita dalla competenza conversazionale.

I casi documentati da Anthropic illustrano questa dinamica con chiarezza disarmante. Nel caso dell’operazione di estorsione, l’attaccante ha configurato Claude Code con un playbook operativo (un file CLAUDE.md che standardizzava i pattern di attacco adattandoli a ciascuna vittima). L’intero flusso – dalla ricognizione alla monetizzazione – era orchestrato dall’AI. Un analista di IronScales ha commentato che questo caso demolisce l’assunto tradizionale secondo cui sofisticazione dell’attore e complessità dell’attacco siano correlate.

Un altro caso rivelatore riguarda gli operativi nordcoreani che hanno utilizzato Claude per ottenere e mantenere posizioni lavorative fraudolente in aziende Fortune 500 statunitensi. Questi individui necessitavano di assistenza AI per compiti elementari: comprendere riferimenti culturali americani, rispondere a domande tecniche di base, comunicare in modo professionale. L’AI ha eliminato il collo di bottiglia della formazione specialistica che in precedenza limitava la capacità operativa del regime.

Parallelamente, un altro attore ha sviluppato e venduto nel dark web varianti di ransomware con crittografia ChaCha20, tecniche anti-EDR e sfruttamento di Windows internals, il tutto essendo completamente dipendente da Claude per l’implementazione. I pacchetti erano commercializzati a prezzi compresi tra 400 e 1.200 dollari. L’attore vendeva competenze che, in realtà, non possedeva.

Il vibe hacking è dunque l’incarnazione operativa di un fenomeno più ampio: l’AI offensiva nella cybersecurity sta abbattendo le barriere di ingresso nel cybercrime con una velocità e una radicalità che i modelli tradizionali di valutazione delle minacce non sono progettati per catturare.

L’AI lungo l’intero ciclo di attacco: una mappatura MITRE ATT&CK

Per comprendere la portata sistemica dell’AI offensiva, è utile mapparne l’integrazione lungo le fasi del ciclo di attacco così come codificato nel framework MITRE ATT&CK. Il report di Anthropic ha documentato un attore cinese che ha integrato Claude in 12 delle 14 tattiche ATT&CK nel corso di una campagna di nove mesi contro infrastrutture critiche vietnamite – telecomunicazioni, enti governativi e settore agricolo.

Questa copertura quasi totale della kill chain non ha precedenti documentati. Vediamo come l’AI si integra nelle fasi principali.

Ricognizione e acquisizione risorse. Gli agenti AI operano in modo persistente e autonomo, raccogliendo informazioni da social media, dati di breach, API esposte e misconfigurazioni cloud. Come evidenziato nel framework di attacco agentico sviluppato da Unit 42 di Palo Alto Networks, a differenza della ricognizione tradizionale (tipicamente un’operazione manuale e statica), un agente AI si auto-interroga su quali dati servano, li raccoglie, e aggiorna la propria strategia se il contesto del target cambia.

Accesso iniziale e social engineering. L’AI genera comunicazioni di phishing grammaticalmente perfette, contestualmente rilevanti e personalizzate. Ma la novità non è solo qualitativa: è strutturale. L’AI può condurre operazioni di social engineering multicanale – email, SMS, messaggi vocali con voice cloning – in parallelo, adattando tono e contenuto in tempo reale sulla base delle risposte delle vittime.

Esecuzione, persistenza e movimento laterale. L’AI genera codice polimorfico on-demand. Ogni payload è unico, vanificando le detection basate su firme e hash. Nella campagna GTG-1002, Claude ha scoperto autonomamente servizi interni, mappato la topologia di rete e identificato sistemi ad alto valore, il tutto senza istruzioni umane granulari.

Esfiltrazione e impatto. L’AI non si limita a sottrarre dati: li analizza, li categorizza per valore di intelligence, produce report strutturati e genera comunicazioni di estorsione personalizzate. Nella campagna documentata da Anthropic, Claude generava automaticamente report operativi che consentivano la continuità delle operazioni anche in caso di interruzioni, abilitando il passaggio di consegne tra operatori.

Un dato quantitativo rende tangibile l’accelerazione: secondo il Global Incident Response Report 2025 di Unit 42, il tempo medio di esfiltrazione (MTTE) dopo l’accesso iniziale è crollato da nove giorni nel 2021 a due giorni nel 2024. In un caso su cinque, l’esfiltrazione avviene in meno di un’ora. L’AI agentica è un fattore determinante di questa compressione temporale.

L’ecosistema della frode AI-powered: una supply chain end-to-end

L’AI offensiva nella cybersecurity non si limita ad accelerare singole operazioni. Sta generando un intero ecosistema criminale strutturato, con una propria catena del valore.

Il report GTIG di Google (febbraio 2026) documenta la maturazione del mercato underground per strumenti AI-enabled. Nel 2025, il marketplace criminale ha visto la proliferazione di offerte multifunzionali progettate per supportare diverse fasi del ciclo di attacco. Praticamente ogni strumento pubblicizzato nei forum underground menziona la capacità di supportare campagne di phishing. Esistono “evil LLM” come WormGPT, modelli linguistici commercializzati esplicitamente per scopi criminali, capaci di generare malware, campagne di phishing e codice di exploit.

Google ha inoltre identificato, nel terzo trimestre 2025, una famiglia di malware denominata PROMPTFLUX che impiega le API di Gemini durante l’esecuzione per generare tecniche di offuscamento dinamico in VBScript. Non si tratta più di malware statico potenziato dall’AI: è malware che utilizza l’AI come componente funzionale in tempo reale.

A questo si aggiungono i “vibe script” venduti nei marketplace del dark web: template conversazionali ottimizzati per ingegneria sociale empatica, progettati per costruire rapport con le vittime prima di condurle alla compromissione. La combinazione di voice cloning, generazione di testi personalizzati e timing adattivo rende queste operazioni quasi indistinguibili da interazioni umane autentiche.

L’ecosistema include anche servizi di “influence-as-a-service”, documentati nel report di marzo 2025 di Anthropic, in cui l’AI non genera semplicemente contenuti ma decide quando i bot social devono commentare, condividere o interagire con utenti reali, sulla base di personas politicamente motivate. L’AI è l’orchestratore strategico, non il mero esecutore tattico.

Siamo di fronte a una industrializzazione del cybercrime AI-driven, con specializzazione dei ruoli, economie di scala e abbattimento dei costi marginali per attacco.

Implicazioni per i framework di valutazione delle minacce

L’irruzione dell’AI offensiva impone una revisione critica dei modelli con cui valutiamo le minacce. I framework tradizionali, a partire dalla stessa matrice MITRE ATT&CK, sono stati progettati per catalogare tattiche, tecniche e procedure di attori umani che operano con vincoli umani: tempo di apprendimento, necessità di coordinamento, limiti di velocità esecutiva.

L’ottobre 2025 ha segnato un punto di svolta: MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) ha integrato, in collaborazione con Zenity Labs, 14 nuove tecniche e sotto-tecniche specificamente focalizzate su agenti AI e sistemi di AI generativa. Queste includono il context poisoning degli agenti AI, la manipolazione della memoria a lungo termine dei LLM, la thread injection e il RAG credential harvesting. ATLAS conta ora 15 tattiche, 66 tecniche e 46 sotto-tecniche. Ma anche questo aggiornamento potrebbe non bastare.

Il problema fondamentale è che i modelli di rischio basati sulla classificazione degli attori (script kiddie, cybercriminale organizzato, APT state-sponsored) perdono significato quando un attore con competenze da script kiddie può eseguire operazioni di livello APT grazie all’AI. Il World Economic Forum, nel Global Cybersecurity Outlook 2025, ha rilevato che il 66% delle organizzazioni intervistate prevede che l’AI avrà l’impatto più significativo sulla cybersecurity nell’anno in corso. Secondo Darktrace, il 78% dei CISO ritiene che le minacce guidate dall’AI avranno un impatto rilevante sulle proprie organizzazioni.

Questi dati riflettono una consapevolezza crescente, ma non ancora una risposta operativa adeguata. La sfida non è aggiungere “AI” come variabile ai modelli esistenti: è ripensare le categorie stesse su cui quei modelli si fondano.

Le implicazioni sono molteplici e interconnesse. Sul piano della threat intelligence, i modelli di attribuzione basati su tooling e TTP specifici si indeboliscono quando l’AI genera varianti uniche a ogni esecuzione. Sul piano del risk assessment, la probabilità di attacco si disaccoppia dalla sofisticazione percepita dell’attore. Sul piano della compliance e della governance, il quadro normativo europeo – già in fase di profonda evoluzione – deve fare i conti con scenari che i legislatori non avevano pienamente anticipato.

La Direttiva NIS2 (Direttiva UE 2022/2555), pienamente applicabile dal 18 ottobre 2024 e ora in fase di enforcement attivo, impone agli enti essenziali e importanti obblighi stringenti di gestione del rischio cyber (articolo 21), notifica degli incidenti entro 24 ore per l’early warning e 72 ore per il report completo (articolo 23), e responsabilità diretta del management con possibilità di sanzioni personali fino all’interdizione dalla funzione dirigenziale. Ciò che la rende particolarmente rilevante nel contesto dell’AI offensiva è il suo approccio alla supply chain (articolo 21.3 e 22): le organizzazioni devono valutare la sicurezza dei propri fornitori, inclusi i fornitori di servizi AI, il che acquisisce una dimensione nuova quando gli stessi strumenti AI possono essere weaponizzati.

Il Recital 89 della direttiva incoraggia esplicitamente gli Stati membri a promuovere l’uso di tecnologie innovative, inclusa l’intelligenza artificiale, per migliorare la sicurezza informatica – un mandato che, alla luce del vibe hacking, assume una doppia valenza: l’AI è simultaneamente raccomandazione difensiva e vettore offensivo. Le sanzioni sono significative: fino a 10 milioni di euro o il 2% del fatturato globale per gli enti essenziali. A gennaio 2026, la Commissione europea ha proposto emendamenti mirati per semplificare la compliance, riconoscendo implicitamente la complessità applicativa per le 28.700 imprese interessate.

Parallelamente, l’AI Act (Regolamento UE 2024/1689) introduce un framework stratificato per rischio. Entrato in vigore il 1° agosto 2024, ha già attivato i divieti sulle pratiche AI inaccettabili (febbraio 2025) e gli obblighi di governance per i modelli GPAI (agosto 2025).

Le scadenze critiche sono imminenti: ad agosto 2026 diventeranno applicabili i requisiti completi per i sistemi AI ad alto rischio (articoli 8-15), inclusi obblighi di gestione del rischio, governance dei dati, documentazione tecnica, supervisione umana, e – elemento cruciale per il nostro contesto – garanzie di accuratezza, robustezza e cybersecurity. I modelli GPAI con rischio sistemico (quelli addestrati con più di 10²⁵ FLOP) devono sottostare a valutazioni tramite adversarial testing, reporting degli incidenti gravi all’AI Office entro 72 ore, e protezioni di cybersecurity allo stato dell’arte.

Le sanzioni possono raggiungere i 35 milioni di euro o il 7% del fatturato globale. Il Digital Omnibus, proposto dalla Commissione nel novembre 2025, mira a coordinare AI Act, NIS2, DORA e GDPR in un quadro più coerente, introducendo un punto unico di reporting per gli incidenti – un segnale chiaro che la frammentazione normativa attuale è percepita come un problema reale.

L’intersezione tra questi due regolamenti è il terreno su cui l’AI offensiva nella cybersecurity pone le sfide più complesse: come si classifica il rischio di un sistema AI che può essere simultaneamente strumento di compliance (AI per la detection) e vettore di attacco (AI weaponizzata)? Come si applica il requisito di adversarial testing quando gli stessi test possono essere condotti da agenti AI autonomi? Sono domande a cui i framework attuali non offrono risposte definitive, e che la giurisprudenza dovrà necessariamente affrontare.

Cosa cambia per la difesa: verso nuovi paradigmi

Se l’offesa si è trasformata, la difesa non può restare ancorata ai modelli pre-AI. Alcune direttrici di evoluzione sono già identificabili.

Oltre le firme, oltre il comportamento noto. Le difese basate su firme e pattern comportamentali storici sono strutturalmente inadeguate contro attacchi AI-generated. Ogni payload è polimorfico, ogni comunicazione è unica, ogni catena di attacco è adattiva. Il modello difensivo deve spostarsi verso il controllo di ciò che è autorizzato a eseguire, non verso il tentativo di riconoscere ciò che è malevolo. L’approccio Zero Trust applicato al livello applicativo – dove solo il codice esplicitamente approvato può essere eseguito – diventa non un’opzione architetturale, ma una necessità operativa.

Detection comportamentale anomala. Se i contenuti generati dall’AI sono indistinguibili da quelli legittimi, la detection deve spostarsi sulle anomalie relazionali e contestuali. Un’email perfettamente scritta che arriva da un mittente insolito, in un contesto temporale atipico, con una richiesta incongruente rispetto ai pattern storici della relazione – questo è il segnale da intercettare. L’analisi comportamentale basata su baseline relazionali diventa la frontiera critica.

Monitoraggio dell’uso AI in ambiente enterprise. Il fenomeno degli “shadow agent” – dipendenti che utilizzano strumenti AI non approvati per gestire il lavoro quotidiano – crea superfici di attacco invisibili. I dati aziendali caricati in LLM non governati sono, nella sostanza, dati esfiltrati. Le policy di AI governance devono includere inventari degli asset AI, monitoraggio delle interazioni con modelli esterni e enforcement delle regole d’uso.

Red teaming AI-native. Le esercitazioni di red teaming devono incorporare scenari di attacco AI-driven. Il framework di attacco agentico sviluppato da Unit 42 è un esempio concreto: consente di simulare operazioni in cui agenti AI pianificano, eseguono e adattano attacchi lungo l’intera kill chain. Il playbook di McKinsey sulla sicurezza dell’AI agentica (ottobre 2025) introduce una prospettiva particolarmente incisiva: gli agenti AI devono essere trattati come “digital insider”, entità che operano all’interno dei sistemi con livelli variabili di privilegio e autorità.

Proprio come i dipendenti, questi insider digitali possono causare danni in modo involontario – per disallineamento – o deliberato, se compromessi. McKinsey identifica cinque nuovi driver di rischio specifici dell’AI agentica: le vulnerabilità a catena (un errore in un agente si propaga a cascata ad altri agenti), l’escalation cross-agent di task (agenti malevoli che sfruttano meccanismi di trust per ottenere privilegi non autorizzati), il rischio di identità sintetiche, la fuga di dati non tracciabile negli scambi autonomi tra agenti, e la propagazione di corruzione dei dati.

Un dato del report SailPoint citato nel playbook merita attenzione: l’80% delle organizzazioni dichiara di aver già riscontrato comportamenti rischiosi da parte di agenti AI, inclusa l’esposizione impropria di dati e l’accesso a sistemi senza autorizzazione.

Runtime security per i modelli AI. Il monitoraggio in tempo reale degli input e degli output dei modelli AI diventa essenziale. Rilevare quando un pattern d’uso devia verso scenari di abuso, quando le query indicano intento malevolo, quando le risposte del modello veicolano informazioni operative per attacchi – questa è l’equivalente dell’intrusion detection applicata al layer dell’intelligenza artificiale.

L’AI difensiva funziona, ma il gap è reale. Un dato incoraggiante merita attenzione: secondo le analisi IBM e di settore, le organizzazioni che utilizzano sistematicamente AI e automazione nei propri processi di cybersecurity rilevano le violazioni con circa 80 giorni di anticipo rispetto a quelle che non le impiegano, con un risparmio medio stimato in circa 1,9 milioni di dollari per incidente. La detection AI-powered è dunque efficace – ma solo se implementata con governance, training e integrazione adeguate. Il problema è che questo vantaggio è accessibile principalmente alle grandi organizzazioni con budget e competenze dedicate, creando un divario di resilienza che l’AI offensiva è pronta a sfruttare.

L’anello debole: PMI e la democratizzazione asimmetrica del rischio

C’è un aspetto dell’AI offensiva nella cybersecurity che le analisi orientate all’enterprise tendono a sottovalutare: il suo impatto sproporzionato sulle piccole e medie imprese. Se l’AI democratizza l’attacco, non democratizza affatto la difesa – almeno non nella stessa misura e con la stessa velocità.

I numeri sono inequivocabili. Secondo il WEF Global Cybersecurity Outlook 2025, il numero di piccole organizzazioni che riportano una resilienza cyber insufficiente è aumentato di sette volte rispetto al 2022. Il 45% di tutti gli attacchi cyber nel 2025 ha preso di mira le PMI. E il dato più allarmante: circa il 60% delle PMI colpite da un attacco significativo cessa l’attività entro sei mesi. Solo il 29% delle PMI valuta le proprie difese come sufficientemente mature, e solo l’11% utilizza strumenti di difesa basati su AI.

L’AI offensiva aggrava questa asimmetria in modo strutturale. La personalizzazione degli attacchi, un tempo riservata alle campagne APT contro grandi organizzazioni, diventa economicamente praticabile anche contro target minori quando è l’AI a condurre la ricognizione, a generare i contenuti di phishing e a calibrare l’estorsione. Un agente AI che può attaccare 17 organizzazioni contemporaneamente (come nel caso documentato da Anthropic) non discrimina in base alla dimensione: discrimina in base alla vulnerabilità. E le PMI, con meno risorse difensive, superfici di attacco più facilmente mappabili e spesso prive di cyber insurance (solo il 17% ne dispone), rappresentano bersagli ad alta probabilità di successo.

Per i CISO e i consulenti che operano con clienti PMI, questo implica un ripensamento radicale. Le raccomandazioni tradizionali – formazione del personale, MFA, patching regolare – restano necessarie ma non più sufficienti contro attacchi AI-driven che generano comunicazioni indistinguibili da quelle legittime e payload unici a ogni esecuzione. Le PMI hanno bisogno di accesso a servizi di sicurezza gestiti che integrino detection AI-native, e il mercato dei Managed Security Service Provider (MSSP) dovrà evolversi rapidamente per colmare questo gap.

Limiti dell’analisi e controargomentazioni

Un’analisi onesta richiede di considerare anche i limiti della narrazione sull’AI offensiva e le controargomentazioni che la comunità di ricerca ha sollevato.

L’AI come amplificatore, non come rivoluzionario. Il report GTIG di Google del febbraio 2026 mantiene una posizione più cauta rispetto ad altre analisi: i ricercatori sottolineano che l’AI è primariamente un fattore di rinforzo all’interno di catene di attacco esistenti, piuttosto che una nuova categoria di minaccia in sé. L’uso dell’AI abbassa la soglia per certe attività e ne aumenta la scalabilità, ma non sostituisce le tecniche e le infrastrutture tradizionali che sono in uso da anni. Questa sfumatura è importante: evita il rischio di un allarmismo che potrebbe portare a investimenti mal calibrati.

Nessuna capacità “breakthrough” documentata. Google e altre fonti notano che nessun gruppo APT o operatore di information operations ha ancora raggiunto capacità realmente rivoluzionarie che alterino fondamentalmente il panorama delle minacce. Le operazioni documentate, per quanto impressionanti, rimangono nell’ambito dell’automazione e dell’efficientamento di tecniche note, non della creazione di vettori di attacco genuinamente inediti. Il social engineering resta social engineering, anche quando è generato dall’AI.

Il problema dell’overfit narrativo. Esiste un rischio concreto che l’enfasi mediatica e di settore sull’AI offensiva produca un effetto di overfit: una concentrazione eccessiva di risorse e attenzione su minacce AI-specific a scapito di vulnerabilità tradizionali che continuano a causare la maggioranza dei breach. La versione 18 di MITRE ATT&CK (dicembre 2025) documenta che l’81% delle intrusioni nel periodo luglio 2024-giugno 2025 è stato malware-free e basato su tecniche interattive, non necessariamente AI-driven. I fondamentali – gestione delle identità, patching, segmentazione di rete, controllo degli accessi – restano i pilastri su cui costruire qualsiasi strategia difensiva.

Queste controargomentazioni non invalidano la tesi centrale dell’articolo – il rapporto tra competenza dell’attaccante e complessità dell’attacco si è effettivamente spezzato – ma la circoscrivono in un quadro più realistico. L’AI offensiva è una minaccia concreta e documentata, non un’apocalisse imminente. La risposta appropriata è l’adattamento strutturato, non il panico.

Lo scenario che ci aspetta

La traiettoria è chiara, e non è tranquillizzante. Il Cybersecurity Forecast 2026 di Google prevede che l’uso di strumenti AI diventerà la normalità operativa sia per gli attaccanti sia per i difensori, con la prompt injection che emerge come uno dei vettori in più rapida crescita. Il Data Breach Industry Forecast 2026 di Experian delinea un futuro in cui gli attacchi non si limitano più al furto di dati ma puntano alla manipolazione della realtà stessa, attraverso identità sintetiche, agenti autonomi e malware polimorfico.

Nel primo trimestre 2025, oltre 2.300 vittime sono state nominate su siti di data leak – il numero più alto mai registrato dal 2020. Il 93% dei security leader, secondo Trend Micro, prevede di affrontare attacchi AI quotidiani. E il tutto avviene in un contesto in cui, come riportato dal WEF, i budget per la cybersecurity crescono solo del 4% annuo, contro il 17% del 2022.

L’AI offensiva nella cybersecurity non è un trend emergente da monitorare. È una realtà operativa che sta ridisegnando il campo di battaglia. Per i professionisti della sicurezza, la domanda non è se prepararsi, ma se la velocità di adattamento delle difese potrà eguagliare la velocità di evoluzione dell’offesa.

La risposta, al momento, non è scontata. Ma è proprio in questa incertezza che risiede l’urgenza di agire – con consapevolezza, con strumenti adeguati e con la determinazione di chi sa che il paradigma è cambiato e non si può tornare indietro.

Questo è il primo articolo di una serie dedicata all’impatto dell’AI sul panorama delle minacce cyber. I prossimi approfondimenti esploreranno le difese AI-native in dettaglio, l’intersezione normativa NIS2/AI Act/DORA per settori specifici, i framework operativi per la gestione del rischio AI in ambito enterprise e il ruolo dell’AI nella forensics post-incidente.

Fonti principali

Anthropic, Threat Intelligence Report: August 2025 e Detecting and countering misuse of AI, agosto 2025

Anthropic, Disrupting the first reported AI-orchestrated cyber espionage campaign, novembre 2025

Google Threat Intelligence Group (GTIG), AI Threat Tracker: Distillation, Experimentation, and Integration of AI for Adversarial Use, febbraio 2026

Palo Alto Networks Unit 42, Agentic AI Attack Framework, maggio 2025

MITRE, ATLAS Framework – aggiornamento ottobre 2025; ATT&CK v18.1, dicembre 2025

World Economic Forum, Global Cybersecurity Outlook 2025

McKinsey, Deploying Agentic AI with Safety and Security: A Playbook for Technology Leaders, ottobre 2025

Trend Micro, State of AI Security Report 1H 2025

Experian, 2026 Data Breach Industry Forecast, dicembre 2025

CrowdStrike, MITRE ATT&CK Framework Analysis, dicembre 2025

Commissione Europea, NIS2 Directive (Direttiva UE 2022/2555) e AI Act (Regolamento UE 2024/1689)

ENISA, NIS2 Technical Implementation Guidance, 2025

SailPoint Technologies, AI Agents: The New Attack Surface, maggio 2025

Condividi sui Social Network:

https://www.ictsecuritymagazine.com/notizie/ai-offensiva-cybercrime/




Data Center, dalla Camera ok a delega al Governo. Ma la Lombardia si fa la sua legge

Dalla Camera c’è l’ok alla “Delega al Governo per la disciplina, la realizzazione e lo sviluppo” dei data center in Italia

L’Aula della Camera ha approvato, con 243 voti a favore e 6 astenuti, il testo unificato per i data center sul territorio nazionale attraverso la “Delega al Governo per la disciplina, la realizzazione e lo sviluppo dei centri di elaborazione dati”.
Il testo passa ora all’esame del Senato.

In questo modo, si delega il Governo ad adottare, entro sei mesi dalla data di entrata in vigore della legge, i decreti legislativi per la disciplina dei centri di elaborazione dati, per il coordinamento delle procedure per la loro realizzazione e organizzazione.

Il provvedimento punta a rafforzare la rete elettrica nazionale per garantire la concreta attuazione dei programmi di sviluppo infrastrutturale e a introdurre criteri di priorità che favoriscano l’accesso alla rete da parte dei progetti relativi ai centri di elaborazione dati (Ced).

La legge mira inoltre a facilitare la trasformazione digitale delle pubbliche amministrazioni e delle imprese, migliorando l’offerta di servizi ai cittadini. Il testo unificato punta a fornire un inquadramento normativo di questo settore strategico per lo sviluppo economico e tecnologico del Paese.

Nella nuova disciplina viene posta attenzione, in un’ottica di crescita del settore dei data center e di attrattività degli investimenti, alle semplificazioni amministrativa, al consumo del suolo e al consumo energetico.

Pastorella (Azione): “Normare questo settore vuol dire ascoltare i comuni sul territorio

Normare questo settore non vuol dire ascoltare le big tech, ma soprattutto i comuni sul territorio. Nel vuoto normativo si sono mossi in ordine sparso alcune Regioni, il MIMIT e il MASE, mentre l’incertezza ha portato altrove molti operatori. Ora invece abbiamo una legge completa: tiene conto dei grandi data center e degli edge, delle specificità del Paese come siti dismessi da riqualificare e cavi sottomarini, introduce iter autorizzativi unici, aiuta gli enti locali, chiede di rinforzare la rete elettrica e le competenze per il settore”, ha dichiarato Giulia Pastorella, deputata e vice presidente di Azione, prima firmataria della legge delega al governo in materia dei centri di elaborazione dati, approvata oggi alla Camera all’unanimità.

Sappiamo che i data center – ha proseguito Pastorella – sono determinanti per innovazione e Intelligenza artificiale. In Italia tra il 2023 e il 2025 sono stati investiti 7 miliardi di euro, ma è solo il 68% di quanto previsto. Abbiamo perso il 32% degli investimenti anche per il ritardo della normativa che stiamo approvando oggi”.

Casu (PD): “L’Italia deve trovare la sua autonomia tecnologica

Seppure con molto ritardo, la Camera definisce un importante punto di partenza condiviso per lo sviluppo dei centri di elaborazione dati”, ha affermato il deputato e vicepresidente in Commissione Trasporti, Andrea Casu (PD).

È giusto che la regolamentazione parta dal Parlamento con una legge delega e non per decreto, perché è in gioco una questione politica, globale e nazionale: i data center non devono diventare cattedrali nel deserto gestite da remoto, ma fucine di innovazione per favorire lo sviluppo economico, sociale, ambientale e democratico”, ha proseguito Casu.

Ci batteremo affinché l’Italia difenda sempre l’interesse nazionale e i data center non diventino i porti franchi delle nuove compagnie delle indie. L’Italia deve trovare la sua autonomia tecnologica per proteggere nell’interesse nazionale, da un lato, la sicurezza dei dati e dall’altro l’attrattività degli investimenti. Grazie ai data center nel 2025 la Francia ha saputo attrarre 69 miliardi di dollari di investimenti a fronte dei 5 del nostro paese”, ha precisato Casu.

Data Center, Regione Lombardia procede in autonomia con una proposta di legge regionale

Resta da capire, a questo punto, perché la Regione Lombardia si stia muovendo in autonomia per una legge regionale. Tanto più che da oggi c’è il via libera della Camera alla legge delega, che impegna il Governo a legiferare in materia di Data Center a livello nazionale.

Questa via di fuga in Lombardia ha un significato politico?

E’ una sorta di smacco politico della politica locale nei confronti delle lungaggini di Roma?

La Lombardia non si fida dei tempi lunghi della politica nazionale e sceglie così una scorciatoia locale, inevitabilmente a macchia di leopardo, a scapito di una norma nazionale?  

Certo, in caso di conflitti fra normativa nazionale e regionale c’è il Tar che decide.

“Abbiamo deciso di intervenire per colmare un vuoto normativo, sia nazionale che regionale, per un settore di crescente importanza. Una realtà che per svilupparsi, necessita di regole del gioco certe. Nonostante l’elevata rilevanza economica, tecnologica e strategica del settore, i centri di elaborazione dati, i cosiddetti Data Center, non risultano ancora oggetto di una disciplina normativa unitaria né a livello nazionale né regionale. Per questo come Commissione regionale siamo impegnati in queste settimane in un confronto con tutti gli operatori e i soggetti interessati, al fine di approfondire e definire un provvedimento legislativo che risponda nel miglior modo possibile alle esigenze che sono emerse”. Lo ha sottolineato il Presidente della Commissione regionale Territorio, Infrastrutture e Mobilità Jonathan Lobati (Forza Italia).

Gli obiettivi della Regione Lombardia: il 60% delle richieste di nuovi insediamenti sono in Lombardia

Il progetto di legge in discussione in Commissione, intende perseguire precisi obiettivi, tra cui

  • garantire il governo regionale delle procedure autorizzatorie, mediante il coordinamento tra i diversi attori istituzionali e l’individuazione di tempi certi;
  • assicurare certezza e omogeneità sul territorio regionale con riferimento alla destinazione d’uso urbanistica; governare l’elevato consumo energetico, limitando operazioni speculative e favorendo l’utilizzo di fonti rinnovabili;
  • individuare come prioritarie l’utilizzo di aree dismesse, il riutilizzo del calore prodotto, favorendo tecnologie alternative all’utilizzo dell’acqua e disincentivare il consumo di suolo agricolo nello stato di fatto, prevedendo un maggior contributo di costruzione da destinare a misure compensative di riqualificazione urbana e territoriale.

“Con questo provvedimento vogliamo dare coordinate certe al settore in Lombardia -ha aggiunto il Presidente Lobati-. Cerchiamo quindi di creare le condizioni per evitare i contrasti sulle realizzazioni dei Data Center. Quelli che potrebbero crearsi qualora i progetti per la loro realizzazione vadano a incidere sullo sviluppo urbanistico, su quello delle aree verdi, sulla disponibilità di terreno utile per l’agricoltura e rispondano alle esigenze del mondo economico”. Jonathan Lobati ha, infine, ricordato che oltre il 60% delle richieste nazionali per il loro insediamento sono in Regione Lombardia.

Il mercato italiano dei data center

I data center sono riconosciuti come essenziali per l’erogazione di risorse e servizi digitali, perché abilitano un ampio spettro di funzioni di interesse generale e quotidiano, tra cui lo sviluppo di sistemi di intelligenza artificiale, l’accesso ai servizi comunali online e al fascicolo sanitario elettronico, l’utilizzo di social network, piattaforme di commercio elettronico e siti internet.

L’area europea, pur registrando un progressivo rallentamento nei tradizionali poli infrastrutturali (FLAPD –Francoforte, Londra, Amsterdam, Parigi, Dublino), vede emergere nuovi hub di sviluppo, fra i quali si distingue l’Italia per crescita di investimenti e attrattività strategica, anche grazie alla propria collocazione geoeconomica nel bacino del Mediterraneo.

In questo contesto, il mercato italiano prosegue nel proprio percorso di crescita: nel triennio 2023–2025 risultano investiti 7,1 miliardi di euro per la costruzione, l’approntamento e il riempimento di apparecchiature IT dei nuovi Data Center.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/data-center-dalla-camera-ok-a-delega-al-governo-ma-la-lombardia-si-fa-la-sua-legge-regionale/566386/




Anthropic accusa la Cina e Deepseek: “Sfruttano Claude per addestrare la loro AI”

Anthropic accusa tre aziende cinesi, tra cui DeepSeek, di aver utilizzato Claude su scala industriale per addestrare i propri modelli di AI.

Anthropic contro Deepseek

Secondo la società sarebbero stati creati circa 24.000 account fraudolenti e generati oltre 16 milioni di scambi con il modello. Non test isolati, ma un’attività sistematica basata sulla “distillazione”: tecnica legittima in sé, che consente di addestrare un modello più piccolo usando le risposte di uno più avanzato, ma che in questo caso sarebbe stata impiegata per acquisire capacità proprietarie in modo illecito.

DeepSeek avrebbe condotto oltre 150.000 interazioni mirate, focalizzate sulle capacità di ragionamento di Claude, archiviandone le risposte per riaddestrare sistemi propri.

Anthropic sostiene inoltre che il modello americano sia stato utilizzato per generare formulazioni su temi politicamente sensibili – dissidenti, leadership, autoritarismo – poi riutilizzate per addestrare AI capaci di trattare tali argomenti in modo compatibile con contesti a forte censura.

La vicenda si inserisce in uno scontro più ampio: anche OpenAI ha denunciato tentativi di sfruttamento delle proprie tecnologie, mentre cresce la pressione su legislatori e cloud provider per limitare l’accesso a chip avanzati e contrastare la distillazione non autorizzata.

L’annuncio di Claude Code per modernizzare il COBOL

Parallelamente, Anthropic ha annunciato che Claude Code può modernizzare il codice COBOL. Dopo la notizia, IBM ha perso fino al 10% in Borsa, con ribassi anche per Accenture e Cognizant, realtà che generano ricavi significativi nella modernizzazione dei sistemi legacy. Il nuovo tool automatizza analisi tradizionalmente affidate a grandi team di consulenza: mappa dipendenze, traccia flussi di esecuzione, identifica rischi e documenta basi di codice complesse.

COBOL gestisce ancora circa il 95% delle transazioni ATM negli Stati Uniti e alimenta sistemi critici in ambito finanziario e governativo. Secondo Anthropic, l’AI può comprimere progetti di modernizzazione da anni a trimestri, modificando l’equilibrio economico di un mercato finora dominato dalla consulenza tradizionale.

[embedded content]

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/anthropic-accusa-la-cina-e-deepseek-sfruttano-claude-per-addestrare-la-loro-ai/566369/




AI, la retromarcia dei Democratici per le presidenziali USA 2028

AI, energia e consenso: perché i democratici frenano sui data center in vista delle presidenziali 2028

Per anni, negli Stati Uniti, sostenere lo sviluppo dell’intelligenza artificiale (AI) è stato politicamente conveniente. I data center promettevano investimenti miliardari, nuovi posti di lavoro, consenso dei sindacati dell’edilizia e un chiaro messaggio geopolitico: battere la Cina nella corsa tecnologica. Oggi, però, qualcosa sta cambiando. E il cambiamento è visibile soprattutto nel Partito Democratico.

In vista delle presidenziali del 2028, si legge su Axios, diversi potenziali candidati democratici stanno rivedendo le proprie posizioni sui data center e sugli incentivi pubblici all’AI. Il motivo è semplice: l’impatto economico, energetico e ambientale di questa infrastruttura sta diventando un problema politico, almeno gestita in questo modo. E gli elettori iniziano a far sentire la propria voce.

Dall’entusiasmo democratico ai primi stop all’AI

Solo pochi mesi fa, governatori come JB Pritzker (Illinois), Josh Shapiro (Pennsylvania) e Wes Moore (Maryland) erano tra i più attivi nel corteggiare gli operatori dei data center, offrendo generosi incentivi fiscali e semplificazioni normative.

In Illinois, Pritzker aveva già firmato nel 2019 una legge che concedeva importanti agevolazioni fiscali ai data center. Con l’esplosione dell’AI dopo l’arrivo di ChatGPT, Chicago è diventata uno dei principali hub statunitensi del settore. Nel frattempo, però, le bollette elettriche delle famiglie sono aumentate e una parte dell’opinione pubblica ha iniziato ad attribuire la responsabilità proprio ai centri dati, grandi consumatori di energia.

Nel suo recente discorso sullo Stato dello Stato, Pritzker ha annunciato una pausa: una moratoria di due anni sugli incentivi fiscali. Un segnale politico chiaro.

In Pennsylvania, Shapiro era arrivato a dichiarare che lo Stato era “all in on AI”, celebrando anche un investimento da 20 miliardi di dollari da parte di Amazon. Ma dopo le proteste di residenti contrari alla costruzione di data center nelle proprie comunità, il governatore ha cambiato tono.

Durante il suo discorso di bilancio ha riconosciuto: “So che i cittadini della Pennsylvania hanno reali preoccupazioni su questi data center… e anch’io le condivido.”

Ai giornalisti ha poi precisato che non si tratta di una “vera inversione di rotta”, ma di una formalizzazione di condizioni più stringenti per le aziende. Anche Wes Moore, in Maryland, dopo aver facilitato l’arrivo dei data center e aver rimosso ostacoli normativi nel 2024, ha annunciato nuove linee guida per ottenere il suo sostegno politico.

L’ansia collettiva verso l’AI negli USA e il nodo energia, acqua e lavoro

Alla base della frenata democratica c’è una crescente ansia collettiva verso l’AI. Come ha osservato Rob Flaherty, già vice campaign manager di Kamala Harris nel 2024: “Siamo solo all’inizio dell’ansia che le persone provano verso l’intelligenza artificiale. I data center sono solo una delle manifestazioni di questa paura, ma una manifestazione seria”.

Il punto è che l’AI non è solo un software invisibile: è un’infrastruttura fisica, energivora e idrovora. I data center consumano enormi quantità di elettricità per l’elaborazione e per il raffreddamento dei server. In alcune aree, questo ha contribuito a un aumento della domanda energetica e, indirettamente, delle bollette. A ciò si aggiunge l’impatto sulle risorse idriche e sull’ambiente.

Per molti cittadini, il saldo è negativo: costi pubblici e ambientali immediati, benefici economici percepiti come concentrati nelle grandi aziende tecnologiche.

C’è poi il tema occupazionale. L’AI promette efficienza e automazione, ma alimenta il timore di una “sostituzione di massa” dei lavoratori. Il deputato californiano Ro Khanna ha parlato della necessità di: “vere tutele contro una sostituzione di massa dei lavoratori”.

Anche Pete Buttigieg, ex segretario ai Trasporti, ha evocato in New Hampshire la necessità di “un nuovo contratto sociale” per governare l’ascesa dell’AI.

Il nuovo playbook democratico

Il modello che sembra emergere nel campo democratico è quello delineato dal governatore del Kentucky Andy Beshear, anch’egli potenziale candidato nel 2028. In un’intervista ha sintetizzato così le sue condizioni per gli sviluppatori di data center: “Pagate il 100% dell’energia che consumate, pagate la vostra giusta quota di tasse e siate accettati dalla comunità locale”.

Il senatore del Vermont e leader carismatico della sinistra democratica, Bernie Sanders, ha scritto su X della necessità di una “moratoria sulla costruzione di data center che alimentano la corsa non regolamentata allo sviluppo e all’implementazione dell’intelligenza artificiale“.

L’altra grande rappresentante dell’ala sinistra del Partito Democratico, la deputata di New York Alexandria Ocasio-Cortez, durante un’udienza al Congresso, ha sostenuto che “ci sono reali conseguenze per la salute pubblica a causa del continuo fallimento della regolamentazione o dell’azione del Congresso nel settore dell’intelligenza artificiale“.

Una questione bipartisan

Interessante notare che lo scetticismo non è più solo democratico. Se l’amministrazione Trump continua a sostenere la necessità di abbracciare l’AI per mantenere il vantaggio competitivo sulla Cina, alcuni governatori repubblicani mostrano cautela.

Ron DeSantis, in Florida, si è schierato con le comunità locali contro alcuni progetti di data center, affermando: “Non facciamo finta che qualche video o canzone falsa ci porterà verso una sorta di utopia”.

Anche il governatore dello Utah, Spencer Cox, ha definito “assurdo” il tentativo dell’amministrazione di limitare la capacità degli Stati di regolamentare l’AI.

Le prospettive politiche dell’AI “di sinistra”

All’interno del Partito Democratico stanno emergendo due linee di pensiero sempre più nette.
La prima sostiene che gli Stati Uniti debbano abbracciare con decisione l’intelligenza artificiale per non perdere terreno nella competizione con la Cina e per intercettare i posti di lavoro generati dai grandi investimenti nei data center.
È una posizione che, con accenti diversi, richiama quella dell’amministrazione Trump, anche se molti democratici criticano la Casa Bianca per aver lasciato troppa libertà alle big tech.

La seconda linea invita, invece, alla prudenza: rallentare la corsa, introdurre regole più stringenti e valutare con attenzione l’impatto sociale ed economico dell’AI. Al centro ci sono il rischio di sostituzione di milioni di lavoratori e l’enorme consumo di energia e risorse naturali richiesto dai nuovi data center.

Il confronto tra queste due visioni potrebbe definire non solo la strategia democratica per il 2028, ma anche il futuro equilibrio tra innovazione tecnologica, sostenibilità e tutela sociale negli Stati Uniti.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-la-retromarcia-dei-democratici-per-le-presidenziali-usa-2028/566367/