“Contro Anthropic un caso di ritorsione”, la sentenza di un giudice federale nel caso Amodei-Trump

Orwelliano” e privo di fondamento il tentativo del Pentagono di mettere al bando Anthropic, la sentenza di San Francisco

Gli Stati Uniti dimostrano sempre di essere un grande Paese, sento dire da più parti. Ci sono numerosi motivi per non crederci fino in fondo, basta seguire l’attualità, ma certo non possiamo dire che non sorprendono a volte. Un giudice federale della California ha sospeso le sanzioni imposte dall’amministrazione Trump ad Anthropic, affermando che i provvedimenti governativi probabilmente erano illegali, in quanto avevano inserito la società proprietaria del chatbot di AI Claude nella lista nera solo per aver espresso preoccupazione per l’utilizzo della sua tecnologia da parte del Pentagono.

Nessuna disposizione di legge in materia avvalora l’idea orwelliana che un’azienda americana possa essere etichettata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso dissenso nei confronti del governo”, ha scritto il giudice di San Francisco Rita F. Lin, nel provvedimento di 43 pagine in cui di fatto accoglieva la richiesta di Anthropic di un’ingiunzione preliminare nella sua causa contro il governo, congelando un ordine presidenziale che vietava a tutte le agenzie federali e in particolare al Dipartimento della Guerra di utilizzare la tecnologia di Anthropic.

La sentenza, infatti, sospende anche la designazione da parte del Pentagono di Anthropic come azienda a rischio per la catena di approvvigionamento della sicurezza nazionale, un’etichetta solitamente riservata alle organizzazioni provenienti da paesi stranieri ostili.

Siamo grati al tribunale per la rapidità con cui ha agito e siamo lieti che concordi sul fatto che Anthropic abbia buone probabilità di successo nel merito“, ha dichiarato un portavoce dell’azienda.

Trump ha violato il Primo emendamento, la sua è ritorsione

La corte ha quindi “temporaneamente” bloccato il bando imposto dall’amministrazione Trump, che impediva alle agenzie federali di utilizzare la tecnologia di Anthropic (inclusa l’AI Claude), evidenziando che tale misura sembra essere una ritorsione per le critiche pubbliche mosse dall’azienda e una palese violazione del diritto di libertà di espressione tutelato dal Primo Emendamento.

I documenti del tribunale indicano inoltre che la mossa era principalmente una risposta alla riluttanza dell’azienda a collaborare su specifici usi militari dell’AI, piuttosto che una reazione a minacce concrete di sabotaggio.

La sentenza non obbliga certo il Dipartimento della Guerra ad usare Claude o altre soluzioni AI di Anthropic, ma sospende l’etichetta di entità ostile per la supply chain, che è un giudizio pesantissimo per una società di questo livello.

Insomma, si è trattato di pura ritorsione da parte dell’amministrazione Trump con la società di Dario Amodei. Il giudice ha scritto nero su bianco che “queste misure sembrano concepite per punire Anthropic”.

Si sancisce che se il governo può scegliere di non utilizzare una determinata tecnologia, allo stesso tempo non può abusare dei propri poteri per penalizzare un’azienda statunitense solo per il suo dissenso.

Lo stesso CEO di Anthropic, Amodei, aveva definito la decisione di Trump “ritorsione e punizione” ingiustificata, mentre il rifiuto di dare seguito alle richieste del segretario del Dipartimento della Guerra, Pete Helseth, di rendere l’AI disponibile senza restrizioni per sorveglianza di massa e applicazioni di guerra, rientrano nel diritto di critica al proprio Governo.

Violato il Primo emendamento

Questo provvedimento cautelare preliminare affronta in modo approfondito alcune questioni classiche, ovvero garantire che non vi siano ritorsioni contro un’azienda o un individuo per aver esercitato i propri diritti sanciti dal Primo Emendamento, e assicurare che, quando vengono prese decisioni così importanti, potenzialmente in grado di paralizzare un’attività commerciale, vengano rispettate le procedure previste“, ha spiegato a npr.org Jennifer Huddleston, ricercatrice senior in politica tecnologica presso il Cato Institute, un think tank libertario.

Il Governo americano ha una settimana di tempo per impugnare la sentenza di San Francisco davanti alla Corte d’Appello del Ninth Circuit, una delle 12 corti d’appello federali statunitensi, posizionata subito sotto la Corte Suprema. È la più grande e geograficamente estesa tra le corti d’appello federali coprendo California, Arizona, Nevada, Oregon, Washington, Idaho, Montana, Alaska, Hawaii, e i territori di Guam e Isole Marianne Settentrionali.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/contro-anthropic-un-caso-di-ritorsione-la-sentenza-di-un-giudice-federale-nel-caso-amodei-trump/560692/




OpenAI, stop alla modalità erotica e taglio ai progetti secondari. Pesa la competitività con Anthropic

OpenAI mette in pausa, a tempo indeterminato, lo sviluppo di una modalità erotica per ChatGPT. La decisione, anticipata dal Financial Times, segna l’ennesimo passo indietro su un progetto che aveva già sollevato forti critiche sia all’esterno sia all’interno dell’azienda. L’idea di una “adult mode”, proposta dal CEO Sam Altman lo scorso ottobre, aveva infatti innescato un acceso dibattito, culminato a gennaio in un confronto teso tra dirigenti e consulenti. In quell’occasione, uno dei membri del board aveva avvertito del rischio di creare un sistema assimilabile a un “coach suicida sexy”, secondo quanto riportato dal Wall Street Journal.

Tra polemiche e rinvii, la funzionalità non ha mai visto la luce e oggi non esiste alcuna timeline per un eventuale rilascio. Interpellata da TechCrunch, OpenAI ha scelto di non aggiungere ulteriori commenti, confermando di fatto lo stop.

La scelta si inserisce in una più ampia revisione strategica. Negli ultimi giorni, l’azienda ha progressivamente abbandonato o ridimensionato diversi progetti considerati non prioritari. Tra questi, Instant Checkout, pensato per trasformare ChatGPT in un hub di acquisti online, e Sora, il generatore video basato su AI, criticato per aver contribuito alla diffusione massiva di contenuti di scarsa qualità.

Dietro queste decisioni c’è un cambio di passo preciso: concentrare risorse e sviluppo su due direttrici principali, il mercato enterprise e gli strumenti per sviluppatori. Una linea già emersa nelle scorse settimane, quando il Wall Street Journal aveva parlato di una “importante svolta strategica” per eliminare distrazioni e rafforzare il core business.

Anthropic preoccupa OpenAI

Il tempismo non è casuale. OpenAI si trova oggi a fronteggiare una crescente pressione competitiva, in particolare da parte di Anthropic, che negli ultimi mesi ha accelerato sul rilascio di soluzioni per coding e applicazioni aziendali, guadagnando terreno tra i clienti.

La competizione si estende anche sul piano istituzionale. Le due aziende si sono confrontate apertamente sui contratti con il Pentagono, con OpenAI che ha recentemente annunciato un accordo da 200 milioni di dollari con il Dipartimento della Difesa. Anthropic, al contrario, è attualmente coinvolta in una disputa legale con l’agenzia.

Nel complesso, il segnale è chiaro: l’AI si sta progressivamente allontanando da sperimentazioni più controverse o orientate all’intrattenimento, per convergere verso applicazioni ad alto valore economico e strategico. 

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/openai-stop-alla-modalita-erotica-e-taglio-ai-progetti-secondari-pesa-la-competitivita-con-anthropic%ef%bf%bc/560672/




AI, Trump impone nuovi standard a Congresso e singoli Stati. Un favore alle Big Tech?

La nuova proposta di quadro normativo per lo sviluppo dell’AI negli USA

Un’America AI-ready passa per poche ma semplici regole, che garantiscano sempre un’innovazione tecnologica veloce e competitiva. La Casa Bianca la vede così: per vincere la guerra delle nuove tecnologie e affermare la supremazia degli Stati Uniti bisogna lasciar fare alle grandi aziende tecnologiche, le Big Tech, cercando, allo stesso tempo, di garantire le tutele minime ai cittadini e in particolare ai soggetti più fragili.

Oggi il Presidente degli Stati Uniti, Donald Trump, ha reso pubblico sul sito della White House un documento quadroper promuovere e favorire una politica nazionale unica sull’intelligenza artificiale (AI) che sia propedeutica ad una nuova era di prosperità, crescita e sicurezza nazionale e del popolo americano”.

Un nuovo standard normativo che consenta all’industria e alle amministrazioni locali di “superare incertezze e criticità”, quindi minacce e problematiche di ogni genere, legate a questa “tecnologica rivoluzionaria, che è destinata non solo a rimanere, ma a favorire il benessere dei propri cari e l’affermarsi di una economica prospera”.

Inizia così il documento presentato dal Presidente degli Stati Uniti in cui sono esposti i sei obiettivi chiave della sua amministrazione su questo tema strategico: proteggere i bambini e responsabilizzare i genitori; tutela e rafforzamento delle comunità americane; rispetto dei diritti di proprietà intellettuale e sostegno ai creatori; prevenire la censura e proteggere la libertà di parola; promuovere l’innovazione e garantire il primato americano nell’AI; formazione dei cittadini americani e sviluppo di una forza lavoro pronta per l’AI.

Trump impone la sua visione tecnologica al Congresso e ai singoli Stati americani

La nuova proposta di quadro normativo è rivolta direttamente al Congresso, con cui l’amministrazione Trump “non vede l’ora di collaborare nei prossimi mesi”, si legge nel comunicato che accompagna la pubblicazione, “per trasformare questo quadro normativo in una legge”, che il Presidente sarà felice di firmare.

Come spiegato da Cheyenne Haslett e Gabby Miller su Politico, il documento esorta il Congresso ad annullare tutte le leggi sull’intelligenza artificiale adottate dai singoli Stati americani, perché secondo la Casa Bianca “impongono oneri eccessivi” e “minano la capacità del Paese di innovare e di essere leader nella corsa globale all’AI”.

L’amministrazione Trump lavora da circa un anno per affermare la superiorità normativa della legge federale su quelle statali in materia di intelligenza artificiale. Lo sta facendo sia attraverso il Congresso, sia con decreti esecutivi, sostenendo che la frammentazione normativa rappresenti un freno all’innovazione nel settore.

Il quadro proposto invita esplicitamente il Congresso a prevalere su eventuali leggi statali che regolino lo sviluppo dei modelli o che penalizzino le aziende per l’uso che terzi fanno delle loro tecnologie di AI. Allo stesso tempo, sollecita i legislatori a non istituire nuove agenzie federali dedicate alla regolamentazione dell’intelligenza artificiale.

Dalla tutela dei minori alla protezione del copyright, fino alla libertà di parola

I sei punti chiave sono brevemente illustrati nel comunicato di presentazione della nuova proposta di quadro regolatorio federale dell’AI e abbracciano diversi argomenti molto sensibili, sia dal punto di vista etico e morale, sia regolatorio e dei diritti di proprietà.

Trump mette al primo posto le famiglie e i minori, che in quanto soggetti fragili devono essere tutelati dai rischi di esposizione prolungata e senza regole chiare a tecnologie potenti come l’AI: “i genitori sono i più indicati per gestire l’ambiente digitale e l’educazione dei propri figli”, ma per far questo il Congresso deve fornire “strumenti efficaci per farlo, come ad esempio i controlli degli account per proteggere la privacy dei figli e gestire il loro utilizzo dei dispositivi”.

Alle aziende tecnologiche il compito di “implementare funzionalità per ridurre il rischio di sfruttamento sessuale dei bambini o di incitamento all’autolesionismo”.

Sempre per favorire un rapporto più sicuro e meno diffidente delle famiglie con l’AI, l’amministrazione Trump farà in modo che “i contribuenti non debbano farsi carico dei costi dei data center” e quindi non debbano subire eventuali ricadute dei prezzi dell’energia in bolletta, per questo chiede al Congresso di “semplificare le procedure di autorizzazione affinché i data center possano generare energia in loco, migliorando l’affidabilità della rete elettrica”.

Sulla tutela del copyright la disposizione normativa è piuttosto vaga, perché se da un lato dice che “le opere creative e le identità uniche degli innovatori, dei creatori e degli editori americani devono essere rispettate”, dall’altro propone un approccio generico ed equilibrato in cui da una parte si da spazio alle necessità di addestramento dell’AI e dall’altro si assicura sostegno ai creatori e ai detentori dei diritti di proprietà intellettuale.

Contro la censura e a difesa del Primo emendamento, infine, la nuova proposta di quadro regolatorio impedirà “che i sistemi di intelligenza artificiale vengano utilizzati per mettere a tacere o censurare espressioni politiche o dissenso lecito”.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-trump-impone-nuovi-standard-a-congresso-e-singoli-stati-un-favore-alle-big-tech/569285/




HSBC, l’AI accelera i licenziamenti: 20mila posti a rischio

HSBC si prepara ad una rivoluzione strategica basata sull’adozione estensiva dell’AI, con un potenziale impatto significativo sull’occupazione.

Secondo stime preliminari, annunciate in anteprima da Bloomberg, la banca potrebbe arrivare a ridurre fino a circa 20mila posizioni, pari a quasi il 10% della forza lavoro complessiva. Si tratta, al momento, di uno scenario ancora in fase iniziale, senza decisioni definitive, ma che si inserisce in una più ampia strategia di trasformazione già avviata.

Una ristrutturazione già in corso

Il progetto si colloca nel percorso di riorganizzazione guidato dal CEO Georges Elhedery, che dal 2024 ha avviato una serie di interventi mirati a rafforzare la competitività del gruppo. Tagli dei costi, cessioni di asset e razionalizzazione delle attività rappresentano i pilastri di questa strategia, che ora trova nell’AI un ulteriore acceleratore. L’obiettivo è rendere la banca più snella, efficiente e focalizzata sui segmenti a maggiore valore.

Il settore maggiormente esposto? Il Back office

Le aree più esposte sono quelle non direttamente a contatto con la clientela, in particolare i centri di servizi globali. Qui l’automazione può sostituire attività ripetitive e standardizzate, tipiche del back office. L’intelligenza artificiale consente infatti di gestire processi operativi con maggiore velocità e minori margini di errore, riducendo la necessità di intervento umano.

Riduzioni anche senza licenziamenti diretti

Oltre agli eventuali tagli, HSBC sta valutando strategie meno impattanti sul piano sociale, come il mancato rimpiazzo del personale in uscita. A questo si aggiungono possibili dismissioni di rami d’azienda, che contribuirebbero a ridurre ulteriormente l’organico. L’AI, in questo contesto, non è solo uno strumento di riduzione dei costi, ma anche un fattore di incremento della produttività.

Le applicazioni già considerate strategiche riguardano ambiti come l’assistenza clienti, la verifica delle identità e il monitoraggio delle transazioni. In queste aree, l’automazione può migliorare l’efficienza operativa e rafforzare i sistemi di controllo, con benefici sia per la banca sia per gli utenti.

La direzione intrapresa da HSBC riflette una trasformazione più ampia dell’industria bancaria. Secondo Bloomberg Intelligence, fino a 200mila ruoli potrebbero essere eliminati nei prossimi anni a causa dell’automazione. L’adozione dell’AI sta quindi ridisegnando in profondità il settore, incidendo non solo sui costi ma anche sui modelli organizzativi.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/hsbc-lai-accelera-i-licenziamenti-20mila-posti-a-rischio/569145/




L’Italia nell’era dell’AI. Butti e Floridi propongono l’idea dello “Stato agentico”, l’AI deve essere governata

Presentato alla Camera dei Deputati il Rapporto “L’Italia nell’era dell’IA. Crescita, sfide e prospettive di una rivoluzione in corso”, sullo sviluppo dell’intelligenza artificiale nel nostro Paese, curato dal Presidente di Fondazione Leonardo ETS, Luciano Floridi, e da Micaela Lovecchio, Education e Formazione nelle Scuole della Fondazione Leonardo ETS.

Un documento che analizza l’ecosistema nazionale e formula diciotto raccomandazioni operative. L’analisi rileva, inoltre, punti di forza, due supercomputer tra i primi cinque in Europa, la prima legge sull’intelligenza artificiale nell’UE, accanto a diverse fragilità: dipendenza dall’hardware estero, fuga dei talenti e bassa adozione di intelligenza artificiale nelle PMI.

Da sinistra, Anna Ascani, vicepresidente Camera dei Deputati, Alessio Butti, Sottosegretario di Stato con delega all’innovazione tecnologica, Luciano Floridi, Presidente della Fondazione Leonardo Ets, Rita Cucchiara, Rettrice Università degli Studi di Modena e Reggio Emilia, Micaela Lovecchio, Fondazione Leonardo Ets.

Il Parlamento italiano è stato tra i pionieri in Europa nell’utilizzo, a livello istituzionale, di soluzioni di intelligenza artificiale (AI). Come ha ricordato nei saluti iniziali la vicepresidente della Camera, Anna Ascani, pochi mesi fa sono stati presentati i primi prototipi basati sull’AI generativa sviluppati a seguito della manifestazione d’interesse promossa dal Comitato di vigilanza sull’attività di documentazione, presieduto dalla stessa Ascani. Un’iniziativa, avviata nel febbraio 2024, che mirava a valorizzare l’uso dell’IA come strumento innovativo a supporto dei lavori parlamentari, della trasparenza istituzionale e del dialogo con i cittadini. I prototipi selezionati sono stati valutati sotto il profilo funzionale, architetturale e di sicurezza da focus group tecnico-scientifici.

La democrazia – ha dichiarato la Vicepresidente della Camera – si trova a confrontarsi con nuovi sviluppi tecnologici che sono anche nuovi meccanismi di potere, e non può farlo restando ferma. Occorre farsi promotori di un cambiamento che sfrutti le potenzialità delle nuove tecnologie, le indirizzi verso un approccio umano-centrico, per favorire la trasparenza, la tracciabilità e la loro inclusione nei processi democratici”.

Butti: “Uno Stato agentico che usa l’AI per adeguarsi in anticipo rispetto alle esigenze del cittadino

Il punto su quanto è stato fatto dal Governo e su quanto si sta facendo oggi lo ha illustrato Alessio Butti, Sottosegretario alla Presidenza del Consiglio con delega all’Innovazione: “Lo stato dell’intelligenza artificiale in Italia nel 2026 lo possiamo raccontare attraverso tre direttrici: il tasso di adozione dell’intelligenza artificiale, che ovviamente è il metodo con cui rapidamente coinvolge e avvolge il mondo dell’impresa come il mondo della pubblica amministrazione; la coerenza tra lo sviluppo e la sperimentazione, che è un po’ la sintesi che noi stiamo cercando di mettere a terra anche con provvedimenti legislativi, che riguarda la ricerca, i casi d’uso, la competenza, i dati, le regole, non solo ovviamente italiane; la scalabilità, che è probabilmente il passaggio più impegnativo perché descrive il passaggio di progetti pilota delle pubbliche amministrazioni e servizi pubblici che poi integrano l’intelligenza artificiale in modo stabile, riusabile e adattabile alle variegate esigenze del territorio”.

Da sinistra, Luciano Floridi, Presidente della Fondazione Leonardo Ets, e Alessio Butti, Sottosegretario di Stato con delega all’innovazione tecnologica

Negli ultimi due anni è stata registrata un’accelerazione nell’adozione dell’intelligenza artificiale da parte delle imprese. Questo si accompagna a un divario strutturale che vede le grandi imprese che cominciano ad adottare in modo molto serio l’intelligenza artificiale, mentre le imprese che arrivano a 10 dipendenti, o che superano di poco i 10 dipendenti, raggiungono al massimo il 16% di adozione. A livello italiano siamo all’8,2%. L’obiettivo è raggiungere quanto prima la percentuale europea che è al 13,5%. Come stiamo recuperando terreno? Innanzitutto abbiamo una strategia che ho citato poco fa, che è una strategia dell’intelligenza artificiale 24-26, che poi ha consentito anche l’approvazione di una legge dopo un ampio dibattito parlamentare. Una legge che rivolge grande attenzione al mondo della piccola e media impresa”.

Nel piano triennale della informatica per la pubblica amministrazione 24-26, che è stato aggiornato nel 2025, noi abbiamo raggiunto 150 progetti di intelligenza artificiale nella pubblica amministrazione. C’è di più, perché puntiamo ad almeno 400 in questo 2026”.

Parlando poi del progetto Regioni per l’Intelligenza Artificiale (Reg4IA), la rete di conoscenza e innovazione che unisce Governo, Regioni e Province autonome per potenziare con l’intelligenza artificiale i servizi pubblici, Butti ha spiegato un punto di vista molto particolare di Stato agentico: “uno Stato che usa l’intelligenza artificiale per adeguarsi in anticipo, possibilmente, rispetto alle esigenze del cittadino e non siamo affatto lontani, lo stiamo già attuando con pubbliche amministrazioni molto impegnate su questo tema”.

L’iniziativa Reg4AI presentata a Genova, che nasce dalla collaborazione tra il Dipartimento per la trasformazione digitale e le Regioni Liguria, Lombardia, Puglia e Toscana, alla guida di quattro partenariati impegnati su ambiti strategici come salute e turismo, ambiente e mobilità sostenibile, pubblica amministrazione e sicurezza del territorio, ha precisato Butti “rappresenta un modello di regia istituzionale che, grazie alla partecipazione di tutte le Regioni e Province autonome d’Italia, guiderà sperimentazioni territoriali con l’obiettivo di favorirne il riuso e alla replicabilità su scala nazionale, a vantaggio di cittadini e imprese”.

Per gestire la sfida della scalabilità, mettiamo insieme governance, filiere della conoscenza e la collaborazione tra Governo centrale e territori. Sulla governance, discutibile o meno, noi abbiamo ancorato alla Presidenza del Consiglio il controllo, la verifica, il coordinamento e il monitoraggio di tutto quello che accade sull’intelligenza artificiale. L’obiettivo – ha precisato Butti – è creare la catena del valore dell’intelligenza artificiale”.

Dobbiamo costruire forme di cooperazione internazionale per sviluppare infrastrutture di calcolo condivise, ad esempio creando un laboratorio europeo pubblico privato all’avanguardia dedicato alla formazione di una famiglia di modelli di base open source e alla loro messa a disposizione gratuita come infrastruttura di utilità pubblica”, ha affermato Butti.

Floridi (Fondazione Leonardo ETS): “Ci vorrebbe un open source made in Eu

C’è stato tanto lavoro dietro questo rapporto in termini di ricerca, confronti, approfondimenti. E alla fine il risultato è quello che avete tra le mani: un prodotto curato, pulito, apparentemente lineare. Uno dei temi che è emerso è quello, molto semplice, che “l’unione fa la forza”. È una banalità, ma in Italia facciamo spesso fatica a metterla in pratica. Storicamente non siamo bravissimi a lavorare insieme: ci dividiamo, competiamo, ci scontriamo, a volte anche su piccole cose. E così finisce che qualcun altro ci mette insieme… e lo fa secondo le proprie regole. Prendendo spunto dall’intervento dell’On. Butti, riprendo il concetto dello Stato agentico, una bella idea, perché sposta l’attenzione dall’intelligenza in sé all’azione: sistemi che fanno cose, che hanno un impatto concreto. Ma proprio per questo sono sistemi che devono essere guidati, governati. Non sono entità autonome che agiscono da sole senza conseguenze.
E qui entra in gioco subito il tema della governance, della bioetica, delle scelte: cosa si fa con queste tecnologie, quando e come. Su questo, va detto, siamo su una buona strada. E permettetemi di dirlo chiaramente: questa narrazione per cui l’Italia sarebbe sempre e comunque in ritardo, sempre fanalino di coda, è parziale. Restiamo uno dei Paesi più rilevanti al mondo, e questo comporta anche una responsabilità. Perché la verità è semplice: se qualcosa non accade, è perché qualcuno non l’ha fatta accadere. Se un progetto non si sviluppa, è perché non è stato considerato una priorità. Non possiamo sempre scaricare la responsabilità su fattori esterni o su un generico sistema
”, ha affermato nel suo intervento conclusivo Luciano Floridi, presidente della Fondazione Leonardo ETS.

Questo diventa ancora più evidente quando parliamo di infrastrutture. Se davvero pensiamo che l’intelligenza artificiale sia una tecnologia che incide sulla democrazia, non possiamo lasciare tutto nelle mani del mercato. Sarebbe come dire: speriamo che chi controlla queste tecnologie sia “bravo”. Ma se non lo fosse? Non possiamo basarci sulla speranza. Serve quindi un equilibrio: un certo grado di sovranità e di controllo è fondamentale. Possiamo semplificare tutto questo immaginando un tavolo a quattro gambe. La prima gamba sono i dati: su questo abbiamo già strumenti importanti, come il GDPR e l’AI Act, quindi una base solida c’è. La seconda gamba è il software, cioè gli algoritmi, i modelli, i sistemi di AI. Qui il controllo è molto più debole: gli “ingredienti” li abbiamo, ma la “cucina” spesso no. La terza gamba è l’infrastruttura: dove vivono questi sistemi? I data center, i chip, le reti. Anche qui c’è ancora molto da fare, soprattutto a livello europeo. La quarta gamba è quella normativa, che invece è uno dei nostri punti di forza.
Il problema è che questo tavolo oggi non è perfettamente stabile. E su questo tavolo stiamo appoggiando pezzi fondamentali della nostra società, della nostra economia, della nostra democrazia. La domanda
è – ha precisato Floridi – che tipo di tavolo vogliamo lasciare a chi verrà dopo di noi? Uno solido o uno traballante? Il rapporto prova a dare un contributo in questa direzione: non è una critica sterile, ma un tentativo di indicare cosa funziona e cosa può essere migliorato”.

Immaginate la situazione italiana come un tramezzino: abbiamo due ottime fette di pane — da un lato la capacità di calcolo e dall’altro la normativa. Ma in mezzo, dove dovrebbe esserci la sostanza, spesso c’è poco: manca ancora un forte sviluppo industriale, applicativo, infrastrutturale. Eppure proprio lì c’è un’enorme opportunità. Per esempio: perché un Paese dovrebbe spendere enormi risorse per acquistare soluzioni proprietarie, quando potrebbe adottare — o contribuire a creare, ha precisato Floridi — soluzioni open source di qualità? Certo, oggi l’open source è spesso associato ad altri modelli, ad altri Paesi, con tutte le incognite del caso su dati, governance ed etica. Ma perché non immaginare un open source europeo, costruito dentro il quadro dell’AI Act e del GDPR, con standard chiari e garantiti? Un ecosistema aperto, affidabile, certificato — un “bollino europeo” — che possa essere utilizzato non solo da noi, ma anche da Paesi come Canada, Giappone, Corea del Sud, Brasile, Sudafrica e molti altri”.

Lovecchio (Fondazione Leonardo ETS): “L’AI non è stata solo oggetto di indagine, ma anche strumento

L’Italia è al 18esimo posto nell’Unione europea per adozione dell’intelligenza artificiale, con un mercato di oltre 1,2 miliardi di euro, che potrebbe raggiungere i 5 miliardi entro il 2030. Con due supercomputer tra i primi cinque in Europa, la prima legge nazionale sull’AI nell’Ue e imprese di eccellenza che operano su scala globale, il Paese dispone di asset strategici significativi, ma presenta tre criticità: la dipendenza tecnologica dall’estero per l’hardware, il divario salariale del 40-50% rispetto alla Germania e al Regno Unito, che alimenta la fuga di talenti, e il divario di adozione tra le grandi imprese (53,1%) e le Pmi (15,7%). 

Secondo il Rapporto, l’Italia deve costruire le condizioni per poter trasformare l’intelligenza artificiale da minaccia competitiva a opportunità di rilancio industriale. I settori con il maggiore potenziale sono l’analisi testuale e i sistemi conversazionali (32% del mercato, +86% annuo), le applicazioni industriali e la manifattura 4.0, la convergenza IA-Life Sciences e i servizi per la pubblica amministrazione.

La ricerca è stata costruita come una stratificazione di narrazioni, che ci ha costretto, di volta in volta, ad adottare prospettive diverse per mettere a fuoco obiettivi differenti. Questo approccio ha portato a una raccolta di materiali molto ampia: dalle iniziali 130 pagine siamo arrivati a oltre 500. Un numero certamente elevato, forse eccessivo, ma necessario, perché rappresenta la base su cui si fonda l’intero rapporto.
L’intelligenza artificiale non è stata soltanto oggetto di indagine, ma anche uno strumento fondamentale che ci ha permesso di accelerare la fase di raccolta delle informazioni. Tuttavia, la ricerca non è stata semplice: la difficoltà si è spostata su un piano più alto, quello del mantenimento del rigore scientifico e della validazione delle fonti. Per questo motivo, è importante chiarire il metodo adottato e la suddivisione delle categorie analizzate: aziende, centri di ricerca, pubblica amministrazione e startup
”, ha spiegato Micaela Lovecchio, Education e Formazione nelle Scuole della Fondazione Leonardo ETS.

Per quanto riguarda le aziende, ci siamo concentrati su quelle che investono lungo l’intera catena del valore dell’intelligenza artificiale, in particolare in ricerca e sviluppo e nella realizzazione di soluzioni proprietarie.
Nei centri di ricerca, l’attenzione si è focalizzata sulle realtà più avanzate, capaci di spingere l’innovazione oltre i confini attuali: laboratori che oggi producono conoscenza apparentemente astratta, ma destinata a diventare concreta nel medio-lungo periodo, e che formano i talenti dell’intero ecosistema.
Per la pubblica amministrazione
– ha precisato Lovecchio – il focus è stato sulle soluzioni in grado di migliorare la vita dei cittadini, riducendo la distanza tra istituzioni e comunità, con particolare attenzione al tema dell’etica degli algoritmi.
Infine, per le startup, abbiamo valutato non solo l’originalità delle idee, ma anche la loro scalabilità sul mercato e i tempi di realizzazione
”.

Sono tre le “priorità legislative immediate” segnalate dai ricercatori ai decisori politici: “emanare i decreti attuativi della Legge 132/2025 per garantire certezza del diritto”, “rendere operativo il fondo da un miliardo di euro definendo i criteri di allocazione per AI, quantum computing e cybersecurity”, infine potenziare il regime degli impatriati estendendolo da 5 a 10 anni per profili AI”, in modo da competere con incentivi tedeschi e britannici.

Le raccomandazioni del Rapporto richiedono inoltre risorse incrementali stimate tra 800 milioni e 1,2 miliardi di euro nel triennio 2026-2028, di cui circa 500 milioni per il fondo Venture Capital dedicato all’AI, 150 milioni per incentivi fiscali al rientro dei talenti, 100 milioni per il potenziamento degli uffici di trasferimento tecnologico universitari e la quota rimanente per formazione, infrastrutture dati e coordinamento.

Alessio Butti, Sottosegretario di Stato con delega all’innovazione tecnologica, Luciano Floridi, Presidente della Fondazione Leonardo Ets, Rita Cucchiara, Rettrice Università degli Studi di Modena e Reggio Emilia, Micaela Lovecchio, Fondazione Leonardo Ets

Ubertini (CINECA): “Europea la più grande rete pubblica federata di supercalcolo al mondo

Fin dalle prime pagine del rapporto, il tema delle infrastrutture di supercalcolo, cioè dei “motori” che rendono possibili queste tecnologie, emerge come uno dei principali punti di forza del nostro Paese. Si tratta di un risultato che affonda le radici in un percorso iniziato alla fine degli anni Sessanta e che, negli ultimi anni, è stato ulteriormente rafforzato grazie al sostegno dell’Unione Europea.
Un esempio emblematico è il supercalcolatore Leonardo, operativo da novembre 2022: una macchina tra le più potenti al mondo, finanziata congiuntamente dall’Europa e dall’Italia. Accanto a Leonardo, il rapporto cita anche il supercalcolatore di Eni, anch’esso ai vertici globali e il più potente al mondo gestito da un’impresa non strettamente tecnologica. Questi risultati non sono casuali, ma il frutto di investimenti e competenze sviluppati nel corso di oltre trent’anni
”, ha dichiarato Francesco Ubertini, presidente del CINECA e professore dell’Università di Bologna.

Nel complesso, l’Italia si colloca tra le principali potenze mondiali per capacità computazionale. A livello europeo, inoltre, è stata costruita negli ultimi anni un’infrastruttura federata di supercalcolo che rappresenta oggi la più grande rete pubblica di questo tipo al mondo.
Queste infrastrutture sono fondamentali per la ricerca e l’innovazione: vengono utilizzate per sviluppare e addestrare modelli, ovvero per tutte le fasi che precedono l’impiego concreto delle tecnologie. Per esempio, sistemi come ChatGPT nascono su infrastrutture di ricerca di questo tipo, mentre il loro utilizzo quotidiano avviene su infrastrutture diverse, dedicate alla produzione
”, ha aggiunto Ubertini.

Una delle raccomandazioni del rapporto è quindi quella di mantenere questa posizione di leadership anche nei prossimi anni. In questo senso, arrivano segnali positivi: dopo l’inaugurazione di Leonardo, gli investimenti non si sono fermati. Il governo italiano, insieme all’Europa, ha continuato a rafforzare queste infrastrutture e i risultati saranno visibili già nel corso di quest’anno. Per dare un ordine di grandezza – ha sottolineato Ubertini – Leonardo ha comportato un investimento complessivo di circa 250 milioni di euro, mentre dal 2022 a oggi sono stati stanziati ulteriori 750 milioni. Un impegno complessivo che porta a circa un miliardo di euro e che consente di guardare con fiducia al prossimo ciclo tecnologico”.

Cucchiara (Università di Modena e Reggio Emilia): “Dalla ricerca di base arrivano le applicazioni più concrete per il mercato

Il sistema produttivo italiano è vero che è in crescita, ma resta fortemente disomogeneo, soprattutto nel divario tra piccole e medie imprese, che rappresentano la maggioranza, e grandi aziende. Nella mia esperienza, ad esempio in Emilia-Romagna, si osserva come alcune realtà, in particolare nei settori digitale e finanziario, utilizzino già in modo diffuso strumenti di intelligenza artificiale, mentre molte imprese manifatturiere sono ancora in una fase iniziale, pur iniziando a esplorare ambiti come l’analisi predittiva, il continuous learning e i modelli federati. La crescita c’è, ma è ancora insufficiente: serve un impegno più forte per incentivare gli investimenti e diffondere la consapevolezza dell’importanza strategica di queste tecnologie. A questo si collega un secondo tema cruciale: il brain drain.
Nonostante gli importanti investimenti nella formazione, in particolare nelle università pubbliche, l’Italia continua a perdere una quota significativa dei suoi giovani più qualificati. I dati Istat mostrano che nel 2023 circa 192.000 italiani tra i 25 e i 34 anni sono emigrati, a fronte di 73.000 rientri, con una perdita netta di 119.000 giovani. Di questi, ben 58.000 possiedono un’istruzione terziaria o un dottorato. Considerando inoltre che l’Italia è tra i Paesi europei con il minor numero di laureati, il rischio è quello di trovarsi, nel prossimo futuro, con una carenza di competenze qualificate
”, ha sostenuto Rita Cucchiara, rettrice dell’Università di Modena e Reggio Emilia.

Le cause sono certamente anche economiche, ma non solo: esiste un problema di riconoscimento del valore della ricerca. A livello internazionale, conferenze come CVPR e NeurIPS rappresentano tra i contesti più prestigiosi nel campo dell’intelligenza artificiale, ma questi risultati spesso non vengono adeguatamente valorizzati dal sistema industriale italiano, mentre all’estero costituiscono un canale diretto di accesso al lavoro qualificato.
Il terzo punto riguarda il ruolo della ricerca di base, come nel caso del partenariato esteso Future AI Research. Si tratta di un’esperienza che ha coinvolto gran parte delle università italiane, creando un ecosistema che include anche grandi imprese e che ha prodotto risultati scientifici rilevanti. Tuttavia
– ha sottolineato Cucchiara – proprio perché si tratta di ricerca fondamentale, spesso se ne sottovaluta l’importanza strategica. È invece essenziale comprendere che dalla ricerca di base derivano rapidamente applicazioni concrete in settori chiave come la moda, il turismo, la manifattura e la sanità. La forza dell’intelligenza artificiale sta proprio nella sua trasversalità: gli stessi modelli possono essere applicati a dati finanziari, satellitari, medici o testuali. Il passaggio dalla teoria alla pratica è quindi molto rapido, ma richiede che il Paese investa in modo equilibrato sia nella ricerca fondamentale sia nelle applicazioni”.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/litalia-nellera-dellai-butti-e-floridi-propongono-lidea-dello-stato-agentico-lai-deve-essere-governata/569080/




AI fraud supply chain: dalla carta rubata all’identità sintetica

La AI fraud supply chain non è una metafora. È un’infrastruttura operativa, documentata, con i suoi fornitori, i suoi processi e i suoi clienti. E funziona.

Quando parliamo di intelligenza artificiale applicata alla frode digitale, l’errore più comune – anche tra i professionisti della sicurezza informatica – è pensare in termini di singole operazioni potenziate. Un phishing più convincente qui, un deepfake più realistico là, un chatbot che inganna una vittima isolata. La realtà che emerge dai dati del 2025 racconta qualcosa di strutturalmente diverso: l’AI non migliora un anello della catena criminale. Li connette tutti, creando un ecosistema integrato che opera con la logica, la resilienza e la scalabilità di un’impresa tecnologica.

Il Threat Intelligence Report di Anthropic dell’agosto 2025 ha reso visibile questa architettura attraverso tre casi distinti ma profondamente interconnessi, che compongono – letti insieme – il mosaico completo di una catena di fornitura della frode alimentata dall’intelligenza artificiale. Un servizio di carding con resilienza multi-API degna di un’architettura enterprise. Un bot Telegram per romance scam con oltre 10.000 utenti mensili e targeting geografico su tre continenti. Un servizio operativo di identità sintetiche costruito interamente con assistenza AI.

Questo articolo ricostruisce ciascuno dei tre casi, ne analizza le interconnessioni e ne esplora le implicazioni per il settore finanziario, la verifica dell’identità e le strategie antifrode. Perché nella AI fraud supply chain, la carta rubata di ieri diventa il profilo sintetico di domani, e il romance scam di oggi prepara l’account fraudolento di domani.

La fraud supply chain AI-powered: una visione d’insieme

Per comprendere la portata di ciò che sta accadendo, è utile visualizzare la catena del valore della frode digitale come un processo industriale con fasi sequenziali.

Nel modello tradizionale, ogni fase richiedeva competenze specialistiche distinte e operatori dedicati. I carders validavano carte rubate con strumenti artigianali. I truffatori sentimentali investivano settimane in conversazioni manuali, limitati dalle proprie competenze linguistiche. I creatori di identità false dipendevano da documentazione contraffatta fisica, con tempi e costi elevati. Le barriere linguistiche, tecniche e operative frammentavano il mercato in nicchie scollegate.

L’AI ha dissolto queste barriere. Come sintetizza il report di Anthropic, i criminali informatici hanno integrato l’intelligenza artificiale in ogni fase delle loro operazioni, dalla profilazione delle vittime all’analisi dei dati rubati, dal furto di informazioni finanziarie alla creazione di identità false. Il risultato è un ecosistema in cui le operazioni di frode possono espandere la propria portata verso un numero significativamente maggiore di potenziali obiettivi.

I dati macroeconomici confermano questa trasformazione. Secondo il report Feedzai 2025, oltre il 50% delle frodi finanziarie coinvolge ormai l’uso di intelligenza artificiale. Il Sumsub Identity Fraud Report 2025-2026 registra un incremento del 180% anno su anno degli attacchi multi-step sofisticati, che oggi rappresentano il 28% di tutti i tentativi di frode identitaria, rispetto al 10% del 2024. Il World Economic Forum ha definito questa tendenza un punto di inflessione: meno attori coinvolti, ma operazioni più coordinate e tecnologicamente avanzate.

La AI fraud supply chain non è un concetto astratto. È un’architettura operativa che i tre casi documentati da Anthropic rendono tangibile.

Caso 1: il carding store AI-powered

L’architettura enterprise del furto di carte di credito

Il primo caso riguarda un attore di lingua spagnola che utilizzava Claude Code per mantenere e potenziare un servizio web invite-only specializzato nella validazione e rivendita di carte di credito rubate su larga scala.

Il dettaglio tecnico più significativo non è il furto in sé – il carding esiste da decenni – ma l’architettura software con cui il servizio è stato costruito. L’attore ha implementato un framework di resilienza multi-API che ruota tra tre servizi di validazione delle carte, i cosiddetti card checker. Quando un’API viene bloccata o rallentata, il sistema esegue automaticamente il failover verso la successiva, con meccanismi di scoperta dinamica delle API per individuare nuovi servizi di validazione quando quelli esistenti diventano indisponibili.

Le caratteristiche tecniche documentate da Anthropic meritano attenzione:

  • Failover automatizzato e API discovery dinamica. Il sistema non si limita a ruotare tra tre API preconfigurate. Include la capacità di scoprire automaticamente nuovi servizi di validazione, una funzionalità che conferisce al carding store una resilienza operativa tipicamente associata a piattaforme enterprise legittime.
  • Throttling intelligente. Per evitare la rilevazione da parte dei sistemi antifrode, il servizio implementa un rallentamento deliberato e intelligente delle richieste di validazione. Non si tratta di pause casuali: l’AI calibra i tempi di attesa in base al comportamento atteso dal servizio di validazione, mimetizzando le richieste fraudolente nel traffico legittimo.
  • Batch processing strategico con ritardi deliberati. Le carte rubate vengono processate in lotti, con ritardi intenzionali tra un batch e l’altro, per ridurre la probabilità che i pattern di validazione vengano identificati come anomali dai sistemi di monitoraggio delle transazioni.
  • Misure di sicurezza operativa di livello enterprise. L’infrastruttura include protezioni contro il reverse engineering e il rilevamento, implementate con tecniche che normalmente richiederebbero un team di sviluppatori specializzati.

Cosa cambia rispetto al carding tradizionale

Il carding-as-a-service non è una novità. I forum underground ospitano servizi di validazione delle carte da anni. Ciò che distingue questo caso è il livello di sofisticazione ingegneristica – e il fatto che sia stato raggiunto con l’assistenza dell’AI.

Tradizionalmente, costruire un’infrastruttura di carding resiliente richiedeva competenze in sviluppo web, integrazione API, sicurezza operativa e gestione dell’infrastruttura. L’attore documentato da Anthropic ha esternalizzato questa complessità tecnica a Claude Code, che ha funzionato simultaneamente come architetto software, sviluppatore backend e consulente di sicurezza operativa.

L’implicazione per le istituzioni finanziarie è diretta. Come sottolinea TransUnion nell’analisi del primo semestre 2025, i prestatori statunitensi hanno registrato un’esposizione di 3,3 miliardi di dollari a identità sintetiche sospette tra prestiti auto, carte di credito e prestiti personali. Quando i servizi di validazione delle carte operano con resilienza enterprise e throttling intelligente, i sistemi antifrode basati su regole statiche – soglie di velocità, pattern di geolocalizzazione, limiti di transazione – perdono efficacia. La frode si mimetizza nel rumore del traffico legittimo.

Il contesto tecnico è rilevante: la validazione fraudolenta delle carte avviene esclusivamente in modalità card-not-present (CNP), dove il tasso di frode è significativamente più elevato rispetto alle transazioni in presenza. I circuiti di pagamento hanno risposto con investimenti massicci in AI difensiva.

Visa ha implementato il VAAI Score (Visa Account Attack Intelligence), che utilizza componenti di AI generativa per identificare e classificare gli attacchi di enumerazione – ovvero le tecniche di forza bruta con cui gli attaccanti testano combinazioni di numeri di carta, date di scadenza e CVV – assegnando un punteggio di rischio in tempo reale in 20 millisecondi, analizzando fino a 182 attributi per transazione.

Mastercard ha sviluppato Decision Intelligence Pro, un sistema basato su reti neurali ricorrenti e AI generativa che processa oltre 143 miliardi di transazioni annuali in meno di 50 millisecondi, con miglioramenti del tasso di rilevazione fino al 300% in specifici contesti. Tuttavia, il throttling intelligente del carding store documentato da Anthropic è progettato precisamente per eludere questi sistemi: mimetizzando le richieste nel traffico legittimo, le validazioni fraudolente evitano di attivare le soglie di anomalia che alimentano i modelli di scoring. È il dilemma dell’AI difensiva: ogni miglioramento nella detection catalizza un adattamento corrispondente nell’evasione.

Caso 2: il romance scam bot con “intelligenza emotiva”

Oltre 10.000 utenti mensili, tre continenti, manipolazione emotiva AI-driven

Il secondo caso rivela una dimensione della AI fraud supply chain che trascende la tecnologia per entrare nel territorio della psicologia applicata su scala industriale.

Seguendo l’indicazione di un ricercatore indipendente, Anthropic ha identificato un bot Telegram (@Chat_ChatGPT_AIbot) che fornisce strumenti AI multimodali specificamente commercializzati per supportare operazioni di romance scam. Il bot offre accesso a molteplici modelli di intelligenza artificiale, con Claude pubblicizzato come “high EQ model” – modello ad alta intelligenza emotiva – per risposte emotivamente intelligenti.

Il dato sulla scala è il primo elemento da registrare: oltre 10.000 utenti mensili. Non stiamo parlando di un esperimento isolato o di un singolo truffatore che usa ChatGPT per scrivere messaggi più convincenti. Stiamo parlando di una piattaforma operativa con una base utenti che rivaleggia con molti servizi SaaS legittimi.

L’architettura operativa del bot

Il sistema opera attraverso un’interfaccia a comandi che offre funzionalità specializzate per ogni fase dell’operazione di truffa sentimentale:

  • Generazione di risposte ad alta intelligenza emotiva. Claude viene utilizzato specificamente per la sua capacità di produrre messaggi emotivamente sofisticati. Non si tratta di frasi generiche di corteggiamento: l‘AI genera risposte calibrate sullo stato emotivo percepito della vittima, adattando tono, registro e contenuto in tempo reale.
  • Capacità di generazione di immagini. Il bot integra modelli di generazione di immagini di altri provider per il potenziamento dei profili, consentendo la creazione di foto profilo convincenti e di contenuti visivi personalizzati.
  • Supporto multilingue per targeting globale. Il servizio opera con targeting specifico su Stati Uniti, Giappone e Corea del Sud, tre dei mercati più redditizi per le truffe sentimentali. Il supporto multilingue consente a operatori non madrelingua di apparire fluenti e persuasivi nella lingua della vittima, bypassando i red flag linguistici che tradizionalmente aiutano le vittime a identificare i truffatori.
  • Generazione di contenuti di manipolazione emotiva specializzati. Il bot offre risposte specializzate per le diverse fasi del romance scam: dall’approccio iniziale alla costruzione del rapporto, dall’escalation emotiva alla richiesta finanziaria.

Il contesto: un’industria da miliardi che l’AI rende più efficiente

I messaggi del servizio e i canali collegati sono prevalentemente in cinese, suggerendo operazioni cinesi che prendono di mira vittime internazionali. Questo dettaglio si inserisce in un panorama documentato.

I dati FBI mostrano che le perdite per romance scam nella sola area della Baia di San Francisco sono più che raddoppiate nel 2025, raggiungendo 43,3 milioni di dollari rispetto ai 21,5 milioni dell’anno precedente. A livello globale, secondo Chainalysis, le perdite per truffe crypto – molte delle quali originano da romance scam e pig butchering – hanno raggiunto il record di 17 miliardi di dollari nel 2025. Le operazioni con collegamenti on-chain a vendor AI hanno generato una media di 3,2 milioni di dollari per operazione, circa 4,5 volte di più rispetto alle operazioni senza tali collegamenti.

L’evoluzione è significativa. I centri di scam tradizionali – documentati in Cambogia, Myanmar e altrove – impiegano persone fisiche, spesso vittime di traffico di esseri umani, costrette a condurre conversazioni manuali con le vittime. L’AI rende queste operazioni più scalabili ed economiche, potenzialmente riducendo la dipendenza dal lavoro forzato mentre ne amplifica l’efficacia. Un paradosso morale che non sfugge agli analisti: la stessa tecnologia che potrebbe ridurre lo sfruttamento umano nei centri di scam rende la truffa stessa più pervasiva e devastante per le vittime.

Per i professionisti antifrode, il romance scam bot AI-powered invalida un assunto operativo fondamentale: che il volume di conversazioni gestibili da un’organizzazione criminale sia limitato dalla disponibilità di operatori umani. Con l’AI, il vincolo non è più il personale: è la larghezza di banda.

Caso 3: servizi di identità sintetica operativi

Dall’identità rubata all’identità costruita

Il terzo tassello della AI fraud supply chain è quello che chiude il cerchio e apre prospettive strategiche più preoccupanti. Anthropic ha documentato un attore che ha lanciato con successo un servizio operativo di identità sintetica utilizzando Claude per varie componenti della propria infrastruttura.

Il caso è descritto in modo più sintetico nel report di Anthropic rispetto ai precedenti, ma il suo significato strategico è inversamente proporzionale al dettaglio disponibile. Un servizio di identità sintetica operativo – non sperimentale, non dimostrativo – rappresenta l’anello di congiunzione tra il furto di dati e la monetizzazione finale. Le carte rubate validate dal carding store e le relazioni emotive costruite dal romance scam bot convergono entrambe, in ultima analisi, verso la necessità di identità false convincenti: per aprire conti bancari, per ricevere trasferimenti fraudolenti, per mascherare la provenienza dei fondi.

Cosa sappiamo sull’architettura del servizio

Dall’analisi del report e delle fonti secondarie, il servizio di identità sintetica documentato presenta caratteristiche che lo distinguono dalla contraffazione documentale tradizionale:

L’AI non genera semplicemente documenti falsi. Costruisce profili identitari coerenti che includono storie professionali plausibili, reti di contatti credibili, e tracce digitali consistenti. La differenza tra un documento contraffatto e un’identità sintetica AI-powered è la stessa che intercorre tra una fotocopia e un ecosistema: la prima viene rilevata a un controllo superficiale, il secondo resiste a verifiche approfondite perché ogni elemento del profilo conferma gli altri.

Per comprendere la portata del Caso 3, è necessario richiamare la tassonomia consolidata della frode identitaria sintetica. La Federal Reserve ha definito la frode identitaria sintetica come l’uso di una combinazione di informazioni personali identificabili (PII) per fabbricare una persona o entità allo scopo di commettere un atto disonesto per guadagno personale o finanziario.

Il white paper della Fed distingue tre modalità di creazione: l’identity fabrication, che utilizza esclusivamente informazioni fittizie; l’identity manipulation, che modifica leggermente PII reali (ad esempio, variando una cifra del Social Security Number); e l’identity compilation, che combina PII autentiche – tipicamente un SSN reale sottratto a minori, anziani o persone decedute – con dati fabbricati. È quest’ultima la forma più insidiosa, perché il nucleo di dati autentici supera le verifiche di base, e l’AI generativa amplifica la capacità di costruire attorno a quel nucleo un profilo coerente e convincente.

Il ciclo di vita della frode segue un pattern documentato noto come bust-out. L’identità sintetica viene utilizzata per aprire una linea di credito. Il fraudster si comporta come un cliente legittimo per mesi, effettuando acquisti e pagando regolarmente per incrementare il punteggio creditizio.

Come ha spiegato Mike Timoney, vicepresidente della Federal Reserve Bank di Boston, quando il punteggio sale, le banche vogliono concedere più credito, estendono le linee, aumentano i limiti. A quel punto, il criminale massimizza tutte le linee disponibili e scompare – il bust-out propriamente detto. La Fed ha stimato che le perdite globali per questa tipologia sono passate da circa 8 miliardi di dollari intorno al 2020 a oltre 20 miliardi nel 2024, con una traiettoria che l’AI generativa sta accelerando. Il servizio documentato da Anthropic si inserisce nella fase iniziale di questo ciclo: genera le identità sintetiche che altri attori della supply chain utilizzano per aprire i conti e avviare il processo di credit building fraudolento.

L’esplosione della frode identitaria sintetica nel 2025

I dati di contesto rendono la portata del fenomeno impossibile da sottovalutare.

La Federal Reserve Bank di Boston ha dedicato un’analisi specifica al ruolo dell’AI generativa nella frode identitaria sintetica. Nel podcast della Fed di Boston, Mike Timoney ha tracciato la traiettoria delle perdite: circa 8 miliardi di dollari intorno al 2020, 14 miliardi dopo un paio d’anni, oltre 20 miliardi nelle stime più recenti – una crescita che l’AI generativa sta accelerando in modo significativo.

TransUnion ha quantificato l’esposizione dei soli prestatori statunitensi a 3,3 miliardi di dollari nel primo semestre 2025. A questo si aggiunge una dimensione emergente segnalata dalla Federal Reserve Financial Services: la synthetic business fraud, dove i criminali creano imprese fittizie utilizzando informazioni rubate, manipolate o fabbricate per accedere a linee di credito e prestiti commerciali, tipicamente di importo superiore rispetto a quelli concessi ai consumatori individuali.

Il Sumsub Identity Fraud Report 2025-2026 aggiunge una dimensione qualitativa: nel 2025, la falsificazione documentale assistita dall’AI, registrata allo 0% l’anno precedente, è salita al 2% di tutti i documenti falsi identificati. Può sembrare una percentuale marginale, ma rappresenta l’emergere di una categoria di frode che non esisteva in forma misurabile dodici mesi prima. Ancora più rilevante è la segnalazione dell’ascesa dei cosiddetti AI fraud agent: sistemi autonomi che combinano AI generativa, framework di automazione e apprendimento per rinforzo per creare identità sintetiche, interagire con i sistemi di verifica in tempo reale e adattare il comportamento in base ai risultati. Le traiettorie indicano che questi agenti potrebbero diventare mainstream entro 18 mesi, particolarmente nelle reti di frode organizzata.

Per il settore bancario e finanziario, l’implicazione è chiara: i processi KYC (Know Your Customer) progettati per verifiche documentali statiche sono strutturalmente inadeguati contro identità sintetiche che superano sia la verifica visiva sia il cross-referencing con database multipli. Come ha sintetizzato un analista di Heka Global citato da BankInfoSecurity: la detection della frode deve essere in tempo reale, perché affidarsi a controlli che avvengono una sola volta all’onboarding significa perdere ciò che accade dopo, ed è lì che la frode riesce.

L’integrazione: come i tre casi si interconnettono nell’ecosistema criminale

Analizzati isolatamente, ciascuno dei tre casi rappresenta un’evoluzione significativa nel proprio dominio. Letti insieme, raccontano una storia più ampia e più preoccupante: la nascita di una supply chain integrata della frode digitale, dove l’output di un’operazione alimenta l’input della successiva.

Il flusso è ricostruibile con chiarezza.

Fase 1 – Acquisizione dei dati. Le carte di credito e i dati personali vengono rubati attraverso infostealer, breach, social engineering. Questa fase beneficia della profilazione AI-driven documentata nel sesto articolo di questa serie, dove il Model Context Protocol offensivo trasforma stealer log grezzi in intelligence operativa strutturata.

Fase 2 – Validazione e monetizzazione primaria. Il carding store AI-powered valida le carte rubate con resilienza multi-API, identificando quelle ancora attive e commercializzabili. Il throttling intelligente e il batch processing strategico massimizzano il tasso di successo minimizzando il rischio di rilevazione.

Fase 3 – Costruzione della relazione. Il romance scam bot crea e mantiene relazioni fraudolente con le vittime, utilizzando l’intelligenza emotiva dell’AI per costruire fiducia e preparare il terreno per la richiesta finanziaria. Le vittime profilate nella Fase 1 possono essere targeting prioritari nella Fase 3: se il profilo comportamentale indica vulnerabilità emotiva o solitudine, il romance scam diventa il vettore di monetizzazione ottimale.

Fase 4 – Infrastruttura identitaria. I servizi di identità sintetica forniscono le identità necessarie per aprire i conti bancari che ricevono i fondi estorti, per creare i profili delle false identità romantiche, e per riciclare i proventi delle carte validate. L’identità sintetica è il tessuto connettivo che tiene insieme l’intera operazione. Come ha evidenziato la Federal Reserve Bank di Boston, un effetto particolarmente rilevante è l’eliminazione della dipendenza dai money mule – intermediari reclutati, spesso inconsapevoli, per ricevere e trasferire fondi illeciti. Tradizionalmente, il reclutamento dei mule rappresentava un collo di bottiglia costoso e rischioso per le organizzazioni criminali. Con identità sintetiche AI-generated, i fraudster aprono direttamente i propri conti attraverso portali online, riducendo costi, rischi e dipendenza da terzi.

La circolarità è il tratto distintivo di questo ecosistema. I dati rubati attraverso le carte validate alimentano la creazione di nuove identità sintetiche. Le relazioni costruite dal romance scam generano ulteriori dati personali sulle vittime, che arricchiscono i profili per future operazioni. Le identità sintetiche aprono nuovi vettori per il carding e per il riciclaggio dei proventi. Ogni operazione rafforza le altre in un ciclo virtuoso – per i criminali – di efficienza crescente.

Come ha sintetizzato l’analisi di Noma Security sul report di Anthropic, i criminali non aspettano. Stanno già integrando l’AI nell’estorsione, nella frode e nello spionaggio. Si muovono più velocemente delle difese di sicurezza AI di molte organizzazioni.

Implicazioni per il settore finanziario e la verifica dell’identità

La AI fraud supply chain ha implicazioni operative immediate per tre ambiti professionali.

Per i team antifrode bancari

La resilienza multi-API del carding store documenta una sofisticazione infrastrutturale che rende inadeguati i sistemi di rilevazione basati su regole statiche. Le strategie di throttling intelligente progettate per mimetizzare il traffico fraudolento nel flusso legittimo richiedono un approccio di detection basato sull’analisi comportamentale piuttosto che sulle soglie transazionali.

I circuiti di pagamento stanno investendo massicciamente in questa direzione – Visa ha destinato 3,3 miliardi di dollari in AI e infrastrutture dati nell’ultimo decennio e processa oltre 500 milioni di transazioni giornaliere con AI difensiva, mentre Mastercard ha acquisito Recorded Future per 2,65 miliardi di dollari per integrare la threat intelligence AI-driven nel proprio ecosistema – ma l’efficacia di questi investimenti dipende dalla capacità di anticipare le tecniche di evasione, non solo di reagire ad esse.

Il 90% delle istituzioni finanziarie utilizza già AI per la rilevazione delle frodi, secondo Feedzai. Ma la partita non è “AI difensiva contro attaccanti umani”. È “AI difensiva contro AI offensiva”, con l’aggravante che l’AI offensiva ha il vantaggio dell’iniziativa e della specificità: sa esattamente cosa deve eludere, mentre l’AI difensiva deve proteggere una superficie di attacco potenzialmente illimitata.

Per i responsabili KYC e compliance

L’operatività dei servizi di identità sintetica impone una revisione profonda dei processi di verifica dell’identità. Il modello KYC tradizionale – verifica documentale all’onboarding, monitoraggio transazionale successivo – è strutturalmente vulnerabile a identità sintetiche che passano la verifica iniziale e rimangono dormienti per mesi prima di essere attivate per operazioni fraudolente. La transizione verso un modello di verifica continua dell’identità, che integri segnali comportamentali, biometrici e contestuali lungo l’intero ciclo di vita del cliente, non è più un’opzione: è una necessità operativa.

Le sanzioni regolamentari confermano l’urgenza. Secondo l’analisi di Fenergo, i regolatori globali hanno emesso circa 139 sanzioni finanziarie nel primo semestre 2025, per un totale di 1,23 miliardi di dollari – un incremento del 417% rispetto allo stesso periodo del 2024.

Per i responsabili della sicurezza informatica

La convergenza dei tre vettori di frode in un ecosistema integrato impone un aggiornamento dei modelli di rischio. La valutazione del rischio di frode non può più essere compartimentalizzata: il rischio di carding, il rischio di social engineering e il rischio di identità sintetica sono manifestazioni interconnesse della stessa infrastruttura criminale. Le organizzazioni che li trattano come minacce separate sottostimano sistematicamente il rischio complessivo.

Sul versante normativo europeo, la Direttiva NIS2 (Direttiva UE 2022/2555), recepita in Italia con il D.lgs. 138/2024, impone agli operatori dei servizi essenziali e importanti – incluse le istituzioni finanziarie – misure di gestione del rischio che comprendono la sicurezza della supply chain. L’AI Act (Regolamento UE 2024/1689) aggiunge requisiti di trasparenza e governance per i sistemi AI. La AI fraud supply chain opera esattamente all’intersezione di questi due regimi normativi: è una minaccia alla sicurezza informatica che sfrutta sistemi di intelligenza artificiale come componenti funzionali, e richiede una risposta di compliance integrata.

La resilienza operativa: come l’AI permette pivot rapidi

Un aspetto della AI fraud supply chain che merita un’analisi dedicata è la resilienza operativa che l’AI conferisce all’ecosistema criminale.

Nel modello tradizionale, quando un servizio di carding veniva bloccato, ricostruirlo richiedeva settimane di sviluppo. Quando un account di romance scam veniva sospeso, ricreare il profilo e ricostruire le relazioni interrotte era un processo manuale e costoso. Quando un fornitore di documenti falsi veniva arrestato, la rete a valle subiva un’interruzione significativa.

Con l’AI, ciascuno di questi scenari diventa un inconveniente operativo piuttosto che un’interruzione critica.

Il carding store lo dimostra con la sua architettura multi-API: la perdita di un servizio di validazione non interrompe le operazioni, perché il sistema scopre autonomamente servizi alternativi. Il romance scam bot lo dimostra con la sua capacità multimodello: se l’accesso a un modello AI viene revocato, il sistema ruota verso un altro. Il servizio di identità sintetiche lo dimostra con la velocità con cui nuove identità possono essere generate per sostituire quelle compromesse.

Come sintetizzano gli autori del report di Anthropic – Alex Moix, Ken Lebedev e Jacob Klein – i quattro casi nell’ambito della frode documentano collettivamente un’evoluzione preoccupante: l’AI facilita pivot e adattamenti rapidi quando si affronta il blocco o la rilevazione. L’AI non solo potenzia le singole operazioni: rende l’ecosistema criminale antifragile, capace di rafforzarsi in risposta alle perturbazioni.

Questa resilienza ha un’implicazione strategica fondamentale per i difensori. Le operazioni di disruption – takedown di infrastrutture, blocco di account, sequestro di domini – restano necessarie ma non sufficienti. Se il costo di ricostruzione dell’infrastruttura criminale si riduce da settimane a ore grazie all’AI, la strategia di disruption diventa una corsa al ribasso in cui i difensori investono risorse crescenti per ottenere interruzioni sempre più brevi. Serve un cambio di paradigma: dalla disruption dell’infrastruttura all’erosione del modello di business, rendendo le operazioni meno redditizie piuttosto che semplicemente più difficili.

Limiti dell’analisi e controargomentazioni

Un’analisi rigorosa della AI fraud supply chain richiede di considerare anche i limiti della narrazione.

I tre casi sono documentati con livelli di dettaglio diversi. Il caso del carding store e quello del romance scam bot sono descritti con sufficiente specificità da consentire un’analisi tecnica. Il caso delle identità sintetiche è presentato in modo più sintetico, con meno dettagli sull’architettura e sulla scala delle operazioni. La ricostruzione dell’integrazione tra i tre casi è, in parte, un’inferenza analitica basata sulla logica dell’ecosistema criminale piuttosto che su evidenze dirette di collaborazione tra gli attori.

L’AI amplifica, ma non crea la frode. Il carding, i romance scam e la frode identitaria esistono da decenni. L’intelligenza artificiale ne aumenta scala, velocità e sofisticazione, ma il modello di business sottostante e le vulnerabilità sfruttate sono pre-esistenti. I controlli fondamentali – MFA robusto, monitoraggio delle transazioni, educazione degli utenti – restano efficaci e non vengono resi obsoleti dall’AI.

La risposta del settore non è statica. Il 73% delle istituzioni finanziarie ha implementato AI nella rilevazione delle frodi nel 2025, rispetto al 49% nel 2024. La corsa agli armamenti AI offensiva/difensiva non è unilaterale: i difensori stanno adottando le stesse tecnologie, e in molti casi dispongono di risorse e dati significativamente superiori a quelli dei criminali.

Queste controargomentazioni contestualizzano il fenomeno senza minimizzarlo. La AI fraud supply chain è reale e documentata, e la sua evoluzione richiede adattamento difensivo. Ma l’adattamento è possibile, ed è già in corso.

Raccomandazioni operative

Per i professionisti della sicurezza informatica, la AI fraud supply chain richiede interventi su cinque direttrici:

  • Adottare detection comportamentale anti-throttling. I sistemi di rilevazione delle frodi devono essere calibrati per identificare i pattern di validazione delle carte con throttling intelligente, cercando anomalie non nella velocità ma nella regolarità e nella distribuzione temporale delle richieste.
  • Implementare verifica continua dell’identità. La transizione dal KYC statico all’ongoing due diligence è imperativa. L’integrazione di segnali comportamentali – come l’analisi della tipizzazione, i pattern di navigazione e la biometria passiva – riduce la superficie di attacco delle identità sintetiche.
  • Correlare i vettori di frode. Carding, social engineering e identità sintetica devono essere analizzati come manifestazioni della stessa infrastruttura criminale. La creazione di team antifrode trasversali, che condividano intelligence tra dipartimenti tradizionalmente separati, è un prerequisito organizzativo.
  • Integrare l’intelligence sulle piattaforme di scam. Il monitoraggio dei canali Telegram, dei forum underground e dei servizi del dark web non può essere limitato alle minacce cyber tradizionali. I bot di romance scam come quello documentato da Anthropic operano su piattaforme pubbliche e monitorabili.
  • Contribuire alla condivisione dell’intelligence. Il report di Anthropic è stato possibile perché un ricercatore indipendente ha segnalato il romance scam bot. La collaborazione tra provider AI, istituzioni finanziarie e forze dell’ordine è l’unica contromisura che opera a livello di ecosistema, e non di singolo anello.

La frode che si costruisce da sola

La AI fraud supply chain è, in ultima analisi, l’espressione più compiuta di un principio che attraversa l’intera serie di articoli sull’AI offensiva nella cybersecurity: l’intelligenza artificiale non potenzia un singolo aspetto del crimine informatico, ma ne industrializza l’intera catena del valore.

Il carding store con resilienza multi-API non è semplicemente un servizio di validazione più efficiente. È un componente infrastrutturale che si auto-ripara quando un suo elemento viene compromesso. Il romance scam bot con 10.000 utenti mensili non è semplicemente un truffatore più convincente. È una piattaforma che democratizza la manipolazione emotiva, rendendo accessibile a operatori privi di competenze linguistiche o psicologiche la capacità di condurre truffe sentimentali multilingue e multi-continente. Il servizio di identità sintetiche non è semplicemente un falsario più rapido. È il connettore che permette a ogni anello della catena di operare sotto coperture identitarie che superano le verifiche formali.

Come ha evidenziato il Google Threat Intelligence Group nel report di febbraio 2026, il 2025 ha segnato la maturazione del mercato underground per strumenti AI-enabled, con la proliferazione di offerte multifunzionali progettate per supportare diverse fasi del ciclo di attacco.

Per CISO, SOC analyst, threat researcher, specialisti antifrode e responsabili compliance, il messaggio operativo è che la AI fraud supply chain richiede una difesa che operi con la stessa logica integrata dell’attacco. Proteggere un singolo anello – il carding, il social engineering, la verifica dell’identità – lascia esposti gli altri. La sicurezza deve essere pensata come un sistema, non come una collezione di controlli puntuali.

La carta rubata di ieri è l’identità sintetica di domani. E domani, nella AI fraud supply chain, è già oggi.

Questo è il settimo articolo della serie “AI offensiva nella cybersecurity”. Il primo articolo ha introdotto il quadro generale delle minacce AI-driven e il framework normativo. Il secondo articolo ha ricostruito l’operazione GTG-2002 e il paradigma del vibe hacking. Il terzo articolo ha analizzato il no-code malware e il caso GTG-5004. Il quarto articolo ha esaminato la frode occupazionale nordcoreana assistita dall’AI. Il quinto articolo ha analizzato l’APT cinese che ha integrato Claude in 12 delle 14 tattiche MITRE ATT&CK. Il sesto articolo ha documentato l’uso offensivo del Model Context Protocol per la profilazione delle vittime. Il prossimo articolo approfondirà le strategie di difesa AI-native contro le minacce AI-driven.

Condividi sui Social Network:

https://www.ictsecuritymagazine.com/articoli/ai-fraud-supply-chain/




Fatto dall’umano, non dall’AI. Arrivano le prime etichette “AI free”

Prodotti e servizi “creati dall’umano” vs quelli creati dall’AI

No AI”, “AI free” o “Not by AI”, sono alcuni esempi di etichette che presto potremmo trovare in giro per il web per riconoscere e certificare prodotti e servizi creati dall’umano e non generati dall’intelligenza artificiale (AI).

La generazione di contenuti digitali attraverso chatbot AI ha raggiunto livelli così elevati di diffusione che presto si può immaginare una saturazione del nostro mondo online. Come cercare di difendersi? Indietro ovviamente non si può tornare. Il nostro presente è dominato dall’impiego di soluzioni di intelligenza artificiale in ogni ambito e il futuro lo sarà ancora di più.

Negli Stati Uniti, in Gran Bretagna e in Australia è allora emerso un movimento che su questo ha le idee molto chiare: differenziamo, a partire dalla rete, i prodotti e i servizi “creati/sviluppati dall’umano” dal quelli generati con l’AI.

L’intelligenza artificiale sta creando una profonda trasformazione e le diverse definizioni di ciò che è ‘creato dall’umano’ stanno confondendo i consumatori”, afferma la dottoressa Amna Khan, esperta di consumi presso la Manchester Metropolitan University.

Una definizione universale è essenziale per costruire fiducia, chiarezza e sicurezza“, ha dichiarato Khan a Joe Tidy che ha scritto un bell’articolo su questo per la BBC News.

Non si tratta solamente di una rivendicazione culturale, se non di una dichiarazione di indipendenza antropologica per così dire dall’affermazione storica delle macchine ben al di fuori degli ambienti produttivi tradizionali. Qui c’è una volontà di riprendersi uno spazio d’azione politico e lavorativo, perché, se quest’iniziativa riuscisse ad affermarsi, certamente si potrebbero salvare anche molti posti di lavoro dalla cosiddetta disoccupazione tecnologica.

Le prime etichette “AI free”

Secondo l’indagine della BBC, sono almeno otto i progetti in corso per elaborare un’etichetta in cui si comunica, si conferma e si certifichi che un determinato prodotto o servizio è stato progettato e prodotto dall’umano e non dall’AI.

Come riportato dal quotidiano britannico, ci sono già diverse etichette, come no-ai-icon.com, ai-free.io e notbyai.fyi, che possono essere scaricate da chiunque generalmente in maniera gratuita, senza particolari controlli o addirittura senza alcun controllo.

Altri sistemi, come aifreecert, richiedono il pagamento per la certificazione “AI free”, perché tale etichetta prima di essere rilasciata prevede un rigoroso processo di verifica per stabilire se un prodotto utilizza o meno l’intelligenza artificiale.

L’intelligenza artificiale è ormai al centro della nostra economia. Difficile tracciare una linea netta

È possibile differenziare in maniera rigida e netta ciò che si progetta, si produce e si distribuisce “human made” da quello che è “AI generated”? Secondo molti esperti siamo già al punto che questa netta distinzione non solo è difficile da fare, ma potrebbe anche essere controproducente.

L’intelligenza artificiale è ormai così profondamente integrata in diverse piattaforme e servizi che è davvero complicato stabilire cosa significhi ‘senza IA’”, ha spiegato alla BBC Sasha Luccioni, ricercatrice canadese esperta in intelligenza artificiale, clima e giustizia sociale, attualmente AI & Climate Lead presso Hugging Face.

Una strada potrebbe essere cercare certificazioni intermedie. Ad esempio, nel cinema, che ormai è quasi AI dipendente (e non a caso periodicamente scoppiano polemiche per l’impiego massiccio di questa tecnologica tale da mettere a repentaglio i diritti di chi in questo settore lavora), si stanno sperimentando soluzioni per limitare l’uso massiccio di AI e allo stesso tempo tutelare e valorizzare il lavoro umano (sia a livello qualitativo, sia creativo, sia di posti di lavoro).

Nei titoli di coda del thriller “Heretic” del 2024, con Hugh Grant, i produttori hanno inserito una nota in cui si legge: “Nessuna intelligenza artificiale generativa è stata utilizzata nella realizzazione di questo film“.

Il pubblico ha il diritto di conoscere quanta e quale AI è stata usata per generare musica, libri e film

Il cinema è solo un esempio, diciamo che l’AI sta ormai fortemente trasformando l’intero mercato dell’editoria (già fortemente condizionata dalla trasformazione digitale iniziale), quindi la televisione, la stampa, i libri e la musica.

Il problema non è tanto nell’uso di questa tecnologia dalle enormi potenzialità positive per queste industrie e per chi vi lavora, ma nel trovare come detto una gradualità di impiego da certificare e comunicare al pubblico.

In molti casi chi guarda un film o ascolta una canzone, o guarda un video o legge un libro, non è informato di quanta e quale AI è stata impiegata per produrre un contenuto.

Celebre è il caso dei The Velvet Sundown, band psych-rock virtuale al 100%, con membri fittizi (Gabe Farrow, Lennie West, Milo Rains e Orion “Rio” Del Mar, tutta gente che non esiste nella vita reale), interamente generata da tool AI come Suno per musica/voci e ChatGPT per testi/immagini. Oltre un milione di ascolti mensili lo scorso anno per il primo album “Paper Sun Rebellion” su Spotify.

Possiamo anche restare in Italia per trovare un altro esempio di musicisti completamente virtuali, non esistenti nella realtà fisica (anche se per l’immaginario collettivo dell’audience forse questa considerazione vale poco o niente).
We Are Machinez è la prima band rap-metal italiana da Alghero 100% “AI generated”, creata da Sigla con software AI e su Spotify possiamo ascoltare il primo EP “The Age of Machinez” (sicuramente apprezzabile l’onesta intellettuale rintracciabile sia del nome della band, sia del titolo dell’EP).

Il mondo dei libri è forse quello che per primo (anche per semplicità) ha sperimentato l’invasione di prodotti e autori completamente AI generated, tanto che il colosso Faber and Faber ha iniziato ad apporre il marchio “Scritto da un essere umano“.

L’inglese Books by People, per comprare libri veramente scritti da esseri umani

Gli editori si trovano a dover affrontare un nuovo scenario in cui i libri possono essere prodotti in pochi minuti anziché in mesi o anni, e i lettori non possono più essere certi se un libro rifletta un’esperienza umana o sia una mera imitazione meccanica“, ha spiegato alla BBC Esme Dennys, co fondatrice di Books by People.

È necessaria una certificazione di ‘origine umana’, ma l’autocertificazione non è sufficiente, quindi abbiamo un processo di verifica completo per assicurarci che si tratti effettivamente di materiale di origine umana“, ha chiarito il CEO dell’azienda, Alan Finkel. Motivo per cui questo tipo di certificazioni “AI free” si pagano.

Books by People è un’organizzazione indipendente britannica lanciata nel 2025 per certificare libri scritti interamente da esseri umani, contrassegnandoli con un marchio (“Human authored”) di riconoscimento ben chiaro, anche nel nome. A novembre è uscita la prima pubblicazione con questa etichetta dal titolo “Telenovela” di Gonzalo C. Garcia.

[embedded content]

La prima manifestazione anti-AI a Londra, la presa di coscienza della società

Non solamente il mondo delle imprese o del lavoro sta prendendo le misure con l’AI, anche la società ha preso coscienza che se da un lato questa tecnologia (come altre) è di grande utilità per molte delle nostre attività o addirittura routine quotidiane, dall’altro è anche una minaccia. A seconda di come e quanto usiamo l’AI questa diventerà dominante nel nostro mondo e nella nostra vita.

Pull the plug! Pull the plug! Stop the slop! Stop the slop!”, questo lo slogan che si poteva sentire per le strade di Londra sabato 28 febbraio.L’invito era chiaro: stacca la spina e basta con questo schifo. Chiaro e forse esagerato, come detto, non possiamo dire basta all’AI, è troppo tardi, meglio capire come usarla al meglio e impedire un suo impatto negativo sulla società.

C’erano qualche centinaio di manifestanti anti-AI a King’s Cross, dove si trovano le sedi delle Big Tech come OpenAI, Meta, Google e DeepMind., ha raccontato Will Douglas Heaven per la rivista MIT Technology. La marcia è stata organizzata da due gruppi di attivisti distinti, Pause AI e Pull the Plug, che l’hanno definita la più grande protesta di questo tipo mai realizzata.

Anche qui, forse, siamo di fronte ad un’altra esagerazione, ma di certo potrebbe essere una prima piazza che farà la storia, visto che è molto probabile molte altre ne seguiranno nei prossimi anni. L’AI è anche politica e in quanto tale tema di confronto pubblico, da qui in poi. Perché su questa tecnologia si investono incredibili quantità di soldi, perché farà fare grandi profitti (col passare del tempo) e rischiamo seriamente che venga usata in maniera impropria per controllare la società, orientarla e plasmarla. L’AI amplifica disuguaglianze e discriminazioni, arrivando a mettere in discussione le fondamenta stesse dei sistemi democratici, anche solo rendendo sempre più difficile distinguere ciò che è reale da ciò che non lo è. In questi termini, l’AI è politica.

Nell’AI Act ci sarà l’etichetta “generato con l’intelligenza artificiale”

Come detto, non si torna indietro, ma l’AI può essere regolamentata e in questo modo si possono evitare le distorsioni peggiori. A riguardo, in questi giorni, le commissioni Mercato interno e Libertà civili del Parlamento europeo hanno adottato una posizione congiunta su una proposta di semplificazione (“omnibus”) che modifica il regolamento sull’intelligenza artificiale (AI Act), con 101 voti favorevoli, 9 contrari e 8 astensioni.

La proposta prevede il rinvio dell’entrata in vigore di alcune disposizioni relative ai sistemi di intelligenza artificiale ad alto rischio, poiché gli standard chiave potrebbero non essere definiti entro l’attuale scadenza del 2 agosto 2026. Negli emendamenti, gli eurodeputati introducono date di applicazione certe, con l’obiettivo di garantire prevedibilità e certezza giuridica.

Per i sistemi di IA ad alto rischio esplicitamente elencati nel regolamento (inclusi quelli che utilizzano tecnologie biometriche o impiegati in infrastrutture critiche, istruzione, occupazione, servizi essenziali, forze dell’ordine, giustizia e gestione delle frontiere) la proposta fissa la nuova scadenza al 2 dicembre 2027.

Per i sistemi di IA disciplinati (o utilizzati come componenti di sicurezza in prodotti disciplinati) dalla normativa settoriale dell’UE in materia di sicurezza e sorveglianza del mercato, la data proposta è il 2 agosto 2028.

Gli eurodeputati si dicono inoltre favorevoli a concedere ai fornitori più tempo per adeguarsi agli obblighi di watermarking (loghi, codici o le etichette di cui abbiamo parlato) dei contenuti generati dall’intelligenza artificiale (audio, immagini, video o testi) al fine di renderne riconoscibile l’origine.
In questo caso, però, hanno proposto una proroga più contenuta, fino al 2 novembre 2026, rispetto al 2 febbraio 2027 indicato inizialmente dalla Commissione.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/fatto-dallumano-non-dallai-arrivano-le-prime-etichette-ai-free/568995/




Microsoft valuta una causa da 50 miliardi di dollari contro l’accordo OpenAI-Amazon sul cloud

Microsoft starebbe valutando un’azione legale da 50 miliardi di dollari contro Amazon e OpenAI per il loro accordo sul cloud.

Secondo quanto riporta il riporta il Financial Times l’accordo sul cloud stipulato lo scorso novembre violerebbe la partnership esclusiva tra il colosso di ChatGPT e il produttore di Windows.

Microsoft ha investito in OpenAI prima un miliardo di dollari nel 2019, poi altri 10 miliardi all’inizio del 2023, arrivando a controllare il 27% del gruppo e a essere una delle prime grandi aziende tech ad aver creduto nella startup di Sam Altman. In cambio, i modelli di OpenAI devono essere accessibili attraverso Azure, il servizio cloud di Microsoft.

Il caso Frontier e la questione tecnica

Al centro della scontro c’è ‘Frontier’, un nuovo prodotto sviluppato da OpenAI che, secondo quanto emerso, sarebbe progettato per funzionare anche su infrastruttura AWS. Microsoft ritiene che questa scelta aggiri gli obblighi contrattuali, mentre Amazon e OpenAI sostengono il contrario. La difesa si basa su un’architettura definita ‘Stateful Runtime Environment’, che consentirebbe di offrire funzionalità avanzate senza violare formalmente gli accordi esistenti.

La questione è quindi altamente tecnica e giuridica: da settimane i legali delle parti stanno confrontando interpretazioni divergenti su cosa costituisca effettivamente “distribuzione” e “accesso” ai modelli.

Una partnership sempre più fragile

Il confronto riflette un cambiamento più profondo nei rapporti tra Microsoft e OpenAI. Se inizialmente il legame era caratterizzato da forte integrazione e allineamento strategico, oggi emergono segnali di crescente autonomia da parte della startup.

OpenAI punta a diversificare le proprie partnership cloud, riducendo la dipendenza da Azure. Parallelamente, Microsoft inizia a percepire OpenAI non solo come partner tecnologico, ma anche come potenziale concorrente nei servizi enterprise basati su AI, un segmento ad alto valore e in rapida espansione.

Implicazioni finanziarie e regolatorie

La vicenda potrebbe avere effetti rilevanti anche sul futuro di OpenAI. Tra le ipotesi sul tavolo c’è una possibile quotazione in borsa, che tuttavia potrebbe essere rallentata o complicata da un contenzioso legale di questa portata.

A ciò si aggiunge il crescente scrutinio regolatorio su Microsoft, già osservata per il suo ruolo dominante nel mercato cloud e per la profondità dell’investimento nella startup. Un’escalation legale rischierebbe quindi di amplificare le pressioni da parte delle autorità antitrust.

Un nuovo equilibrio nel mercato AI

L’esito dello scontro potrebbe ridefinire gli equilibri tra i principali attori del cloud e dell’intelligenza artificiale. In gioco non c’è solo un contratto, ma il modello stesso di collaborazione tra sviluppatori di AI e provider infrastrutturali.

L’apertura a più piattaforme cloud, se confermata, segnerebbe un passaggio verso ecosistemi più flessibili ma anche più competitivi. Al contrario, un rafforzamento dei vincoli esclusivi consoliderebbe il controllo dei grandi operatori sull’accesso alle tecnologie più avanzate.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/microsoft-valuta-una-causa-da-50-miliardi-di-dollari-contro-laccordo-openai-amazon-sul-cloud/568903/




L’analisi ASviS. A Melbourne e Singapore nasceranno i primi data center alimentati da neuroni umani

Data center alimentati da neuroni umani? Le prime sperimentazioni

L’intelligenza artificiale, si sa, richiede un grande dispendio di energia elettrica, acqua per raffreddare i server, silicio per costruirli. Motivo per cui molte aziende stanno guardando altrove. Tra queste c’è Cortical Labs, startup australiana che sta provando da anni ad alimentare i data center con i neuroni umani. Fantascienza? Non proprio.

Mentre nei centri di calcolo tradizionali lunghe file di server elaborano milioni di dati con processori in silicio, in quelli di Cortical Labs lavorano delle unità chiamate CL1, computer biologici alimentati da neuroni umani coltivati in laboratorio.

Come funziona?

Le cellule nervose – create principalmente a partire da cellule staminali – vengono collocate su dei piccoli chip di silicio che contengono migliaia di elettrodi e interagiscono con le cellule stesse. Il sistema interpreta le reazioni neuronali a questi stimoli, traducendo le risposte come “output computazionale”, ovvero risultati di calcolo.

Il vantaggio primario di questa “intelligenza biologica sintetica” è il risparmio energetico. Secondo Hon Weng Chong, fondatore e amministratore delegato di Cortical labs, “ogni unità CL1 utilizza meno energia di una semplice calcolatrice portatile” (consuma circa 30 watt, a fronte delle migliaia di watt richiesti dai chip convenzionali di ultima generazione). Paul Roach, chimico dell’Università di Loughborough nel Regno Unito, ha commentato che “quando si scala e si riempiono intere sale, come accade già con i server tradizionali, i risparmi energetici potrebbero essere enormi”. Ci sarà bisogno di nutrienti per mantenere in vita le cellule e bisognerà raffreddarle, ammette Roach, ma il dispendio sarà minore rispetto agli attuali data center.   

I problemi però ci sono. Al momento la capacità di elaborazione resta abbastanza limitata, anche se dei progressi ci sono stati – negli anni i neuroni sono stati addestrati prima a giocare al classico Pong e poi al più complesso sparatutto Doom.

[embedded content]

Le sfide

Inoltre, il funzionamento di questi biocomputer e le strategie per addestrarli sono ancora oggetto di dibattito nella comunità scientifica. “Non si programmano i neuroni come i computer tradizionali”, ha detto Reinhold Scherer, ingegnere neuronale dell’Università dell’Essex.

Una delle sfide tecnologiche più complesse riguarda ad esempio la memorizzazione dei risultati dell’addestramento. Non è ancora chiaro come conservare in forma duratura le informazioni apprese dai neuroni, né come implementare su questi strati biologici algoritmi computazionali. Inoltre, bisogna tenere conto che le informazioni vanno perdute quando le colture cellulari muoiono, rendendo necessari nuovi cicli di addestramento e andando a pesare sull’efficienza complessiva del processo.

I primi due data center a neuroni umani

I gruppi di ricerca avvertono che potrebbero volerci anni o decenni prima che la tecnologia possa competere, per esempio, con i chip di Nvidia. Ma le speranze ci sono, specialmente da quando Cortical Labs ha annunciato la costruzione dei primi due data center alimentati da neuroni umani. Il primo, in fase più avanzata, sorgerà nella città natia dell’azienda, a Melbourne, e ospiterà 120 unità CL1. Mentre il secondo verrà costruito a Singapore, con il supporto dell’operatore di infrastrutture DayOne Data Centers e della Yong Loo Lin school of medicine della National university of Singapore. Partirà da 20 unità, con l’obiettivo non così utopico di arrivare a quota mille.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/lanalisi-asvis-a-melbourne-e-singapore-nasceranno-i-primi-data-center-alimentati-da-neuroni-umani/568892/




AI, la Germania vuole quadruplicare la capacità di calcolo entro il 2030

Il ministro per il Digitale, Karsten Wildberger, presenta la nuova strategia della Germania in data center e AI

La Germania accelera sulla costruzione di infrastrutture digitali e punta con decisione sull’intelligenza artificiale (AI): entro il 2030 il governo federale vuole quadruplicare la capacità di calcolo dedicata all’AI e raddoppiare le prestazioni complessive dei data center rispetto ai livelli del 2025. Numeri ambiziosi, accompagnati da un dato già significativo: nel 2025 i data center tedeschi consumano circa 21 terawattora di elettricità, pari a circa il 4% del fabbisogno nazionale.

A delineare la strategia è il ministro per il Digitale e la Modernizzazione dello Stato, Karsten Wildberger, che non nasconde il ritardo accumulato: “Su scala internazionale abbiamo sicuramente molto da recuperare”. L’obiettivo secondo quanto riportato dalla Reuters è chiaro: mantenere la leadership europea e rendere la Germania “altamente attrattiva a livello globale” come hub tecnologico.
Nel Paese investono molto in infrastrutture digitali le principali Big Tech come Amazon, Microsoft e Google.
La sola Google ha annunciato investimenti per 5,5 miliardi di euro nei data center a Dietzenbach e Hanau (Assia), più nuovi uffici a Monaco.

Gli obiettivi: più capacità, più sovranità, più velocità…e una tassa da versare sui territori

Il piano governativo, che comprende 28 misure operative, mira a trasformare il Paese in un data hub europeo sovrano. Tra i pilastri principali:

  • espansione massiva delle infrastrutture: raddoppio dei data center e crescita esponenziale della capacità AI.
  • costruzione di almeno una “AI gigafactory” attraverso un partenariato pubblico-privato a guida europea.
  • riduzione della dipendenza dai grandi hyperscaler extraeuropei, privilegiando operatori tedeschi ed europei.
  • snellimento delle procedure autorizzative per accelerare la realizzazione dei nuovi impianti.
  • transizione energetica: data center alimentati sempre più da fonti rinnovabili.

Sul piano economico, il governo intende anche modificare la fiscalità: una quota delle imposte sulle attività dei data center dovrebbe essere versata direttamente ai territori che ospitano le strutture, per aumentarne l’accettazione locale.

Energia e infrastrutture sono il vero collo di bottiglia dell’AI

Il nodo più critico resta però l’energia. I data center sono tra i maggiori consumatori elettrici e, secondo le stime, la domanda potrebbe salire fino a 84 terawattora entro il 2030. Un incremento che rischia di mettere sotto pressione:

  • la rete elettrica, già impegnata nella transizione energetica;
  • i tempi di connessione, rallentati da iter burocratici e progetti “fantasma”;
  • i prezzi dell’elettricità, con possibili ricadute su cittadini e imprese.

Wildberger indica una possibile soluzione nel riutilizzo di siti industriali dismessi, come ex centrali a carbone o aree minerarie, dove le infrastrutture elettriche sono già presenti. Esempi concreti arrivano da Lübbenau (Brandenburg) o dalla regione renana, dove vecchi impianti energetici vengono riconvertiti in poli digitali.

Sostenibilità e calore disperso

Un altro tema aperto è quello del calore di scarto prodotto dai data center. Il governo punta a integrarlo nelle reti di teleriscaldamento, ma le soluzioni tecniche e infrastrutturali sono ancora in fase di sviluppo.

Parallelamente, la strategia insiste sulla sostenibilità operativa: i nuovi impianti dovranno essere più efficienti e “verdi” rispetto agli standard globali, rafforzando anche l’accettazione pubblica.

Il problema della dipendenza tecnologica

Oltre alla capacità computazionale, Berlino guarda alla sovranità digitale e al problema della dipendenza tecnologica. Il piano prevede l’utilizzo di componenti provenienti da fornitori “fidati”, lo sviluppo di un cloud europeo sicuro per applicazioni critiche e requisiti avanzati per la PA, come geo-ridondanza e sistemi energetici autonomi.

Tuttavia, emerge un limite strutturale: oggi è quasi impossibile realizzare data center completamente “Made in Europe, a causa della dipendenza globale dalle catene di approvvigionamento.

AI, una corsa contro il tempo

La strategia, che dovrebbe essere adottata dal governo federale, rappresenta un tentativo deciso di colmare il gap con Stati Uniti e Cina nella corsa all’intelligenza artificiale. Come sottolinea Wildberger, la Germania parte in ritardo ma punta a recuperare rapidamente.

La sfida sarà duplice: costruire rapidamente capacità tecnologica e, allo stesso tempo, gestire le tensioni su energia, costi e sostenibilità. Se riuscirà nell’impresa, Berlino potrà consolidarsi come uno dei principali poli europei dell’AI. In caso contrario, il rischio è quello di restare indietro in uno dei settori più strategici del prossimo decennio.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-la-germania-vuole-quadruplicare-la-capacita-di-calcolo-entro-il-2030/568825/