
Rubrica settimanale SosTech, frutto della collaborazione tra Key4biz e SosTariffe. Per consultare gli articoli precedenti, clicca qui..
Chi governa l’AI? E soprattutto, chi non può farlo? In Italia non se n’è parlato troppo, ma il 4 marzo 2026, nella Indian Treaty Room della Casa Bianca, i vertici di Amazon, Google, Meta, Microsoft, OpenAI, Oracle e xAI hanno firmato il Ratepayer Protection Pledge,cioè un impegno formale a coprire i costi energetici dei propri data center senza riversarli sulle bollette dei consumatori americani.
Il tutto è avvenuto circa una settimana dopo il primo attacco degli Stati Uniti e di Israele contro l’Iran, e prima che gli effetti del conflitto cominciassero a farsi sentire sui consumi (per chi cerca offerte ancora convenienti per gas ed elettricità, il comparatore di SOSTariffe.it aiuta a non perdersi in un mercato sempre più agitato).
L’amministrazione Trump ha presentato l’accordo come una risposta al malcontento bipartisan che si è diffuso in tutto il Paese a causa dell’impennata dei consumi elettrici legata alla corsa all’intelligenza artificiale: i data center, com’è noto, consumano enormi quantità di energia, e molte comunità locali – dai sobborghi della Virginia settentrionale alle aree rurali del Tennessee – hanno già sperimentato gli effetti di questa domanda in rapidissima crescita sotto forma di tariffe più alte e infrastrutture ormai sovraccariche.
Secondo il testo stipulato e comunicato dalla Casa Bianca, le aziende firmatarie dovranno «costruire, acquistare o procurarsi» autonomamente l’elettricità necessaria, attraverso la stipula di tariffe separate con le utility e facendosi carico dei costi di adeguamento della rete. Se sul piano comunicativo l’evento è stato efficace, e salutato da qualcuno come un primo paletto messo allo strapotere dei giganti dell’intelligenza artificiale, a un livello più pratico le perplessità degli esperti non sono mancato. L’accordo, per prima cosa, è volontario e non esecutivo, e la regolamentazione delle tariffe elettriche è materia di competenza statale e locale, un’area in cui il governo federale, di fatto, ha margini di intervento assai limitati. Insomma: il rischia è che siano belle parole e poco altro (non sarebbe nemmeno la prima volta, in ambito AI).
Washington contro gli Stati
Il nodo della regolamentazione dell’AI negli Stati Uniti riguarda infatti non solo i consumi energetici ma l’intero impianto normativo che riguarda un settore la cui espansione, come sappiamo, sembra non conoscere sosta. Da oltre tre anni il governo federale, nelle sue varie incarnazioni, ha prodotto ordini esecutivi, linee guida e framework di ogni tipo, nessuno dei quali è diventato una legge vera e propria. Nel frattempo numerosi Stati hanno cercato di colmare il vuoto con esiti molto diversi.
La California, ad esempio, ha emanato un ordine esecutivo che obbliga le aziende AI che lavorano con enti pubblici a rispettare standard di sicurezza e privacy; New York ha approvato una legge sull’obbligo di segnalazione degli incidenti AI; l’Illinois ha introdotto requisiti di trasparenza per l’uso dell’AI nelle assunzioni.
La pressione della Casa Bianca sugli Stati dell’Unione sembra però andare in senso opposto, visto che l’amministrazione si è dichiarata «categoricamente contraria» a una proposta di legge dello Utah che avrebbe obbligato i developer AI a pubblicare piani di sicurezza e protezione dei minori, di fatto bloccandola. In Florida, lo Stato dove il governatore DeSantis che aveva promosso un proprio AI Bill of Rights, la Camera dei Rappresentanti ha sabotato il provvedimento per non contrariare Trump.
A marzo 2026, la Casa Bianca ha diffuso un framework legislativo nazionale che chiede al Congresso di prevedere la supremazia federale sulle leggi statali in materia di AI. Sul fronte opposto, oltre cinquanta parlamentari repubblicani di vari Stati hanno scritto al Presidente per chiedere di non ostacolare la legislazione locale. Al momento, la legge-quadro sull’AI non è legge operativa e la sua approvazione al Congresso resta ancora incerta.
L’Europa rallenta (ma non su tutto)
In Europa il percorso sembra essere diverso, anche se il risultato non è granché più rassicurante. L’AI Act europeo è entrato in vigore nel 2024, ma è evidente che molte delle sue disposizioni più rilevanti siano state ritardate o ammorbidite fino a essere quasi innocue prima ancora di essere applicate.
Pochi giorni fa, il Parlamento europeo ha adottato con 569 voti favorevoli e 45 contrari una posizione sul cosiddetto «Digital Omnibus», che modifica il regolamento precedentemente adottato. Le scadenze per i sistemi di AI ad alto rischio (per capirci, quelli che operano in settori come biometria, infrastrutture critiche, occupazione, istruzione, forze dell’ordine e gestione delle frontiere) sono state spostate al 2 dicembre 2027, mentre per i sistemi regolati da normative settoriali specifiche, come i dispositivi medici, la data è ancora più avanti, il 2 agosto 2028.
La motivazione ufficiale è che gli standard tecnici e gli strumenti di supporto necessari alle aziende per l’implementazione non sarebbero ancora pronti, ma in tanti hanno segnalato che il rinvio rischia di lasciare una parte enorme del mercato fuori dalla portata del regolamento nel momento in cui i sistemi sono già ampiamente diffusi.
Non tutto, però, va nella direzione del rallentamento: il Parlamento ha approvato il divieto dei cosiddetti nudifier, le applicazioni che generano immagini sessualmente esplicite di persone reali identificabili senza il loro consenso. Si tratta di una delle prime proibizioni esplicite di una categoria specifica di prodotti AI a livello europeo, il cui campo di applicazione e le date di entrata in vigore saranno definiti nel negoziato con il Consiglio.
Un quadro globale ancora provvisorio
Il quadro complessivo dipinto da queste ultime settimane di attività legislativa, insomma, è quello di un mondo che prova a regolare una tecnologia che ha già preso forme difficili da contenere. Negli Stati Uniti l’amministrazione federale frena gli Stati ma non produce norme vincolanti, mentre in Europa il regolamento più ambizioso del mondo viene limato e rinviato prima di entrare a regime.
In entrambi i casi, la velocità di sviluppo dell’AI è sempre un passo avanti (se non di più) a quella dei processi normativi, e le pressioni economiche e geopolitiche (in primo luogo la competizione con la Cina, la corsa ai data center, i timori sulle bollette acuiti dalle crisi internazionali) continuano a fare da contraltare alle istanze di trasparenza e protezione dei cittadini. Le leggi sul controllo dell’AI sono ancora un cantiere aperto, ma la tecnologia non aspetta.
Leggi le altre notizie sull’home page di Key4biz
https://www.key4biz.it/da-washington-a-bruxelles-le-strategie-per-il-controllo-dellai/568945/

