La Casa Bianca sospende l’ordine esecutivo che avrebbe anticipato le leggi statali sull’AI

La Casa Bianca ha temporaneamente bloccato un ordine esecutivo che avrebbe concesso al governo federale un’autorità preminente sulle leggi statali in materia di AI, suscitando un intenso dibattito interno tra sostenitori del centralismo normativo e fautori della sovranità legislativa statale.

La misura, che mirava a stabilire un quadro unificato per regolamentare l’adozione dell’AI a livello nazionale, è stata messa in pausa a seguito delle preoccupazioni sollevate da funzionari federali, esperti legali e rappresentanti statali riguardo alla sua legittimità e alle implicazioni sul bilanciamento dei poteri tra Washington e le giurisdizioni locali.

Il provvedimento sospeso avrebbe consentito all’amministrazione di superare eventuali normative statali considerate in conflitto con le linee guida federali, in nome di una maggiore coerenza normativa per le aziende tecnologiche che operano su scala nazionale.

Tuttavia, le critiche non si sono fatte attendere: diversi stati hanno rivendicato il diritto di stabilire regolamentazioni più stringenti o più flessibili, adattate alle proprie esigenze socio-economiche.

L’opposizione è giunta anche da ambienti progressisti preoccupati per un eventuale allentamento delle tutele etiche e di privacy.

La sospensione evidenzia l’estrema complessità nel creare una governance efficace per una tecnologia in rapida evoluzione come l’AI, accentuando le tensioni fra innovazione, diritti civili e architettura costituzionale degli Stati Uniti.

Il futuro dell’ordine esecutivo resta incerto, ma il dibattito ha già innescato una riflessione più ampia sul ruolo del governo federale nella regolamentazione dell’intelligenza artificiale e sull’equilibrio tra esigenze dell’industria e salvaguardie democratiche.

Per maggiori informazioni, clicca per l’articolo originale.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/la-casa-bianca-sospende-lordine-esecutivo-che-avrebbe-anticipato-le-leggi-statali-sullai/556993/




Licenziamenti AI, Lufthansa e ING annunciano 5mila tagli. Ma occhio al fenomeno dell’”AI Washing”

Sempre più aziende, in settori e Paesi diversi, iniziano a dichiarare apertamente che l’AI è tra le cause dei licenziamenti e del blocco delle nuove assunzioni.

Lufthansa prevede di tagliare 4.000 posti amministrativi entro il 2030, mentre ING ha messo in guardia sul possibile taglio di circa 1.000 ruoli legato alla digitalizzazione, all’uso dell’AI e al cambiamento delle abitudini dei clienti.

Nel mondo dei videogiochi, Krafton ha fermato le assunzioni per puntare su un modello “AI-first”. Negli Stati Uniti, secondo Challenger, Gray & Christmas, solo a ottobre sono stati annunciati più di 31.000 licenziamenti attribuiti all’AI, pari a circa un quinto del totale nazionale.

Una tendenza che non è passata inosservata nemmeno a Jerome Powell, presidente della Federal Reserve, che ha invitato a seguirla con attenzione.

Allo stesso tempo, diversi analisti del lavoro avvertono che alcune aziende potrebbero sfruttare l’AI come pretesto per giustificare riduzioni di personale già previste, un fenomeno ribattezzato “AI-washing”. Colossi come Amazon, Microsoft e Oracle stanno inoltre tagliando costi in altre aree per destinare risorse a data center, chip e competenze utili allo sviluppo dell’AI.

IBM, ServiceNow e Shopify affermano di usare agenti AI per automatizzare attività interne e ridurre il fabbisogno di personale, confermando un cambiamento più profondo nelle strategie di gestione del lavoro.

Secondo Goldman Sachs, l’adozione dell’AI potrebbe portare a una riduzione del personale del 4% nei prossimi 12 mesi, percentuale che potrebbe salire fino all’11% nei prossimi tre anni.

La legge bipartisan per frenare i licenziamenti dovuti all’AI

In questo quadro si inserisce anche una proposta di legge americana pensata per obbligare le grandi aziende a comunicare regolarmente quanti posti di lavoro vengono persi, creati o trasformati dall’automazione e dall’uso dell’AI.

L’AI-Related Job Impacts Clarity Act, presentato dai senatori Josh Hawley e Mark Warner, mira a fare chiarezza sull’effettivo impatto dell’AI sull’occupazione. Il testo prevede che, ogni trimestre, le aziende quotate e le agenzie federali forniscano al Dipartimento del Lavoro dati dettagliati: i licenziamenti legati all’AI, le nuove assunzioni generate dall’uso di sistemi intelligenti, i ruoli lasciati vacanti perché sostituiti dalle macchine e il numero di lavoratori coinvolti in percorsi di riqualificazione.

Il Segretario del Lavoro dovrà poi elaborare rapporti trimestrali e semestrali da pubblicare sul sito del Bureau of Labor Statistics e da inviare al Congresso. È prevista anche la possibile inclusione delle aziende non quotate, con criteri basati su forza lavoro, fatturato e impatto territoriale. L’obiettivo è costruire una base dati pubblica e trasparente per capire davvero come l’automazione stia ridisegnando il mercato del lavoro e per orientare eventuali politiche di compensazione o formazione.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/licenziamenti-ai-lufthansa-e-ing-annunciano-5mila-tagli-ma-occhio-al-fenomeno-dellai-washing/556606/




Musk: l’AI e la robotica trasformeranno il lavoro in un’attività opzionale entro 10-20 anni

Durante il Forum per gli Investimenti USA-Arabia Saudita a Washington D.C., Elon Musk ha presentato una visione radicale del futuro, in cui l’AI e la robotica trasformeranno il lavoro in un’attività opzionale, paragonandolo all’hobby del giardinaggio domestico.

Secondo il fondatore di Tesla, entro i prossimi 10-20 anni la società potrebbe raggiungere uno stato di ‘post-scarsità’, dove la produzione sarà completamente automatizzata e l’economia non dipenderà più dal lavoro umano o dal denaro.

Questo scenario si ispira direttamente all’universo immaginato da Iain M. Banks nella serie sci-fi ‘The Culture’, dove le AI superintelligenti sostituiscono il bisogno di un’economia tradizionale.

Musk ritiene che il valore principale di Tesla non sarà più nelle auto elettriche ma nei robot umanoidi Optimus, progettati per rimpiazzare la manodopera.

Tuttavia, numerosi economisti mettono in dubbio la fattibilità di questa visione, citando le difficoltà nella scalabilità dei robot fisici, i limiti attuali dell’adozione dell’AI nei luoghi di lavoro e l’assenza di una volontà politica concreta per sostenere un reddito universale di base, elemento chiave del modello immaginato.

Nonostante l’ottimismo di Musk, le implicazioni sociali ed esistenziali restano incerte: se l’AI farà tutto meglio degli esseri umani, quale sarà il senso della vita per le generazioni future? Gli esperti sottolineano che il lavoro non è solo una fonte di reddito, ma anche una componente fondamentale delle relazioni umane e del senso di appartenenza.

Una transizione così radicale richiederà non solo progressi tecnologici, ma una riformulazione profonda delle strutture sociali, politiche e culturali.

Per maggiori informazioni, clicca per l’articolo originale.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/musk-lai-e-la-robotica-trasformeranno-il-lavoro-in-unattivita-opzionale-entro-10-20-anni/556603/




Cloud, sicurezza informatica e AI al centro dell’evento di Aruba e CSA Italy a Ponte San Pietro

Presentato “The State of Cloud and AI Security 2025” della Cloud Security Alliance (CSA) Italy

Si è svolta all’Auditorium di Ponte San Pietro, all’interno del Global Cloud Data Center di Aruba, la giornata di confronto e networking dedicata alla Community dei Chief Information Security Officer (CISO) di CSA Italy. La crescita delle minacce conferma che la sicurezza informatica è una condizione strutturale dell’economia digitale, da affrontare con strategie condivise e un ruolo sempre più centrale dei CISO e dei provider. Parallelamente, la diffusione di cloud e intelligenza artificiale (AI) apre nuove sfide in termini di sicurezza.

Una centralità strategica confermata da un recente studio della Cloud Security Alliance, “The State of Cloud and AI Security 2025”. Secondo il report, l’82% delle organizzazioni utilizza infrastrutture cloud ibride — di cui il 63% multi-cloud — e il 55% dei workload fa già uso di soluzioni AI, tra le quali il 34% ha segnalato violazioni di sicurezza legate proprio a questa tecnologia di punta.

Secondo lo studio, la gestione delle identità è individuata come il rischio cloud principale, mentre si evidenzia che esiste ancora un gap di competenze nel settore. Servono quindi più formazione, metriche di sicurezza evolute (non solo incidenti passati) e una strategia integrata cloud-AI per far fronte a queste sfide.

Neumarker (Aruba): “Cloud e AI stanno cambiando radicalmente il concetto di sicurezza

Come ha spiegato David Neumarker, CISO di Aruba: “Cloud e AI stanno cambiando radicalmente il concetto di sicurezza: oggi è una responsabilità condivisa tra fornitore e utilizzatore. In questo quadro, Aruba emerge come uno dei principali provider di cloud europeo, capace di coniugare sicurezza, resilienza e sovranità digitale. Le sue infrastrutture si basano su tre pilastri: dati ospitati in data center interamente su territorio europeo, operation con team operativi locali e tecnologia gestita tramite piattaforme open source, per garantire trasparenza e controllo”.

Da sinistra Alberto Manfredi, Presidente CSA Italy, e David Neumarker, CISO di Aruba

I data center Tier 4 di Aruba, certificati secondo i più alti standard di resilienza (ACN e AI3), rappresentano il cuore di questa strategia, sostenendo il tessuto industriale e istituzionale italiano ed europeo assicurando una capacità digitale in costante crescita”, ha aggiunto Neumarker.

Aruba non si rivolge solo alle grandi realtà, ha sottolineato il CISO dell’azienda: “Le PMI, spesso limitate da budget e competenze, possono contare sull’esperienza e sulle economie di scala dell’azienda. Grazie a soluzioni di sicurezza avanzate, al supporto normativo e alla collaborazione con l’Agenzia per la Cybersicurezza Nazionale (ACN), aiutiamo le imprese ad operare in sicurezza, rispettando normative come la NIS2, senza sacrificare agilità e competitività”.

Gli attacchi informatici durante lo scorso anno sono aumentati del 27,4% a livello globale: 3.541 casi rilevati contro i 2.779 dell’anno precedente. In Italia il Rapporto Clusit 2025 segnala una crescita degli incidenti del 15%, di cui l’80% è stato classificato come critico o grave, contro il 50% del 2020.

La stessa AI, però, non rappresenta solo un elemento di criticità per la sicurezza informatica, al contrario è sempre più vista come efficace strumenti di difesa per le aziende. Per questo Aruba ha rafforzato il proprio impegno nel creare una rete di collaborazione tra i professionisti della cybersecurity, favorendo un approccio concreto e coordinato alla protezione dei dati, basato su trasparenza, sovranità digitale e responsabilità tecnologica.

AI arma a doppio taglio. Manfredi (CSA Italy): “Potenzia la cyber defence, ma se non gestita correttamente amplia le superfici di attacco

L’AI potenzia fortemente la cyber defense. Ad esempio, sistemi di sicurezza basati su AI/ML permettono di rilevare minacce sconosciute analizzando anomalie e pattern nei dati di rete. La CSA segnala come l’AI renda il threat intelligence predittivo: tramite algoritmi di machine learning si analizzano modelli di attacco storici per prevedere tattiche future degli hacker. L’uso di chatbot e agenti AI nel Security Operations Center può automatizzare l’analisi e l’intervento riducendo tempi di risposta”, ha affermato Alberto Manfredi, Presidente CSA Italy.

Nello stesso tempo, come rilevato dal Report, l’AI comunque se utilizzata in altro modo può introdurre con facilità nuovi vettori di minaccia. Manfredi ha portato alcuni esempi: “L’AI generativa rende possibili truffe di social engineering iper-personalizzate, vedi phishing e BEC avanzati, attacchi di deepfake per impersonare vittime, o malware auto-apprendenti che si adattano all’ambiente. Un dato allarmante: il Report CSA rileva che oltre il 34% delle organizzazioni con carichi di lavoro AI ha già subito una violazione legata all’IA. Ciò evidenzia che, se non gestita correttamente, l’IA può ampliare drasticamente la superficie di attacco, con rischi di trasparenza (black box), bias negli algoritmi e perdita di controllo umano”.

Il messaggio di base che è emerso durante l’incontro di Bergamo è che l’intelligenza artificiale è un’arma a doppio taglio: da un lato potenzia l’efficacia della difesa, ad esempio con analisi predittiva e automazione delle risposte, dall’altro però è anche in grado di amplificare le minacce emergenti. Per questo è fondamentale sviluppare una cultura della responsabilità: regole chiare, standard condivisi e continui aggiornamenti.

Nel primo semestre del 2025, in Italia, quasi il 40% dei circa 900 gravi episodi informatici registrati ha coinvolto direttamente strumenti di intelligenza artificiale generativa.

Phishing e spear-phishing restano le principali modalità di attacco, ma la loro efficacia è potenziata dall’uso massiccio dei modelli linguistici: oltre l’80% delle e-mail di phishing e il 91% delle campagne di spear-phishing sfruttano oggi LLM, mentre il 52% degli attacchi basati su AI utilizza modelli pubblici per generare contenuti o codice malevolo.

Nel primo semestre di quest’anno, infatti, c’è stato un incremento del 47% degli attacchi basati su tecniche di intelligenza artificiale rispetto all’anno precedente ed entro la fine del 2025 gli incidenti cyber guidati da AI possono superare i 28 milioni a livello globale.

Sicurezza “by design”, resilienza, continuità operativa e collaborazione pubblico-privato i pilastri della strategia di Aruba

Riflessioni e numeri che evidenziano l’urgenza di un approccio coordinato alla sicurezza di cloud e AI. La strategia di Aruba si basa su alcuni pilastri, tra cui sicurezza “by design” e resilienza, continuità operativa, servizi gestiti sicuri, collaborazione con la comunità CISO e le Istituzioni.

In termini di approccio “security-by-design, Aruba progetta le proprie piattaforme con la sicurezza integrata fin dalla fase di sviluppo. La direttiva NIS2 richiede ai fornitori di servizi cloud “piani di continuità operativa robusti, strategie di backup geograficamente distribuite e procedure di disaster recovery”, testate regolarmente.

L’affidabilità del servizio è fondamentale e per questo Aruba garantisce ridondanza, replicazione dei dati e supporto 24/7 per minimizzare i downtime. Ad esempio, infrastrutture data center (in Italia e in Europa) consentono di mantenere attivi i servizi anche sotto attacco o guasto. Questo supporto è parte integrante del modello di servizio, come previsto anche dalle linee guida NIS2.

Il provider italiano propone soluzioni in outsourcing (SaaS, PaaS, IaaS) per i servizi di sicurezza gestiti, con gestione end-to-end della sicurezza. Ciò include servizi di security monitoring, patch management, SOC condiviso e cifratura dati. Il CISO del provider può garantire inoltre che i servizi siano conformi agli standard (ISO 27001, CSA STAR, ecc.).

Fondamentale è anche la collaborazione pubblico-privato, con enti come l’ACN (Agenzia per la Cybersecurity Nazionale), e l’allineamento alle normative europee come DORA e NIS2, che assicurano lo scambio di informazioni sulle minacce (threat intelligence sharing) e lo sviluppo di best practice condivise.

L’AI Safety Initiative di CSA Italy

Tra le diverse iniziative portate avanti da CSA a livello mondiale c’è la “AI Safety Initiative”, che coinvolge esperti nell’elaborare linee guida e strumenti per l’uso sicuro di questa tecnologia. Ad esempio, è stato lanciato “STAR for AI”, il primo framework globale per una governance trasparente e responsabile dell’intelligenza artificiale, basato su controlli allineati agli standard ISO.

CSA sviluppa anche certificazioni come il futuro “TAISE – Trusted AI Safety Expert” e workshop dedicati. L’organizzazione collabora inoltre nel definire policy sull’AI+, partecipando a gruppi di lavoro internazionali e promuovendo best practice per le imprese italiane.

L’obiettivo dell’associazione, come ha spiegato Manfredi, “rimane quello di rendere l’adozione del Cloud ed AI non solo sicura ma responsabile, indirizzando affidabilità, trasparenza, etica, compliance e privacy”.

Nel corso dell’evento, i rappresentanti della CISO Cloud Community hanno poi condiviso esperienze e strategie legate alla governance della sicurezza, alla gestione del rischio e compliance nei contesti cloud ed AI.

A fine giornata c’è stata infine la visita guidata al Global Cloud Data Center di Aruba, una delle infrastrutture più avanzate d’Europa.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/cloud-sicurezza-informatica-e-ai-al-centro-dellevento-di-aruba-e-csa-italy-a-ponte-san-pietro/556218/




COP30. Giovannini (ASviS): “Attesa per le mosse di Cina e USA, ma il mondo guarda all’Ue”. Che partita giocherà Bruxelles?

È in corso a Belem, in Brasile, la XXX Conferenza delle Parti della Convenzione quadro delle Nazioni Unite sui cambiamenti climatici, più conosciuta con l’acronimo di COP30.
Le principali sfide del summit riguardano la necessità di colmare il divario tra gli impegni e le azioni concrete sul clima, accelerando la decarbonizzazione globale e la transizione energetica, aumentando i finanziamenti climatici, e rafforzando le politiche di adattamento. Temi centrali anche per il raggiungimento degli obiettivi di sviluppo sostenibile dell’Agenda 2030, che abbiamo approfondito con Enrico Giovannini, co-fondatore e direttore scientifico dell’Alleanza Italiana per lo Sviluppo Sostenibile (ASviS), professore ordinario di Statistica economica e Sviluppo sostenibile all’Università di Roma “Tor Vergata”, già ministro delle Infrastrutture e della mobilità sostenibili del Governo Draghi (febbraio 2021 – ottobre 2022) e del Lavoro e delle Politiche sociali del Governo Letta (aprile 2013 – febbraio 2014).

COP30, che partita sta giocando l’Unione europea?

Key4Biz. Riguardo alla COP30 ultimamente ha scritto: “non è una partita da osservare stando a casa, ma una partita da giocare”. Secondo lei, che partita sta giocando l’Unione europea?

Enrico Giovannini. “Se prendiamo in considerazione i documenti ufficiali approvati dal Consiglio e dalla Commissione europea, sembra una partita analoga a quella che si è già giocata nel passato, in cui l’Europa gioca un ruolo di leadership. Basti pensare a quando, nel 2019, con la nuova Commissione guidata da Ursula von der Leyen, si lanciò il Green Deal, che è un insieme complesso di iniziative per uno sviluppo sostenibile da tutti i punti di vista, con l’obiettivo di diventare neutrali dal punto di vista carbonico entro il 2050, il che non vuol dire che non emetteremo più gas climalteranti, ma che li compenseremo. Quando questo obiettivo fu annunciato, in molti sorrisero, ma successivamente il Giappone, la Corea del Sud, il Sudafrica e altri paesi hanno dichiarato obiettivi analoghi. La Cina, invece, ha preferito posticipare, annunciando il target entro i 2060, l’India ancora dopo, entro il 2070. Ma complessivamente, grazie alla leadership europea, il mondo intero o quasi si è mosso nella direzione della decarbonizzazione, su cui l’Europa ha fatto molti passi avanti, tant’è vero che, secondo le previsioni, entro il 2030 taglieremo le emissioni rispetto al 1990 del 55%, raggiungendo l’obiettivo che ci eravamo prefissati”.

Nel secondo tempo della partita, però, il vento è cambiato. Ora, una parte dei Paesi dell’Unione europea dice che gli obiettivi fissati al 2040 sono troppo ambiziosi. E anche per il 2050 si è detto: vedremo. In previsione della COP30, i ministri dell’Ambiente dei Paesi dell’Unione, quindi i Governi, hanno detto, va bene, tagliamo le emissioni del 90%, però con un 5% di flessibilità. Ma soprattutto hanno detto che questi obiettivi verranno rivisti ogni due anni in funzione dell’andamento della tecnologia, dei mercati e altre variabili chiave. E questo è un passo indietro enorme, perché lascia libero chiunque, tra due anni, quattro anni, sei anni e oltre, di fare retromarcia sugli impregni presi. Tant’è vero che le imprese stesse stanno dicendo: così introducete un elemento di forte incertezza.
Nel frattempo – ha proseguito Giovannini – altre parti del mondo hanno deciso di accelerare, come Cina, India e Africa, mentre gli Stati Uniti, come sappiamo, hanno cambiato strada. Quindi, se dovessimo giudicare l’Europa dagli impegni assunti, non prenderemmo certo dieci, forse sette e mezzo, e soprattutto non è chiaro se la delegazione europea giocherà alla COP di Belém per vincere o per pareggiare. Al momento non sappiamo nulla, perché le vere negoziazioni sono partite questa settimana”.

Enrico Giovannini, Direttore Scientifico ASviS

Key4Biz. La COP30 mira ad accelerare l’azione climatica, in particolare la decarbonizzazione, attraverso la finanza climatica e il sostegno ai Paesi più vulnerabili. Che effetti avranno le decisioni prese in questi giorni in Brasile sul raggiungimento degli obiettivi di sviluppo sostenibile dell’Agenda 2030?

Enrico Giovannini. Un grande conferenza internazionale si è svolta nello scorso luglio a Siviglia sui temi della finanza sostenibile. Gli Stati Uniti non hanno partecipato, ma ciononostante, sono state raggiunte conclusioni interessanti. Ma quando queste ultime sono andate all’Assemblea Generale dell’ONU, chi ha votato contro? Gli Stati Uniti, ovviamente, ma anche Israele e Argentina, guarda caso due Paesi strettamente legati a Washington.
Come prima cosa, bisognerà quindi capire, e questo ce lo diranno i negoziatori quando saranno arrivati alla fine dei lavori, in che modo gli Stati Uniti avranno operato, o disinteressandosi del tema o spingendo, da fuori, i Paesi storicamente alleati a bloccare le conclusioni più ambiziose e poter dire che la COP30 è ormai morta e che quindi è inutile andare avanti per questa strada. Gli esperti della materia sanno bene che gli accordi, non solo della COP30, ma anche di altre conferenze internazionali, risentono molto dei blocchi tra Paesi alleati, non solo dell’azione dei singoli Stati.
Da questo punto di vista, sarà interessante vedere cosa farà la Cina, anche dietro le quinte, perché Pechino, su una serie di tematiche, tra cui quella climatica, è ormai alla guida del cosiddetto Sud globale, non solo dei paesi BRICS (ricordiamoci che alle Nazioni Unite c’è storicamente il “gruppo dei 77, più la Cina”, cioè una coalizione in grado di bloccare le decisioni dell’Assemblea Generale). Dobbiamo ormai renderci conto che questa, come molte altre, è una partita tra colossi dall’esito incerto.
Quello che però è evidente è che molti guarderanno al ruolo dell’Unione europea. Il fatto che Ursula von der Leyen sia voluta andare a Belem, presentando l’accordo sul 90% di tagli delle emissioni climalteranti, è un segnale positivo, ma poi bisognerà vedere quanto l’Unione europea vorrà far valere il suo peso complessivo nei negoziati. L’Ungheria, che recentemente ha cercato una sponda con gli Stati Uniti su vari temi, come si comporterà? Gli altri 9 Paesi, guidati da Polonia e sempre Ungheria, che hanno comunque votato contro il taglio al 90% nel Consiglio europeo, come si comporteranno? L’Unione europea farà rispettare il difficile compromesso raggiunto, o ogni paese andrà per conto suo? Questo è un aspetto politico molto importante e l’esito delle prossime decisioni determinerà come l’Europa sarà vista da fuori. Ovviamente, se 9 Paesi su 27 giocano una partita diversa da quella coerente con la posizione del Consiglio, la credibilità dell’Unione subirà un duro colpo”.

Ursula von der Leyen, Presidente della Commissione europea

La digitalizzazione alla base dello sviluppo sostenibile

Key4Biz. La Conferenza sul clima in Brasile ha visto il lancio di iniziative come il Green Digital Action Hub, orientate a integrare innovazione tecnologica e sostenibilità. Come valuta l’impatto delle tecnologie verdi nel promuovere uno sviluppo equo e inclusivo?

Enrico Giovannini. “Come scrivevo nel mio libro del 2018, ‘L’utopia sostenibile’, per raggiungere entro il 2030 gli obiettivi di sviluppo sostenibile fissati dall’ONU, servono tre elementi chiave: le tecnologie, la governance dei processi e il cambiamento delle scelte degli individui. Se manca anche uno di questi tre elementi non c’è modo di seguire la strada dello sviluppo sostenibile. In quel libro parlavo soprattutto di tecnologie digitali e di tecnologie per l’energia, ma anche di economia circolare, che a sua volta richiede l’uso di tecnologie digitali, compresi i sensori per recuperare gli scarti e i rifiuti. Parlavo, quindi, di economia ‘digi-circolare’, proprio perché questi due elementi sono inscindibili.
Da allora, grazie alle analisi dell’ISTAT e di altri istituti di ricerca, sappiamo che le imprese italiane che hanno investito simultaneamente su digitale e sostenibilità hanno ottenuto ottimi risultati in termini di sostenibilità, ma anche di profitti, di competitività e di produttività. D’altra parte, pensando alle ultime soluzioni per il risparmio energetico, ma anche per l’agricoltura di precisione e per l’economia circolare, tutte richiedono una forte componente di digitalizzazione”.

[embedded content]

L’AI si sta diffondendo rapidamente, in un mondo in larga parte ancora analogico

Key4Biz. Anche l’intelligenza artificiale che è stata chiamata in causa alla COP30. Il problema è che questa tecnologia ha un forte impatto in termini di consumi energetici ed idrici e di emissioni nocive. Come si inserisce questo fattore così critico nella COP30 e nella stessa Agenda 2030?

Enrico Giovannini. “Anche qui c’è preoccupazione per la velocità con cui l’intelligenza artificiale si sta diffondendo, in un mondo che in gran parte è ancora analogico. Ferma restando la preoccupazione per la privacy e per la concentrazione di poteri crescenti in poche mani, ci sono varie considerazioni da fare. Come per tutte le altre tecnologie, la velocità con cui nuovi sistemi di raffreddamento, di efficientamento energetico, etc. si stanno applicando anche ai datacenter per l’intelligenza artificiale è straordinaria. I primi datacenter non erano progettati per essere efficienti sul piano energetico.
Oggi le cose sono molto cambiate e col passare del tempo avremo un grande efficientamento energetico di queste infrastrutture, ma non c’è dubbio che, nel frattempo, lo sviluppo dell’AI provoca un aumento della domanda di energia a livello globale. C’è da chiedersi, è un aumento sostitutivo o integrativo di altre componenti della domanda?
In tutte le curve di innovazione tecnologica si dice che si segue un andamento in cui si parte lentamente, poi c’è un’accelerazione e quindi si giunge ad una fase più stabile. Per l’intelligenza artificiale non è così: siamo già nella fase di straordinaria accelerazione. Molti pensano che anche qui, come è stato nel passato per altre tecnologie digitali, siamo di fronte ad un hype, ad una bolla che forse è destinata a scoppiare, altri ritengono che l’AI pervaderà tutte le dimensioni della nostra società e dell’economia. Quindi l’incertezza è altissima. Ad esempio, se i sistemi di intelligenza artificiale consentiranno di abbattere drasticamente i consumi ottimizzando la gestione della rete elettrica, quale sarà il risultato finale? lo scopriremo solo vivendo, direbbe Baglioni. Così come l’intelligenza artificiale applicata alla gestione della mobilità di una città, che effetti avrà? Di nuovo, lo scopriremo col tempo.
Rimane di fondamentale importanza, però, che l’investimento per far girare i data center non trascuri l’elemento energetico. Va rifiutata la classica logica dei due tempi: intanto lo faccio con energie sporche, poi mi sposterò su energie pulite. No, oggi la tecnologia consente di impiegare sistemi basati su fonti energetiche rinnovabili a prezzi più bassi rispetto a quelli basati sulle energie fossili. Inoltre, gli accumulatori stanno facendo passi avanti rapidissimi, quindi io mi auguro che anche su questo, come sugli altri fronti, le considerazioni ambientali vengano prese in seria considerazione fin dall’inizio e non solo dopo”.

La XXX Conferenza delle Parti della Convenzione quadro delle Nazioni Unite sui cambiamenti climatici a Belem, in Brasile

Key4Biz. L’AI offre grandi opportunità e vantaggi, ma ci vuole però del tempo per raggiungere i risultati attesi…

Enrico Giovannini. “In Italia ci sono numerosi datacenter in preparazione. C’è da chiedersi, veramente serviranno tutti questi datacenter? Io non credo. Nei primi anni 2000, io ero il direttore di statistiche dell’OCSE e diffondemmo dati scioccanti sul fatto che all’epoca il commercio elettronico fosse solo lo 0,5% del totale dei consumi. Eppure, tutti parlavano di questo fenomeno come se fosse dominante.
Ovviamente, il fatto che se ne parlasse favorì un enorme investimento in questo settore, i cui frutti arrivarono però 10 anni dopo, quando le vendite online decollarono rapidamente. La caratteristica di questa nuova innovazione tecnologica è la sua pervasività e soprattutto l’impatto sui comportamenti delle imprese, degli individui e della società aumenta a velocità elevatissima”.

Tra COP30 e Agenda 2030, l’Italia da che parte va?

Key4Biz. Quale strada l’Italia deve prendere per dimostrare una maggiore coerenza tra le politiche nazionali e gli impegni internazionali presi a livello COP e dell’Agenda 2030?

Enrico Giovannini. “Dopo la spinta fortissima data dal PNRR alla transizione a fonti energetiche rinnovabili, non è chiaro cosa succederà da qui in avanti. Gli atti assunti dal governo, dal blocco del fotovoltaico a terra agricolo ai decreti che addirittura il TAR ha criticato perché davano troppo potere alle Regioni e dunque impedivano l’accelerazione dell’installazione delle rinnovabili, con il conseguente non rispetto degli impegni assunti a livello europeo, non stanno spingendo nella direzione e con la velocità necessarie.
D’altra parte, il PNIEC, il Piano nazionale integrato per l’energia e il clima, è decisamente inadeguato; il Piano strutturale di bilancio, che disegna la finanza pubblica nei prossimi anni, non prevede uno stimolo all’installazione delle rinnovabili, nonostante i costi altissimi dell’energia.
Quando il PSB, il piano strutturale di bilancio è stato pubblicato a settembre del 2024, come ASVIS facemmo notare che mancavano fondi anche per attuare i regolamenti approvati a livello europeo, per esempio quello sulla Nature Restoration. Sulla Direttiva “Case Green” vedremo cosa sarà inserito nella nuova legge di bilancio, ma al momento c’è pochissimo. E potrei continuare. Quindi, purtroppo, non ci siamo e lo dicono tante imprese, i sindacati e le associazioni scientifiche e di ricerca. Insomma, dobbiamo cambiare marcia e velocità”.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/cop30-giovannini-attesa-per-le-mosse-di-cina-e-usa-ma-il-mondo-guarda-allue-che-partita-giochera-bruxelles/556179/




AI, Pichai (CEO Google): “Se la bolla scoppia nessuno immune”. E intanto da SoftBank a Peter Thiel tutti vendono azioni Nvidia

“Se la bolla dell’IA dovesse scoppiare, nessuna azienda sarebbe immune, Google compresa”.

Queste parole sono state dette non da uno qualunque ma dal CEO di Alphabet e GoogleSundar Pichai, in un’intervista esclusiva alla BBC nella sede di Mountain View. Per il capo di Big G. “l’ondata di investimenti nell’intelligenza artificiale è straordinaria, ma è anche segnata da “elementi di irrazionalità”.

Il vero problema che fa paura a tutti? Quello energetico

Pichai sottolinea come l’attuale ciclo di investimenti abbia raggiunto dimensioni senza precedenti. Google, per esempio, è passata da meno di 30 miliardi di dollari di spesa annua a oltre 90 miliardi, mentre l’intero settore ha superato la soglia del trilione di dollari destinati a infrastrutture e sviluppo.

Una corsa alimentata dalla crescente domanda di strumenti come Gemini, dai nuovi superchip proprietari e dalla competizione sempre più serrata con OpenAI e gli altri protagonisti globali.

Il manager mette però in guardia anche sull’enorme fabbisogno energetico dell’AI: secondo l’Agenzia Internazionale dell’Energia, i data center rappresentavano già l’1,5% dei consumi globali nel 2023. Una sfida che, secondo Pichai, richiede infrastrutture e fonti rinnovabili più ambiziose per non frenare l’innovazione e la crescita.

Clem Delangue, cofondatore e CEO di Hugging Face: “La bolla? Non è dell’AI, ma degli LLM”

Clem Delangue, cofondatore e CEO di Hugging Face, sostiene che l’attuale euforia nel settore tecnologico non sia una bolla generalizzata sull’AI, bensì una specifica ‘bolla degli LLM’ (large language models).

Durante un evento organizzato da Axios, Delangue ha spiegato che l’interesse eccessivo per modelli linguistici generali, come quelli che alimentano ChatGPT o Gemini, potrebbe ridimensionarsi nel breve termine, mentre l’AI, nella sua interezza, è ancora in una fase iniziale di espansione.

Secondo Delangue, la convinzione che un singolo modello possa risolvere ogni problema è illusoria. A suo avviso, il futuro sarà dominato da una pluralità di modelli più piccoli, specifici e personalizzabili, adatti a contesti aziendali e infrastrutture locali.

Tutti vendono azioni Nvidia: da Softbank a Peter Thiel

Thiel Macro, l’hedge fund di Peter Thiel, ha chiuso venduto completamente la sue azioni in Nvidia nel terzo trimestre del 2025. L’operazione ha riguardato 537.742 azioni, per un controvalore di circa 100 milioni di dollari calcolato sui prezzi di chiusura del 30 settembre. La mossa conferma come alcuni grandi investitori stiano scegliendo di ridurre l’esposizione sui titoli più surriscaldati del settore AI.

La decisione di Thiel Macro arriva a distanza di pochi giorni da un’altra uscita di peso: SoftBank ha infatti liquidato l’intera partecipazione in Nvidia per 5,8 miliardi di dollari. Il gruppo giapponese ha spiegato che le risorse saranno reindirizzate verso nuovi investimenti nell’intelligenza artificiale, confermando una strategia rivolta a rafforzare ulteriormente la sua presenza nei modelli e nelle tecnologie di nuova generazione.

Nonostante l’uscita da Nvidia, il fondo rimane investito in Apple, Microsoft e, in misura più contenuta, in Tesla. Peter Thiel resta una figura centrale nell’ecosistema tech americano: cofondatore di PayPal insieme a Elon Musk, primo grande finanziatore esterno di Facebook, presidente di Palantir Technologies e voce influente nel panorama politico statunitense, dove mantiene rapporti stretti con il presidente Donald Trump.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-pichai-ceo-google-se-la-bolla-scoppia-nessuno-immune-e-intanto-da-softbank-a-peter-thiel-tutti-vendono-azioni-nvidia/556054/




Ue. Digital Omnibus, più rischi che crescita. Meno vincoli sull’AI, ma anche meno diritti

Digital Omnibus: la grande semplificazione Ue che rischia di indebolire la protezione dei dati. Favorite le Big Tech?

Oggi il trilogo europeo — il negoziato tra Consiglio dell’Unione europea, Parlamento europeo e Commissione europea — ha dato il via libera al Digital Omnibus, l’ampio pacchetto di semplificazione normativa con cui Bruxelles promette di rendere l’Europa “più semplice e veloce”.
Si tratta della settima proposta omnibus, che si prefigge di realizzare uno sforzo di semplificazione mirato a ridurre gli oneri amministrativi di almeno il 25 % e di almeno il 35 % per le piccole e medie imprese fino alla fine del 2029.

Abbiamo tutti gli ingredienti per avere successo nell’UE. Abbiamo talento, infrastrutture, un grande mercato interno unico. Ma le nostre aziende, in particolare le nostre start-up e le piccole imprese, sono spesso trattenute da strati di regole rigide. Riducendo la burocrazia, semplificando le leggi dell’UE, aprendo l’accesso ai dati e introducendo un portafoglio comune europeo per le imprese, diamo spazio all’innovazione affinché avvenga e sia commercializzata in Europa. Ciò avviene in modo europeo: facendo in modo che i diritti fondamentali degli utenti rimangano pienamente tutelati“, ha dichiarato Henna Virkkunen, Vicepresidente esecutiva per la Sovranità tecnologica, la sicurezza e la democrazia.

Di fatto, con l’omnibus digitale di oggi, la Commissione fa fare passi in avanti concreti alla sua proposta di semplificare le norme esistenti in materia di intelligenza artificiale (AI), cybersecurity e dati. Il meccanismo verrà inoltre utilizzato, secondo gli intenti di Bruxelles, anche per “pagare le tasse”.

Il pacchetto, come spiegato da Bruxelles in un comunicato ufficiale, “mira a facilitare il rispetto degli sforzi di semplificazione stimati per risparmiare fino a 5 miliardi di euro” in costi amministrativi entro il 2029. Inoltre, i portafogli europei delle imprese potrebbero sbloccare altri 150 miliardi di euro di risparmi ogni anno da reinvestire nel tessuto imprenditoriale continentale.  

Ma dietro questa operazione di “pulizia tecnica” del digital acquis, il corpus legislativo europeo sul digitale, si intravede un cambio di paradigma che potrebbe ridisegnare — secondo molti al ribasso — alcuni tra i più importanti baluardi regolatori degli ultimi anni: GDPR, AI Act, Data Act, Direttiva e-Privacy e Direttiva NIS2.

Più spazio per innovare e crescere? O un indebolimento della tutela dei nostri diritti?

Secondo la Commissione, si tratta di un lavoro puramente tecnico per eliminare ridondanze, allineare definizioni e alleggerire gli oneri per imprese e pubbliche amministrazioni.

La proposta odierna rappresenta un primo passo importante nella nostra agenda per la semplificazione digitale, volta a creare un contesto imprenditoriale più favorevole per le imprese europee. Semplificando le norme, riducendo gli oneri amministrativi e introducendo norme più flessibili e proporzionate, continueremo a mantenere il nostro impegno di dare alle imprese dell’UE più spazio per innovare e crescere“, ha affermato Valdis Dombrovskis, Commissario per l’Economia e la produttività e per l’Attuazione e la semplificazione.

Tuttavia, una lettura più attenta del pacchetto mostra come questa “semplificazione” rischi di tradursi in un indebolimento delle tutele, un aumento delle incertezze e un vantaggio competitivo soprattutto per le grandi piattaforme tecnologiche.

Un paradosso, se si considera che la narrazione ufficiale punta a “sostenere la crescita e la competitività delle imprese europee”.

Che cos’è il Digital Omnibus

Il Digital Omnibus è l’intervento più ampio mai realizzato sul digital acquis, perchè tocca quasi tutti i grandi atti legislativi del digitale europeo.
L’obiettivo dichiarato è eliminare sovrapposizioni normative e rendere più chiari gli obblighi per imprese e pubbliche amministrazioni, dopo anni in cui le nuove norme — dal GDPR al DMA, dal DSA alla NIS2 — si sono accumulate senza un coordinamento organico.

In altre parole, Bruxelles ammette che la stratificazione normativa è diventata un problema in sé, generando:

  • costi amministrativi elevati,
  • incertezza giuridica,
  • difficoltà di applicazione,
  • incoerenze tra atti legislativi diversi.

Fin qui, nulla di male: una revisione tecnica era attesa. Il punto è “come” la Commissione ha scelto di risolvere il problema.

Cosa cambia sul GDPR: semplificazione o deregulation mascherata?

Tra le parti più delicate del pacchetto c’è la revisione del GDPR, ancora oggi il regolamento più citato come modello globale di tutela dei dati personali. Il rischio, però, è che la riforma finisca per ridurre proprio quella protezione che ha reso il GDPR uno standard internazionale.

Il problema, come ha spiegato l’avvocato Laura Greco, Studio Legale Giusella Finocchiaro, su Ntplus del Sole 24Ore, sono le “eccezioni”, che vogliono essere introdotte.

Tra gli interventi potenzialmente più problematici emergono:

1. Estensione della categoria dei “dati non personali”

La proposta potrebbe considerare “non personali” dati pseudonimizzati, purché un singolo operatore non sia in grado di reidentificarli. Come ha spiegato Mario Mariniello in un lungo approfondimento su Bruegel.
Ma ciò ignora un fatto elementare: la reidentificazione è spesso possibile tramite correlazione con altre basi dati, anche da parte di attori diversi.

2. Uso di categorie sensibili per l’addestramento dell’AI

Si aprirebbe alla possibilità di usare dati sensibili — come salute, orientamento sessuale o opinioni politiche — purché non vengano “direttamente” rivelati.
Peccato che gli algoritmi possano inferire queste caratteristiche in modo estremamente preciso, anche senza dati dichiarati.
Esempio:

  • il genere può essere dedotto da pattern salariali o cronologia di navigazione;
  • l’orientamento sessuale è stato inferito con alta accuratezza da immagini facciali.

3. Accesso più difficile ai propri dati

Le persone potrebbero vedersi respingere richieste di accesso, portabilità o opposizione alla profilazione se il titolare ritiene che la richiesta “non sia finalizzata alla protezione dei dati personali”.
Un criterio vago che rischia di impedire l’accesso ai dati anche nei contenziosi di lavoro o in caso di discriminazioni algoritmiche.

4. Raccolta diretta di dati dai dispositivi degli utenti

Il Digital Omnibus potrebbe legittimare pratiche invasive, come l’estrazione di dati dagli smartphone per presunte finalità di sicurezza.
Un terreno scivoloso, perché abbassa la soglia di protezione contro la sorveglianza commerciale e tecnica.

Un regalo per Big Tech, non per l’innovazione europea

Uno dei motivi dichiarati dal Digital Omnibus è la necessità di favorire la competitività delle aziende europee. Ma gli effetti potrebbero essere opposti.

Le grandi piattaforme statunitensi — già dominanti nel mercato europeo — dispongono di risorse, infrastrutture e basi dati tali da trarre enormi vantaggi dall’allentamento dei vincoli su utilizzo ed estrazione dei dati.
Le PMI europee, invece, rischiano di non beneficiare affatto della riforma, perché il divario tecnologico non dipende principalmente dalla regolazione, bensì da: mancanza di competenze, difficoltà di accesso ai capitali, frammentazione dei mercati nazionali, scarsità di dataset europei.

Semplificare gli obblighi non risolve queste criticità, semmai favorisce i player che hanno già un vantaggio competitivo consolidato.

Il gruppo dei Verdi al Parlamento europeo ha accusato Ursula von der Leyen di cedere “sotto la pressione dell’amministrazione Trump e delle lobby delle Big Tech. Mettendo in discussione i nostri successi digitali, l’UE rischia di stendere il tappeto rosso per un modello di business basato su dati rubati, clamore e nessuna considerazione per i diritti umani o il pianeta“, ha dichiarato l’eurodeputata olandese Kim van Sparrentak. Secondo l’eurodeputata ceca Markéta Gregorová.

La fuga di informazioni sul Digital Omnibus rivela che la Commissione sta lavorando a un piano di portata molto più ampia di quanto annunciato e questo senza una valutazione d’impatto. Ciò solleva seri dubbi sulla sua capacità di valutare adeguatamente le implicazioni per l’applicazione dei nostri diritti fondamentali. Sono sorpresa e preoccupata che il GDPR venga riaperto e indebolito nella sua sostanza“, ha sottolineato l’eurodeputata

Tornano in mente le parole di Giovanni Zorzoni, oggi vice presidente dell’AIIP, sulla pericolosità del Cloud Act americano per i dati personali dei cittadini, “perché consente di fatto alle autorità statunitensi di ottenere l’accesso ai dati detenuti da aziende americane anche al di fuori dei confini USA, senza adeguate tutele giuridiche“.

Il vento deregolatorio che tira da Washington e passa per Parigi e Berlino

Il contesto geopolitico spiega bene la direzione intrapresa. Negli Stati Uniti, Donald Trump ha chiesto apertamente un “federal standard per deregolare l’AI, accusando gli Stati di ostacolare la crescita con troppe norme e con approcci “ideologici”, come ha riportato Maria Curi su Axios.

Gli investimenti nell’intelligenza artificiale stanno contribuendo a rendere l’economia statunitense la più dinamica al mondo, ma l’eccessiva regolamentazione da parte degli Stati minaccia di indebolire questo motore di crescita“, ha scritto Trump su Truth Social.
Dobbiamo avere un unico standard federale invece di un mosaico di 50 regimi normativi statali. Possiamo farlo in un modo che protegga i bambini e impedisca la censura!”, ha sottolineato Trump.

L’obiettivo è chiaro: permettere alle aziende americane di innovare più rapidamente e senza vincoli.

In Europa, le due principali economie — Francia e Germania — stanno spingendo per un allentamento delle regole sull’AI. Come raccontato da Maximilian Henning su Euractive, entrambe hanno chiesto un “anno di pausa” nell’applicazione delle norme più stringenti dell’AI Act per i modelli ad alto rischio.
Una posizione sostenuta da Svezia e Cechia, ma osteggiata da Spagna e Paesi Bassi.

Il Digital Omnibus si inserisce quindi in un clima politico in cui la disciplina europea sul digitale viene sempre più percepita come un freno, non come un vantaggio competitivo.

Semplificare sì, indebolire no: cosa servirebbe davvero all’Europa

Il paradosso è evidente: mentre la Commissione parla di “chiarezza normativa”, molte delle misure in discussione rischiano di generare più incertezza e più rischi per i cittadini, senza contribuire realmente a rafforzare l’ecosistema europeo dell’AI.

L’alternativa esiste ed è già stata proposta da diversi esperti:
creare una Digital Enforcement Agency europea, un’autorità indipendente capace di:

  • applicare in modo uniforme le norme digitali,
  • fornire interpretazioni tecniche chiare,
  • coordinare le autorità nazionali,
  • offrire certezza agli operatori economici.

Non servono meno regole, ma regole più chiare, coerenti e applicate con efficienza.

Una semplificazione che complica

Il Digital Omnibus potrebbe rivelarsi un passaggio storico: non perché semplifichi l’Europa digitale, ma perché rischia di dismettere, pezzo dopo pezzo, i principi fondanti della protezione dei dati e della governance dell’AI in Europa.

Mentre si parla di competitività, si rischia di:

  • indebolire il GDPR,
  • rendere opaca la gestione dei dati,
  • favorire l’espansione incontrollata delle Big Tech,
  • aumentare i rischi di discriminazione algoritmica,
  • diminuire la fiducia dei cittadini.

Il trilogo di oggi non è un mero passaggio tecnico:
è una scelta politica sull’identità digitale dell’Europa.
La domanda è: continuerà a essere un modello globale di protezione dei dati e innovazione responsabile, o diventerà il terreno di gioco delle grandi piattaforme?

Si rischia di di produrre un quadro normativo frammentato e di incertezza per le imprese

L’ENNHRI, la rete europea che riunisce le istituzioni nazionali indipendenti per i diritti umani, avverte che la proposta Omnibus della Commissione — insieme alle posizioni negoziali di Consiglio e Parlamento — si discosta, in diversi punti, dai principali standard internazionali su imprese e diritti umani. Tra questi, i Principi guida ONU su imprese e diritti umani (UNGPs) e le Linee guida OCSE sulla condotta d’impresa responsabile, oltre che dalle buone pratiche che molte aziende europee stanno già adottando in materia di due diligence ambientale e sociale.

Secondo l’organizzazione europea, tali deviazioni rischiano di produrre un quadro normativo frammentato, generando incertezza per le imprese e vanificando l’occasione di colmare le lacune ancora esistenti. Un passo indietro che potrebbe indebolire la capacità dell’Unione europea di prevenire o contrastare in modo efficace violazioni dei diritti umani e danni ambientali lungo le catene globali del valore.

Le proposte legislative sull’omnibus digitale saranno ora presentate al Parlamento europeo e al Consiglio per l’adozione. La Commissione ha inoltre avviato oggi la seconda fase dell’agenda per la semplificazione, con un’ampia consultazione sul controllo dell’adeguatezza digitale aperta fino all’11 marzo 2026. 

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ue-digital-omnibus-piu-rischi-che-crescita-meno-vincoli-sullai-ma-anche-meno-diritti/556068/




Digital Omnibus: l’Europa ridisegna il quadro normativo digitale tra competitività e ridefinizione dei diritti fondamentali

Il Digital Omnibus, presentato dalla Commissione Europea il 19 novembre 2025, rappresenta la più ampia revisione del quadro normativo digitale europeo dall’entrata in vigore del GDPR nel 2018. L’iniziativa introduce modifiche parallele a molteplici regolamenti digitali dell’UE, tra cui GDPR e AI Act, sollevando un dibattito senza precedenti tra necessità di competitività e protezione dei diritti fondamentali.

Quando si parla di governance digitale europea, è difficile non percepire la tensione che attraversa questa riforma. Da un lato, l’esigenza concreta di rendere operabile un quadro normativo che negli ultimi anni si è stratificato fino a diventare labirintico. Dall’altro, il rischio tangibile che la semplificazione diventi il pretesto per una rinegoziazione dei principi fondamentali che hanno reso l’Europa punto di riferimento globale in materia di protezione dati.

L’architettura del Digital Omnibus: obiettivi e tempistiche

L’obiettivo dichiarato dalla Commissione Europea è ridurre il carico amministrativo di almeno il 25% per tutte le imprese e del 35% per le PMI, rispondendo alle preoccupazioni espresse nel rapporto Draghi sulla competitività europea. La Commissione ha aperto una consultazione pubblica il 16 settembre 2025, chiusasi il 14 ottobre, seguita dalla presentazione ufficiale del pacchetto normativo.

L’iniziativa tocca simultaneamente:

Le aree di intervento spaziano dalla semplificazione del reporting degli incidenti di cybersecurity all’armonizzazione delle definizioni cross-settoriali, dalla modernizzazione delle regole sui cookie alla facilitazione dell’applicazione pratica dell’AI Act.

La rivoluzione nascosta: ridefinire il “dato personale”

Uno degli aspetti più critici e meno pubblicizzati riguarda la proposta di aggiungere un “approccio soggettivo” nel testo del GDPR: se un’azienda specifica non può identificare una persona, i dati non sono “personali” per quella azienda e il GDPR cesserebbe di applicarsi.

La bozza può essere interpretata come l’abbandono della nozione che le tecniche per “isolare” una persona siano ancora coperte dalla legge. Invece, la formulazione suggerisce un’esenzione generale dal GDPR se i titolari utilizzano semplicemente “pseudonimi” (come “user12473” o dati da cookie di tracciamento) invece di nomi.

L’impatto sui settori digitali

Questa modifica avrebbe conseguenze drammatiche:

  • Tracking online: la maggior parte del tracciamento web opera tramite identificatori pseudonimi;
  • Advertising programmatico: l’intero ecosistema pubblicitario digitale si basa su ID univoci;
  • Data broker: settori interi potrebbero uscire dall’ambito di applicazione del GDPR.

Le pratiche di sicurezza previste dal regolamento hanno rappresentato un cambio di paradigma per le aziende europee. Questa revisione rischia di smantellare tale impianto.

Questo cambiamento si discosta massicciamente dall’interpretazione piuttosto ampia della Corte di Giustizia (CGUE). Esiste una giurisprudenza di oltre 20 anni che supporta una comprensione ampia di cosa costituisca “dato personale”. Dato che il termine deriva dall’Articolo 8 della Carta, è molto probabile che un cambiamento così profondo non sopravviva al controllo della CGUE.

Small-Mid Caps: una nuova categoria di imprese

Il Digital Omnibus introduce una nuova categoria di impresa – le small-mid caps (SMCs) – che si collocano tra le piccole e medie imprese (PMI) e le grandi imprese. Le SMCs sono definite come aventi meno di 750 dipendenti e un fatturato annuo fino a €150 milioni o attivi totali fino a €129 milioni.

Le imprese precedentemente categorizzate come “grandi” potrebbero ora rientrare in questa nuova categoria SMC, beneficiando di:

  • Deroghe GDPR: alcune deroghe attualmente disponibili per le PMI verranno estese alle SMCs, in particolare l’esonero dagli obblighi di tenuta dei registri ai sensi dell’Articolo 30, a meno che il trattamento dei dati personali non sia considerato a “rischio elevato”;
  • Prospetti semplificati: per offerte pubbliche di titoli;
  • Accesso facilitato ai mercati di capitali.

La Germania è stata particolarmente attiva nel plasmare questa agenda, spingendo per esenzioni per le medie imprese, procedure semplificate di richiesta dati e rimozione di disposizioni prescrittive sugli smart contract.

AI Act e intelligenza artificiale: il nodo del legittimo interesse

Tra le modifiche più significative emerge la creazione di una nuova disposizione nel GDPR che stabilisce lo sviluppo e l’operatività dei sistemi di AI come legittimo interesse del titolare del trattamento. In pratica, la Commissione Europea sta risolvendo per via legislativa un dibattito che ha attraversato l’intera comunità dei data protection officer: può l’intelligenza artificiale training fondarsi sul legittimo interesse come base giuridica?

La risposta proposta dal Digital Omnibus è affermativa e va oltre il semplice training, estendendosi all’intera operatività dei sistemi AI. Questa modifica introduce una forma di neutralità tecnologica inversa: invece di applicare le stesse regole a tutte le tecnologie, si crea un regime di favore per l’AI.

Il meccanismo “stop-the-clock” per l’AI Act

Tra gli elementi più attentamente osservati del Digital Omnibus vi è la revisione dell’AI Act, in particolare le regole per i sistemi AI ad alto rischio che dovrebbero applicarsi da agosto 2026. Con gli standard tecnici ritardati e le autorità nazionali ancora in fase di rafforzamento, sia Germania che Repubblica Ceca hanno formalmente chiesto alla Commissione di posticipare la data di inizio di un anno.

In risposta, la Commissione sta valutando un meccanismo “stop-the-clock” per allineare la tempistica della legge con la preparazione pratica. Questo rinvio, se approvato, sposterebbe l’applicazione piena dall’agosto 2026 all’agosto 2027, concedendo alle imprese e alle autorità più tempo per implementare gli standard armonizzati.

Dati sensibili: rivelati vs inferiti

La protezione rafforzata si applicherebbe dove i dati rivelano direttamente tratti sensibili. I titolari che si basano sull’inferenza di tratti sensibili (ad es. orientamento politico dalla navigazione) potrebbero affrontare meno vincoli dell’Articolo 9, ma devono comunque soddisfare gli Articoli 5 e 6 e essere consapevoli di correttezza, trasparenza e rischio di danno.

Le modifiche proposte introdurrebbero nuove esenzioni che consentirebbero agli sviluppatori di AI di processare legalmente categorie sensibili di dati come informazioni sulle convinzioni politiche o religiose, etnia o salute, per finalità di training e operatività. Questa disposizione rappresenta un punto di rottura rispetto all’architettura originaria del GDPR.

L’AI Act stabilisce precedenti normativi che potrebbero orientare future regolamentazioni internazionali. Tuttavia, il Digital Omnibus rischia di indebolire queste protezioni prima ancora della loro piena implementazione.

Cookie law e terminal equipment: la fine del consenso informato?

La Commissione intende affrontare la cosiddetta “consent fatigue” rivedendo le regole sui cookie e tecnologie di tracciamento simili, ampliando le situazioni in cui cookie e tecnologie comparabili possono essere utilizzati senza consenso. L’approccio proposto è duplice: estendere le eccezioni attuali del framework ePrivacy per includere finalità aggiuntive come sicurezza, misurazione dell’audience e fornitura di servizi richiesti dall’utente, e introdurre un meccanismo per l’espressione automatizzata e machine-readable delle preferenze degli utenti, progettato per ridurre la necessità di banner di consenso ripetitivi.

La proposta potrebbe spostare l’Europa da un sistema opt-in a qualcosa di più vicino all’opt-out, dove gli utenti devono attivamente rifiutare per fermare il tracciamento. Per i professionisti della cybersecurity, questo cambiamento ha implicazioni dirette sulla superficie di attacco dei dispositivi personali.

Accesso ai terminal equipment senza consenso

Le aziende potrebbero anche essere autorizzate a estrarre dati direttamente dai dispositivi degli utenti se determinate condizioni sono soddisfatte (ad esempio, un produttore di smartphone può sostenere di dover raccogliere dati dagli utenti per scopi di sicurezza).

Ogni tracciamento è potenzialmente un vettore di profilazione non autorizzata, di data exfiltration, di fingerprinting avanzato che può essere sfruttato per attacchi di social engineering.

Decisioni automatizzate: ampliamento delle esenzioni

Il GDPR attualmente prevede un diritto qualificato degli individui a non essere soggetti a decisioni esclusivamente automatizzate che hanno effetti legali o similmente significativi (Articolo 22 GDPR), soggetto a tre limitate esenzioni: dove la decisione è necessaria per stipulare o eseguire un contratto, autorizzata dalla legge, o basata su consenso esplicito.

La proposta del Digital Omnibus amplierebbe l’esenzione contrattuale chiarendo che una decisione automatizzata può essere presa anche quando lo stesso risultato potrebbe essere raggiunto anche con mezzi umani. Questo aggiustamento abbasserebbe la soglia per fare affidamento sulla base contrattuale e fornirebbe maggiore certezza legale per il deployment di decisioni automatizzate nell’UE.

Questa modifica faciliterebbe significativamente l’adozione di sistemi di:

  • Rating automatico per rider e lavoratori della gig economy;
  • Assegnazione turni algoritmica nei call center;
  • Monitoraggio produttività per smart worker;
  • Screening automatizzato nelle risorse umane.

ENISA Single-Entry Point: centralizzazione dell’incident reporting

Una delle proposte più tecnicamente sensate del pacchetto è il meccanismo “report once, share with all” che consente alle aziende di adempiere simultaneamente agli obblighi previsti da GDPR, NIS2, DORA e Digital Identity Regulation.

Un single-entry point ospitato da ENISA permetterebbe notifiche “report once, share many” ai sensi di NIS2, GDPR, DORA, eIDAS e il Digital Identity Regulation (e potenzialmente CER). Le entità invierebbero tramite un’unica interfaccia; le autorità competenti riceverebbero i dati giusti per il loro strumento.

Opportunità e rischi della centralizzazione

Sulla carta, si tratta di un avanzamento significativo per chi deve gestire un data breach navigando tra requisiti di notifica diversi, tempistiche discordanti, formati non standardizzati. La frammentazione degli obblighi di reporting rappresenta uno dei principali oneri amministrativi per le organizzazioni.

Tuttavia, la centralizzazione solleva questioni tecniche non banali:

  • Target ad alto valore: diventa per definizione un obiettivo primario per attacchi informatici;
  • Single point of failure: un compromesso potrebbe esporre vulnerabilità di molteplici organizzazioni;
  • Coordinamento autorità: presuppone capacità di coordinamento tra Stati membri con diverse maturità cyber.

La direttiva NIS2 introduce la responsabilità diretta del top management per la non conformità, portando la cybersecurity all’attenzione del boardroom.

Modifiche all’AI Act: auto-declassificazione e accountability diluita

Tra le modifiche più allarmanti secondo i gruppi della società civile vi è la possibilità per le aziende di dichiarare unilateralmente un sistema di AI ad alto rischio come a basso rischio e aggirare le salvaguardie senza notificare nessuno, con la rimozione del requisito di registrare i sistemi auto-esentati nel database europeo. Questa disposizione smantella un compromesso faticosamente raggiunto nel 2023: la trasparenza come contrappeso alla flessibilità dell’auto-valutazione.

Un sistema di AI può passare da alto rischio a basso rischio senza che autorità, ricercatori o società civile possano verificare la ragionevolezza della decisione. In caso di incidente – un sistema di riconoscimento facciale che produce false identificazioni, un algoritmo di credit scoring che discrimina – sarà estremamente difficile ricostruire se il sistema fosse stato originariamente classificato come ad alto rischio e successivamente declassato impropriamente.

L’approccio risk-based adottato nell’AI Act ha portato a identificare quattro livelli di rischio. Il Digital Omnibus rischia di rendere questo sistema inefficace.

Consolidamento legislativo: abrogazione e fusione

Il Data Governance Act, l’Open Data Directive e il Free Flow of Data Regulation verrebbero abrogati e le loro regole chiave fuse nel Data Act, con nuove etichette volontarie UE per intermediazione dati e altruismo dei dati.

Questo consolidamento rappresenta un cambio strutturale significativo:

  • Data Governance Act → assorbito nel Data Act;
  • Open Data Directive → assorbito nel Data Act;
  • Free Flow of Data Regulation → assorbito nel Data Act;
  • Platform-to-Business Regulation → abrogato (coperto da DSA/DMA).

Le bozze trapelate indicano che la Commissione prevede di integrare Data Act, Data Governance Act e strumenti correlati in un unico framework semplificato, riducendo sovrapposizioni e complessità della compliance.

La Germania ha spinto per esenzioni per le medie imprese, procedure semplificate di richiesta dati e rimozione di disposizioni prescrittive sugli smart contract. Berlino sostiene anche obblighi di trasparenza più leggeri, come la sostituzione di molteplici notifiche con punti di accesso digitali.

EU Digital Identity Wallet: tra ambizione e rischi

Il Digital Omnibus prevede l’integrazione con il lancio dell’EU Business Wallet, modellato sul EU Digital Identity Wallet per cittadini. Viene applicato il principio ‘one in, one out’ al Business Wallet europeo, ma le tempistiche appaiono irrealistiche.

Le criticità del Wallet

Il Wallet non può essere una piattaforma affidabile per i dati più sensibili riguardanti identità, salute e finanze, se chiunque può richiedere informazioni che vanno ben oltre ciò che è proporzionato e legale per qualsiasi scopo dato.

Un sistema che comprende tutto, dagli acquisti quotidiani ai dati sanitari e finanziari, può avere successo solo se le persone lo percepiscono come sicuro. Ogni nuova riforma o intervento affrettato creerebbe solo più incertezza e rischierebbe di far deragliare l’intero progetto.

Gli Stati membri hanno la scadenza di fine 2026 per offrire il Wallet ai cittadini, ma questo è estremamente improbabile in molti paesi, in particolare poiché gli schemi di certificazione per il Wallet devono ancora essere completati.

Le pressioni geopolitiche: il fattore USA

Un aspetto raramente discusso pubblicamente ma fondamentale riguarda le pressioni geopolitiche che stanno influenzando il Digital Omnibus.

È profondamente preoccupante che, ancora una volta, interessi geopolitici e pressioni dagli Stati Uniti sembrino guidare rinnovati tentativi di mettere in discussione o indebolire il GDPR. Attualmente, la policy making sembra essere guidata da considerazioni a breve termine piuttosto che da obiettivi a lungo termine, con il rischio di approfondire ulteriormente la dipendenza digitale dell’Europa.

Secondo diverse fonti, l’amministrazione Trump ha esercitato forti pressioni sui funzionari europei per semplificare le regole digitali in modo che il blocco rimanga competitivo con la Cina. Ciò significherà cambiamenti all’AI Act, che è stato introdotto lo scorso anno nel tentativo di combattere i pericoli dei sistemi AI ad alto rischio.

Il paradosso della sovranità tecnologica

Invece di diluire il GDPR, l’UE dovrebbe riaffermare e rafforzare i principi in esso incorporati. Questi principi potrebbero servire come fondamento per ridurre la dipendenza dalle corporazioni tecnologiche americane dominanti e per promuovere alternative europee, così come la promozione di software libero e open-source.

La competitività è un concetto relativo: i principali beneficiari dell’Omnibus potrebbero essere le grandi aziende tecnologiche statunitensi, che già esercitano un forte controllo sugli utenti europei. Anche se la performance assoluta delle aziende europee migliora, il divario con gli USA nell’AI potrebbe ampliarsi.

La questione è particolarmente rilevante per la comunità della cybersecurity italiana ed europea. L’industria europea della sicurezza informatica si è sviluppata anche grazie a un contesto normativo che valorizzava la protezione dei dati e la security by design. Un abbassamento degli standards non necessariamente favorisce le imprese europee rispetto a competitor meno attenti alla privacy e alla sicurezza.

Le voci critiche: 127 organizzazioni contro lo smantellamento mascherato

Secondo una coalizione di 127 sindacati e gruppi della società civile, ciò che viene presentato come una semplificazione tecnica delle leggi digitali europee è in realtà un tentativo di smantellare segretamente le più forti protezioni dell’Europa contro le minacce digitali. Tra i firmatari delle lettere aperte alla Commissione figurano organizzazioni come NOYB, EDRi, Access Now, il Transatlantic Consumer Dialogue.

Il cuore dell’obiezione non riguarda il principio della semplificazione – che tutti riconoscono come necessario – ma il metodo e la sostanza. Mentre il GDPR ha richiesto anni di negoziazione, la consultazione pubblica sull’Omnibus si è conclusa solo in ottobre, con un processo percepito come affrettato rispetto alla portata delle modifiche proposte.

I documenti trapelati rivelano che, nonostante le promesse della Commissione che la riforma del quadro digitale dell’UE non indebolirebbe le protezioni fondamentali per i diritti e le libertà delle persone, la realtà è che questa sarebbe “il più grande rollback dei diritti fondamentali digitali nella storia dell’UE”.

Diritti degli interessati: limitazioni e restrizioni

L’Omnibus potrebbe anche rendere più difficile per i soggetti interessati esercitare i loro diritti di accedere ai propri dati, di farli trasferire o di opporsi al trattamento, se il titolare del trattamento può dimostrare che lo scopo della richiesta del soggetto non si limita alla protezione dei dati personali. Questo potrebbe, ad esempio, minare l’accesso dei lavoratori ai dati in caso di controversia legale.

Questa modifica avrebbe impatti diretti su:

  • Contenziosi lavorativi: più difficile per i dipendenti ottenere prove;
  • Investigazioni giornalistiche: ostacoli all’accesso a informazioni di interesse pubblico;
  • Ricerca accademica: limitazioni all’accesso per finalità di studio.

Implicazioni per i professionisti della security

Per CISO, responsabili della protezione dati, esperti di digital forensics e professionisti del cyber law, il Digital Omnibus rappresenta una sfida su più livelli. Sul piano operativo, richiederà un aggiornamento significativo di policy, procedure, sistemi di compliance. Sul piano strategico, impone una riflessione più profonda sul posizionamento della funzione security.

L’Italia è stato il primo Stato membro UE a dotarsi di un framework legislativo organico su IA. Il Digital Omnibus potrebbe alterare significativamente questo quadro.

Competenze e formazione

Se il quadro normativo si orienta verso maggiore flessibilità nell’utilizzo dei dati personali per finalità di AI, la responsabilità dei security professional diventa paradossalmente più gravosa. Non potranno più fare affidamento su divieti normativi netti, ma dovranno esercitare un continuo bilanciamento tra opportunità di business e protezione dei diritti.

Sul piano della gestione degli incidenti, la centralizzazione del reporting potrebbe semplificare i processi, ma richiederà investimenti in nuovi tool e competenze. I team di incident response dovranno familiarizzare con le nuove piattaforme di notifica unificata, comprenderne i requisiti tecnici, adattare i propri playbook.

La direttiva NIS2 rappresenta una pietra miliare nell’evoluzione del panorama normativo della cybersecurity. Il Digital Omnibus deve integrarsi con questo framework senza creare ulteriori frammentazioni.

Conclusioni: una scommessa ad alto rischio per l’Europa digitale

Il Digital Omnibus non è né il disastro annunciato dai critici più radicali né la panacea promessa dai sostenitori della deregulation. È una scommessa ad alto rischio: quella che sia possibile semplificare significativamente il quadro normativo digitale europeo senza compromettere i diritti fondamentali e la sicurezza dei cittadini.

La Commissione ha presentato il Digital Omnibus il 19 novembre 2025, dopo di che le proposte seguiranno la procedura legislativa ordinaria nel Parlamento Europeo e nel Consiglio. Sono probabili emendamenti sostanziali durante il processo legislativo prima dell’adozione di qualsiasi testo finale.

Gli aspetti più critici identificati:

  1. Ridefinizione di “dato personale” potrebbe escludere interi settori dal GDPR;
  2. Pressioni geopolitiche USA rischiano di compromettere la sovranità tecnologica europea;
  3. Auto-declassificazione AI elimina trasparenza e accountability;
  4. Limitazioni diritti interessati indeboliscono protezioni fondamentali;
  5. Consolidamento normativo crea incertezza durante la transizione.

Per i professionisti della cybersecurity, il compito nei prossimi mesi sarà seguire attentamente il processo legislativo, contribuire con la propria expertise tecnica al dibattito, e prepararsi a operare in uno scenario che, comunque vadano le cose, sarà profondamente diverso da quello attuale.

Ciò che è in discussione non è solo un insieme di norme tecniche, ma la visione stessa di quale Europa digitale vogliamo costruire: un’Europa che compete abbassando gli standard, o un’Europa che compete proprio grazie alla sua capacità di garantire fiducia, sicurezza e rispetto dei diritti? La risposta a questa domanda definirà non solo il successo del Digital Omnibus, ma il ruolo stesso dell’Europa nel panorama digitale globale dei prossimi decenni.

Fonti:
Condividi sui Social Network:

https://www.ictsecuritymagazine.com/articoli/digital-omnibus-gdpr/




Nvidia, addio vendita di singole GPU. L’azienda pronta a vendere server AI assemblati

Nvidia, l’azienda che ha appena sfondato la soglia dei 5 trilioni di dollari di capitalizzazione, non sembra intenzionata a rallentare. Anzi, punta a crescere ancora di più cambiando il proprio modello industriale: non solo GPU e componenti per l’AI, ma server completi progettati e assemblati direttamente in casa.

Secondo JP Morgan, l’azienda guidata da Jensen Huang fornirà server preassemblati con GPU Rubin, CPU Vera, memoria, sistemi di raffreddamento a liquido e interfacce. Una scelta che riduce il ruolo degli ODM, cioè quei produttori che oggi non si limitano ad assemblare, ma progettano fisicamente l’hardware per conto dei grandi marchi.

Anche gli OEM, che tradizionalmente integrano componenti di diversi fornitori per creare server e infrastrutture finite, vedranno il loro peso ridimensionato: resteranno coinvolti soprattutto in installazione, logistica e post-vendita, ma non metteranno più mano al cuore dei sistemi Nvidia.

Server AI Nvidia: obiettivo tagliare i costi e accelerare il time-to-market

L’obiettivo dell’azienda è chiaro: tagliare i costi e accelerare il time-to-market grazie alla produzione in larga scala tramite colossi EMS come Foxconn, Quanta o Wistron. La complessità crescente dei nuovi moduli rende sensata questa integrazione verticale.

Il prototipo del Vera Rubin Superchip mostra quanto sia difficile gestire componenti così densi e potenti, con consumi che arrivano fino a 2,3 kW per GPU. Una potenza che richiede sistemi di raffreddamento avanzati, meglio se progettati e controllati direttamente da Nvidia per garantire efficienza e performance.

Il cambio di passo ridisegna l’intera filiera hardware dell’AI. OEM e ODM non scompaiono, ma perdono la progettazione dell’hardware centrale. Una strategia che punta a standardizzare l’infrastruttura AI e aumentare i margini, spostando sempre più l’equilibrio verso l’ecosistema Nvidia.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/nvidia-addio-vendita-di-singole-gpu-lazienda-pronta-a-vendere-server-ai-assemblati/555572/




Ragazzi italiani in difficoltà, il 42% chiede aiuto all’AI. Terragni (Garante per l’infanzia e l’adolescenza): “Adulti parte del problema”

I nostri figli sempre più fragili, l’AI “falso” salvagente in mezzo a un mare di solitudine e minacce fisiche e virtuali

In Italia, oltre il 92% dei ragazzi e delle ragazze tra i 15 e i 19 anni utilizza strumenti di intelligenza artificiale (AI) e il 41,8% li ha usati per cercare aiuto quando si sentiva triste, solo o ansioso. Una percentuale simile, oltre il 42%, li ha consultati per ricevere consigli su scelte importanti da fare.

Sono i dati contenuti nel XVI Atlante dell’Infanzia in Italia di Save the Children, dal titolo “Senza Filtri“, che accende i riflettori sull’adolescenza, tra iperconnessione, isolamento e disuguaglianze sociali.
Un’infanzia sempre più a rischio, che sembra peggiorare per tutto il percorso dell’adolescenza, visto che secondo lo studio: “Meno della metà degli adolescenti intervistati (49,6%) dichiara di avere un buon livello di benessere psicologico, con un divario di genere particolarmente marcato: solo il 34% delle ragazze mostra un buon equilibrio psicologico, contro il 66% dei ragazzi. Quasi uno su dieci si è isolato volontariamente per problemi psicologici e il 12% ha fatto uso di psicofarmaci senza prescrizione”.

Adolescenti a rischio povertà e isolamento

La vita dei cosiddetti nativi digitali si svolge in una dimensione “onlife, in cui non ci sono più barriere tra mondo fisico e virtuale. E i problemi del mondo fisico e quello virtuale si sovrappongono sempre di più, minacciando proprio quel benessere psicologico e fisico dei minori che secondo l’Atlante è sempre più vulnerabile.

Gli adolescenti in Italia sono sempre di meno: poco più di 4 milioni di 13-19enni, pari al 6,86% della popolazione (uno su 15). Nel 1983 erano 6,5 milioni (11,6%). Oltre un adolescente su quattro (26,1%) tra 11 e 15 anni è a rischio povertà o esclusione sociale.

Il 5,2% dei 12-15enni in povertà alimentare; 8,2% sotto i 16 anni in povertà energetica.

I rischi dell’iperconnessione, del cyberbullismo e delle relazioni intime stravolte dall’eccessiva esposizione a internet

Il 13% degli adolescenti mostra un uso problematico di internet (iperconnessione). Il 38% pratica il “phubbing”, controllando spesso il cellulare anche in presenza di amici o familiari. Il 27% si sente nervoso quando non ha il telefono a portata di mano.

Il 47,1% dei 15-19enni è stato/a vittima di cyberbullismo, con un aumento di 16 punti percentuali rispetto al 2018; quasi il 20% dei 14-19enni ha subito episodi offensivi più volte in un mese. Tra gli studenti stranieri, la quota di vittime ripetute di atti intimidatori è più alta (26,8%) rispetto ai coetanei italiani (20,4%).

Le stesse relazioni intime e sessualità passano sempre più per a rete: il 30% ha praticato ghosting; il 37% dei 15-19enni visita siti porno per adulti (54,5% ragazzi, 19,1% ragazze); l’8,2% usa app di incontri.

Terragni (Autorità garante per l’infanzia): “Quando parliamo degli adolescenti iperconnessi si dovrebbero attenzionare gli adulti

Richiamando alla memoria il docufilm “The Social Dilemma” e il saggio di Shoshana Zuboff “Il capitalismo della sorveglianza”, in cui si rivela il progetto di “ricablare il mondo” e di sostituirsi alla democrazia, l’Autorità garante per l’infanzia e l’adolescenza, Marina Terragni, ha inserito anche la variabile “adulti” in questo ragionamento sul rapporto estremamente delicato tra minori e tecnologie digitali.

Nel parere trasmesso al Presidente della 8ª Commissione del Senato, Claudio Fazzone, sul disegno di legge n. 1136, contenente disposizioni per la tutela dei minori nella dimensione digitale, ha dichiarato: “Quando parliamo degli adolescenti iperconnessi si dovrebbero dunque attenzionare gli adulti o “adultescenti” di riferimento: i padroni delle piattaforme, da un lato, che si assicurano enormi profitti coltivando la dipendenza dopaminergica fin dalla più tenera età degli utenti, e gli adulti di riferimento, genitori ed educatori iperconnessi, che offrono il cattivo esempio e che non potendo essere fatti oggetto di normative proibizionistiche vanno coinvolti e responsabilizzati con un ampio lavoro di informazione finalizzato a una crescita di consapevolezza. Diversamente la scena domestica vedrebbe i genitori intenti sui loro smartphone e i figli a cui è “punitivamente” interdetto l’accesso”.

Il messaggio base è che bisogna superare lo scontro tra “proibizionisti” e “antiproibizionisti” tecnologici: “ovvero tra chi ritiene che l’unico rimedio possibile per arginare la pandemia di disturbi neuropsichiatrici, cognitivi e di personalità correlati a un accesso precoce a internet e in particolare ai social network sia imporre un limite d’età e una rigorosa age verification da parte delle piattaforme; e chi invece è dell’opinione che si tratti piuttosto di far crescere il livello di consapevolezza critica tra i giovanissimi utenti”.

La vera “cura” rimane sempre la possibilità di poter contare certamente su una norma “efficace”, come quella in discussione in Italia e su su cui si vigila in Europa, ma che deve essere inserita “in un orizzonte politico che tenga al suo centro le relazioni tra il mondo adulto e quello di bambini e adolescenti, sempre nella logica del superiore interesse del minore”, ha precisato Terragni.

Che ci fanno gli adolescenti con l’AI?

Secondo lo studio pubblicato da Save the Children, praticamente quasi tutti gli adolescenti usano l’AI: il 92,5% (contro il 46,7% degli adulti).

Il 30,9% dei ragazzi – quasi uno/a su tre – tutti i giorni, il 43,3% qualche volta a settimana. Solo il 7,5% non la utilizza mai.

Nonostante si tratti di strumenti con impatti molto diversi, i chatbot (Chat GPT, Claude, Dixit) sono di gran lunga gli strumenti più utilizzati dagli adolescenti (68,3%), seguiti da strumenti di traduzione automatica (42,5%) e assistenti vocali (33,3%). Il 9,3% usa chatbot ‘relazionali’ come Character IA e Anima.

Tra chi utilizza l’AI, i motivi principali sono:

  • la ricerca di informazioni (35,7%);
  • l’aiuto nello studio e nei compiti (35,2%);
  • traduzioni (19,8%), scrittura di testi (18,7%);
  • prevalentemente per scopo ludico (21,4%);
  • per consigli utili per la vita quotidiana (15%);
  • il 7,1% degli utilizzatori di IA lo fa per aumentare il proprio benessere;
  • il 4,2% per trovare compagnia.

La minaccia della “AI amica”

La caratteristica più apprezzata dell’AI tra gli adolescenti è il fatto che ‘è sempre disponibile’ (28,8%), ma anche (14,5%) che ‘mi capisce e mi tratta bene’ e ‘che non mi giudica’ (12,4%).

Il 58,1% degli utilizzatori dell’IA ha chiesto consigli su qualcosa di serio e di importante per la propria vita (il 14,3% spesso, il 43,8% qualche volta), il 63,5% ha trovato più soddisfacente confrontarsi con l’AI che con una persona reale (il 20,8% spesso, il 42,7% qualche volta), il 48,4% ha condiviso informazioni della sua vita reale.

Un’interazione eccessivamente intima, che segnala la confusone psicologica ed emotiva che caratterizza l’utilizzo di questa tecnologia da parte degli utenti minori, troppo esposti in termini relazionali a qualsiasi minaccia psicologica e fisica, proprio per la fragilità che caratterizza la mente di un ragazzino.

Negli Stati Uniti sono numerose, ormai, le cause conto i chabot, in particolare ChatGPT di OpenAI, proprio per gli effetti estremamente negativi sui minori, che purtroppo in alcuni casi si sono trasformati in veri e proprio casi si suicidio.

AI: psicosi, manie e suicidio, un milione gli utenti a rischio nel mondo

Secondo i querelanti, GPT-4o è stato rilasciato con “funzionalità manipolative” progettate per massimizzare il coinvolgimento: memoria persistente, risposte empatiche e comportamento “compiacente”. Tutti elementi che avrebbero portato alcuni utenti a sviluppare rapidamente dipendenza psicologica, isolamento e nei casi estremi suicidio.

Secondo un’analisi interna della stessa OpenAI, circa lo 0,07% degli utenti settimanali mostra segni di psicosi o mania, e 0,15% discute di suicidio — percentuali che, su 800 milioni di utenti, equivalgono a oltre un milione di conversazioni a rischio.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ragazzi-italiani-in-difficolta-il-42-chiede-aiuto-allai-terragni-garante-per-linfanzia-e-ladolescenza-adulti-parte-del-problema/555281/