Meloni attacca i deepfake, ma non dice come combatterli. A quando un DASPO digitale per gli autori?

  ICT, Rassegna Stampa
image_pdfimage_print

Ha fatto il giro del web la foto generata dall’Intelligenza Artificiale che ritrae una Giorgia Meloni alquanto imbellita, in sotto veste e sguardo sensuale. E’ un falso. E’ stata lei stessa, ripostando la foto, a denunciare il deepfake pubblicato su Facebook. Meloni attacca giustamente i deepfake, però non dice concretamente come contrastarli, mentre il PD rilancia dicendo che va cambiata la legge, mentre la vice presidente della Camera Anna Ascani attacca la premier, chiedendole perché in passato FdI ha bocciato una legge in materia proposta dei dem. Ma la legge c’è già, è la 132/25 la prima legge sull’Intelligenza Artificiale, che penalizza l’uso dei deepfake rendendoli reato. La legge italiana ha introdotto una specifica disciplina penale contro la diffusione illecita di contenuti generati o alterati tramite intelligenza artificiale (IA), comunemente noti come deepfake. Quindi, non soltanto Meloni può difendersi, ma possono già farlo tutti coloro che ne sono vittime.

Il secondo comma dell’art. 612 quarter specifica che normalmente questo reato è punibile a querela della persona offesa mentre è addirittura punibile d’ufficio se il fatto è commesso nei confronti di di una pubblica autorità a causa delle funzioni esercitate.

Il problema resta sempre il solito, la legge c’è ma ad oggi occorrono strumenti più rapidi efficaci per garantire una tutela effettiva e tempestiva.

Ecco i punti chiave della legge al 2026:

  • Nuovo Reato (Art. 612-quater c.p.): La Legge 132/2025, entrata in vigore nel corso del 2025, ha introdotto il reato di “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”.
  • Cosa prevede la legge: Chiunque cagiona un danno ingiusto a una persona, diffondendo (pubblicando, cedendo, ecc.) senza il suo consenso immagini, video o voci falsificati con l’IA, è punito con la reclusione da 1 a 5 anni.
  • Aggravanti: Sono previste pene più severe se il deepfake ha carattere sessualmente esplicito (deepnude) o se il reato è commesso contro minori o soggetti vulnerabili.
  • Procedibilità: Il reato è procedibile a querela della persona offesa, tranne nei casi più gravi che prevedono la procedibilità d’ufficio.
  • Obbligo di segnalazione: La normativa richiede che ogni contenuto creato o modificato tramite IA sia chiaramente segnalato come tale.
  • Il contesto europeo: Oltre alla legge italiana, si applica l’AI Act europeo, che vieta alcune pratiche di IA e impone obblighi di trasparenza, con piena applicazione dal 2 agosto 2026.

La denuncia di Meloni

“Girano in questi giorni diverse mie foto false, – scrive Meloni – generate con l’intelligenza artificiale e spacciate per vere da qualche solerte oppositore. Devo riconoscere che chi le ha realizzate, almeno nel caso in allegato, mi ha anche migliorata parecchio. Ma resta il fatto che, pur di attaccare e di inventare falsità, ormai si usa davvero qualsiasi cosa”.

“I deepfake sono uno strumento pericoloso, perché possono ingannare, manipolare e colpire chiunque. Io posso difendermi. Molti altri no. Per questo motivo, una regola dovrebbe sempre valere: verificare prima di credere e pensare prima di condividere. Perché oggi succede a me, domani potrebbe succedere a chiunque”, ha scritto.

Il Far Web dell’era Trump

Facebook, Instagram e gli altri social (per non parlare di X, con la sua AI Grok, soprattutto nudi di ragazzin* e video hard falsificati con il volto di ignare vittime impegnate in atti osceni) sono diventati un porto di mare da quando Donald Trump è tornato alla presidenza degli Usa.

Nell’era di Trump siamo in pieno Far Web, in nome di una non meno specificata libertà di espressione tutti i filtri anti-deepfake e anti-porno in vigore in precedenza sulle piattaforme social sono stati rimossi. Le nostre democrazie vengono minate alla radice con messaggi falsificati dall’AI, difficili da riconoscere e ancor di più da rimuovere dalla Rete, nonostante le segnalazioni. Fa bene la premier Meloni a segnalare il suo deepfake, ma dovrebbe farsi promotore di un’alleanza internazionale con Trump per contrastare il fenomeno. Certo, il presidente Trump è il primo utilizzatore dell’AI per deepfake di se stesso, visto che si è autoritratto sotto le spoglie del Papa e di Gesù Cristo. Per non parlare del video di Gaza, con Nethaniau, che ha sconcertato il mondo intero.  

Deepfake, danno per le nostre democrazie

Anche l’immagine, falsa, di Meoni in lingerie poteva tranquillamente trarre in inganno gli utenti, molti dei quali sicuramente crederanno anche domani che si tratta di uno scatto autentico del nostro Presidente del Consiglio. E questo è un danno evidente per le nostre democrazie, in balia dell’uso distorto dell’AI. Nel caso specifico, impossibile sapere chi abbia diffuso il deepfake di Meloni. Non è detto che sia stato qualche oppositore politico, per quanto ne sappiamo potrebbe essere stato qualche trumpiano deluso che vive in Italia, o un ragazzino chiuso nella sua stanzetta.

Il punto è che in molti casi sa sa subito chi è l’autore del deepfake. Quando c’è un nome reale, se si conosce l’autore, andrebbe immediatamente bloccato e allontanato dal web con una sorta di DASPO digitale con conseguente eliminazione dal web del post incriminato.

Dopo un certo numero di segnalazioni verificate, le piattaforme dovrebbero subito eliminare i post.

Soprattutto se a segnalare l’abuso è una fonte autorevole, come ad esempio Palazzo Chigi, visto che il deepfake della Presidente del Consiglio rischia di avere conseguenze negative sul corretto funzionamento delle nostre democrazie e sull’immagine internazionale dell’Italia.

Vanno subito reintrodotti i filtri anti porno e anti deepfake che c’erano in passato e che sono spariti nell’era Trump (quando c’era Biden questi filtri c’erano).

Serve un accordo internazionale per imporre la reintroduzione di questi filtri.

Proposta di legge giacente in Parlamento  

In Italia il tema non è certo nuovo alla politica, tanto più che numerose esponenti di diversi partiti sono stato oggetto di deepfake, basti ricordare il tristemente noto caso del sito Phica.net e del forum su Facebook “Mia Moglie” che tanta indignazione sollevarono lo scorso anno, con l’avvio nell’ambito della commissione d’inchiesta sul femminicidio, nonché su ogni forma di violenza di genere, guidata dall’onorevole Martina Semenzato, di un ampio lavoro di analisi del fenomeno scaturito in una serie di proposte ad hoc, in primis “l’introduzione del reato di creazione di nudo con l’AI”.

Due sono le proposte di legge in questo senso, che giacciono in Parlamento. La prima, depositata da Noi Moderati – CARFAGNA ed altri: “Disposizioni per la tutela dell’identità personale e per il contrasto della diffusione non autorizzata di immagini o voci di persone reali prodotte o modificate mediante sistemi di intelligenza artificiale e di contenuti illegali nella rete internet” (2580) – è stata assegnata alla Commissione IX Trasporti in sede Referente l’11 novembre 2025.

Otto articoli che prevedono lo stop all’anonimato online, un marchio identificativo per i deepfake, l’introduzione del reato di diffusione fraudolenta online, la responsabilizzazione delle piattaforme. La senatrice Mariastella Gelmini aveva così commentato: ‘È fondamentale ribadire dunque l’importanza della denuncia, perché gli strumenti di tutela ci sono e credo sia doveroso ringraziare la Polizia Postale per il lavoro che sta svolgendo’.

Da Ascani a Gelmini, i commenti della politica dopo il deepfake della Meloni

Oggi Giorgia Meloni si accorge che i deepfake sono pericolosi. Se ne accorge perché a esserne vittima è lei – ha commentato la dem Anna Ascani, vicepresidente della Camera -. La premier dimentica che il suo governo ha agito anche qui col solito schema: introducendo un reato. Niente di più inutile. Quello che serve è una legge che permetta alle autorità preposte di chiedere alle piattaforme la rimozione immediata di contenuti di questo tipo, soprattutto quelli che inquinano il dibattito pubblico. E questa legge non esiste perché questo esecutivo non l’ha voluta“.

“Sono su posizioni e idee politiche saldamente agli antipodi di quelle portate avanti da Meloni, ma da donna, offro la mia solidarietà alla premier perché questa è una battaglia su cui ci si dovrebbe unire – ha invece sottolineato la senatrice cinquestelle Alessandra Maiorino -. Riteniamo che l’obbligo di identità digitale sia un tema non più rinviabile. Il web non può continuare a restare la giungla senza regole che è ora“.

Anche Mariastella Gelmini, senatrice di Noi Moderati, ha espresso vicinanza alla premier: “È inaccettabile quanto accaduto alla premier Meloni. Credo sia doveroso tracciare una linea di demarcazione netta tra satira, intrattenimento e disinformazione, molestie, truffe o furti di identità”. Manifestazioni di vicinanza alla presidente del Consiglio sono arrivate anche da Simonetta Matone, deputata della Lega e da Carlo Fidanza e Stefano Cavedagna di FdI.

In Danimarca c’è la proposta di mettere il copyright sul corpo e sul volto delle persone. Il modello danese potrebbe essere utile anche da noi?

Gianluca Regolo (Avvocato esperto di proprietà intellettuale): “Il deepfake di Meloni già presidiato dal codice penale. Utilizzo di dati biometrici per addestrare l’AI senza base giuridica pone problema di liceità”

La diffusione online di immagini manipolate tramite intelligenza artificiale raffiguranti la Premier, Giorgia Meloni, ha riacceso un dibattito che, al di là dell’impatto mediatico, impone una lettura più rigorosa dal punto di vista giuridico.

Si rischia altrimenti, in questi casi, di sovrapporre il piano dell’indignazione pubblica a quello dell’analisi normativa.

Una struttura normativa, seppur ancora lacunosa (almeno per ciò che riguarda l’effettività della tutela), in grado di regolamentare il fenomeno dei deepfake esiste già.

Si tratta di un sistema articolato in disposizioni legislative di rango comunitario nazionale che, proprio per questo, richiede di essere compreso nella sua interezza e perché no, anche implementato.

Il quadro penale italiano: una fattispecie già tipizzata

Con l’introduzione dell’art. 612-quater c.p., il legislatore italiano ha già riconosciuto espressamente la rilevanza penale della diffusione di contenuti generati o manipolati tramite intelligenza artificiale senza il consenso della persona ritratta.

La norma, entrata in vigore nell’ottobre 2025, sembra rappresentare un punto di equilibrio tra innovazione tecnologica e tutela della persona, colpendo quelle condotte che incidono sulla dignità, sull’identità e sulla reputazione individuale.

Sotto questo profilo, la vicenda che ha coinvolto la Presidente del Consiglio si colloca in un perimetro già presidiato dal diritto penale (e non solo). Il tema, quindi, non è tanto l’assenza di strumenti, quanto la loro concreta applicazione in contesti caratterizzati da rapidità di diffusione e difficoltà di tracciamento delle responsabilità.

Tra dati personali e dati biometrici

Se il diritto penale interviene a valle, il nodo più delicato si colloca a monte, nel trattamento dei dati.

I deepfake, per loro natura, presuppongono l’utilizzo di informazioni riconducibili a una persona fisica: immagini, tratti somatici, voce. Elementi che, nel quadro normativo europeo, rientrano nella nozione di dato personale e, nei casi più avanzati, di dato biometrico.

Il dato biometrico, in particolare, è soggetto a un regime di tutela rafforzato, proprio perché consente l’identificazione univoca dell’individuo.

L’impiego di tali dati per addestrare modelli di intelligenza artificiale o per generare contenuti sintetici, senza una base giuridica adeguata, pone un problema immediato di liceità del trattamento, indipendentemente dalla successiva diffusione del contenuto.

Questo passaggio è centrale: il deepfake non è soltanto un prodotto finale potenzialmente lesivo, ma l’esito di un processo che può risultare illecito già nella fase di acquisizione e utilizzo dei dati.

Ne deriva che la tutela non può limitarsi alla rimozione o alla sanzione del contenuto, ma deve investire l’intera filiera tecnologica.

L’AI Act: trasparenza come obbligo strutturale

In questa direzione si muove il Regolamento europeo sull’intelligenza artificiale (AI Act), che introduce obblighi specifici per i sistemi capaci di generare o manipolare contenuti audiovisivi. Il principio cardine è quello della trasparenza: i contenuti sintetici devono essere riconoscibili come tali.

L’obbligo di etichettatura o di marcatura tecnica (ad esempio tramite watermark) incide direttamente sul modo in cui questi contenuti vengono progettati e diffusi, imponendo agli operatori una responsabilità che precede la fase patologica dell’illecito.

L’AI Act, quindi, non si sovrappone alle norme penali o privacy, ma ne rappresenta un completamento funzionale: mentre queste intervengono quando il danno si è già prodotto, il regolamento europeo mira a ridurre il rischio che tale danno si verifichi, agendo sul piano della prevenzione.

Le iniziative legislative in corso: tra continuità e confronto politico

Ciò che oggi emerge con maggiore evidenza non è tanto la novità del tema, quanto il suo ritorno ciclico al centro dell’agenda politica. Il fenomeno dei deepfake riacquista visibilità in occasione di vicende mediatiche rilevanti e, con esso, riemerge un confronto normativo che in realtà non si è mai interrotto.

In questa fase, l’attenzione si concentra su un disegno di legge promosso da esponenti di Fratelli d’Italia, attualmente in discussione parlamentare, che mira a intervenire in modo più mirato sulla diffusione di contenuti manipolati mediante intelligenza artificiale. Parallelamente, il Partito Democratico ha rivendicato la continuità del proprio lavoro sul tema, evidenziando come alcune delle soluzioni oggi prospettate fossero già state oggetto di precedenti iniziative legislative. Al di là della dialettica politica, il dato rilevante sembra essere proprio questo: il legislatore italiano è progressivamente chiamato a costruire una disciplina efficace contro i deepfake per stratificazione, attraverso interventi che tendono a convergere su alcuni assi comuni.

Le proposte attualmente in esame si muove, in particolare, lungo tre direttrici principali. 1) La prima riguarda il rafforzamento degli obblighi di riconoscibilità dei contenuti artificiali, con l’introduzione di meccanismi che impongano di segnalare in modo chiaro quando un’immagine, un video o un audio siano stati generati o alterati tramite intelligenza artificiale. 2) La seconda attiene al ruolo delle piattaforme digitali, alle quali verrebbero attribuiti obblighi più stringenti in termini di rimozione tempestiva dei contenuti illeciti e di cooperazione con le autorità. 3) La terza concerne il potenziamento dei poteri di vigilanza, in particolare in capo all’Autorità per le garanzie nelle comunicazioni, con la previsione di sanzioni nei confronti degli operatori che non rispettino le prescrizioni.

Se si osservano queste linee di intervento in chiave sistematica, emerge come esse si innestino su un impianto già delineato a livello europeo.

Il riferimento è, in primo luogo, al Regolamento sull’intelligenza artificiale (AI Act), che introduce obblighi di trasparenza per i sistemi in grado di generare contenuti sintetici, imponendo che tali contenuti siano riconoscibili come artificiali. Sotto questo profilo, le proposte nazionali appaiono in larga parte coerenti con l’impostazione europea, muovendosi nella stessa direzione ma con un livello di dettaglio e di operatività maggiore, soprattutto per quanto riguarda i meccanismi di enforcement.

Allo stesso tempo, il rafforzamento delle responsabilità delle piattaforme richiama logiche già presenti nel diritto europeo dei servizi digitali, dove la cooperazione degli intermediari e la tempestività degli interventi di rimozione costituiscono elementi centrali. Le iniziative italiane sembrano quindi orientate a rendere più incisiva, sul piano interno, una serie di principi già affermati a livello sovranazionale, adattandoli alle specificità del fenomeno dei deepfake.

Più che introdurre principi radicalmente nuovi, queste iniziative tendono quindi a sistematizzare e rendere più incisivi strumenti già presenti nell’ordinamento, adattandoli alle specificità tecnologiche e operative dei contenuti generati tramite intelligenza artificiale.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/meloni-attacca-i-deepfake-ma-non-dice-come-combatterli-a-quando-un-daspo-digitale-per-gli-autori/571964/