Il 2 di febbraio il Capo I e II dell’AI Act, il regolamento europeo che disciplina l’uso dei sistemi di AI, diverranno applicabili. Dopo una breve descrizione del Cap II, Pratiche di IA, e del Capo I, Disposizioni generali, mi soffermerò sull’art. 4, che prevede un obbligo di alfabetizzazione per tutti coloro che, per scopi professionali, usano sistemi di IA: la consapevolezza nell’uso di questi strumento è il prerequisito necessario per l’indipendenza digitale del nostro paese.
In estrema sintesi: per sviluppare l’indipendenza digitale e la capacità di gestire i sistemi di IA, è necessario investire in competenze. Solo così sarà possibile riconoscere i limiti, mitigare i rischi e sfruttare al meglio le possibilità offerte dalle tecnologie digitali, evitando di essere vincolati a un singolo fornitore e mantenendo la flessibilità e la capacità di adattamento necessarie per prosperare in un mondo sempre più digitale.
Capo II
Il Capo II dell’AI Act, che contiene solo l’art.5 che ha lo stesso titolo del Capo: Pratiche di IA vietate, rappresenta un passaggio fondamentale nel tentativo dell’Unione Europea di bilanciare progresso tecnologico e tutela dei diritti fondamentali. Questa sezione del regolamento non si limita a elencare pratiche vietate, ma riflette una visione normativa che cerca di integrare i valori democratici e la dignità umana all’interno del contesto tecnologico contemporaneo.
Tra le pratiche espressamente proibite, spicca l’uso di tecniche subliminali o manipolative, progettate per influenzare il comportamento umano sfruttando vulnerabilità cognitive senza un consenso consapevole. Questo divieto è intrinsecamente legato al principio della dignità umana, secondo il quale le persone devono essere trattate come fini e mai come meri mezzi. Il legislatore qui affronta una sfida complessa: tradurre in termini normativi un concetto eticamente carico come quello di manipolazione, garantendo al tempo stesso chiarezza e operatività delle norme.
Un’altra pratica vietata è l’assegnazione di punteggi sociali basati su dati personali, una misura che richiama il rischio di ridurre gli individui a mere entità quantificabili. Questo sistema potrebbe alimentare discriminazioni, rafforzare pregiudizi sociali e minare il principio di uguaglianza formale. La proibizione di tali pratiche non è solo un divieto di carattere tecnico, ma si radica in una più ampia critica filosofica alla mercificazione della persona e alla sua riduzione a un insieme di parametri misurabili. In termini normativi, questa proibizione rappresenta una chiara espressione di obbligazione negativa, mirata a prevenire possibili forme di ingiustizia strutturale.
Particolare attenzione viene dedicata all’uso dell’intelligenza artificiale per l’identificazione biometrica remota in tempo reale. Sebbene questa tecnologia possa essere considerata uno strumento utile per attività di polizia, il suo utilizzo è vietato negli spazi pubblici, salvo rare eccezioni sottoposte a rigide autorizzazioni. Questa scelta riflette un approccio precauzionale che tenta di bilanciare la sicurezza pubblica con il rischio di creare una società della sorveglianza, in cui il controllo tecnologico compromette la libertà individuale. La filosofia del diritto evidenzia qui l’importanza del principio di proporzionalità, fondamentale per garantire che l’uso della tecnologia non superi i limiti imposti dalla tutela della privacy e della dignità delle persone.
Nel suo insieme, il Capo II dell’AI Act non si limita a regolare l’utilizzo dell’intelligenza artificiale, ma articola un modello di innovazione responsabile, volto a integrare progresso tecnologico e rispetto per i valori democratici. Questo capitolo del regolamento europeo dimostra come il diritto possa fungere non solo da argine alle derive tecnologiche, ma anche come promotore di una visione etica che metta al centro la dignità umana e la giustizia sociale. In tal senso, il Capo II diventa non solo un insieme di norme, ma un manifesto per un futuro in cui l’innovazione è guidata dai principi fondamentali su cui si fonda la convivenza democratica.
Capo I
Ma è in particolare sul Capo I, Disposizioni generali, che voglio soffermarmi. Il primo capo contiene quattro articoli: art.1: Oggetto, art. 2: Ambito di applicazione, art. 3: Definizioni, Article 4: Alfabetizzazione in materia di IA. In generale, questo capo definisce la base normativa e gli obiettivi del regolamento, evidenziando i principi fondamentali che guidano l’applicazione e l’ambito delle regole sull’intelligenza artificiale nell’Unione Europea. Il regolamento mira a garantire che lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA all’interno dell’UE rispettino i valori fondamentali dell’Unione, tra cui la dignità umana, la libertà, la democrazia e lo Stato di diritto. Si pone come obiettivo primario la promozione di un’IA antropocentrica, etica e affidabile, proteggendo salute, sicurezza e diritti fondamentali, oltre a incoraggiare l’innovazione e lo sviluppo economico sostenibile.
Il Capo I stabilisce anche il campo di applicazione del regolamento, che si applica a tutti i sistemi di IA utilizzati, immessi sul mercato o messi in servizio nell’UE, indipendentemente dal luogo di sviluppo o produzione. Include anche i sistemi situati al di fuori dell’UE, ma i cui output influiscono su persone o aziende nel mercato europeo. Sono state stabilite regole uniformi per il mercato interno, vietando divergenze normative tra Stati membri che potrebbero ostacolare la libera circolazione di beni e servizi basati sull’IA. Ciò comprende divieti specifici, requisiti per sistemi di IA ad alto rischio e obblighi di trasparenza.
Il Capo I, all’art.3, introduce termini chiave come “sistema di IA”, “fornitore”, “deployer” e “dati biometrici”, fornendo una base condivisa per interpretare e applicare le norme. Integra principi etici come la trasparenza, la non discriminazione e la sostenibilità ambientale nelle pratiche di sviluppo e utilizzo dell’IA. Sottolinea l’importanza di un approccio basato sul rischio, adeguando gli obblighi normativi all’intensità e alla portata dei rischi associati ai sistemi di IA.
Ma è solo l’ultimo di questi quattro articoli che prevede un obbligo che deve essere ottemperato a partire dal secondo giorno di febbraio.
L’idea di “indipendenza digitale” l’idea di “sovranità digitale”, benché non irrelate, sono distinte. L’indipendenza digitale si riferisce alla capacità di individui, organizzazioni e governi di utilizzare, sviluppare e gestire tecnologie digitali senza dipendere in modo critico da attori esterni esclusivi, come aziende, fornitori tecnologici o stati stranieri. Questo concetto enfatizza l’autosufficienza operativa e strategica nel dominio digitale, includendo competenze, infrastrutture e risorse necessarie per innovare e competere in modo autonomo. La sovranità digitale, invece, è un concetto politico e normativo che riguarda il controllo e la governance delle tecnologie digitali all’interno di una specifica giurisdizione o territorio. Essa implica che uno Stato abbia l’autorità di stabilire regole e politiche per proteggere i dati, la privacy e l’integrità delle infrastrutture digitali dei suoi cittadini, riducendo la dipendenza da potenze straniere o aziende multinazionali. Le differenze chiave tra i due concetti riguardano il focus, il livello di applicazione e gli strumenti necessari.
L’indipendenza digitale si concentra su competenze, infrastrutture e capacità operative, pragmaticamente legate al funzionamento quotidiano di un ecosistema digitale autonomo. La sovranità digitale, invece, è maggiormente orientata al controllo legislativo e politico. Dal punto di vista del livello di applicazione, l’indipendenza digitale si applica a individui, organizzazioni o intere nazioni, evidenziando la possibilità di operare senza vincoli esterni, mentre la sovranità digitale si riferisce quasi esclusivamente a Stati e governi. Gli strumenti per raggiungere questi obiettivi differiscono: l’indipendenza digitale richiede formazione, sviluppo tecnologico locale, investimenti in infrastrutture e promozione dell’innovazione interna, mentre la sovranità digitale necessita di politiche, leggi e regolamenti per gestire l’accesso e l’uso delle tecnologie in un dato territorio.
L’art. 4
L’art. 4 è breve quanto chiaro: “I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.” L’alfabetizzazione rappresenta l’asse centrale intorno al quale ruota lo sviluppo dell’indipendenza digitale e, in particolare, la capacità di gestire efficacemente i sistemi di Intelligenza Artificiale (IA) a tutti i livelli, dalla piccola azienda locale alla complessa struttura di uno stato.
Innanzitutto, nell’era digitale, la comprensione delle competenze digitali è essenziale per non essere vincolati tecnologicamente. Le competenze digitali non sono solo la capacità di utilizzare un software o un’applicazione, ma includono anche la comprensione profonda delle tecnologie sottostanti, delle loro funzionalità e dei loro limiti. Quando si parla di sistemi di IA, questo aspetto diventa ancora più cruciale. Gli sviluppatori di IA devono avere una competenza approfondita in algoritmi, in linguaggio di programmazione e in statistica per creare modelli affidabili e efficaci. Gli utenti finali, invece, devono essere in grado di comprendere come interagire con questi sistemi, quali informazioni possono fornire e quali domande sono adatte a essere poste.
Comprendere i limiti d’uso dei sistemi di IA è fondamentale. Nonostante siano incredibilmente potenti, questi sistemi hanno dei limiti intrinseci. Ad esempio, i modelli di IA basati su dati possono essere influenzati da pregiudizi presenti nei dati stessi, il che può portare a risultati imprevedibili o discriminatori. Inoltre, esistono problemi di interpretabilità, poiché spesso è difficile capire come un modello di IA arriva a una determinata conclusione. Solo chi ha le competenze necessarie per riconoscere questi limiti può utilizzare i sistemi di IA in modo consapevole e evitare errori o abusi.
I rischi associati alle tecnologie digitali e in particolare all’IA sono numerosi. In particolare, c’è il rischio di dipendenza tecnologica. Se un’azienda o uno stato si basa esclusivamente su un singolo fornitore di servizi di IA, è esposto a qualsiasi cambiamento nelle politiche commerciali, tecnologiche o di sicurezza di quel fornitore. Può essere costretto a adattarsi a nuovi costi, a nuovi termini di licenza o a nuove funzionalità che potrebbero non essere in linea con le proprie esigenze.
Per finire, sviluppare competenze in materia di IA e tecnologie digitali in generale è fondamentale per la sicurezza nazionale e per la competitività globale. Uno stato che investe nella formazione delle proprie risorse umane in ambito digitale è in grado di sviluppare soluzioni tecnologiche proprie, riducendo così la dipendenza dalle tecnologie straniere. Questo non solo migliora la sicurezza informatica nazionale, ma anche la capacità di competere in un mercato globale sempre più digitalizzato.
Leggi le altre notizie sull’home page di Key4biz
https://www.key4biz.it/ai-act-dal-2-febbraio-applicabile-lart-4-lobbligo-di-alfabetizzazione-lo-spiegone-del-prof-rossetti/519560/