Artificial Intelligence and the challenges posed by cybercrime: the collective effort to set an international standard – Kristian Bartholin

  ICT, Rassegna Stampa, Security
image_pdfimage_print

Kristian Bartholin (Secretary to the Committee on Artificial Intelligence, Head of Digital Development Unit, Council of Europe) ha esposto, nel corso della Cyber Crime Conference 2024, le più recenti sfide poste dal crimine informatico e gli sforzi della comunità internazionale per stabilire standard condivisi in ambito di Intelligenza Artificiale.

Guarda il video completo dell’intervento:

[embedded content]

Governance Etica e Sicura dell’Intelligenza Artificiale

Il relatore ha innanzitutto presentato il lavoro del Consiglio d’Europa e il suo progetto di “Convenzione quadro in tema di Intelligenza Artificiale, diritti umani e democrazia”, che mira a rappresentare il primo strumento globale per una governance etica e sicura dell’AI.

L’elaborazione del testo, in corso dal 2022, ha visto il contributo dei membri del Consiglio d’Europa e dell’Unione Europea nonché di altri Stati, compresi tutti i paesi del G7.

Convenzione quadro sull’intelligenza artificiale, i diritti umani e lo Stato di diritto

La Convenzione formula principi e regole comuni per salvaguardare i diritti umani fondamentali, i principi democratici e il funzionamento dello stato di diritto, consentendo al tempo stesso il progresso tecnologico e l’innovazione: i principi chiave includono dignità umana, autonomia individuale, uguaglianza, non discriminazione, privacy, trasparenza, responsabilità, sicurezza e affidabilità dei sistemi AI.

L’obiettivo non è introdurre nuovi diritti, ma garantire che quelli esistenti siano rispettati in un contesto caratterizzato dalla sempre più massiccia diffusione dell’Intelligenza Artificiale.

Governance dell’AI

Le regole si applicano ai sistemi AI impiegati sia nel settore pubblico sia in quello privato, riconoscendo il loro potenziale impatto sui diritti dei cittadini; per questo motivo si introducono nuove tipologie di strumenti procedurali, rimedi e garanzie, come la possibilità di contestare le decisioni prese dai sistemi di intelligenza artificiale e di presentare reclami alle autorità competenti.

Partecipazione Multi-Stakeholder nella Governance dell’AI

Nell’intento di garantire un’ampia partecipazione della società civile, vari soggetti interessati – tra cui rappresentanti del mondo accademico e dell’industria di settore – sono stati coinvolti nel processo negoziale, che ha così incluso una prospettiva multistakeholder.

Valutazioni dei Rischi e Metodologia HUDERIA per i Sistemi di Intelligenza Artificiale

Poiché i sistemi di AI possono evolversi durante il loro ciclo di vita la Convenzione richiede valutazioni periodiche dei rischi, imponendo di mitigare i rischi rilevati o, laddove impossibile, di interrompere l’uso dei sistemi stessi. Il Segretario ha anticipato come a tale scopo sia in fase di sviluppo una metodologia denominata “HUDERIA” (Human Rights, Democracy and Rule of Law Impact Assessment) per facilitare i processi di monitoraggio sui sistemi, che sarà implementata entro la fine dell’anno.

Adozione e Implementazione della Convenzione (quadro) sull’Intelligenza Artificiale

Rispetto ai passi successivi, Bartholin ha ricordato che il testo finale dovrebbe essere adottato formalmente il prossimo 17 maggio. A seguire si passerà alla fase dedicata alle procedure di firma e ratifica, aperte anche agli Stati non europei, in ossequio al riconoscimento della natura globale dello sviluppo dell’Intelligenza Artificiale e della necessità di una stretta cooperazione internazionale in materia.

Integrazione con l’AI Act Europeo

La normativa andrà a integrare l’AI Act europeo, che nel nuovo quadro diverrebbe uno strumento per consentire all’UE di adempiere ai propri obblighi ai sensi della Convenzione. Quest’ultima opera infatti a livello globale, facilitando l’interazione tra l’UE e altre parti, come ad esempio gli Stati Uniti, qualora scelgano di ratificare la Convenzione quadro.

Affrontare l’Uso Illecito dell’AI e Garantire un’Innovazione Etica

In conclusione dell’intervento il relatore ha citato il frequente abuso dell’AI a fini illeciti e il suo potenziale impiego per scopi antidemocratici, in particolare nel complesso scenario attuale.

Pertanto ha ribadito come sia necessario che Stati e organizzazioni internazionali evitino di lasciare vuoti normativi, facendo in modo che l’innovazione tecnologica sia sempre accompagnata dai necessari requisiti di trasparenza e sicurezza informatica ma anche abbracciando, al tempo stesso, il grande potenziale dell’Intelligenza Artificiale in termini di prevenzione e contrasto dei fenomeni di cybercrime.

Il programma completo della Cyber Crime Conference 2024 è disponibile al seguente link: https://www.ictsecuritymagazine.com/eventi/cybercrimeconference2024#programma

Iscriviti alla nostra newsletter per rimanere aggiornate sulle nostre iniziative: https://www.ictsecuritymagazine.com/newsletter/

Condividi sui Social Network:

https://www.ictsecuritymagazine.com/cybersecurity-video/artificial-intelligence-and-the-challenges-posed-by-cybercrime-the-collective-effort-to-set-an-international-standard-kristian-bartholin/