L’intelligenza artificiale nel reato: strumento, autore o vittima?

  ICT, Rassegna Stampa
image_pdfimage_print
La rubrica Digital Crime, a cura di Paolo Galdieri, Avvocato e Docente di Diritto penale dell’informatica, si occupa del cybercrime dal punto di vista normativo e legale. Clicca qui per leggere tutti i contributi.

L’intelligenza artificiale può commettere un reato?

La stessa può essere coinvolta nella commessione di un reato in tre prospettive: strumento, vittima o autore.

Nel caso di strumento, il robot viene utilizzato dall’uomo al fine di commettere il reato. Dunque, la responsabilità dovrebbe essere imputata a titolo di dolo o colpa all’essere umano. La macchina non si pone come l’autore dell’illecito; è l’umano ad aver ideato, voluto e realizzato l’evento utilizzando come strumento l’intelligenza artificiale.

Per quanto riguarda la situazione in cui la macchina intelligenza sia reputata come vittima dell’reato, è possibile analizzare fenomeni in cui i robot vengano distrutti o danneggiati. In tale prospettiva ci si domanda se detta condotta integri un danneggiamento o invece ulteriori fattispecie di reato (es. gli artt. 544 ter e 572 c.p.).

Considerare l’intelligenza artificiale quale vittima del reato si affianca alla tematica del ritenere l’intelligenza artificiale non solo come cosa inanimata ma anche come soggetto equiparato ad una persona che subisce un reato. Si arriverebbe ad un’umanizzazione della macchina limitata dalla concezione che i sistemi di intelligenza artificiale non hanno sentimenti umani. Difatti la dottrina tende ad interrogarsi sulla possibilità di introdurre nuove figure di reato e di categorie giuridiche tramite un intervento legislativo.

In ultima ipotesi, se il robot coinvolto nella commissione del reato fosse dotato di autonoma capacità di apprendimento e decisione, si potrebbe considerare esso come autore del reato e non come mero strumento.

Trasmigrando gli aspetti legati al concetto di responsabilità ai sistemi di intelligenza artificiale, è difficile escludere del tutto la macchina dal meccanismo di attribuzione della responsabilità, proprio perché il robot ha la capacità di incidere nell’ambiente circostante in modo autonomo. Per imputare la responsabilità all’umano, è necessario dimostrare il grado di controllo che questo aveva sul dispositivo: maggiore è l’intelligenza della macchina, minore è possibilità di garantire tale controllo.

In alcuni casi l’attività della macchina risulta essere prevedibile ex ante, potendo dunque applicarsi lo schema della responsabilità per colpa dell’essere umano. In altri, invece, il grado di autonomia decisionale, in capo all’elaboratore, risulta elevato al punto tale da poter escludere una prevedibilità da parte dell’umano. In questi casi si potrebbe addossare la responsabilità alla persona fisicaper gli eventi cagionati dal robot esclusivamente quando la stessa abbia eluso un dovere giuridico di monitoraggio dello strumento ex art. 40 cpv. c.p.: è infatti necessario che la persona possieda i poteri giuridici o naturalistici di impedire l’evento.

L’essere umano, nel caso di responsabilizzazione della macchina si sentirebbe di fatto deresponsabilizzato. Si avrebbe dunque uno scarico di responsabilità morale dell’agente umano sul robot intelligente riducendo parte delle tutele garantite dal diritto penale ai beni giuridici. Più si riduce il grado di responsabilizzazione dell’umano più si pone il tema della possibilità di responsabilizzare penalmente e direttamente i sistemi di intelligenza artificiale.

Si può quindi responsabilizzare un non-umano?

Platone, nella sua ultima opera “Le Leggi”, attribuisce la responsabilità penale anche alle cose e agli animali; tale concezione prosegue fino agli inizi dell’Illuminismo. È possibile notarlo anche nell’attuale ordinamento giuridico italiano che, tramite il d.lgs. 231/2001, configura margini di responsabilità a carico delle persone giuridiche: gli enti.

https://www.key4biz.it/lintelligenza-artificiale-nel-reato-strumento-autore-o-vittima/485790/