Un sistema di intelligenza artificiale per bloccare gli attacchi informatici


I ricercatori del Dipartimento di Energia del Pacific Northwest National Laboratory (PNNL) hanno sviluppato un sistema di intelligenza artificiale per la difesa dagli attacchi informatici. Il team ha effettuato una serie di prove in un ambiente di simulazione, dove il sistema è riuscito a bloccare il 95% degli attacchi.

Come riportato da Robert Lemos, i ricercatori hanno simulato uno scenario di attacchi multi-stage, in cui ognuno di essi aveva un livello di persistenza e abilità diversi. Il team ha utilizzato 15 delle tattiche descritte nel framework MITRE ATT&CK, e ha seguito i 7 step della catena di attacco, dall’accesso iniziale alle fasi finali di impatto ed esfiltrazione dei dati.

intelligenza artificiale attacchi

Freepik

L’obiettivo del sistema era impedire agli attaccanti di raggiungere la fase finale della catena, altrimenti l’attacco sarebbe stato considerato concluso.

La simulazione prevedeva che il sistema fosse già compromesso, e che quindi la rete neurale dovesse individuare gli attacchi in atto e bloccarli. Il risultato è stato raggiunto utilizzando il reinforcement learning, una tecnica di machine learning in cui la rete neurale rinforza o indebolisce i parametri del singolo neurone per raggiungere la soluzione migliore, basandosi su un punteggio ottenuto a ogni fase.

I ricercatori hanno individuato un metodo in particolare, il Deep Q Network, che è riuscito a individuare e bloccare un’alta percentuale degli attacchi. Come riportato nel paper, l’obiettivo del sistema non era solo impedire agli attacchi di raggiungere la fase finale della catena, ma soprattutto di bloccare la progressione il prima possibile.

intelligenza artificiale attacchi

abstract low poly connection lines digital technology background

Il team del PNNL ha dimostrato che l’utilizzo di una rete neurale a supporto della cybersicurezza non è più un’utopia, anche se c’è ancora molta strada da fare. Il sistema va ancora perfezionato e non può ancora operare in autonomia. Una delle sfide principali riguarda l’interpretabilità dei risultati, visto che la rete neurale al momento lavora come una black-box; inoltre, il sistema potrebbe essere compromesso dagli attaccanti.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2023/03/02/intelligenza-artificiale-attacchi-informatici/?utm_source=rss&utm_medium=rss&utm_campaign=intelligenza-artificiale-attacchi-informatici