ChatGPT per individuare indicatori di compromissione

  Rassegna Stampa, Security
image_pdfimage_print


Tra i compiti che ChatGPT può svolgere ce ne sono anche alcuni legati alla cybersecurity: il tool è in grado di generare report di segnalazione in seguito a incidenti o interpretare codice decompilato per individuare eventuali minacce. Alcuni cybercriminali avrebbero inoltre usato il chatbot per creare email di phishing o addirittura malware polimorfici.

Victor Sergeev, Incident Response Team Leader presso Kaspersky, ha messo alla prova ChatGPT con una serie di domande relative al funzionamento di minacce esistenti e con un test per l’individuazione di indicatori di compromissione.

 ChatGPT compromissione

Eye of a futuristic robot

Gli esperimenti di Sergeev hanno dimostrato che il chatbot ha una buona conoscenza di tool comuni di hacking come Mimikatz e Fast Reverse Proxy, delle loro tecniche e degli indicatori di compromissione. I risultati sono stati più deludenti nel caso di indicatori più generici come hash e domini malevoli: non sempre è riuscito a identificarli come pericolosi.

La situazione è migliorata con la richiesta di elencare i domini utilizzati dai gruppi APT34, APT27 e FIN7. Il chatbot ha anche fornito una spiegazione basilare ma esaustiva di come proteggersi individuando i domini malevoli.

Un test più complesso

Sergeev si è spinto oltre e ha chiesto a ChatGPT di sviluppare del codice che estraesse diversi tipi di metadati da un sistema Windows di test, indicando poi se questi dati fossero indicatori di compromissione. 

 ChatGPT compromissione

Freepik

Il team di Sergeev ha cominciato a infettare il sistema simulando due attacchi; in seguito ha eseguito il codice prodotto da ChatGPT, opportunamente corretto in alcuni punti, e analizzato le risposte del tool riguardo agli indicatori di compromissione individuati. Il tool ha identificato correttamente i due processi malevoli specificando anche perché avesse identificato quei metadati come avversi. 

L’esperimento ha dato esiti positivi anche quando il team ha provato a installare due malware: il chatbot ha identificato i processi come malevoli, riuscendo anche a fornire una spiegazione step by step del tentativo di attacco.

Nonostante il successo generale delle prove, ChatGPT in più occasioni non è riuscito a identificare gli attacchi, come nel caso del tentativo di estrazione di credenziali. In alcuni test il chatbot ha suggerito che i processi potevano essere malevoli, senza però individuare l’effettiva minaccia; in altri non è riuscito affatto a riconoscerli.

 ChatGPT compromissione

Pixabay

Tutto sommato ChatGPT può rivelarsi uno strumento utile per supportare la cybersecurity e l’individuazione di minacce. Se addestrato correttamente, il chatbot è in grado di capire se un malware è simile ad altri già analizzati, così da instradare la miglior strategia di difesa.

Si tratta in ogni caso di uno strumento che, come sottolinea lo stesso autore, può generare falsi positivi e falsi negativi; occorre quindi valutare i risultati prima di fare delle scelte. Come al solito, la correttezza dell’output dipende fortemente dai dati utilizzati per il training e dai filtri applicati al dataset.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2023/02/20/chatgpt-indicatori-compromissione/?utm_source=rss&utm_medium=rss&utm_campaign=chatgpt-indicatori-compromissione