Dopo WormGPT arriva FraudGPT: il cybercrimine punta sui chatbot malevoli

  News, Rassegna Stampa, Security
image_pdfimage_print


Dopo WormGPT è emersa una nuova minaccia basata sull’intelligenza artificiale: si chiama FraudGPT ed è in vendita sul dark web e su vari canali Telegram dallo scorso 22 luglio.

Individuato per la prima volta dai ricercatori di Netenrich, FraudGPT è un bot in grado supportare gli attaccanti in diverse attività di truffa e attacchi. Tra le funzionalità del tool ci sono la scrittura di codice malevolo, la creazione di pagine ed email di phishing, la generazione di malware e tool per l’hacking e la capacità di individuare vulnerabilità e leak nei sistemi.

Dietro il tool ci sarebbe l’utente CanadianKingpin del quale non si conosce ancora molto. L’utente offre abbonamenti al tool che partono dai 200 dollari mensili e arrivano ai 1700 dollari annuali.

Anche i ricercatori di SlashNext hanno approfondito la questione, riuscendo a trovare un video condiviso tra gli acquirenti che mostra alcune capacità del tool:

Nel video viene chiesto al chatbot non solo di scrivere un’email di phishing contro i clienti di due famosi istituti bancari, ma anche di fornire una lista di siti web suscettibili ad attacchi di carding, ovvero mirati a rubare informazioni finanziare delle carte di credito degli utenti.

Il team di SlashNext si è messo in contatto con il venditore per approfondire le capacità del chatbot e ha scoperto che l’utente sarebbe al lavoro anche sue due nuovi bot: DarkBART e DarkBERT. Il primo è una versione malevola di Bard di Google, mentre il secondo sembrerebbe essere un chatbot superiore a tutti gli altri, addestrato specificatamente sui contenuti del dark web.

WormGPT e FraudGPT sarebbero quindi solo la punta dell’iceberg, l’inizio di una nuova era del cybercrimine dominata da tool automatizzati in grado di offrire un gran numero di feature e permettere a chiunque di sferrare un attacco.

Le alternative malevole a ChatGPT stanno già attirando numerosi criminali grazie alla loro capacità di generare in poco tempo testi e tool efficaci e pronti all’uso. Man mano che le capacità dell’IA aumenteranno, lo stesso faranno i tool dei cybercriminali. Se al momento le soluzioni di sicurezza riescono ancora identificare le email di phishing generate dall’intelligenza artificiale, presto potrebbero non essere più in grado di farlo.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2023/08/04/dopo-wormgpt-arriva-fraudgpt-il-cybercrimine-punta-sui-chatbot-malevoli/?utm_source=rss&utm_medium=rss&utm_campaign=dopo-wormgpt-arriva-fraudgpt-il-cybercrimine-punta-sui-chatbot-malevoli