I modelli di diffusione sono minacciati dalle backdoor

  Rassegna Stampa, Security
image_pdfimage_print


L’IA generativa non è immune dagli attacchi informatici: uno studio congiunto dei ricercatori di IBM, della National Tsing Hua University di Taiwan e della Chinese University di Hong Kong ha dimostrato che è possibile introdurre delle backdoor nei modelli di diffusione.

Queste reti neurali sono alla base di strumenti text-to-image come DALL-E e rappresentano l’architettura sulla quale sono costruiti questi tool. I modelli di diffusione operano aggiungendo del “rumore”, cioè elementi e caratteristiche non presenti nell’immagine iniziale, ai dati di addestramento e poi invertendo il processo per generare immagini fedeli all’originale.

modelli diffusione backdoor

Freepik

Come riportato da VentureBeat, questo approccio comporta dei rischi di sicurezza che finora non sono stati approfonditi. Nel loro studio i ricercatori descrivono un framework d’attacco chiamato BadDiffusion che consiste nell’inserire una backdoor nel modello per generare un output specifico, diverso da quello atteso dalla vittima.

Un attaccante può modificare gli step del modello per renderlo sensibile a un determinato trigger nei dati di training, e inserire poi questo trigger nel dataset in uso. La particolarità dell’attacco è che funziona solo quando, a fronte della modifica del modello, c’è uno specifico innesco nei dati; ciò significa che in circostanze normali il modello produce l’output atteso dall’utente.

Un attacco economico ed efficace

Poiché senza un trigger il modello funziona come dovrebbe gli utenti non sono in grado di individuare la backdoor semplicemente analizzando le immagini generate. Il framework d’attacco è inoltre molto economico da realizzare: è sufficiente ritoccare i modelli di diffusione già disponibili sul web per inserire la backdoor e riproporre il modello compromesso sul web.

modelli diffusione backdoor

Freepik

I ricercatori hanno analizzato due possibili contromisure contro il BadDiffusion: l’Adversarial Neuron Pruning (ANP) e l’Inference-Time Clipping. Il primo si è rivelato piuttosto instabile e troppo sensibile al numero di parametri del modello; il secondo, pur essendo più semplice del primo, ha portato risultati promettenti, anche se potrebbe rivelarsi inefficace contro backdoor complesse.

Visto l’ampio utilizzo di questi modelli e la scarsità di soluzioni contro le minacce è importante investire sulla ricerca e lo sviluppo di nuove linee di difesa. Il primo passo, come sempre, è comprendere i rischi che i modelli di diffusione comportano; inoltre è opportuno verificare sempre l’autenticità dei modelli scaricati dal web.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2023/04/06/modelli-diffusione-backdoor/?utm_source=rss&utm_medium=rss&utm_campaign=modelli-diffusione-backdoor