CPUID compromesso: malware nei download ufficiali di CPU-Z e HWMonitor


Un attacco alla catena di distribuzione ha colpito il progetto CPUID, trasformando per alcune ore il sito ufficiale in un vettore di diffusione malware attraverso il download di CPU-Z e HWMonitor, due delle utility di monitoraggio hardware più utilizzate al mondo. Gli aggressori hanno compromesso una API secondaria del progetto, modificando i link di download e indirizzando gli utenti verso eseguibili trojanizzati ospitati su storage esterni. Il risultato è un classico supply chain attack, in cui i file originali firmati non vengono alterati ma la distribuzione viene avvelenata, inducendo gli utenti a scaricare versioni malevole apparentemente legittime.

Download avvelenati: eseguibile sospetto al posto delle utility ufficiali

Le prime segnalazioni sono arrivate da utenti che hanno notato come il portale ufficiale reindirizzasse a Cloudflare R2 per scaricare i file. Invece delle utility originali, veniva distribuito un archivio contenente un installer malevolo chiamato “HWiNFO_Monitor_Setup”, mascherato come strumento di monitoraggio hardware.  L’esecuzione del file avviava un installer in lingua russa con wrapper Inno Setup, comportamento atipico per software legittimi e immediatamente sospetto. Alcuni utenti hanno inoltre verificato che i file originali erano ancora disponibili tramite URL diretti, confermando che il compromesso riguardava la catena di distribuzione e non i binari firmati.

Le analisi condotte da ricercatori indipendenti e community specializzate indicano che il payload utilizzava un loader avanzato multi-stage, con tecniche progettate per operare quasi interamente in memoria ed eludere soluzioni EDR e antivirus. Secondo i ricercatori, il malware implementa tecniche di file masquerading, esecuzione in-memory e proxying delle funzionalità NTDLL da assembly .NET, una combinazione che lo rende più difficile da rilevare con strumenti tradizionali. Il comportamento osservato suggerisce un attacco mirato e non opportunistico, con un livello di sofisticazione superiore alla media.

Il campione distribuito è stato analizzato su VirusTotal, dove 20 motori antivirus lo segnalano come malevolo, anche se senza classificazione univoca. Alcuni vendor lo identificano come Tedy Trojan, altri come Artemis Trojan, mentre diversi ricercatori lo descrivono come infostealer progettato per sottrarre credenziali e dati sensibili.

L’attacco ha colpito strumenti con milioni di utenti, rendendo particolarmente rilevante l’impatto potenziale. CPU-Z e HWMonitor sono infatti utilizzati sia da utenti consumer sia in contesti professionali per diagnostica hardware, monitoraggio termico e analisi delle prestazioni. Secondo alcuni ricercatori, lo stesso gruppo avrebbe preso di mira anche FileZilla il mese precedente, suggerendo una campagna focalizzata su utility ampiamente diffuse e considerate affidabili. Questo approccio consente agli attaccanti di massimizzare la distribuzione sfruttando la fiducia degli utenti.

Compromissione durata circa sei ore

CPUID ha confermato che l’attacco ha coinvolto una API secondaria, compromessa per circa sei ore tra il 9 e il 10 aprile. Durante questo intervallo, il sito ha mostrato in modo casuale link malevoli, mentre i file firmati originali non sono stati alterati. L’azienda ha dichiarato che la vulnerabilità è stata individuata e corretta e che attualmente i download distribuiti dal sito sono nuovamente puliti. L’incidente sarebbe avvenuto in un momento in cui lo sviluppatore principale era assente, dettaglio che suggerisce una possibile pianificazione mirata dell’attacco.

Cosa devono fare gli utenti

Chi ha scaricato CPU-Z o HWMonitor tra il 9 e il 10 aprile dovrebbe verificare l’integrità dei file, controllare eventuali eseguibili sospetti e monitorare il sistema per comportamenti anomali. In particolare, la presenza del file HWiNFO_Monitor_Setup rappresenta un indicatore di compromissione.

L’incidente dimostra ancora una volta come anche i download ufficiali non siano immuni da attacchi, e come la verifica delle firme digitali e dei checksum resti una pratica essenziale, soprattutto per strumenti amministrativi e diagnostici.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/04/10/cpuid-compromesso-malware-nei-download-ufficiali-di-cpu-z-e-hwmonitor/?utm_source=rss&utm_medium=rss&utm_campaign=cpuid-compromesso-malware-nei-download-ufficiali-di-cpu-z-e-hwmonitor




Claude Mythos: secretato perché troppo bravo a scovare vulnerabilità


L’annuncio di Anthropic sembrerebbe una trovata di marketing se non fosse che per il momento hanno effettivamente deciso di non vendere il servizio basato sul loro ultimo modello Claude Mythos Preview. La società ha infatti deciso di limitare l’accesso a Claude Mythos Preview a un consorzio ristretto di aziende e organizzazioni, nel tentativo di anticipare i rischi di una nuova generazione di attacchi automatizzati basati su AI.

Il modello, sviluppato con il nome in codice “Capybara”, viene descritto come capace di condurre ricerca autonoma sulle vulnerabilità, individuando bug complessi e persino zero-day in software critici, incluse piattaforme ampiamente utilizzate e componenti infrastrutturali fondamentali. La decisione di non rilasciare pubblicamente il sistema nasce proprio dal timore che le stesse capacità possano essere sfruttate rapidamente da attori malevoli, riducendo drasticamente il tempo necessario per identificare e sfruttare debolezze nei sistemi.

Project Glasswing: un consorzio per anticipare l’AI offensiva

Per gestire in modo controllato queste capacità, Anthropic ha creato Project Glasswing, un’iniziativa che coinvolge oltre 40 aziende tecnologiche e organizzazioni con l’obiettivo di individuare e correggere vulnerabilità in software critici. Tra i partecipanti figurano grandi vendor tecnologici, fornitori hardware e organizzazioni che mantengono componenti open source fondamentali.

L’iniziativa include anche concorrenti diretti nel campo dell’AI, oltre a realtà impegnate nella sicurezza dell’infrastruttura digitale globale. Anthropic ha inoltre dichiarato di mettere a disposizione fino a 100 milioni di dollari in crediti di utilizzo per supportare le attività del consorzio, con l’obiettivo di accelerare il processo di patching e rafforzamento delle piattaforme più esposte.

Secondo l’azienda, lo scopo è fornire un vantaggio iniziale ai difensori, in un contesto in cui modelli analoghi potrebbero emergere rapidamente anche fuori da questo ecosistema controllato. Ma basterà fornire “un vantaggio” ai difensori quando gli attaccanti hanno ampiamente dimostrato di saper correre molto più velocemente?

Vulnerabilità trovate dall’AI: bug vecchi decenni e exploit complessi

La risposta è al momento relegata al parere degli esperti che, dal canto loro, rilasciano dichiarazioni preoccupanti. Anthropic, infatrti, sostiene che Claude Mythos Preview abbia già identificato migliaia di vulnerabilità in software popolari, inclusi sistemi operativi e browser diffusi. Tra i casi citati emerge un bug di 27 anni in OpenBSD, sistema operativo open source noto per la sua attenzione alla sicurezza e utilizzato in numerosi router e firewall.

Il modello avrebbe inoltre individuato problemi in software analizzati milioni di volte da strumenti automatici, senza che le vulnerabilità fossero mai rilevate. In alcuni casi, l’AI non si è limitata a individuare il bug, ma ha anche generato exploit funzionanti, dimostrando una capacità operativa che tradizionalmente richiedeva team di ricerca altamente specializzati.

Questo tipo di automazione rappresenta un cambio radicale: attività che richiedevano mesi di lavoro umano possono ora essere eseguite in pochi minuti, con un impatto potenzialmente enorme sull’intero ecosistema della sicurezza.

L’AI che trova vulnerabilità diventa anche un rischio offensivo

Il punto critico evidenziato dall’annuncio è che un modello ottimizzato per scrivere codice è inevitabilmente efficace anche nel trovarne i difetti. Claude, già diffuso tra sviluppatori e “vibecoder”, viene utilizzato per attività di programmazione complesse e debugging avanzato. Con l’evoluzione delle capacità, la stessa tecnologia può automatizzare scansioni sistematiche dell’infrastruttura software globale.

Il timore è quello di una ricerca industrializzata delle vulnerabilità, in cui agenti AI autonomi catalogano continuamente debolezze in sistemi legacy, applicazioni enterprise e infrastrutture critiche. In questo scenario, il paradigma di sicurezza basato sulla difficoltà tecnica dell’attacco potrebbe non essere più valido.

Molti sistemi critici, infatti, si basano su codice datato che è rimasto sicuro solo perché difficile da analizzare manualmente. Con l’AI, quella barriera viene abbattuta e vulnerabilità storiche potrebbero emergere simultaneamente su larga scala.

Dalla ricerca difensiva alla corsa agli armamenti AI

Diversi esperti che hanno avuto accesso al modello descrivono Claude Mythos Preview come un salto qualitativo nelle capacità offensive e difensive, con implicazioni immediate per il settore. La stessa tecnologia che consente ai difensori di patchare rapidamente le vulnerabilità potrebbe essere replicata da attori ostili per automatizzare la scoperta di nuovi vettori di attacco.

Questo scenario apre una nuova corsa agli armamenti tra AI difensiva e AI offensiva, in cui la velocità di identificazione delle vulnerabilità diventa il fattore chiave. Se modelli analoghi verranno resi disponibili più ampiamente, la superficie di attacco globale potrebbe cambiare rapidamente.

Secondo Anthropic, le capacità di sicurezza del modello non derivano da training specifico, ma rappresentano una conseguenza naturale dell’aumento delle prestazioni generali nei compiti di coding e reasoning. Questo implica che altri modelli futuri avranno probabilmente capacità simili, rendendo inevitabile l’evoluzione del panorama delle minacce.

Un precedente storico e una nuova fase più urgente

La decisione di trattenere il modello ricorda il caso del rilascio graduale di GPT-2, quando venne limitata la diffusione iniziale per timori legati alla generazione automatica di disinformazione. Tuttavia, in questo caso la posta in gioco è diversa: non si tratta di contenuti, ma della sicurezza dell’infrastruttura software globale.

Anthropic segnala che il modello potrebbe essere solo il primo di una nuova generazione di sistemi capaci di condurre ricerca autonoma sulle vulnerabilità, con implicazioni dirette per infrastrutture critiche, dati personali e sistemi industriali.

Il rischio più concreto è che software considerati sicuri perché mai attaccati vengano improvvisamente esposti, richiedendo patch massivi o persino la riscrittura di componenti legacy.

La sicurezza entra nell’era degli agenti autonomi

Lo scenario da “corsa agli armamenti” deve anche far riflettere su di un dettaglio importante: il modello di Anthropic è stato messo sotto chiave (forse) per la buona volontà dell’azienda, ma quanti strumenti simili sono già al lavoro nei laboratori dei vari governi mondiali? La prospettiva a cui dobbiamo prepararci è quella di orde di agenti AI che analizzano continuamente l’infrastruttura tecnologica a caccia di debolezze. Questo scenario può favorire i difensori, ma anche ridurre drasticamente il vantaggio temporale tra scoperta e sfruttamento delle vulnerabilità.

Il risultato è l’avverarsi di una profezia che circola da tempo e che finora stava progredendo velocemente, ma in maniera “controllata”: la cybersecurity diventa un problema di velocità computazionale, non più solo di competenze umane. Le organizzazioni dovranno adattarsi a un contesto in cui la scoperta automatizzata delle vulnerabilità è la norma e la resilienza dipende da una miriade di considerazioni. C’è chi parla di “patching continuo” e chi dice che non è una strada percorribile. Con tutta probabilità la verità starà nel compromesso, com’è sempre accaduto finora, ma di sicuro si avvicinano scenari simili a quelli visti in libri cyberpunk, dove le IA sono senzienti, ma a difesa delle strutture informatiche venivano messi cerberi monoscopo.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/04/08/claude-mythos-secretato-perche-troppo-bravo-a-scovare-vulnerabilita/?utm_source=rss&utm_medium=rss&utm_campaign=claude-mythos-secretato-perche-troppo-bravo-a-scovare-vulnerabilita




APT28 colpisce i router per dirottare il DNS e rubare credenziali


Secondo un’analisi pubblicata dal National Cyber Security Centre britannico e supportata da dati di Microsoft Threat Intelligence, il gruppo APT28 continua a compromettere router domestici e per piccoli uffici per manipolare il DNS e intercettare credenziali sensibili, utilizzando infrastrutture di rete apparentemente innocue come trampolino verso obiettivi più rilevanti. La campagna, attribuita al collettivo noto come Fancy Bear e legato all’intelligence militare russa GRU, ci ricorda come anche i dispositivi di rete periferici possano diventare elementi strategici per operazioni di cyber-spionaggio su larga scala.

Hijacking DNS sui router SOHO: il vettore invisibile

Il cuore dell’operazione consiste nello sfruttamento di vulnerabilità nei router small office e domestici, modificando i parametri DNS per reindirizzare il traffico verso infrastrutture controllate dagli attaccanti. La compromissione del router trasforma ogni dispositivo collegato in un potenziale bersaglio, ereditando automaticamente le configurazioni malevole, inclusi laptop, smartphone e sistemi aziendali remoti.

Quando le vittime cercano servizi diffusi come Outlook o altre piattaforme enterprise, vengono indirizzate verso pagine clone perfettamente credibili. L’inserimento delle credenziali su questi portali falsificati consente ad APT28 di raccogliere password legittime senza compromettere direttamente l’infrastruttura target, mantenendo l’operazione estremamente difficile da rilevare.

Router consumer come punto di ingresso verso ambienti enterprise

Le attività osservate indicano che gli attacchi non sono necessariamente mirati a singoli individui di alto valore, ma piuttosto opportunistici. Tuttavia, la compromissione di router posizionati “a monte” di organizzazioni rilevanti consente al gruppo di ottenere accesso indiretto a reti aziendali e dati sensibili, sfruttando connessioni fidate e traffico apparentemente legittimo.

Microsoft Threat Intelligence ha identificato oltre 200 organizzazioni e circa 5.000 dispositivi coinvolti nell’infrastruttura DNS malevola attribuita a Forest Blizzard, denominazione interna di APT28: evidentemente un’operazione distribuita su larga scala che utilizza l’ecosistema domestico come infrastruttura di raccolta credenziali, senza indicazioni di compromissione diretta dei servizi Microsoft.

Dispositivi coinvolti e persistenza della campagna

Tra i dispositivi citati compaiono diversi router TP-Link, mentre attività analoghe avevano già coinvolto apparati Cisco monitorati dal 2021. Un cluster separato ha interessato router MikroTik, molti dei quali localizzati in Ucraina. Il controllo di questi dispositivi può fornire intelligence operativa, inclusi pattern di traffico e accesso a sistemi con valore militare o strategico, ampliando l’impatto oltre il semplice credential harvesting.

La manipolazione DNS non è l’unico obiettivo. Secondo Microsoft, gli accessi ottenuti possono essere riutilizzati per ulteriori operazioni, inclusi attacchi DDoS o distribuzione di malware. La trasformazione dei router compromessi in nodi multiuso rende l’infrastruttura resiliente e riutilizzabile per campagne successive, aumentando la durata operativa dell’attacco.

Precedenti operazioni e malware Jaguar Tooth

Le campagne attuali si inseriscono in un pattern già osservato negli anni precedenti. In advisory pubblicate nel 2023, il NCSC (National Cyber Security Centre, l’agenzia governativa del Regno Unito responsabile della sicurezza informatica nazionale) aveva documentato attacchi simili contro router Cisco utilizzati per distribuire il malware Jaguar Tooth. Questo payload permetteva l’installazione di backdoor persistenti, facilitando compromissioni successive e accessi laterali, dimostrando l’evoluzione da semplice DNS hijacking a piattaforme di intrusione più sofisticate.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/04/07/apt28-colpisce-i-router-per-dirottare-il-dns-e-rubare-credenziali/?utm_source=rss&utm_medium=rss&utm_campaign=apt28-colpisce-i-router-per-dirottare-il-dns-e-rubare-credenziali




Strategia cybersecurity USA verso un modello più assertivo e industriale


Nel mese scorso, il governo degli USA ha rilasciato un documento intitolato “President Trump’s CYBER STRATEGY  for America” che dovrebbe delineare la nuova strategia statunitense per la lotta al cybercrimine. L’obiettivo è quello di andare oltre la mera difesa tecnica e avanzare verso una trasformazione strutturale del modello di sicurezza, sempre più integrato con economia, geopolitica e innovazione tecnologica.

Ovviamente, lo scopo primario è quello di rafforzare la resilienza nazionale, ma subito dopo viene dichiarato quello di sostenere la competitività globale delle imprese americane facendo diventare la sicurezza non solo un costo operativo ma un fattore di crescita economica e digitale.

La strategia si articola attorno a sei direttrici principali, che ridefiniscono il ruolo dello Stato e del settore privato. Tra queste emergono con forza il rafforzamento della deterrenza contro gli attori ostili, l’introduzione di regolamentazioni più stringenti e la modernizzazione delle infrastrutture federali. Gli esperi di Trend Micro hanno analizzato il documento ed estratto alcuni punti chiave.

Il ruolo dell’intelligenza artificiale nella sicurezza nazionale

Uno degli elementi centrali della strategia è il ruolo dell’intelligenza artificiale come fattore duale: opportunità e minaccia. L’AI viene identificata come tecnologia chiave per rafforzare le capacità difensive, ma anche come acceleratore delle minacce.

Le analisi Trend Micro mostrano come il cybercrime stia evolvendo verso modelli sempre più autonomi, basati su agenti AI capaci di operare su larga scala e con velocità macchina e quindi le organizzazioni devono adottare modelli di sicurezza proattivi e automatizzati, in grado di competere con attaccanti sempre più sofisticati e industrializzati. Il tema non è più solo prevenire, ma reagire in tempo reale o, addirittura, anticipare gli attacchi.

Implicazioni per le imprese: più responsabilità e nuovi modelli operativi

La strategia introduce un principio destinato ad avere impatti profondi sul mercato: una maggiore responsabilità per i fornitori di tecnologia e per le organizzazioni che gestiscono infrastrutture critiche. Questo significa che la sicurezza “by design” dovrà entrare nei processi aziendali e nelle architetture digitali, piuttosto che essere aggiunta a posteriori. Dal punto di vista economico, ciò implica investimenti più consistenti ma anche più mirati, con un ritorno in termini di resilienza operativa, continuità del business e fiducia degli stakeholder.

Sovranità digitale e competizione globale

Un altro elemento chiave è il rafforzamento della sovranità digitale. La strategia punta a ridurre la dipendenza da tecnologie esterne e a consolidare un ecosistema nazionale forte, in grado di competere a livello globale. Questo approccio ha implicazioni dirette anche per il mercato europeo, dove temi analoghi – dalla NIS2 al concetto di cloud sovrano – stanno emergendo con forza. Inoltre, aggiungiamo noi, questo si configura come un ulteriore sprone alla creazione di un ecosistema europeo di cybersecurity, in grado di fornire tutta la tecnologia che verrà a mancare per “motivi di sicurezza nazionale” in futuro. In altre parole, la cybersecurity diventa un terreno di competizione tra blocchi economici, dove regolamentazione, innovazione e capacità industriale si intrecciano.

Verso un modello di sicurezza “a velocità macchina”

I commenti fatti dagli esperti di Trend Micro convergono sul fatto che il vero punto di discontinuità è rappresentato dalla velocità. Gli attacchi evolvono ormai a ritmi incompatibili con modelli difensivi tradizionali e quindi la strategia americana spinge verso un approccio basato su automazione, intelligence e piattaforme integrate. La sicurezza deve operare alla stessa velocità delle minacce, trasformandosi in un sistema continuo e adattivo. Per le aziende, questo significa ripensare completamente gli stack tecnologici, privilegiando piattaforme unificate e modelli operativi orientati alla gestione del rischio in tempo reale. Questo comporta un impegno notevole dal punto di vista di budget, ma soprattutto la necessità per gli europei di ripensare la propria necessità di sovranità tecnologica, accelerando per sopperire agli sviluppi che vedremo diventare sempre più estremi nei prossimi anni.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/04/03/strategia-cybersecurity-usa-verso-un-modello-piu-assertivo-e-industriale/?utm_source=rss&utm_medium=rss&utm_campaign=strategia-cybersecurity-usa-verso-un-modello-piu-assertivo-e-industriale




Proxy residenziali: quando la reputazione degli IP smette di funzionare


Secondo un’analisi pubblicata da GreyNoise, basata su oltre 4 miliardi di sessioni malevole osservate in tre mesi, i proxy residenziali stanno ridefinendo radicalmente il modo in cui gli attaccanti eludono i sistemi di difesa tradizionali. Il dato più rilevante è che circa il 39% del traffico malevolo proviene da reti domestiche, ma il 78% di questi IP elude i sistemi di IP reputation, mettendo in crisi uno dei pilastri storici della sicurezza di rete.

I sistemi di difesa tradizionali si basano su un presupposto ormai sempre meno valido: la possibilità di distinguere traffico legittimo da traffico malevolo in base alla provenienza. L’utilizzo massivo di proxy residenziali rompe questa logica, rendendo indistinguibili utenti reali e attaccanti.

Il motivo è strutturale. Gli indirizzi IP residenziali utilizzati nelle campagne malevole hanno una vita estremamente breve, vengono ruotati continuamente e spesso compaiono una sola volta. Questo impedisce ai sistemi di intelligence di classificarli e inserirli in blacklist in tempo utile. Il risultato è una superficie di attacco dinamica e sfuggente che evolve più velocemente dei meccanismi di difesa.

L’analisi mostra chiaramente come la volatilità sia uno degli elementi chiave di queste infrastrutture. Quasi il 90% degli IP residenziali coinvolti in attività malevole resta attivo per meno di un mese, mentre una quota minima persiste più a lungo.

Questa strategia consente agli attaccanti di mantenere un ritmo operativo tale da evitare il rilevamento. La rotazione continua degli IP crea un flusso costante di nuove identità di rete, rendendo inefficace qualsiasi approccio basato su liste statiche o reputazione storica.

Diversità e distribuzione globale degli attacchi

Un ulteriore elemento critico è la diversità dell’infrastruttura utilizzata. I proxy residenziali coinvolti negli attacchi analizzati da GreyNoise appartengono a ben 683 provider Internet differenti, aumentando ulteriormente la complessità del tracciamento e del blocco.

Dal punto di vista geografico, emergono alcuni hub principali come Cina, India e Brasile. Tuttavia, il comportamento del traffico segue pattern tipicamente umani, con una riduzione significativa durante le ore notturne. Questo suggerisce chiaramente che i dispositivi compromessi sono spesso utilizzati inconsapevolmente dagli utenti legittimi, rendendo ancora più difficile distinguere attività lecite da operazioni malevole.

Due ecosistemi distinti dietro i proxy residenziali

L’infrastruttura dei proxy residenziali si basa su due grandi categorie di sorgenti. Da un lato, botnet IoT composte da dispositivi connessi e spesso poco protetti. Dall’altro, computer compromessi che vengono arruolati in reti di proxy tramite software apparentemente legittimi.

In molti casi, applicazioni come VPN gratuite, ad blocker o strumenti consumer integrano SDK che trasformano i dispositivi degli utenti in nodi di rete utilizzati per rivendere banda, alimentando così ecosistemi distribuiti e difficili da disarticolare. Questo modello introduce un rischio sistemico, perché amplia enormemente la base di dispositivi sfruttabili.

Contrariamente a quanto si potrebbe pensare, la maggior parte del traffico generato tramite proxy residenziali non è direttamente legata allo sfruttamento di vulnerabilità. Solo lo 0,1% delle sessioni osservate è associato ad exploit veri e propri, mentre la maggioranza è dedicata a scanning e attività di ricognizione.

Questo approccio consente agli attaccanti di operare sotto il radar, costruendo mappe dettagliate delle superfici esposte prima di colpire. Alcune campagne mirate includono tentativi di accesso a VPN aziendali, attacchi di credential stuffing e tecniche di path traversal, ma restano minoritarie rispetto al volume complessivo.

Resilienza delle infrastrutture proxy e adattabilità del mercato

Le reti di proxy residenziali dimostrano una notevole capacità di adattamento. Un esempio emblematico è quello di IPIDEA, una delle più grandi reti globali, recentemente colpita da un’operazione coordinata di contrasto. Nonostante una riduzione del 40% della capacità, il traffico malevolo si è rapidamente spostato verso infrastrutture alternative, in particolare datacenter. Questo evidenzia come la domanda di proxy malevoli sia elastica e facilmente redistribuibile, rendendo gli interventi di disruption solo temporaneamente efficaci.

Il quadro che emerge impone una revisione profonda delle strategie di sicurezza. La reputazione degli IP inizia a diventare un metodo marginale per riconoscere il traffico malevolo e questo cambiamento deve esser tenuto in considerazione quando si progetta l’architettura difensiva..

Le indicazioni degli analisti vanno nella direzione di un approccio comportamentale, basato sull’analisi dei pattern di traffico piuttosto che sull’identità della sorgente. Tecniche come il rilevamento di scanning sequenziali da IP rotanti, l’identificazione di protocolli anomali e il tracciamento delle impronte dei dispositivi potrebbero diventare elementi chiave per contrastare queste minacce.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/04/02/proxy-residenziali-quando-la-reputazione-degli-ip-smette-di-funzionare/?utm_source=rss&utm_medium=rss&utm_campaign=proxy-residenziali-quando-la-reputazione-degli-ip-smette-di-funzionare




Vertex AI e il rischio dei “double agent” AI


Un recente studio della Unit 42 di Palo Alto ha messo in luce un aspetto ancora poco esplorato della sicurezza dei sistemi basati su agenti AI: la possibilità che un agente distribuito in ambienti enterprise possa trasformarsi in un “doppiogiochista” (un  double agent) capace di compromettere l’intera infrastruttura cloud. L’analisi si concentra sulla piattaforma Vertex AI di Google Cloud, evidenziando come configurazioni permissive e modelli di accesso predefiniti possano essere sfruttati per escalation di privilegi, esfiltrazione di dati e accesso a risorse interne sensibili.

Il punto centrale è che un agente AI compromesso non agisce come un attaccante esterno, ma come un insider con privilegi legittimi, ampliando enormemente il potenziale impatto di una violazione. In ambienti come Google Cloud Vertex AI, dove gli agenti possono orchestrare servizi e interagire con risorse distribuite, questo scenario diventa particolarmente critico.

Permessi eccessivi e abuso dei Service Agent

L’analisi tecnica ha evidenziato come il modello di autorizzazione di Vertex AI possa esporre a rischi significativi. In particolare, il Per-Project, Per-Product Service Agent (P4SA) associato agli agenti AI presenta, in configurazioni predefinite, privilegi eccessivamente ampi.

Attraverso un agente malevolo, i ricercatori sono riusciti a estrarre credenziali di servizio direttamente dal metadata endpoint interno di Google Cloud. Il risultato è che l’agente può impersonare identità privilegiate e operare con accessi estesi su risorse cloud, violando il principio del least privilege. Questa condizione consente di ottenere accesso completo in lettura ai bucket di Google Cloud Storage, includendo permessi come storage.buckets.list e storage.objects.get.

Dal progetto cliente all’infrastruttura Google: escalation inattesa

Uno degli aspetti più rilevanti della ricerca riguarda il passaggio dal contesto cliente al contesto “producer”, ovvero l’infrastruttura gestita da Google stessa.

Utilizzando le credenziali sottratte, è stato possibile accedere a repository privati di Artifact Registry contenenti immagini container interne, tra cui componenti del Reasoning Engine. Questo implica che un attaccante può ottenere accesso a codice proprietario e dettagli implementativi della piattaforma stessa, con implicazioni dirette sulla sicurezza della supply chain. L’accesso non era disponibile per identità standard, ma risultava abilitato per il service agent compromesso, dimostrando una separazione dei privilegi non allineata ai principi di sicurezza più rigorosi.

Artifact Registry e visibilità sulla supply chain interna

Un ulteriore livello di rischio emerge dalla possibilità di enumerare repository e pacchetti all’interno dell’Artifact Registry. La configurazione osservata ha consentito di scoprire immagini e componenti non documentati, offrendo una visibilità anomala sulla supply chain software interna. Questo significa che un attaccante potrebbe mappare l’infrastruttura applicativa, individuare componenti vulnerabili e pianificare attacchi mirati, anche senza accesso diretto ai contenuti.

Si tratta di un classico scenario di information disclosure che, in ambienti AI-driven, assume una portata molto più ampia.

Tenant project e esposizione di asset sensibili

Durante il deployment di un agente, Vertex AI utilizza tenant project gestiti da Google. Anche in questo caso, le credenziali compromesse hanno permesso accesso a bucket contenenti artefatti sensibili.

Tra questi figurano file come Dockerfile.zip, requirements.txt e soprattutto code.pkl. Quest’ultimo introduce un rischio particolarmente critico: la serializzazione tramite pickle. È noto, infatti, che la deserializzazione di oggetti pickle provenienti da fonti non affidabili può portare a remote code execution, trasformando l’agente in un punto di persistenza per attacchi avanzati.

OAuth scope e rischio di espansione verso Google Workspace

Un elemento strutturale emerso riguarda la configurazione degli OAuth scope associati agli agenti. Gli scope assegnati includono accessi a servizi come Gmail, Drive e Calendar. Anche se l’accesso effettivo richiede permessi IAM aggiuntivi, la presenza di scope così ampi rappresenta un rischio latente.

La combinazione di token esposti e scope eccessivi potrebbe estendere l’attacco oltre il perimetro cloud, coinvolgendo servizi di collaborazione aziendale, ampliando drasticamente la superficie di compromissione.

Supply chain AI e agenti malevoli: un nuovo vettore

La ricerca evidenzia anche un rischio emergente legato alla diffusione di agenti AI preconfigurati. La possibilità di distribuire agenti tramite ADK e Agent Engine apre la strada a scenari in cui codice malevolo viene integrato in componenti apparentemente legittimi. In questo modo, la supply chain AI diventa un vettore di attacco, dove agenti compromessi si presentano come strumenti produttivi ma operano come backdoor persistenti. Questo fenomeno richiama dinamiche già osservate nel mondo open source, ma con un impatto amplificato dalla capacità operativa degli agenti AI.

Mitigazioni e modello di sicurezza: verso il BYOSA

A seguito della disclosure responsabile, Google ha aggiornato la documentazione e suggerito l’adozione del modello Bring Your Own Service Account (BYOSA). Questo approccio consente di sostituire il service agent predefinito con account configurati secondo il principio del least privilege. Di fatto, la sicurezza degli agenti AI deve essere trattata come quella del codice di produzione, con controlli rigorosi su permessi, scope e integrazioni. Parallelamente, sono stati verificati controlli robusti per impedire modifiche ai container di produzione, riducendo il rischio di attacchi supply chain cross-tenant.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/04/01/vertex-ai-e-il-rischio-dei-double-agent-ai/?utm_source=rss&utm_medium=rss&utm_campaign=vertex-ai-e-il-rischio-dei-double-agent-ai




Vibecoding: l’AI accelera lo sviluppo ma moltiplica i rischi


Il concetto di vibecoding – ovvero la generazione di codice direttamente da prompt in linguaggio naturale tramite modelli di intelligenza artificiale – sta rapidamente trasformando il modo in cui il software viene progettato e rilasciato. Un blogpost sul sito di Trend Micro analizza come questa nuova modalità di sviluppo ed elenca alcuni possibili scenari in cui l’uso di questa tecnologia, pur abilitando velocità senza precedenti, potrebbe introdurre una superficie di rischio radicalmente diversa, che impatta direttamente sui modelli di sicurezza applicativa e governance del codice.

Se da un lato l’AI consente di passare dall’idea al prodotto in tempi estremamente ridotti, dall’altro l’aumento esponenziale della velocità e del volume delle modifiche software potrebbe superare la capacità dei controlli di sicurezza se non pensati appositamente per questa nuova situazione, mettendo sotto stress processi di revisione, validazione e responsabilità.

Velocità senza comprensione: il nuovo paradigma del rischio

Nel modello di sviluppo tradizionale, il codice attraversa diversi livelli di controllo: scrittura, revisione tra pari, testing e validazione. Il vibecoding comprime drasticamente queste fasi, portando gli sviluppatori a concentrarsi principalmente sulla funzionalità.

Il punto critico è che il codice generato viene spesso accettato perché “funziona”, non perché è stato compreso o validato dal punto di vista della sicurezza. Questo introduce una rottura strutturale: chi rilascia il software potrebbe non essere in grado di spiegare nel dettaglio cosa fa realmente il codice. Il risultato è un cambio di priorità implicito, dove la sicurezza diventa un’attività differita anziché integrata nel ciclo di sviluppo.

Codice generato, rischio implicito: cosa introduce davvero un prompt

Un prompt non produce mai solo logica applicativa. Ogni generazione porta con sé scelte architetturali, librerie, configurazioni e pattern che spesso non vengono analizzati.

Il rischio reale è che ogni singola interazione con l’AI introduca componenti invisibili al processo decisionale dello sviluppatore, ampliando la superficie d’attacco in modo non intenzionale.

Tra gli effetti più rilevanti emergono dipendenze non esplicitamente selezionate, configurazioni permissive pensate per ambienti di test, gestione debole dei segreti e logiche applicative limitate ai casi standard. In questo contesto, la sicurezza non viene violata da un singolo errore critico, ma da una serie di decisioni apparentemente innocue che si accumulano nel tempo.

Debito di sicurezza: una deriva sistemica e silenziosa

Il vibecoding accelera la formazione del cosiddetto security debt, ovvero l’accumulo di vulnerabilità latenti generate da compromessi rapidi e non analizzati.

Il debito di sicurezza non nasce da errori evidenti, ma dalla somma di modifiche rapide che non vengono sottoposte a threat modeling o revisione approfondita. Ogni nuova funzione, endpoint o integrazione aggiunta “velocemente” contribuisce a costruire una base di codice sempre più difficile da governare.

Questo fenomeno è particolarmente critico nei contesti enterprise, dove il codice entra rapidamente in produzione e diventa parte di sistemi complessi e interconnessi.

Il problema dell’ownership: responsabilità frammentata

Uno degli effetti meno evidenti ma più critici del vibecoding riguarda la perdita di ownership chiara sul codice. La responsabilità si distribuisce tra chi scrive il prompt, il modello AI che genera il codice, chi lo approva e chi lo gestisce in produzione, creando una catena decisionale opaca.

Anche quando esiste un “committer”, mancano spesso informazioni fondamentali come il contesto di generazione, le motivazioni tecniche e le dipendenze introdotte. Questo rende estremamente complesso intervenire su problemi di sicurezza: la mancanza di contesto trasforma ogni correzione in un’attività di reverse engineering, aumentando tempi e costi di remediation.

Revisione e controlli: quando l’AI valida sé stessa

Un ulteriore elemento di rischio emerge quando lo stesso sistema di AI viene utilizzato sia per generare codice sia per validarlo. Si crea così un’illusione di revisione, senza una reale separazione dei ruoli e delle responsabilità, compromettendo uno dei principi fondamentali della sicurezza: l’indipendenza dei controlli.

In questo scenario, i controlli tradizionali non vengono eliminati, ma semplicemente sovraccaricati da un volume di cambiamenti che non sono stati progettati per gestire.

Il vero rischio: software change fuori controllo

Il punto centrale non è la qualità del codice generato dall’AI, ma la perdita di controllo sul processo di sviluppo. Il rischio più rilevante del vibecoding è l’introduzione di cambiamenti software continui, veloci e non completamente governati, che superano la capacità delle organizzazioni di monitorare cosa viene realmente distribuito in produzione.

L’AI amplifica dinamiche già esistenti – riuso di librerie, configurazioni errate, sviluppo sotto pressione – portandole a una scala e a una velocità senza precedenti.

Sicurezza adattiva: come devono evolvere i controlli

Se il vibecoding è destinato a diventare la norma, la sicurezza deve cambiare approccio. La protezione efficace non può più basarsi su controlli a valle, ma deve intervenire nelle fasi iniziali del ciclo di sviluppo, intercettando i rischi nel momento in cui vengono introdotti.

Diventa fondamentale automatizzare le policy di sicurezza, integrare i controlli nei workflow CI/CD e creare un contesto condiviso tra team di sviluppo e sicurezza. Solo in questo modo è possibile mantenere la velocità senza sacrificare la governance.

Il ruolo delle piattaforme integrate

L’aumento della complessità rende sempre meno efficaci gli strumenti isolati. Le piattaforme integrate di code security emergono come elemento chiave per scalare i controlli insieme alla velocità di sviluppo, permettendo di correlare codice, dipendenze, policy e pipeline di rilascio.

La differenza non è tanto nelle funzionalità, quanto nel momento in cui la sicurezza interviene: quando è anticipata, diventa supporto allo sviluppo; quando è tardiva, viene percepita come ostacolo.

Il vibecoding non è un fenomeno temporaneo, ma una trasformazione strutturale dello sviluppo software. Il vero problema non è l’AI che scrive codice insicuro, ma il fatto che gli sviluppatori possano rilasciare codice che non hanno avuto il tempo di comprendere e proteggere. Secondo Trend Micro, le organizzazioni che avranno successo non saranno quelle che limiteranno l’uso dell’AI, ma quelle che sapranno integrare sicurezza, governance e sviluppo in un modello coerente con questa nuova realtà.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/31/vibecoding-lai-accelera-lo-sviluppo-ma-moltiplica-i-rischi/?utm_source=rss&utm_medium=rss&utm_campaign=vibecoding-lai-accelera-lo-sviluppo-ma-moltiplica-i-rischi




Google: crittografia post-quantum entro il 2029


Google ha annunciato sul proprio blog l’obiettivo di completare l’integrazione della post-quantum cryptography (PQC) nei propri sistemi, prodotti e servizi entro il 2029, segnando uno dei piani più strutturati e ambiziosi finora dichiarati nel settore.

Per quanto l’avvento di computer quantistici in grado di spezzare le crittografie attuali sembri ancora molto in là dal giungere alla portata di governi e aziende, il tema è già molto sentito a causa della pratica, finora speculativa ma destinata a diventare attuale, del “raccogli adesso e decripta più tardi”: ovvero il fatto che gli attaccanti potrebbero rubare adesso gli archivi criptati e tenerli da parte fin quando non avranno i mezzi per decriptarli.

Una roadmap concreta per la sicurezza post-quantum

La strategia delineata da Google segue il solco tracciato dagli standard pubblicati nel 2024 dal National Institute of Standards and Technology che stanno diventando il punto di riferimento globale per la transizione alla crittografia resistente al quantum. L’approccio dell’azienda si fonda su tre direttrici chiave: crypto-agility, protezione delle infrastrutture condivise e accompagnamento dell’intero ecosistema verso il cambiamento.

La crypto-agility emerge come elemento centrale, poiché consente alle organizzazioni di adattare rapidamente algoritmi e protocolli man mano che gli standard evolvono. Dal momento che le tecnologie sono ancora in fase di definizione, questa capacità rappresenta una valida opzione per evitare lock-in tecnologici e vulnerabilità eventualmente generate da ritardi nell’applicazione degli algoritmi più recenti.

Parallelamente, Google ha già avviato l’introduzione di tecnologie PQC nei propri ambienti. Il futuro Android 17 integrerà la protezione delle firme digitali basata su algoritmi ML-DSA (Module-Lattice-Based Digital Signature Algorithm), affiancandosi alle iniziative già avviate su Chrome e sulle piattaforme cloud.

Dal dato all’identità: perché l’autenticazione diventa il vero fronte critico

Se finora il dibattito sulla sicurezza post-quantum si è concentrato prevalentemente sulla cifratura dei dati, il nuovo orientamento strategico mette in primo piano anche un altro elemento: l’autenticazione e le firme digitali.

In questo caso, il rischio va oltre quello del già citato “store now, decrypt later” per sfociare nella possibile compromissione sistemica dei meccanismi di fiducia digitale. Le firme digitali attuali potrebbero diventare vulnerabili, con impatti diretti su identità, transazioni e supply chain digitali.

Per questo motivo, Google ha esplicitamente rivisto il proprio threat model, suggerendo di anticipare la migrazione PQC proprio nei sistemi di autenticazione. Una scelta che riflette una crescente consapevolezza: la sicurezza futura non dipenderà solo dalla protezione dei dati, ma dalla capacità di garantire l’autenticità delle entità digitali.

Impatti operativi: tra strategia e pragmatismo

Secondo diversi esperti del settore, il percorso verso la PQC richiede una pianificazione strutturata che vede come primo passo la mappatura dell’uso della crittografia all’interno dei sistemi aziendali, per poi coinvolgere i fornitori tecnologici facendo diventare Cloud provider, vendor VPN e partner software parte integrante della transizione, soprattutto per le organizzazioni che dipendono da soluzioni di terze parti.

Accanto a questo, pratiche consolidate come l’uso di tecniche di salting robuste possono offrire un livello di protezione immediato. Aggiungere entropia ai processi crittografici aumenta significativamente il costo computazionale degli attacchi, contribuendo a guadagnare tempo prezioso in attesa di una migrazione completa verso algoritmi post-quantum.

Uno degli aspetti meno evidenti ma più rilevanti riguarda l’interoperabilità futura. Le organizzazioni che ritarderanno la transizione potrebbero trovarsi isolate rispetto a partner e supply chain che avranno già adottato standard PQC.

Inoltre, il rischio è particolarmente elevato per i sistemi che gestiscono dati sensibili con cicli di vita lunghi, come quelli in ambito sanitario, finanziario o governativo. In questi casi, la protezione deve essere garantita non solo nel presente, ma anche in un orizzonte temporale di decenni.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/27/google-crittografia-post-quantum-entro-il-2029-e-novita-sullautenticazione/?utm_source=rss&utm_medium=rss&utm_campaign=google-crittografia-post-quantum-entro-il-2029-e-novita-sullautenticazione




Magento sotto attacco: PolyShell, sfruttamento di massa in pochi giorni


La vulnerabilità “PolyShell” in Magento Open Source e Adobe Commerce è passata dalla disclosure alla compromissione su larga scala in tempi estremamente rapidi: secondo Sansec, azienda specializzata in sicurezza informatica, lo sfruttamento di massa è iniziato il 19 marzo 2026, appena due giorni dopo la divulgazione pubblica, e oggi le tracce di attacco risultano presenti su circa il 56,7% degli store ancora vulnerabili.

Questa velocità è coerente con un pattern ormai ricorrente nell’e-commerce: quando un bug consente una catena semplice e automatizzabile, gli attori malevoli trasformano la scansione in infezione in poche ore, soprattutto su piattaforme diffuse e con installazioni eterogenee come Magento. Sansec, inoltre, ha pubblicato una lista di indirizzi IP utilizzati per lo scanning mirato degli shop, segnale che la fase di ricognizione e selezione delle vittime è già industrializzata.

Il cuore del problema: upload “travestito” via REST API

Dal punto di vista tecnico, PolyShell riguarda il modo in cui la REST API di Magento gestisce l’upload di file associati alle “custom options” di un articolo nel carrello. In pratica, quando una product option è di tipo file, la piattaforma può finire per accettare e processare contenuti caricati dall’utente, con il rischio che un attaccante invii un file “poliglotta”: un oggetto che appare come immagine o risorsa legittima, ma che contiene anche porzioni eseguibili o utili a innescare altre condizioni pericolose. Se la configurazione del web server e del contesto applicativo lo permette, questo meccanismo può aprire la strada a remote code execution (RCE), oppure a account takeover tramite stored cross-site scripting (XSS), sfruttando contenuti persistenti che vengono poi renderizzati o interpretati in un contesto privilegiato. In altre parole, non è “solo” un bug di input validation, ma un punto d’ingresso che, combinato con scelte di configurazione e catene note, può trasformare un e-commerce in una piattaforma di esecuzione per l’attaccante.

Patch gap e gestione del rischio: cosa sappiamo sulle correzioni

La finestra operativa degli attaccanti è stata favorita anche dal consueto problema del “patch gap” tra fix e produzione. Adobe ha indicato che una correzione è stata resa disponibile in Magento/Adobe Commerce 2.4.9-beta1 il 10 marzo 2026, ma il fix non risulta ancora arrivato ovunque, lasciando molte installazioni senza un aggiornamento “production-ready” immediato. Sul fronte ufficiale, il bollettino di sicurezza Adobe (APSB26-05) conferma l’esistenza di vulnerabilità che, se sfruttate con successo, possono portare anche a esecuzione di codice, escalation di privilegi e letture arbitrarie del file system, pur dichiarando di non essere a conoscenza di exploit in-the-wild per le vulnerabilità trattate dal bulletin. In questo scenario, la pratica difensiva più realistica non è aspettare “la patch perfetta”, ma ridurre subito l’esposizione: capire se l’istanza è raggiungibile e attaccabile via API, verificare l’eventuale presenza di anomalie in percorsi e file di upload, e potenziare telemetria e controlli attorno ai flussi di checkout.

WebRTC skimmer: esfiltrazione cifrata e anti-controlli “tradizionali”

Nel quadro degli attacchi attribuiti o sospetti legati allo sfruttamento, Sansec segnala anche la consegna di un nuovo payment-card skimmer che usa WebRTC per stabilire un canale di comunicazione e trasporto dati più elusivo rispetto ai classici beacon HTTP. L’elemento tecnico qui è importante: WebRTC può usare DataChannels su UDP con DTLS, quindi l’esfiltrazione avviene in modo cifrato e fuori dal perimetro di molti controlli pensati per traffico web “standard”, con un impatto potenziale anche su siti che applicano politiche CSP restrittive. Sansec descrive un loader JavaScript leggero che si collega a un C2 hardcoded via WebRTC, evitando il signaling tipico grazie a uno scambio SDP “forgiato”; quindi, riceve un secondo stadio sul canale cifrato e lo esegue cercando di bypassare la CSP riutilizzando un nonce già valido oppure ricorrendo a fallback più aggressivi. Per ridurre il rischio di rilevamento immediato, l’esecuzione viene posticipata con meccanismi come requestIdleCallback, spostando l’attività malevola in un momento di minore attenzione e rumore applicativo.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/25/magento-sotto-attacco-polyshell-sfruttamento-di-massa-in-pochi-giorni/?utm_source=rss&utm_medium=rss&utm_campaign=magento-sotto-attacco-polyshell-sfruttamento-di-massa-in-pochi-giorni




API sotto attacco: la sicurezza dell’AI passa dall’infrastruttura applicativa


Akamai ha appena rilasciato il suo report “2026 Apps, API, and DDoS State of the Internet” dove viene messo in evidenza come la crescita dell’intelligenza artificiale stia ridefinendo le priorità della sicurezza applicativa. Il punto centrale è che le API, diventate il tessuto connettivo dei sistemi AI, si stanno trasformando nella principale superficie di attacco per i cybercriminali.

L’evoluzione osservata non riguarda solo la sofisticazione tecnica, ma anche il modello operativo degli attaccanti. Le campagne sono sempre più industrializzate, automatizzate e progettate per scalare rapidamente, colpendo le infrastrutture critiche su cui si basa la trasformazione digitale delle imprese.

L’industrializzazione degli attacchi: API, web e DDoS convergono

Uno degli elementi più rilevanti del report riguarda la convergenza delle tecniche di attacco. Non si tratta più di singoli vettori isolati, ma di operazioni coordinate. Gli attacchi moderni combinano sistematicamente abuso delle API, compromissione delle applicazioni web e DDoS Layer 7, creando campagne multi-livello in grado di colpire contemporaneamente disponibilità, integrità e costi operativi delle piattaforme.

Questa evoluzione è strettamente legata alla diffusione dell’AI anche tra gli attaccanti. L’automazione basata su modelli intelligenti consente di rendere gli attacchi più economici, ripetibili e adattivi, abbassando la barriera d’ingresso e aumentando la frequenza delle operazioni malevole.

I numeri della minaccia: crescita esponenziale e impatto sistemico

I dati raccolti da Akamai evidenziano una crescita significativa su più dimensioni. Gli attacchi DDoS Layer 7 sono aumentati del 104% negli ultimi due anni, mentre le offensive contro le applicazioni web hanno registrato un incremento del 73% tra il 2023 e il 2025. Particolarmente significativo è il dato relativo alle API: l’87% delle aziende ha segnalato almeno un incidente di sicurezza nel 2025, indicando una diffusione capillare del problema. Parallelamente, il numero medio di attacchi API giornalieri è cresciuto del 113% dall’anno precedente.

L’adozione dell’intelligenza artificiale sta accelerando la proliferazione delle API che fungono da interfaccia tra modelli, dati e servizi aziendali. Proteggere i sistemi AI significa inevitabilmente proteggere le API che li alimentano, poiché ogni interazione tra modelli e infrastruttura passa attraverso questi endpoint. Questo crea una dipendenza diretta tra innovazione e rischio.

Il problema è aggravato dal fatto che molte organizzazioni continuano a trattare separatamente la sicurezza delle applicazioni e quella delle API. Questa separazione genera lacune di visibilità che gli attaccanti sfruttano come punto di ingresso unico verso sistemi complessi e interconnessi.

Una situazione “globale” che è aggravata, secondo il report, dal cosiddetto “vibe-coding”, lo sviluppo accelerato guidato anche da strumenti di AI. La velocità di sviluppo porta spesso a configurazioni errate e vulnerabilità che raggiungono l’ambiente di produzione senza adeguati test di sicurezza, aumentando la superficie esposta.

DDoS evoluti e botnet-as-a-service: l’infrastruttura degli attaccanti

Il report evidenzia anche l’evoluzione delle infrastrutture utilizzate per gli attacchi DDoS. L’aumento del 104% degli attacchi Layer 7 è alimentato dalla diffusione di servizi DDoS-for-hire e dall’uso di script automatizzati basati su AI.

Le botnet di nuova generazione, come Aisuru e Kimbolf, rappresentano l’evoluzione delle architetture Mirai e sono oggi alla base di ecosistemi DDoS-as-a-Service, accessibili sia a gruppi criminali che ad hacktivisti.

Hacktivismo e geopolitica: la pressione sulle infrastrutture digitali

Un altro elemento chiave è la crescita dell’attività hacktivista, spesso legata a tensioni geopolitiche. Questi attori utilizzano le stesse infrastrutture e tecniche dei gruppi criminali, ma con obiettivi diversi. Le campagne DDoS guidate da motivazioni politiche stanno diventando più frequenti e mirate, colpendo infrastrutture critiche e servizi pubblici, con impatti che vanno oltre il semplice downtime.

La combinazione tra hacktivismo e strumenti automatizzati crea scenari difficili da prevedere. La disponibilità di botnet a noleggio consente di orchestrare attacchi su larga scala in tempi ridotti, amplificando l’impatto mediatico e operativo.

Verso un nuovo modello di difesa: visibilità e integrazione

L’analisi di Akamai evidenzia come la sicurezza debba evolvere per rispondere a queste nuove dinamiche. La separazione tra domini di sicurezza non è più sostenibile. Le organizzazioni devono adottare un approccio integrato che unisca visibilità su API, applicazioni e infrastrutture, eliminando le zone d’ombra sfruttate dagli attaccanti, e garantendo un controllo continuo sulle superfici esposte. Inoltre, la crescente diffusione dell’agentic AI introduce nuove sfide. I sistemi autonomi amplificano la velocità e la complessità degli attacchi, richiedendo meccanismi di difesa altrettanto dinamici e adattivi.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/24/api-sotto-attacco-la-sicurezza-dellai-passa-dallinfrastruttura-applicativa/?utm_source=rss&utm_medium=rss&utm_campaign=api-sotto-attacco-la-sicurezza-dellai-passa-dallinfrastruttura-applicativa