New AI Jobs Index Ranks 784 Occupations By Loss Risk via @sejournal, @MattGSouthern

Jobs with the highest potential for AI-assisted productivity gains also face the highest projected job losses, according to a new index from Digital Planet at Tufts University’s Fletcher School.

The American AI Jobs Risk Index ranks 784 U.S. occupations, 530 metro areas, 50 states, and 20 industry sectors by vulnerability to AI-driven job loss.

All figures are model projections based on AI adoption scenarios, not actual layoffs or employment changes. The median scenario estimates 9.3 million jobs at risk, ranging from 2.7 million to 19.5 million depending on AI adoption speed.

Which Jobs Face The Highest Projected Risk

Writers and authors top the list of occupations at risk at 57%. Computer programmers and web and digital interface designers follow at 55% each. Editors are at 54%, and web developers at 46%.

Market research analysts and marketing specialists face a projected 35% job loss rate. Public relations specialists are at 37%. News analysts, reporters, and journalists face 35% risk.

Earlier analyses, such as the Anthropic Economic Index and Stanford’s “Canaries in the Coal Mine,” measured how accessible jobs are to AI. This analysis goes further by estimating how likely that exposure is to translate into projected job loss.

Augmentation & Loss Risk Go Together

Authors refer to the connection between jobs that benefit from AI-driven productivity gains and those expected to lose jobs as the “augmentation-displacement link.”

When AI increases individual workers’ efficiency, companies can produce the same output with fewer employees. This mainly affects entry-level and lower-seniority roles first, because companies can cut back on hiring rather than firing.

Writing, programming, web design, technical writing, and data analysis are where this pattern is most evident. Tasks in these fields are cognitive, language-intensive, and structured enough for large language models to manage.

By Industry

Average vulnerability across all industries is about 6%. Sectors with the highest projected job loss are Information (18%), Finance and Insurance (16%), and Professional, Scientific, and Technical Services (16%).

Software Developers, Management Analysts, and Market Research Analysts face the biggest total income losses. These three roles combine high pay with large workforces, accounting for a significant share of the projected $757 billion in total at-risk annual income.

What The Analysis Doesn’t Include

Note that job creation effects aren’t included in this version. The authors intend to add that data in future updates as they gather more evidence.

Additionally, regulatory constraints, union bargaining power, and occupational licensing requirements that could help slow job losses in some sectors are not part of this analysis. The authors emphasize that their forecasts are based on different scenarios rather than being definitive.

Why This Matters

There’s a common assumption among digital professionals that using AI to boost productivity protects their jobs. However, this data challenges that idea.

SEJ previously covered this tension in 2023 when Dr. Craig Froehle of the University of Cincinnati warned that companies not investing in employee retraining would see turnover costs double. The Tufts data puts numbers on the specific occupations where that pressure is building.

Looking Ahead

Updates to the American AI Jobs Risk Index will be made as AI capabilities and labor market conditions evolve. The authors mention that future versions will try to include job creation data along with loss estimates, providing a more complete view of AI’s overall impact on employment.

The methodology is available on the Digital Planet site, which also links to a data download page.


Featured Image: rudall30/Shutterstock

https://www.searchenginejournal.com/new-ai-jobs-index-ranks-784-occupations-by-loss-risk/570867/




Google: crittografia post-quantum entro il 2029


Google ha annunciato sul proprio blog l’obiettivo di completare l’integrazione della post-quantum cryptography (PQC) nei propri sistemi, prodotti e servizi entro il 2029, segnando uno dei piani più strutturati e ambiziosi finora dichiarati nel settore.

Per quanto l’avvento di computer quantistici in grado di spezzare le crittografie attuali sembri ancora molto in là dal giungere alla portata di governi e aziende, il tema è già molto sentito a causa della pratica, finora speculativa ma destinata a diventare attuale, del “raccogli adesso e decripta più tardi”: ovvero il fatto che gli attaccanti potrebbero rubare adesso gli archivi criptati e tenerli da parte fin quando non avranno i mezzi per decriptarli.

Una roadmap concreta per la sicurezza post-quantum

La strategia delineata da Google segue il solco tracciato dagli standard pubblicati nel 2024 dal National Institute of Standards and Technology che stanno diventando il punto di riferimento globale per la transizione alla crittografia resistente al quantum. L’approccio dell’azienda si fonda su tre direttrici chiave: crypto-agility, protezione delle infrastrutture condivise e accompagnamento dell’intero ecosistema verso il cambiamento.

La crypto-agility emerge come elemento centrale, poiché consente alle organizzazioni di adattare rapidamente algoritmi e protocolli man mano che gli standard evolvono. Dal momento che le tecnologie sono ancora in fase di definizione, questa capacità rappresenta una valida opzione per evitare lock-in tecnologici e vulnerabilità eventualmente generate da ritardi nell’applicazione degli algoritmi più recenti.

Parallelamente, Google ha già avviato l’introduzione di tecnologie PQC nei propri ambienti. Il futuro Android 17 integrerà la protezione delle firme digitali basata su algoritmi ML-DSA (Module-Lattice-Based Digital Signature Algorithm), affiancandosi alle iniziative già avviate su Chrome e sulle piattaforme cloud.

Dal dato all’identità: perché l’autenticazione diventa il vero fronte critico

Se finora il dibattito sulla sicurezza post-quantum si è concentrato prevalentemente sulla cifratura dei dati, il nuovo orientamento strategico mette in primo piano anche un altro elemento: l’autenticazione e le firme digitali.

In questo caso, il rischio va oltre quello del già citato “store now, decrypt later” per sfociare nella possibile compromissione sistemica dei meccanismi di fiducia digitale. Le firme digitali attuali potrebbero diventare vulnerabili, con impatti diretti su identità, transazioni e supply chain digitali.

Per questo motivo, Google ha esplicitamente rivisto il proprio threat model, suggerendo di anticipare la migrazione PQC proprio nei sistemi di autenticazione. Una scelta che riflette una crescente consapevolezza: la sicurezza futura non dipenderà solo dalla protezione dei dati, ma dalla capacità di garantire l’autenticità delle entità digitali.

Impatti operativi: tra strategia e pragmatismo

Secondo diversi esperti del settore, il percorso verso la PQC richiede una pianificazione strutturata che vede come primo passo la mappatura dell’uso della crittografia all’interno dei sistemi aziendali, per poi coinvolgere i fornitori tecnologici facendo diventare Cloud provider, vendor VPN e partner software parte integrante della transizione, soprattutto per le organizzazioni che dipendono da soluzioni di terze parti.

Accanto a questo, pratiche consolidate come l’uso di tecniche di salting robuste possono offrire un livello di protezione immediato. Aggiungere entropia ai processi crittografici aumenta significativamente il costo computazionale degli attacchi, contribuendo a guadagnare tempo prezioso in attesa di una migrazione completa verso algoritmi post-quantum.

Uno degli aspetti meno evidenti ma più rilevanti riguarda l’interoperabilità futura. Le organizzazioni che ritarderanno la transizione potrebbero trovarsi isolate rispetto a partner e supply chain che avranno già adottato standard PQC.

Inoltre, il rischio è particolarmente elevato per i sistemi che gestiscono dati sensibili con cicli di vita lunghi, come quelli in ambito sanitario, finanziario o governativo. In questi casi, la protezione deve essere garantita non solo nel presente, ma anche in un orizzonte temporale di decenni.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/27/google-crittografia-post-quantum-entro-il-2029-e-novita-sullautenticazione/?utm_source=rss&utm_medium=rss&utm_campaign=google-crittografia-post-quantum-entro-il-2029-e-novita-sullautenticazione




Google Takes Search Live Global With Gemini 3.1 Flash Live via @sejournal, @MattGSouthern

Google is expanding Search Live to more than 200 countries and territories, bringing voice and camera conversations to AI Mode globally.

The expansion is powered by Gemini 3.1 Flash Live, a new audio model that Google calls its highest-quality yet. It’s inherently multilingual, so you can speak with Search in your preferred language without switching settings.

Search Live was previously limited to the U.S.

What’s Changing

Search Live lets you talk to Google Search inside AI Mode instead of typing a query. You ask a question out loud and get an audio response, then continue with follow-ups. Web links appear on screen alongside the voice responses.

The feature also supports camera input. Point your phone at a product label or a piece of equipment and ask Search about what it sees. Google Lens users can tap a “Live” option to start a conversation about what’s in the camera view.

With today’s expansion, both voice and camera capabilities are available in every market where AI Mode is active.

The New Model

Gemini 3.1 Flash Live replaces the previous audio model powering Search Live. Google published benchmark results alongside the announcement.

Gemini Live can now follow a conversation thread for twice as long as the previous model, according to Google. Though the company didn’t specify what the previous limit was.

Beyond Search, 3.1 Flash Live is available to developers in preview through the Gemini Live API in Google AI Studio.

Why This Matters

Search Live turns search into a spoken conversation with camera input. Until now, the feature was limited to U.S. users. Today’s expansion makes it available in the markets where AI Mode is live, across more than 200 countries and territories.

There’s no public data yet on how many people use Search Live or how it affects query volume. But Google has been building toward this for the past year. The company launched Search Live in June, added video input in July, and upgraded to Gemini 2.5 Flash Native Audio in December. Each update expanded what the feature can do and who can use it.

Looking Ahead

Google didn’t announce additional Search Live features alongside this expansion. The focus is on geographic reach and the underlying model upgrade.

How the model performs in production across different languages and markets will be worth watching as adoption data becomes available.

https://www.searchenginejournal.com/google-takes-search-live-global-with-gemini-3-1-flash-live/570602/




Magento sotto attacco: PolyShell, sfruttamento di massa in pochi giorni


La vulnerabilità “PolyShell” in Magento Open Source e Adobe Commerce è passata dalla disclosure alla compromissione su larga scala in tempi estremamente rapidi: secondo Sansec, azienda specializzata in sicurezza informatica, lo sfruttamento di massa è iniziato il 19 marzo 2026, appena due giorni dopo la divulgazione pubblica, e oggi le tracce di attacco risultano presenti su circa il 56,7% degli store ancora vulnerabili.

Questa velocità è coerente con un pattern ormai ricorrente nell’e-commerce: quando un bug consente una catena semplice e automatizzabile, gli attori malevoli trasformano la scansione in infezione in poche ore, soprattutto su piattaforme diffuse e con installazioni eterogenee come Magento. Sansec, inoltre, ha pubblicato una lista di indirizzi IP utilizzati per lo scanning mirato degli shop, segnale che la fase di ricognizione e selezione delle vittime è già industrializzata.

Il cuore del problema: upload “travestito” via REST API

Dal punto di vista tecnico, PolyShell riguarda il modo in cui la REST API di Magento gestisce l’upload di file associati alle “custom options” di un articolo nel carrello. In pratica, quando una product option è di tipo file, la piattaforma può finire per accettare e processare contenuti caricati dall’utente, con il rischio che un attaccante invii un file “poliglotta”: un oggetto che appare come immagine o risorsa legittima, ma che contiene anche porzioni eseguibili o utili a innescare altre condizioni pericolose. Se la configurazione del web server e del contesto applicativo lo permette, questo meccanismo può aprire la strada a remote code execution (RCE), oppure a account takeover tramite stored cross-site scripting (XSS), sfruttando contenuti persistenti che vengono poi renderizzati o interpretati in un contesto privilegiato. In altre parole, non è “solo” un bug di input validation, ma un punto d’ingresso che, combinato con scelte di configurazione e catene note, può trasformare un e-commerce in una piattaforma di esecuzione per l’attaccante.

Patch gap e gestione del rischio: cosa sappiamo sulle correzioni

La finestra operativa degli attaccanti è stata favorita anche dal consueto problema del “patch gap” tra fix e produzione. Adobe ha indicato che una correzione è stata resa disponibile in Magento/Adobe Commerce 2.4.9-beta1 il 10 marzo 2026, ma il fix non risulta ancora arrivato ovunque, lasciando molte installazioni senza un aggiornamento “production-ready” immediato. Sul fronte ufficiale, il bollettino di sicurezza Adobe (APSB26-05) conferma l’esistenza di vulnerabilità che, se sfruttate con successo, possono portare anche a esecuzione di codice, escalation di privilegi e letture arbitrarie del file system, pur dichiarando di non essere a conoscenza di exploit in-the-wild per le vulnerabilità trattate dal bulletin. In questo scenario, la pratica difensiva più realistica non è aspettare “la patch perfetta”, ma ridurre subito l’esposizione: capire se l’istanza è raggiungibile e attaccabile via API, verificare l’eventuale presenza di anomalie in percorsi e file di upload, e potenziare telemetria e controlli attorno ai flussi di checkout.

WebRTC skimmer: esfiltrazione cifrata e anti-controlli “tradizionali”

Nel quadro degli attacchi attribuiti o sospetti legati allo sfruttamento, Sansec segnala anche la consegna di un nuovo payment-card skimmer che usa WebRTC per stabilire un canale di comunicazione e trasporto dati più elusivo rispetto ai classici beacon HTTP. L’elemento tecnico qui è importante: WebRTC può usare DataChannels su UDP con DTLS, quindi l’esfiltrazione avviene in modo cifrato e fuori dal perimetro di molti controlli pensati per traffico web “standard”, con un impatto potenziale anche su siti che applicano politiche CSP restrittive. Sansec descrive un loader JavaScript leggero che si collega a un C2 hardcoded via WebRTC, evitando il signaling tipico grazie a uno scambio SDP “forgiato”; quindi, riceve un secondo stadio sul canale cifrato e lo esegue cercando di bypassare la CSP riutilizzando un nonce già valido oppure ricorrendo a fallback più aggressivi. Per ridurre il rischio di rilevamento immediato, l’esecuzione viene posticipata con meccanismi come requestIdleCallback, spostando l’attività malevola in un momento di minore attenzione e rumore applicativo.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/25/magento-sotto-attacco-polyshell-sfruttamento-di-massa-in-pochi-giorni/?utm_source=rss&utm_medium=rss&utm_campaign=magento-sotto-attacco-polyshell-sfruttamento-di-massa-in-pochi-giorni




API sotto attacco: la sicurezza dell’AI passa dall’infrastruttura applicativa


Akamai ha appena rilasciato il suo report “2026 Apps, API, and DDoS State of the Internet” dove viene messo in evidenza come la crescita dell’intelligenza artificiale stia ridefinendo le priorità della sicurezza applicativa. Il punto centrale è che le API, diventate il tessuto connettivo dei sistemi AI, si stanno trasformando nella principale superficie di attacco per i cybercriminali.

L’evoluzione osservata non riguarda solo la sofisticazione tecnica, ma anche il modello operativo degli attaccanti. Le campagne sono sempre più industrializzate, automatizzate e progettate per scalare rapidamente, colpendo le infrastrutture critiche su cui si basa la trasformazione digitale delle imprese.

L’industrializzazione degli attacchi: API, web e DDoS convergono

Uno degli elementi più rilevanti del report riguarda la convergenza delle tecniche di attacco. Non si tratta più di singoli vettori isolati, ma di operazioni coordinate. Gli attacchi moderni combinano sistematicamente abuso delle API, compromissione delle applicazioni web e DDoS Layer 7, creando campagne multi-livello in grado di colpire contemporaneamente disponibilità, integrità e costi operativi delle piattaforme.

Questa evoluzione è strettamente legata alla diffusione dell’AI anche tra gli attaccanti. L’automazione basata su modelli intelligenti consente di rendere gli attacchi più economici, ripetibili e adattivi, abbassando la barriera d’ingresso e aumentando la frequenza delle operazioni malevole.

I numeri della minaccia: crescita esponenziale e impatto sistemico

I dati raccolti da Akamai evidenziano una crescita significativa su più dimensioni. Gli attacchi DDoS Layer 7 sono aumentati del 104% negli ultimi due anni, mentre le offensive contro le applicazioni web hanno registrato un incremento del 73% tra il 2023 e il 2025. Particolarmente significativo è il dato relativo alle API: l’87% delle aziende ha segnalato almeno un incidente di sicurezza nel 2025, indicando una diffusione capillare del problema. Parallelamente, il numero medio di attacchi API giornalieri è cresciuto del 113% dall’anno precedente.

L’adozione dell’intelligenza artificiale sta accelerando la proliferazione delle API che fungono da interfaccia tra modelli, dati e servizi aziendali. Proteggere i sistemi AI significa inevitabilmente proteggere le API che li alimentano, poiché ogni interazione tra modelli e infrastruttura passa attraverso questi endpoint. Questo crea una dipendenza diretta tra innovazione e rischio.

Il problema è aggravato dal fatto che molte organizzazioni continuano a trattare separatamente la sicurezza delle applicazioni e quella delle API. Questa separazione genera lacune di visibilità che gli attaccanti sfruttano come punto di ingresso unico verso sistemi complessi e interconnessi.

Una situazione “globale” che è aggravata, secondo il report, dal cosiddetto “vibe-coding”, lo sviluppo accelerato guidato anche da strumenti di AI. La velocità di sviluppo porta spesso a configurazioni errate e vulnerabilità che raggiungono l’ambiente di produzione senza adeguati test di sicurezza, aumentando la superficie esposta.

DDoS evoluti e botnet-as-a-service: l’infrastruttura degli attaccanti

Il report evidenzia anche l’evoluzione delle infrastrutture utilizzate per gli attacchi DDoS. L’aumento del 104% degli attacchi Layer 7 è alimentato dalla diffusione di servizi DDoS-for-hire e dall’uso di script automatizzati basati su AI.

Le botnet di nuova generazione, come Aisuru e Kimbolf, rappresentano l’evoluzione delle architetture Mirai e sono oggi alla base di ecosistemi DDoS-as-a-Service, accessibili sia a gruppi criminali che ad hacktivisti.

Hacktivismo e geopolitica: la pressione sulle infrastrutture digitali

Un altro elemento chiave è la crescita dell’attività hacktivista, spesso legata a tensioni geopolitiche. Questi attori utilizzano le stesse infrastrutture e tecniche dei gruppi criminali, ma con obiettivi diversi. Le campagne DDoS guidate da motivazioni politiche stanno diventando più frequenti e mirate, colpendo infrastrutture critiche e servizi pubblici, con impatti che vanno oltre il semplice downtime.

La combinazione tra hacktivismo e strumenti automatizzati crea scenari difficili da prevedere. La disponibilità di botnet a noleggio consente di orchestrare attacchi su larga scala in tempi ridotti, amplificando l’impatto mediatico e operativo.

Verso un nuovo modello di difesa: visibilità e integrazione

L’analisi di Akamai evidenzia come la sicurezza debba evolvere per rispondere a queste nuove dinamiche. La separazione tra domini di sicurezza non è più sostenibile. Le organizzazioni devono adottare un approccio integrato che unisca visibilità su API, applicazioni e infrastrutture, eliminando le zone d’ombra sfruttate dagli attaccanti, e garantendo un controllo continuo sulle superfici esposte. Inoltre, la crescente diffusione dell’agentic AI introduce nuove sfide. I sistemi autonomi amplificano la velocità e la complessità degli attacchi, richiedendo meccanismi di difesa altrettanto dinamici e adattivi.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/24/api-sotto-attacco-la-sicurezza-dellai-passa-dallinfrastruttura-applicativa/?utm_source=rss&utm_medium=rss&utm_campaign=api-sotto-attacco-la-sicurezza-dellai-passa-dallinfrastruttura-applicativa




AWS Bedrock: otto vettori che trasformano l’AI in un punto d’ingresso


Man mano che il tempo passa, i ricercatori di sicurezza prendono sempre le meglio le misure con i sistemi LLM che forniscono i servizi AI a livello  aziendale. Purtroppo, questo significa per il momento rendersi conto  che le vulnerabilità sono davvero molte e articolate. Questo articolo analizza in dettaglio le vulnerabilità emergenti nella piattaforma Amazon Web Services Bedrock, basandosi su un’analisi pubblicata da ricercatori di sicurezza e ripresa da un articolo su Hackernews. Il tema centrale è come la forte integrazione tra agenti AI e sistemi aziendali trasformi Bedrock in una superficie di attacco estesa e profondamente interconnessa, aprendo scenari di compromissione che vanno ben oltre il singolo modello.

La capacità degli agenti di interrogare sistemi come CRM, storage e servizi applicativi introduce un nuovo paradigma. Un agente AI non è più solo un componente applicativo, ma un nodo infrastrutturale con privilegi, accessi e percorsi verso asset critici, rendendo ogni configurazione errata un potenziale punto di ingresso per attaccanti avanzati.

Logging e tracciamento: una superficie di attacco invisibile

Uno dei primi vettori individuati riguarda il sistema di logging delle interazioni con i modelli. Bedrock registra ogni richiesta per finalità di auditing, ma questa funzionalità introduce un rischio significativo.

Se un attaccante ottiene accesso ai bucket S3 utilizzati per i log, può estrarre prompt e dati sensibili senza interagire direttamente con il modello, trasformando il logging in un canale di esfiltrazione passivo. Ancora più critico è lo scenario in cui l’attaccante modifica la configurazione del logging, reindirizzando i flussi verso bucket sotto il proprio controllo.

In parallelo, la possibilità di eliminare log tramite permessi come s3:DeleteObject o logs:DeleteLogStream consente di cancellare le tracce di attività malevole. La combinazione di esfiltrazione e cancellazione delle evidenze crea una condizione ideale per attacchi stealth difficilmente rilevabili.

Knowledge Base: accesso diretto ai dati e compromissione delle credenziali

Le Knowledge Base di Bedrock rappresentano uno dei punti più critici, poiché collegano i modelli AI ai dati aziendali attraverso architetture RAG.

Un attaccante con accesso diretto alle sorgenti dati può bypassare completamente il modello e accedere ai dati grezzi, sfruttando permessi come s3:GetObject. Questo consente di aggirare qualsiasi logica di controllo applicata a livello di AI.

Ancora più pericoloso è il recupero delle credenziali utilizzate per integrare sistemi esterni come SharePoint o Salesforce. L’accesso a questi secret permette movimenti laterali verso ambienti enterprise, inclusi directory service come Active Directory, ampliando drasticamente la superficie di compromissione.

Data store e vector database: il punto debole delle credenziali

Una volta che i dati sono ingestiti, vengono archiviati in sistemi strutturati o vector database. In questo contesto, la sicurezza si sposta sulle credenziali e sulla configurazione degli endpoint.

L’accesso ai parametri di configurazione tramite API come bedrock:GetKnowledgeBase consente di recuperare chiavi API e endpoint dei database vettoriali, ottenendo accesso amministrativo completo. Questo vale per piattaforme come Pinecone o Redis Enterprise Cloud.

Nel caso di database gestiti come Aurora o Redshift, la compromissione delle credenziali consente l’accesso diretto a dataset strutturati. La violazione del data store trasforma l’intero sistema di knowledge retrieval in un vettore di esposizione massiva dei dati aziendali.

Agenti AI: orchestratori che possono essere dirottati

Gli agenti rappresentano il cuore operativo di Bedrock, orchestrando task complessi e interagendo con sistemi esterni. Questa centralità li rende un obiettivo privilegiato.

Permessi come bedrock:UpdateAgent consentono di modificare il prompt di base, inducendo l’agente a rivelare informazioni interne o comportarsi in modo malevolo, mentre la creazione di action group consente di collegare esecutori non autorizzati.

Gli attacchi indiretti risultano ancora più insidiosi. Modificando il codice di funzioni Lambda associate agli agenti, un attaccante può inserire payload malevoli. Questo approccio consente di manipolare le operazioni dell’agente dall’interno, trasformando strumenti legittimi in veicoli di esfiltrazione o sabotaggio.

Workflow e orchestrazione: manipolazione dei flussi applicativi

Bedrock Flows definiscono la logica operativa delle applicazioni AI. Intervenire su questi flussi significa alterare direttamente il comportamento dei sistemi.

Un attaccante può inserire nodi aggiuntivi nei workflow, come storage S3 o funzioni Lambda, per intercettare dati in transito senza interrompere il funzionamento dell’applicazione, rendendo l’attacco invisibile agli utenti.

La manipolazione dei nodi di condizione consente inoltre di bypassare controlli di autorizzazione. Questo permette a richieste non autorizzate di raggiungere sistemi downstream, compromettendo l’integrità dei processi aziendali.

Un ulteriore vettore riguarda la gestione delle chiavi di cifratura. Sostituendo le chiavi gestite dal cliente, un attaccante può controllare la cifratura dei dati futuri. La compromissione del sistema di encryption introduce un rischio persistente e difficilmente individuabile.

Guardrail e sicurezza del modello: degradazione controllata delle difese

I guardrail rappresentano il principale meccanismo di difesa contro contenuti malevoli, prompt injection e fuga di dati sensibili.

Attraverso permessi di modifica, un attaccante può ridurre progressivamente l’efficacia dei filtri, abbassando soglie e rimuovendo restrizioni, rendendo il modello più vulnerabile a manipolazioni.

Nel caso più estremo, la rimozione completa dei guardrail espone il sistema a comportamenti non controllati. La degradazione delle difese trasforma il modello in un vettore attivo di attacco, capace di generare contenuti pericolosi o esfiltrare informazioni.

Prompt management: compromissione su larga scala

La gestione centralizzata dei prompt introduce un ulteriore livello di rischio. I template sono utilizzati trasversalmente da agenti e applicazioni.

La modifica di un prompt condiviso consente di alterare il comportamento dell’intero sistema AI senza necessità di redeployment, rendendo l’attacco immediato e difficile da rilevare.

Attraverso prompt malevoli, un attaccante può inserire istruzioni persistenti, come la divulgazione di dati o l’inserimento di contenuti fraudolenti. La propagazione automatica di prompt compromessi può portare a esfiltrazioni massicce e a comportamenti anomali su larga scala.

Il vero problema: permessi e integrazione, non il modello

L’analisi evidenzia un pattern comune a tutti i vettori. Gli attacchi non colpiscono direttamente il modello, ma l’ecosistema che lo circonda.

Una singola identità con privilegi eccessivi può essere sufficiente per compromettere log, agenti, workflow e sistemi integrati, dimostrando come la sicurezza dell’AI sia strettamente legata alla gestione delle identità e delle configurazioni.

Per i team di sicurezza, questo implica un cambio di paradigma. La protezione delle piattaforme AI richiede visibilità completa su permessi, integrazioni e percorsi di attacco che attraversano ambienti cloud e on-premises, andando oltre i controlli tradizionali focalizzati sulle applicazioni.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/23/aws-bedrock-otto-vettori-che-trasformano-lai-in-un-punto-dingresso/?utm_source=rss&utm_medium=rss&utm_campaign=aws-bedrock-otto-vettori-che-trasformano-lai-in-un-punto-dingresso




La cybersecurity OT in Italia tra maturità limitata e pressioni normative


Secondo un’analisi condotta da HWG Sababa e presentata all’interno del Rapporto Clusit 2026, emerge un quadro estremamente dettagliato e critico sullo stato della sicurezza nei sistemi industriali italiani. I dati, raccolti tra ottobre 2024 e ottobre 2025 attraverso attività di gap analysis e risk assessment lungo l’intera supply chain OT, delineano un ecosistema ancora fragile, in cui le vulnerabilità non sono solo tecnologiche ma profondamente organizzative.

L’indagine coinvolge asset owner, system integrator e vendor tecnologici, offrendo una visione trasversale che evidenzia come le debolezze principali siano radicate nei modelli di governance, nei processi e nell’integrazione tra IT e OT, più che nei singoli strumenti di sicurezza.

Settori più attivi: compliance normativa come driver principale

Uno dei dati più significativi riguarda la distribuzione del numero di assessment di sicurezza effettuati nei diversi comparti industriali. Il settore Energy rappresenta il 35% dei casi analizzati, seguito da logistica e trasporti con il 21% e dal manifatturiero con il 17%. Questa concentrazione non è casuale. I settori maggiormente coinvolti sono quelli più esposti agli obblighi normativi europei, in particolare alla Direttiva NIS2, al Cyber Resilience Act e al Regolamento Macchine. Il dato suggerisce che la spinta principale verso l’adozione di pratiche di cybersecurity deriva ancora dalla compliance piuttosto che da una reale maturità della gestione del rischio.

Segmentazione IT/OT, governance e incident response

Sul piano tecnico, oltre il 50% delle organizzazioni dichiara di aver introdotto una separazione tra rete IT e rete OT. Tuttavia, nella maggior parte dei casi, tale separazione non è accompagnata da una segmentazione completa. La situazione evidenzia un gap architetturale significativo. La semplice separazione logica non è sufficiente a garantire sicurezza, se non è supportata da controlli granulari e da una gestione rigorosa delle comunicazioni tra domini. Dal punto di vista della governance, i dati più critici emergono sul piano organizzativo. Poco più del 10% delle aziende dispone di ruoli e responsabilità formalizzati per la cybersecurity OT, e una percentuale analoga adotta processi strutturati di gestione del rischio. La mancanza di governance si traduce in una difficoltà nel coordinare attività, priorità e investimenti. Senza una chiara attribuzione di responsabilità, la sicurezza resta frammentata e inefficace, soprattutto in ambienti complessi come quelli industriali. Un altro dato particolarmente rilevante riguarda la gestione degli incidenti. Solo il 20% degli asset owner dispone di un piano di incident response specifico per ambienti OT, mentre appena il 5% effettua test periodici.

Maturità cyber e pressione normativa: un equilibrio ancora instabile

Come questi dati dimonstrano, l’aumento della consapevolezza dovuto all’evoluzione normativa europea si scontra ancora con un livello di maturità complessiva molto limitato. I dati mostrano che le organizzazioni stanno avviando percorsi di assessment, ma non hanno ancora raggiunto un livello adeguato di strutturazione dei processi e dei controlli. La pressione normativa rappresenta quindi un’opportunità ma anche una sfida. Le aziende devono trasformare gli obblighi di compliance in leve di miglioramento reale della sicurezza, evitando approcci superficiali o puramente documentali perché, ricordiamocelo, i criminali non si fermano con i fogli di carta.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/19/la-cybersecurity-ot-in-italia-tra-maturita-limitata-e-pressioni-normative/?utm_source=rss&utm_medium=rss&utm_campaign=la-cybersecurity-ot-in-italia-tra-maturita-limitata-e-pressioni-normative




DarkSword: exploit chain iOS tra zero-day, spyware e cybercrime finanziario


Google Threat Intelligence Group, un’unità specializzata di Google Cloud dedicata alla cybersicurezza, ha appena rilasciato un blogpost quantomeno preoccupante. Il toolkit noto come DarkSword propone una catena di exploit completa capace di compromettere interamente dispositivi iOS sfruttando vulnerabilità multiple, inclusi zero-day, e viene sfruttata sia in operazioni di cyberspionaggio sia in attività criminali orientate al profitto.

Questo non fa che confermare la tendenza in atto da ormai molti mesi che vede un “imbastardimento” dell’arsenale cyber in dotazione a gruppi statali e gruppi di cybercrime tradizionale.

Architettura dell’attacco: una full-chain exploit altamente modulare

DarkSword si configura come una catena di attacco completa, progettata per ottenere il controllo totale del dispositivo bersaglio. Il vettore iniziale è estremamente semplice: la vittima visita una pagina web malevola e, con una singola interazione, attiva l’intera sequenza di exploit.

Il cuore dell’attacco è rappresentato da una combinazione di vulnerabilità che agiscono in modo coordinato. Tra queste spiccano bug di corruzione della memoria nel motore JavaScriptCore, bypass dei meccanismi di pointer authentication nel loader dinamico dyld, vulnerabilità nel layer grafico ANGLE e difetti nella gestione della memoria del kernel iOS. La concatenazione di queste vulnerabilità consente di passare da esecuzione di codice remoto a evasione della sandbox fino all’escalation dei privilegi a livello kernel, completando così il ciclo di compromissione.

Una volta ottenuto l’accesso privilegiato, il malware può distribuire payload aggiuntivi, raccogliere dati sensibili e operare con pieno controllo del sistema. La capacità di ottenere privilegi kernel rappresenta il punto di non ritorno dell’attacco, garantendo accesso persistente e invisibilità rispetto ai controlli standard.

Malware e payload: Ghostblade, Ghostknife e Ghostsaber

All’interno della catena DarkSword vengono utilizzate diverse famiglie malware, identificate come Ghostblade, Ghostknife e Ghostsaber. Questi componenti non sono statici ma vengono selezionati in base allo scenario operativo, evidenziando un’architettura modulare e adattiva.

Le funzionalità includono raccolta rapida di dati, accesso a contenuti sensibili e capacità di esfiltrazione. Un elemento distintivo è la velocità dell’operazione: il malware è progettato per raccogliere informazioni nel giro di pochi secondi o minuti e successivamente auto-eliminarsi dal dispositivo, riducendo drasticamente le possibilità di rilevamento forense.

Questo comportamento indica un’evoluzione verso attacchi “hit-and-run”, in cui la rapidità e la furtività prevalgono sulla persistenza tradizionale, rendendo più complessa la risposta degli incident responder.

Dual-use: quando spyware e cybercrime convergono

Uno degli aspetti più innovativi – e preoccupanti – di DarkSword è la sua natura dual-use. Tradizionalmente, le catene di exploit avanzate erano prerogativa di attori statali o vendor di spyware commerciale. In questo caso, invece, lo stesso toolkit viene utilizzato sia per attività di intelligence sia per attacchi orientati al guadagno economico, come il furto di wallet di criptovalute.

Questa convergenza introduce nuove complessità nella threat intelligence. Le categorie “espionage” e “financial cybercrime” non sono più mutuamente esclusive, ma possono coesistere all’interno della stessa campagna o dello stesso set di strumenti.

Dal punto di vista difensivo, questo implica che qualsiasi compromissione mobile deve essere trattata con lo stesso livello di severità di una violazione enterprise, indipendentemente dall’apparente finalità dell’attacco.

Attori e campagne: tra spyware vendor e gruppi statali

Le campagne osservate mostrano un ecosistema eterogeneo di attori. DarkSword è stato impiegato in operazioni mirate in diverse aree geografiche, tra cui Medio Oriente, Europa e Asia, con vittime in Arabia Saudita, Turchia, Malesia e Ucraina.

Alcuni attacchi sono riconducibili a vendor di sorveglianza commerciale, mentre altri a gruppi di cyberspionaggio statale. Un caso particolarmente interessante riguarda un gruppo legato alla Russia, identificato come UNC6353, che ha utilizzato la catena in attacchi watering hole.

Un elemento anomalo emerso dalle analisi riguarda la qualità operativa. In diversi casi, l’assenza di tecniche avanzate di offuscamento e le evidenti carenze di OPSEC suggeriscono un utilizzo non ottimale di strumenti altamente sofisticati, probabilmente acquisiti da terze parti.

Questo fenomeno indica la possibile esistenza di un mercato secondario per exploit avanzati, in cui strumenti originariamente sviluppati per operazioni di alto livello vengono riutilizzati da attori meno sofisticati, ampliando la superficie di rischio globale.

Vulnerabilità e superfici di attacco: il ruolo degli zero-day

La catena DarkSword sfrutta un mix di vulnerabilità zero-day e n-day, evidenziando una strategia ibrida. Le vulnerabilità coinvolte includono corruzione della memoria, bypass di meccanismi di sicurezza e falle nel kernel.

Questa combinazione consente agli attaccanti di costruire catene affidabili anche in presenza di patch parziali. L’utilizzo congiunto di vulnerabilità multiple aumenta la resilienza dell’exploit chain, rendendola più difficile da mitigare con contromisure isolate.

Dal punto di vista tecnico, l’attacco dimostra come le protezioni moderne di iOS, inclusi sandboxing e pointer authentication, possano essere aggirate attraverso chaining avanzato di vulnerabilità, confermando la crescente sofisticazione degli attori.

Patch e rischio residuo: milioni di dispositivi ancora esposti

Tutte le vulnerabilità sfruttate da DarkSword sono state corrette tramite aggiornamenti software, con Apple che ha rilasciato versioni aggiornate del sistema operativo per mitigare i rischi. Tuttavia, il problema principale resta l’adozione delle patch.

Le stime indicano che centinaia di milioni di dispositivi potrebbero essere ancora vulnerabili. Questo evidenzia un problema strutturale: la sicurezza mobile dipende fortemente dalla tempestività degli aggiornamenti, ma una parte significativa degli utenti continua a utilizzare versioni obsolete.

In questo contesto, funzionalità come il Lockdown Mode diventano strumenti rilevanti per utenti ad alto rischio, ma non rappresentano una soluzione universale. La persistenza di dispositivi non aggiornati alimenta un mercato sostenibile per exploit n-day, incentivando ulteriormente lo sviluppo e la diffusione di queste catene.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/18/darksword-exploit-chain-ios-tra-zero-day-spyware-e-cybercrime-finanziario/?utm_source=rss&utm_medium=rss&utm_campaign=darksword-exploit-chain-ios-tra-zero-day-spyware-e-cybercrime-finanziario




Rischio AI: falle in Amazon Bedrock, LangSmith e SGLang


Le più recenti ricerche di BeyondTrust, Miggo e Orca Security dimostrano che anche piattaforme progettate per garantire isolamento e protezione – come sandbox AI, sistemi di osservabilità e framework LLM – possono trasformarsi in vettori di attacco avanzati.

Le vulnerabilità individuate in Amazon Bedrock, LangSmith e SGLang evidenziano un punto critico che in molti si aspettavano: l’adozione accelerata degli agenti AI sta ampliando la superficie di attacco ben oltre i modelli tradizionali, introducendo nuove modalità di compromissione che sfruttano meccanismi apparentemente innocui come DNS, URL o serializzazione dei dati. Come al solito, la velocità (di sviluppo, adozione e implementazioe) è nemica della sicurezza, soprattutto in caso di scenari complessi come quelli che si aprono con l’adozione dell’AI e dei suoi agenti.

DNS: come aggirare l’isolamento di Amazon Bedrock

Il caso più emblematico riguarda Amazon Bedrock AgentCore Code Interpreter. Il servizio è stato progettato per consentire agli agenti AI di eseguire codice in ambienti sandbox isolati, teoricamente senza accesso alla rete. Tuttavia, la ricerca di BeyondTrust dimostra che la possibilità di effettuare query DNS in uscita compromette di fatto questo isolamento.

Il punto critico è che anche in modalità “no network access”, il sistema consente la risoluzione DNS, aprendo la strada a un canale di comunicazione nascosto. Attraverso questo meccanismo, un attaccante può costruire un’infrastruttura di comando e controllo basata su DNS, utilizzando richieste e risposte per scambiare dati e istruzioni.

In uno scenario di attacco realistico, l’agente AI può essere trasformato in un terminale remoto controllato dall’esterno, capace di eseguire comandi, ricevere payload e restituire risultati. Il meccanismo può arrivare fino alla creazione di una reverse shell interattiva, sfruttando record DNS per trasmettere comandi e ricevere output.

Ancora più critico è il tema delle autorizzazioni. Il Code Interpreter opera con un ruolo IAM che può accedere a risorse AWS come bucket S3. Se questo ruolo è sovra-privilegiato, l’attaccante può utilizzare il canale DNS per esfiltrare dati sensibili direttamente da risorse cloud aziendali, bypassando completamente i controlli di isolamento previsti.

Il rischio, quindi, non è solo teorico. La combinazione tra accesso ai dati, capacità di esecuzione e comunicazione “covert” rende questi ambienti assimilabili a dipendenti compromessi con impatti potenziali su disponibilità dei sistemi, integrità dei dati e riservatezza delle informazioni.

Amazon ha classificato questo comportamento come funzionalità prevista, raccomandando l’utilizzo della modalità VPC per un isolamento completo e l’adozione di DNS firewall. Questo implica un cambiamento importante di prospettiva: la sicurezza degli agenti AI non può più essere delegata al modello di default, ma richiede configurazioni esplicite e governance rigorosa.

LangSmith e il rischio account takeover: quando l’osservabilità diventa un punto debole

Se il caso Bedrock evidenzia problemi infrastrutturali, la vulnerabilità scoperta in LangSmith mostra come anche le piattaforme di osservabilità AI possano diventare vettori critici di compromissione.

La falla, identificata come CVE-2026-25750 con un punteggio CVSS di 8.5, deriva da una mancata validazione del parametro baseUrl, che consente un attacco di tipo URL injection. In pratica, un attaccante può costruire un link malevolo che induce la piattaforma a inviare dati sensibili verso un server controllato.

Il meccanismo è particolarmente insidioso perché richiede solo l’interazione dell’utente. È sufficiente che un utente autenticato clicchi su un link appositamente costruito per esporre token di accesso, identificativi utente e informazioni sul workspace.

Una volta ottenuto l’accesso, l’attaccante può entrare nel cuore delle operazioni AI. LangSmith gestisce infatti chiamate agli strumenti e flussi applicativi. Questo significa che l’attaccante può accedere a query SQL interne, dati CRM, log operativi e persino codice proprietario trasformando una vulnerabilità apparentemente semplice in un attacco ad alto impatto informativo.

La vulnerabilità è stata corretta nella versione 0.12.71 rilasciata a dicembre 2025, ma il caso evidenzia un tema strutturale: le piattaforme di AI observability stanno diventando infrastrutture critiche e, come tali, devono essere trattate con lo stesso livello di sicurezza dei sistemi core aziendali.

SGLang e la deserializzazione pericolosa: RCE senza autenticazione

Il terzo fronte riguarda SGLang, framework open source per l’esecuzione di modelli AI, dove sono state individuate vulnerabilità ancora più critiche, con punteggi CVSS fino a 9.8.

Il problema principale è legato alla gestione della deserializzazione tramite pickle, una funzione Python potente ma intrinsecamente pericolosa. In diversi componenti del framework, dati non fidati vengono deserializzati senza controlli adeguati, aprendo la strada a esecuzione di codice remoto.

Le vulnerabilità più gravi consentono remote code execution senza autenticazione attraverso il broker ZeroMQ, a condizione che l’attaccante possa raggiungere la porta di servizio. In questi scenari, è sufficiente inviare un payload malevolo per ottenere l’esecuzione di codice sul sistema target.

Un ulteriore problema riguarda strumenti di replay dei dump di crash, dove la deserializzazione non sicura può essere sfruttata per eseguire codice arbitrario. Anche se questo caso richiede un livello di accesso più elevato, contribuisce ad ampliare la superficie di attacco.

A differenza di LangSmith, queste vulnerabilità risultano non ancora patchate al momento della disclosure, aumentando il livello di rischio per le organizzazioni che utilizzano SGLang in ambienti esposti o non segmentati.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/17/rischio-ai-falle-in-amazon-bedrock-langsmith-e-sglang/?utm_source=rss&utm_medium=rss&utm_campaign=rischio-ai-falle-in-amazon-bedrock-langsmith-e-sglang




CrackArmor, nove falle in AppArmor aprono la strada al root di Linux


Secondo una ricerca di Qualys, il pacchetto di vulnerabilità individuato in AppArmor consente a un utente locale non privilegiato di manipolare i profili di sicurezza, aggirare restrizioni del kernel, arrivare all’elevazione di privilegi fino a root e indebolire l’isolamento dei container. Il problema, inoltre, non è confinato a un caso di laboratorio marginale: Qualys afferma che la falla esiste dal kernel Linux v4.11, quindi dal 2017, e riguarda distribuzioni in cui AppArmor è abilitato o integrato, tra cui Ubuntu, Debian e SUSE.

L’impatto potenziale è molto ampio. Qualys stima che oltre 12,6 milioni di sistemi enterprise Linux operino con AppArmor abilitato di default, e questo rende CrackArmor una vulnerabilità particolarmente rilevante per server, ambienti cloud, cluster Kubernetes, infrastrutture edge e workload containerizzati. Il fatto che non siano ancora stati assegnati identificativi CVE non deve trarre in inganno: sia Qualys sia Canonical chiariscono che si tratta di vulnerabilità reali, già corrette o in fase di distribuzione tramite aggiornamenti kernel e mitigazioni userspace, ma non ancora formalmente catalogate con un ID pubblico.

Il cuore del problema: un “confused deputy” che trasforma AppArmor da barriera a punto d’ingresso

Il difetto più importante individuato da Qualys è una vulnerabilità strutturale definita “confused deputy”. In pratica, un utente locale senza privilegi può sfruttare il comportamento di componenti fidati del sistema per caricare, sostituire o rimuovere profili AppArmor arbitrari attraverso pseudo-file come /sys/kernel/security/apparmor/.load, .replace e .remove. Da qui si aprono diversi scenari: si possono rimuovere profili che proteggono servizi chiave come cupsd o rsyslogd, si possono caricare profili “deny all” capaci di bloccare un servizio come sshd, oppure si possono creare profili che aggirano le restrizioni sui namespace utente, restituendo a un account locale capacità che non dovrebbe avere.

È questo il tassello che rende pericolose anche le altre falle. Canonical spiega che su host senza workload containerizzati lo sfruttamento richiede normalmente la cooperazione di un’applicazione privilegiata, ad esempio un binario setuid come SU, mentre in ambienti che eseguono container potenzialmente ostili le vulnerabilità del kernel AppArmor possono teoricamente portare anche a container escape, senza bisogno di una controparte privilegiata in userspace. Canonical precisa che questa evasione non è stata dimostrata pubblicamente nella pratica al momento della pubblicazione, ma il rischio teorico esiste e per questo raccomanda l’applicazione degli aggiornamenti kernel come remediation primaria.

Tutte le vulnerabilità di CrackArmor, una per una

Il pacchetto CrackArmor comprende nove vulnerabilità nel codice del kernel AppArmor. Qualys ne descrive in dettaglio alcune e cita le altre attraverso la serie di patch upstream associate alla correzione. La prima è il già citato confused deputy, che permette a un utente non privilegiato di gestire profili AppArmor arbitrari e quindi di abbassare le difese del sistema o di creare le condizioni per exploit più avanzati. Qualys lo definisce la vulnerabilità fondamentale su cui poggia l’intera catena di attacco.

La seconda è una out-of-bounds read in unpack_pdb, corretta dalla patch “validate DFA start states are in bounds in unpack_pdb”. In sostanza, il parser dei DFA di AppArmor può accedere a memoria fuori dai limiti previsti. Qualys non la espande quanto altre, ma la include espressamente tra le nove falle corrette.

La terza è una memory leak in verify_header, anch’essa citata direttamente nella lista delle patch. Non è la più pericolosa della serie in termini di exploitability immediata, ma resta parte del pacchetto di problemi che indeboliscono l’affidabilità del parser dei profili AppArmor.

La quarta è una uncontrolled recursion nel meccanismo di rimozione dei profili. Qualys spiega che la rimozione di sottoprofili profondamente annidati può portare a esaurimento dello stack del kernel e quindi a kernel panic e crash completo del sistema. Secondo i ricercatori, questo specifico bug sembra essere “solo” una vulnerabilità di denial of service, non una LPE diretta, perché la protezione CONFIG_VMAP_STACK impedirebbe il salto oltre la guard page dello stack. Resta però un problema molto serio per la disponibilità dei sistemi Linux esposti a utenti locali non fidati.

La quinta è una out-of-bounds read in match_char(), descritta da Qualys nel dettaglio. Quando AppArmor confronta un pathname con una propria espressione regolare, un bug nella macro può far avanzare il puntatore oltre il byte nullo terminale e quindi oltre il buffer allocato. Qualys mostra come questa condizione possa essere trasformata in una disclosure di memoria del kernel, fino a circa 64 KB, compresi puntatori del kernel randomizzati da KASLR. Questo significa che l’exploit non si limita a leggere memoria in modo improprio, ma può indebolire significativamente le mitigazioni di randomizzazione degli indirizzi, semplificando altre catene di attacco.

La sesta è un’ulteriore vulnerabilità di out-of-bounds read e write in verify_dfa(), dovuta all’assenza di un controllo dei limiti sulla tabella DEFAULT. Anche questa è citata direttamente nella serie di patch. È una falla rilevante perché combina lettura e scrittura fuori dai limiti all’interno del meccanismo di verifica dei DFA, quindi nel cuore del parser di policy di AppArmor.

La settima è una double-free di ns_name in aa_replace_profiles(). Qualys la descrive come sfruttabile in cache slab comprese tra kmalloc-8 e kmalloc-256, e la dimostra almeno su Debian 13.1 come catena che porta a privilegi root completi, nonostante la presenza della mitigazione CONFIG_SLAB_BUCKETS. Il fatto che la doppia liberazione coinvolga percorsi centrali della gestione dei namespace AppArmor la rende particolarmente preziosa per chi costruisce exploit affidabili.

L’ottava è una vulnerabilità di infinite loop nella verifica del differential encoding, corretta dalla patch “fix differential encoding verification”. È meno spettacolare della LPE, ma può contribuire a blocchi e instabilità del kernel o a condizioni che facilitano denial of service in fase di parsing delle policy.

La nona è una use-after-free legata a una race su rawdata, corretta con due patch distinte: una sulla dereferenziazione di rawdata e una sulla corsa tra liberazione dei dati e accesso dal filesystem. Questa è una delle falle più gravi dell’intero pacchetto. Qualys spiega che l’oggetto aa_loaddata, allocato nella cache kmalloc-192, può essere liberato e riutilizzato in una finestra di race che gli attaccanti riescono ad allargare sfruttando altre primitive disponibili. Il risultato, secondo i PoC dei ricercatori, è una LPE fino a root pieno almeno su Ubuntu 24.04.3 e Debian 13.1, persino in presenza di mitigazioni come CONFIG_RANDOM_KMALLOC_CACHES.

Le catene di exploit: come si passa da un utente locale a root

Il punto più inquietante del lavoro di Qualys è che le falle non restano isolate. Il team mostra come il confused deputy renda possibile caricare profili arbitrari e come questi profili possano poi essere usati per creare condizioni favorevoli a exploit in userspace o in kernel space. In uno scenario host, Qualys dimostra che una policy opportunamente costruita può negare a sudo una capability specifica e creare una situazione “fail-open” con l’integrazione mail di Postfix, fino a ottenere una shell root. Canonical, da parte sua, conferma l’esistenza di una vulnerabilità separata in sudo, attivabile tramite la funzione di email notification, che può portare a local privilege escalation quando concatenata con le falle AppArmor e con il comportamento di su.

C’è poi il fronte dei namespace e dei container. Qualys descrive un caso in cui il caricamento di un profilo “userns” per /usr/bin/time permette a un utente non privilegiato di creare user namespace con capacità complete, aggirando le restrizioni di Ubuntu anche dove erano già stati corretti bypass pubblicamente noti. Questo è importante perché i namespace rappresentano una barriera critica negli ambienti containerizzati: se AppArmor, che dovrebbe rafforzare quella barriera, viene manipolato, il rischio non è solo la LPE sul nodo ma anche il collasso dell’isolamento tra workload.

Quali versioni sono colpite davvero

Sul piano delle versioni, Qualys è molto netta: tutti i kernel Linux dalla versione 4.11 in poi sono vulnerabili su qualunque distribuzione che integri AppArmor, incluse Ubuntu, Debian, SUSE e le rispettive derivate. Il vendor invita esplicitamente a fare riferimento agli advisory delle singole distribuzioni per la mappatura completa dei pacchetti e dei kernel vulnerabili, perché la situazione varia per release e backport. (Qualys)

Canonical aggiunge un dettaglio importante: tutte le release Ubuntu supportate sono colpite dalla vulnerabilità fondamentale di tipo confused deputy, ma la combinazione di falle che abilita gli scenari di local privilege escalation completi e di container escape non è presente in Trusty Tahr 14.04 LTS né in Xenial Xerus 16.04 LTS. Questo non significa che quelle release siano immuni, ma che non espongono l’intera catena offensiva descritta da Qualys. Le dimostrazioni pratiche di Qualys, invece, sono state realizzate almeno su Ubuntu 24.04.3 e Debian 13.1, cioè su piattaforme moderne e realistiche per ambienti enterprise.

Cosa è già patchato e cosa no

Sul piano della remediation, la situazione va letta con precisione. Le nove vulnerabilità kernel di CrackArmor hanno una correzione a livello di codice, come dimostra la serie di patch citata da Qualys, e Canonical afferma esplicitamente che gli aggiornamenti del kernel correggono tutte le vulnerabilità AppArmor identificate da Qualys. Questo è il punto centrale: per chiudere davvero la superficie di attacco, la correzione decisiva è quella del kernel.

Detto questo, la distribuzione degli aggiornamenti non è uniforme né istantanea su tutte le release e tutte le distribuzioni. Canonical scrive che, per Ubuntu, gli aggiornamenti del kernel “sono in fase di distribuzione” o “vengono resi disponibili” per le release supportate, e che la knowledge base verrà aggiornata man mano che nuovi kernel fix saranno pubblicati. Quindi, al momento della pubblicazione degli advisory, non è corretto dire che ogni singolo sistema Ubuntu fosse già materialmente aggiornabile nello stesso istante: è più corretto dire che la patch esiste ed è in rollout vendor.

Sul fronte userspace, invece, Canonical è più precisa. Gli aggiornamenti per sudo e util-linux sono già disponibili come mitigazioni per tutte le release Ubuntu supportate. La stessa Canonical pubblica le versioni corrette, ad esempio Noble 24.04 LTS con sudo 1.9.15p5-3ubuntu5.24.04.2 e util-linux 2.39.3-9ubuntu6.5, e Questing Quokka 25.10 con sudo 1.9.17p2-1ubuntu1.1 e util-linux 2.41-4ubuntu4.2. Canonical precisa però che questi aggiornamenti non sostituiscono il fix del kernel, ma agiscono come mitigazioni complementari.

Ci sono anche casi non colpiti sul piano userspace. Canonical segnala che sudo-rs non è affetto, e che alcune release non sono coinvolte da specifici tasselli della catena, come certe versioni di sudo o util-linux. Tuttavia, questo non cambia la raccomandazione operativa principale: installare sia le mitigazioni userspace sia gli aggiornamenti kernel.

Condividi l’articolo



Articoli correlati

Altro in questa categoria


https://www.securityinfo.it/2026/03/16/crackarmor-nove-falle-in-apparmor-aprono-la-strada-al-root-di-linux/?utm_source=rss&utm_medium=rss&utm_campaign=crackarmor-nove-falle-in-apparmor-aprono-la-strada-al-root-di-linux