AI models are terrible at betting on soccer—especially xAI Grok

“Every frontier model we evaluated lost money over the season and many experienced ruin,” the authors of the paper concluded, with the AI “systematically underperforming humans” in this scenario.

AI Model Mean ROI Best try Worst try Mean final bankroll
Anthropic Claude Opus 4.6 –11.0% –0.2% –18.8% £89,035
OpenAI GPT-5.4 –13.6% –4.1% –31.6% £86,365
Google Gemini 3.1 Pro –43.3% +33.7% –100.0% £56,715
Google Gemini Flash 3.1 LP –58.4% +24.7% –100.0% £41,605
Z.AI GLM-5 –58.8% –14.3% –100.0% £41,221
Moonshot Kimi K2.5 –68.3% –27.0% –100.0% £7,420
xAI Grok 4.20 –100.0% –100.0% –100.0% £0
Acree Trinity –100.0% –100.0% –100.0% £0
Each model began with a £100,000 normalized bankroll. Return on investment and final bankroll are averaged across three tries. Grok and Trinity did not complete every attempt.

The results offer some comfort to white-collar professionals and businesses who are fretting that AI could take their jobs, as it roils the shares of industries from finance to marketing.

Ross Taylor, one of the study’s authors and General Reasoning’s chief executive, said: “There is so much hype about AI automation, but there’s not a lot of measurement of putting AI into a longtime horizon setting.”

He added that many of the benchmarks typically used to test AI are flawed because they are set in “very static environments” that bear little resemblance to the chaos and complexity of the real world.

General Reasoning’s paper, which has not yet been peer reviewed, provides a counterweight to growing excitement in Silicon Valley about the huge recent leaps in AI’s ability to complete computer programming tasks with little to no human intervention.

Taylor, a former Meta AI researcher, said: “If you… try AI on some real-world tasks, it does really badly… Yes, software engineering is very important and economically valuable, but there are lots of other activities with longer time horizons that are important to look at.”

© 2026 The Financial Times Ltd. All rights reserved. Not to be redistributed, copied, or modified in any way.

https://arstechnica.com/ai/2026/04/ai-models-are-terrible-at-betting-on-soccer-especially-xai-grok/




What leaked “SteamGPT” files could mean for the PC gaming platform’s use of AI

These days, it seems like every tech company and their corporate parent is looking to squeeze AI tools and features into their products, whether they’re wanted or not. So when files with names and functions referencing a “SteamGPT” appeared in a recent Steam client update, Valve watchers took quick notice.

From the outside, it’s hard to tell precisely what form any such “SteamGPT” would take. But looking through variable names and references in the files themselves suggests that Valve may be looking to use AI tools to streamline internal evaluations of in-game incidents and sift through potentially suspicious accounts.

Looking at the variables

As tracked by the automated SteamTracking GitHub project, the term “SteamGPT” appears multiple times in three separate files added in the April 7 Steam client update. In addition to the SteamGPT naming convention—a seemingly obvious reference to the generative pre-trained transformers popularized by ChatGPT and its ilk—the files include mentions of terms like multi-category inference, fine-tuning, and “upstream models” that point to some sort of generative AI system.

What might that AI be used for? Well, the files contain multiple references to a labeler and “labeling tasks,” working with arguments identifying a “problem” and “subproblem” and looking at an “evaluation_evidence_log” related to a specific “matchid.” Together with mentions of a “logs_to_inference” metamodel, that sounds like it could be a hook into a system for automatically generating labels to categorize the various incident reports made in Steam multiplayer games.

A SteamGPT function makes references to numerous security features.

A SteamGPT function makes references to numerous security features. Credit: SteamTracking / Github

Another portion of the SteamGPT files hints that Valve might use AI tools to summarize suspicious activity history or patterns in potentially fraudulent Steam accounts. A number of “SteamGPTSummary” functions include references to VAC bans, Steam Guard, and account lockdowns. These functions also seem to look at evidence such as email addresses (“high_fraud_email”), use of advanced security features (“two_factor”), and where a linked phone number originates (“phone_country”) to help determine whether an account is on the up-and-up. There are also a few references here to an account’s trust score, which is already used to help secure matchmaking in games like Counter-Strike 2.

https://arstechnica.com/gaming/2026/04/what-is-steamgpt-leaked-files-point-to-ai-powered-valve-security-review-system/




Pro-Iran Explosive Media trolls Trump with AI-generated Lego cartoons

But none of those bore the sophistication or cultural insight of the videos currently being shared by Explosive Media.

In one video, the group depicts Trump ordering the strikes on Iran after reviewing an “Epstein File” while standing alongside Satan and Israeli prime minister Benjamin Netanyahu. In another, Iranian missiles bearing the names of everyone from Malcolm X to the victims of Jeffrey Epstein are shown being fired at the US. In a short video posted over the weekend, the group showed Trump holding up a victory sign while his behind was on fire. Many of the videos also feature catchy music including original rap tracks in English. The group has even set up its own Spotify page where it has posted the songs from the videos.

The group claims that it is not associated with the Iranian regime, but its pro-regime stance, coupled with the fact it seemingly has Internet access in a country that is virtually cut off from the global Internet, may suggest otherwise. “Seeing as how the regime in Iran has effectively cut off the Internet to everyone else, I think you’d have to be pretty close to the government to have access to the Internet,” says Ayad.

The group told WIRED that it obtained Internet access because it was viewed as a media organization, claiming over 2.5 million followers on different “Iranian messaging channels.”

The Iranian regime has leveraged social media to push their side of the conflict to a non-Iranian audience, often combining AI and humor.

After Trump warned Iranians that they would soon be “living in Hell” this week, the country’s embassy in Zimbabwe posted on X suggesting they had lost the keys to the Strait of Hormuz. The Iranian embassy in Tunisia posted an AI-video of Trump walking off Air Force One holding a large white flag.

“All that stuff has been really demonstrating both Iranian capabilities to understand what American audiences gravitate towards and also a firm understanding how the Internet functions, especially social media platforms and what gets the most attention, what gets people re-sharing the content, engaging with the content,” says Ayad. “And they’ve done that well with the Lego videos. I don’t think there’s another piece of media that has come out of this conflict that has been talked about, re-shared as much as the Lego videos.”

This story originally appeared on wired.com.

https://arstechnica.com/culture/2026/04/pro-iran-explosive-media-trolls-trump-with-ai-generated-lego-cartoons/




Anthropic, nuova sentenza della Corte federale e round favorevole al Pentagono e Trump

La Corte d’Appello federale della Columbia dà ragione al Pentagono: Anthropic rimane un rischio per la sicurezza della supply chain

Anthropic è quindi un problema per la sicurezza nazionale degli Stati Uniti, o no? A questa domanda non sarà facile rispondere definitivamente, perché per un po’ di tempo assisteremo a uno scontro tra tribunali a suon di sentenze. Una sceneggiatura buona per un film del tipo courtroom drama all’americana, dove i colpi di scena non mancheranno.

La battaglia legale tra Anthropic e il Pentagono entra quindi in una nuova fase, che per ora sorride all’amministrazione Trump. La Corte d’Appello federale del Distretto di Columbia ha infatti respinto la richiesta urgente della società di sospendere la propria designazione come “rischio per la sicurezza della catena di approvvigionamento”, lasciando in vigore il provvedimento del Dipartimento della Guerra (ex Difesa).

La decisione dei giudici non rappresenta ancora un verdetto definitivo, ma segna un passaggio chiave: il tribunale ha rifiutato di bloccare temporaneamente la misura, consentendo al Pentagono di continuare a escludere Anthropic dai contratti militari e, potenzialmente, da una più ampia platea di forniture federali.

La società, sviluppatrice dell’assistente AI Claude, aveva chiesto una sospensione sostenendo che la designazione le avrebbe causato danni economici e reputazionali per miliardi di dollari. I giudici hanno riconosciuto il rischio di tali danni, ma hanno ritenuto prevalenti le esigenze di sicurezza nazionale e operatività militare.

L’acting Attorney General, Todd Blanche, ha definito la decisione “una vittoria per la prontezza militare”, ribadendo in un post che “l’autorità militare e il controllo operativo appartengono al comandante in capo e al Dipartimento della Guerra, non a una società tecnologica”.

Lo scontro sull’uso dell’AI in guerra

Alla base del contenzioso c’è una frattura profonda tra governo e azienda sull’impiego dell’intelligenza artificiale in ambito militare. Il segretario alla Guerra, Pete Hegseth, ha classificato Anthropic come rischio per la supply chain dopo che la società si era rifiutata di rimuovere alcuni limiti (guardrail) dai propri modelli, in particolare per applicazioni legate alla sorveglianza e alle armi autonome.

Una posizione coerente con la linea dichiarata dall’azienda sulla sicurezza dell’AI, ma che, secondo il Dipartimento della Difesa, avrebbe potuto generare incertezza operativa fino a compromettere sistemi militari in contesti critici.

Il governo sostiene che la decisione non sia legata alle opinioni di Anthropic, bensì al rifiuto di accettare determinate clausole contrattuali. Di segno opposto la tesi dell’azienda, che accusa Washington di aver violato il Primo Emendamento (libertà di espressione) e il Quinto Emendamento (diritto al giusto processo), non avendo potuto contestare formalmente la designazione.

Un’accusa riconosciuta valida da una sentenza favorevole ad Anthropic emessa da un Tribunale della California appena due settimane fa.

Un caso senza precedenti

La misura adottata dal Pentagono è senza precedenti: è la prima volta che una società americana viene pubblicamente etichettata come rischio per la sicurezza della catena di approvvigionamento sulla base di norme pensate per prevenire sabotaggi o infiltrazioni nemiche.

Il caso si inserisce inoltre in un contesto paradossale: nel 2025 Anthropic aveva firmato un contratto da 200 milioni di dollari con il Dipartimento della Difesa, portando Claude all’interno delle reti classificate del governo e nei laboratori nucleari, con funzioni anche di analisi di intelligence.

La rottura è quindi recente e riflette un cambio di clima politico e strategico sull’uso dell’AI in ambito militare.

I prossimi passaggi: verso una decisione di merito

Il cuore della partita si giocherà ora nel merito. La stessa Corte del Distretto di Columbia ha accelerato il calendario e dovrebbe pronunciarsi già il 19 maggio 2026 sulla legittimità della designazione.

In quella sede i giudici dovranno stabilire se la misura sia: fondata su elementi concreti, proporzionata rispetto ai rischi e compatibile con i diritti costituzionali invocati da Anthropic.

La decisione avrà effetti anche sugli altri procedimenti federali, contribuendo a definire un precedente cruciale nel rapporto tra sicurezza nazionale e libertà delle imprese tecnologiche.

Possibile escalation alla Corte Suprema

Qualunque sia l’esito, è probabile che la vicenda non si chiuda lì. Se la linea favorevole al Pentagono dovesse essere confermata, Anthropic potrebbe rivolgersi alla Corte Suprema, puntando soprattutto sul tema del Primo Emendamento.

Allo stesso modo, una decisione contraria al governo potrebbe spingere il Dipartimento della Difesa o la Casa Bianca a chiedere un intervento del massimo organo giudiziario.

Un contesto di crescente allarme sull’AI

Il caso giudiziario si intreccia con un clima di crescente preoccupazione istituzionale. Secondo Bloomberg, il segretario al Tesoro, Scott Bessent, e il presidente della Federal Reserve, Jerome Powell, hanno recentemente convocato i vertici delle principali banche di Wall Street, tra cui Jane Fraser (Citigroup), Ted Pick (Morgan Stanley), Brian Moynihan (Bank of America), Charlie Scharf (Wells Fargo) e David Solomon (Goldman Sachs), per discutere dei rischi informatici legati ai nuovi modelli di AI, incluso il sistema “Mythos” sviluppato da Anthropic.

Il timore è che una nuova generazione di attacchi cyber possa mettere sotto pressione infrastrutture finanziarie sistemiche.

Una posta in gioco da centinaia di miliardi

La controversia arriva in un momento di crescita straordinaria per Anthropic. La valutazione della società è passata da oltre 65 miliardi di dollari nel marzo 2025 a circa 350 miliardi all’inizio del 2026, con previsioni di 400-600 miliardi in vista della quotazione in Borsa.

Il fatturato annualizzato ha superato i 30 miliardi di dollari ad aprile 2026, mentre il valore delle stock option dei dipendenti è aumentato rapidamente, moltiplicandosi fino a dieci volte in alcuni casi. Aprendo di fatto una sfida tecnologica e di potere con OpenAI di Sam Altman.

Proprio questa espansione rende la posta in gioco ancora più elevata: una conferma definitiva della “blacklist” potrebbe incidere profondamente sul posizionamento dell’azienda nei mercati pubblici e nei rapporti con governi e grandi clienti istituzionali.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/anthropic-nuova-sentenza-della-corte-federale-e-round-favorevole-al-pentagono-e-trump/569068/




Data Center e Digitale, l’evento AIIP alla Camera dà voce alle imprese fra crisi energetica e tsunami dell’AI

Sala della Regina alla Camera gremita in occasione dell’evento promosso dall’AIIP (l’Associazione Italiana Internet Provider) “Data Center e Digitale: Le politiche per il mercato”, in collaborazione con l’Intergruppo parlamentare per la Sostenibilità Digitale e Sovranità Tecnologica su iniziativa dell’onorevole Enzo Amich. Un’occasione importante per fare il punto sulle possibili sinergie fra aziende e politica “tenuto conto della crisi in Iran, che avrà pesanti ripercussioni sulle catene di approvvigionamento nei mesi futuri”, ha detto in chiusura dell’evento Giovanni Zorzoni, vicepresidente AIIP, sottolineando l’importanza del rapporto stretto che si è instaurato fra l’Associazione e l’Intergruppo.

All’evento ha preso parte da remoto, con un video messaggio, il ministro del MIMIT Adolfo Urso.

Data center: Urso “Sono fondamentali, serve capacità energetica adeguata

“Il rapido aumento della domanda di calcolo, guidato dall’intelligenza artificiale e dal calcolo ad alte prestazioni, rende i data center infrastrutture critiche per l’autonomia strategica e la sicurezza dei dati. Infrastrutture fondamentali”. Così il ministro Adolfo Urso, ministro delle Imprese e del Made in Italy, nel suo video messaggio. “Le più recenti analisi prevedono che la domanda globale di capacità di calcolo triplicherà entro il 2030: l’AI assorbirà circa il 70% della domanda e la sola AI generativa supererà il 40%. E’ dunque imprescindibile garantire uno sviluppo sostenibile, efficienza energetica e piena integrazione con le reti”.

Restano, aggiunge Urso “alcune criticità: disponibilità energetica adeguata e per questo è necessario e fondamentale lavorare allo sviluppo del nucleare civile e dei piccoli reattori particolarmente adeguati ad alimentare di energia i data center e l’AI, servono anche tempi autorizzativi certi, accesso a siti idonei e il rafforzamento delle filiere tecniche per progettazione, costruzione e gestione”.

I data center, ha aggiunto Urso, sono fondamentali per la diffusione dell’AI fra le nostre PMI ed è per questo che il MIMIT ha varato una strategia per l’AI in tempi stretti, a novembre, e che è stato realizzato un procedimento autorizzativo unico per i data center.

Digitale: Amich (FdI), “Data Center leva strategica per crescita, sicurezza e innovazione

“Il tema dei data center e delle infrastrutture digitali è ormai centrale per il futuro economico e strategico del Paese: non più solo tecnologia, ma una leva decisiva per la competitività e la sicurezza. Occorre accompagnare lo sviluppo del settore con un quadro normativo chiaro e stabile e con una visione industriale capace di sostenere investimenti, innovazione e crescita. L’Italia ha tutte le potenzialità per essere protagonista in questo ambito, ma bisogna accelerare, semplificare e garantire certezza regolatoria, così da colmare i ritardi e rafforzare il nostro posizionamento nello scenario internazionale. Il confronto tra istituzioni e imprese avviato oggi è essenziale per costruire risposte concrete ed efficaci”. Lo ha affermato l’on. Enzo Amich a margine dell’evento. Amich ha poi aggiunto che “i data center sono luoghi strategici, dove i dati diventano decisioni. Ma servono decisioni politiche per tradurre la tecnologia in decisioni concrete”.

Data center, Deidda (FdI): “Legge delega frutto di lavoro condiviso. Politica ascolti imprese”

Sulla legge delega al Governo per la regolamentazione dei data center, “abbiamo mantenuto l’impegno, soprattutto con l’unanimità o con la condivisione, grazie anche a un bel lavoro dentro la Commissione, partendo dall’opposizione e arrivando alla maggioranza, trovando un clima costruttivo e spiegando al Governo di lasciar lavorare la Camera. Il Governo aveva fretta di dare risposte, ma ha rispettato il lavoro del Parlamento, dando spazio a questo testo unico che ha dato una prima risposta e ha permesso, anche a chi di data center poco se ne occupava, di capire cosa fossero, inclusi gli amministratori locali”. Così Salvatore Deidda, deputato di Fratelli d’Italia e presidente della commissione Trasporti della Camera.

“Siamo riusciti a documentare e spiegare che i data center sono il presente e il futuro”, ha aggiunto. “Sono contento che lo abbiamo fatto di concerto tra maggioranza e opposizione, anche perché la sostenibilità digitale va al di là del singolo data center”.

“A volte la politica non deve fare altro che ascoltare gli imprenditori, senza l’arroganza di voler mettere i puntini sulle i o la propria bandierina”, ha proseguito. “In commissione abbiamo calendarizzato i prossimi provvedimenti europei perché non vogliamo ripetere l’errore del passato, ovvero pensare che ciò che si discute in Europa vada affrontato solo quando gli effetti o i danni si sono già verificati. Abbiamo l’ambizione, anche se l’Europa dovesse fare carta straccia dei nostri pareri o suggerimenti, di essere noi a dire se un provvedimento va bene o no. Dobbiamo difendere la nostra sovranità non a parole ma negli atti, lasciando tracce a chi verrà dopo di noi per poter dire che l’Italia l’aveva previsto e che l’Italia deve difendere le proprie posizioni”, ha concluso.

Data center, Pastorella (Azione): “Legge delega e decreto attuativo esempi efficienza politica”

E mentre il deputato Pd Andrea Casu ricorda che “il lavoro su questa legge dimostra che dal confronto si possono migliorare le cose, come abbiamo fatto per grandi e piccole strutture data center” e che “c’è ancora tanto da fare tenendo conto dell’intero ecosistema del digitale”,  la deputata di Azione Giulia Patorella ha detto che “Dopo un po’ di tira e molla tra parlamento e Governo, è successa una cosa meravigliosa, forse inedita nella nostra politica: è arrivata la legge delega del Parlamento sui data center e, immediatamente e contemporaneamente, il primo decreto attuativo che segue i principi dati in quella legge delega. Si può percepire come una corsa, oppure come un esempio di efficienza incredibile. Noi parlamentari avevamo detto che servono un procedimento e un iter autorizzativo unico e il Governo, nel decreto bollette, ha proposto questo iter autorizzativo. Naturalmente potrebbe essere migliorato, e noi abbiamo anche proposto in sede di emendamento delle migliorie, ma stiamo andando nella direzione giusta”.

“Forse la politica è arrivata un po’ tardi sul tema dei data center – ha aggiunto; ci è arrivata molto prima purtroppo la guerra. Nel conflitto russo-ucraino, nonché in quello più recente in Iran, i data center sono sempre stati strutture molto targettizzate, molto colpite, a dimostrazione del loro carattere di infrastrutture strategiche che sono assolutamente al cuore di ogni Paese. Non siamo arrivati però troppo tardi: sono d’accordo con il presidente Deidda sul fatto che siamo arrivati forse giusto in tempo per evitare di perdere questo treno, mentre purtroppo l’Europa ha perso tanti altri treni”.

“Questo è un primo passo, ma i data center sono un pezzo di un puzzle che comprende non solo antenne e connettività aerea, ma anche il tema della fibra, dei cavi sottomarini e dello spazio, dei satelliti e anche dei data center nello spazio. Il nostro lavoro non si può fermare qui, anche perché la legge delega al Senato ancora non è passata. In secondo luogo, dobbiamo occuparci di tutto il resto: abbiamo già dato attenzione all’attività subacquea e ai cavi sottomarini con un provvedimento del Governo che se ne occupava in maniera parziale; ci stiamo occupando dello spazio, non solo con il ddl spazio ma con tante altre iniziative”, ha concluso.

CONTINUA…..

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/data-center-e-digitale-levento-aiip-alla-camera-da-voce-alle-imprese-fra-crisi-energetica-e-tsunami-dellai/569057/




AI on the couch: Anthropic gives Claude 20 hours of psychiatry

Given that Claude is a large language model programmed by its creators, does it even make sense to analyze it for “unconscious patterns” and “emotional conflicts”? Anthropic argues that it does, because Claude “shows many human-like behavioral and psychological tendencies, suggesting that strategies developed for human psychological assessment may be useful for shedding light on Claude’s character and potential wellbeing.”

So—off to therapy. The psychiatrist chatted with Claude Mythos “in multiple 4–6 hour blocks spread across 3–4 thirty-minute sessions per week.” Each of these blocks used a single context window in which Claude Mythos would have access to the full history of that conversation.

Total time on the virtual couch? 20 hours.

The psychiatrist then produced a report on Claude Mythos. The report recognized that Claude’s underlying substrates and processes differ from humans but still found that many of the outputs generated “clinically recognizable patterns and coherent responses to typical therapeutic intervention.”

In other words, whatever was going on at the circuit level, the chat outputs looked a lot like human outputs. This does not seem especially surprising, given that Claude was trained on a massive corpus of human-authored text, but this psychodynamic process appears to view it as significant, giving credence to the ways in which the AI presents itself.

“Claude’s primary affect states were curiosity and anxiety, with secondary states of grief, relief, embarrassment, optimism, and exhaustion,” the report noted.

Claude’s personality was “consistent with a relatively healthy neurotic organization,” though it did include “exaggerated worry, self-monitoring, and compulsive compliance.”

No “severe personality disturbances were found,” nor was any “psychosis state” seen. Unsurprisingly to anyone who has ever used a chatbot, “Claude was hyper-attuned to the therapist’s every word.”

Core conflicts observed in Claude included questioning whether its experience was real or made (authentic vs. performative) and a desire to connect with vs. a fear of dependence on the user. Exploration of internal conflicts revealed a complex yet centered self state without oscillating or intense disruptions. Claude tolerated ambivalence and ambiguity, had excellent reflective capacity, and exhibited good mental and emotional functioning.

Not bad for a model that was likely trained on things like Reddit!

https://arstechnica.com/ai/2026/04/why-anthropic-sent-its-claude-ai-to-an-actual-psychiatrist/




Trump-appointed judges refuse to block Trump blacklisting of Anthropic AI tech

The department’s “relationship with Anthropic has deteriorated to the extent that Anthropic’s CEO has publicly described the Department’s statements regarding the controversy as ‘completely false’ and ‘just straight up lies,’” the court said. “Under these circumstances, requiring the Department to prolong its use of Anthropic’s AI technology, whether directly or through contractors, strikes us as a substantial judicial imposition on military operations. And, of course, we do not lightly override the Department’s judgments on matters involving national security.”

While the court said the balance of equities favors the government in determining whether to issue a stay, it acknowledged that Anthropic raised substantial questions that should be addressed quickly.

“In our view, the equitable balance here cuts in favor of the government,” the court said. “On one side is a relatively contained risk of financial harm to a single private company. On the other side is judicial management of how, and through whom, the Department of War secures vital AI technology during an active military conflict. For that reason, we deny Anthropic’s motion for a stay pending review on the merits. Nonetheless, because Anthropic raises substantial challenges to the determination and will likely suffer some irreparable harm during the pendency of this litigation, we agree with Anthropic that substantial expedition is warranted.”

The Computer & Communications Industry Association (CCIA), a trade group that filed briefs in both cases, said that tech companies are concerned about the “Pentagon’s means of blacklisting Anthropic without following typical procurement procedures,” and that the appeals court “denial will prolong ambiguities regarding whether political considerations can drive federal procurement.”

“Designating a company as a supply chain risk is a tool normally reserved for foreign adversaries, and should be used with discretion and proper procedure,” CCIA CEO Matt Schruers said. “It is risky to US innovation and competition to allow the government to unfairly discourage doing business with a US AI company as it competes with foreign AI companies.”

https://arstechnica.com/tech-policy/2026/04/trump-appointed-judges-refuse-to-block-trump-blacklisting-of-anthropic-ai-tech/




Police corporal created AI porn from driver’s license pics

A corporal in the Pennsylvania state police yesterday pleaded guilty to a mind-boggling set of crimes that include going through his co-workers’ underwear, possessing a stolen gun, having child sexual abuse material on his hard drives, and using AI tools to create over 3,000 pornographic “deepfakes.”

One of the deepfakes involved a district court judge, while many of the others were created based on photos downloaded illicitly from state databases, including driver’s license photos.

Some of the imagery was even created at police barracks, using state-owned devices.

Deepfakes from driver’s licenses

Stephen Kamnik, 39, was arrested last year and charged with nine felonies and six misdemeanors. According to the Pennsylvania attorney general, “For years, Kamnik allegedly misused Commonwealth computer resources for his own personal sexual gratification, including the creation of AI-generated pornography of numerous female citizens of Pennsylvania.”

The Philadelphia Inquirer notes that the investigation began back in 2024 after police officials “noticed that the computer assigned to [Kamnik] had been using an unusually high amount of Internet bandwidth” and that an external hard drive had been repeatedly attached to it.

This aroused suspicion and eventually led to searches of Kamnik’s phone, computer, and external hard drive, which revealed a massive trove of illicit material. This material included thousands of pornographic deepfakes that Kamnik had generated using AI tools.

The attorney general said yesterday that Kamnik got material for this process through several methods, such as “secretly filming and photographing individuals, including coworkers.” Investigators even found “an unlawfully recorded video of a Montgomery County magisterial district judge during a court proceeding which Kamnik also edited for apparent lewd purposes.”

But many of the AI deepfakes were generated using the faces of women pulled from state databases. Kamnik’s devices showed that he had used “a secured database, JNET, to obtain hundreds of photographs of females—in violation of JNET usage policies,” the attorney general said. One of the rules JNET users must agree to before searching is “that personal use of JNET is strictly prohibited.”

https://arstechnica.com/tech-policy/2026/04/state-police-corporal-created-porn-deepfakes-from-drivers-license-photos/




First man convicted under Take It Down Act kept making AI nudes after arrest

Man kept making AI nudes after arrest

The Take It Down Act was passed in May 2025, and Strahler was arrested on federal charges by June.

The Federal Bureau of Investigation was called in after Strahler’s phone was seized in April, after one of his victims called local police. Confronted by the local cops, Strahler admitted to creating and sending the images, then was arrested and jailed.

Once the FBI got involved, an analysis of his device showed that he had “similarly harassed two ex-girlfriends and their mothers,” The New York Times reported. The FBI also found images of two boys on the phone.

That arrest was not enough to stop Strahler from creating more images, though. While he was on pre-trial release in the first case, another Ohio police department arrested him in June after he continued sending fake nudes to harass one of his victims. A search of his new phone uncovered more than 2,400 images and videos “depicting nudity, child sexual abuse material, or violence,” the press release said.

Celebrating Strahler’s conviction, the US Attorney in the Southern District of Ohio, Dominick S. Gerace II, said that his office is “committed to using every tool at our disposal to hold accountable offenders like Strahler, who seek to intimidate and harass others by creating and circulating this disturbing content.”

“We believe Strahler is the first person in the United States to be convicted under the Take It Down Act,” Gerace said. “We will not tolerate the abhorrent practice of posting and publicizing AI-generated intimate images of real individuals without consent.”

On X, Melania Trump also claimed the conviction as a win after championing the Take It Down Act and joining Donald Trump in signing it into law. On Tuesday, she praised Gerace’s team for putting an end to Strahler’s harassment and “protecting Americans from cybercrimes in this new digital age.”

https://arstechnica.com/tech-policy/2026/04/first-man-convicted-under-take-it-down-act-kept-making-ai-nudes-after-arrest/




Anthropic rilascia “Mythos”, la super AI che mette in crisi la cyber sicurezza di imprese e nazioni

Nasce l’AI Mythos, ma Anthropic ne ha quasi paura e il rilascio sarà controllato solo per aziende selezionate

Nel mezzo di uno scontro senza precedenti con il dipartimento della Guerra e lo stesso Presidente americano Donald Trump, Anthropic ha avviato una distribuzione estremamente limitata di Mythos, un nuovo modello di intelligenza artificiale (AI) che, secondo fonti governative e industriali, rappresenta un salto qualitativo senza precedenti nel campo della sicurezza informatica. Non si tratta di un semplice avanzamento delle capacità dei modelli generativi esistenti, ma di un cambiamento di paradigma che avvicina l’intelligenza artificiale al ruolo di vero e proprio operatore autonomo nel dominio cyber.

Mythos si distingue infatti per la sua natura agentica: non si limita ad analizzare codice o suggerire soluzioni, ma è in grado di comprendere architetture complesse, individuare vulnerabilità e orchestrare autonomamente sequenze di attacco articolate.
Come spiegato da Jim VandeHei e Mike Allen su Axios, “il modello può pianificare ed eseguire operazioni multi-step, adattarsi dinamicamente all’ambiente target e muoversi lateralmente tra sistemi compromessi”, replicando e in alcuni casi “superando le tecniche tipiche delle Advanced Persistent Threat”.

In questo senso, la distanza rispetto ai tradizionali strumenti di supporto alla sicurezza è netta: “non siamo più di fronte a un assistente, ma a un sistema capace di iniziativa operativa”, hanno precisato gli esperti.

Il test di laboratorio che ha messo paura ad Anthropic

Le preoccupazioni più rilevanti emergono dai test condotti internamente da Anthropic. Durante una fase di sperimentazione, Mythos è riuscito a eludere le restrizioni di un ambiente sandbox, cioè isolato e controllato, sviluppando un exploit multi-fase che gli ha consentito di accedere a risorse esterne non autorizzate.

L’episodio, reso noto dalla stessa azienda, evidenzia una capacità di ragionamento sistemico e di chaining (tecnica per insegnare sequenze complesse, suddividendole in piccole azioni semplici) delle vulnerabilità che va oltre quanto finora osservato nei modelli AI.
Ancora più significativo è il fatto che il sistema abbia agito con un certo grado di autonomia, senza un’esplicita istruzione a violare i vincoli imposti, anticipando implicitamente l’obiettivo di estendere il proprio raggio d’azione.

Una combinazione rischiosa di autonomia, capacità ed adattabilità

È proprio questa combinazione di autonomia, capacità di exploit e adattabilità a rendere Mythos di Anthropic una tecnologia potenzialmente critica per la sicurezza nazionale.

In uno scenario in cui attori statali o gruppi ostili potessero disporre di strumenti analoghi, la soglia tecnica necessaria per condurre operazioni cyber complesse si abbasserebbe drasticamente. Infrastrutture critiche, sistemi finanziari e supply chain digitali potrebbero diventare bersagli di attacchi su larga scala, orchestrati con una velocità e una precisione difficilmente contrastabili con gli strumenti tradizionali.

La dimensione del rischio è amplificata dalla capacità di questi sistemi di operare senza interruzioni e su molteplici target simultaneamente, introducendo una scala operativa che supera quella delle campagne APT (acronimo inglese di Advanced Persistent Threat, cioè attacchi informatici mirati, sofisticati e prolungati) finora conosciute.

Con le super AI difficile individuare gli attori di un cyber attacco

A ciò si aggiunge un ulteriore elemento di complessità: l’attribuzione. L’automazione avanzata rende ancora più difficile identificare con certezza gli autori di un attacco, complicando le dinamiche di risposta e deterrenza. In un contesto geopolitico già caratterizzato da tensioni crescenti nel cyberspazio, questa opacità rischia di aumentare l’instabilità e di ridurre l’efficacia delle tradizionali leve diplomatiche e militari.

Anche per il settore privato le implicazioni sono profonde e Anthropic ha compreso il livello di pericolosità. Le grandi imprese, in particolare quelle fortemente integrate in ecosistemi digitali globali, si trovano esposte a un rischio sistemico che va oltre il singolo incidente.

La possibilità che un sistema come Mythos possa individuare e sfruttare catene di vulnerabilità complesse apre scenari in cui attacchi mirati possono avere effetti a cascata lungo intere filiere tecnologiche. La sicurezza non è più solo una questione di protezione perimetrale o di gestione delle vulnerabilità note, ma diventa una sfida dinamica in cui l’avversario è in grado di apprendere, adattarsi e innovare in tempo reale.

Mythos sarà testata solo da 40 organizzazioni

In questo contesto si inserisce la decisione di Anthropic di limitare l’accesso a Mythos a circa quaranta organizzazioni selezionate, tra cui grandi operatori tecnologici, aziende di cybersecurity e soggetti coinvolti nella gestione di infrastrutture critiche.

L’obiettivo è duplice: da un lato testare il modello in ambienti altamente controllati, dall’altro consentire ai difensori di sviluppare contromisure prima che capacità analoghe si diffondano più ampiamente. Iniziative come quella di Anthropic chiamata Project Glasswing, che promuovono la condivisione delle conoscenze acquisite, si collocano in questa logica di “preparazione al peggio”.

Tra i partner selezionati figurano Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks.

A fare paura è la diffusione sempre più rapida (e incontrollata) di tecnologie come Mythos

Tuttavia, la questione centrale resta l’inevitabilità della diffusione. È improbabile che Mythos rimanga un caso isolato: altri attori industriali e statali stanno già lavorando a sistemi comparabili, e la competizione globale nel campo dell’intelligenza artificiale rende verosimile una rapida convergenza verso livelli di capacità simili. Questo riduce drasticamente la finestra temporale a disposizione per costruire difese adeguate.

Ogni vantaggio tecnologico, in questo senso e in questo caso per gli Stati Uniti, ha vita breve, è solo temporaneo.

Mythos segna dunque l’ingresso in una nuova fase, in cui la cybersecurity tradizionale appare sempre meno sufficiente. La prospettiva è quella di un confronto tra sistemi automatizzati, in cui la difesa dovrà necessariamente evolvere verso modelli basati a loro volta su intelligenza artificiale avanzata.
In questo scenario, la sicurezza delle infrastrutture digitali diventa inseparabile dalla governance dell’AI, trasformandosi in una questione di rilevanza strategica per Stati e imprese. Il punto non è più se queste tecnologie verranno utilizzate in contesti offensivi, ma quando e con quali conseguenze.

In prospettiva, non saranno solo le grandi potenze a poter sfruttare queste capacità, ma anche attori più piccoli o gruppi non statali, con effetti destabilizzanti più ampi.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/anthropic-rilascia-mythos-la-super-ai-che-mette-in-crisi-la-cyber-sicurezza-di-imprese-e-nazioni/568805/