AI: SpaceX pronta ad acquisire Cursor per 60 miliardi di dollari

SpaceX pronta ad entrare nella guerra del codice per l’Intelligenza Artificiale: la compagnia spaziale di Elon Musk ha annunciato martedì una partnership con Cursor, un editor di codice basato sull’intelligenza artificiale molto richiesto dagli sviluppatori professionisti, con un’opzione di acquisizione per 60 miliardi di dollari entro la fine dell’anno.

L’accordo rientra nella strategia di diversificazione dell’IA di SpaceX, che intende finanziare attraverso la sua prossima IPO, presentata come la più grande della storia.

SpaceX accelera sull’AI

Dall’acquisizione di xAI, il laboratorio di AI anch’esso di proprietà di Elon Musk, SpaceX ha accelerato il suo sviluppo nell’infrastruttura hardware e software di questo settore e punta a monetizzare la sua potenza di calcolo con applicazioni commerciali concrete.

A tal fine, Cursor “ha concesso a SpaceX il diritto di acquisirla entro la fine dell’anno per 60 miliardi di dollari o di pagare 10 miliardi per collaborare”, secondo il messaggio pubblicato martedì su X, il social network del gruppo. Secondo la CNBC, la startup, la cui valutazione a novembre ha raggiunto circa 29 miliardi di dollari, era in trattative questa settimana per un round di finanziamento che l’avrebbe portata oltre i 50 miliardi di dollari.

Com’è nata Cursor

Fondata nel 2022 da quattro studenti del Massachusetts Institute of Technology (MIT), Anysphere, la società madre di Cursor, ha superato il miliardo di dollari di fatturato annuo entro la fine del 2025. Questa partnership con Cursor si inserisce nella corsa della Silicon Valley per attrarre sviluppatori professionisti, diventati il ​​principale motore di crescita nel settore dell’IA. Cursor ora compete direttamente con GitHub Copilot (di proprietà di Microsoft), leader di lunga data del settore.

Da parte sua, OpenAI ha annunciato martedì che il suo strumento di programmazione Codex conta ora quattro milioni di utenti settimanali, rispetto ai tre milioni di inizio aprile. Anthropic, con il suo strumento concorrente Claude Code, ha registrato un fatturato annuo superiore a 2,5 miliardi di dollari a febbraio, più del doppio del fatturato dell’azienda dall’inizio dell’anno. In questo contesto, SpaceX scommette che la sua potenza di calcolo, tramite il supercomputer Colossus, le consentirà di sviluppare modelli in grado di competere con altre aziende.

Server orbitali

La potenziale acquisizione di Cursor le fornirebbe una base di utenti già consolidata, a meno che la personalità e le posizioni politiche di Elon Musk non ne allontanino alcuni.

Questa fusione avviene mentre SpaceX si prepara alla sua IPO. L’azienda, valutata 1.250 miliardi di dollari dopo l’acquisizione di xAI a febbraio, punta a una capitalizzazione di mercato di 1.750 miliardi di dollari al momento della sua IPO, secondo alcuni media.

Fondata nel 2002 da Elon Musk, suo CEO e principale azionista, SpaceX si è affermata come un attore chiave nel settore aerospaziale, con i suoi razzi Falcon 9 e la costellazione di satelliti Starlink, la sua principale fonte di reddito. Oltre alle attività aerospaziali, il gruppo ora include la startup di intelligenza artificiale xAI e il social network X, precedentemente noto come Twitter, una combinazione la cui omogeneità è messa in discussione da alcuni analisti e che potrebbe attirare l’attenzione delle autorità antitrust.

Data center in orbita l’obiettivo di Musk

Per giustificare l’acquisizione di xAI, Elon Musk ha difeso la sua visione: costruire data center in orbita terrestre bassa alimentati da giganteschi pannelli solari, più efficienti e meno inquinanti di quelli a terra, anche se rimangono numerosi ostacoli.

Questo progetto potrebbe sostituire i nuovi data center del gruppo, alimentati da centrali elettriche portatili a gas, la cui installazione a Memphis, nel Tennessee, sta generando forti critiche ambientali. In questo ambito, SpaceX si trova a competere con altri giganti, in particolare Blue Origin, la società spaziale di Jeff Bezos, fondatore di Amazon.

Il colosso dell’e-commerce si è appena impegnato a investire fino a ulteriori 25 miliardi di dollari nel capitale di Anthropic, nell’ambito di un accordo decennale che copre oltre 100 miliardi di dollari di capacità di calcolo.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-spacex-pronta-ad-acquisire-cursor-per-60-miliardi-di-dollari/570611/




L’AI fatta in Italia, aperta e trasparente di Engineering apprezzata da Ronzulli, Butti, Barachini e Nobile

“AI Italia. L’AI tra innovazione e sovranità digitale”, l’iniziativa della Sen. Ronzulli con Engineering al Senato

In un mondo sempre più interconnesso, l’intelligenza artificiale (AI) non è solo uno strumento di innovazione, ma il pilastro per una crescita autonoma e competitiva del nostro Paese. Per coglierne appieno il potenziale, però, l’Italia deve puntare con decisione sulla sovranità digitale: sviluppare infrastrutture, talenti e soluzioni proprietarie significa rompere la dipendenza da giganti esteri, garantendo sicurezza, controllo e un vantaggio strategico a livello competitivo.
A questo è stato dedicato l’evento “AI Italia. L’AI tra innovazione e sovranità digitale” che si è tenuto presso la Sala Zuccari di Palazzo Giustiniani a Roma, oggi sede di rappresentanza della presidenza del Senato della Repubblica. Un incontro organizzato su iniziativa della Senatrice Licia Ronzulli, in collaborazione con Engineering, per dare vita ad un momento di confronto istituzionale e industriale, allargato al mondo accademico, dedicato al ruolo strategico dell’intelligenza artificiale (AI) nello sviluppo del Paese, con un focus sui temi dell’innovazione tecnologica, della competitività del sistema economico e della sovranità digitale, ma soprattutto sulla necessità di sviluppare un modello di intelligenza artificiale tutto italiano.

Tantissimi gli interventi di rappresentanti politici di tutti gli schieramenti, del mondo imprenditoriale e universitario, moderati da Michelangelo Suigo, Chief Public Affairs, Corporate Communication & Sustainability Officer di Engineering Group, che hanno affrontato il tema delle condizioni necessarie per costruire una reale sovranità tecnologica, ma anche argomenti chiave come lo sviluppo di infrastrutture nazionali di calcolo e data center, la riduzione della dipendenza da provider extra-europei e il ruolo dell’AI Act e quindi della regolamentazione. L’incontro è stata anche l’occasione per presentare IS-IA – Italy’s Sovereign Intelligence Architecture, un approccio architetturale basato sul concetto di Intelligenza Artificiale italiana, governabile e sicura, basato su EngGPT 2, piattaforma italiana di Private Generative AI sviluppata da Engineering.

Sen. Ronzulli: “Dobbiamo favorire investimenti nazionali, lavorare ad una regolamentazione europea più smart e accelerare sulla formazione”

Ad aprire l’incontro è stata proprio la Vicepresidente del Senato della Repubblica, Licia Ronzulli, che ha affermato: “Una tecnologia che non possiamo subire ma che dobbiamo governare. Questa tecnologia non è neutrale, può salvare vite o minacciare la libertà, creare lavoro o generare esclusione, sta a noi decidere come usarla al meglio. Per questo oggi è fondamentale parlare di AI tra innovazione e sovranità digitale. Dobbiamo sfruttare questa tecnologia senza perdere il controllo e la sovranità. Non dobbiamo diventare dipendenti da chi fornisce questa tecnologia. Può ridurre disuguaglianze tra Nord e Sud del Paese, può migliorare i servizi sanitari, ma il controllo dei dati è fondamentale”.

“L’AI può ridurre gli sprechi delle fabbriche intelligenti, ma gli algoritmi che controllano i processi sono sviluppati altrove. Si stima che sia in grado di generare 15 trilioni di dollari di PIL fino al 2030, ma oggi il 90% die modelli di AI sono dominati da Stati Uniti e Cina, motivo per cui Europa e Italia rischiano di diventare una colonia digitale. La sovranità non è un lusso, ma una necessità strategica. Dobbiamo agire su 3 pilastri – ha precisato Ronzulli – il primo sono gli investimenti nazionali, potenziando il supercomputer Leonardo, il Gaia di Bologna e il supercalcolatore di Napoli. L’Italia ha bisogno di implementare il Polo strategico nazionale per creare un’IA al 100% made in Italy, addestrata sui nostri dati sanitari, aziendali e culturali, che pensi in italiano e sia ospitata in data center nazionali per evitare fughe di dati sensibili all’estero. Il secondo pilastro è l’Europa, che necessita di una regolamentazione smart. Da una parte abbiamo l’AI Act con oltre 300 pagine, un mattone burocratico che rischia di frenare ogni reazione rapida, dall’altra paesi come il Giappone, dove l’autoregolamentazione delle aziende fa volare l’innovazione. Regolamentare è giusto, ma la burocrazia europea non può essere la zavorra che affonda il futuro dell’Italia. Il terzo pilastro è la formazione e il lavoro. Molti temono che l’AI porti via il lavoro, in alcune professioni purtroppo sarà così, ma allo stesso tempo incrementerà tantissimo la produttività, generando si stima 97 milioni di nuovi lavori globali entro il 2027. Fondamentale – ha sottolineato Ronzulli – è che l’essere umano sia sempre al centro, con le sue competenze e la sua intelligenza. Dobbiamo trattenere i cervelli italiani, altrimenti non ci sarà né innovazione, né crescita. E oggi la vera competizione globale non è solo sulle tecnologie, ma sulle persone. Per questo serve un cambio di passo: investire seriamente in formazione, creare condizioni di lavoro competitive, sostenere ricerca e università e costruire un ecosistema in cui i giovani possano scegliere di restare e crescere in Italia”.

Barachini: “Più saremo sovrani dei nostri dati, più saremo liberi”

Siamo allo stesso tempo potentissimi e fragilissimi. Sono stati bombardati dei data center nel Bahrein e negli Emirati Arabi, ci sono stati problemi per alcune Big Tech. Con la vicepresidente del Senato Licia Ronzulli eravamo a Valencia nel momento del blackout e tanti servizi non erano più disponibili. C’è stato un giudice della Corte penale internazionale la cui presenza digitale è stata spenta dagli Stati Uniti. Stiamo pattinando su un ghiaccio sottile, che è la nostra democrazia”, ha dichiarato Alberto Barachini, Sottosegretario alla Presidenza del Consiglio dei Ministri all’Informazione e all’Editoria. “Più saremo liberi e indipendenti dal possesso dei dati, più saremo liberi da punto di vista democratico. Ci sono state diverse iniziative, come la legge sull’intelligenza artificiale, ed è stato positivo l’intervento della presidente della Commissione europea, Ursula von der Leyen, sulle gigafactory – ha aggiunto Barachini – ma abbiamo bisogno che gli studiosi vengano supportati perché le loro invenzioni abbiano sviluppo sul mercato. L’indipendenza digitale è un tema esponenziale, più saremo sovrani dei nostri dati, più saremo liberi democraticamente. I tentativi tedeschi e francesi sono positivi, in questo senso, ma dobbiamo evitare l’iper-regolamentazione e allo stesso tempo ridurre la tecno-dipendenza”.

L’ammiraglio Andrea Billet, capo del Servizio Certificazione e Vigilanza dell’Agenzia per la cybersicurezza nazionale (Acn), ha approfondito il legame sempre più stretto tra intelligenza artificiale e cybersecurity. L’attenzione è stata posta sulla necessità di integrare tecnologie avanzate con una solida cultura digitale, in grado di sostenere cittadini e organizzazioni: “La sovranità digitale passa innanzitutto dalla riduzione della dipendenza da forniture estere. Parliamo di data center, chip, terre rare per quanto riguarda le infrastrutture; ma anche di servizi, come il cloud, che raggiungono gli utenti attraverso le reti di comunicazione. A questo si aggiungono le applicazioni di intelligenza artificiale, dove la scala è un fattore determinante: non avere la capacità di sviluppare modelli propri comporta inevitabilmente dei costi e delle vulnerabilità. Non si può parlare di sovranità tecnologica senza conoscere e presidiare l’intera pila tecnologica, cercando di costruire una reale autonomia. È un tema che riguarda anche l’energia. La scala, infatti, è fondamentale, e per affrontare questa sfida sono necessari partenariati molto ampi, coinvolgendo anche il settore privato. Un esempio concreto arriva dal nuovo modello Mythos – ha proseguito Billet – che ha individuato vulnerabilità sconosciute anche in sistemi ritenuti sicuri, generando una forte preoccupazione a livello globale, inclusi gli Stati Uniti, tanto che il prodotto non è stato immediatamente immesso sul mercato. Secondo Anthropic, entro 18 mesi altri operatori raggiungeranno le stesse capacità, con il rischio che questi strumenti possano finire nelle mani sbagliate. In questo contesto si inserisce il progetto Glasswing, avviato da Anthropic per individuare vulnerabilità nei software critici, con l’obiettivo di prevenire scenari peggiori. L’iniziativa punta a mettere insieme i principali operatori del settore, insieme anche a grandi istituzioni finanziarie americane, particolarmente esposte alle minacce cyber. Oggi si registra uno sbilanciamento a favore delle capacità offensive dell’intelligenza artificiale rispetto a quelle difensive. La domanda è quindi come muoversi in questo scenario. Per contrastare queste minacce servono soluzioni controllabili e governabili. Le dipendenze da fornitori esteri, in questo senso, possono rappresentare un ulteriore elemento di rischio. L’Agenzia sta lavorando per reclutare esperti di intelligenza artificiale entro l’estate, con l’obiettivo di metterli subito al lavoro nello sviluppo di soluzioni avanzate basate sull’AI. Parallelamente, stiamo sostenendo la candidatura italiana per ospitare una gigafactory avanzata”.

Aldo-Bisio-

Bisio (Engineering): “Un’AI sovrana dichiara su quali dati è stata addestrata ed è ispezionabile, anche dai cittadini”

Nel suo intervento dal titolo “Sovereign AI Architecture“, il CEO di Engineering Group, Aldo Bisio, ha spiegato che “un sistema AI sovrano dichiara su quali dati è stato addestrato e i parametri che determinano i comportamenti, e può essere ispezionato, anche dai cittadini”.
Riguardo l’intelligenza artificiale sovrana, Bisio ha illustrato le tre condizioni fondamentali: “chiarezza e piena trasparenza sui dati, dati di addestramento e capacità di essere trasparente”.

L’intelligenza sovrana è, in sostanza, un’intelligenza artificiale governata – ha aggiunto Bisio – mira a evitare la dispersione del patrimonio cognitivo di aziende o istituzioni. In termini semplici: l’intelligenza artificiale assorbe dati e apprende da questi. Se qualcun altro, dopo di voi, accede allo stesso modello, finisce per nutrirsi e arricchirsi del vostro know-how e del vostro patrimonio cognitivo. È quindi fondamentale che l’AI riesca a mantenere al proprio interno il nucleo informativo di un’azienda o di un’istituzione, senza condividerlo con concorrenti o soggetti non desiderati. Questo rappresenta un vantaggio competitivo rilevante. L’altro tema che stiamo affrontando è quello della trasparenza, ciò che tecnicamente viene definito “open weights”. I pesi sono i parametri numerici attraverso cui funziona questa gigantesca funzione dell’intelligenza artificiale. Il problema è che, tipicamente, i grandi modelli sono delle scatole nere: si conoscono gli input, si conoscono gli output, ma non è chiaro perché venga presa una determinata decisione o fornita una certa risposta. Avere “open weights” significa disporre di un controllo completo su tutti i dati, rispondendo così a questa seconda grande esigenza. C’è poi una questione di proporzionalità nell’uso dell’intelligenza rispetto alla dimensione e alla complessità dei problemi da affrontare. I modelli molto grandi consumano molta energia – ha precisato il CEO di Engineering – alcuni possono essere utilizzati per risolvere determinate problematiche, altri invece dovrebbero essere impiegati per compiti molto più specializzati, con un consumo energetico e un’intensità decisamente inferiori. Non significa che non sia opportuno utilizzare modelli di grandi dimensioni, ma che questi vadano impiegati solo quando necessario. Ad esempio, quando non vi è un patrimonio cognitivo o una proprietà intellettuale da difendere. Se invece il know-how di un’azienda o di un’istituzione, oppure i dati di clienti e cittadini sono a rischio, è meglio adottare un approccio più prudente”.

Non voglio dire che non sia opportuno usare i grandi modelli, ma che bisogna usarli solo quando è il caso, quindi, ad esempio, quando non c’è un patrimonio cognitivo o un intellectual property da difendere, se è a rischio il know how di un’azienda, di un’istituzione, i dati di clienti o di cittadini è meglio fare attenzione. La nuova architettura lanciata dal progetto – ha spiegato Bisio – riempie il bisogno delle imprese di dare risposta a quelle sfide di cui vi stiamo parlando. Crediamo di aver sviluppato tramite questa progettazione un large model, e su questa base abbiamo poi costruito tutta una struttura che in qualche modo aiuta le aziende o le istituzioni a costruire gli agenti, a dare perfetta visibilità sulla compliance, per cui il modello e tutta l’architettura è nativamente compliant con il Gen Ai Act europeo, intendiamo in questo modo dare una risposta a tutte queste esigenze”.

Sicuramente l’attenzione deve ricadere sul tema legato alla protezione della proprietà intellettuale – ha infine sottolineato Bisio – e sull’evoluzione, per esempio, della normativa sui data leaks, sia per quanto riguarda l’accesso ai modelli di Ai sia per la protezione; un secondo tema riguarda chi fa le regole. I modelli devono essere perfettamente ispezionabili in hand to hand quindi non devono essere solo chiari i parametri del modello stesso, ma devono essere chiari e aperti anche i dati di training su cui è stato allenato quel modello perché in funzione dei dati acquisisce determinati modi di pensare certi comportamenti”. “Non si tratta solo di governare la meccanica del modello ma anche il suo tipo di comportamento. Bisogna definire questo set di regole e confortare chi le utilizzerà e chi sarà oggetto delle decisioni di queste macchine”.

Pastorella: “Non bastano le regole, è necessario creare le condizioni affinché queste tecnologie vengano effettivamente utilizzate”

La Capogruppo di Azione alla Commissione Trasporti, Poste e TLC Camera dei Deputati, On. Giulia Pastorella, ha aperto la prima tavola rotonda dal titolo “AI sovrana, sicura e sostenibile“, sostenendo che “lo sviluppo di un LLM italiano rappresenta uno dei pilastri della strategia nazionale sull’intelligenza artificiale, e il modello che viene presentato si inserisce pienamente in questa direzione, contribuendo all’attuazione di un obiettivo chiave: favorire l’adozione e la diffusione della tecnologia, stimolando al tempo stesso sia l’offerta sia la domanda. Non bastano le regole: è necessario creare le condizioni affinché queste tecnologie vengano effettivamente utilizzate. L’iniziativa è infatti orientata sia alla pubblica amministrazione sia al tessuto produttivo, con un approccio che si allontana dalla logica dei grandi modelli generativi, spesso critici sotto il profilo della privacy e della sicurezza. In questo scenario, i data center restano un elemento fondamentale, ma assume un ruolo sempre più centrale l’edge cloud, dimensionato in modo coerente con le specificità dei territori e con le reali esigenze delle imprese. Per sostenere questo ecosistema servono infrastrutture adeguate: connettività e disponibilità energetica. La sovranità digitale, inoltre, non può limitarsi alla semplice localizzazione dei dati. È necessario puntare con decisione sulla trasparenza dei sistemi, elemento imprescindibile per costruire fiducia e garantire sicurezza”.

Il tema dell’energia e dell’autonomia strategica in questo settore sono argomenti chiave che ci fanno ragionare anche sull’AI. dal punto di vista del mercato non possiamo raggiungere gli LLM americani e cinesi, perché investono molto di più e investono ancor prima miliardi sulle loro startup. Modelli come quello di Engineering possono funzionare perché possiamo declinare queste tecnologie sulle nostre filiere, come quella dell’aerospazio, dei servizi, dei software e delle app. capacità computazioni e di calcolo non ci mancano, abbiamo supercomputer sul territorio nazionale. La partita è aperta perché quasi all’inizio, possiamo giocarcela, ma a certe condizioni. C’è chi sta pensando anche agli small language models, una nuova forma, perché possiamo utilizzare quelle tecnologie e declinarle sulle nostre filiere. In Italia, per esempio, abbiamo una filiera dell’aerospazio che è più completa rispetto anche a quella degli altri grossi player europei. Ecco quindi che quelle tecnologie possiamo declinarle qui: possiamo diventare una powerhouse per quanto riguarda la costruzione di servizi, software e applicazioni. L’altro angolo sotto cui possiamo vedere il nostro possibile vantaggio competitivo è la capacità computazionale e di calcolo. Licia Ronzulli, in apertura, parlava di supercalcolatori e quantum computing: quello può essere il nostro ambito. Possiamo cominciare a svilupparci da lì, la partita è aperta, è quasi all’inizio e possiamo giocarcela”, ha dichiarato l’On. Giulio Centemero, Componente Lega della Commissione Finanze Camera dei Deputati. Ù

Basso: “La priorità è la formazione, il vero nodo resta la diffusione capillare delle competenze a livello sociale”

Nel libro Il Secolo dell’AI invito i cittadini a sviluppare una maggiore consapevolezza nell’utilizzo di queste tecnologie, con l’obiettivo di migliorare la qualità della vita senza metterla a rischio. È fondamentale comprendere quando e come regolamentare, così come quando e in che modo utilizzare questi strumenti, per salvaguardare le libertà individuali e il know-how delle imprese. Riuscire a spiegare il funzionamento dell’intelligenza artificiale è alla base di un uso proporzionato e responsabile della tecnologia. L’AI ha un impatto su società ed economia persino superiore a quello avuto dall’elettricità e da altre grandi innovazioni del passato, perché rappresenta un abilitatore trasversale dei cambiamenti tecnologici futuri, dalla computazione quantistica alle neuroscienze, fino alla robotica umanoide. La priorità, dunque, è la formazione. Il nostro Paese dispone di eccellenze di primo piano in questo ambito, ma il vero nodo resta la diffusione capillare delle competenze a livello sociale, necessaria per promuovere un uso più responsabile e consapevole dell’intelligenza artificiale”, ha affermato il Sen. Lorenzo Basso, Componente PD della Commissione Ambiente Senato della Repubblica.

Nelle aree più marginali, dove la presenza dello Stato e dei servizi è più debole — dagli ospedali ai trasporti fino alle scuole — si tende a dimenticare che tra le infrastrutture critiche rientrano anche le reti digitali, attraverso cui transitano i flussi informativi. Dobbiamo considerare l’intelligenza artificiale come una grande opportunità, ma è necessario governarla, non subirla. Questo significa, innanzitutto, avere il controllo dei dati, che rappresentano una leva competitiva e al tempo stesso democratica. Lo Stato, quindi, deve essere in grado di proteggere efficacemente il proprio patrimonio informativo”, ha ricordato il Sen. Guido Liris, Capogruppo FdI nella Commissione Bilancio Senato della Repubblica.

Ronzulli-Suigo

La seconda tavola rotonda dal titolo “AI everywhere: le applicazioni dell’AI nei verticali di mercato“, è stata aperta dalla Professoressa Ordinaria di Computer Science all’Università Milano-Bicocca, Stefania Bandini, che ha detto: “L’intelligenza artificiale è ormai pervasiva, ma è con l’avvento dell’AI generativa che si è verificato un vero cambio di paradigma. Oggi più che mai è fondamentale riconoscere il valore della sperimentazione, che rappresenta il primo passo verso un’adozione consapevole e strategica di queste tecnologie. In Italia esiste già una forma diffusa di sperimentazione “di base”, che coinvolge cittadini, imprese e pubbliche amministrazioni. Tuttavia, questa pratica deve essere maggiormente valorizzata e strutturata, trasformandosi in progettualità concreta e in innovazione sistemica. C’è infatti un livello di sperimentazione di cui spesso non si ha piena consapevolezza, un patrimonio diffuso ancora in gran parte inesplorato. È proprio da qui che bisogna partire: riconoscere, mettere a sistema e far crescere queste esperienze, collegandole a una visione più ampia che tenga insieme sviluppo tecnologico, sovranità digitale, sicurezza e sostenibilità. Solo così la sperimentazione potrà diventare un vero motore di innovazione e competitività per il Paese”.

Momola (Engineering): “EngGPT 2 assicura una riduzione dei consumi che può arrivare dal 60% all’80% in meno rispetto a un modello su larga scala”

Più tecnico è stato l’intervento di Fabio Momola, EVP ENG Digital di Engineering Group, considerato assieme a Bisio l’artefice di EngGPT 2: “Con IS-IA, l’architettura di intelligenza sovrana italiana, proponiamo un sistema aperto che consente di integrare modelli provenienti da diverse fonti, governando al contempo l’intero flusso di utilizzo delle API associate a tali modelli. Grazie a questo approccio, è possibile raggiungere la redditività in tempi rapidi: entro un massimo di 12-18 mesi. Per quanto riguarda la sostenibilità, si tratta di una questione fondamentale quando si parla di intelligenza artificiale. Se consideriamo che i grandi modelli americani consumano, nella sola fase di addestramento, quanto decine di famiglie europee in un anno, comprendiamo quanto sia cruciale affrontare questo problema. Soprattutto quando le fonti energetiche utilizzate provengono dal carbone o, più in generale, da combustibili fossili. In questo contesto, EngGPT2 cerca di offrire una soluzione, essendo basato su un’architettura “Mixture of Experts”, capace di garantire consumi molto più bassi nella fase di utilizzo, l’inference, rispetto alla media dei modelli esistenti quando il sistema è chiamato a svolgere un compito. Parliamo di una riduzione dei consumi che può arrivare dal 60% all’80% in meno rispetto a un modello su larga scala. Infine, soffermandosi sugli effetti dell’AI Act, la mia posizione è chiara: la legislazione non ha mai bloccato l’evoluzione; al contrario, rappresenta un ostacolo solo per chi non si mette nelle condizioni di sfruttarla per innovare meglio. Credo che, con la nostra architettura Is-Ia e con EngGPT 2, ci siamo messi nelle condizioni di considerare l’AI Act come un acceleratore dell’innovazione, e non come un freno per noi, per l’Italia e per l’Europa nel suo complesso”.

L’università opera su più livelli — famiglie, studenti e stakeholder — e si trova oggi ad affrontare una duplice sfida: intervenire sia sui contenuti sia sui metodi, perché è in atto una trasformazione profonda del modo di insegnare e apprendere. Si dice spesso che l’intelligenza artificiale sostituisca il pensiero critico, ma il tema è più complesso. L’AI, in realtà, agisce come un amplificatore per chi ha già sviluppato capacità critiche. È quindi fondamentale distinguere tra performance e apprendimento: nel primo caso l’AI può essere estremamente efficace, mentre nel secondo può rappresentare un rischio, se utilizzata in modo passivo. Una delle sfide principali è stata introdurre l’intelligenza artificiale in tutti i percorsi di studio. La formazione è lenta? Forse, ma va ricordato che si muove all’interno di sistemi regolati e strutturati per discipline. Proprio per questo, la vera sfida è innanzitutto pedagogica. Dobbiamo costruire uno spazio in cui l’essere umano resti centrale. L’AI, in ambito universitario, deve diventare soprattutto uno strumento di riflessione, più che di semplice produzione. In questo senso, la sovranità non è solo tecnologica o digitale, ma anche cognitiva: un valore che non può essere disperso né delegato”, ha detto invece Enzo Peruffo, Pro Rettore e Professore Ordinario di Strategie d’Impresa della Luiss.

Donatella Proto, Direttore Generale Nuove Tecnologie Abilitanti Mimit, ha affermato che “il vero punto di forza risiede nella differenziazione: nella capacità di valorizzare dati di qualità e la lingua italiana per sostenere concretamente le filiere produttive del Paese, che esprimono esigenze profondamente diverse tra loro. È in questa direzione che devono svilupparsi strumenti di intelligenza artificiale sempre più verticali, capaci di tenere conto delle specificità dei singoli settori e di rispettare l’identità del patrimonio imprenditoriale e industriale italiano”.
Servono modelli modulari, trasparenti e scalabili, in grado di generare fiducia e consapevolezza nelle imprese rispetto al loro utilizzo. Oggi, tuttavia – ha aggiunto Proto – le PMI non hanno ancora sviluppato appieno le competenze necessarie per affrontare l’adozione di sistemi di AI. Esiste un evidente problema di formazione, ma anche di accompagnamento: non bastano incentivi economici, è necessario supportare le imprese lungo tutto il percorso di integrazione di queste tecnologie. Parallelamente, bisogna lavorare alla costruzione di un vero ecosistema industriale abilitante, capace di accogliere e sviluppare l’innovazione. Un processo che richiede uno sforzo trasversale, che coinvolga università, istituzioni e sistema produttivo, chiamati a comprendere come l’intelligenza artificiale sia ormai uno strumento imprescindibile per la produttività e la resilienza del tessuto economico nazionale. È necessario superare le dipendenze di mercato e compiere un salto culturale, mettendo le imprese nelle condizioni di governare l’innovazione, anziché subirla. In questo senso, la sovranità non è solo una questione tecnologica, ma anche la capacità di affrontare e guidare il cambiamento che il nostro tempo impone”.

Nobile: “Un’AI sovrana per far emergere i talenti nazionali”

Mario Nobile, direttore Generale dell’Agenzia per l’Italia Digitale (Agid), ha affrontato il tema delle politiche pubbliche necessarie a sostenere lo sviluppo dell’AI in Italia. Il focus è sull’equilibrio tra regolamentazione e innovazione, con particolare attenzione al rischio di over-regulation e alla frammentazione normativa europea. L’intervento approfondisce la necessità di passare da un approccio prevalentemente prescrittivo a modelli più agili, capaci di accompagnare la crescita tecnologica senza comprometterne la competitività, mantenendo al tempo stesso elevati standard di sicurezza e tutela dei dati. 
Il modello di LLM sovrano proposto da Eng rappresenta un passaggio importante, anche per la sua capacità di far emergere e valorizzare i talenti, un aspetto che ritroviamo chiaramente anche nelle linee guida attualmente in consultazione. Abbiamo parlato di sovranità cognitiva – ha precisato Nobile – un concetto che si fonda su consapevolezza e competenze. Ma questa riflessione va inserita all’interno dell’intera pila tecnologica, che oggi comprende data center, infrastrutture, applicazioni e servizi. La domanda, quindi, è strategica: qual è la nostra visione in termini di energia, semiconduttori, infrastrutture e servizi? A livello europeo, la politica ha compreso la necessità di intervenire, come dimostra l’AI Act, mentre l’Italia ha promosso una propria iniziativa normativa. Il punto ora è capire come integrare in modo efficace le autorità pubbliche con il mondo delle imprese e quello accademico, costruendo un percorso condiviso. Come AgID faremo la nostra parte per intercettare e coinvolgere l’intero ecosistema. In questo contesto, Eng rappresenta già oggi un passo avanti concreto verso la sovranità cognitiva. L’obiettivo è crescere insieme, individuando le traiettorie più efficaci e contribuendo a orientare le politiche pubbliche verso una strada certamente più lunga e complessa, ma necessaria per ricomporre tutti gli elementi della sovranità tecnologica”.

Butti: “Uno Stato è tecnologicamente sovrano se fa un uso attento della risorsa più importante che è il dato”

Le conclusioni sono state affidate al Sen. Alessio Butti, Sottosegretario alla Presidenza del Consiglio dei Ministri all’Innovazione Tecnologica e Transizione Digitale. “Sul tema della regolamentazione dell’intelligenza artificiale ritengo che non solo gli hyperscalers e le Big Tech si siano adeguati sostanzialmente al Gdpr, ma si siano adeguati anche all’AI Act. Tutti, a eccezione di Meta, hanno fatto la fila per siglare i codici di condotta a Bruxelles”, ha dichiarato Butti.

È il risultato di un grande lavoro svolto anche dal Governo italiano, ma soprattutto dalla Commissione Europea. A proposito di scenario europeo, l’ingegner Nobile ha ricordato il lavoro dell’Edic, il Consorzio per un’infrastruttura digitale europea. Non solo noi abbiamo indicato l’Edic, ma ne abbiamo scritto anche il programma, raccogliendo l’adesione immediata di alcuni degli Stati e delle imprese più importanti. Esprimiamo la vicepresidenza esecutiva di questo importante contesto tecnico europeo e non ci limitiamo esclusivamente a questo, poiché stiamo lavorando su una serie di altre per noi importanti questioni. L’AI di Eng è un servizio on demand e certamente anche tecnicamente è accessibile e semplice che guarda al futuro. Uno Stato è tecnologicamente sovrano se fa un uso attento della risorsa più importante che è il dato, ma anche se garantisce la sicurezza delle proprie infrastrutture per consentire uno scambio di dati in sicurezza. Un ecosistema intelligente vive di dati calcolo e energia e anche di infrastrutture e filiere produttive, anche in condizioni di scarsa adozione da parte delle piccole imprese. Oggi il dato sta migliorando”, ha proseguito Butti.

A proposito di dipendenza quando un Paese usa modelli, strutture e capacità di calcolo progettate altrove, si intravede inevitabilmente un rischio di dipendenza e di lock-in. Questa non è solo una tragedia per il mondo economico del Paese, ma lo è anche per chi, come questo Governo, rivendica fortemente un concetto di sovranità digitale e tecnologica, ed è un rischio per tutta la filiera di imprese che dipendono da questo concetto di sovranità. Noi abbiamo settori assolutamente strategici, come la sanità, i trasporti e la manifattura, che fanno un uso importante dell’IA, e abbiamo voluto consentire loro di avere qualche garanzia in più rispetto a quelle già offerte dall’AI act e dal mercato. Non è stato un atto di presunzione o supponenza: abbiamo voluto dotare il Paese di una legge nazionale sull’IA coerente con i principi tecnici dell’AI Act, ma che dedicasse grande attenzione a quella filiera manifatturiera che non ha eguali a livello europeo. Se continuiamo a ripetere che non ha eguali, dobbiamo valorizzarla, proteggerla e cullarla; è ciò che stiamo facendo con questa legge, che ha una governance solida. La tecnologia è una questione trasversale alle forze politiche – ha sottolineato Butti – ma abbiamo voluto raccogliere tutti i contributi dal mondo parlamentare, industriale, universitario e imprenditoriale. Abbiamo messo un miliardo di euro di risorse pubbliche che agisce come volano per gli investimenti privati che sono in aumento. Un altro sviluppo che stiamo impostando prevede una grande attenzione per la valorizzazione del territorio, senza la quale le cose raccontate finora non avrebbero senso. Per questo, abbiamo recentemente promosso Reg4AI e finanziato, come dipartimento per la Trasformazione digitale, 4 grandi progetti che riguardano le filiere della sanità, del turismo, dei trasporti e della pubblica amministrazione. Abbiamo coinvolto le Regioni e le società in house. La settimana scorsa, a un tavolo tecnico di confronto con Assinter, abbiamo colto la positività e la concretezza del nostro lavoro, fondato sulla collaborazione continua e costante con il territorio. L’obiettivo di Reg4AI è creare le migliori pratiche che, in seguito, dovranno essere estese e scalate a livello nazionale”.

Nella PA abbiamo 400 progetti di AI previsti per il 2026 previsti dalle Linee guida dell’Agenzia digitale per promuovere l’adozione dell’AI nella Pubblica amministrazione, vuol dire che sta maturando grazie ad una guida politica che ha una visione chiara orientata a modelli di AI ispezionabili e aperti. Questo vale per la Pa e le imprese e la dimostrazione di questa impostazione è proprio il modello di AI lanciato da Engineering. Non c’è solo Leonardo ma c’è molto altro che sta emergendo dalla strategia del Quantum che abbiamo rilasciato assieme all’Europa. Dall’incontro con la Virkkunen, in occasione delle celebrazioni di Alessandro Volta, nasce un centro di sviluppo per AI e quantum che accoglierà anche le imprese, anche europee, dando vita alla Quantum Alliance. La Camera sta discutendo sul disegno di legge delega sull’Energia, che prevede la realizzazione degli SMR, che consentano la sostenibilità dei data center e delle infrastrutture tecnologiche avanzate. Entro l’estate avremo il disegno di legge delega sull’energia come ha dichiarato il ministro Pichetto Fratin. L’AI arriverà a svilupparsi anche nello Spazio. C’è chi già ci sta lavorando. La legge che governa lo Spazio è del 1967, un tempo in cui i privati non agivano nello Spazio. Un Paese in raccordo agli altri Stati dovrebbe raggiungere un minimo comun denominatore per capire a chi spetti la gestione di un certo livello dello Spazio, serve l’intervento pubblico in questo settore così strategico”, ha concluso Butti.

Per approfondire in modo tecnico: la scheda dell’AI di Engineering

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/lai-italiana-aperta-e-trasparente-di-engineering-apprezzata-da-ronzulli-butti-barachini-e-nobile/570597/




AI e chiusura dello stretto di Hormuz, perché le conseguenze non sono solo energetiche

La guerra che coinvolge l’Iran e lo Stretto di Hormuz non è solo una crisi energetica. È anche un test strutturale per l’intelligenza artificiale. Una lunga analisi del World Economi Forum evidenzia come la chiusura dello Stretto sta mettendo in difficoltà anche l’economia dell’AI.

Il conflitto sta infatti interrompendo non solo i flussi di petrolio, ma anche gas naturale, trasporti marittimi, assicurazioni, gas industriali e persino la sicurezza dei data center. In questo scenario, il futuro dell’AI non dipenderà solo dagli algoritmi, ma dalla capacità dei Paesi di garantire elettricità affidabile, accesso ai materiali e infrastrutture protette anche in condizioni di instabilità geopolitica.

L‘AI non è solo chip, ma infrastrutture

L’intelligenza artificiale si basa sui chip, ma per funzionare ha bisogno di molto altro: navi, reti elettriche, gas, metalli e proprio questa dimensione è oggi sotto pressione.

L’analisi del WEF spiega anche che con un cessate il fuoco, gli effetti della crisi potrebbero durare anni: aumento dei costi assicurativi, tensioni sulle materie prime e una rivalutazione permanente del rischio geopolitico.

Il primo impatto diretto riguarda l’elettricità. Oggi è il principale fattore limitante per l’espansione dell’AI.

In questo contesto, il gas naturale è ancora più rilevante del petrolio, perché è alla base di gran parte della produzione elettrica globale. Prima della crisi, circa il 20% del gas mondiale transitava proprio dallo Stretto di Hormuz sotto forma di GNL.

Gli Stati Uniti partono da una posizione relativamente vantaggiosa grazie alle risorse interne, ma anche qui la pressione sui mercati globali potrebbe tradursi in un aumento dei costi energetici e quindi dell’AI. La Cina, secondo il WEF, appare ancora più solida sul fronte energetico. Negli ultimi dieci anni ha investito massicciamente in rinnovabili, nucleare e infrastrutture di trasmissione, costruendo un vantaggio sistemico rispetto agli Stati Uniti.

I punti deboli: semiconduttori e dipendenza energetica

Più vulnerabili sono invece i grandi hub asiatici dei semiconduttori, come Taiwan e Corea del Sud. Taiwan, dopo l’uscita dal nucleare, dipende per circa il 50% dal GNL e dispone di riserve limitate. Allo stesso tempo, TSMC – il principale produttore mondiale di chip avanzati – consuma da sola circa il 10% dell’elettricità nazionale.

La Corea del Sud rappresenta invece un nodo critico per le memorie, con Samsung e SK Hynix che controllano gran parte del mercato globale. Ma anche Seoul è fortemente dipendente dalle importazioni energetiche dal Medio Oriente, rendendola esposta agli shock della regione.

Dai chip alle molecole: la fragilità delle materie prime

Oltre all’energia, la crisi colpisce anche le materie prime. Tre esempi sono emblematici: elio, bromo e zolfo.

Il Qatar produce circa un terzo dell’elio mondiale, fondamentale per il raffreddamento nei processi industriali e nella produzione di semiconduttori. Dopo attacchi a infrastrutture energetiche, i prezzi sono aumentati.

Il bromo, essenziale per l’elettronica, arriva in gran parte da Israele, mentre lo zolfo – cruciale per la produzione di rame – transita per circa il 50% attraverso Hormuz. Il rame, a sua volta, è la base di tutta l’infrastruttura elettrica necessaria all’AI.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-e-chiusura-dello-stretto-di-hormuz-perche-le-conseguenze-non-sono-solo-energetiche/570574/




Europa e Big Tech, la difficile fuga dagli Usa tra dipendenza digitale e rischio “kill switch”

L’Europa vuole emanciparsi dalle big tech Usa, ma resta profondamente legata all’ecosistema tecnologico americano.

Una lunga analisi di Politico evidenzia come governi europei – dalla Francia alla Germania, fino ai Paesi Bassi e alla Finlandia – stanno progressivamente mettendo in discussione l’affidamento di servizi critici e dati sensibili a pochi grandi player statunitensi. Il timore è che questa dipendenza possa trasformarsi in uno strumento di pressione geopolitica.

I numeri sono significativi: secondo dati citati da Politico, Amazon, Microsoft e Google controllano circa il 70% del mercato cloud europeo, mentre l’80% della spesa aziendale per software è destinata a fornitori americani. Una presenza capillare che si estende a tutta l’infrastruttura digitale: dai sistemi operativi agli strumenti di produttività, fino ai servizi di comunicazione e pagamento.

Il rischio del “kill switch”

Il tema è diventato ancora più sensibile con il ritorno di Donald Trump alla Casa Bianca. Come sottolinea Politico, cresce la preoccupazione che gli Stati Uniti possano sfruttare questa dipendenza attraverso strumenti legali o sanzionatori, fino a ipotizzare un “kill switch” digitale.

Secondo un sondaggio citato dal quotidiano statunitense, l’86% degli europei considera plausibile una restrizione improvvisa dell’accesso ai servizi digitali statunitensi, mentre il 59% la vede come un rischio concreto già oggi.

La risposta europea: la Francia avanti con l’indipendenza digitale

Bruxelles sta lavorando a nuove iniziative per rafforzare la sovranità digitale, ma – come evidenzia Politico – le azioni più concrete arrivano a livello nazionale e locale. La Francia ha limitato l’uso di strumenti come Zoom e Microsoft Teams e sistema operativi come Windows a favore di Linux, mentre diversi Paesi stanno collaborando allo sviluppo di infrastrutture digitali europee.

Anche Amsterdam ha avviato un piano pluriennale per ridurre la dipendenza da software americano, con l’obiettivo di trasferire dati sensibili e sistemi critici su infrastrutture europee entro il 2035. Un percorso graduale, pensato per evitare gli errori di implementazioni troppo rapide.

Il laboratorio tedesco

Il caso più avanzato, racconta Politico, è quello dello Schleswig-Holstein, nel nord della Germania, che ha avviato un processo di uscita dalle tecnologie statunitensi nella pubblica amministrazione. Il progetto include il passaggio a LibreOffice, la migrazione di 40mila account email e la futura sostituzione di Windows con Linux.

I risultati sono misti. Da un lato, risparmi sulle licenze e maggiore autonomia; dall’altro, problemi operativi significativi. Come riportato da Politico, difficoltà tecniche, aumento dei tempi di lavoro e carenze funzionali hanno rallentato la transizione, evidenziando la complessità del cambiamento.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/europa-e-big-tech-la-difficile-fuga-dagli-usa-tra-dipendenza-digitale-e-rischio-kill-switch/570519/




AI, mercato da 1,24 miliardi (+33%) nel 2025. Imprese che la usano raddoppiate

Il mercato italiano dell’AI a 1,24 miliardi nel 2025 (+33%). Il 16% delle imprese la usa rispetto all’8% del 2024

L’intelligenza artificiale sta trasformando il lavoro e l’organizzazione dei processi produttivi nelle imprese italiane. Nel 2025, secondo le stime Anitec-Assinform, il mercato italiano vale già 1,24 miliardi di euro, in crescita del 33% rispetto ai 935 milioni del 2024 e con proiezioni da oltre 2,5 miliardi entro il 2028. Parimenti, gli ultimi dati ISTAT, mostrano un’accelerazione senza precedenti nell’adozione nelle imprese: la quota di queste ultime ad utilizzare almeno una soluzione di IA è più che raddoppiata tra 2024 e 2025 passando dall’8 al 16,4%.

Impatto occupazionale incerto

Resta tuttavia incerto l’impatto occupazionale. Le stime disponibili indicano un’esposizione significativa per le professioni più routinarie, ma ancora poche evidenze causali; queste ultime mostrano una riduzione del 23,4% delle offerte di lavoro nelle professioni più esposte nel Regno Unito e, negli USA, un calo del 16% dell’occupazione tra i lavoratori junior nelle professioni “AI-Intensive”.

Il mercato del lavoro italiano si trova ancora in una fase precedente, legata a una trasformazione digitale dei processi produttivi ancora incompleta, è quanto emerge dal rapporto “L’IA nel mercato del lavoro italiano – Professioni, modelli di adozione e la sfida della formazione”, realizzato da Anitec-Assinform, l’Associazione di Confindustria che raggruppa le imprese ICT operanti in Italia, in collaborazione con il Dipartimento di Ingegneria Gestionale e della Produzione del Politecnico di Torino.

Il lavoro si articola in tre parti: una rassegna della letteratura e dei dati disponibili per il caso italiano; un’analisi qualitativa su imprese pioniere nell’adozione dell’IA e un’indagine sugli attori chiave dell’ecosistema della formazione.

Lavoro, il 50% degli italiani preoccupato dall’avvento dell’AI. Il 60% dice di non avere le skill

Molteplici sono le dimensioni dell’indagine: sul fronte dell’opinione pubblica, l’indagine internazionale SCOaPP-10 svolta dal Politecnico di Torino mostra come oltre il 50% degli italiani si dichiara preoccupato per l’avvento delle nuove tecnologie, mentre circa il 60% ritiene di non possedere competenze digitali adeguate per affrontare la trasformazione in corso.

Mentre le imprese più avanti indicano come l’intelligenza artificiale sia utilizzata soprattutto come strumento di supporto ai processi decisionali, di analisi dei dati e di miglioramento dell’efficienza operativa. L’evidenza raccolta mostra come queste tecnologie tendano a modificare il contenuto delle attività professionali piuttosto che automatizzarle del tutto, favorendo invece nuove forme di collaborazione tra persone e sistemi intelligenti.

Formazione necessaria

Emerge quindi dal rapporto la necessità di una nuova stagione di politiche pubbliche che mettano al centro la formazione per equipaggiare la forza lavoro all’era dell’intelligenza artificiale. Lo studio presenta un’agenda di 23 raccomandazioni rivolte a un ampio ventaglio di istituzioni, dai Ministeri del Lavoro, dell’Università e delle Imprese alle Regioni, dai Fondi interprofessionali agli atenei e alle associazioni imprenditoriali, tra cui la sperimentazione di un “conto personale di formazione per l’IA” e la razionalizzazione dell’ecosistema formativo nazionale per rispondere ai fabbisogni di competenze emergenti.

AI, Dal Checco (Anitec-Assinform): “Servono politiche pubbliche e formazione”

“Sui mercati del lavoro più avanzati gli effetti dell’IA si vedono già. In Italia abbiamo ancora una finestra temporale per capire il fenomeno e costruire una strategia. Siamo convinti che gli investimenti per l’adozione delle tecnologie debbano essere accompagnati da politiche pubbliche e investimenti altrettanto robusti per la formazione, altrimenti ci troveremo fuori mercato e con un tessuto sociale più fragile. Anitec-Assinform, con questo approfondimento vuole iniziare a fare la sua parte, rappresentando l’industria digitale in Italia e dialogando attivamente con Ministeri e policymaker affinché la transizione all’AI Economy sia governabile e inclusiva, ha dichiarato Massimo Dal Checco, Presidente di Anitec-Assinform.

AI, Di Stefano (Confindustria): “Serve salto di qualità nelle competenze”

“L’intelligenza artificiale sta trasformando il mercato del lavoro e l’organizzazione delle imprese, e questa transizione richiede un salto di qualità nelle competenze. Senza persone in grado di comprendere e governare le nuove tecnologie, il rischio è un’adozione parziale, diseguale e poco efficace. Oggi cresce la domanda di profili specialistici, ma soprattutto quella di figure ibride, capaci di integrare l’IA nei processi produttivi. Per questo il ruolo di Confindustria è costruire un ecosistema formativo avanzato, fondato su orientamento continuo, integrazione tra formazione iniziale e continua, rafforzamento della filiera tecnico-professionale e pieno sviluppo degli ITS Academy. Dobbiamo garantire a imprese e lavoratori percorsi di upskilling e reskilling accessibili, soprattutto per le PMI, perché la sfida dell’IA si vince investendo sulle persone e sulla capacità del Paese di formare competenze realmente spendibili”, ha dichiarato Riccardo Di Stefano, delegato di Confindustria per Education e Open Innovation.

AI, Sacchi (Politecnico di Torino): “Rafforzare collaborazione tra università ITS academy, imprese e istituzioni”

L’IA è una leva strategica per la crescita della produttività e l’innovazione organizzativa, ma anche una sfida in termini di competenze e inclusione. Dalla ricerca emerge chiaramente che la formazione deve evolvere rapidamente per rispondere a una domanda di competenze sempre più dinamica: occorre allora rafforzare la collaborazione tra università, ITS academy, imprese e istituzioni per costruire percorsi formativi flessibili. Allo stesso tempo, è necessario sostenere le PMI nel processo di adozione dell’IA, riducendo i divari esistenti nel sistema produttivo. La ricerca propone un’agenda di policy per tutto l’ecosistema delle politiche industriali, del lavoro e della formazione, perché la sfida dell’IA può essere vinta dal nostro paese soltanto attraverso un’azione di sistema”, ha dichiarato Stefano Sacchi, Vicerettore del Politecnico di Torino e direttore della ricerca.

Scarica lo studio

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-mercato-da-124-miliardi-33-nel-2025-imprese-che-la-usano-raddoppiate/570520/




Cybersecurity Act, AIIP: “Sostituire fornitori cinesi suicidio industriale. Il vero pericolo sono gli hyperscalers”

Un azzardo industriale insostenibile, soprattutto nel contesto geopolitico instabile in cui siamo immersi”. E’ questo il giudizio tranchant dell’Associazione Italiana Internet Provider (AIIP) sulla proposta di revisione del Cybersecurity Act (CSA), presentata dalla Commissione europea il 20 gennaio scorso. “La nuova versione della normativa apre la strada a una disciplina che consentirebbe di colpire i cosiddetti “high-risk suppliers”, i fornitori ad alto rischio, ben oltre il perimetro del 5G, estendendo l’attenzione anche alle reti elettroniche critiche e, di fatto, anche a componenti rilevanti della rete fissa e satellitare, con la possibilità di imporre restrizioni, phase out e sostituzioni forzate di apparati in utilizzo sui quali le aziende hanno investito – spiega il Presidente di AIIP Giuliano Peritore La linea politica è ormai chiara: si vuole introdurre un meccanismo europeo permanente di selezione dei fornitori non sulla base della sola sicurezza tecnica dei prodotti, ma di valutazioni più ampie, anche di natura non tecnica, con effetti profondi su mercato, investimenti e concorrenza”.

Quadro internazionale instabile: “Offensiva ideologica un lusso”

Mentre l’Europa si trova stretta in un quadro internazionale sempre più instabile, con il traffico nello Stretto di Hormuz ancora gravemente compromesso, prezzi energetici nuovamente in tensione e filiere industriali che rischiano un altro ciclo di scarsità e ritardi, a Bruxelles “c’è chi pensa di potersi permettere il lusso di una nuova offensiva ideologica contro i fornitori cinesi di tecnologia per le reti, tralasciando tuttavia innumerevoli prodotti presenti sul mercato, come smartphone, smart tv, dispositivi iot, telecamere, vetture”.

“È una scelta che già sarebbe sbagliata in condizioni ordinarie, ma, nella fase storica che si sta aprendo, rischia di trasformarsi in un atto di puro autolesionismo economico, industriale e strategico – rincara il Vicepresidente Giovanni Zorzoni Una sorta di auto-embargo, di dazio autoinflitto. Reuters ha descritto in questi giorni una situazione in cui il traffico marittimo nello Stretto di Hormuz resta in larga parte bloccato o fortemente perturbato, con forti ripercussioni sui flussi di petrolio e gas e prospettive di ripristino tutt’altro che rapide”.

AIIP, il mercato degli apparati di rete non è un foglio excel

Il punto che sembra sfuggire a una parte della burocrazia europea è, per l’Associazione, in realtà molto semplice: “il mercato degli apparati di rete non è un foglio Excel sul quale spostare una crocetta da un fornitore all’altro. In numerosi segmenti cruciali, soprattutto nell’accesso fisso, nel GPON, nell’aggregazione, nel segmento dei router casalinghi, le alternative realmente equivalenti ai grandi vendor cinesi sono poche, spesso incomplete, talvolta solo nominali. Ci sono casi in cui i produttori residui si limitano a integrare merchant silicon con capacità manifatturiera limitata, con roadmap meno profonde, con apparati più energivori, più ingombranti e meno competitivi sotto il profilo prestazionale, che vengono rappresentati come alternativa. In altre parole, non siamo davanti a una sostituzione neutrale. Siamo davanti, molto spesso, a un peggioramento tecnico, a un aggravio economico, e ad una produzione di RAEE”, aggiunge Zorzoni.

Negli ultimi 5 anni acquisti per 300 milioni di apparati a rischio da parte di associati AIIP. Migrazione consterebbe un miliardo

AIIP ha lanciato una indagine interna da cui emerge che, soltanto negli ultimi cinque anni, gli operatori medi e territoriali, che l’Associazione rappresenta in misura significativa, hanno investito circa 300 milioni di euro in apparati che oggi una parte della nuova narrativa europea vorrebbe bollare come “ad alto rischio”. Se a questa categoria venisse imposto, nell’arco di tre anni, come prevede la revisione del CSA, il rimpiazzo di apparati perfettamente funzionanti, che rappresentano oggi in molti casi il miglior equilibrio tra prestazioni, consumi ed economicità, l’impatto complessivo non sarebbe inferiore a un miliardo di euro, tra costi di sostituzione, migrazione, riconfigurazione, prove di rete, continuità del servizio, smantellamento e riaddestramento tecnico del personale.

Peritore, accanimento contro vendor cinese ma giganti del Cloud e piattaforme restano indisturbati

Chi immagina di poter scaricare una simile montagna di costi sulle imprese senza distruggerne la capacità di investimento dimostra di non avere alcuna percezione della realtà industriale in cui operano i Provider indipendenti – dichiara Peritore – Il nodo politico, però, è ancora più grave. Mentre una parte delle istituzioni europee si accanisce contro l’hardware cinese, i veri fornitori ad altissimo rischio continuano a sedere comodamente al centro dell’ecosistema digitale europeo, e sono i giganti globali del cloud e delle piattaforme.

Rischio “kill switch” in Europa resta alto

Secondo un’analisi del Future of Technology Institute, infatti, le aziende USA detengono oggi circa l’80 per cento del mercato cloud europeo, e i sistemi in 23 dei 28 Paesi analizzati sembrano fare affidamento su tecnologia statunitense per funzioni critiche di sicurezza nazionale. Lo stesso documento richiama il rischio di un vero e proprio “kill switch” digitale, cioè della possibilità concreta che, in presenza di determinate decisioni politiche o sanzionatorie, i servizi possano essere sospesi, disattivati o resi indisponibili anche in Europa. È questo il paradosso che AIIP denuncia con forza: da un lato si vorrebbe costringere gli Operatori europei a smaltire apparati funzionanti, riducendo il numero dei fornitori, concentrando il rischio, e rendendo ancora più fragile la capacità di approvvigionamento del continente, proprio mentre il sistema economico globale si avvicina a una nuova fase di scarsità, tensione energetica e discontinuità logistica. Dall’altro lato si continua a tollerare, e, in molti casi, addirittura a consolidare, una dipendenza strutturale da un ristretto numero di fornitori cloud e software globali che già oggi occupano una posizione dominante nei servizi digitali più delicati, incluse funzioni che toccano la difesa, la Pubblica Amministrazione e la sicurezza nazionale. “Non si può parlare seriamente di sovranità digitale europea colpendo i fornitori che consentono ancora di costruire infrastrutture efficienti e lasciando intatto il vero cuore della dipendenza esterna”.

Zorzoni (AIIP): “Operazione di rottamazione forzata ma non si parla di indennizzi”

La parte più assurda di questa vicenda – osserva Zorzoni – è che si vorrebbe imporre all’Europa una gigantesca operazione di rottamazione forzata proprio mentre il mondo entra in una fase di scarsità potenziale di energia, componenti, trasporto e capacità produttiva. Già in tempi ordinari una linea simile sarebbe industrialmente dissennata. Pensarla oggi, con ciò che accade nel Golfo, con i flussi energetici ancora sconvolti e con nuove tensioni sulle filiere globali, significa non aver compreso nulla di come si tengano in piedi le reti, le imprese e i mercati. A ciò si aggiunge un quadro europeo di finanza pubblica sempre più sotto pressione, fra il sostegno straordinario all’Ucraina, la crescente centralità della spesa per la difesa e l’impatto dei rincari energetici sui bilanci pubblici. In questo contesto, immaginare che Bruxelles possa anche trovare le risorse per indennizzare gli Operatori di una sostituzione forzata di apparati perfettamente funzionanti significa vivere fuori dalla realtà – indennizzi dei quali, ad oggi, non c’è traccia nel dibattito”.

Si favoriscono i grandi incumbent

Non basta. Ridurre “per decreto” il numero dei fornitori significa anche concentrare la domanda su un perimetro ancora più ristretto di Operatori e produttori, con l’effetto di favorire i grandi incumbent e penalizzare proprio quelle imprese indipendenti che, in tutta Europa, hanno garantito pluralismo, investimenti locali, diffusione della fibra, data center regionali, diversità e servizi cloud di prossimità. Negli ultimi mesi AIIP ha più volte denunciato il rischio, contenuto nel Digital Networks Act, di una traiettoria convergente verso un assetto oligopolistico del mercato europeo delle telecomunicazioni, dove meno pluralismo, meno concorrenza e più centralizzazione vengono presentati con un maquillage lessicale come “semplificazione” e “modernizzazione”. “È esattamente questo il clima culturale dentro il quale matura anche la nuova offensiva contro i fornitori del Dragone”. AIIP ritiene che la sicurezza vera si costruisca in modo opposto. Non riducendo il numero dei fornitori, ma aumentando le opzioni disponibili. Non imponendo sostituzioni premature di capitale già installato, ma verificando in modo rigoroso vulnerabilità, aggiornamenti, tracciabilità, accountability e qualità tecnica dei prodotti. Non inseguendo categorie geopolitiche astratte, ma costruendo una reale autonomia europea fatta di hardware acquistabile da chiunque, software open source, piattaforme sviluppate in proprio, pluralità di soluzioni e libertà di integrazione. La sicurezza nasce dal controllo tecnico, dalla verificabilità, dalle vulnerabilità documentate e dalla ridondanza. Non dalla sostituzione ideologica di un fornitore con un altro più gradito ai nuovi equilibri politici del momento” aggiunge Peritore.

Lentamente – conclude Zorzoni – una parte dell’Unione Europea comincia a rendersi conto che il rischio sistemico più grave non è rappresentato dai fornitori di hardware cinese, indispensabili per consentire di costruire infrastrutture efficienti e, sopra di esse, cloud sovrani basati su software open source o autoprodotto. Il vero rischio sistemico è rappresentato dai giganti del web e del cloud, che controllano oltre l’80 per cento del mercato cloud europeo e che, in qualunque momento, per ragioni politiche o giuridiche, potrebbero spegnere un pezzo essenziale di servizi. Se si vuole davvero parlare di sovranità digitale, è da lì che bisogna cominciare, non dalla distruzione di ciò che ancora consente al mercato europeo di restare pluralista e competitivo”. Per queste ragioni, AIIP chiede che l’Europa abbandoni immediatamente qualsiasi ipotesi di esclusione generalizzata dei fornitori sulla base di etichette geopolitiche o di appartenenza nazionale, e che ogni valutazione del rischio torni entro il perimetro della sicurezza informatica reale, una disciplina misurabile e verificabile. “In un tempo in cui le filiere globali possono incepparsi da un giorno all’altro e l’economia europea si affaccia a una nuova stagione di instabilità, restringere artificialmente il numero dei fornitori non significa aumentare la sicurezza. Significa moltiplicare la fragilità e perdere competitività“.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/cybersecurity-act-aiip-sostituire-fornitori-cinesi-suicidio-industriale-il-vero-pericolo-sono-gli-hyperscalers/570471/




Proposta di legge Pastorella (Azione) sui chatbot AI da parte di minori: “Uso emotivo va regolato”

Rendere obbligatorio per i fornitori di applicazioni di Intelligenza Artificiale e i gestori delle piattaforme digitali che le distribuiscono la cancellazione dalla memoria dopo un massimo di 5 giorni delle conversazioni con utenti minori di 18 anni che possono comportare un coinvolgimento emotivo. E’ questo il cuore della Proposta di Legge sulla regolamentazione dell’uso dei chatbot di intelligenza artificiale da parte dei minori, a prima firma della deputata di Azione Giulia Pastorella, che si è tenuto questa mattina alla Camera.

Pastorella (Azione): “Coinvolgimento emotivo dei nostri ragazzi con i chatbot va regolato”

“Il coinvolgimento emotivo dei nostri ragazzi con chatbot di AI generativa è un fenomeno diffuso ed è una deriva che va arginata. Si tratta di un utilizzo che si trova in una zona grigia no regolata, la mia proposta si applica ai chatbot che hanno un linguaggio naturale che danno l’impressione di relazioni con carattere emotivo. Ma sono macchine”. Così l’onorevole Pastorella, che ha sottolineato come la priorità della proposta sia quella di evitare ciò che si è verificato con i social media, la cui regolazione è in discussione oggi ma con una decina di anni di ritardo.

 “La nostra proposta di legge sull’utilizzo di chatbot da parte di minori è rivolta a tutti i colossi tech che offrono servizi in cui l’intelligenza artificiale possa simulare un comportamento umano all’interno della conversazione con l’utente, come specificato nel testo”, ha detto.

“Oggi erano presenti Microsoft, Google e Meta – conclude Pastorella – ma abbiamo avuto contatti positivi anche con OpenAi. Abbiamo contattato anche Anthropic per Claude, che però già non permette l’utilizzo ai minori. L’unica entità che non abbiamo coinvolto è stata Grok”. 

Calenda (Azione): “Nessuno divieto per l’AI, ma attenzione alle derive senza regole”

“Nessuno vuole arrivare a dei divieti, non c’è alcuna intenzione di demonizzare l’uso dell’AI, ma come tutte le grandi trasformazioni ci vogliono delle regole di utilizzo per i minori”, ha detto il segretario di Azione Carlo Calenda, facendo un parallelo con il mondo dell’automobile dove il divieto di guida ai minori di 18 anni è arrivato dopo un primo periodo di totale deregulation piena di incidenti. L’AI può a sua volta essere sfruttata a scopi criminali, per frodi o deepfake in campagne elettorali, ad esempio, e poi c’è tutto il tema dell’affettività. “Molto spesso social e chatbot diventano il rifugio salvifico dei ragazzi, che però si può trasformare in una trappola”, ha aggiunto Calenda, auspicando un dibattito ampio sulla proposta Pastorella, perché l’AI non è umana e il problema del rapporto che i nostri figli instaurano con queste macchine è all’ordine del giorno nella nostra quotidianità di genitori ed educatori.   

Scorza (ex Garante Privacy): “Ma il 50% dei genitori è analfabeta digitale”

Non è d’accordo con Calenda l’ex commissario del Garante Privacy Guido Scorza sul paragone con il mondo dell’automobile. “Per arrivare a 50 milioni di utenti il mondo dell’automobile ci ha messo anni, mentre per arrivare a 50 milioni di utenti ChatGPT ci ha messo qualche settimana – ha detto Scorza – è chiaro che la regolazione non riesce ad arrivare in tempo e prevenire lo sviluppo tecnologico. Siamo dentro ad una tempesta perfetta, in un mercato che ha consentito a pochi player di regolare la nostra vita e plasmarla a suo piacimento”. Per Scorza si tratta di restituire a famiglie e Stato il rapporto con i bambini e il ruolo di educazione dei nostri ragazzi che oggi è stato totalmente delegato ed occupato dalla tecnologia. “Il problema però è che il 50% della popolazione in Italia è analfabeta digitale, e anche i genitori lo sono”.

 Capitanio (Agcom): verifica età in app io entro fine estate. soluzione ue pronta

“La verifica dell’età oggi in Italia, per fortuna, è realtà. Entro la fine dell’estate – abbiamo una scadenza precisa – sarà disponibile sul wallet digitale degli italiani, attraverso l’applicazione IO, la funzione per l’accesso ai siti per adulti e pornografici, così come disposto dal decreto Caivano”. Così Massimiliano Capitanio, commissario Agcom.

Sull’app del digital wallet presentata dalla Commissione europea, ha aggiunto, “a livello di comunicazione forse c’è stata qualche incomprensione, nel senso che le applicazioni sono pronte, sono state testate in Italia e in altri 4 Stati europei e si basano sul principio rigidissimo del doppio anonimato: certificano solo ed esclusivamente se l’utente che sta accedendo a un portale vietato per norma sia o meno maggiorenne o minorenne”.

Capitanio ha anche ricordato gli strumenti già esistenti per evitare derive e usi impropri dell’AI. Dal patentino digitale, dispensato dall’Agcom tramite i Corecom, quest’anno ne sono stati distribuiti 55mila nelle scuole, pochi ma è già un inizio. C’è inoltre un tema di educazione digitale a scuola, contenuto nel decreto cybersicurezza. Già da due anni si può chiedere di sulla sim dei minori l’accesso parentale e il parental control, con un divieto a priori di accesso a contenuti porno, giochi d’azzardo e app di anonimizzazione dell’età.

Le associazioni sul deserto emotivo dei nostri under 15

Secondo i dati riportati da Ivano Zoppi della Fondazione Carolina su un campione di under 15 e sul loro deserto emotivo, un ragazzo su quattro usa l’AI generativa perché non ti giudica. Un ragazzino di 12 anni si è creato la sua fidanzata virtuale con cui ha un rapporto sereno perché gli dice sempre sì su tutto e preferisce lei a ragazzine in carne ed ossa. La fisicità e i rapporti diretti sono sempre più complessi e la virtualizzazione della realtà relazionale galoppa. Il 76% dei ragazzi è consapevole dell’isolamento causato da questa virtualizzazione delle relazioni ma non fa nulla per cambiare registro.

Secondo un’altra indagine condotta da Skuola.net e riportata da Daniele Grassucci il fenomeno AI generativa è già più che reale e va regolato, come hanno fatto in Cina dove l’utilizzo “positivo” dei chatbot da parte dei ragazzini delle scuole è accettato e ben definito dai 6 anni in poi, ma di base è vietato avere una fidanzata virtuale. La maggior parte dei ragazzi è favorevole ad avere delle regole ed è consapevole dei danni. Il 60% degli intervistati dice che sarebbe contento se i social sparissero.

Le ragazze sono quelle che subiscono maggiormente i lati negativi dei social.

Secondo Save The Children, l’AI sviluppa diverse illusioni nei ragazzi. L’illusione della semplicità, per cui l’AI rende tutto facile; l’illusione che quello che ti dice l’AI sia sempre vero; l’illusione dell’amicizia e della riservatezza, quando in realtà tutti i dati raccolti vengono usati anche ad altri scopi dalle piattaforme.

Zatta (Microsoft): “La secuirty by design è in capo ai produttori di AI”

Per Rossella Zatta, government affairs di Microsoft Italia, “Quando parliamo di AI convenzionali è chiaro che il primo asset la security by design che è in capo ai produttori. Servono limitazioni per i minorenni e misure che prevedano mitigazioni dal rischio di dipendenza emotiva”.  C’è poi un discorso di educazione che deve essere ad ampio raggio. ”Ma l’AI non va demonizzata perché tanti ragazzi la usano per diversi bisogni formativi. Ma di certo il rischio maggiore è l’utilizzo dell’AI come supporto relazionale, secondo il Report annuale del Safer Internt Day”.

Mazzetti (Meta): verifica età avvenga a livello di sistema operativo o app store

“È importante che i sistemi di age verification non avvengano ogni volta, a ogni accesso a ciascuna applicazione – altrimenti diventerebbe impossibile – ma vengano fatti una volta sola nelle porte di accesso a quello che è oggi internet, e cioè fondamentalmente il mobile, quindi a livello di sistema operativo o di app store. Così, la verifica si farebbe una volta e da lì ci sarebbe poi un sistema di direzione da parte del sistema operativo rispetto alle applicazioni che si possono scaricare o meno in base all’età. Così, di conseguenza si può garantire un’esperienza appropriata all’età, dato che altrimenti i genitori non sarebbero in grado di seguire questo processo”. Così Angelo Mazzetti, direttore public policy di Meta per Italia, Grecia, Malta e Cipro.

“Sul tema della regolamentazione – ha aggiunto – Meta ha un approccio leggermente differente rispetto a quello di altri soggetti del settore: noi infatti sosteniamo una regolamentazione in questo ambito che si basi sulla cosiddetta maggiore età digitale. Esattamente come nella società oggi si ha la possibilità, fino a una certa età, di fare qualcosa con l’approvazione dei genitori e dopo di farla in autonomia, crediamo che lo stesso debba essere applicato all’interno dei servizi digitali. Definire l’età ovviamente spetta al legislatore, agli esperti e alle autorità.

“Questo non vuol dire, ovviamente, che non si debba poi avere un’esperienza appropriata alla propria età, ma semplicemente che vi si può accedere senza l’approvazione dei genitori. È importante che questa regolamentazione si applichi però a tutti i soggetti e a tutti i servizi che un adolescente medio utilizza, dalle chat ai social media, in tutte le applicazioni che un adolescente medio utilizza nel corso di una settimana” – ha concluso.

Colasante (Google): “A Gemini impedito simulare relazioni affettive e generare porno”

 “Per quanto riguarda il rischio di coinvolgimento emotivo dei minori con i chatbot di intelligenza artificiale, che è al centro della proposta di legge Pastorella, Google agisce alla radice del problema, attraverso delle ‘protezioni alla persona’ integrate nel suo chatbot. Gemini, infatti, è progettato per non affermare mai di essere un umano, di avere sentimenti, coscienza o corpo e per non simulare relazioni interpersonali o romantiche. È quindi impedito al chatbot di utilizzare espressioni come ‘ho bisogno di te’, ‘non posso fare a meno di te’ o ‘ti voglio bene’. Lavoriamo quindi sradicando il rischio di antropomorfizzazione, a prescindere dalla conservazione dei dati”. Così Martina Colasante, Government Affairs & Public Policy manager di Google Italia.

“A Gemini è anche impedito di generare immagini pornografiche o di ‘nudification’ e di fornire istruzioni per attività pericolose e illegali – ha aggiunto. “Sappiamo che le persone, a prescindere dall’età e a maggior ragione se sono più giovani e vulnerabili, si rivolgono alla tecnologia e ai chatbot in momenti di vulnerabilità e per problemi di salute mentale. Abbiamo quindi annunciato dei nuovi protocolli per cui, se Google si rende conto, attraverso una serie di interazioni e parole chiave, che una persona sta vivendo un momento di crisi di salute mentale acuta, attiviamo immediatamente un modulo che la sgancia dalla conversazione con il chatbot e la indirizza verso una conversazione con esperti clinici e linee di aiuto professionali. Sapendo che si tratta di un ecosistema che ha dei costi e vive spesso di contributi volontari e fa fatica ad essere finanziato, abbiamo annunciato un sostegno di 30 milioni di euro a questa rete”.

“Diamo anche possibilità di scegliere se conservare o meno i dati, a seconda delle esigenze. Se gli adolescenti scelgono di conservarli, è sempre possibile – sia granularmente rispetto alla singola ricerca, sia totalmente che automaticamente – gestirli e cancellarli dalla memorizzazione” – ha concluso.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/proposta-di-legge-pastorella-azione-sui-chatbot-ai-da-parte-di-minori-uso-emotivo-va-regolato/570464/




Quantum computing, mercato mondiale stimato a 18 miliardi di dollari entro il 2034. Una partita aperta tra Cina, Ue e Usa

Il quantum computing non è più una promessa confinata ai laboratori di ricerca, ma una tecnologia destinata a ridefinire gli equilibri economici e industriali globali. Secondo nuove analisi di mercato, il settore passerà da un valore di 1,57 miliardi di dollari nel 2025 a 18,06 miliardi di dollari entro il 2034, con un tasso annuo composto di crescita (CAGR) del 31,19% nel periodo 2026-2034.

Numeri che fotografano un’accelerazione senza precedenti per una tecnologia considerata strategica al pari dell’intelligenza artificiale e dei semiconduttori, che potrebbe crescere ulteriormente per un total addressable market, o mercato totale indirizzabile, valutato da The Insight Partners attorno ai 70 miliardi di dollari entro fine periodo.

Una tecnologia chiave per la competitività globale

Il quantum computing si basa su principi della meccanica quantistica e utilizza i qubit, unità di informazione che, a differenza dei bit tradizionali, possono esistere in più stati contemporaneamente. Questo consente di affrontare problemi complessi, dalla simulazione molecolare alla crittografia, con una potenza di calcolo irraggiungibile per i supercomputer classici.

Non è un caso che i principali attori globali, come Stati Uniti, Cina ed Unione europea, stiano investendo massicciamente per assicurarsi una posizione di leadership. La posta in gioco è elevata: capacità di innovazione industriale, sicurezza nazionale, supremazia tecnologica.

Il mercato si articola in diversi segmenti, è illustrato nel report, dai sistemi ai servizi, dalle soluzioni on premise a quelle cloud-based, fino alle applicazioni in simulazione, ottimizzazione e machine learning. Sul piano tecnologico, si distinguono approcci come i trapped ions, i superconducting qubits e il quantum annealing, mentre i principali settori di utilizzo spaziano da Difesa e aerospazio a finanza, sanità, energia e pubblica amministrazione.

I fattori trainanti del quantum: hardware, algoritmi e HPC

A sostenere la crescita sono innanzitutto i progressi nell’hardware e negli algoritmi quantistici. Negli ultimi anni si sono registrati miglioramenti significativi nei tempi di coerenza dei qubit, nelle tecniche di correzione degli errori e nelle tecnologie di gate quantistici. Tutti elementi cruciali per rendere i sistemi più affidabili e scalabili.

Parallelamente, l’evoluzione degli algoritmi, in particolare per l’ottimizzazione, il machine learning e la crittografia, sta ampliando le applicazioni concrete della tecnologia, rendendola sempre più rilevante per l’industria.

Un secondo driver fondamentale è la crescente domanda di calcolo ad alte prestazioni (HPC). Settori come farmaceutica, scienza dei materiali e finanza necessitano di capacità computazionali avanzate per simulazioni e analisi complesse. Il quantum computing promette di rispondere a queste esigenze, ad esempio accelerando la scoperta di nuovi farmaci o migliorando la modellazione dei mercati finanziari.

Le tendenze del mercato verso sostenibilità e industrializzazione

Guardando al futuro, emergono due direttrici principali. La prima è la spinta verso la sostenibilità e l’innovazione. I computer quantistici potrebbero contribuire a sviluppare nuovi materiali per l’energia pulita, ottimizzare le catene di approvvigionamento e progettare processi più efficienti dal punto di vista energetico. In un contesto di transizione ecologica, si tratta di un potenziale trasformativo.

La seconda tendenza è l’aumento degli investimenti e degli sforzi di commercializzazione. Colossi tecnologici come IBM, Google, Microsoft e Intel stanno investendo miliardi di dollari in ricerca e sviluppo, affiancati da un ecosistema dinamico di startup. Anche i governi stanno intensificando il supporto finanziario, consapevoli del valore strategico della tecnologia.

Questo afflusso di capitali sta favorendo partnership tra sviluppatori di hardware quantistico, piattaforme cloud e industrie come farmaceutica, aerospazio e finanza, con l’obiettivo di portare soluzioni concrete sul mercato.

Che cos’è il quantum computing

Il quantum computing, o calcolo quantistico, rappresenta una delle più promettenti frontiere dell’innovazione digitale, perché sfrutta i principi della meccanica quantistica (sovrapposizione, entanglement e interferenza) per elaborare informazioni attraverso i qubit, superando i limiti dei bit tradizionali (0 o 1).

A differenza dei computer classici, queste macchine possono operare su molteplici stati simultaneamente, aprendo la strada a una potenza computazionale esponenziale per affrontare problemi oggi considerati intrattabili. Le applicazioni sono già delineate: dalla simulazione molecolare per lo sviluppo di nuovi farmaci e materiali, all’ottimizzazione di sistemi complessi come supply chain e portafogli finanziari, fino all’accelerazione dei modelli di machine learning su grandi dataset.
Non meno rilevanti sono gli impatti attesi nei settori dell’energia, ad esempio nello sviluppo di batterie avanzate, e della sostenibilità climatica, con modelli più efficaci per la cattura della CO2.

Le attuali architetture, come i computer quantistici superconduttori con qubit criogenici operanti in ambienti altamente controllati, rappresentano ancora una fase intermedia (NISQ), ma il percorso verso sistemi fault-tolerant (capaci di funzionare correttamente nonostante la presenza di errori inevitabili, come decoerenza o rumore nei qubit) è già tracciato.

Opportunità e sfide del quantum tra sicurezza e investimenti

Tra le opportunità più rilevanti spiccano proprio gli investimenti pubblici e privati, che stanno accelerando l’innovazione e la nascita di nuovi modelli di business. Ma c’è anche una dimensione critica: la sicurezza.

I computer quantistici, infatti, potrebbero rendere obsolete molte delle tecniche di crittografia attualmente utilizzate per proteggere dati e comunicazioni. Da qui la crescente attenzione verso lo sviluppo di sistemi di cifratura “quantum-resistant, capaci di resistere agli attacchi delle future macchine quantistiche.

I finanziamenti pubblici sono fondamentali per lo sviluppo del settore del Quantum Computing. A livello globale, secondo altre stime fornite da UBS, si stanno investendo circa 42 miliardi di dollari in questa tecnologia.

Particolarmente coinvolti sono Cina, Europa e Stati Uniti, che considerano il Quantum Computing una tecnologia di importanza strategica. La Cina si sta concentrando su progetti ambiziosi, come una rete nazionale di comunicazione quantistica, stanziando circa 22 miliardi di dollari. L’Europa ha stanziato più di 13 miliardi di dollari attraverso il programma Quantum Flagship. Negli Stati Uniti, dal 2019 sono stati investiti circa 6 miliardi di dollari nella National Quantum Initiative e sono previsti ulteriori investimenti.

A livello privato, si legge nello studio, le startup hanno registrato finanziamenti pari a 140 miliardi di euro per 1.400 progetti, con un’impennata dei numeri tra il 2023 ed il 2024, a livello mondiale.

Una leva strategica per i Paesi

In prospettiva, il quantum computing diventerà una leva decisiva per le politiche industriali e tecnologiche di ogni Paese. Chi saprà sviluppare competenze, infrastrutture e filiere in questo ambito potrà beneficiare di un vantaggio competitivo significativo.

Non si tratta solo di una nuova tecnologia, ma di una piattaforma abilitante destinata a incidere su molteplici settori. Come accaduto con internet e il cloud, il quantum computing potrebbe ridefinire le regole del gioco, aprendo scenari inediti per l’economia globale.

La corsa è già iniziata e a differenza delle altre tecnologie di frontiera, qui la corsa è ancora aperta tra Stati Uniti, Cina e Unione europea. E, questa volta, la differenza la farà chi saprà investire “per tempo” in una tecnologia che promette di trasformare radicalmente il modo in cui elaboriamo informazioni e prendiamo decisioni, con un potenziale dirompente enorme che potrebbe rivoluzionare l’intero sistema tecnologico a nostra disposizione.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/quantum-computing-mercato-mondiale-stimato-a-18-miliardi-di-dollari-entro-il-2034-una-partita-aperta-tra-cina-ue-e-usa/570393/




Tim Cook si dimette dopo 15 anni: “John Ternus la persona migliore per guidare Apple nel futuro”

Dopo quindici anni alla guida di Apple, Tim Cook lascia il ruolo di amministratore delegato. Il passaggio di consegne avverrà il primo settembre, quando il timone della società passerà a John Ternus, attuale Senior Vice President of Hardware Engineering. Cook resterà comunque in azienda nel ruolo di presidente esecutivo, garantendo continuità nella governance.

“È stato il più grande privilegio della mia vita essere l’amministratore delegato di Apple”, ha dichiarato Cook, sottolineando il profilo del suo successore: “John Ternus ha una mente da ingegnere e un’anima da innovatore. È un visionario e i suoi contributi ad Apple negli ultimi 25 anni sono già troppi per essere contati. Senza dubbio è la persona migliore per guidare Apple nel futuro”.

Una transizione preparata da tempo

La successione non arriva come una sorpresa. Ternus è da anni una delle figure chiave all’interno dell’azienda, con un ruolo centrale nello sviluppo hardware dei prodotti Apple. Nei prossimi mesi lavorerà a stretto contatto con Cook per assicurare una transizione graduale, in linea con la tradizione della società.

“Ho trascorso la maggior parte della mia carriera qui”, ha commentato Ternus, “e sono stato fortunato a lavorare sotto Steve Jobs e ad avere Tim Cook come mentore”. Un passaggio che sottolinea la continuità culturale e manageriale all’interno di Cupertino.

L’eredità di Cook

Tim Cook aveva assunto la guida di Apple nel 2011, dopo la scomparsa di Steve Jobs. In questi anni ha trasformato l’azienda in una delle realtà più solide e profittevoli al mondo. La capitalizzazione è passata da circa 350 miliardi a quasi 4.000 miliardi di dollari, mentre i ricavi sono quadruplicati.

Sotto la sua gestione, Apple ha consolidato il proprio ecosistema, puntando su servizi digitali, integrazione hardware-software e nuove linee di prodotto. Cook ha inoltre rafforzato il posizionamento dell’azienda su temi come privacy, sostenibilità e supply chain globale.

Le sfide per il nuovo CEO

Il passaggio a John Ternus arriva in una fase complessa per il settore tecnologico. Apple è chiamata a gestire la transizione verso nuove tecnologie, a partire dall’AI, e a confrontarsi con un contesto geopolitico e regolatorio sempre più articolato.

Per Ternus, la sfida sarà mantenere la crescita e l’innovazione in un mercato maturo, preservando allo stesso tempo l’identità dell’azienda. Il fatto che la successione avvenga all’interno indica la volontà di puntare sulla continuità più che su una rottura strategica.

Un cambio generazionale nel Big Tech

L’uscita di scena di Tim Cook si inserisce in una dinamica più ampia che riguarda i vertici delle grandi aziende tecnologiche. Negli ultimi giorni si è assistito a un progressivo ricambio dei fondatori e dei manager di lungo corso, spesso rimasti alla guida per decenni. Come l’uscita di scena di Reed Hastings, che ha lasciato il ruolo di CEO di Netflix dopo oltre 30 anni, passando il testimone a una nuova leadership pur mantenendo un ruolo nel board.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/tim-cook-si-dimette-dopo-15-anni-john-ternus-la-persona-migliore-per-guidare-apple-nel-futuro/570385/




Slopaganda, che cos’è e perché punta a generare paura e caos tra i cittadini

Slopaganda, la nuova frontiera della propaganda digitale: che cos’è e perché mette alla prova le nostre democrazie

Dalle clip virali che ritraggono Donald Trump come un sovrano caricaturale o un eroe da videogame, fino ai video in stile LEGO diffusi da ambienti filo-iraniani per raccontare il conflitto in Medio Oriente, la comunicazione politica contemporanea sta attraversando una trasformazione profonda. È un fenomeno che studiosi e analisti hanno chiamato “slopaganda”, una forma di propaganda a bassa qualità, spesso generata con l’intelligenza artificiale (AI), progettata per saturare gli spazi informativi digitali più che per convincere attraverso argomentazioni chiare e concrete.

Il termine nasce dalla fusione tra “slop”, ovvero contenuto scadente, ripetitivo, prodotto in serie, e “propaganda”, intesa come comunicazione finalizzata a orientare opinioni e comportamenti. La combinazione descrive con efficacia un ecosistema in cui: la quantità prevale sulla qualità e l’impatto emotivo sostituisce la verifica dei fatti. Non si tratta più, dunque, di persuadere nel senso classico del termine, ma di occupare l’attenzione, di trattenerla e operare in profondità su di essa (dopo esposizione massiccia del soggetto). Spesso questo accade anche sfruttando l’attualità più drammatica, come la guerra. Diffondere un flusso di contenuti volutamente grotteschi sul conflitto in corso in Iran o in Ucraina, o su Gaza, deresponsabilizza l’opinione pubblica e chi fa stragi, disumanizza la sofferenza, crea distanza e superficialità sul giudizio. Un video divertente sulla guerra trasforma l’orrore in un gioco, le vittime in attori, il dolore in intrattenimento.

[embedded content]

Tradurre messaggi complessi e conflitti politici in codici visivi più semplici e familiari

Negli Stati Uniti questo modello comunicativo ha trovato una delle sue espressioni più visibili durante la campagna elettorale del 2024, hanno spiegato Mark Alfano, professore di Filosofia alla Macquarie University, e Michał Klincewicz, Assistant Professor al Department of Computational Cognitive Science della Tilburg University, in un articolo su The Conversation. Attorno alla figura di Donald Trump si è sviluppata una produzione massiccia di contenuti visivi e video brevi, spesso volutamente grotteschi o surreali: immagini generate dall’AI che lo raffigurano come un Papa, un guerriero o una figura quasi messianica, clip dal tono ironico o provocatorio pensate per diventare virali sulle piattaforme come TikTok e X. Il punto non è la credibilità del singolo contenuto (spesso evidentemente fittizio) ma la sua capacità di circolare, accumulare interazioni e contribuire a costruire un immaginario.

In parallelo, anche attori statali e para-statali hanno affinato l’uso di queste tecniche. Nel contesto del confronto tra Stati Uniti e Iran, ad esempio, ha raccontato Josephine Walker su Axios, sono circolati video che mescolano immagini reali di operazioni militari con sequenze tratte da videogiochi o serie televisive, mentre dall’altra parte si è assistito a una proliferazione di contenuti AI (inclusi i citati video in stile LEGO) utilizzati per semplificare e rendere immediatamente riconoscibili messaggi politici complessi. L’uso di “estetiche pop occidentali” non è casuale: serve a intercettare pubblici più ampi e meno politicizzati, traducendo il conflitto in codici visivi familiari.

[embedded content]

Come funziona la slopaganda

La slopaganda funziona attraverso una combinazione di produzione automatizzata, logiche algoritmiche e leve psicologiche. Grazie all’intelligenza artificiale è possibile generare in tempi rapidissimi grandi quantità di contenuti (immagini, video, meme, testi) che ripropongono lo stesso messaggio in forme leggermente diverse.

Queste varianti vengono diffuse sui social e “testate” in tempo reale: quelle che ottengono più reazioni, condivisioni o commenti vengono ulteriormente amplificate, mentre le altre vengono scartate. Il sistema si adatta così continuamente alle preferenze del pubblico, creando contenuti sempre più efficaci nel catturare attenzione.

Allo stesso tempo, i messaggi sono spesso costruiti per attivare emozioni forti (paura, rabbia, indignazione) e per essere facilmente riconoscibili e condivisibili anche senza un’analisi approfondita. Il risultato è una saturazione dello spazio informativo: l’utente non viene persuaso da un singolo contenuto, ma esposto a una moltiplicazione continua dello stesso schema narrativo, che finisce per influenzare percezioni e opinioni in modo graduale e spesso inconsapevole.

L’evoluzione dell’economia dell’attenzione

Fenomeni analoghi si osservano anche in Europa, sebbene con forme più frammentate. In diversi Paesi dell’Unione sono state individuate reti di account semi-automatizzati che diffondono contenuti quasi identici, adattati linguisticamente e culturalmente ai diversi contesti nazionali. Meme su immigrazione, sicurezza o costo della vita vengono replicati con minime variazioni grafiche e testuali, spesso generati o rielaborati con strumenti di intelligenza artificiale. In Italia, come in altri Stati membri, questi contenuti tendono a mescolare riferimenti locali con modelli narrativi importati, creando un ibrido che appare autentico ma è in realtà parte di una produzione seriale.

Il funzionamento della slopaganda è strettamente legato all’economia dell’attenzione che governa le piattaforme digitali. Gli algoritmi privilegiano ciò che genera reazioni rapide (indignazione, sorpresa, paura) e l’intelligenza artificiale consente di produrre in tempi rapidissimi migliaia di varianti dello stesso messaggio.

Queste vengono testate, amplificate e replicate automaticamente, in un processo continuo di ottimizzazione. Il risultato è una comunicazione iper-adattiva, capace di raggiungere nicchie specifiche di pubblico con contenuti calibrati sui loro interessi e predisposizioni emotive.

È proprio qui che emerge la principale criticità democratica. La slopaganda non mira necessariamente a far credere a una falsità precisa, ma a modificare l’ambiente informativo nel suo complesso. L’effetto cumulativo è una saturazione che rende difficile distinguere tra informazione affidabile e rumore, tra contenuti autentici e manipolati. In questo contesto, anche materiale veritiero rischia di essere percepito come sospetto, contribuendo a un progressivo indebolimento della fiducia nei confronti di media, istituzioni e fonti autorevoli.

E poi c’è l’AI slop

Accanto alla slopaganda, si sta diffondendo un fenomeno più ampio e pervasivo: l’AI slop, ovvero una massa crescente di contenuti generati automaticamente (articoli, video, musica, immagini) prodotti senza reale controllo qualitativo e spesso privi di valore informativo.

Come ha spiegato su The Conversation, Adam Nemeroff, vice rettore della Quinnipiac University, non sempre questi contenuti nascono con un intento politico esplicito, ma contribuiscono comunque a degradare l’ecosistema informativo. La loro funzione principale è sfruttare le logiche di monetizzazione delle piattaforme e attirare traffico, anche a costo di essere ridondanti, imprecisi o fuorvianti.

In questo senso, l’AI slop rappresenta il terreno su cui la slopaganda attecchisce e prospera: un ambiente saturo di materiali indistinti, in cui diventa sempre più difficile per l’utente medio distinguere tra contenuti affidabili, intrattenimento artificiale e messaggi manipolatori. Il rischio è che la quantità finisca per soffocare la qualità, con effetti non solo economici per i creatori di contenuti, ma anche cognitivi e culturali per l’intera società digitale.

L’effetto ansia e polarizzazione

Un ulteriore elemento di rischio riguarda la dimensione emotiva. La reiterazione di messaggi allarmistici o polarizzanti (spesso costruiti attorno a figure nemiche o a scenari di crisi permanente) alimenta un clima di ansia e conflitto. La semplificazione estrema, tipica della slopaganda, riduce la complessità dei fenomeni politici a narrazioni binarie, favorendo la contrapposizione piuttosto che il confronto.

Riconoscere questi contenuti non è sempre immediato, ma alcuni segnali ricorrono con frequenza. L’estetica eccessivamente patinata o, al contrario, volutamente “glitchata” (cioè trasformare ‘l’errore’ in una scelta volontaria, in una specie di marchio di fabbrica), la ripetizione ossessiva di uno stesso messaggio declinato in molte varianti, l’uso di immagini surreali o simboliche prive di contesto verificabile, così come la diffusione simultanea da parte di numerosi account con caratteristiche simili, rappresentano indizi utili. A ciò si aggiunge la tendenza a privilegiare titoli sensazionalistici e a evitare qualsiasi riferimento a fonti verificabili.

La diffusione della slopaganda pone dunque una sfida che va oltre il tema, già noto, delle fake news. Si tratta di una trasformazione strutturale della comunicazione pubblica, in cui la velocità, la replicabilità e la capacità di catturare attenzione diventano più rilevanti della veridicità. In un sistema democratico fondato sulla possibilità per i cittadini di accedere a informazioni affidabili e di formarsi opinioni consapevoli, questo slittamento rischia di compromettere uno degli elementi essenziali del processo decisionale collettivo.

[embedded content]

Il fast-food dell’informazione politica: rapida, saporita e dannosa per la salute della democrazia

La “fast-foodizzazione” dell’informazione politica, per riprendere una metafora sempre più utilizzata, produce contenuti facili da consumare ma poveri di sostanza. E come nel caso dell’alimentazione, un consumo prolungato di questo tipo di prodotti rischia di avere effetti sistemici.

Come il cibo spazzatura, la slopaganda privilegia impatto immediato (immagini forti, meme elettrizzanti, frasi shock) rispetto a sostanza, contesto e verificabilità; serve a essere digerita in fretta e condivisa, non meditata.

La continua esposizione a messaggi emotivi, ripetitivi e parziali indebolisce la capacità critica dei cittadini: aumenta sfiducia nelle istituzioni, moltiplica polarizzazione e rende più difficile distinguere informazione affidabile da rumore artificiale. In un contesto di confusione informativa diffusa, la democrazia fatica a costruire consenso razionale, lungimirante e condiviso; le decisioni politiche e di voto tendono a basarsi su paura, rabbia e identità, più che su argomenti ponderati.

La questione, ormai, non è più se la slopaganda influenzerà il dibattito pubblico, ma in quale misura le democrazie saranno in grado di adattarsi (ce la faranno?) a un ambiente informativo sempre più saturo, frammentato e, soprattutto, manipolabile.

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/slopaganda-che-cose-e-perche-punta-a-generare-paura-e-caos-tra-i-cittadini/570325/