
L’Autorità Garante della Concorrenza e del Mercato (AGCM) ha avviato un’indagine conoscitiva sul Quantum Computing, in particolare sul ruolo che i grandi hyperscalers americani hanno nello sviluppo di un mercato ancora in nuce ma che promette di essere il prossimo grande passaggio nodale tecnologico, dopo l’Intelligenza Artificiale. Si tratta della prima indagine di questo genere a livello globale sul Quantum, la tecnologia computazionale del futuro.
L’obiettivo dell’Autorità è garantire uno sviluppo armonico e aperto del Quantum Computing, un mercato sul quale l’Italia punta molto come dimostra la strategia italiana varata lo scorso anno. L’indagine si chiuderà il 31 dicembre.
Quantum Computing fra le tecnologie abilitanti
“Il QC consente di raggiungere capacità di calcolo superiori a quelle dei computer tradizionali in maniera letteralmente esponenziale (c.d. supremazia quantistica). Per tale motivo, il QC viene ricompreso tra le c.d. tecnologie “abilitanti” (talvolta indicate tramite l’acronimo “KETs”, da “Key Enabling Technologies”), con potenziali effetti dirompenti su settori e attività ad alta intensità computazionale. Del QC si parla anche come di “Deep Tech”, trattandosi cioè di una tecnologia fondata su avanzamenti scientifici o ingegneristici profondi e con cicli di maturazione più lenti, cui si associa un potenziale impatto trasformativo”, si legge nel provvedimento pubblicato oggi nel bollettino dell’Autorità.
Valore del mercato
“Il mercato delle tecnologie quantistiche riconducibili al QC sta attraversando una fase di grande espansione, con notevoli aspettative di crescita: secondo stime recenti, il fatturato globale delle attività di QC è già superiore a 1 miliardo di dollari, con una proiezione di valore complessivo superiore a 100 miliardi di dollari entro il 2040”, si legge ancora nel documento.
Il ruolo degli hyperscaler nello sviluppo del Quantum
“Tra i protagonisti attuali della “corsa” al QC rientrano i principali “Hyperscaler””, si legge ancora. “Si tratta di operatori tecnologici che gestiscono infrastrutture Cloud e Data Center progettati per scalabilità massiva e crescita rapida, con architetture altamente automatizzate e distribuite globalmente per sostenere l’erogazione di servizi a platee di utenti su scala mondiale, a cui si suole pertanto associare l’acronimo “IaaS” (da “Infrastructure as a Service”). Oltre alla ristretta cerchia di Hyperscaler corrispondenti ai grandi attori dell’Hi-Tech globale, si collocano una serie di imprese più specializzate, talvolta ancora allo stadio di Start-Up, spesso focalizzate sullo sviluppo di applicazioni settoriali del QC”.
Pochi attori dominanti
“La natura stessa della tecnologia in discorso, che richiede investimenti massicci in ricerca e sviluppo e infrastrutture fisiche uniche, presentandosi così particolarmente soggetta a problematiche di barriere all’ingresso, favorisce l’emergere di pochi attori dominanti. Posto che l’acquisizione di potere di mercato non è da ritenersi di per sé un elemento negativo, l’osservazione – per quanto possibile – delle strategie dei principali operatori generalisti induce nondimeno a ipotizzare un ruolo critico di Gatekeeping in capo a tali soggetti, sulla base delle caratteristiche del complesso dei servizi tecnologici attuali, e soprattutto delle modalità di fornitura di questi”, prosegue la nota.
Hyperscaler già dominati nel Cloud. Rischio gatekeeping e lock in?
“Nello specifico, traspare una tendenza degli Hyperscaler a operare come intermediari privilegiati per l’accesso alla potenza di calcolo quantistica da parte dei soggetti interessati, fornendola come servizio a partire dai rispettivi servizi di Cloud. L’orizzonte privilegiato da tali operatori, insomma, pare essere quello di un “Quantum-as-a-Service”, dove posizioni dominanti nell’ambito dell’IaaS potrebbero trovare un’agevole replicazione anche per i diversi servizi di volta in volta forniti, incluso, per quanto qui interessa, il QC”.
Rischio vendor lock-in
“Se, da un lato, questo processo potrebbe in astratto facilitare la diffusione della nuova tecnologia, abbassando i costi di accesso per un’utenza media liberata dalla necessità di sviluppare infrastrutture proprietarie per l’impiego del QC, dall’altro sono evidenti i rischi di “Lock-In” di tipo sia tecnologico che contrattuale, in particolare in una conformazione di “Vendor Lock-In” dove pochi fornitori di servizi, attivi su scala globale, facendo leva sulla rispettiva preminenza nel Cloud potrebbero catturare platee potenzialmente molto ampie di utenze, sia consumatori che imprese”, si legge ancora.
Apertura del mercato
A spingere l’AGCM ad avviare questa indagine è la volontà di verificare l’apertura del mercato in un contesto fortemente concentrato, dove alcuni grandi player come Meta, Google, Amazon ma anche IBM (grande investitore nel mercato del quantum da diversi anni) hanno annunciato investimenti plurimiliardari in Quantum Computing accompagnati alla presenza massiccia nel Cloud.
Le motivazioni
Il tutto mentre questi stessi player hanno un ruolo di punta anche in altri mercati contigui del Tech, a partire dal Cloud, dove AWS (Amazon Web Services), Meta, Google e Microsoft di fatto controllano il mercato globale, lasciando soltanto le briciole ai competitor.
C’è da dire che l’indagine conoscitiva dell’Antitrust ha un valore eminentemente di studio, conoscitivo appunto, e che sulla base dei risultati potrà o meno sfociare in ulteriori provvedimenti che al momento non sono sul tavolo.
Mossa preventiva dell’Autorità italiana
La mossa dell’Autorità di Piazza Verdi è per così dire preventiva. L’obiettivo è definire il mercato del Quantum computing in tempi stretti, in modo da evitare il rischio di comportamenti restrittivi della concorrenza o di potenziale concorrenza sleale e monopolio da parte dei grandi Hyperscalers.
E’ quanto emerge dal provvedimento annunciato nell’ultimo bollettino dell’Antitrust, appena pubblicato sul sito dell’Autorità.
Contributi entro il 30 aprile
“Nell’ambito dell’indagine, entro il 30 aprile 2026, sarà possibile far pervenire da parte di ogni soggetto interessato contributi sui temi di cui ai precedenti paragrafi, in italiano o inglese. In particolare, sono sollecitati contributi relativi, anche in maniera disgiunta, a (i) strutture dei mercati esistenti e attese (es. rispetto a distinzione/interrelazione tra hardware e software quantistici, servizi cloud e “Quantum-as-a-Service”, applicazioni verticali); (ii) dinamiche concorrenziali esistenti e attese (es. rispetto a Leadership tecnologica e “FirstMover Advantage””.
Rischio assorbimento del Quantum come complemento del Cloud
rischi di assorbimento del Quantum Computing come modulo complementare in grandi ecosistemi Cloud già dominanti); (iii) rilievo esistente e atteso dei diritti di proprietà intellettuale; (iv) strategie già osservabili di acquisizione e consolidamento, con particolare riferimento all’assorbimento di Start-Up, nonché ruolo attuale e atteso di sviluppo sorretto da azioni di Venture Capital; (v) profili di dipendenza strategica (es. rispetto ad accesso a Hardware e servizi quantistici critici, Lock-In tecnologico-commerciali e standard proprietari, effetti su sicurezza, resilienza e “sovranità tecnologica”)”, si legge ancora.
Leggi le altre notizie sull’home page di Key4biz
https://www.key4biz.it/quantum-computing-lantitrust-avvia-indagine-conoscitiva-sul-ruolo-degli-hyperscaler/568544/

