AI, bolla scoppiata o metodo sbagliato da silos vs formicaio?

  ICT, Rassegna Stampa
image_pdfimage_print

OpenAI “battuta” nei primi test dalla cinese DeepSeek (una start up leggera ma densa di ingegneri e di idee aperte sulla frontiera tecnologica dell’AI). Le borse occidentali tremano e intanto gli investitori si alleggeriscono e vendono i titoli tecnologici. Nvidia in primo luogo che perde in un solo giorno (27/2) il 16,45% e così Oracle con un – 12,41% e giù fino a Microsoft e Siemens con -4 % e -3%.

Una traiettoria che ha poi trascinato nelle vendite l’intera filiera dei semiconduttori. Mentre rimanevano in “galleggiamento” le corporation non ancora esposte sull’AI (come Apple o Meta). Intanto va detto che trovandoci in una “fase fluida” di sviluppo dell’AI la corsa ai mega investimenti degli ultimi 24 mesi non ha pagato come atteso anche perché fortemente concentrato in pochi silos globali USA.

L’80% dell’investimento occidentale è stato concentrato nelle prime 7 corporation dell”high tech USA che ne hanno “gonfiato” i valori borsistici all’eccesso, penalizzando i “ritardatari”, per es. Microsoft con OpenAI e Oracle su Alphabet-Google e Meta. Una marea fluviale di capitali esondanti che ha solo provocato sprechi e rendite con un lassismo improduttivo per densità e profondità di R&D. Poi quotazioni fatte risalire dall’annuncio trumpiano del mega progetto StarGate da 500 mil.di di dollari (con SoftBank giapponese e Open AI, Oracle, Microsoft, Arm Holdings e Nvidia stessa) nonostante un “appiattimento” delle performance percepite.

Un dato che, in primo luogo, ci segnala che siamo ancora davanti ad una macchina USA tutta chiusa entro “mura proprietarie” con pochissimi vincoli istituzionali e molta deregulation che hanno favorito un “modello centripeto” e focalizzato su poche opzioni tecnologiche ritenute (sbagliando) dominanti e incanalate da un tecno-conformismo sorprendentemente orientato in poche direzioni e schiacciato in pochi silos convergenti e/o paralleli.

Dimostrando, in secondo luogo, che in questa fase non è forse tanto la potenza del chip da 100 trilioni di parametri come per GPT-4, ma le sue qualità e cioè per rispondere alla domanda: per farci cosa, come, con chi e verso dove? Mentre l’investimento cinese (nonostante le sanzioni Occidentali) è rimasto aperto e distribuito in centinaia se non migliaia di start up innovative interconnesse con le migliori università e con una struttura più adattativa ai cambiamenti emergenti imposti dalla “fase fluida” in un modello che potremmo definire del “formicaio” (centrifugo e multi-locale) che seppure con un livello di investimento “razionato” (10 volte inferiore a quello “a stelle e strisce”) si è rivelato dunque anche meno rischioso per traiettoria e diffusione. Tanto che DeepSeek V3 (LLM modello linguistico di grandi dimensioni) liberato a dicembre è “solo” da 67 mil.di di parametri ma realizzato appunto con soli 6 milioni di dollari raddoppiando la capacità di Open AI -03.

Un risparmio di costi enorme con una formidabile performance applicativa di costo-opportunità. Dovuta – potremmo dire – in terzo luogo, al modello open source su cui DeepSeek è incardinato come una sorta di “formicaio intelligente”. Riuscendo a gemmare nella “rete di formicai distribuiti” qualità tecnologiche alternative a ChatGPT di Open AI (in tempi più rapidi e con molte meno risorse), ossia attorno ad un modello di reasoning più intelligente e – possiamo dire – più adattativo.

Cioè capace di trasferire tali qualità tecnologiche dai dati dell’originario apprendimento/addestramento a modelli più piccoli per “distillazione“, appunto più adattativa-adesiva ai contesti applicativi manifatturieri e di servizio. Ossia sviluppando piccoli motori R1 più leggeri e snelli per essere addestrati in modo distribuito e su macchine meno potenti (da 1,5 miliardi di parametri a 70 mil.di di parametri). Insomma, si è capito che lavorando su motori di addestramento più “modulari” e capaci di adattarsi a contesti applicativi differenziati e con macchine meno potenti lo sforzo si stava rivelando più produttivo e performante.

Realizzando così chatbot leggeri per analizzare data-science e database o spingere automazioni dei processi organizzativi e aziendali in locale e non dovendo ricorrere a costosi servizi in cloud, con procedure più veloci, customizzate e meno costose proprio perché open source. Unendo il locale a specializzazioni algoritmiche in un a-priori di contesti diffusi e differenziati. Infatti i “modelli leggeri” alternativi di Microsoft o di Google da Phi-3 a 01-Mini di Open AI come pacchetti close source funzionano ma si rivelano più rigidi e certo più costosi anche perché caricati nel global cloud.

Dunque, potremmo dire che è il “modello di popolazione in locale” che ha funzionato meglio in chiave open source rispetto a modelli proprietari concentrati e rigidamente closed source caricati in cloud. Ora Alibaba annuncia  un suo modello Qwen 2.5Max che dice “superiore” a DeepSeek-V3 e Llama-3.1-405B con taglio prezzi del 97% e la corsa prosegue con estrema velocità adattativa e che va sottolineata. Per segnalare che in questa fase fluida di una frontiera tecnologica estremamente mobile è allora il primo modello “formicaio” di sviluppo che sembra prevalere sul secondo del silos come era prevedibile avendo avuto una storia precedente che già con il web e con i social ci aveva dato chiare indicazioni su tipologia e modello di sostegno.

Anche in Europa dovremmo allora riflettere a fondo sulle policy di AI sia in relazione all’architettura degli incentivi e sia sulle modalità distributive per evitare gli errori del passato e le trappole “proprietarie” del paradigma americano di crescita e diffusione di queste tecnologie. Soprattutto facendo attenzione agli eccessi di concentrazione e alla eccessiva riduzione dei portafogli nelle traiettorie di crescita e di sviluppo qualitativo, come nell’apporto delle interazioni asimmetriche tra technology push e demand pull.

Magari studiando più in dettaglio il modello organizzativo di DeepSeek (e ora anche Qwen2.5Max) con le specificità della filosofia open source (e prezzi sotto il dollaro) trasferendo gli insegnamenti in un AI Act più appropriato e adesivo alle realtà manifatturiere e di servizio europee traguardando alle “popolazioni locali” di questi sviluppatori e agli user dall’altra (e loro dinamiche) accoppiando modelli proprietari e non proprietari. Perché qui sta il segreto profondo dell’accelerazione cinese?

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/ai-bolla-scoppiata-o-metodo-sbagliato-da-silos-vs-formicaio/519573/