AI, uno strumento per creare contenuti di cui non abbiamo bisogno

  ICT, Rassegna Stampa
image_pdfimage_print

All’OpenAI Spring Update, il CTO di OpenAI, Mira Murati ha presentato GPT-4o, un nuovo modello AI che arricchisce la suite con funzionalità “omni” per testo, visione e audio. Murati ha promesso implementazioni iterative per migliorare sia i prodotti per sviluppatori che quelli per i consumatori nei prossimi mesi.

Durante la dimostrazione delle capacità di traduzione in tempo reale di GPT-4o, il modello ha tradotto perfettamente dall’inglese all’italiano, dimostrando la sua sofisticata adattabilità linguistica. Molti credono che questa nuova funzionalità sostituirà Google Traduttore. Probabilmente, si tratta della prima volta in cui un prodotto di OpenAI è realmente utile.

Cerchiamo di spiegarci: la realizzazione di immagini partendo da prompt testuali è qualcosa di molto bello, un effetto wow che abbiamo imparato a gestire nel tempo ma che non porta ad un incremento della produttività sul lungo periodo. Per come sono stati pensati attualmente, i modelli di intelligenza artificiale sono troppo approssimativi per permettere di affidarci totalmente ad essi. Un esempio è Copilot, che su GPT ha fatto la sua fortuna.

Se chiedo di creare un articolo basato su qualche nozione generale, il più delle volte ottengo “allucinazioni” evidenti o sottili, che richiedono di fare un doppio controllo sul contenuto prodotto. DI fatto, l’AI non ci sta rubando il posto di lavoro ma sta solo rendendoci più lenti nel compiere alcune operazioni. Non è tutto negativo: se butto dentro Copilot un testo già scritto e chiedo di darmi un titolo, lui lo fa e anche con varie alternative. Tutto questo può giustificare il clamore degli ultimi mesi? Direi di no. L’AI è uno strumento, non un creatore. Come ogni tool, può essere utilizzato per il bene o per il male ma c’è il rischio di avere una sovrabbondanza di contenuti, non tutti di alta qualità o di reale valore per gli utenti.

Immagini? Più scarabocchi

Tutti gli attuali generatori di grafiche non possono tenere il passo con il più scarso dei creativi al mondo. Numeri sbagliato di dita nelle mani delle persone, occhi disallineati, testi e brand con errori di ortografia e molto altro: ancora una volta, l’AI può darci uno spunto per un lavoro, non eseguirlo del tutto. Non a caso, Adobe nell’aggiornare il suo modello Firefly ha detto che la parte più difficile è stata il dover migliorare la resa finale delle lettere che le persone vogliono far comparire nell’immagine. Se “Digital4Biz” diventa, per l’AI, “Dxgadl4iSpritz” forse abbiamo un problema. O semplicemente bisogna riconoscere i limiti di una tecnologia che non è per nulla gratis, non per il mondo.

Il consumo energetico dell’intelligenza artificiale è un tema complesso e in evoluzione. In generale, si stima che il settore dell’AI potrebbe consumare tra gli 85 e 134 terawattora (TWh) di energia all’anno entro il 2027. Per fare un paragone, la cifra equivale al consumo energetico annuo dell’Argentina o dei Paesi Bassi. I processi di addestramento dei modelli di intelligenza artificiale possono richiedere enormi quantità di calcolo, che a loro volta si traducono in un alto consumo energetico.

Non è tutto cloud

L’esecuzione di sistemi AI, come quelli utilizzati per il riconoscimento facciale o la traduzione automatica, richiedono anch’essa energia. I data center che ospitano i sistemi AI consumano molta corrente per il funzionamento dei server, il raffreddamento e la sicurezza. Tuttavia, è importante sottolineare che l’impatto ambientale dell’AI non si limita al consumo energetico. L’estrazione e la lavorazione dei materiali per la produzione di hardware possono avere un impatto significativo sull’ambiente, così come lo smaltimento dei rifiuti elettronici.

E la questione del consumo non si riduce solo al cloud. La prossima sfida dell’intelligenza artificiale sembra essere quella di portare tutta la capacità di calcolo e “inferenza” (trovare le correlazioni tra elementi) all’interno del dispositivo, che sia un computer o uno smartphone. Il risultato? Semiconduttori più performanti, schede grafiche più potenti e, a conti fatti, un drenaggio più veloce della batteria. L’innovazione nel campo delle nanotecnologie è evidente ma non tale da spostare avanti un’era del computing, fortemente permeata di AI, tenendo i consumi in linea con quelli di oggi.

Si va per casi d’uso

Parlando di un utilizzo professionale, per PMI e compartimenti più grandi, l’AI ha il vantaggio di poter leggere in una mole di dati in pochi secondi, individuando errori, collegamenti, spunti che all’occhio di una persona potrebbero sfuggire o richiedere ore e ore di lavoro, se non giorni. Circoscrivere l’addestramento di un LLM al tenant di un’organizzazione, al suo database informativo, è un caso d’uso di successo. Non sembrerà strano che la monetizzazione di Microsoft, in relazione a Copilot, arrivi proprio da una declinazione “pro” del suo chatbot. Supporto nella creazione di slide, riassunto delle email, sintesi di ciò che si è detto in un meeting, è parte valore che Redmond attribuisce alla sua iniziativa. Quando l’AI deve interpretare, analizzare, correlare, dati in un ambiente delimitato, dà il meglio di sé. Quando si ritrova dinanzi all’immenso universo del web, può perdersi. Ma in quello, siamo bravi anche noi. Altroché.

https://www.key4biz.it/ai-uno-strumento-per-creare-contenuti-di-cui-non-abbiamo-bisogno/491492/