Nemmeno il buon Steve Jobs avrebbe potuto riassumere così bene l’evoluzione di un prodotto o un servizio. È bastato aggiungere una “o” per sintetizzare il potenziale di GPT, e quindi di ChatGPT. Il LLM di OpenAI adesso è “omni”, ossia “tutto”. GPT-4o è un passo in avanti importante, se non fondamentale, nelle strategie non solo dello sviluppatore più cool del momento ma per tutta la comunità di appassionati di intelligenza artificiale. Un modo per anticipare quello che verrà poi, l’era dell’AGI, l’artificial general intelligence, che promette meraviglie. Si declinerà in GPT-5? Non lo sappiamo ma per adesso il balzo nella comprensione e restituzione di un contenuto da parte di un software è già arrivato a livelli umanamente accettabili, come dimostrano recenti ricerche del MIT.
Più veloce ed economico
Il modello aggiornato “è molto più veloce” e migliora “le funzionalità di testo, visione e audio”, ha affermato Mira Murati, CTO di OpenAI nella presentazione in diretta streaming. Sarà gratuito per tutti gli utenti free e a pagamento, che continueranno ad “avere fino a cinque volte i limiti di capacità” di chi usa ChatGPT senza sborsare un euro. In un post, OpenAI ricorda che le funzionalità di GPT-4o “saranno implementate in modo iterativo”, ma le sue funzionalità di testo e immagini sono già state integrate sin da subito in ChatGPT.
Il CEO di OpenAI, Sam Altman, ha sottolineato che il modello è “nativamente multimodale”, il che significa che può generare contenuti o comprendere comandi tramite voce, testo o immagini. Un concetto che è stato utilizzato qualche settimana fa anche da Meta per descrivere Meta AI a bordo degli ultimi modelli di Ray-Ban: un software che riesce a riconoscere ciò che si trova intorno per rispondere alle domande degli utenti, del tipo: “Di che monumento si tratta”?. Gli sviluppatori che vogliono armeggiare con GPT-4o avranno accesso all’API, che costa la metà ed è due volte più veloce di GPT-4 Turbo.
Arriva “Her”
Trasferendo le opportunità di “omni” su smartphone, la sensazione è quella di interagire con un assistente vocale in stile “Her”, dell’omonimo film di Spike Jonze. L’app potrà agire, rispondendo in tempo reale e osservando il mondo che ci circonda. Ciò va oltre l’attuale modalità vocale che è più limitata, risponde a un messaggio alla volta e funziona solo con la voce e non, ad esempio, tramite fotocamera e contenuti in upload. Gpt-4o permetterà inoltre a ChatGPT di riconoscere le emozioni nella voce dell’utente, generando in questo modo risposte con toni adeguati. In una demo, l’IA ha letto una storia per bimbi, cambiando tono e velocità a seconda dei vari passaggi narrativi.
L’AI Act cosa prevede in merito? Ad oggi, il divieto di carpire le emozioni solo sul luogo di lavoro e nell’ambito scolastico quindi niente che abbia a che fare con un uso “domestico” della tecnologia. Questa nuova funzionalità di GPT-4o sarà presto sotto la lente di ingrandimento del Garante Privacy italiano ed europeo?
Un aspetto importante, soprattutto per gli utenti al di fuori dagli Stati Uniti, è che Gpt-4o mostra un netto miglioramento rispetto a Gpt-4 Turbo nella gestione di testi in lingue diverse dall’inglese. Ecco qui sotto un esempio in italiano.
Business is business
Altman ha riflettuto sulla strategia di OpenAI successivamente all’evento live streaming di lancio di “omni”. Il manager ha confermato che la visione originale dell’azienda era quella di “creare un’AI generale che desse beneficio a più persone”, ora però la situazione è cambiata. Il punto focale sembra essersi spostato sul ritorno economico di un investimento che non è per niente banale. Non a caso, OpenAI è stata criticata per non rendere disponibili in open source i suoi modelli avanzati di intelligenza artificiale, puntando su API a pagamento e uno store di chatbot personalizzabili.
Prima di GPT-4o, alcune fonti americane parlavano della possibilità che la compagnia stesse preparando un motore di ricerca per rivaleggiare con Google. Niente di più sbagliato: nella corsa all’intelligenza artificiale, OpenAI guarda verso orizzonti più ampi. Ad ogni modo, “omni” è arrivato esattamente 24 ore prima della partenza della Google I/O 2024 di stasera, dove l’AI non sarà un ingrediente ma la pietanza principale di una ricca cena.
https://www.key4biz.it/openai-lancia-gpt-4-omni-il-chatbot-che-parla-come-una-persona-anche-in-italiano/490215/