ChatGPT, i tre grossi problemi dell’intelligenza artificiale

Come ben sai, cerco di provare ogni strumento di AI che esce e spesso ne sono entusiasta, perchè ne vedo le potenzialità!

Tuttavia oggi voglio parlarti di 3 problemi che vedo nei modelli AI generativi come GPT o Gemini

🔴 Allucinazioni 🔴

Il primo grosso problema dell’AI generativa è la sua limitata affidabilità “senza supervisione”.

La capacità di generare dati che non esistono (simili a quelli “che hanno visto”) porta questi modelli…

A inventare alcune risposte.

La probabilità che avvenga questo fenomeno, detto “allucinazione”, è proporzionale alla frequenza con cui il modello ha visto l’argomento durante l’addestramento.

Se gli chiedo “chiè Joe Biden?” è molto improbabile allucini, ma se gli chiedo “chi è Giacomo Ciarlini”…

La probabilità aumenta di molto.

Questo significa che bisogna SEMPRE controllare l’output dell’AI.

Al momento non vedo grosse soluzioni a livello architetturale, perchè i modelli di GenAI sono proprio pensati per “generare dati che non esistono”.

È la loro forza.

Yes, hallucinations are a feature, not a bug.

But an uncool feature sometimes.

🟣 Soluzione?

Quando fai una domanda fornisci sempre il contesto rilevante.

Un link di Wikipedia, un documento PDF, o un articolo.

Le allucinazioni sono praticamente assenti se si restringe il campo di risposta alla fonte fornita.

🔴 Calcoli matematici 🔴

Come sai, i modelli interpretano il testo in input come stringhe.

Quindi quando scrivi “2+2=” e l’AI risponde “4”, non ha fatto un calcolo, ma ha assegnato la più probabilità che la “prossima parola” sia la stringa “4”.

D’altra parte, sarebbe come voler usare una barca per andare in montagna.

Non ha senso.

🟣 Soluzione?

Quello che ha senso fare è chiedere al modello AI di scrivere il codice Python o la formula Excel che realizza il calcolo.

E poi eseguirla.

ChatGPT può anche eseguirla nel suo ambiente!

🔴 Ragionamento logico 🔴

I modelli AI, per loro natura possono “leggere solo in avanti” quando consumano un testo, e non possono “ragionare” come farebbe un umano.

Se ci pensi, davanti a un problema di fisica, tu lo leggi e lo rileggi varie volte, fai “avanti e indietro” sul testo del problema, re-interpretandolo varie volte.

🟣 Soluzione?

Scomponi il problema in sotto-parti, facilmente risolvibili dal modello.

Divide et Impera.

Inoltre, fai in modo di aiutarlo, usando la tua intelligenza, per interpretare i suoi risultati, e suggerendo gli step logici che non riesce a fare.

Otterrai risultati molto migliori 👀

Bene, spero tu abbia imparato cose nuove o ripassato le basi 🙂

E se ti interessa approfondire ho fatto un video che spiega PERCHÈ la GenAI ha questi limiti, oltre a darti qualche trick ulteriore 👀

Link al video, fammi sapere che ne pensi → https://lnkd.in/dqSfHQPE

Per altri contentui su AI seguimi, ne faccio uno al giorno ✌🏼

Leggi le altre notizie sull’home page di Key4biz

https://www.key4biz.it/chatgpt-i-tre-grossi-problemi-dellintelligenza-artificiale/496826/