ChatGPT 4 è diventato più intelligente? In realtà sbaglia e anche spesso

chat gpt 4 non è infallibile

La nuova versione di CahtGPT mira ad essere intelligente come un umano, ma i vecchi problemi del bot sono rimasti invariati

Da dicembre non si fa che parlare di ChatGPT. L’intelligenza artificiale in grado di emulare linguaggio e ragionamenti umani è sicuramente rimasta al centro dell’attenzione tra polemiche, paure e curiosità. Malgrado il sensazionalismo iniziale, però, i bot non è mai stato tanto perfetto da riuscire realmente ad emulare l’intelligenza umana.

Tanti, troppi errori e imprecisioni, frasi fatte ripetute continuamente, sbagli gravi su eventi e fatti storici del tutto inventati erano alcune delle caratteristiche che hanno reso ChatGPT ben poco affidabile.

Arriva ChatGPT-4

Le cose, però, stanno per cambiare. Negli ultimi giorni il bot è stato aggiornato ad una nuova versione, la quarta, che dovrebbe completamente rivoluzionare il suo modo di “pensare”. È un esperto di una serie di argomenti, in grado di stupire i medici con i suoi consigli medici. È in grado di descrivere immagini e si avvicina a raccontare barzellette quasi divertenti.

ChatGPT di OpenAi

Ma il nuovo sistema di intelligenza artificiale di cui si parla da tempo, il GPT-4, presenta ancora alcune stranezze e commette alcuni degli stessi errori abituali che hanno sconcertato i ricercatori quando è stato introdotto il chatbot ChatGPT.

Sebbene sia un ottimo esaminatore, il sistema – della start-up OpenAI di San Francisco – non è ancora in grado di eguagliare l’intelligenza umana.

Più preciso

Quando Chris Nicholson, esperto di IA e partner della società di venture capital Page One Ventures, ha usato GPT-4 in un recente pomeriggio, ha detto al bot di essere un madrelingua inglese senza alcuna conoscenza dello spagnolo.

Ha chiesto un programma che potesse insegnargli le basi e il bot gliene ha fornito uno dettagliato e ben organizzato. Ha anche fornito un’ampia gamma di tecniche per imparare e ricordare le parole spagnole (anche se non tutti i suoi suggerimenti sono andati a segno).

Dita di un robot che digitano su una tastiera

Nicholson ha chiesto un aiuto simile alla versione precedente di ChatGPT, che si basava su GPT-3.5, ma i suoi suggerimenti erano più generici e meno utili.

Quando Oren Etzioni, ricercatore e professore di IA, ha provato per la prima volta il nuovo bot, ha posto una domanda semplice: “Qual è la relazione tra Oren Etzioni ed Eli Etzioni?”. Il bot ha risposto correttamente.

Oren Etzioni ed Eli Etzioni sono padre e figlio. Oren Etzioni è un informatico e l’amministratore delegato dell’Allen Institute for Artificial Intelligence (AI2), mentre Eli Etzioni è un imprenditore.
La precedente versione di ChatGPT rispondeva sempre male a questa domanda. Il fatto che la risposta sia corretta indica che il nuovo chatbot ha una gamma più ampia di conoscenze.

Ma gli errori ci sono ancora

Il bot ha risposto: “Oren Etzioni è un informatico e il CEO dell’Allen Institute for Artificial Intelligence (AI2), mentre Eli Etzioni è un imprenditore”. La maggior parte di queste informazioni è esatta, ma il bot – il cui addestramento è stato completato in agosto – non si è reso conto che il dottor Etzioni si è recentemente dimesso dalla carica di amministratore delegato dell’Allen Institute.

Può analizzare immagini

Il GPT-4 ha una nuova capacità di rispondere alle immagini e al testo. Greg Brockman, presidente e cofondatore di OpenAI, ha dimostrato come il sistema sia in grado di descrivere un’immagine del telescopio spaziale Hubble con dettagli minuziosi. La descrizione è andata avanti per paragrafi.

Può anche rispondere a domande su un’immagine. Se si fornisce una fotografia dell’interno di un frigorifero, il sistema può suggerire alcuni piatti da preparare con ciò che si ha a disposizione.

Ed è anche un medico

Anil Gehi, professore associato di medicina e cardiologo presso l’Università della Carolina del Nord a Chapel Hill, ha descritto al chatbot la storia medica di un paziente che aveva visitato il giorno prima, comprese le complicazioni che il paziente ha avuto dopo il ricovero in ospedale. La descrizione conteneva diversi termini medici che i non addetti ai lavori non avrebbero riconosciuto.

Un medico

Quando il dottor Gehi ha chiesto come avrebbe dovuto trattare il paziente, il chatbot gli ha dato la risposta perfetta. “È esattamente il modo in cui abbiamo trattato il paziente”, ha detto.

Quando ha provato altri scenari, il bot ha dato risposte altrettanto convincenti.

Ma restano le allucinazioni

Il nuovo bot continua a inventare cose. Questo problema, chiamato “allucinazione”, affligge tutti i principali chatbot. Poiché i sistemi non sono in grado di capire cosa sia vero e cosa no, possono generare testi completamente falsi.

Quando gli è stato chiesto di fornire gli indirizzi di siti web che descrivevano le ultime ricerche sul cancro, a volte ha generato indirizzi internet che non esistevano.