ChatGPT è la grande rivoluzione del nostro tempo. Non si deve più pensare. Ma dopo questo annuncio forse sarai meno entusiasta di affidare tutto a una IA.
Ormai parliamo con regolarità di quello che succede nel campo delle intelligenze artificiali. In particolare del fatto che le società che hanno creato le IA continuano a produrre aggiornamenti e continuano a cercare di raccogliere fondi per proseguire nello sviluppo.
All’inizio sembrava ci fossero dei problemi ma ora pare che si possa vivere semplicemente scrivendo dei prompt o addirittura chiedendo a un’intelligenza artificiale di scrivere un prompt da utilizzare poi all’interno di un’altra intelligenza artificiale.
Ma un nuovo studio, ironia della sorte prodotto dagli stessi ricercatori che stanno lavorando su ChatGPT, ci rivela che c’è un problema di fondo che dovrebbe farci aprire gli occhi e rimettere gli strumenti di intelligenza artificiale nella giusta prospettiva.
Soprattutto ora che tra gli utenti più entusiasti delle IA cominciano ad esserci istituzioni nazionali che decidono della vita delle persone.
Sei sicuro sicuro di poterti fidare di quello che ti dice ChatGPT?
La questione di fondo è che, in una mossa di marketing senza precedenti, le società che hanno iniziato a lavorare a questi strumenti probabilistici avanzati hanno deciso di chiamare questi stessi strumenti intelligenze artificiali, lasciando così trasparire l’idea che si tratti di qualcosa che assomiglia a noi anche se non è naturale.

E tanti si sono convinti proprio che si possa vivere utilizzando questi stessi strumenti al posto di collaboratori umani, impiegati, esperti di vario tipo.
Fin dall’inizio, però, è apparso chiaro che nelle risposte di tutte le intelligenze artificiali ogni tanto c’era qualcosa che non tornava.
Citazioni inesistenti, personaggi morti da tempo che sono stati resuscitati, errori di calcolo anche banali: le cosiddette allucinazioni.
Qualcosa che lavorando con degli esseri umani non succede. All’inizio le società hanno però sottolineato che tutto si sarebbe aggiustato con un training più serrato, sfruttando quindi ancora di più tutto ciò che è disponibile sulla rete in barba al copyright.
Ma adesso una nuova ricerca interna alla società che ci ha dato ChatGPT è arrivata a una conclusione che è insieme inevitabile, ironica e preoccupante. Inevitabile perché stiamo parlando comunque di strumenti che non sono in grado di pensare ma che semplicemente riconoscono dei pattern tra elementi e quei pattern ricostruiscono. Ironica perché tanti lo avevano già detto da subito.
E preoccupante proprio perché l’adozione degli strumenti di intelligenza artificiale sta prendendo piede in ambiti in cui l’errore non dovrebbe accadere: le intelligenze artificiali sono e saranno sempre condannate ad allucinare.
Non c’è modo di evitare che questo succeda e quindi ci sarà bisogno di un maggior controllo da parte di umani in grado di dialogare con questi sistemi. Proprio quello che avrebbe dovuto eliminare programmatori, artisti, tecnici. Sono come un perenne neonato che ha bisogno di cure.
E allora la domanda sorge spontanea: se le allucinazioni sono inevitabili, se quelli che un tempo si chiamavano bug non si possono cancellare, non sarebbe meglio evitare di utilizzare questi strumenti?
