Doveva essere più intelligente di noi e invece pare che l’Intelligenza Artificiale stia già rincretinendo. Ecco cosa sta emergendo dalle interazioni.
Ci sono tante società, un numero crescente, che stanno tentando in ogni modo di sostituire i propri lavoratori umani con le Intelligenze Artificiali o, quanto meno, di far sì che questi lavoratori umani siano più produttivi grazie ai loro compagni sempre presenti e sempre all’erta.
Ma un nuovo studio forse può da subito porre un freno a questa follia. Cominciano infatti ad emergere le prove scientifiche di come il modo in cui le Intelligenze Artificiali vengono addestrate può influire pesantemente sul loro output.
Oltre quindi alle allucinazioni, che secondo altri studi di altri esperti non sono qualcosa da cui potremo sfuggire, c’è ora anche la questione legata al fatto che se le Intelligenze Artificiali hanno nel loro dataset contenuti di bassa qualità, le loro capacità di rimescolamento ne risentono. Riprova che non si può fare tutto con un’Intelligenza Artificiale.
Anche le Intelligenze Artificiali impazziscono con i contenuti spazzatura
Quando ci viene detto di evitare di stare troppo tempo a guardare ciò che c’è sui social perché sono contenitori di quello che c’è di più infimo nell’animo umano e magari di leggere qualcosa di diverso, è perché alcune tipologie di contenuti sono, come cibo spazzatura, poco utili a livello cerebrale. Secondo un nuovo studio, anche i modelli delle Intelligenze Artificiali, se vengono addestrate con informazioni e testi di scarsa qualità, rischiano di produrre poi contenuti che sono di scarsa qualità.

Lo studio è stato pubblicato online ed è stato condotto da un gruppo di ricercatori della Purdue University, della University of Texas di Austin e della Texas A&M University. Il gruppo di ricercatori ha voluto mettere alla prova l’ipotesi del cosiddetto “LLM brain rot“. Si tratta della teoria secondo cui i Modelli Linguistici di Grande Dimensione (LLM), se vengono esposti in maniera continuativa a testi assimilabili al junk food, sperimentano un declino cognitivo. Gli esperimenti sono stati condotti con 4 LLM.
Ciò che è particolarmente interessante è che anche nel momento in cui, sempre nell’ambiente del test, è stato progressivamente reintrodotto un materiale considerato di qualità superiore, c’è stato solo un miglioramento minimo.
Dato ciò che è emerso da questo studio, viene da chiedersi che cosa potrebbe succedere tra un po’ se tutti i contenuti che si trovano online venissero costruiti dalle Intelligenze Artificiali che potrebbero così trovarsi a nutrirsi di quello che hanno già prodotto come risultato di un riciclo continuo.
Un altro elemento importante è proprio ciò che può succedere nel caso in cui le Intelligenze Artificiali venissero alimentate da quello che c’è sui social.
La rappresentazione forse più diretta e senza filtri di quello che è in grado di pensare, o di non pensare, un essere umano e che quindi potrebbe essere in realtà scambiato per materiale di primaria importanza quando invece, e questo studio lo dimostra ampiamente, è qualcosa da cui anche i cervelli cibernetici dovrebbero tenersi alla larga.
