Per tutti quelli che pensano che le IA siano come noi e che possano addirittura sostituirci al lavoro questo report è una ottima lettura: le IA friggono. E lo fanno più facilmente di quello che credereste.
Il fascino delle intelligenze artificiali è che sembrano in effetti comportarsi come noi. Sembrano per esempio essere in grado di ragionare e di produrre frasi di senso compiuto che si possono anche trasformare in testi.
Ma, vale la pena ricordarlo sempre, in realtà i modelli cosiddetti LLM non hanno nessun modo per ragionare e quello che producono è frutto di una serie di interruttori interni che sono gli stessi che tengono in piedi l’informatica da quando questa esiste.
La confezione in cui però questi calcoli di uno e di zero avvengono fanno in modo che pensiamo di avere di fronte qualcosa di simile a un essere umano.
Eppure, e un nuovo report lo dimostra, ci vuole davvero poco per trasformare qualunque tool di intelligenza artificiale in un oggetto inutile. Il che pone anche nuove domande riguardo la sicurezza di questo genere di software.
Quanto ci vuole a fare impazzire una intelligenza artificiale?
Avete mai provato a fare qualche domanda un po’ fuori dagli schemi a uno dei chatbot che sono adesso a disposizione? È molto probabile che per quanto vi siate impegnati avete sempre ricevuto una risposta e questa risposta è più o meno sempre sembrata logica.

Questo perché il database di informazioni e di testi da cui l’LLM prende i pezzi per confrontarli con quello che avete detto e darvi una risposta è un database immenso che, molto spesso, è anche popolato di documenti che erano protetti da copyright.
Ma tenendo da parte la questione etica dell’intelligenza artificiale che ancora non è stata risolta, c’è un altro problema. Anthropic ha infatti svolto un test insieme allo Alan Turing Institute e allo UK AI Security Institute e ha scoperto che in realtà per fare impazzire una intelligenza artificiale e produrre quindi testi che non hanno nessun senso bastano 250 documenti nel dataset con cui il training avviene. 250 documenti quindi sono sufficienti per modificare il comportamento di un LLM.
Questo è un numero veramente piccolissimo se lo si confronta con quello che è il numero dei documenti presenti nei database con cui sono state addestrate le intelligenze artificiali.
E in più è la dimostrazione che quello che tanti esperti pensavano fosse la verità, ovvero che per riuscire a mandare in crisi un LLM c’è bisogno che moltissimi dei dati utilizzati per addestrarlo siano fallati, non è in realtà corrispondente a ciò che succederebbe.
Una situazione affascinante rischia quindi di crearsi. Ora tantissimi utilizzano gli strumenti di intelligenza artificiale per scrivere e quello che viene scritto viene poi pubblicato e quello che viene pubblicato finisce poi, bene o male, sempre nei nuovi database con cui vengono addestrate le intelligenze artificiali. Questo significa che stiamo effettivamente assistendo lentamente all’autodistruzione delle IA, che finiranno con il nutrirsi delle loro stesse allucinazioni con i rischi che possiamo facilmente immaginare.
