Le IA ci porteranno all’estinzione: non lo dicono i fanatici del complotto ma i loro creatori

le ai ci porteranno all estinzione

I rischi che derivano dallo sviluppo delle IA non solo materiale da romanzo distopico: gli stessi creatori hanno paura

L’idea che l’IA possa diventare difficile da controllare e distruggere accidentalmente o deliberatamente l’umanità è stata a lungo dibattuta dai filosofi. Ma negli ultimi sei mesi, a seguito di alcuni sorprendenti e inquietanti balzi nelle prestazioni degli algoritmi di IA, la questione è stata discussa in modo molto più ampio e serio.

Gli sviluppatori lanciano l’allarme

Le figure di spicco nello sviluppo di sistemi di intelligenza artificiale, tra cui l’amministratore delegato di OpenAI Sam Altman e l’amministratore delegato di Google DeepMind Demis Hassabis, hanno firmato una dichiarazione in cui avvertono che la tecnologia che stanno costruendo potrebbe un giorno rappresentare una minaccia esistenziale per l’umanità paragonabile a quella della guerra nucleare e delle pandemie.

Immagine tratta dal film "Io, robot"

Oltre ad Altman e Hassabis, la dichiarazione è stata firmata da Dario Amodei, CEO di Anthropic, una startup dedicata allo sviluppo dell’IA con particolare attenzione alla sicurezza. Tra gli altri firmatari figurano Geoffrey Hinton e Yoshua Bengio – due dei tre accademici insigniti del Turing Award per il loro lavoro sull’apprendimento profondo, la tecnologia alla base dei moderni progressi nell’apprendimento automatico e nell’IA – e decine di imprenditori e ricercatori che lavorano su problemi di IA all’avanguardia.

Dan Hendrycks, direttore del Center for AI Safety, ha paragonato l’attuale momento di preoccupazione per l’IA al dibattito tra gli scienziati suscitato dalla creazione delle armi nucleari. “Dobbiamo avere le stesse conversazioni che gli scienziati nucleari avevano prima della creazione della bomba atomica”, ha detto Hendrycks in una citazione rilasciata insieme alla dichiarazione della sua organizzazione.

Cosa spaventa?

L’attuale tono di allarme è legato a diversi progressi nelle prestazioni degli algoritmi di intelligenza artificiale noti come modelli linguistici di grandi dimensioni. Questi modelli consistono in un tipo specifico di rete neurale artificiale che viene addestrata su enormi quantità di testo scritto da esseri umani per prevedere le parole che dovrebbero seguire una determinata stringa. Se alimentati con un numero sufficiente di dati e con un addestramento aggiuntivo sotto forma di feedback da parte degli esseri umani sulle risposte buone e cattive, questi modelli linguistici sono in grado di generare testo e rispondere alle domande con notevole eloquenza e apparente conoscenza, anche se le loro risposte sono spesso piene di errori.

Questi modelli linguistici si sono dimostrati sempre più coerenti e capaci man mano che sono stati alimentati con più dati e potenza informatica. Il modello più potente creato finora, il GPT-4 di OpenAI, è in grado di risolvere problemi complessi, compresi quelli che sembrano richiedere forme di astrazione e ragionamento di buon senso.

Prima schermata di ChatGPT

Negli ultimi anni i modelli linguistici sono diventati sempre più capaci, ma il rilascio di ChatGPT lo scorso novembre ha attirato l’attenzione del pubblico sulla potenza – e sui potenziali problemi – dei più recenti programmi di intelligenza artificiale. ChatGPT e altri chatbot avanzati sono in grado di tenere conversazioni coerenti e di rispondere a ogni tipo di domanda con l’apparenza di una reale comprensione. Ma questi programmi mostrano anche pregiudizi, inventano fatti e possono essere indotti a comportarsi in modi strani e spiacevoli.

Geoffrey Hinton, considerato una delle figure più importanti e influenti nel campo dell’intelligenza artificiale, ha lasciato il suo posto di lavoro a Google in aprile per parlare della sua ritrovata preoccupazione per la prospettiva di un’intelligenza artificiale sempre più capace e in grado di funzionare a briglia sciolta.

I governi devono prendere provvedimenti

I governi nazionali si stanno concentrando sempre più sui potenziali rischi posti dall’IA e sulle modalità di regolamentazione della tecnologia. Sebbene le autorità di regolamentazione siano per lo più preoccupate per questioni come la disinformazione generata dall’IA e la perdita di posti di lavoro, si è parlato anche di preoccupazioni esistenziali.

Capiamo che le persone sono preoccupate per il modo in cui può cambiare il nostro modo di vivere. Anche noi lo siamo. Se questa tecnologia va male, può andare molto male. Ha dichiarato Sam Altman, CEO di OpenAI, al Congresso degli Stati Uniti all’inizio di questo mese

Tutta colpa delle IA? Siamo sicuri?

Non tutti però sono d’accordo con lo scenario apocalittico dell’IA. Yann LeCun, che ha vinto il premio Turing con Hinton e Bengio per lo sviluppo del deep learning, ha criticato le affermazioni apocalittiche sui progressi dell’IA e ad oggi non ha firmato la lettera.

Alcuni ricercatori di IA che hanno studiato questioni più immediate, tra cui la distorsione e la disinformazione, ritengono che l’improvviso allarme sui rischi teorici a lungo termine distragga dai problemi attuali.

Scena tratta da "Matrix"

Meredith Whittaker, presidente della Signal Foundation e cofondatrice e consulente capo dell’AI Now Institute, un’associazione senza scopo di lucro che si occupa di IA e della concentrazione di potere nell’industria tecnologica, afferma che molti di coloro che hanno firmato la dichiarazione probabilmente credono che i rischi siano reali, ma che l’allarme “non coglie i problemi reali”.

L’autrice aggiunge che la discussione sul rischio esistenziale presenta le nuove capacità dell’IA come se fossero il prodotto di un naturale progresso scientifico, piuttosto che il riflesso di prodotti modellati dagli interessi e dal controllo delle aziende. Tali problemi vanno dai pregiudizi dell’intelligenza artificiale all’interpretabilità dei modelli e al potere delle aziende, afferma Whittaker.