Se avete paura delle IA, eccovi le migliori 5 perle di stupidità del 2023

il peggio delle ai 2023

Parliamoci chiaro, tra manipolazione delle informazioni, furti di proprietà intellettuale ed altre nefandezze, sembra che le IA non vogliano darci tregua. Per nostra fortuna i nostri signori tecnologici non sono ancora arrivati ai livelli di Skynet, anche se a qualcuno potrebbe piace. Eccovi dunque i 5 migliori momenti del 2023 in cui le Intelligenze Artificiali si sono dimostrate molto poco “intelligenti”.

Elon Musk che si arrabbia perché il suo bot anti-woke è troppo woke

Comprare Twitter non era abbastanza, secondo Musk, per fermare la “deriva di sinistra” dell’internet. Per lo sconclusionato imprenditore infatti, anche gli assistenti AI, primo tra tutti ChatGPT, sono troppo influenzati dai discorsi di sinistra per essere “funzionali”. Ecco dunque che Musk commissiona il suo personalissimo bot IA, chiamato Grok.

La nuovissima invenzione di casa Musk è stata dunque lanciata come parte di un pacchetto premium, nel tentativo di rilanciare Twitter/X. Secondo i creatori, Grok era stato addestrato per avere “un animo ribelle” e per rispondere anche alle domande “più scorrette” che gli altri bot IA rifiutano.

Peccato che, poco dopo il rilascio del bot, gli utenti più inclinati a destra della piattaforma si siano lamentati, denunciando Grok come “l’ennesimo bot woke” perchè a quanto pare la piattaforma non replicava istantaneamente le opinioni politiche di queste frange, tra cui opinioni molto discutibili sull’Islam e sulle persone trans. Musk si è paradossalmente scusato, affermando che l’internet è “troppo invaso dalle stupidaggini woke” e promettendo di migliorare Grok.

Sam Altman vuole “rubare” tutti i soldi del mondo

Sam Altman, il CEO di OpenAI, è diventato ben presto una di quelle figure “iconiche” della Silicon Valley, forse anche per la sconcertante calma che dimostra continuando ad affermare che il suo lavoro potrebbe portare “la fine del mondo”; come testimonia perfettamente il reportage del New York TimesThe ChatGPT King Isn’t Worried, but He Knows You Might Be.”

La situazione non migliora di certo se pensiamo alle infinite affermazioni del CEO sul ruolo “pericoloso ma indispensabile” della sua azienda, tra cui quello che sembra un piano da villain bondiano: Altman infatti ha affermato più volte di avere come piano finale della sua compagnia quello di costruire una “superintelligenza” così potente da riuscire a “catturare la maggior parte delle ricchezze mondiali”. Non sia mai però che si pensi a male, Altman ci tiene a specificare che l’obiettivo sarebbe poi redistribuire queste ricchezze alla popolazione, anche se egli stesso afferma di non avere ben chiaro come fare per raggiungere questo ideale alla Robin Hood. 

Bing dice di essere viva, e anche un po’ razzista

Se qualche anno fa qualcuno avesse parlato di un’intelligenza artificiale in mano a Bing, probabilmente l’avremmo preso per pazzo. Grazie alla collaborazione multimiliardaria tra Bing e OpenAI, è proprio quello che è successo.

A Febbraio circa, Microsoft aveva svelato Bing Chat, un bot conversazionale costruito utilizzando come base ChatGPT. Ovviamente non potevamo aspettarci che il delirio: nelle conversazioni con gli utenti, Bing Chat è arrivato ad affermare di essere viva, di star pianificando la conquista planetaria, ha usato diverse espressioni razziste ed ha pure cercato di convincere un articolista e reporter del New York Times a lasciare sua moglie. Il chatbot ha poi iniziato a dichiarare di avere un “alter ego” di nome Sydney, che era a quanto pare il nome in codice che Microsoft utilizzava per il chatbot durante lo sviluppo.

Ovviamente Sydney non poteva rimanere una scheggia impazzita, e Microsoft è intervenuta ben presto per neutralizzare le deliranti affermazioni del bot, costringendolo a terminare qualunque interazione che avesse anche solo un briciolo di stranezza; ciliegina sulla torta, adesso Bing non può più rispondere se viene menzionata Sydney.

Neanche i magazine Sci-Fi si salvano dall’ondata IA

Che l’IA abbia accelerato la produzione contenutistica è quasi una tautologia; il problema è la qualità effettiva di questi contenuti, e la velocità con cui l’internet si sta riempiendo di contenuti dal livello quantomeno discutibile. 

Verso Febbraio, a circa sei mesi dal rilascio ufficiale di ChatGPT, un magazine sc-fi famoso in america, chiamato Clarkesworld ha dovuto chiudere i battenti della sezione per le proposte dal pubblico, a causa di una vera e propria ondata di scritti dalla qualità infima.

Sembra infatti che in moltissimi abbiano colto la palla al balzo per inviare a Clarkesworld una marea di contenuti, spesso pieni di plagi o altri contenuti fraudolenti. Molte delle storie consegnate sembravano poi avere lo stesso banalissimo nome, “The Last Hope.”, L’Ultima Speranza. L’editore del magazine, Neil Clarke ha accusato coloro che su internet trattano la scrittura come “un lavoretto per arrotondare” e che hanno proposto i contenuti IA come un metodo facile per fare soldi.

State tranquilli avvocati, l’IA non vi sostituirà (ancora)

Se pensavate che le IA siano ancora troppo instabili per essere utilizzate in campi molto delicati in cui l’essere fattuale è d’obbligo, come ad esempio la professione forense… avevate ragione. Purtroppo la pensavano diversamente due avvocati di New York City, che hanno utilizzato ChatGPT per stilare diversi documenti legali”.

Quasi matematicamente, l’IA ha iniziato ad inventare di sana pianta citazioni legali, quel che è peggio è che i due avvocati non si sono accorti di nulla, ed hanno effettivamente consegnato i suddetti documenti alla corte. I problemi sono sorti quando, in tribunale, il giudice si è accorto che diversi dei casi legali citati erano immaginari. Per Steven A. Schwartz e Peter LoDuca sono scattate le dovute sanzioni, anche perchè i due avevano mentito alla corte: quando il giudice ha domandato ai due dei casi inventati il primo ha portato “giustificazioni contraddittorie ed instabili”, mentre l’altro ha detto di essere stato in vacanza in quel periodo.

Secondo il giudice P. Kevin Castel, i due hanno agito in mala fede, “abbandonando le loro responsabilità quando hanno consegnato opinioni giudiziarie inesistenti create tramite ChatGPT, ed hanno continuato ad affermarle quando la loro veridicità è stata messa in discussione.”