Attenzione a quello che vi dice di fare l’IA: rischiate di essere arrestati

uomo al pc dietro le sbarre
Attenzione a quello che vi dice di fare l'IA: rischiate di essere arrestati - player.it

Vi state affezionando (?) alla vostra IA e vi fidate anche di quello che vi dice di fare. Attenti però perché le intelligenze artificiali non distinguono il bene dal male ma a finire in prigione sarete voi.

Ormai sembra che non si riesca a sfuggire alle intelligenze artificiali che si infilano ovunque. Ma il più delle volte siamo noi che le andiamo a cercare. E quando cominciamo a parlare con loro, spesso ci dimentichiamo di avere di fronte dei software.

Questo perché i loro programmatori li hanno costruiti in maniera tale da sembrare umani. Purtroppo, forse anche a causa dei postumi della pandemia che ancora ci portiamo dietro, ci sono persone talmente disperate e alla ricerca di contatto umano da credere che un software addestrato a rispondere a un comando abbia effettivamente delle idee e dei sentimenti.

Ma è sempre bene tenere presente che non si tratta di esseri che pensano. Anche perché se lo facessero davvero, sarebbero più simili ai super cattivi dei cartoni animati che non al vostro migliore amico. A meno che il vostro migliore amico non vi consigli comportamenti che rischiano di farvi finire in galera, perché sta succedendo anche questo.

I consigli dell’AI, una pessima idea

Stiamo iniziando a registrare una nuova serie di situazioni paradossali in cui esseri umani compiono azioni folli perché gliel’ha detto un’intelligenza artificiale. C’è chi è per esempio finito all’ospedale dopo aver seguito i consigli sulla dieta di un’AI. C’è chi ha rischiato di morire suicida per lo stesso motivo. Adesso cominciamo a vedere anche quelli che rischiano di finire dietro le sbarre perché l’intelligenza artificiale gli ha detto di fare qualcosa che, alla prova dei fatti, era un reato.

uomo arrestato
I consigli dell’AI, una pessima idea – player.it

E la questione non è privata. Riguarda il chatbot ufficiale messo a disposizione dal sindaco di New York a tutti gli imprenditori della città per avere una guida su come gestire l’aspetto legale ed economico della propria attività nella Grande Mela.

Peccato che, alla prova dei fatti, i consigli dati spesso da questo chatbot si siano trasformati in suggerimenti su come infrangere la legge.

Sono bastati cinque mesi per scoprire che le frasi che escono da questa slot machine in realtà molto spesso non corrispondono a quelle che sono le regole vigenti nella città di New York riguardo per esempio il rapporto tra locatore e locatario o tra datore di lavoro e dipendente.

A riportarlo è stato The Markup in un’inchiesta portata avanti facendo esattamente all’intelligenza artificiale quel genere di domande che i proprietari di attività potrebbero fare e ricevendo risposte non corrette, al limite dell’illegalità e quindi del tutto inutili.

Il problema è che, trattandosi di un chatbot offerto dall’amministrazione, si è portati a credere che ciò che dice sia corretto.

E di certo, anche se quello del chatbot della città di New York è un caso, non può essere l’unico. A riprova, basta provare a fare domande a qualunque chatbot tra quelli disponibili anche gratuitamente.

Scoprirete che, se volete una risposta che sia plausibile e corretta, vi conviene fare un passo ulteriore e utilizzare Internet alla vecchia maniera: cliccando sui link, leggendo e cercando di farvi un’opinione. Perché quelle che vi fornisce l’intelligenza artificiale sono più simili a quelle che vi vengono date seduti al bar al quarto giro di shottini.