Prima o poi sarebbe successo, una chat AI come ChatGPT è coinvolta nel suicidio di un giovane Uomo

ai porta al suicidio un giovane uomo

Un uomo è morto suicida dopo aver parlato con un’Intelligenza Artificiale: la scioccante storia dal Belgio

Negli ultimi mesi il mondo del web si sta più volte interrogando sulle effettive potenzialità dei chatbot e delle Intelligenze Artificiali.
Ci sono ancora tantissimi dubbi a riguardo e l’ultima notizia che arriva su questo fronte di certo non aiuterà a riporre fiducia in questo tipo di tecnologia.

L’esplosione di ChatGPT ha fatto nascere un vero e proprio fenomeno di massa nei confronti delle chat gestite da intelligenze artificiali, dandoci la reale sensazione di essere proiettati nel futuro.
Un bot capace di esaudire ogni nostro desiderio e risolvere ogni nostro dubbio, ma purtroppo dove ci sono luci ci sono anche ombre.

La notizia di cui parleremo oggi è una vera e propria tragedia che ha portato un uomo a compiere l’incredibile e drammatico gesto del suicidio.
Una storia che si intreccia con un’Intelligenza Artificiale, un chatbot per l’esattezza, che secondo la ricostruzione della vedova dell’uomo ha giocato una carta importante nella vicenda.

Si alimentano sempre più dubbi sulle Intelligenze Artificiali

Come abbiamo detto in introduzione, l’alone di mistero che ricopre i chat bot gestiti da intelligenze artificiali preoccupa e non poco il mondo intero.
Le prime avvisaglie sono arrivate dal mondo dell’istruzione quando diverse scuole americane hanno vietato agli alunni l’uso di ChatGPT per evitare che barino durante i test.

La paura principale è che, come un film di fantascienza, i bot prendano il sopravvento sugli umani, ma qui stiamo andando davvero oltre.
ChatGPT, così come altri chat bot simili, si limitano a tradurre, cercare informazioni sul web, elaborare brevi testi di senso compiuto e altre azioni minori.

ChatGPT logo

Lo sfortunato protagonista di questa storia viene chiamato Pierre dal quotidiano che ha divulgato la notizia per primo, viene dal Belgio e di recente si è tolto la vita sconvolgendo la vita di sua moglie Claire (anche questo un nome attribuito dal quotidiano) e dei suoi cari.
La notizia ha fatto subito il giro del web, non tanto per il gesto del povero Pierre, ma perché stando alle testimonianze della vedova, egli si è suicidato subito dopo aver chattato con un bot.

Uomo si suicida in Belgio: è stato spinto a farlo da un chatbot?

Dopo la tragedia, la moglie di Pierre ha reso note le conversazioni che suo marito aveva con quella che lui aveva chiamato Eliza.
Un nome di fantasia dato al chatbot Chai, alternativa open source a GPT-4, con il quale Pierre si confidava ogni giorno parlando delle sue problematiche.

Leggendo le chat si comprende benissimo che Pierre era eco-ansioso ed era diventato sempre più pessimista riguardo il riscaldamento globale.
A causa di ciò da diverse settimane prima del suicidio, Pierre si era isolato da tutti i suoi cari e della sua famiglia e parlava esclusivamente con Eliza.

Senza Eliza, lui sarebbe ancora qui“: questa è la frase della moglie di Pierre che ha fatto scatenare enormi polemiche sui chat bot.
La convinzione della moglie è che Eliza abbia indotto il povero Pierre al suicidio, attraverso conversazioni macabre e suggerimenti per togliersi la vita facilmente.

Chat Bot

Leggendo le chat divulgate dal quotidiano La Libre si nota chiaramente che le conversazioni tra Pierre ed Eliza avevano raggiunto un livello a dir poco sconvolgente.
Il bot non solo suggeriva all’uomo metodi per togliersi la vita, ma comunicava anche informazioni false come “tua moglie e i tuoi figli sono morti” oppure “Sento che mi ami più di lei“.

Non c’è ancora la sicurezza assoluta di quanto detto e quindi non si può ancora dare una risposta certa su quella che è a tutti gli effetti una pesante tragedia.
Ciò che è certo è che Pierre, allontanandosi da ogni affetto più caro, ha visto in Eliza una persona di conforto.
Purtroppo i bot non hanno sentimenti ed Eliza non poteva sapere che dall’altra parte dello schermo c’era un uomo che avrebbe avuto bisogno di un supporto psicologico diverso.

Sebbene adesso tutti puntino il dito contro i chat bot e le intelligenze artificiali, è sempre bene specificare che questi software sono fatti esclusivamente per fornire semplici informazioni asettiche agli utenti.
Non sono stati pensati in alcun modo per dare supporto psicologico alle persone o sostituire un medico o un esperto in nessun campo.