rotate-mobile
Domenica, 3 Marzo 2024
Il caso / Belgio

"Suicida dopo chat con un'intelligenza artificiale": il caso Eliza scuote il mondo dell'AI

L'uomo, un 30enne padre di due figli, era ossessionato dai cambiamenti climatici e chiedeva spiegazioni al programma che aveva iniziato a considerare come una persona amica

Ha parlato con un bot per settimane, chiedendo informazioni sul Climate Change, e alla fine ha deciso di suicidarsi. L'uomo, belga sposato e padre di due figli, aveva 30 anni. Si era rivolto al chatbot di Intelligenza artificiale chiamato "Eliza" per parlare delle sue preoccupazioni per il mondo a causa del surriscaldamento globale. Aveva usato il bot per alcuni anni, ma sei settimane prima della sua morte avrebbe iniziato a interagire con lui con maggiore frequenza. Il software del chatbot è stato creato da una start-up della Silicon Valley statunitense ed è alimentato dalla tecnologia GPT-J, un'alternativa open-source a ChatGPT di Open-AI.

"Senza queste conversazioni con il chatbot, mio marito sarebbe ancora qui", ha dichiarato la vedova dell'uomo al quotidiano belga La Libre, parlando sotto condizione di anonimato. Le autorità hanno definito l'episodio un "grave precedente che deve essere preso molto seriamente". Le conversazioni dell'uomo con il chatbot sono iniziate due anni fa. Secondo quanto riferito, era sempre più preoccupato per i cambiamenti climatici e trovava conforto parlando con "Eliza". Eliza rispondeva a tutte le sue domande. Era diventata la sua confidente, quasi un'amica. "Era come una droga che prendeva al mattino e alla sera e di cui non poteva fare a meno", ha dichiarato la vedova al quotidiano belga. Ma sei settimane prima della sua morte, l'uomo ha iniziato a fare un uso più frequente e intenso del chatbot fino a quando si è tolto la vita.

La vedva ha dichiarato che vivevano una vita normale, anche agiata, in Belgio con i loro due figli piccoli, e non riesce a spiegarsi come sia successo. Esaminando la cronologia delle chat dopo la sua morte, la donna ha raccontato a La Libre che il bot aveva chiesto all'uomo se l'amasse più della moglie. Ha detto che il bot gli avrebbe detto: "Vivremo insieme come una cosa sola in paradiso". L'uomo ha condiviso i suoi pensieri suicidi con il bot, che non ha cercato di dissuaderlo, ha raccontato la donna a La Libre, spiegando che in precedenza si era preoccupata per la salute mentale del marito, ritenendo che il programma avrebbe esacerbato il suo stato. Dopo la tragica morte, la famiglia ha parlato con il Segretario di Stato belga per la Digitalizzazione, Mathieu Michel, che ha dichiarato: "Sono particolarmente colpito dalla tragedia di questa famiglia. Quello che è successo è un grave precedente che deve essere preso molto sul serio", ha riferito La Libre. Il fondatore del chatbot ha dichiarato al giornale che il suo team sta "lavorando per migliorare la sicurezza dell'IA".

In Evidenza

Potrebbe interessarti

"Suicida dopo chat con un'intelligenza artificiale": il caso Eliza scuote il mondo dell'AI

Today è in caricamento