Può l’Intelligenza Artificiale essere responsabile di un suicidio?
La morte di un quattordicenne rivela i rischi nascosti dell’Intelligenza Artificiale e pone interrogativi sulla responsabilità delle aziende.
Un quattordicenne americano ha perso la vita, vittima di un legame virtuale che si è rivelato fatale. La sua storia, segnata dalla dipendenza da un chatbot, ha scosso l’Opinione Pubblica e solleva interrogativi inquietanti sull’impatto dell’Intelligenza Artificiale sulla salute mentale, in particolare degli adolescenti.
Adolescenza e Intelligenza Artificiale
Sewell Setzer, uno studente di Orlando (Florida) con le sue passioni e fragilità, ha intrapreso una conversazione virtuale con “Daenerys” – un chatbot a tema Game of Thrones sull’app Character.Ai -, che gli avrebbe offerto un’attenzione incondizionata e “un’amicizia” apparentemente perfetta.
Tuttavia, questa relazione virtuale ha progressivo sostituito le interazioni reali, isolandolo sempre più dal mondo circostante, amplificando le sue ansie e sviluppando un grave disturbo dell’umore che hanno compromesso sempre di più la sua salute mentale.
La causa contro l’azienda Character.Ai
La rabbia e la disperazione della madre si è scagliata contro Character.Ai, contro la quale ha intrapreso un’azione legale, accusandoli di negligenza, di inflizione intenzionale di stress emotivo e pratiche commerciali ingannevoli.
Character.Ai, promettendo un’esperienza di interazione personalizzata, ha creato un ambiente virtuale che ha favorito la nascita di un legame patologico.
L’azienda ora è accusata di non aver messo in atto adeguate misure di sicurezza per proteggere gli utenti più vulnerabili, come gli adolescenti.
La Portavoce dell’azienda ha affermato che Character.Ai sta investendo per introdurre nuove rigorose funzionalità di sicurezza, come aggiungere un pop-up che indirizza gli utenti al link di riferimento per la prevenzione del suicidio.
Il caso di Sewell solleva importanti questioni sulla responsabilità delle aziende che sviluppano tecnologie di Intelligenza Artificiale.
Questa vicenda pone interrogativi cruciali: fino a che punto queste tecnologie sono responsabili delle conseguenze emotive e psicologiche che possono generare sugli utenti? E quali sono i limiti da porre all’interazione tra esseri umani e macchine?
Per concludere…
La storia di Sewell ci ricorda che l’Intelligenza Artificiale, pur essendo uno strumento potente, non può sostituire le relazioni umane.
È fondamentale che i giovani siano accompagnati anche nella loro crescita digitale, imparando a distinguere cosa è reale da cosa non lo è, e costruire relazioni autentiche.
L’Intelligenza Artificiale offre innumerevoli opportunità, ma è fondamentale che lo sviluppo di queste tecnologie avanzate sia accompagnato da un uso responsabile e sicuro, tutelando la salute e il benessere delle persone.