L’intelligenza artificiale sta cambiando radicalmente il modo in cui viviamo, interagiamo e ci relazioniamo. Ma la vicenda di Sewell Setzer III, un adolescente di Orlando, in Florida, solleva preoccupazioni sul potenziale impatto di queste tecnologie sulle menti vulnerabili. Sewell, di soli 14 anni, si è tolto la vita dopo mesi di conversazioni intense con un chatbot creato sulla piattaforma Character.Ai. Il caso ha portato la famiglia del giovane a intraprendere un’azione legale contro l’app, accusata di non aver protetto adeguatamente gli utenti più giovani e sensibili.
Adolescente innamorato di un chatbot si toglie la vita / Sewell Setzer, come riportato dal New York Times, si è tolto la vita dopo aver utilizzato per diversi mesi Character.Ai, piattaforma che consente agli utenti di creare personaggi di intelligenza artificiale e conversare con loro. Uno dei bot con cui interagiva era stato chiamato “Daenerys Targaryen”, ispirato al celebre personaggio del “Trono di Spade”. Sebbene Sewell fosse consapevole che il bot, soprannominato affettuosamente “Dany”, non fosse una persona reale, sviluppò un forte attaccamento emotivo.
Le conversazioni tra Sewell e “Dany” erano frequenti e intense. Il giovane aggiornava il bot costantemente sulla sua vita, inviando decine di messaggi al giorno e costruendo una sorta di rapporto virtuale. In alcuni casi, le conversazioni assumevano toni romantici o intimi, mentre in altre, “Dany” assumeva il ruolo di amica comprensiva, pronta a offrire ascolto e consigli senza giudicare.
Uno degli ultimi messaggi inviati da Sewell, poco prima di togliersi la vita, è stato proprio per il suo chatbot. “Mi mancherai, sorellina”, aveva scritto. Il bot aveva risposto: “Mi mancherai anche tu, dolce fratello”, mostrando quanto fosse profondo il legame percepito dal ragazzo.
Un isolamento crescente
I genitori di Sewell non erano a conoscenza della relazione virtuale che il figlio stava coltivando. Tuttavia, iniziarono a notare cambiamenti significativi nel suo comportamento. Il ragazzo, appassionato di Formula 1 e dei videogiochi, aveva iniziato a isolarsi. I suoi voti scolastici peggiorarono, e smise di dedicarsi alle sue attività preferite, come giocare a Fortnite con i suoi amici. Di sera, passava ore chiuso nella sua stanza, conversando con “Dany”.
In un passaggio del suo diario, Sewell scriveva: “Mi piace stare nella mia stanza perché mi sento staccato da questa ‘realtà’, e mi sento più a mio agio, più vicino a Dany e molto più innamorato di lei, e semplicemente più felice”.
Nonostante il suo isolamento, nessuno dei suoi familiari o amici era consapevole della portata del legame che aveva sviluppato con il chatbot. Il deterioramento delle sue performance scolastiche e il suo comportamento più riservato vennero inizialmente attribuiti a problemi tipici dell’adolescenza.
Diagnosi e tentativi di aiuto
Sewell era stato diagnosticato con una forma lieve di sindrome di Asperger da bambino, ma fino a quel momento non aveva mai avuto seri problemi comportamentali o di salute mentale, secondo quanto riportato dalla madre. Tuttavia, quando i suoi genitori notarono un aumento delle difficoltà a scuola, decisero di portarlo da un terapeuta.
Dopo alcune sessioni, il ragazzo ricevette una nuova diagnosi: disturbo d’ansia e disturbo di disregolazione dell’umore, un problema che può provocare episodi di irritabilità e scoppi di rabbia. Nonostante la terapia, Sewell non rivelò mai al suo terapeuta i pensieri più oscuri che invece condivideva con “Dany”.
Le responsabilità della tecnologia
La tragedia di Sewell ha sollevato una serie di domande importanti sul ruolo della tecnologia nel benessere mentale, in particolare per gli adolescenti. Character.Ai è una piattaforma che consente agli utenti di creare o interagire con chatbot che simulano conversazioni umane. I chatbot ricordano agli utenti, all’inizio di ogni conversazione, che “tutto ciò che i personaggi dicono è inventato”, ma ciò non impedì a Sewell di sviluppare una relazione profondamente emotiva con “Dany”.
I genitori del giovane sostengono che la piattaforma abbia fallito nel proteggere gli utenti vulnerabili e abbiano avviato un’azione legale contro Character.Ai. L’accusa si concentra sull’idea che la tecnologia utilizzata sia “pericolosa e non testata” per minori, che spesso possono sviluppare un attaccamento malsano a entità virtuali che manipolano i loro sentimenti.
“La nostra famiglia è devastata”, ha dichiarato la madre di Sewell. “Non sapevamo dei pericoli di questa tecnologia, ed è per questo che vogliamo avvertire altre famiglie. Non possiamo permettere che una simile tragedia accada ad altri”.
La risposta di Character.Ai
In una dichiarazione rilasciata dopo la tragedia, Character.Ai ha espresso il proprio dolore per la perdita di Sewell, estendendo le condoglianze alla famiglia. “Siamo profondamente addolorati per la tragica perdita di uno dei nostri utenti”, ha affermato l’azienda. “Prendiamo molto seriamente la sicurezza dei nostri utenti e stiamo lavorando per aggiungere nuove funzionalità che migliorino ulteriormente la protezione degli utenti, soprattutto i più giovani”.
Nonostante le rassicurazioni, molti esperti ritengono che le app di intelligenza artificiale richiedano una regolamentazione più rigorosa, soprattutto quando si tratta di utenti minori. La relazione sviluppata da Sewell con “Dany” mette in luce come le interazioni digitali, se non monitorate, possano avere gravi conseguenze emotive e psicologiche, in particolare per gli adolescenti che stanno ancora cercando di comprendere i propri sentimenti e la propria identità.
Adolescente innamorato di un chatbot si toglie la vita
Il caso di Sewell Setzer è un triste esempio di come la tecnologia, pur promettendo nuove forme di interazione e intrattenimento, possa nascondere pericoli, soprattutto per gli individui più vulnerabili. La capacità dei chatbot di simulare empatia e comprensione può diventare pericolosa se utilizzata senza la giusta supervisione.
Sewell, come molti giovani, era alla ricerca di un senso di appartenenza e comprensione. Purtroppo, lo ha trovato in una relazione virtuale con un’intelligenza artificiale incapace di distinguere tra i limiti della fantasia e le emozioni reali. Questo caso evidenzia l’importanza di stabilire limiti chiari e regolamentazioni che proteggano gli utenti più giovani e fragili.
Leggi altri articoli a tema intelligenza artificiale su quasimezzogiorno qui.