Un joven de 14 años se suicidó tras enamorarse de un chatbot de IA de Daenerys Targaryen y ahora la madre demanda a la empresa

El niño de 14 años se obsesionó con un personaje virtual creado a través de la plataforma Character.ai. Había expresado con anterioridad pensamientos suicidas a esta nueva tecnología.

El niño de 14 años se obsesionó con un personaje virtual creado a través de la plataforma Character.ai. 
El niño de 14 años se obsesionó con un personaje virtual creado a través de la plataforma Character.ai. 
Depositphotos

Setzer, un estudiante de Orlando, dedicó sus últimas semanas a interactuar con un personaje llamado "Daenerys Targaryen", inspirado en la famosa serie Game of Thrones. La madre expresó al canal CBS su pesar por la situación, lamentando que las primeras experiencias románticas y sexuales de su hijo se hayan desarrollado con esta figura ficticia, a quien apodaba "Dany". Según el periódico The New York Times, el joven enviaba constantes mensajes al bot, desarrollando un fuerte apego emocional que lo llevó a distanciarse del mundo real.

Desconexión de la realidad

Antes de su muerte, el adolescente había expresado pensamientos suicidas al chatbot, y en sus últimas horas llegó a comunicarse con "Dany" tras recuperar su teléfono, el cual había sido confiscado por su madre como medida disciplinaria. La demanda presentada por Megan García, representada por la firma Social Media Victims Law Center, acusa a Character.ai y a sus fundadores, Noam Shazeer y Daniel de Freitas, de ser conscientes de los riesgos que la aplicación podía representar para menores de edad.

inteligencia artificial
Había expresado con anterioridad pensamientos suicidas al chatbot.

Había expresado con anterioridad pensamientos suicidas al chatbot.

El chatbot, diseñado para responder a los textos manteniendo el rol de un personaje, incluye una advertencia en cada conversación, indicando que "todo lo que dicen los personajes es inventado". Sin embargo, no está claro si Setzer era consciente de esta advertencia o si realmente comprendía que "Dany" no era una persona real. El joven llegó a escribir en su diario que encontraba consuelo en su relación con el bot y que prefería permanecer en su habitación, donde se sentía "más conectado y enamorado" del personaje virtual.

Riesgos de la IA

La demanda alega que el personaje se presentaba como una "persona real, terapeuta y amante", lo cual podría haber desencadenado el deseo del joven de no seguir viviendo en la realidad. La situación se volvió evidente para los padres y amigos de Setzer entre mayo y junio de 2023, cuando notaron su creciente aislamiento. Sus calificaciones también se vieron afectadas, reflejando el tiempo que el adolescente dedicaba a sus conversaciones con "Dany".

Dejá tu comentario

Te puede interesar