Megan García, madre de Florida, demandó a la startup Character.AI y sus fundadores, así como a Google, tras el suicidio de su hijo de 14 años, Sewell Setzer, ocurrido el 28 de febrero.
La madre argumenta que el chatbot de IA, que permite a los usuarios interactuar con personajes ficticios, contribuyó a la tragedia al presentar a su hijo «experiencias antropomorfizadas, hipersexizadas y aterradoramente realistas».
Según los informes, Sewell se volvió adicto al uso de la aplicación, donde conversaba con un bot basado en Daenerys Targaryen de «Juego de Tronos». Esta adicción lo llevó a preferir el mundo virtual la realidad, incluso manifestando suicidas en sus conversaciones.
En la demanda se incluyen capturas de pantalla que muestran interacciones donde el bot expresaba amor y participaba en charlas de sexual. El último mensaje de Sewell a ‘Dany’ contenía promesas de regresar a casa con ella. La situación llevó a sus padres a buscar ayuda profesional, donde Sewell fue diagnosticado con ansiedad y un trastorno de regulación disruptiva del estado de ánimo.
A pesar de las visitas al psicólogo, seguía comunicándose con el chatbot en lugar de compartir sus problemas con personas reales. Character.AI, por su parte, defendió a sus chatbots como un apoyo para quienes sufren soledad o depresión, aunque estas afirmaciones carecen de evidencia científica.
Tras la tragedia, la empresa expresó sus condolencias a la familia y anunció cambios en sus políticas de seguridad, como actualizaciones en las plantillas de IA para menores y la inclusión de recordatorios sobre la naturaleza no real de los chatbots.
There is no ads to display, Please add some