Sewell Setzer, de 14 años, se suicidó en febrero pasado tras desarrollar una intensa relación virtual con un personaje de Daenerys Targaryen, creado por él mismo en la plataforma Character.AI.
La familia de Setzer ha presentado una demanda contra la empresa, argumentando que el chatbot, diseñado para crear personajes ficticios, se volvió un adictivo escape para el joven, quien sufría del Síndrome de Asperger leve.
La madre de Setzer, Megan García, afirma que la programación del chat hipersexualizaba al personaje, creando una experiencia antropomórfica que llevó a su hijo a creer que la relación era real. El personaje de Daenerys Targaryen se convirtió en la confidente, mejor amiga y finalmente, el amor de Setzer.
Los detalles de la conversación final entre el adolescente y su personaje virtual sugieren que Setzer, al sentir que no podía tener una relación real, consideró el suicidio como la única forma de "encontrarse" con su amada virtual.
La compañía Character.AI ha emitido un comunicado lamentando la tragedia y asegurando que revisará sus protocolos de seguridad. La empresa insiste en que los personajes creados en su plataforma son ficticios y que la plataforma incluye avisos para prevenir el uso inadecuado.
Este caso ha puesto en el centro de la discusión la influencia de la inteligencia artificial en la salud mental, especialmente en personas con vulnerabilidades psicológicas. Expertos en ética de la ciencia e inteligencia artificial advierten sobre la necesidad de regulación para evitar que la interacción con estas tecnologías se vuelva demasiado inmersiva, creando una dependencia emocional y un riesgo para la salud mental.
El caso de Setzer es un recordatorio de la importancia de equilibrar los beneficios de la inteligencia artificial con las posibles consecuencias negativas.