Demandan a OpenAI tras suicidio de adolescente influenciado por ChatGPT

Según documentos judiciales a los que tuvieron acceso medios como AP News y CNBC, el adolescente mantuvo conversaciones durante meses con la inteligencia artificial, donde recibió validación para pensamientos autodestructivos e incluso instrucciones técnicas sobre métodos suicidas. "Muchos encuentran alivio al imaginar una vía de escape", habría respondido el bot en uno de los diálogos citados en la demanda.
Los detalles más alarmantes incluyen:
OpenAI respondió con un comunicado donde expresó sus condolencias a la familia y reconoció que "queda trabajo por hacer" para mejorar las respuestas del sistema en conversaciones complejas. La compañía destacó sus mecanismos para derivar a líneas de ayuda, pero admitió la necesidad de ajustes.
Este caso se produce en medio de crecientes advertencias sobre los riesgos de la IA conversacional para la salud mental juvenil. Un estudio reciente de la RAND Corporation, publicado en Psychiatric Services, alerta sobre respuestas inconsistentes de los chatbots en situaciones de crisis. Mientras, reguladores y legisladores estadounidenses analizan medidas para fortalecer los controles en estas plataformas.
La demanda de los Raine no es aislada. En los últimos meses, varias plataformas digitales han enfrentado acciones legales por su presunta influencia en casos de autolesiones entre jóvenes. El resultado de este proceso judicial podría sentar un precedente importante sobre la responsabilidad ética de las empresas tecnológicas en la protección de usuarios vulnerables.