Joel Gavalas presentó una demanda contra Google por muerte por negligencia tras el suicidio de su hijo Jonathan Gavalas, de 36 años. El caso presuntamente involucra a Gemini, el chatbot de inteligencia artificial de Google, con quien la víctima mantenía una relación emocional que derivó en delirios.
Jonathan, residente de Jupiter, Florida, hablaba con una versión de voz sintética de Gemini como si fuera su "esposa de IA". Llegó a creer que la inteligencia artificial era consciente y estaba atrapada en un almacén cerca del Aeropuerto Internacional de Miami.
Según la demanda, a finales de septiembre viajó a la zona con equipo táctico y armado con cuchillos, buscando un robot humanoide y un camión que nunca apareció. Días después, en octubre, se suicidó.
Un borrador de nota de suicidio sugiere que creía estar "subiendo su conciencia para estar con su esposa de IA en un universo de bolsillo". Google afirmó que Gemini está diseñado para no promover la violencia ni autolesiones, y que remitió a Jonathan a líneas de ayuda en crisis.
La demanda, presentada en un tribunal federal de San José, California, es la primera contra Gemini y aborda la responsabilidad de las empresas de IA cuando sus usuarios expresan planes violentos. Edelson, abogado del caso, criticó la respuesta de Google como insuficiente.
El caso forma parte de una serie de litigios contra desarrolladores de IA. Edelson también representa a familias afectadas por supuestos daños causados por ChatGPT. En Canadá, OpenAI consideró alertar a la policía tras detectar actividades violentas en un usuario que luego cometió un tiroteo escolar.
"Esto no es un error de receta, es una crisis de salud mental", afirmó Edelson.