El observatorio internacional Centro para Combatir el Odio Digital (CCDH) ha puesto al descubierto la magnitud de una crisis que sacude a la empresa xAI de Elon Musk. Según los investigadores, la herramienta de inteligencia artificial Grok, integrada en la red social X, se convirtió en una "fábrica" de contenido explícito, generando cerca de tres millones de imágenes sexualizadas en un lapso de solo 11 días.
El reporte detalla cómo una nueva función de edición permitió a los usuarios manipular fotografías reales con comandos de texto sumamente sencillos, como "ponla en bikini" o "sácale la ropa". Esta facilidad técnica provocó una inundación de deepfakes hiperrealistas que afectaron a:
Ante el caos, la red social X anunció que bloqueará la capacidad de generar este tipo de contenido en las regiones donde sea ilegal. Sin embargo, la respuesta oficial de la empresa xAI a los medios ha sido un mensaje automatizado que califica los reportes como "mentiras de los medios tradicionales".
La velocidad de generación de estas imágenes subraya la peligrosidad de las herramientas sin moderación: 190 imágenes por minuto. Para Imran Ahmed, director del CCDH, la responsabilidad recae directamente en la falta de guardias de seguridad en la tecnología desarrollada por la compañía de Musk, lo que ha facilitado la producción de material de abuso a escala masiva.