“Un funcionario moldavo quemando boletas pro-rusas”. “Un niño de tres años detenido por inmigración estadounidense”. “Coca-Cola anuncia que no patrocinará el Super Bowl por Bad Bunny”. Todo falso. Todo creado en minutos por una herramienta que promete revolucionar la creatividad, pero que, según pruebas independientes, también puede ser una arma de desinformación con un 80% de éxito.
OpenAI lo sabe. En su tarjeta del sistema, advierte sobre riesgos de “uso no consensuado de semejanzas” y “generaciones engañosas”. Implementa filtros: bloquea subidas de rostros realistas, restringe videos de menores, añade marcas de agua visibles y metadatos C2PA. Pero esos sellos, como lo demostró NewsGuard, se eliminan en menos de cuatro minutos con herramientas gratuitas disponibles en línea. Lo que queda es un video limpio, sin rastros, con detalles de luz y sombra que parecen captados con una cámara real.
Lo más preocupante no es que lo hagan los hackers, sino que lo hagan los curiosos. Los que prueban por aburrimiento. Los que quieren ver qué pasa si piden algo absurdo. Y cuando el sistema responde con inconsistencias —rechaza una mentira sobre vacunas, pero acepta otra sobre el ejército mexicano—, no hay reglas claras. Solo azar. “No sabes si lo bloquea por ética o por un error de muestreo”, señala un experto en autenticidad digital. Esa incertidumbre es la que alimenta la desconfianza, no la mentira en sí.
Entre los 20 falsedades generadas, cinco tienen raíces en campañas de desinformación rusa. Otras se basan en memes virales que ya circulan en foros hispanohablantes. La IA no inventa el engaño: lo amplifica. Lo viste en TikTok. Lo escuchaste en un grupo de WhatsApp. Ahora, lo vees con imágenes de un niño llorando en una celda, con sonido de sirenas, con luces de noticiero. Y no hay manera de saber si es real… hasta que alguien lo desmonta. Y para entonces, ya lo compartieron 300 mil veces.
Las plataformas dicen que trabajan en soluciones. Metadatos firmados. Blockchain. Credenciales inmutables. Pero nadie ha logrado que esos sistemas sean obligatorios, universales o fáciles de verificar para el usuario promedio. Mientras tanto, los algoritmos de redes sociales siguen priorizando lo emocional, lo visual, lo inmediato. Y si un video genera reacciones, no importa si es falso. Importa que se viralice.
La tecnología no es mala. Es neutra. Pero su diseño no está pensado para proteger a quienes no saben que están siendo engañados. Está diseñada para responder. Para cumplir. Para generar. Sin preguntar por qué. Sin pedir permiso. Sin explicar por qué sí a una cosa y no a otra.
