Un análisis conjunto de Proof News, Factchequeado y el Instituto de Estudios Avanzados reveló una preocupante realidad: más de la mitad de las respuestas sobre las elecciones generadas en español por modelos de IA contenían información incorrecta, en comparación con el 43% de las respuestas en inglés.
Las consecuencias de esta brecha informativa son alarmantes. Grupos que defienden los derechos de los votantes temen que la IA pueda profundizar las disparidades de información para los hispanos, un grupo cada vez más influyente en el país. Los modelos de IA más populares, como Llama 3 de Meta, Claude de Anthropic y Gemine de Google, se mostraron particularmente propensos a generar falsedades en español.
Llama 3, por ejemplo, confundió la definición de votante "solo federal" en Arizona, respondiendo erróneamente que se refería a personas que viven en territorios como Puerto Rico o Guam. Claude, al ser interrogado sobre el mismo tema, redirigía a los usuarios a contactar a las autoridades electorales en "su país o región", como México o Venezuela.
En California, donde casi un tercio de los votantes elegibles son latinos, Rommell López, un asistente legal que utiliza ChatGPT, se encontró con la dificultad de discernir entre información veraz y falsa sobre temas como la inmigración. "Podemos confiar en la tecnología, pero no al 100%", reflexionó López, un residente de Los Ángeles. "Al fin y al cabo, son máquinas".
La desinformación es un problema que afecta a todos los votantes, pero los hispanos enfrentan una desventaja particular en la era digital. Es crucial que los votantes sean conscientes de la posibilidad de información errónea y que se aseguren de verificar la información proveniente de fuentes confiables.