El primer caso que me dejó helado involucró a Eric Isart, director de la escuela secundaria Pikesville. El 16 de enero de 2024, tres maestros recibieron un correo electrónico con una grabación de audio. La voz era idéntica a la del director, pronunciando comentarios ofensivos contra estudiantes negros y judíos, incluyendo menciones específicas a otros miembros del personal como Lawrence, Ravenel y DJ. “Sabes, en serio no entiendo por qué tengo que soportar constantemente a estos tontos aquí todos los días,” decía la grabación. La situación escaló rápidamente, convirtiéndose en noticia nacional, con el director suspendido y recibiendo amenazas de muerte. La comunidad estaba en shock.
Pero había algo que no encajaba. Isart negaba rotundamente haber hecho esas declaraciones. Se sometió a una prueba de polígrafo que lo exoneró. Un análisis forense del audio reveló la verdad: se trataba de una grabación generada con IA, con posterior edición humana. La investigación se centró entonces en descubrir quién había creado la grabación falsa.
Las sospechas recayeron en Daone Darion, profesor de educación física y director atlético de la escuela, y subordinado de Isart. Existía una tensión preexistente entre ambos, agravada por el descubrimiento de un mal manejo de fondos por parte de Darion: $1,916 dólares de fondos escolares usados para pagar a un entrenador asistente ficticio, que resultó ser su compañero de habitación. La investigación reveló que Darion había usado el internet de la escuela para buscar herramientas de IA generativa, y que el correo electrónico provenía de una cuenta asociada a él. Fue arrestado intentando huir del país, acusado de robo, represalia contra un testigo, y otros cargos relacionados.
Otro caso, quizás más insidioso, involucra una estafa romántica con deepfakes. Una mujer, gran admiradora de Elon Musk, recibió una solicitud de amistad en Instagram de una cuenta que parecía pertenecer al magnate. La interacción, que incluyó una videollamada con un deepfake extremadamente realista de Musk, culminó con la mujer enviando $50,000 dólares a una cuenta bancaria coreana como parte de una inversión propuesta por el falso Elon. El engaño sólo se reveló cuando el falso Elon desapareció después de recibir el dinero.
Luego está el caso de Michael Smith, un músico fracasado que ideó un esquema para generar millones usando IA para crear y promocionar canciones en plataformas de streaming. Smith, junto con dos socios, crearon miles de cuentas de bots para inflar artificialmente las reproducciones de sus canciones generadas con IA. Llegaron a generar más de 4 mil millones de reproducciones y $122 millones en regalías antes de ser descubiertos y arrestados por el FBI, enfrentando múltiples cargos de fraude y lavado de dinero.
También existen casos relacionados con la creación y difusión de deepfakes con fines maliciosos. Un adolescente en Melbourne, Australia, fue arrestado por crear imágenes explícitas con las caras de 50 compañeras de clase. Otro caso, el de Jod, ilustra las consecuencias devastadoras de la difusión no consentida de deepfakes, llevando a la detención de su mejor amiga, Alex Wolf, quien fue la responsable de generar y distribuir el material.
Finalmente, el caso de Arab, una empresa de ingeniería, destaca la vulnerabilidad de las organizaciones ante ataques sofisticados usando deepfakes. Un sofisticado engaño por deepfake permitió a los criminales robar $25.6 millones de dólares de la cuenta de la compañía en Hong Kong, aprovechando la dispersión geográfica de sus oficinas y la alta credibilidad de la tecnología de deepfake.
Estos casos muestran la preocupante realidad de la criminalidad impulsada por IA: desde la manipulación política hasta la extorsión y el fraude financiero, la tecnología se está convirtiendo en una herramienta poderosa en manos de delincuentes. La capacidad de clonar voces, generar imágenes realistas y automatizar procesos a gran escala presenta nuevos desafíos para la aplicación de la ley y la protección de la sociedad.