Aunque algunos usuarios encuentran humor en estos videos, otros consideran que esta tendencia plantea graves cuestiones éticas, especialmente sobre el control de la imagen de los difuntos. Estos videos, considerados por algunos como "deepfakes" (contenidos generados por IA que simulan la realidad de forma engañosa), han sido motivo de polémica desde que Sora comenzó a generar clips de figuras como Winston Churchill, Michael Jackson y Elvis Presley, en situaciones poco comunes y a veces absurdas.
No obstante, no todos los videos generados han sido bien recibidos. En octubre, OpenAI tuvo que bloquear la creación de videos usando la imagen de Martin Luther King Jr., luego de que se compartieran clips ofensivos que distorsionaban su famoso discurso "I Have a Dream". Esto levantó quejas por parte de sus herederos, lo que llevó a la empresa a replantear sus políticas.
Los expertos señalan que esta tecnología se encuentra en lo que se conoce como el "valle inquietante", una teoría que sugiere que cuanto más realista es una imagen o un video, más puede generar una sensación de incomodidad en las personas. Constance de Saint Laurent, profesora de la Universidad de Maynooth en Irlanda, advirtió que el impacto de recibir videos de seres queridos fallecidos podría ser traumático para muchas personas.
En las últimas semanas, los familiares de figuras como el actor Robin Williams y el activista Malcolm X también se han manifestado en contra del uso de Sora para crear videos de sus seres queridos. Zelda Williams, hija de Robin Williams, pidió en sus redes sociales que se dejara de enviarle estos clips, calificándolos de "enloquecedores".
A pesar de que OpenAI ha indicado que está implementando medidas para permitir que las personalidades públicas y sus familias controlen la representación de sus imágenes, muchos expertos, como Hany Farid, cofundador de GetReal Security, aseguran que la empresa ha creado una herramienta que facilita el abuso de la identidad de celebridades y figuras públicas, lo que podría empeorar con el tiempo.
Además, la propagación de contenidos falsificados o manipulados, conocidos como "AI slop", no solo afecta a figuras públicas, sino también a personas no célebres. Los investigadores alertan que este tipo de contenido podría minar la confianza de los usuarios en la veracidad de la información en línea.
La creciente difusión de herramientas avanzadas de IA plantea un futuro incierto, en el que la manipulación digital de imágenes y voces podría seguir siendo un desafío ético y social.