De acuerdo con Bloomberg, la historia comienza un martes por la mañana, cuando un directivo de la prestigiosa marca de autos de lujo comenzó a recibir una serie de mensajes inesperados, aparentemente del mismísimo CEO, Benedetto Vigna. “Oye, ¿te has enterado de la gran adquisición que estamos planeando? Podría necesitar tu ayuda”, decía uno de los supuestos mensajes de WhatsApp enviados por Vigna. Sin embargo, estos no parecían provenir de su número habitual y la foto de perfil también levantaba sospechas. La conversación continuó con más mensajes. "Prepárate para firmar el acuerdo de confidencialidad que nuestro abogado está a punto de enviarte", indicaba otro de los mensajes del estafador y luego le solicitaba mantener todo en secreto. "El regulador del mercado italiano y la bolsa de Milán ya han sido informados. Mantente alerta y por favor discreción máxima".
Afortunadamente, el directivo que recibió estos mensajes detectó rápidamente que esa serie de textos no eran normales. Incluso sospechó de los mensajes de voz, a pesar de que estos imitaban a la perfección la voz de Vigna. A medida que avanzaba, la historia se volvía más sospechosa para el directivo. Para justificar el número diferente, el deepfaker explicó que se debía a la confidencialidad del trato, ya que China podría tratar de obstaculizar el trato. Bastante extrañado por la situación, el directivo decidió que era hora de confirmar que se trataba de un engaño. Le dijo a su interlocutor "disculpa, Benedetto, pero necesito identificarte". Entonces le preguntó cuál era el título del libro que Vigna le había recomendado hacía unos días. Y de repente la llamada se cortó.
Ferrari ha abierto una investigación interna. No obstante, como indica Bloomberg, los representantes de la marca no han querido hacer comentarios. El directivo actuó con rapidez gracias al uso de un método conocido como contraseña familiar, que permite asegurarnos de que realmente hablamos con la persona que creemos.
De acuerdo con el Instituto Politécnico Nacional, se trata de un video, una imagen o un audio generado para imitar la apariencia y la voz de una persona. Son representaciones creadas por la IA, tan convincentes, que muchas veces no podemos percibir que estamos frente a algo ficticio. Las deepfakes se generan utilizando redes neuronales que aprenden los rasgos faciales, expresiones y la forma de hablar de una persona para luego recrearlos digitalmente. Originalmente, esta tecnología se usaba en entretenimiento, como en películas, para mejorar efectos visuales. Sin embargo, en los últimos años, los criminales han empezado a usarla para suplantar identidades, o incluso para crear, ilegalmente, contenido sexual de otras personas.
El de Ferrari no es el primer intento de este tipo de hacerse pasar por un ejecutivo de alto perfil. A principios del 2024 te contamos que una empresa multinacional perdió 200 millones de dólares de Hong Kong (438 millones de pesos) después de que los estafadores engañaran a sus empleados con tecnología deepfake. En aquella ocasión, los estafadores fabricaron representaciones del director financiero de la empresa y otras personas en una videollamada y convencieron a la víctima de que transfiriera dinero.