Es un objetivo que empresas como ByteDance, la creadora de TikTok, están persiguiendo con fuerza.
Sin embargo, en el camino hacia la perfección tecnológica, siempre hay obstáculos. ByteDance ha confirmado que despidió a un interno por "interferir maliciosamente" con el entrenamiento de modelos de inteligencia artificial utilizados en un proyecto de investigación.
El incidente, que se ha extendido rápidamente en las redes sociales chinas, provocó especulaciones sobre el alcance del sabotaje y sus posibles consecuencias para el desarrollo de la IA de ByteDance. Los rumores apuntaban a que el interno había dañado miles de unidades de procesamiento gráfico (GPU), esenciales para entrenar los modelos de IA, y que las pérdidas ascendían a decenas de millones de dólares.
En respuesta a las especulaciones, ByteDance emitió un comunicado a través de su servicio de agregación de noticias, Toutiao, aclarando que los productos comerciales y los modelos de lenguaje de gran tamaño de la empresa no se vieron afectados. La compañía también desmintió la magnitud del daño, señalando que las cifras que se circulaban en las redes sociales eran exageradas.
ByteDance ha informado del comportamiento del interno a su universidad y a las asociaciones de la industria. Este incidente, que llega en un momento de escrutinio sobre las empresas de tecnología y la seguridad de los modelos de IA generativa, resalta la complejidad del desarrollo de tecnologías avanzadas y la importancia de asegurar su uso responsable.