La advertencia de Eric Schmidt: la IA podría desatar una nueva carrera armamentística

En medio de este contexto, Eric Schmidt, ex CEO de Google, y Alexandr Wang, fundador de Scale AI, han publicado un trabajo titulado "Estrategia de Superinteligencia". Este documento, lejos de ser una simple disertación académica, plantea una advertencia contundente: la carrera armamentística impulsada por la IA podría tener consecuencias catastróficas.
El documento compara la eventual creación de una Inteligencia General Artificial (AGI) con el Proyecto Manhattan, señalando los riesgos de una respuesta agresiva por parte de países rivales. "La creación de un programa de este tipo invitaría a que los adversarios respondieran agresivamente o con sabotaje," advierten los autores. En lugar de apostar por una carrera armamentística en IA, proponen enfocarse en el desarrollo de mecanismos de defensa cibernética capaces de neutralizar las amenazas derivadas de proyectos de IA hostiles.
La ironía radica en que tanto Schmidt (con su empresa White Stork, que desarrolla tecnologías para drones autónomos) como Wang (cuya Scale AI firmó un contrato con el Departamento de Defensa de EE.UU.) están involucrados en el desarrollo de tecnología para el sector de defensa. Este hecho ilustra la compleja realidad del Silicon Valley: una industria que, tras años de evitar la participación en proyectos militares, ahora se involucra activamente en la carrera por la innovación en defensa, impulsada por lucrativos contratos.
Este fenómeno no se limita a Estados Unidos. "Todos los contratistas de defensa militar tienen un conflicto de intereses en la promoción de la guerra cinética," afirman Schmidt y Wang, destacando que la respuesta de otros países con sus propios complejos industriales militares genera una espiral peligrosa. Palmer Luckey, fundador de Anduril, ofrece una perspectiva contraria, argumentando que los drones con IA son una opción "más segura" que otras armas tradicionales.
El informe de Schmidt y Wang se basa en la premisa de una IA futura "superinteligente". Sin embargo, la realidad actual presenta una imagen menos definida. "Hay muchos modelos que se equivocan en grande," se puede observar en el análisis de la creciente utilización de la IA en procesos como la revisión de currículums, donde los errores son frecuentes. Esta disparidad entre la visión de una IA todopoderosa y la imperfección de las tecnologías actuales genera un debate complejo sobre el futuro de la IA y su impacto en la seguridad global.
La propuesta del Proyecto Manhattan de IA, presentada ante el Congreso de Estados Unidos, añade más tensión al panorama. La posibilidad de ciberataques, sabotajes a infraestructura y la respuesta de países como China, ponen de manifiesto la necesidad de un debate urgente y una reflexión profunda sobre el desarrollo y la aplicación de la Inteligencia Artificial en el ámbito global. La falta de un acuerdo internacional para regular el desarrollo de estas tecnologías genera un panorama incierto, donde la posibilidad de un conflicto tecnológico a gran escala se vislumbra como una amenaza latente.