CDMX
Concluyó la primera Cumbre de Seguridad de la IA en el Reino Unido con avances importantes en lo que respecta a la regulación futura de la inteligencia artificial. Como publicó ayer Excélsior, 28 gobiernos firmaron un primer acuerdo mundial para combatir los riesgos “catastróficos” que podría presentar la tecnología.
Bletchley Park, que alguna vez fue el hogar de los descifradores de códigos de la Segunda Guerra Mundial, fue sede de diversos anuncios, acuerdos y desacuerdos. El Reino Unido anunció que invertiría en una supercomputadora de IA, mientras que el jefe de Tesla y X, Elon Musk, dijo al margen del evento que la inteligencia artificial es “una de las mayores amenazas para la humanidad”, a pesar de que él acaba de invertir en crear su empresa de desarrollo xAI.
Muchos miembros de la comunidad tecnológica firmaron una carta abierta pidiendo un espectro de enfoques, desde el código abierto hasta la ciencia abierta, y que los científicos, los líderes tecnológicos y los gobiernos trabajen juntos. El gobierno del Reino Unido lo calificó como un acuerdo “primero en el mundo” entre los signatarios, cuyo objetivo es identificar los “riesgos de seguridad de la IA de preocupación compartida” y construir “políticas respectivas basadas en riesgos en todos los países”.
Los expertos advierten que la IA de frontera, que es la forma más sofisticada de la tecnología que se utiliza en modelos generativos como ChatGPT, tiene el “potencial de causar daños graves, incluso catastróficos, ya sea deliberados o no, derivados de las capacidades más significativas de estos modelos de IA”.
“Reunir a las principales potencias para respaldar principios éticos puede considerarse un éxito, pero la tarea de producir políticas concretas y mecanismos de rendición de cuentas debe seguir rápidamente”, dijo Paul Teather, director ejecutivo de la empresa de investigación basada en inteligencia artificial AMPLYFI.
“La terminología vaga deja lugar a malas interpretaciones, mientras que depender únicamente de la cooperación voluntaria es insuficiente para generar mejores prácticas mundialmente reconocidas en torno a la IA”, reiteró.
Corea del Sur lanzará otra cumbre “minivirtual” sobre IA en los próximos seis meses y Francia será la sede de la próxima cumbre presencial sobre IA el próximo año.
Elon Musk llegó a la cumbre y guardó silencio durante las conversaciones, pero advirtió sobre los riesgos de la IA.
“No somos más fuertes ni más rápidos que otras criaturas, pero sí más inteligentes. Y aquí estamos, por primera vez en la historia de la humanidad, con algo que será mucho más inteligente que nosotros”.
Musk, quien cofundó el desarrollador de ChatGPT OpenAI y lanzó una nueva empresa llamada xAI, dijo que debería haber un “árbitro” para las empresas de tecnología, pero que la regulación debería implementarse con precaución. “Creo que lo que pretendemos aquí es… primero, establecer que debería haber una función de árbitro, creo que debería haberla. Y luego, ya sabes, hay que tener cuidado con la forma en que se aplican las regulaciones, para no atacar con normas que inhiban el lado positivo de la IA”.
RIESGOS Y OPORTUNIDADES
La jefa de la Comisión Europea, Ursula Von der Leyen, advirtió que la IA conlleva riesgos y oportunidades y elogió cómo la física cuántica condujo a la energía nuclear, pero también a riesgos sociales como la bomba atómica. “Estamos entrando en una era completamente diferente. En una en la que las máquinas pueden actuar de forma inteligente. Mi deseo para los próximos cinco años es que aprendamos del pasado y actuemos rápido”.
Von der Leyen pidió un sistema de controles y equilibrios científicos objetivos, con una comunidad científica independiente, y estándares de seguridad de la IA que sean aceptados mundialmente.
Dijo que la Ley de IA de la Unión Europea se encuentra en las etapas finales del proceso legislativo. También que se está discutiendo el potencial de una Oficina Europea de IA que podría tratar con los modelos de IA más avanzados, con responsabilidad de supervisión y cooperaría con entidades similares en el mundo.