CDMX
Elon Musk, expertos en inteligencia artificial y líderes de la industria tecnológica firmaron una carta abierta en la que piden una pausa de seis meses en el desarrollo de sistemas de Inteligencia Artificial que excedan el GPT-4 de OpenAI, debido a los riesgos potenciales para la sociedad y la humanidad en general.
Además de Elon Musk, otros titanes del mundo de la tecnología y la IA sumaron sus firmas a la carta. Estos incluyen al CEO de Stability AI, Emad Mostaque; los investigadores de DeepMind y los pioneros de AI, Stuart Russell y Yoshua Bengio.
El cofundador de Apple, Steve Wozniak, también agregó su firma a la carta abierta. Sin embargo, el CEO de OpenAI, Sam Altman, no ha firmado la carta abierta, según un portavoz de Future of Life.
El documento destaca las posibles interrupciones en la política y la economía causadas por los sistemas de Inteligencia Artificial competitivos entre humanos.
También exige la colaboración entre desarrolladores, legisladores y autoridades reguladoras.
“La declaración reciente de OpenAI con respecto a la inteligencia general artificial establece que ‘En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos’. Estamos de acuerdo. Ese punto es ahora.
“Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.
“Los laboratorios de IA y los expertos independientes deben aprovechar esta pausa para desarrollar e implementar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, se puede leer en la carta.
El profesor de la Universidad de Nueva York, Gary Marcus, firmante de la carta, compartió sus sentimientos sobre el asunto .
“La letra no es perfecta, pero el espíritu es correcto: debemos reducir la velocidad hasta que entendamos mejor las ramificaciones. Pueden causar un daño grave… los grandes jugadores se están volviendo cada vez más reservados sobre lo que hacen”.