En noviembre, Microsoft lanzó un proyecto en los Emiratos Árabes Unidos para proporcionar herramientas y formación en IA a más de 200 mil estudiantes y docentes. Poco después, una empresa de Kazajistán firmó un acuerdo con OpenAI para ofrecer ChatGPT Edu a 165 mil educadores. Además, xAI anunció una iniciativa similar con El Salvador, en la que implementará un sistema de tutoría basado en el chatbot Grok para más de un millón de estudiantes.
Estas herramientas de IA, que incluyen chatbots como ChatGPT y Gemini, son alabadas por muchos como una bendición para el aprendizaje. Se argumenta que pueden ahorrar tiempo a los profesores, personalizar la enseñanza para los alumnos y ofrecerles una forma más accesible y eficiente de adquirir conocimientos. Sin embargo, también hay preocupaciones sobre los posibles riesgos que estas tecnologías podrían representar para el desarrollo cognitivo de los jóvenes.
Un estudio reciente realizado por Microsoft y la Universidad Carnegie Mellon reveló que los chatbots de IA podrían disminuir el pensamiento crítico de los estudiantes, al ofrecer respuestas predefinidas en lugar de fomentar la reflexión independiente. Además, algunos docentes advierten que los alumnos están utilizando IA para hacer trampa o tomar atajos en sus tareas, lo que puede afectar la calidad del aprendizaje.
El debate sobre el uso de la IA en las escuelas recuerda a un esfuerzo anterior en la educación: el programa "Una computadora portátil por niño", que pretendía proporcionar acceso a la tecnología en las aulas. Sin embargo, estudios en Perú indicaron que este programa no mejoró significativamente las habilidades cognitivas ni los resultados académicos de los estudiantes.
A nivel global, algunos países están adoptando la IA en la educación con precaución. En Estados Unidos, distritos escolares como los de Miami-Dade y Broward han implementado el uso de chatbots de IA, como Gemini de Google y Copilot de Microsoft, para ayudar a los estudiantes y profesores. Sin embargo, grupos de defensa de los niños, como UNICEF, exigen más regulaciones y orientación para garantizar que el uso de estas tecnologías no cause daño a los jóvenes.
En Estonia, el gobierno ha lanzado un proyecto nacional llamado AI Leap, que tiene como objetivo enseñar a los educadores y estudiantes sobre los beneficios, límites y riesgos de la IA. En lugar de dar respuestas directas, OpenAI y otros proveedores han modificado sus herramientas para hacer preguntas que fomenten el pensamiento crítico entre los estudiantes.
Islandia también ha puesto en marcha un proyecto piloto de IA en las escuelas, centrado en cómo los profesores pueden utilizar herramientas como Gemini y Claude para crear lecciones más dinámicas y atractivas. Sin embargo, las autoridades islandesas aún no permiten que los estudiantes utilicen estos chatbots debido a las preocupaciones de que podrían depender demasiado de ellos y perder habilidades fundamentales de aprendizaje.
Los defensores de la IA en las aulas argumentan que estas herramientas pueden ser una poderosa herramienta para mejorar la educación. Pero los investigadores y educadores, conscientes de los posibles efectos secundarios, siguen instando a un uso más cauteloso. La preocupación principal es que los estudiantes pueden llegar a depender demasiado de la IA sin desarrollar las habilidades necesarias para evaluar críticamente la información o resolver problemas de manera independiente.
A medida que la tecnología continúa evolucionando, el desafío será encontrar un equilibrio entre la integración de la IA en las aulas y el asegurarse de que no comprometa el desarrollo educativo de los estudiantes a largo plazo.