Pero, ¿qué sucede cuando estas herramientas se convierten en un arma de doble filo? El caso de Marley Stevens, estudiante de la Universidad del Norte de Georgia (UNG), ilustra perfectamente esta problemática. Marley, quien ya lidiaba con ansiedad diagnosticada y una enfermedad cardíaca crónica, recibió un correo electrónico que cambiaría su vida: un cero en una tarea y una acusación de plagio por utilizar Grammarly, un corrector ortográfico que utiliza inteligencia artificial.
Irónicamente, Grammarly figuraba como recurso recomendado en el sitio web de la UNG. Sin embargo, la acusación desencadenó un proceso de seis meses que incluyó un periodo de libertad condicional académica, impactando directamente su promedio y, consecuentemente, la pérdida de su beca. “No podía dormir ni concentrarme en nada”, recuerda Marley, “Me sentía impotente”. Su salud mental se deterioró significativamente.
Este no es un caso aislado. Lucie Vágnerová, consultora educativa en Nueva York, ha gestionado más de 100 casos de mala conducta estudiantil relacionados con IA desde noviembre de 2023, con un aumento alarmante de falsos positivos. Las consecuencias son devastadoras: pérdida de becas, problemas con visas para estudiantes internacionales, y un estrés profundo que puede prolongarse por semanas o incluso meses. “La ansiedad es la palabra que más escucho”, afirma Vágnerová, “Los estudiantes me dicen que no comen, no duermen, se sienten culpables”.
Otros ejemplos ilustran la magnitud del problema: estudiantes de la Universidad Texas A&M–Commerce a quienes se les negó temporalmente sus diplomas tras una acusación masiva basada en el uso de ChatGPT; Maggie Seabolt, estudiante de la Universidad Liberty, quien sufrió una reducción en su calificación por una acusación similar, a pesar de haber escrito su trabajo sin ayuda de IA. “No tenía idea de cómo demostrar mi inocencia”, confiesa Maggie, “Me sentí muy sola”.
La situación se complica aún más por la falta de estándares claros y la confiabilidad cuestionable de los detectores de IA. Turnitin, una herramienta popular, presenta una alta tasa de falsos positivos, especialmente cuando el porcentaje de texto generado por IA es bajo (menor al 20%). La misma empresa recomienda no usar su software como única prueba para acusar a un estudiante. Un representante de Turnitin enfatiza: “Nuestra recomendación es que no hay nada que pueda sustituir el conocer al estudiante y su estilo de redacción”.
Expertos como Casey Fiesler, profesor asociado de la Universidad de Colorado en Boulder, advierten sobre los riesgos de basar decisiones académicas únicamente en detectores de IA, dados sus sesgos y falta de precisión. Un estudio de la Universidad de Pensilvania incluso demostró que estos detectores son fácilmente engañados con variaciones mínimas en el texto. La falta de políticas estandarizadas en las universidades, así como la brecha entre el rápido avance de la IA y la respuesta institucional, agrava aún más la situación.