
El uso de inteligencia artificial generativa se ha convertido en una herramienta cotidiana para estudiantes universitarios, al nivel de los cuadernos o calculadoras. ChatGPT, en particular, ha sido adoptado masivamente como apoyo para estudiar, organizar apuntes, corregir redacción y generar tarjetas de repaso. Sin embargo, mientras las universidades intentan adaptarse a esta tecnología emergente, también comienzan a establecer límites claros sobre su uso académico.
Un informe reciente del Higher Education Policy Institute revela que el 92 % de los estudiantes utiliza alguna forma de IA generativa, un aumento significativo respecto al 66 % registrado el año anterior. Esta tendencia refleja un cambio en la percepción del uso de estas herramientas: lo que antes se consideraba una forma de hacer trampa, ahora se interpreta como un recurso complementario para el aprendizaje autónomo.
Estudiantes como los de Cambridge han popularizado en redes sociales métodos para integrar la IA en sus rutinas de estudio. Entre las estrategias más comunes se encuentran la generación de preguntas de práctica a partir de apuntes, la creación de diagramas explicativos y la simplificación de conceptos complejos. Estas prácticas han sido respaldadas por expertos en educación tecnológica, quienes destacan el valor de la IA para descomponer tareas difíciles y fomentar la comprensión.
A pesar de sus beneficios, el uso excesivo de estas herramientas plantea riesgos. Algunos estudiantes han desarrollado métodos para contrarrestar la dependencia, como el “pushback method”, que consiste en cuestionar las respuestas generadas por la IA y considerar otras perspectivas. Esta actitud crítica es vista con buenos ojos por las instituciones, que promueven el uso reflexivo de la tecnología.
No obstante, el debate sobre los límites continúa. Universidades como Northumbria han implementado detectores de IA para identificar posibles abusos en trabajos académicos. Aunque se permite el uso de estas herramientas para estructurar ideas o mejorar la presentación, se advierte sobre los peligros de confiar en contenidos generados automáticamente, que pueden incluir errores, referencias falsas o información inventada.
En el caso de la University of the Arts London, se exige a los estudiantes documentar cómo utilizan la IA en sus procesos creativos, como parte de una política de transparencia y responsabilidad. Esta medida busca integrar la tecnología sin comprometer la autenticidad del trabajo académico.
Con la rápida evolución de estas herramientas, el entorno universitario se enfrenta al desafío de formar estudiantes con habilidades críticas y tecnológicas. La alfabetización en IA se perfila como una competencia esencial en el mundo laboral, pero los educadores insisten en que el aprendizaje debe seguir siendo un proceso activo, donde la inteligencia artificial funcione como apoyo, no como sustituto.
