Uso de IA en la Universidad: Estudiantes Potencian el Aprendizaje, No Solo Externalizan Tareas

Theconversation

Una encuesta reciente en Middlebury College revela que más del 80% de sus estudiantes están utilizando activamente la inteligencia artificial generativa para el trabajo de curso, marcando una de las tasas de adopción tecnológica más rápidas registradas. Esta cifra supera drásticamente la tasa de adopción del 40% observada entre los adultos estadounidenses y ha ocurrido en menos de dos años desde el lanzamiento público de herramientas como ChatGPT. Si bien la encuesta se centró en una única institución, sus hallazgos se alinean con estudios más amplios, pintando colectivamente una imagen emergente de la integración de la IA en la educación superior.

Realizada entre diciembre de 2024 y febrero de 2025, la encuesta involucró a 634 estudiantes, representando más del 20% del cuerpo estudiantil de Middlebury. Los resultados preliminares, publicados en un documento de trabajo, desafían la narrativa alarmista predominante en torno a la IA en el ámbito académico. En lugar de confirmar los temores sobre la deshonestidad académica generalizada, la investigación sugiere que las políticas institucionales deberían priorizar cómo se usa la IA, en lugar de imponer prohibiciones absolutas.

Contrario a los titulares sensacionalistas que sugieren que la IA está desmantelando el proyecto académico, el estudio encontró que los estudiantes aprovechan principalmente la IA para mejorar su aprendizaje, no para eludir el trabajo. Cuando se les preguntó sobre diez aplicaciones académicas diferentes —que van desde explicar conceptos complejos y resumir lecturas hasta corregir pruebas, generar código de programación e incluso redactar ensayos— “explicar conceptos” encabezó consistentemente la lista. Muchos estudiantes describieron la IA como un “tutor a demanda”, particularmente valioso para asistencia inmediata fuera del horario de oficina tradicional o a altas horas de la noche.

Los investigadores clasificaron el uso de la IA en dos tipos distintos: “aumento”, que se refiere a usos que mejoran el aprendizaje, y “automatización”, para tareas que producen trabajo con un esfuerzo mínimo. Un significativo 61% de los estudiantes que usan IA informaron emplear estas herramientas con fines de aumento, mientras que el 42% las usó para tareas de automatización como la redacción de ensayos o la generación de código. Incluso cuando los estudiantes optaron por la automatización, demostraron discreción, a menudo reservándola para períodos de alta presión como la semana de exámenes o para actividades de bajo riesgo como formatear bibliografías y redactar correos electrónicos rutinarios, en lugar de como una opción predeterminada para el trabajo de curso principal.

Si bien Middlebury College es una pequeña institución de artes liberales con un cuerpo estudiantil relativamente afluente, los hallazgos resuenan a nivel mundial. Un análisis de datos de otros investigadores, que abarca más de 130 universidades en más de 50 países, reflejó los resultados de Middlebury: los estudiantes de todo el mundo que usan IA tienen más probabilidades de hacerlo para aumentar su trabajo de curso que para automatizarlo.

Para abordar las preocupaciones sobre la fiabilidad de los datos de encuestas autoinformadas —donde los estudiantes podrían subestimar los usos inapropiados como la redacción de ensayos y sobrestimar los legítimos— los investigadores cruzaron sus hallazgos con patrones de uso reales de Anthropic, una empresa de IA detrás del chatbot Claude AI. Los datos de Anthropic, derivados de direcciones de correo electrónico universitarias, mostraron que las “explicaciones técnicas” eran un uso importante, consistente con el hallazgo de la encuesta de que los estudiantes utilizan principalmente la IA para explicar conceptos. De manera similar, los registros de Anthropic indicaron un uso sustancial para diseñar preguntas de práctica, editar ensayos y resumir materiales, validando aún más las conclusiones de la encuesta. En esencia, los datos autoinformados coincidieron estrechamente con los registros de conversaciones de IA del mundo real.

Esta distinción entre la adopción generalizada y la trampa universal es crucial. La cobertura alarmista, que a menudo confunde ambas, corre el riesgo de normalizar la deshonestidad académica al hacer que los estudiantes responsables se sientan ingenuos por adherirse a las reglas cuando perciben que “todos los demás lo están haciendo”. Además, tales representaciones distorsionadas proporcionan a los administradores universitarios información inexacta, lo que dificulta su capacidad para elaborar políticas efectivas y basadas en evidencia.

Los hallazgos sugieren que las políticas extremas, como las prohibiciones generales o el uso irrestricto, conllevan riesgos inherentes. Las prohibiciones podrían desfavorecer desproporcionadamente a los estudiantes que más se benefician de las capacidades de tutoría de la IA, mientras que podrían crear ventajas injustas para aquellos que ignoran las reglas. Por el contrario, el uso completamente irrestricto podría fomentar prácticas de automatización dañinas que socavan el aprendizaje genuino. Hasta que no se disponga de una investigación más exhaustiva sobre cómo los diferentes tipos de uso de la IA impactan los resultados del aprendizaje de los estudiantes —y si estos impactos varían entre los estudiantes— las instituciones educativas deben ejercer un juicio cuidadoso al guiar a los estudiantes para discernir las aplicaciones beneficiosas de la IA de las potencialmente perjudiciales.