mayo 16, 2026
usando_ia_372001a6135f_0

Redacción

Ciudad de México.- Imaginemos la escena: un estudiante universitario recibe el viernes por la tarde una instrucción —”entrega un ensayo sobre el impacto de la globalización para el lunes”— y en lugar de pasar el fin de semana investigando y analizando al respecto, abre una aplicación de Inteligencia Artificial y en menos de un minuto obtiene un texto de 1,200 palabras, con citas, estructura académica y conclusiones coherentes. El lunes entrega el trabajo. El profesor lo lee. No encuentra nada sospechoso. La calificación es buena. Nadie aprendió nada.

Esa escena se repite en aulas de todo el mundo con una frecuencia que ya no sorprende. Lo que sí debería sorprender —y urgir— es la respuesta institucional que suele seguirle: prohibir las herramientas, instalar detectores de IA y tratar el fenómeno como un problema de integridad académica. Ese diagnóstico es incorrecto. El problema no es el estudiante que usa la tecnología disponible para resolver una tarea diseñada en otro siglo. El problema es la forma en que se diseña y evalúa la tarea del estudiante. 

La transformación digital en el mundo académico llegó a un punto de inflexión que no admite soluciones de parche. Según el Digital Education Council Global AI Student Survey, el 86% de los estudiantes universitarios ya utiliza herramientas de IA en sus actividades académicas, y más de la mitad lo hace al menos una vez a la semana. Paralelamente, la Fundación CYD documenta que sólo el 34% de estos estudiantes ha recibido formación en IA por parte de su universidad. La brecha no podría ser más elocuente: la tecnología ya está dentro del aula, pero la institución todavía debate si la deja entrar.

La IA como piso, no como techo

La alfabetización en IA dejó de ser una ventaja competitiva para convertirse en un requisito básico de empleabilidad. El Reporte sobre el Futuro del Empleo del Foro Económico Mundial —elaborado con datos de más de 1,000 empleadores globales que representan 14 millones de trabajadores— establece que la IA, el análisis de grandes volúmenes de datos y el pensamiento crítico aplicado son las habilidades de mayor crecimiento proyectado hacia 2030. No son habilidades del futuro: son las del presente que muchos egresados universitarios no poseen.

El reto de la universidad, entonces, no consiste en enseñar a usar ChatGPT, Gemini, Claude, sino en enseñar a cuestionar lo que la IA produce: detectar sus sesgos, contrastar sus fuentes, identificar sus límites y, fundamentalmente, aportar el juicio humano que ningún modelo de lenguaje puede replicar. Una generación que sabe pedir respuestas a una máquina, pero no evaluarlas, no es una generación preparada para el mercado laboral. Es una generación dependiente de él.

“En educación, la IA no debe sustituir la curiosidad, sino potenciarla, y no debe reemplazar el juicio humano, sino elevarlo. Su mayor valor aparece cuando la usamos con conciencia: para explorar mejor, preguntar mejor, aprender mejor y formar personas con criterio, discernimiento, juicio ético y pensamiento crítico”, afirma el Dr. Luis Gutiérrez, Vicerrector Académico de Tecmilenio

El rediseño total de la evaluación

Si una herramienta de Inteligencia Artificial en educación puede resolver la tarea de un alumno en 30 segundos, el problema no es el alumno, es la tarea. Seguir evaluando con ensayos de entrega diferida, exámenes de memoria o reportes estandarizados es equivalente a prohibir las calculadoras en lugar de rediseñar los problemas de matemáticas para que requieran razonamiento, no cálculo mecánico. La analogía es obvia; la resistencia institucional, inexplicable.

La evaluación por competencias basada en procesos —no en productos finales— es la respuesta más documentada a esta disrupción. Evaluaciones en tiempo real, resolución de casos con variables cambiantes, defensa oral de criterios, proyectos con impacto medible en comunidades reales: estos son formatos que la IA no puede completar en lugar del estudiante porque exigen presencia, argumentación viva y responsabilidad sobre el resultado. No es un modelo educativo experimental: es el modelo que el mercado laboral ya exige y que las universidades aún no ofrecen con suficiente claridad.

Una investigación del Digital Education Council revela que el 55% de los estudiantes teme que la dependencia excesiva en IA desvalorice su experiencia educativa. Esa inquietud es una señal clara: los propios estudiantes perciben que algo en el contrato pedagógico está roto. Saben que están consumiendo tecnología, pero no están seguros de estar aprendiendo.

El uso estratégico de la IA —saber cuándo delegar en ella, cuándo cuestionarla y cuándo ignorarla— es en sí mismo una competencia profesional de primer orden que las empresas ya están midiendo en sus procesos de selección. El Future of Jobs Report lo confirma: el pensamiento analítico, la creatividad, la resiliencia y la alfabetización tecnológica integran el top de habilidades más buscadas por empleadores en todos los sectores industriales. Ninguna de esas habilidades la provee la IA; todas se desarrollan precisamente al aprender a trabajar con —y en tensión productiva con— ella.

El futuro del trabajo no pertenece a quien sepa hacer mejores prompts. Pertenece a quien sepa qué preguntar, por qué importa y qué hacer con la respuesta. Esa capacidad —de juicio, de ética, de crítica— no la puede automatizar ningún modelo. Sigue siendo irreductiblemente humana. Y es, por tanto, la competencia más valiosa que una universidad puede cultivar hoy.

Tecmilenio incorpora el uso ético y estratégico de la IA en su modelo educativo con la convicción de que la disrupción tecnológica no es una amenaza para la educación superior, sino su mayor oportunidad de reinvención. Instituciones que forman profesionales capaces de integrar, cuestionar y liderar con tecnología —no solo consumirla— están respondiendo exactamente a la demanda que empresas, gobiernos y sociedades están planteando para la próxima década.

About The Author