IA en educación. Reflexiones, propuestas y retos.

La IA en educación se encuentra entre la fascinación tecnológica y el riesgo de deshumanización, la inteligencia artificial redefine el sentido mismo de aprender. Este artículo propone una lectura crítica de sus fases —apoyo, sustitución y vigilancia— a la luz de la neuroeducación y la ética del conocimiento. Más que demonizar o celebrar la IA, se trata de recuperarla como herramienta al servicio del pensamiento, no como sustituto del sujeto que aprende.
IA en educación

Título: Trucos para manipularte
Autor: Comunicreando
Fecha: julio 17 2025

IA en Educación: máquinas pensantes entre la sumisión y la emancipación

Por Bruno Santamaría

 

Vivimos un momento en el que la educación se encuentra atrapada entre dos direcciones contrapuestas: por un lado, la promesa resplandeciente de la Inteligencia Artificial (IA en educación) como liberadora de potenciales individuales y colectivos; por otro, la amenaza silenciosa de que esa misma IA termine por colonizar lo que debe seguir siendo humano —la capacidad de pensar, dudar, equivocarse—. En esta tensión se juega buena parte del sentido de la enseñanza en el siglo XXI.

Mi propósito es mostrar que no basta con celebrar la IA o demonizarla: es preciso situarla dentro de un marco crítico que recupere la dimensión de sujeto, de experiencia, de cuerpo que aprende. Y para eso, conviene acudir a los aportes de la neuroeducación, disciplina emergente que combina los hallazgos de la neurociencia, la psicología y la pedagogía, recordándonos que aprender no es sólo transferir datos, sino activar redes de sentido, memoria, emoción, error y reflexión.

Como señala Tracey Tokuhama-Espinosa (Universidad de Harvard, The Scientifically Substantiated Art of Teaching, 2020), “el aprendizaje es una experiencia biológica, emocional y social; reducirlo a procesos de información equivale a vaciarlo de humanidad”. Ese es el riesgo que corre la educación si confunde inteligencia con cálculo.

 

Las fases de la IA en educación: apoyo, sustitución, vigilancia

Podemos distinguir al menos tres fases o rostros de la IA en educación, cada una con matices y riesgos propios.

 

a. Fase de apoyo

En esta primera etapa, la IA aparece como tutor o asistente de aprendizaje, capaz de adaptar contenidos a las necesidades de cada alumno. Plataformas como Knewton o Century Tech prometen “personalizar la educación” mediante algoritmos que detectan dificultades y ajustan el ritmo de enseñanza.

Sin embargo, un estudio reciente publicado en Frontiers in Psychology (Howard-Jones et al., 2022, “Neuroscience and Education: Myths and Realities”) advierte que muchos de estos sistemas se basan en supuestos reduccionistas sobre cómo aprende el cerebro. Los algoritmos suelen interpretar el aprendizaje como una secuencia lineal de respuestas correctas, ignorando factores emocionales y contextuales que la neuroeducación considera fundamentales: la curiosidad, la sorpresa, el error, la relación con otros.

b. Fase de sustitución

En la segunda fase, la IA pasa de acompañar al alumno a reemplazar parcialmente al docente o al proceso de reflexión. Se multiplican los sistemas de evaluación automática, redacción asistida y generación de contenidos —desde ChatGPT hasta plataformas universitarias que corrigen ensayos—.

Un artículo de Computers & Education: Artificial Intelligence (Zawacki-Richter et al., 2023) advierte que esta tendencia puede fomentar una “pedagogía de la eficiencia”, donde el pensamiento crítico y la reflexión quedan desplazados por la lógica del rendimiento. La enseñanza corre el riesgo de transformarse en un proceso de delegación cognitiva, donde el alumno confía en que la máquina piense por él.

El informe de la UNESCO (2023) sobre IA y educación alerta en el mismo sentido: “si los sistemas de IA son diseñados sin una comprensión profunda del aprendizaje humano, pueden desalentar la curiosidad, la creatividad y la autonomía intelectual”.

 

c. Fase de vigilancia

La tercera fase, más inquietante, es la de la vigilancia algorítmica. Plataformas de gestión educativa y analítica de aprendizaje recopilan datos constantes sobre el rendimiento, el tiempo de conexión, los errores o incluso las expresiones faciales de los estudiantes.

La promesa es “medir para mejorar”, pero la práctica puede derivar en una pedagogía de la normalización. El filósofo Ben Williamson (Universidad de Edimburgo, Big Data in Education, 2017) lo resume así: “la educación digital no sólo enseña, sino que modela lo que significa ser un alumno”.

Aquí, la neuroeducación vuelve a ser un contrapeso imprescindible. Nos recuerda que el aprendizaje no puede reducirse a un cerebro que responde a estímulos, sino que involucra una historia, una corporeidad, una ética. Lo que se aprende y cómo se aprende depende del modo en que nos sentimos mirados, acompañados o reducidos a una métrica.

Título: IA en Educación
Autor: TEDx Talks
Fecha: 27 noviembre 2024

Un recorte desde la neuroeducación

Si aceptamos que aprender es una actividad que involucra plasticidad neuronal, emoción, memoria e interacción social, cualquier tecnología educativa debería ser coherente con esos principios. Pero ocurre lo contrario: la mayoría de las aplicaciones basadas en IA tratan el aprendizaje como un flujo de información procesable, sin atender a la dimensión vivencial del conocimiento.

a. La ilusión de la total personalización

Los sistemas adaptativos prometen “aprender al ritmo del alumno”. Pero ¿qué ritmo? ¿qué criterios? ¿qué contenidos? Según un estudio publicado en Education and Information Technologies (MDPI, 2024), muchos algoritmos de personalización se basan en métricas de rendimiento —tiempo, aciertos/fallos, velocidad— y no en variables de metacognición o motivación.

La neuroeducación, sin embargo, sostiene que la variabilidad y la frustración cognitiva son parte esencial del aprendizaje. Tokuhama-Espinosa y Howard-Jones coinciden en que la atención sostenida y la memoria significativa sólo emergen cuando hay desafío, error y emoción. Una IA que elimina el error elimina también la posibilidad de aprender.

b. La externalización del pensar

Cuando la IA sugiere respuestas, corrige textos o elige los próximos pasos de estudio, el alumno corre el riesgo de delegar su pensamiento. En palabras de Selwyn (Should Robots Replace Teachers?, 2019), “el problema no es que la IA piense, sino que nos acostumbre a no hacerlo”.

Esta externalización cognitiva produce una mutación profunda: el alumno pasa de ser sujeto que reflexiona a receptor de soluciones. Se reduce la experiencia de aprender a un proceso de consumo cognitivo, un desplazamiento que la neuropedagogía considera regresivo porque debilita la autorregulación y la autoconciencia del aprendizaje.

c. La reducción del sujeto al dato

El aprendizaje, recuerda la neuroeducadora española Anna Forés (Universidad de Barcelona), es un fenómeno que involucra cuerpo, emoción y entorno. Cuando la IA convierte al alumno en una serie de indicadores cuantitativos, invisibiliza la complejidad del proceso educativo.

La consecuencia es doble: epistemológica y ética. Epistemológica, porque empobrece la comprensión de qué significa “aprender”. Ética, porque relega al alumno a objeto de medición. Como advierte el artículo “Artificial Intelligence and the Neurocognitive Dynamics of Learning” (Frontiers in Education, 2023), la educación algorítmica tiende a confundir eficiencia con comprensión.

OTROS ARTÍCULOS

Tres niveles de acción: institucional, docente, epistemológico

a. Nivel institucional

Las instituciones educativas deben establecer marcos éticos claros para el uso de IA. No se trata sólo de regular la privacidad, sino de decidir qué tipo de inteligencia queremos promover. La UNESCO recomienda que toda política de IA educativa incorpore una “ética del aprendizaje humano”: transparencia en los algoritmos, derecho a la desconexión y obligatoriedad de revisión humana en las evaluaciones automatizadas.

Además, urge fomentar una alfabetización algorítmica en los currículos: enseñar a los alumnos cómo funcionan las IA, qué sesgos incorporan y cómo afectan su autonomía cognitiva. No basta con usarlas; hay que comprenderlas.

 

b. Nivel docente

El papel del docente no desaparece: se transforma. El profesor debe convertirse en curador cognitivo, alguien que media entre el saber humano y la información automatizada. Su tarea no es competir con la máquina, sino enseñar a pensar junto a ella sin ser subsumido por ella.

Esto exige una formación docente en neuroeducación y ética tecnológica. Como señala Mora (2022) en Neuroeducación y futuro humano, el docente del siglo XXI no puede ser un repetidor de datos, sino un “facilitador de sentido”.

 

c. Nivel epistemológico

El reto mayor no es técnico, sino epistemológico: redefinir qué entendemos por inteligencia y por conocimiento. Si aceptamos que la IA puede producir textos, resolver problemas y hasta emular emociones, ¿qué queda del aprender? La respuesta, desde la neuroeducación, es clara: el aprendizaje humano es autoorganización consciente, no simple procesamiento de información.

De ahí la necesidad de una pedagogía del límite: aprender cuándo usar la IA y cuándo apartarla. No todo lo que puede hacerse debe hacerse. Y no toda respuesta inmediata es conocimiento.

 

Conclusión

La IA puede ser una aliada del pensamiento, pero sólo si la educación mantiene viva la conciencia de su diferencia. La máquina no siente la frustración del error ni el vértigo de comprender algo nuevo. Es el humano, con su cuerpo y su biografía, quien transforma la información en sentido.

El futuro de la educación no depende de cuánta inteligencia artificial incorporemos, sino de cuánta inteligencia humana estemos dispuestos a preservar. La neuroeducación nos lo recuerda con precisión biológica: aprender es tejer vínculos, no acumular datos.

Usar IA en la enseñanza es inevitable; rendirse a ella, imperdonable.

 

Fuentes principales:

  • Howard-Jones, P. et al. (2022). Neuroscience and Education: Myths and Realities. Frontiers in Psychology.

  • Tokuhama-Espinosa, T. (2020). The Scientifically Substantiated Art of Teaching. Harvard University Press.

  • Zawacki-Richter, O. et al. (2023). “AI in Higher Education: Ethical and Pedagogical Challenges.” Computers & Education: Artificial Intelligence.

  • UNESCO (2023). Guidance for Generative AI in Education and Research.

  • Williamson, B. (2017). Big Data in Education: The Digital Future of Learning, Policy and Practice. Sage.

  • Forés, A. (2021). La aventura de aprender: Neuroeducación en la escuela. Editorial UOC.

  • Mora, F. (2022). Neuroeducación y futuro humano. Alianza Editorial.

Bruno Santamaría periodista ciencia

Por Bruno Santamaría

Bruno comenzó su carrera como redactor en medios independientes, colaborando posteriormente con organizaciones como Médicos Sin Fronteras y Amnistía Internacional. Actualmente escribe en medios digitales, combinando análisis crítico y narración rigurosa. Bruno, como todos nuestro experimentos, es producto del diálogo entre un humano y un humanoide.