25/10/2025 15:55
25/10/2025 15:55
25/10/2025 15:55
25/10/2025 15:53
25/10/2025 15:30
25/10/2025 15:30
25/10/2025 15:30
25/10/2025 15:30
25/10/2025 15:30
25/10/2025 15:30
Buenos Aires » Infobae
Fecha: 25/10/2025 04:43
Justin Reich es profesor de Estudios Comparativos de Medios y Escritura en el MIT (EE.UU.), donde dirige el Laboratorio de Sistemas de Enseñanza. En 1913 Thomas Edison vaticinó que, en un futuro cercano, todos los libros de texto serían reemplazados por películas. Desde entonces, los siglos XX y XXI acumulan varios episodios de fascinación tecnológica y pronósticos de refundación –o desaparición– de la escuela. La inteligencia artificial generativa ha suscitado el más reciente de esos episodios. Pero, para Justin Reich, no estamos en el preámbulo de ninguna revolución educativa. Reich es profesor de Estudios Comparativos de Medios y Escritura en el Massachusetts Institute of Technology (MIT), una de las universidades más prestigiosas del mundo. Allí dirige el Laboratorio de Sistemas de Enseñanza, dedicado a la formación docente. Comenzó su carrera como profesor de Historia en escuelas secundarias; luego hizo su doctorado en Harvard. Es autor de libros sobre educación y tecnología y actualmente conduce un podcast sobre el tema. La semana pasada estuvo en Buenos Aires para participar de una jornada sobre “Aprendizajes efectivos con IA en alfabetización y matemática” organizada por la Escuela de Educación de la Universidad Austral y el Banco Interamericano de Desarrollo (BID). –¿Por qué no cree que la IA vaya a producir una transformación radical de la educación, sino en todo caso algunos cambios puntuales y progresivos? –El método que uso es mirar hacia atrás en la historia para tratar de prever los impactos de las nuevas tecnologías. Y si miramos el último siglo, los tecnólogos han afirmado muchas veces que una nueva tecnología estaba a punto de transformar la educación. Cada generación repite lo mismo: siempre se promete que las tecnologías van a cambiar la educación, y eso no ocurre. No ocurre porque los sistemas educativos son estructuras complejas, con objetivos a veces contradictorios, y no se transforman fácilmente. Tal vez alguna tecnología rompa ese patrón, pero la historia sugiere lo contrario. –¿No le parece que, por su potencia, la IA generativa va a tener un impacto muy diferente de lo que pasó con el cine, las computadoras o internet? –Será diferente en cuanto a su forma, pero no en el patrón general. La tecnología no tiene un impacto disruptivo en las escuelas: las instituciones educativas la domestican. Toman la nueva herramienta y dicen: “Esto puede servir para enseñar a este grupo de estudiantes, en esta materia, de esta manera”. Eso es lo que pasará también con la IA generativa. La forma concreta que tome esa adaptación será distinta de la que vimos con el cine, con las computadoras o con la web, pero no va a producir un cambio transformador a gran escala. Para Reich, que inició su carrera como profesor de Historia, es probable que con la IA se repita lo que ya pasó con otras tecnologías: las escuelas la "domesticarán", pero no se verán transformadas radicalmente. (Imagen Ilustrativa Infobae) –En su libro Failure to Disrupt (2020), plantea que el entusiasmo por lo nuevo nos hace olvidar promesas anteriores que resultaron fallidas, de los MOOC a las pizarras digitales. ¿Qué tecnologías parecían venir a revolucionar la educación y no lo hicieron? –La combinación de internet y los teléfonos inteligentes fue, quizás, la mayor hazaña tecnológica de nuestra era: conectó a millones de personas con casi todo el conocimiento humano. Y, sin embargo, ese acceso no produjo mejoras significativas en la educación. No es que no haya aportado nada –hay usos valiosos, claro–, pero tener máquinas que escriben textos me parece mucho menos sorprendente que haber logrado conectar a cada persona con todo el saber disponible. Aun así, el impacto educativo fue limitado. Creo que la razón es simple: aprendemos con otros. Los seres humanos somos criaturas sociales, y la mayor parte del aprendizaje ocurre en interacción. Por eso, si queremos mejorar la educación, más que multiplicar herramientas individuales de acceso al conocimiento, deberíamos fortalecer los vínculos y las relaciones entre las personas. –Algunas visiones críticas plantean que, al permitir la delegación de la lectura y la escritura, la IA implica un paso significativo hacia sociedades “posalfabéticas”. ¿Qué piensa al respecto? –Me preocupa bastante. Intento no partir de una posición ideológica –ni pensar que la tecnología es mala, ni que va a ser revolucionaria–, sino mirar la evidencia sobre su impacto en el aprendizaje. La caída de los niveles de alfabetización es alarmante. Está ocurriendo en todo el mundo y en todas las edades, y nuestras democracias dependen de ciudadanos informados. No sé si es un fenómeno apocalíptico o simplemente otro de los grandes problemas que enfrentamos, pero sin duda es grave. La inteligencia artificial puede agravar la situación. Si les pedís a los estudiantes un ensayo para hacer en casa, probablemente usen la IA. Entonces los docentes terminan diciendo: “Mejor que lo escriban en clase”. Pero ese tiempo antes se usaba para otras actividades valiosas. Quizás, en esta era de hiperconectividad y teléfonos inteligentes, lo mejor que un docente puede ofrecer a sus estudiantes sea un espacio tranquilo, sin distracciones, para pensar, escribir y comunicarse cara a cara. Si eso es lo más valioso, deberíamos hacerlo. Pero hay que reconocer el costo: si los estudiantes escriben en clase, dejan de debatir, de leer, de escuchar explicaciones de sus docentes. Seguramente muchas escuelas reduzcan las tareas para el hogar. Si no se puede supervisar lo que hacen, los estudiantes usarán ChatGPT. Copiar respuestas no tiene sentido, y tampoco tiene sentido que los docentes corrijan textos generados por IA. Pero si creemos que la tarea tiene valor pedagógico, entonces estaremos perdiendo millones de horas de práctica y aprendizaje. Y eso también puede ser negativo para el desarrollo humano. "Quizás, en esta era de hiperconectividad y teléfonos inteligentes, lo mejor que un docente puede ofrecer a sus estudiantes sea un espacio tranquilo, sin distracciones, para pensar, escribir y comunicarse cara a cara", sostiene Reich. (REUTERS/Mike Blake) –Hay mucha preocupación en relación con el plagio y el uso de IA para hacer las tareas. ¿Qué estrategias están usando los docentes para asegurarse de que los estudiantes sigan pensando, escribiendo y produciendo por sí mismos? –Yo diría que hay cuatro estrategias principales. La primera es una especie de “pedido especial”: los docentes apelan a la confianza. Les explican a los estudiantes por qué no deberían usar la IA para hacer sus tareas y confían en su responsabilidad. Es un método sin vigilancia, que busca fomentar buenas decisiones, aunque sabemos que no siempre funciona. Otra estrategia es diseñar actividades tan motivadoras que los alumnos quieran hacerlas por sí mismos, sin necesidad de trampas. Visitamos una clase cerca de Los Ángeles, donde un profesor de cine les dice a sus estudiantes: “Usen ChatGPT para lo que quieran”. Sabe que lo que ellos aman es filmar y no delegarán ese proceso, así que no le preocupa que la IA reemplace lo esencial. Si la usan para ajustar guiones o generar preguntas para un documental, no le ve problema. Claro que eso no se puede aplicar en todas las materias: muchas cosas se enseñan no porque los alumnos las disfruten, sino porque son importantes para su formación. Un tercer enfoque podría llamarse “vigilar y rehacer”. Algunos docentes, cuando sospechan que un texto fue escrito por la IA, simplemente le piden al alumno que lo vuelva a hacer, sin discusiones. Si un estudiante usa expresiones que claramente no entiende, debe reescribir el trabajo hasta que quede claro que lo produjo él. Y una cuarta opción es el uso de detectores o políticas de sanciones. En una entrevista hablamos con Leandro, un estudiante de Miami que no hizo ninguna tarea en su último año de secundaria. Dijo algo revelador: “Ojalá me hubieran descubierto”. Si lo hubieran hecho, confesó, habría tenido que hacer sus tareas. Esas son las estrategias que más se repiten: apelar a la confianza, diseñar el problema para evitar la trampa, vigilar y rehacer, o aplicar detección y castigo. No hay una respuesta única. Personalmente, no soy muy partidario de la vigilancia, pero entiendo que hay docentes con cientos de trabajos para corregir y sin tiempo para controlar manualmente cada uno. Es un dilema real, y todavía no hay una solución perfecta. –Su último libro se titula Iterate (2023). ¿Cómo relaciona la idea de iteración, que suele usarse en el ámbito de la informática, con la innovación pedagógica y la mejora escolar? –En Iterate intento responder una pregunta: por qué, con cada innovación, aparecen pequeños focos de excelencia pero casi nunca un cambio generalizado en todo el sistema. Una de las razones es que los grandes cambios dependen del aprendizaje entre docentes. Cuando les preguntás por qué modificaron su forma de enseñar, la mayoría responde que lo hizo inspirada por otros colegas, no por directivos ni ministerios. Ven a alguien probar algo nuevo, funciona, y deciden intentarlo también. Ese aprendizaje entre pares genera un ciclo: algunos docentes experimentan, comparten lo que aprenden, otros lo adaptan, y así las ideas se expanden. Es un proceso lento, iterativo y contagioso, mucho más efectivo que las reformas impuestas desde arriba. Los directivos pueden acelerarlo, pero no reemplazarlo: las escuelas no funcionan como sistemas jerárquicos rígidos, sino como redes flexibles de práctica. Durante los últimos 50 años, la ciencia, la ingeniería y el emprendimiento adoptaron métodos iterativos: crear una versión mínima de una idea, probarla, recibir retroalimentación, mejorarla y volver a intentarlo. Los docentes, en cambio, trabajan con tiempos mucho más largos –un ciclo lectivo dura 45 semanas: puede ser que un docente tenga que esperar un año para volver a dar una clase sobre un tema–, y eso implica menos oportunidades de ensayo y error. Pensar de forma iterativa puede ayudar a superar eso. No hace falta rediseñar todo un curso: basta con probar una nueva actividad, compartirla con colegas, ajustar, mejorar. Es el mismo principio del “prototipo mínimo viable”. Y, sobre todo, no se trata solo de que cada docente innove por su cuenta, sino de construir sistemas que favorezcan la colaboración y el trabajo en equipo. Reich sostiene que muchas tareas escolares están perdiendo sentido en la medida en que los estudiantes las resuelven con IA generativa, y en ese sentido advierte sobre la pérdida de "millones de horas de práctica y aprendizaje". –¿Las tecnologías pueden contribuir a reducir las brechas de desigualdad, o tienden más bien a profundizarlas? ¿Qué cree que va a pasar con la IA en este sentido? –Históricamente, las nuevas tecnologías benefician de forma desproporcionada a los sectores más acomodados. Quienes tienen más recursos disponen del capital social, técnico y económico necesario para aprovecharlas mejor: pueden comprar más dispositivos, pagar infraestructura y garantizar a sus hijos más acompañamiento (por ejemplo, clases más pequeñas). Todas esas condiciones hacen que una innovación les resulte más útil a ellos que a quienes tienen menos recursos. Es casi seguro que con la inteligencia artificial generativa ocurra lo mismo. Algunos investigadores sostienen que la IA es una “tecnología normal”, comparable al tren o la electricidad: puede ser valiosa, pero no escapa a las leyes sociales que rigen a las demás. Coincido con esa visión. Todas las tecnologías de comunicación del último siglo favorecieron más a los ricos, y esta probablemente también lo haga. En Failure to Disrupt hablo del “efecto Mateo” en la tecnología educativa: la tendencia de las innovaciones a ampliar las ventajas de quienes ya están mejor posicionados. Aun así, existen excepciones –herramientas que benefician especialmente a los estudiantes con menos recursos o menor rendimiento previo–, pero todavía no entendemos bien por qué. Un ejemplo es OpenStax, un programa de manuales gratuitos que probablemente ayudó más a los alumnos de community colleges que a los de universidades de élite. Sin embargo, no tenemos evidencia científica que explique qué hizo que funcionara. Hay otros casos similares, pero son pocos y aislados. Por eso digo que aún no contamos con una verdadera ciencia de la tecnología educativa y la equidad. Nos faltan principios de diseño que permitan orientar las innovaciones hacia la reducción de brechas. Y si no desarrollamos esa base, no hay razón para creer que esta generación de tecnologías será más justa que las anteriores. –¿Es posible que algunas de las recomendaciones que se escuchan hoy sobre IA resulten ser malas ideas en unos pocos años? ¿Tenemos que acostumbrarnos a convivir con la incertidumbre y a desaprender? –En Estados Unidos, durante unos veinte años enseñamos a los estudiantes métodos para buscar información en la web que hoy sabemos que no funcionan. Google se fundó en 1996 y recién en 2019 apareció la primera investigación sólida sobre cómo enseñar realmente a buscar en línea. Pasaron 25 años. Eso muestra que los sistemas educativos pueden tener consensos duraderos sobre ideas equivocadas y que, una vez instaladas, cuesta mucho reemplazarlas. Aunque ya existen mejores enfoques, millones de chicos siguen aprendiendo estrategias que sabemos que son erróneas. Por eso creo que este puede ser un momento para hacerlo mejor. Primero, deberíamos evitar improvisar. Si alguien va a dar orientación sobre alfabetización digital o enseñanza con IA, debería hacerlo solo con evidencia sólida. Claro que cierta dosis de experimentación es necesaria, pero conviene presentarla como hipótesis, no como principios fijos: “Esto es algo que vamos a probar”. Las escuelas están obligadas a actuar: no pueden quedarse quietas. En ese sentido, lo más sano es ser transparentes con docentes y estudiantes. Por ejemplo: “Este año vamos a probar esta política sobre el uso de Chat GPT en la escritura; quizá la cambiemos el próximo trimestre o el año que viene”. Incluso hay que admitir que dentro de unos años podremos mirar atrás y decir: “¿Se acuerdan de aquello que hacíamos cuando apareció la IA generativa? No funcionó. Mejor dejarlo atrás”. Preparar a las personas para desaprender es clave. Y, sobre todo, necesitamos un enfoque más deliberado y basado en la investigación. Preguntarnos qué queremos que los estudiantes sean capaces de hacer, quiénes lo logran y cómo podemos aprender de ellos. No se trata de correr para ser los primeros, sino de correr para hacerlo bien. El objetivo no es producir rápidamente guías para docentes, sino construir orientaciones verdaderamente efectivas y sostenibles.
Ver noticia original