29/01/2026 13:58
29/01/2026 13:58
29/01/2026 13:57
29/01/2026 13:56
29/01/2026 13:56
29/01/2026 13:56
29/01/2026 13:56
29/01/2026 13:53
29/01/2026 13:53
29/01/2026 13:52
» Clarin
Fecha: 29/01/2026 08:41
¿Puede un chatbot de IA, muy bien entrenado, reemplazar la función docente de la enseñanza? En los últimos meses surgieron todo tipo de proyectos que ponen el foco en la personalización de la educación y que prometen hacerlo realidad. Incluso una red de escuelas en los EE.UU. ya da clases sin maestros, solo con estos chatbots. El brasileño Paulo Blikstein tiene una visión crítica sobre estas plataformas educativas, la mayoría desarrolladas en Silicon Valley. Profesor de Tecnología, Medios y Aprendizaje Educativo de la Universidad de Columbia (EE.UU.), viene investigando desde hace años el impacto de la tecnología en la educación. Blikstein dirige el Research Lab del Instituto para el Futuro de la Educación (IFE) del Tecnológico de Monterrey y forma parte del Centro de Emprendimiento e Innovación Educativa de la Universidad de Stanford en Brasil, donde ponen a prueba distintos proyectos que buscan que la tecnología sirva para que los alumnos aprendan más. Fue uno de los oradores en la Conferencia sobre el Futuro de la Educación, que se está llevando a cabo en Monterrey, México, donde habló con Clarín. - ¿Cómo ve el impacto que está teniendo la IA en la educación? ¿Es puro hype (exageración) de la industria tecnológica? - Hay mucha exageración y hay algunas personas haciendo cosas más interesantes, pero es un grupo mucho más pequeño. Creo que la idea de que vamos a construir algún tipo de docente de IA que enseñe a las personas con paciencia infinita, las 24 horas del día, los 7 días de la semana, es una idea que no funciona. Sabemos, por la investigación, que uno de los principales problemas de la educación no es el acceso al contenido, sino la motivación. Entonces, si no tenés ganas de aprender, no importa si es un tutor de IA, si es un video o si es un docente. No es que los chicos digan: Dios mío, quiero hacer matemáticas. Dame todo eso. Quiero pasar horas estudiando. Gran parte de la conversación sobre IA en educación no está abordando el problema de la motivación, de cómo hacer las cosas más interesantes para que los chicos se involucren y quieran aprender más. Si decís: Vamos a enseñarte exactamente lo mismo de siempre, como fracciones y ecuaciones, lo que sea, pero con una linda voz en el teléfono que hace chistes, al final es lo mismo, ¿no? - ¿Y esta capacidad de personalización que puede tener la IA no puede lograr una mayor motivación en los estudiantes? - Ahí es donde creo que las cosas se vuelven un poco más complejas, porque cuando hablamos de personalización, ¿de qué dimensión de personalización estamos hablando? Normalmente, cuando la gente habla de personalización, se refiere a entender las dificultades de los estudiantes y abordarlas. Pero lo que la IA debería entender o personalizar es, más bien, qué es significativo para ese chico: cómo hacer que el contenido tenga sentido para él. Tal vez sea algo como: Contame sobre tu vida, tus hobbies, tu comunidad, y ahora voy a intentar adaptar la enseñanza a tu vida, a las cosas que te importan. Pero eso no es lo que están haciendo la mayoría de los sistemas de IA. La mayoría intenta detectar si te equivocás y explicarte de nuevo. Pero no hacen esta parte de reformular el contenido para que sea más interesante. A veces, lo que la gente llama personalización es ser juguetón, hacer chistes y cosas así, pero no es ese nivel de personalización que creo que sería mucho más efectivo. Entonces, una parte es que el sistema no solo personalice en función de tus errores, sino también de tu vida, de lo que es significativo para vos. - ¿Qué otro problema le ve a la personalización vía IA? - Otra cosa es que, por más que cierta personalización sea útil, también tenemos que recordar que gran parte de lo que se aprende en la escuela tiene que ver con trabajar con otros. Si todo está totalmente personalizado y trabajás solo frente a una computadora, ¿cómo aprendés a socializar, a colaborar, a trabajar en equipo? Aunque suene un poco anticuado, a veces es importante trabajar en grupo, con un docente y con 30 compañeros, juntos. Tiene que haber un equilibrio. Problemas de diseño - ¿Cómo piensa que va a evolucionar esta tendencia con el tiempo? - Creo que el punto clave es que estas nuevas aplicaciones tienen que ser diseñadas por personas que entiendan de educación. Es como diseñar dispositivos médicos con IA: necesitás médicos, no solo programadores. No es diseñé un corazón, veamos si sobrevivís. Vivimos en un mundo donde quienes desarrollan tecnología son vistos como los reyes y reinas del mundo. Pero muchas veces no tienen experiencia en los campos específicos. Para diseñar cosas complejas como educación o medicina, necesitás a los expertos: docentes, diseñadores educativos. Y muy seguido esas voces están ausentes. Entonces terminás con sistemas diseñados por ingenieros en Silicon Valley que no tienen experiencia con chicos. Diseñan algo pensando en su primo, pero ¿qué pasa con los otros mil millones de chicos del mundo? Creo que va a haber dos corrientes: una, con sistemas tecnocéntricos, donde la tecnología es lo principal; y otra, ojalá, donde educadores trabajen junto a diseñadores de IA para crear sistemas más centrados en lo humano. Tal vez no sean tan revolucionarios ni disruptivos, pero sí más realistas. Yo siempre soy muy escéptico con las revoluciones en educación: ya vimos la televisión, Internet, Khan Academy, YouTube siempre se promete una revolución y luego se descubre que es más complejo, porque estamos hablando de chicos, de sistemas subfinanciados y de docentes que ya hacen veinte cosas al mismo tiempo. - ¿Cómo ve la experiencia de Alpha Schools, las escuelas de EE.UU. que reemplazaron completamente a los docentes por una IA? - Tuvo mucha publicidad, pero no creo que ese modelo funcione. Primero, cuesta unos 50.000 dólares al año: es extremadamente caro. Los alumnos vienen de una clase social muy alta, con familias que pueden pagar tutores si algo sale mal. Eso es muy distinto a la educación pública, donde la escuela es prácticamente todo lo que tienen los chicos. No creo que para el niño promedio funcione la idea de pasar tres horas por día interactuando con una computadora. Además, ni siquiera entendemos del todo cómo funcionan estos sistemas de IA como para poner a un chico tantas horas frente a ellos. Sabemos que alucinan, que pueden decir cosas peligrosas; hubo casos de chicos que se suicidaron tras interactuar de manera adictiva con estos sistemas. No son sistemas suficientemente seguros, y la evidencia de que se aprende mucho mejor con ellos todavía es muy débil. Resultados contraintuitivos - ¿Cómo están encarando la investigación en educación y tecnología? ¿Qué resultados se están obteniendo? - Vemos resultados contraintuitivos. Por ejemplo, creíamos que si poníamos todo el contenido online, en YouTube, en plataformas, los chicos con más dificultades iban a poder ver esos videos en casa y ponerse al día. Pero lo que vimos es que esos chicos necesitan mucha ayuda humana para alcanzar al resto. Decirles andá a casa y mirá un video no funciona. Requiere mucha disciplina dejar de jugar o mirar televisión para ponerse a estudiar. Los chicos que ya van bien, esos sí usan los videos y mejoran aún más. Entonces la tecnología puede ampliar las brechas. Si queremos que todos los chicos aprendan, necesitamos invertir muchos recursos, especialmente en los que más lo necesitan, que suelen ser los que menos recursos tienen. - ¿Qué otros resultados contraintuitivos encontraron? - Otro ejemplo tiene que ver con la gamificación. Se pensó que si convertíamos el aprendizaje en un juego con puntos, los chicos iban a aprender más. En algunos contextos funciona, pero si se exagera, los chicos aprenden a jugar el juego sin aprender el contenido. Eso reduce la motivación intrínseca y deja solo la extrínseca. No hay soluciones mágicas: todo funciona en algunos contextos y falla en otros. - Entonces, ¿cómo recomendaría introducir tecnología en educación? - Hay que ser muy intencional en el diseño. Tema por tema. Por ejemplo, en reacciones químicas, una simulación puede ser muy útil para ver cómo chocan los átomos. En otros temas, alcanza con papel y lápiz o con una explicación del docente. No todo requiere tecnología. Hay que revisar los planes de estudio y decidir, caso por caso, qué tecnología tiene sentido. Eso suena aburrido y costoso, pero es lo que hacemos cuando diseñamos sistemas educativos con políticas públicas, por ejemplo en Brasil. - Suena aburrido, pero también resulta muy caro encarar algo así, tan artesanal... - Pero solo hay que hacerlo bien una vez. Después se puede usar durante 20 años. También se necesitan políticas más amplias sobre IA, integridad académica y uso de herramientas como ChatGPT. Prohibir no suele funcionar, pero dejar que los chicos usen estas herramientas sin límites también es peligroso: pueden pasar años aprobando sin haber aprendido nada. Los educadores están un poco en pánico porque no saben cómo manejar esto, y cambiar todos los trabajos y evaluaciones lleva muchísimo tiempo. -¿Conocés algún ejemplo de política pública de IA en educación bien implementada? - Hay algunos proyectos. En Brasil, por ejemplo, trabajamos en Sobral, en el estado de Ceará. Allí estamos diseñando un currículo de ciencias de la computación e IA, donde los chicos no solo usan IA, sino que aprenden a crear sus propios chatbots. Es clave que no sean solo usuarios, sino también productores de IA. También hay experiencias interesantes en el estado de Piauí (en Brasil), en Hong Kong, y en Dinamarca, que está desarrollando una política nacional de IA con apoyo del gobierno a largo plazo. Desde Monterrey, México Mirá también Mirá también Sobre la firma Newsletter Clarín
Ver noticia original