18/05/2025 07:56
18/05/2025 07:55
18/05/2025 07:54
18/05/2025 07:51
18/05/2025 07:50
18/05/2025 07:50
18/05/2025 07:46
18/05/2025 07:46
18/05/2025 07:45
18/05/2025 07:45
Buenos Aires » Infobae
Fecha: 18/05/2025 04:35
Betina Lippenholtz y Carina Lion, autoras del libro Experimentar con IA (Tilde Editora) Para los docentes, la irrupción de la inteligencia artificial implica una invitación a experimentar. Así lo entienden Carina Lion y Betina Lippenholtz, autoras del libro Experimentar con IA (Tilde Editora), dirigido a los educadores pero también a cualquier ciudadano interesado en comprender mejor cómo funcionan estas nuevas tecnologías que están transformando casi todas las actividades humanas. Carina Lion es doctora en Educación, profesora de la UBA y consultora de proyectos de tecnología educativa en organismos gubernamentales y empresas. Fue directora de UBA XXI y del Centro de Innovación en Tecnología y Pedagogía (CITEP). Betina Lippenholtz es licenciada en Letras y documentalista multimedia; desde 2007 trabaja en el área de investigación de Educ.ar. La propuesta de ambas autoras apunta a repensar las preguntas básicas que estructuran los procesos de enseñanza y aprendizaje en el sistema educativo, evitando tanto la tecnofobia como el optimismo ingenuo. Las premisas básicas: la IA llegó para quedarse, los estudiantes la están usando y negar su existencia no es una opción. –¿Qué les recomiendan a los docentes que están buscando experimentar con inteligencia artificial en sus clases? BETINA LIPPENHOLTZ (BL): Una de las cosas más originales del libro es que tiene una parte práctica, y por eso elegimos específicamente la palabra experimentar. Más allá de la dimensión teórica, académica y de la amplia bibliografía que incluimos, lo que realmente marca la diferencia en el libro es que acá aprendés a entrenar un robot. Realmente te mostramos qué pasa “detrás de escena”. Buscamos salir de esa lógica en la que siempre se pregunta: “¿Qué herramienta uso para esto o aquello?”. Nuestra intención es formar ciudadanos y docentes que comprendan el proceso, para que luego puedan elegir con criterio la herramienta que mejor se adapte a sus necesidades, sea cual sea el área, materia o tema que estén trabajando. Por eso remarcamos la importancia de tener un buen marco teórico, pero también de conocer cómo funciona el proceso técnico: qué hacen Facebook, Instagram o ChatGPT para producir eso que, desde afuera, parece magia… pero no lo es. CARINA LION (CL): La tesis principal es que no hay que tenerle miedo a la inteligencia artificial, y que la mejor manera de perder ese miedo es probar y equivocarse. Esa es la idea de experimentación que proponemos. Sabemos que, frente a una nueva tecnología, suelen recrudecer mitos y temores: el miedo a que reemplace al docente, a que reemplace tareas humanas en general. Nosotras proponemos revisitar esos mitos, que han acompañado históricamente la relación entre técnica y sociedad, y que también se han manifestado con fuerza en el mundo de la educación. Nuestra invitación es a animarse a experimentar, a comprender cómo funciona la IA, a perderle el miedo y a usarla, porque nuestros estudiantes ya la están usando. Es una propuesta de experimentación y de riesgo didáctico, entendiendo que no podemos quedarnos al margen. No se trata de un uso “domesticado” de la tecnología, sino de comprender sus alcances y sus límites éticos, políticos, sociales y pedagógicos. BL: En el libro es central la experimentación a través del juego. La mayoría de las actividades que proponemos en la sección “taller” son de tipo lúdico. Cuando, por ejemplo, empezás a entender qué es un sesgo, te das cuenta de algo fundamental: vas a tener que volver a preguntar. Si hacés una actividad lúdica y comprendés que los sistemas de inteligencia artificial fueron entrenados por personas, y que esas personas tienen sus propios prejuicios, entonces entendés que la IA no es “prejuiciosa” en sí misma, sino que refleja los sesgos de quienes la entrenaron. Eso te obliga a no quedarte con la primera respuesta y volver a preguntar. Por eso insistimos tanto en que es clave entender cómo funcionan los mecanismos y procesos detrás de estas tecnologías. Las autoras recomiendan que los docentes se animen a experimentar con las herramientas de IA y subrayan que los estudiantes ya las están usando. (Imagen Ilustrativa Infobae) –¿La IA debería estar presente en el aula? BL: Sí. Hay que usarla, porque no se puede negar su existencia ni su impacto. Es como cuando llegó la imprenta, Internet o el celular: cada vez que aparece una nueva tecnología, al principio genera miedo, resistencia, dudas… Pero la realidad es que, más allá de cuánto se comprenda, empieza a usarse igual. Y si ya se está usando, no tiene sentido resistirse. Hay que buscar la manera de integrarla del modo más creativo, comprometido y significativo posible. Es una tecnología que llegó para quedarse: hay que aprender a usarla. CL: Muchos docentes se preguntan cómo darse cuenta de si una tarea fue hecha con inteligencia artificial. Hace poco tuve una reunión en una carrera de especialización, y quienes la dirigen manifestaban ese temor: cómo saber si el trabajo final fue hecho por el estudiante o con ayuda de IA. Nosotras cuestionamos algo más profundo: ¿qué implica realmente una “creación propia”? ¿Es posible pensar en una producción original y creativa co-construida con inteligencia artificial? Son preguntas nuevas que estas herramientas nos obligan a hacernos. En el mundo educativo, la preocupación suele concentrarse en la evaluación: ¿hubo plagio o copia?, ¿es original, es creativo? Pero en el libro proponemos corrernos de ese lugar y plantear otras preguntas: ¿cómo se construye el conocimiento, qué implica la inteligencia, a qué llamamos creación? Creemos que hay que repensar las preguntas que nos hacemos como educadores y abrir el juego a nuevas formas de pensar la enseñanza, el aprendizaje y la evaluación. –¿No les parece que es central la pregunta por la honestidad intelectual en relación con la IA? BL: Lo que nosotras planteamos –por ejemplo, en el caso del plagio o del uso de inteligencia artificial por parte de los estudiantes en sus trabajos– es que hay que empezar a hacernos nuevas preguntas. Hoy en día se están empezando a establecer contratos en las escuelas y universidades: se acuerda, por ejemplo, que se puede usar IA en un 50% o en un 70% del trabajo. Por eso insistimos tanto en cambiar las preguntas. No se trata solo de detectar si se usó o no inteligencia artificial, sino de repensar cómo diseñamos las consignas. Te doy un ejemplo: cuando yo estudiaba, si un docente decía que el examen era “con libro abierto”, todos pensábamos que iba a ser facilísimo. Pero en realidad, los docentes que elegían esa modalidad sabían hacer preguntas que nunca ibas a encontrar en el libro. Con la IA pasa algo parecido. Hoy tenemos que desarrollar la capacidad de hacer preguntas que la inteligencia artificial no pueda responder directamente, o al menos no sin un verdadero proceso reflexivo. Y ahí entra un aspecto clave, que es el del pensamiento crítico: aprender a reflexionar, a hacer mejores preguntas, incluso a “engañar” a ChatGPT, a llevarlo a donde queramos. Se trata de diseñar experiencias que exijan pensar. En su libro "Experimentar con IA" (Tilde Editora), Carina Lion y Betina Lippenholtz sostienen que los docentes deben formular preguntas que los estudiantes no puedan resolver directamente con la inteligencia artificial. –¿Y cómo distinguir lo que “pensó” el chat de lo que pensó el estudiante? Los grandes modelos de lenguaje se siguen perfeccionando y hoy son capaces de explicar el proceso de “razonamiento” detrás de sus respuestas. BL: El porcentaje de respuestas incorrectas que da el chat es altísimo. Todavía hay un margen de error muy alto. Entonces, aunque ahora pueda explicarte su “proceso de razonamiento”, muchas veces ese proceso está basado en una respuesta incorrecta. Es como un círculo vicioso: justifica algo que no está bien. Siempre hay que verificar lo que dice. Si se trata de tareas muy estructuradas, como una tabla de Excel, probablemente no haya problemas. Pero si nos metemos en cuestiones más complejas, como citar una bibliografía, por ejemplo, el nivel de error es altísimo: muchas veces los autores o textos que menciona directamente no existen. Y hay algo más: tiene una forma de interactuar que genera confianza, aunque esté equivocada. Te responde con amabilidad, con seguridad, y eso puede confundir a quienes no están del todo seguros de lo que están preguntando. Si no hacés una verificación posterior, podés quedarte con una información falsa. Eso no significa que la IA no sirva. Al contrario, reconocemos su enorme utilidad en ciertas tareas. Pero también sabemos que cuando la respuesta requiere mayor profundidad o interpretación, la IA tiende a alucinar. –¿Cómo ven el problema de la delegación cognitiva, es decir, la “transferencia” de ciertas tareas de pensamiento a la tecnología? CL: Esa pregunta nos lleva directamente al corazón del sistema educativo: ¿qué estamos enseñando? ¿Para qué tipo de ciudadanía, para qué mundo, para qué profesiones? Todo eso está cambiando vertiginosamente, mientras que la escuela muchas veces reacciona tarde frente a transformaciones culturales y tecnológicas que se imponen. Hace tiempo que venimos delegando algunas funciones cognitivas en la tecnología. Y eso no significa que esas funciones no se trabajen en otros ámbitos. Por ejemplo, parte de nuestra memoria extendida hoy está en el celular: fechas de cumpleaños, números de teléfono, recordatorios… Eso no quiere decir que hayamos perdido la memoria, ni que no la ejercitemos, pero sí nos obliga a pensar qué tipo de demandas cognitivas deberíamos estar trabajando en el sistema educativo actual. Betina recién decía que hay que enseñar a formular buenas preguntas. Yo recibo doctorandos que no saben cómo construir una pregunta original de investigación. Entonces me pregunto: ¿cuándo aprendieron a hacerlo? ¿Cuándo en su formación se ejercitó esa capacidad? Deberíamos revisar críticamente qué hicimos todos estos años y qué tipo de sujetos queremos formar. ¿Queremos ciudadanos autónomos, críticos, capaces de tomar decisiones? Bueno, entonces pensemos cómo los estamos formando. Deberíamos preguntarnos qué escenarios de futuro nos plantea esta realidad y cómo respondemos desde lo pedagógico y curricular. ¿Tenemos que seguir enseñando los mismos contenidos? ¿Qué habilidades necesitan hoy nuestros estudiantes? Hoy no tenemos certezas sobre hacia dónde van muchas profesiones. Mientras estamos hablando, los desarrollos tecnológicos siguen avanzando. Y muchos de esos desarrollos son impulsados por corporaciones, casi siempre con intereses que no son educativos. Como no estamos en los centros de poder donde se diseñan y desarrollan estas tecnologías, lo que podemos hacer desde la educación es formular hipótesis para intentar comprender esos desarrollos, analizarlos, formar sobre ellos y, en lo posible, anticipar escenarios de futuro. Con una mirada no distópica ni utópica, sino realista, que nos permita pensar qué jóvenes tenemos que formar hoy, para qué mundo, para qué trabajos, para qué formas de ciudadanía. Las autoras sostienen que la IA obliga a repensar qué es lo que debe enseñar el sistema educativo, a partir de la construcción de escenarios posibles de futuro. (Imagen Ilustrativa Infobae) –Y en esa construcción de hipótesis, ¿cuáles creen que son las habilidades fundamentales en las que debe enfocarse la escuela? BL: La curaduría y el pensamiento crítico. En internet hay mucha información basura, entonces es fundamental poder filtrarla. CL: Yendo un poco hacia atrás, creo que la pandemia fue un punto de inflexión. En ese contexto, muchas veces se hablaba únicamente de la brecha digital –quiénes acceden a dispositivos, quiénes no– como si el único problema fuera de infraestructura o conectividad. Pero para mí lo más grave fue que se evidenciaron brechas cognitivas, no solo tecnológicas. Durante la pandemia, los estudiantes que no tenían desarrolladas habilidades de autorregulación –como decidir cómo aprender, administrar el tiempo, priorizar tareas– fueron quienes más dificultades tuvieron para sostenerse y luego reinsertarse en el sistema educativo. Pienso en un alumno que tenía que mirar un video de Biología de una hora, resolver cinco ejercicios de Matemática, leer 35 páginas de Literatura... Y ahí retomo tu pregunta: además del pensamiento crítico y la curaduría de la información, las estrategias metacognitivas como la autorregulación o la capacidad de elegir cómo aprender son clave. Muchas veces la escuela, sin quererlo, homogeneiza: aplica siempre las mismas estrategias, los mismos formatos de evaluación, y deja poco espacio para la diversidad de formas de aprender. También agrego otra dimensión fundamental: la autoconfianza. Muchos estudiantes no creen que pueden hacer las cosas. Sienten que no son capaces y se los castiga: “esto es copia”, “esto no sirve”. Y así se debilita la confianza. En síntesis: autonomía, autorregulación, pensamiento crítico, pensamiento creativo, toma de decisiones, capacidad de formular buenas preguntas y, sobre todo, autoconfianza. Todas esas son habilidades esenciales que deberían estar en el corazón del sistema educativo. –Una ventaja de la IA que suele mencionarse es la posibilidad de personalizar los aprendizajes. ¿Cómo ven ese potencial? ¿No entraña, a su vez, el riesgo de que se pierda “lo común” que debe garantizar el sistema educativo? CL: Efectivamente, hoy muchas plataformas, gracias a su capacidad de procesamiento y a la escala de datos que manejan, permiten segmentar trayectorias educativas a partir de modelos algorítmicos. En algunos casos utilizan doble algoritmo: uno basado en el rendimiento académico y otro basado en reconocimiento facial, que apunta a la computación afectiva: poder detectar emociones como aburrimiento, interés o disfrute del usuario mientras navega. Y acá hay que hacer una distinción clave: mencioné rendimiento, no aprendizaje. Porque lo que se mide y se analiza no siempre es lo que se aprende, sino si el estudiante rinde de acuerdo a ciertos parámetros. Ahí aparece un sesgo importante. A eso se suma lo que hoy se conoce como discriminación algorítmica: a quienes les va mejor, los algoritmos les ofrecen más y mejores oportunidades. Y si no hay una vigilancia activa –pedagógica, política, institucional– que garantice una justicia algorítmica, ese proceso de personalización puede terminar generando mayor inequidad. Por eso, creo que el rol docente y la persistencia de lo común es fundamental, no como una antítesis de la tecnología, sino como una tensión necesaria dentro de lo que algunos autores llaman ensamblajes sociotécnicos o cognitivos. La tecnología puede ofrecer datos útiles para trazar trayectorias, pero esos datos deben ser leídos, interpretados y complementados con otros que den cuenta de aprendizajes más profundos, no solo de resultados. No desaprovecharía lo que aportan las plataformas, porque su capacidad estadística y de análisis es enorme. Pero no me quedaría solamente con eso. Haría un uso crítico, con múltiples instancias de supervisión. Y subrayaría que la vigilancia sobre esos datos les corresponde a las instituciones y a los sujetos, no a las plataformas.
Ver noticia original