Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Mariana Ferrarelli: “En 2025, la agenda educativa sobre IA será cómo replantear la evaluación”

    Buenos Aires » Infobae

    Fecha: 05/01/2025 03:06

    Mariana Ferrarelli es profesora en la Universidad de San Andrés, donde dirige el programa de Inteligencia Artificial en Educación. 2023 fue el año de la perplejidad. 2024, el de la experimentación. Ahora que sabemos que la inteligencia artificial generativa llegó para quedarse, en 2025 la pregunta clave será cómo repensar la evaluación, sostiene Mariana Ferrarelli, que viene explorando el tema desde antes de la irrupción de ChatGPT a fines de 2022. Ferrarelli es profesora e investigadora, formadora de docentes en la Universidad de San Andrés y la Universidad Isalud. En UdeSA dirige el programa de Inteligencia Artificial en Educación. Acaba de publicar el informe Inteligencia artificial y educación: insumos para su abordaje desde Iberoamérica, editado por la Organización de Estados Iberoamericanos (OEI). La especialista conversó con Infobae sobre los dilemas pedagógicos que plantea la IA y descartó un escenario en el que esta reemplace a los docentes. En todo caso, señaló, es posible que quienes sepan usar la herramienta terminen reemplazando a aquellos que no se animen a utilizarla. –¿Cuáles son los principales dilemas pedagógicos que abre la IA? –Creo que los dilemas son un punto de entrada interesante para la cuestión de la IA. Más allá de la narrativa celebratoria que circula –la idea de que la IA viene a “revolucionar” la educación, la salud, la vida–, el objetivo del documento es hacernos algunas preguntas necesarias. Además de los dilemas éticos y ambientales, que son motivo de gran preocupación, los dilemas pedagógicos apuntan a ciertas preguntas que nos tenemos que hacer como educadores y educadoras cuando pensamos en cualquier tecnología. Un punto que me preocupa tiene que ver con cierta narrativa de que la IA viene a personalizar la enseñanza, a darle a cada alumno lo que necesita, como si eso fuera un atributo propio de la tecnología en sí misma, como si no hubiera detrás un diseño tecnológico –a cargo de los ingenieros que programan y las compañías que ofrecen los servicios– y un diseño pedagógico –el que ejerce el docente en sus clases–. La propuesta es: frenemos un poco, bajémonos de este hype, de esta aceleración en la que todos los días tenés una nueva aplicación, y examinemos de cerca. El ejemplo más difundido, que es Khanmigo de Khan Academy (un tutor personalizado que interactúa con los estudiantes), no está disponible en nuestra región; depende de que lo habilite cada distrito. Excepto esa herramienta, que parece tener un diseño que permite la personalización, cuesta mucho pensar en que estas tecnologías por sí mismas puedan personalizar la enseñanza. El hecho de que ChatGPT esté disponible las 24 horas los 7 días de la semana para responderle preguntas a un alumno no implica una personalización tal como la entendemos desde un enfoque que busca atender la diversidad y trabajar a partir de las fortalezas y debilidades de cada uno. Ahora bien, como docente yo sí puedo usar estas herramientas para diseñar una propuesta diversificada. Si yo tengo alumnos a los que les cuesta más o les cuesta menos la comprensión lectora, la IA me puede ayudar a preparar dos alternativas, con textos más simples y más complejos, apuntando a que luego todos podamos estudiar, por ejemplo, la fotosíntesis. No es que vamos a aprender cosas diferentes, sino que frente a un tema común a todos –la fotosíntesis–, yo puedo calibrar el ingreso al contenido según los conocimientos previos de cada uno. Ahí la inteligencia artificial puede ser un acelerador del diseño que el docente quiere hacer. Me parece que un punto clave es entender que la IA no va a personalizar la enseñanza o el aprendizaje por un atributo intrínseco, sino por decisiones pedagógicas, institucionales y de política pública. Para Ferrarelli, la IA no reemplazará a los maestros, pero sí es posible que los docentes que sepan usarla terminen reemplazando a aquellos que no la utilicen. –A fines de 2024 tuvo cierta repercusión la frase de Mario Pergolini de que la IA podría reemplazar a los maestros. ¿Te parece posible esa sustitución? –No creo que pueda haber sustitución. Pienso que somos seres sociotécnicos, que la tecnología es indisociable de lo humano. Me parece que, al menos por ahora, la discusión no pasa por la sustitución absoluta. Prefiero matizar los posicionamientos y salir de los binarismos: ni reemplazo ni negación. Es una tecnología que está disponible y que tenemos que incluir en las propuestas que diseñamos. En los grises está el mayor desafío de cómo aprehender estas herramientas. Lo que me preocupa no es la sustitución, sino el deterioro de la enseñanza y del aprendizaje por no dar la discusión en el aula con nuestro estudiantado. Eventualmente, lo que me preocupa es que los docentes que no usan IA sean reemplazados por docentes que sí la usan. Quizás no en el sentido de que se vayan a quedar sin trabajo, sino de que al estudiantado lo convoque mucho más la propuesta de un docente que invita a experimentar y explorar con IA, frente a un educador que todavía cree que puede evitar su uso. Si como docente no te enteraste de que la IA existe, o no estás dispuesto a explorarla, me cuesta creer que perspectiva de tus clases sea significativa para los estudiantes. Después está la cuestión de cómo la incorporás y cuánto espacio le vas a dar. Pero definitivamente no creo que hoy un estudiante vaya a aprender por su cuenta con una IA sin la mediación del docente. Me parece que la mayor potencia radica en el cruce de lo humano y lo tecnológico. Si pensamos que humanos y máquinas estamos ensamblados, desde un enfoque posdigital es imposible separar lo analógico de lo digital. Hoy cualquier práctica analógica está mediada por lo digital: viajar, comprar, escuchar música, interactuar con tus amigos. Lo que sí me preocupa, insisto, es el “como si”: hago como que no pasa nada y sigo pidiendo un parcial domiciliario como los de antaño. Mis estudiantes lo hacen con ChatGPT, lo copian y pegan, me lo entregan, yo lo apruebo. Entonces la universidad está acreditando saberes que no tienen ningún valor, porque cuando ese pibe que estudia Periodismo o Derecho vaya al mundo real, eso que hizo sin mediación de un docente no le va a servir. Este es un problema de las instituciones, sobre todo de la secundaria y la universidad. Si las instituciones no dan la discusión sobre la incorporación de la IA, sobre las prácticas y los saberes que están acreditando, van a graduar jóvenes sin las habilidades adecuadas para lo que se necesita hoy. No van a estar preparando a las nuevas generaciones para un mundo con IA. –Muchos docentes se quejan de que reciben trabajos copiados y pegados de ChatGPT. ¿Qué recomendaciones harías para repensar la evaluación? –Esto lo conversamos en noviembre con colegas de la Universidad Nacional de La Plata, que estaban preocupados. Lo que yo les planteaba es que para mí la agenda educativa de 2025 sobre IA será cómo replantear la evaluación. Ya no cómo la usamos los docentes para diseñar instrumentos de evaluación y rúbricas, sino cómo repensamos las consignas. Si pienso en los docentes que dentro de unas semanas estarán renovando sus programas, actualizando la bibliografía, creo que una primera recomendación es acortar los textos, bajar la cantidad de lectura. Puede haber algunos textos largos, pero no un tendal de lecturas. Eventualmente, algún video de un especialista hablando sobre esos conceptos. Para mí, lo opuesto de entregar un texto generado con IA es la apropiación significativa: que el estudiante pueda, a partir de eso que entrega ChatGPT o Gemini, editarlo para borrar esas marcas sintéticas, ajenas, y apropiárselo para su escritura personal. El problema es que para eso ya tenés que saber escribir bien. Y en los primeros años de la universidad, muchos todavía no saben escribir. Es como incorporar la calculadora en Matemática: las tablas tenés que aprenderlas igual. Porque después, cuando estás en la carnicería o en el kiosco, no podés depender de la calculadora para saber si te están dando bien el vuelto. Creo que será clave explicitar criterios de evaluación bien claros para las producciones escritas. Anticipar que cualquier texto que sea demasiado general, muy estandarizado, que tenga adjetivos o adverbios innecesarios, no será aprobado. El informe "Inteligencia artificial y educación: insumos para su abordaje desde Iberoamérica", publicado por la OEI, sintetiza los dilemas y aportes que trae la IA al sistema educativo. Para mis materias en 2025, yo me estoy planteando enseñar a editar textos generados por IA. En 2024 nos pasó que en algunos espacios tuvimos alrededor de un 30% de desaprobados, cuando normalmente eran el 5%. ¿Qué pasó? Que nos entregaron textos demasiado generales, que se podrían asociar a cualquier contexto y no al de la materia, que tenían exceso de adjetivos y adverbios innecesarios, que hablaban sobre autores que vimos en la cursada pero les hacían decir cosas que los textos no dicen. El problema fue que los estudiantes usaron mal la IA, o que nosotros no les enseñamos a usarla bien. Como docente, en la devolución yo no te puedo acusar de que usaste ChatGPT, porque no tengo una evidencia concreta, como la tenía con el plagio tradicional. Técnicamente, no es un plagio, porque yo no tengo un original que evidencie que te copiaste. En realidad, no me interesa si usaste GPT, si te lo escribió tu hermano que ya cursó la materia o si lo copiaste de Rincón del Vago. Si yo como docente pongo el foco en la experiencia de lectura, observo que no es significativa, no agrega sentidos, no invita al lector a pensar. Eso es lo que yo debo anticipar en los criterios de evaluación. Por eso creo que al final, después de este momento de transición en el que tenemos estos dilemas, va a subir el estándar. Y entonces van a quedar muchas brechas a la vista. Antes por ahí yo no iba tan al detalle de cómo estaba escrito el texto que me entregaba un estudiante, sino que me preocupaba la arquitectura de las ideas o la elección de las citas. Ahora tengo que ir a fondo. Para este año, estoy pensando por ejemplo en llevar un párrafo generado por IA sobre el tema que estemos trabajando y marcar todo lo que habría que editar. Que el estudiante tenga que entregar lo que le genera GPT y, en el costado, con sugerencias o con control de cambios, anotar todo lo que cambiaría en ese texto. Entonces nos sentamos a discutir ya no el texto, sino cómo hay que editarlo para que aporte ideas potentes y genere una experiencia de lectura significativa. En definitiva, eso es lo que le van a pedir al estudiante en el mundo real, cuando trabaje en un estudio jurídico, en una redacción o en un aula. –ChatGPT cumplió dos años en noviembre. ¿Cómo sintetizarías los aprendizajes en estos dos años de adopción acelerada de la IA generativa en educación? –Creo que 2023 se caracterizó por la perplejidad, nos sorprendimos con lo que estas máquinas podían hacer. Yo venía estudiando el fenómeno desde antes, porque en realidad previo a ChatGPT había otras herramientas más limitadas. Con un colega, Julio Alonso, habíamos explorado algunas como Writesonic, que te redactaba los párrafos si vos le dabas un título. Creo que, además de la perplejidad, 2023 estuvo marcado por la incredulidad. En cambio, en 2024 todos vimos que esto venía en serio y que la IA llegó para quedarse; fue un año de experimentación con las nuevas herramientas. Por eso pienso que, después de estos dos años, la agenda de 2025 pasará por la evaluación. Creo que no sirve prohibir, pedir que los alumnos no la usen o que entreguen a mano. Los estudiantes tienen sus celulares, los relojes inteligentes… Creo que tenemos que cambiar el foco y reconocer que todos vamos a usar la IA. Tal vez, la primera experimentación sea pegar el texto que nos da la IA y pensar cómo lo vamos a editar. O ver qué preguntas le tendríamos que hacer a la IA para que el texto efectivamente refleje la discusión que tuvimos en el aula. Me parece que tenemos que dar esta discusión de manera colectiva. En el informe proponemos el enfoque RTD, que apunta a un uso responsable, transparente y documentado de la IA, donde el estudiante declarare qué herramientas usó, para qué y cómo, e incluya en un anexo las iteraciones. Otra posibilidad es pedirles a los estudiantes que usen alguna herramienta, que entreguen el texto generado por la IA y que expliquen cómo lo modificarían. Se trata de formarlos para un mundo con IA, de enseñarles a hacerse preguntas y a cuestionar las ideas que entrega un GPT que no estuvo en la clase. Hoy, en enero de 2025, me parece que ese puede ser un primer paso.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por