14/09/2025 19:19
14/09/2025 19:19
14/09/2025 19:18
14/09/2025 19:18
14/09/2025 19:17
14/09/2025 19:17
14/09/2025 19:17
14/09/2025 19:16
14/09/2025 19:15
14/09/2025 19:15
Buenos Aires » Infobae
Fecha: 14/09/2025 16:39
La irrupción de la inteligencia artificial en la educación transforma la forma de asignar y evaluar tareas escritas. (Imagen ilustrativa Infobae) El avance de la inteligencia artificial en el ámbito educativo ha provocado una transformación tan profunda que, para muchos docentes de secundaria y universidad, asignar tareas escritas fuera del aula equivale a invitar a los estudiantes a recurrir a la trampa. Esta percepción, lejos de ser una exageración, se sustenta en datos recientes que muestran una adopción masiva de herramientas de IA por parte del alumnado, lo que ha llevado a una revisión radical de las prácticas tradicionales de enseñanza y evaluación. Según el Higher Education Policy Institute, el 92% de los estudiantes utiliza herramientas de IA en sus estudios, una cifra que representa un salto considerable respecto al 66% registrado el año anterior. Más aún, el 88% de los estudiantes reconoce emplear IA generativa como ChatGPT específicamente para evaluaciones, frente al 53% en 2024. Este fenómeno se acentúa entre los estudiantes más jóvenes en Estados Unidos: una investigación de Pew Research indica que el porcentaje de adolescentes que usa ChatGPT para tareas escolares se duplicó del 13% en 2023 al 26% en 2024. Además, entre los alumnos de secundaria, el 46% recurre a herramientas de IA tanto para actividades académicas como no académicas, según datos de Open2Study. Docentes y estudiantes enfrentan nuevos dilemas sobre la deshonestidad académica y el uso legítimo de la IA. (Imagen ilustrativa Infobae) La magnitud del cambio se refleja en la experiencia de Casey Cuny, docente de inglés con 23 años de trayectoria y galardonada como Maestra del Año de California 2024. En declaraciones recogidas por The Associated Press, Cuny advierte: “La trampa está por las nubes. Es lo peor que he visto en toda mi carrera”. Esta situación ha llevado a que los reportes de libros y los ensayos para hacer en casa se consideren obsoletos, ya que, como explica Cuny a ABC News, “Cualquier cosa que envíes a casa, tienes que asumir que será hecha con IA”. La respuesta de los educadores ha sido modificar de raíz sus métodos de evaluación. Cuny ha trasladado la mayor parte de la escritura al aula, donde supervisa las pantallas de los estudiantes mediante software que permite bloquear el acceso a determinados sitios. Además, ha comenzado a integrar la IA en sus lecciones, enseñando a los alumnos a utilizarla como herramienta de estudio en lugar de un recurso para la trampa. En el mismo sentido, Kelly Gibson, profesora de secundaria en una zona rural de Oregón, ha optado por evaluaciones verbales y escritura en clase, reconociendo que los antiguos plazos para entregar ensayos solo fomentan el uso indebido de la tecnología: “Solía dar un tema de escritura y decir: ‘En dos semanas, quiero un ensayo de cinco párrafos’. Estos días, no puedo hacer eso. Eso es casi rogar a los adolescentes que hagan trampa”, afirmó Gibson a The Associated Press. El impacto de la IA no se limita a la secundaria. En la universidad, la confusión sobre los límites del uso aceptable de estas herramientas es generalizada. Lily Brown, estudiante de psicología en una institución de artes liberales de la Costa Este, relató a The Associated Press que utiliza ChatGPT para estructurar ensayos y comprender textos complejos, aunque reconoce la ambigüedad ética: “A veces me siento mal usando ChatGPT para resumir lecturas, porque me pregunto, ¿esto es hacer trampa? ¿Ayudarme a formar esquemas es hacer trampa? Si escribo un ensayo con mis propias palabras y pido sugerencias para mejorarlo, o cuando empieza a editar mi ensayo, ¿eso es hacer trampa?”. La falta de directrices claras agrava la incertidumbre. Los reglamentos suelen dejar la decisión sobre el uso de IA en manos de cada docente, lo que genera disparidad incluso dentro de una misma escuela. Mientras algunos profesores permiten el uso de asistentes como Grammarly.com para revisar gramática, otros lo prohíben por su capacidad de reescribir frases. Jolie Lahey, estudiante de 11º grado en Valencia, destacó a The Associated Press la utilidad de las habilidades de IA enseñadas por Cuny, pero lamentó que este año sus profesores hayan impuesto políticas estrictas de “No IA”: “Es una herramienta tan útil. Y si no se nos permite usarla, simplemente no tiene sentido. Se siente anticuado”. La reacción institucional ha evolucionado desde la prohibición inicial tras el lanzamiento de ChatGPT a finales de 2022 hacia la elaboración de guías más matizadas. El concepto de “alfabetización en IA” se ha convertido en un eje central del debate educativo. Durante el verano, varias universidades, como la Universidad de California, Berkeley, enviaron a su profesorado nuevas directrices que exigen explicitar en los programas de estudio las expectativas sobre el uso de IA, ofreciendo modelos para cursos que la requieran, la prohíban o permitan su uso parcial. El mensaje institucional subraya que la IA está “creando nueva confusión sobre qué métodos son legítimos para completar el trabajo estudiantil”. En Carnegie Mellon University, el aumento de infracciones relacionadas con la responsabilidad académica ha sido notable, aunque, según Rebekah Fitzsimmons, presidenta del comité asesor de IA en la Heinz College, muchos estudiantes desconocen que han cometido una falta. Fitzsimmons relató a The Associated Press el caso de un estudiante que, al traducir su trabajo con DeepL, no advirtió que la herramienta también modificaba su redacción, lo que fue detectado por un software de IA. La dificultad para identificar y probar el uso indebido de IA ha llevado a que los docentes sean más cautelosos al señalar posibles violaciones, temiendo acusaciones injustas. Fitzsimmons colaboró en la redacción de nuevas directrices que insisten en que una prohibición total de la IA solo es viable si se modifican los métodos de enseñanza y evaluación. Como resultado, muchos profesores han eliminado los exámenes para hacer en casa y han regresado a pruebas escritas en clase o a modelos de “aula invertida”, donde las tareas se realizan bajo supervisión. El retorno a métodos tradicionales se ha extendido a otras instituciones. En la Escuela Secundaria Townsend Harris de Queens, se prohibieron los ensayos para hacer en casa por temor a la trampa con IA, exigiendo que los estudiantes redacten a mano los ensayos de lectura de verano durante las primeras semanas de septiembre. El instructor de inglés Brian Sweeney explicó a ABC News: “Hemos observado una dependencia excesiva de la inteligencia artificial anteriormente y creemos que las tareas en clase facilitarán una representación más genuina del pensamiento estudiantil”. Las instituciones educativas buscan equilibrar los beneficios y riesgos de la inteligencia artificial en el aula. (Imagen Ilustrativa Infobae) La magnitud del desafío se refleja en los datos de detección. Turnitin, la principal herramienta de detección de plagio, reporta que de más de 200 millones de tareas revisadas el año pasado, se detectó uso de IA en aproximadamente 1 de cada 10. Además, el 68% de los profesores utiliza herramientas de detección de IA, aunque solo una cuarta parte considera que son “muy efectivas” para discernir el origen de los textos. Las motivaciones estudiantiles también han sido documentadas. El 51% de los estudiantes utiliza IA para ahorrar tiempo, mientras que el 50% busca mejorar la calidad de su trabajo. Los usos más frecuentes incluyen explicar conceptos (58%), resumir textos y generar ideas para investigaciones. Resulta especialmente relevante que el 18% de los estudiantes admite incorporar directamente texto generado por IA sin editar en sus tareas. Existen, además, disparidades demográficas en el uso de estas tecnologías. Según Pew Research, el 31% de los estudiantes negros e hispanos utiliza ChatGPT para tareas escolares, frente al 22% de los estudiantes blancos. Asimismo, los alumnos de 11º y 12º grado (31%) recurren más a ChatGPT que los de 7º y 8º grado (20%). El debate sobre la integridad académica se ha intensificado. Un estudio de Packback Research revela que el 89% de los estudiantes admite usar herramientas de IA como ChatGPT para tareas, lo que pone en entredicho la eficacia de las medidas tradicionales. Un miembro de la facultad citado en el informe reflexiona: “Las herramientas de detección como Turnitin se sienten inherentemente punitivas. Crean esta dinámica adversarial con los estudiantes desde el inicio”. A nivel institucional, la respuesta es global. UNESCO informa que dos tercios de las instituciones de educación superior cuentan o están desarrollando directrices sobre el uso de IA, reflejando la magnitud del reto. La cuestión de fondo, planteada por Casey Cuny en The Associated Press, sigue abierta: “Tenemos que preguntarnos, ¿qué es hacer trampa? Porque creo que las líneas se están difuminando”. Esta interrogante impulsa una revisión profunda de los principios que definen el aprendizaje auténtico en una era donde la inteligencia artificial se ha convertido en parte integral de la experiencia educativa.
Ver noticia original