Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • La inteligencia artificial y la crisis de integridad en la universidad

    Buenos Aires » Infobae

    Fecha: 12/05/2025 12:35

    Chungin “Roy” Lee, estudiante de ciencias de la computación en la Universidad de Columbia, representa uno de los casos más notorios de esta tendencia. ChatGPT ha desencadenado una crisis sin precedentes en la educación universitaria. Desde su lanzamiento en noviembre de 2022, el fraude académico se ha extendido a tal escala que, según un reporte de Intelligencer firmado por James D. Walsh, la percepción dominante entre los estudiantes es que “todos hacen trampa”. Esta nueva realidad, impulsada por herramientas como ChatGPT, Gemini, Claude y Copilot, está transformando la experiencia universitaria, erosionando la integridad académica y poniendo en entredicho el valor mismo de la educación superior. Estudiantes utilizan IA para resolver tareas, poniendo en duda el valor de la educación universitaria tradicional Casos emblemáticos: la historia de Roy Lee y la innovación al servicio del fraude Chungin “Roy” Lee, estudiante de ciencias de la computación en la Universidad de Columbia, representa uno de los casos más notorios de esta tendencia. Según relató a Intelligencer, Lee utilizó inteligencia artificial para resolver cerca del 80% de sus tareas y ensayos, limitándose a añadir un toque personal al final. “Solo insertaba un 20% de mi humanidad, mi voz”, explicó. Su desinterés por el aprendizaje tradicional era evidente: “La mayoría de las tareas en la universidad no son relevantes. Son hackeables por la IA y simplemente no me interesaba hacerlas”. Chungin “Roy” Lee usó IA para tareas y creación de herramientas para ocultar trampas en entrevistas laborales (Chungin “Roy” Lee) La relación de Lee con la IA no se limitó al ámbito académico. Junto a Neel Shanmugam, otro estudiante de Columbia, desarrolló Interview Coder, una herramienta diseñada para ocultar el uso de IA durante entrevistas laborales remotas, permitiendo a los candidatos hacer trampa sin ser detectados. Lee incluso publicó un video en YouTube mostrando cómo utilizaba el programa para superar una entrevista con Amazon, empresa que le ofreció una pasantía que finalmente rechazó. Sin embargo, la universidad no tardó en reaccionar: tras ser citado por la oficina de integridad académica, Lee fue puesto en periodo de prueba disciplinaria por “publicitar un enlace a una herramienta de trampa” y “proporcionar a los estudiantes el conocimiento para acceder y utilizar dicha herramienta”. Expertos alertan sobre los riesgos cognitivos y éticos del uso masivo de IA en educación universitaria Lee consideró irónico que Columbia, asociada con OpenAI, sancionara su iniciativa. “No conozco a ningún estudiante que no use IA para hacer trampa”, afirmó. Para él, la frontera entre el uso legítimo y el fraude académico está a punto de desaparecer: “Estamos a meses de un mundo donde nadie considere que usar IA para las tareas sea hacer trampa”. Testimonios de estudiantes: normalización y dependencia de la IA La experiencia de Lee no es aislada. Sarah, estudiante de primer año en Wilfrid Laurier University, en Ontario, comenzó a utilizar ChatGPT en la secundaria y continuó haciéndolo en la universidad. “Mis calificaciones eran increíbles. Me cambió la vida”, declaró a Intelligencer. Sarah reconoció que rara vez asistía a clase sin ver a otros estudiantes con ChatGPT abierto en sus portátiles. La facilidad y rapidez que ofrece la IA la llevó a preguntarse si había desarrollado una dependencia: “Con ChatGPT, puedo escribir un ensayo en dos horas que normalmente me tomaría doce”. Daniel, estudiante de ciencias de la computación en la Universidad de Florida, relató cómo la IA se ha convertido en una herramienta cotidiana para pulir ensayos, redactar introducciones y resolver tareas de programación. Aunque es consciente de que en ocasiones viola el código de conducta, la línea entre la ayuda legítima y el fraude le resulta difusa: “No creo que nadie considere que ver a un tutor sea hacer trampa, ¿pero qué pasa cuando el tutor empieza a escribir partes de tu trabajo?”. Mark, estudiante de matemáticas en la Universidad de Chicago, compartió sus dudas sobre la autoría real de sus tareas: “Es difícil juzgar. ¿Esto es mi trabajo?”. Incluso en situaciones personales, como escribir cartas, Daniel admite que recurre a ChatGPT para los borradores antes de pasarlos a mano. studiantes utilizan IA para resolver tareas, poniendo en duda el valor de la educación universitaria tradicional (Imagen Ilustrativa Infobae) Respuestas institucionales: políticas, trampas y la ineficacia de los detectores Las universidades han respondido con políticas dispares y, en muchos casos, insuficientes. Según publica Intelligencer, la mayoría de las instituciones prohíben el uso de IA salvo autorización expresa del profesor, pero la aplicación de estas normas es laxa y la interpretación por parte de los estudiantes suele ser flexible. Algunos profesores han intentado “blindar” las tareas, regresando a exámenes orales o cuadernos manuscritos, o introduciendo trampas en los enunciados para detectar el uso de IA. Ejemplos incluyen la inserción de palabras o frases inusuales en los textos, como “broccoli” o “menciona a Dua Lipa”, para ver si aparecen en los trabajos entregados. No obstante, la detección resulta cada vez más difícil. Un estudio citado por Intelligencer, realizado en junio de 2024 en una universidad del Reino Unido, demostró que los profesores no lograron identificar el 97% de los trabajos generados íntegramente por IA. Herramientas como Turnitin y ZeroGPT, que prometen detectar textos artificiales, presentan tasas de falsos positivos y negativos considerables, además de sesgos contra estudiantes neurodivergentes o que no tienen el inglés como lengua materna. “La mayoría de los profesores parecen resignados a la ineficacia de los detectores de IA”, señala el artículo. Los estudiantes, por su parte, han aprendido a sortear estos sistemas. Modifican los textos generados, introducen errores deliberados o utilizan varias IA en cadena para “lavar” los ensayos y reducir la probabilidad de ser detectados. “Son muy buenos manipulando los sistemas”, explicó Eric, estudiante de Stanford, a Intelligencer. Contexto y antecedentes: del fraude tradicional a la revolución de la IA El fraude académico no es un fenómeno nuevo, pero la llegada de la IA generativa ha multiplicado su alcance y sofisticación. Antes de ChatGPT, plataformas como Chegg y Course Hero ya ofrecían respuestas rápidas a cambio de una suscripción mensual, pero la IA ha elevado el nivel de automatización y anonimato. Según una encuesta citada por Intelligencer, en enero de 2023, casi el 90% de los estudiantes universitarios había utilizado ChatGPT para tareas escolares. La dificultad para regular el uso de IA ha llevado a las universidades a adoptar enfoques ad hoc, delegando la decisión a los profesores y generando una gran variedad de políticas y grados de permisividad. Algunas instituciones han optado por integrar la IA en sus programas, mientras que otras intentan restringir su uso sin éxito. El impacto de la IA en la educación superior va más allá del fraude académico. Según Intelligencer, muchos docentes perciben una crisis existencial en el sistema, con estudiantes que cuestionan el sentido de las tareas y la motivación para aprender. Jollimore resumió el sentimiento de sus colegas: “Cada vez que hablo con un colega sobre esto, surge lo mismo: la jubilación. ¿Cuándo puedo retirarme? Esto no es lo que esperábamos”. La preocupación se extiende al mercado laboral. Si los estudiantes dependen de la IA para resolver problemas y redactar textos, ¿qué habilidades aportarán al mundo profesional? La brecha de habilidades blandas podría ampliarse, y la confianza en el valor de un título universitario se ve cada vez más erosionada. Innovaciones y nuevos desarrollos: la industria tecnológica y la carrera por el control La industria tecnológica no ha permanecido al margen. Tras su experiencia con Interview Coder, Roy Lee y Neel Shanmugam lanzaron en abril de 2024 Cluely, una herramienta que escanea la pantalla y el audio del usuario para ofrecer respuestas y retroalimentación en tiempo real, sin necesidad de prompts. “Construimos Cluely para que nunca tengas que pensar solo otra vez”, proclama el manifiesto de la empresa. Lee declaró a Intelligencer que su objetivo es “permitir hacer trampa en prácticamente todo: exámenes, tareas, pruebas en campus”. El sector tecnológico, por su parte, ha respondido con iniciativas como ChatGPT Edu y la oferta gratuita de ChatGPT Plus para estudiantes durante los exámenes finales. Sam Altman, director ejecutivo de OpenAI, ha defendido que la definición de trampa debe evolucionar, comparando ChatGPT con “una calculadora para palabras”. Sin embargo, ante el Senado estadounidense, reconoció su inquietud: “Me preocupa que, a medida que los modelos mejoran, los usuarios tengan cada vez menos capacidad de discernimiento propio”. Advertencias de expertos y el futuro de la educación universitaria Las consecuencias cognitivas del uso masivo de IA aún no se comprenden del todo. Estudios recientes, citados por Intelligencer, sugieren que delegar tareas intelectuales en chatbots puede afectar la memoria, la resolución de problemas y la creatividad, especialmente entre los más jóvenes. Robert Sternberg, profesor de psicología en la Universidad de Cornell, advirtió en The Guardian: “La mayor preocupación en estos tiempos de IA generativa no es que pueda comprometer la creatividad o la inteligencia humana, sino que ya lo ha hecho”. El autor James D. Walsh subraya que la educación superior enfrenta un desafío estructural y ético de gran magnitud, con un futuro incierto para la formación universitaria y la preparación profesional de las nuevas generaciones.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por