Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • La insoportable futurología que se hace con la IA

    Buenos Aires » Infobae

    Fecha: 28/07/2025 04:53

    El problema de todo esto es que esas conclusiones se presentan como verdades, cuando en realidad apenas son hipótesis iniciales (Imagen Ilustrativa Infobae) Investigar el impacto de la inteligencia artificial es necesario. Sin embargo, cuando las conclusiones que arrojan estos estudios se presentan como verdades, se promueve una narrativa que bloquea la comprensión y atenta contra su implementación. Desde hace un tiempo, pero con mayor intensidad en los últimos meses, se volvió habitual leer investigaciones que intentan demostrar el impacto que tendrá la inteligencia artificial en la vida de las personas. Algunas provienen de universidades reconocidas, otras de organismos internacionales y otras son investigaciones particulares. En todos los casos, el mensaje siempre es el mismo: arrojar métricas de cómo esta tecnología modificaría nuestros vínculos, hábitos y decisiones. El problema de todo esto es que esas conclusiones se presentan como verdades, cuando en realidad apenas son hipótesis iniciales. Sin dudas, el uso masivo de plataformas generativas como ChatGPT, Claude o Gemini desató una fiebre para testearlas. Y aunque resulte necesario impulsar estudios para medir su impacto, especialmente aquellos que abordan dimensiones sensibles como el aprendizaje, el pensamiento o la toma de decisiones, debemos tener presente que la mayoría de estas investigaciones trabajan con pequeñas muestras y con escenarios limitados, que no permiten aún afirmar efectos generales ni definitivos para la humanidad. Por eso, los resultados que ofrecen estas investigaciones deben leerse como tendencias, no como diagnósticos definitivos. Sin dudas, aportan datos relevantes que deben ser observados con atención, no solo para orientar el desarrollo de esta tecnología, sino también para garantizar una implementación responsable. Uno de los ejemplos más difundidos en los últimos meses fue el estudio del MIT que sugiere que herramientas como ChatGPT pueden volvernos “perezosos cognitivamente”. El trabajo lógicamente es serio, está bien diseñado, y sugiere que el acceso inmediato a respuestas formuladas de manera persuasiva puede llevar a que las personas adopten soluciones erróneas si suenan confiables. Es un dato valioso. Pero no alcanza para decretar que la IA está atrofiando nuestras capacidades mentales, ni que estamos ante una generación que ya no razona por sí misma. Algo similar ocurre con el pronóstico laboral. Informes del Foro Económico Mundial y de consultoras privadas han proyectado -incluso con cifras exactas- la cantidad de empleos que se perderán o transformarán con esta tecnología en los próximos cinco o diez años. Algunos incluso detallan sectores, porcentajes y geografías. Pero esas proyecciones se apoyan siempre en supuestos que están en constante revisión, como ser el ritmo de adopción, el grado de sustitución, la regulación estatal o el comportamiento de las personas usuarias. En ese sentido, cabe preguntarnos ¿tiene sentido afirmar cómo será el futuro si el presente todavía está en construcción? Y este fenómeno no es nuevo. La historia está llena de predicciones fallidas ante la aparición de nuevas tecnologías. Por ejemplo, cuando se inventó la imprenta, se dijo que nadie querría viajar más, porque bastaría con leer para conocer el mundo. Cuando se popularizó la calculadora, se advirtió que los estudiantes perderían la capacidad de pensar. Y, en forma más reciente, cuando surgieron los buscadores de internet, se pensaba que era el fin de las investigaciones serias. Ninguna de esas profecías se cumplió. Hoy, con la inteligencia artificial, la historia parece repetirse (corsi e ricorsi, hubiera dicho el filósofo italiano Giambattista Vico). Eso no puede terminar envolviéndonos en falsos dilemas. El tema no es si usamos o no inteligencia artificial. Para salir de ese entuerto, lo primero que hay que hacer es considerar que las investigaciones disponibles hasta ahora son apenas un punto de partida. No están para ser consideradas como determinaciones absolutas. Son insumos altamente útiles pero que requieren interpretación crítica y, sobre todo, comunicación responsable. Hecho ese ejercicio, después resultan válidas todas las preguntas sobre cómo usamos estas herramientas, con qué fines y bajo qué condiciones. Por lo tanto, no se trata de que estas investigaciones se equivoquen al anticipar. El verdadero riesgo aparece cuando la comunidad les otorga una seguridad que no poseen. Cuando eso sucede, lejos de contribuir a la alfabetización, se instala una narrativa alarmista que paraliza, exagera y distorsiona. Eso provoca que, en lugar de fomentar pensamiento crítico, se consoliden mecanismos defensivos que no ayudan a comprender las luces y sombras que posee la tecnología más disruptiva de la historia de la humanidad. Basta de futurología. No necesitamos proyecciones de escenarios que nadie puede asegurar. La cuestión no es que existan predicciones, sino que estas se adopten como si no admitieran revisión. A fin de cuentas, hay que recordar que, cuando las investigaciones se comunican como certezas que no llegan a concretarse, lo que se debilita no es la credibilidad de quienes investigan, sino nuestra propia capacidad para comprender el fenómeno.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por