09/09/2025 02:02
09/09/2025 02:01
09/09/2025 02:01
09/09/2025 02:01
09/09/2025 02:00
09/09/2025 02:00
09/09/2025 02:00
09/09/2025 02:00
09/09/2025 01:59
09/09/2025 01:59
Buenos Aires » Infobae
Fecha: 08/09/2025 16:43
El análisis de Narayanan y Kapoor señala el impacto gradual de la inteligencia artificial en el empleo y la economía (Imagen Ilustrativa Infobae) La percepción sobre la inteligencia artificial suele fluctuar entre visiones exageradamente optimistas y perspectivas alarmistas. Frente a estos extremos, un análisis académico reciente difundido por The Economist plantea que la IA no constituye una ruptura radical, sino que se encuadra dentro de una continuidad histórica de innovaciones. Este enfoque, defendido por Arvind Narayanan y Sayash Kapoor, dos informáticos de Princeton, desafía el relato dominante de la IA como una fuerza sin precedentes y la conceptualiza como una tecnología normal, lo que tiene consecuencias directas para su adopción, el impacto laboral, los riesgos asociados y las políticas públicas recomendadas. Narayanan y Kapoor impulsan un cambio de perspectiva: dejar atrás tanto las promesas utópicas de progreso ilimitado como las advertencias de desestabilización social. Sostienen que ambos relatos extremos comparten un error de base: considerar la IA como una entidad autónoma capaz de decidir su futuro, lo que impediría comparaciones útiles con revoluciones tecnológicas anteriores. En contraposición, los autores defienden que la IA evolucionará siguiendo patrones ya vistos en otras transformaciones tecnológicas, lo que permite obtener análisis y decisiones sociales y políticas más fundamentadas. Según su planteamiento, “ver la IA como una tecnología normal lleva a conclusiones fundamentalmente diferentes sobre las medidas de mitigación, en comparación con verla como parecida a los humanos”. Los especialistas de Princeton proponen políticas públicas inspiradas en experiencias previas de innovaciones técnicas (Imagen Ilustrativa Infobae) A diferencia de las narrativas que presentan a la IA como amenaza existencial o salvación inminente, el “enfoque normalista” busca reducir tanto la exageración positiva como el temor desmedido. Mientras algunos anticipan crecimiento económico ininterrumpido y avances revolucionarios en la ciencia, otros advierten de un desempleo masivo y peligros imprevisibles para la humanidad. El análisis de Narayanan y Kapoor propone una vía intermedia que suaviza el debate y sitúa a la IA dentro de una lógica transformadora, pero no desbordada. Adopción tecnológica y ritmos históricos de cambio Uno de los puntos centrales de este análisis es la atención a las condiciones reales de adopción tecnológica. Los autores señalan que, hasta el momento, el uso cotidiano de la inteligencia artificial sigue siendo limitado, incluso en países donde se promueve intensamente, tanto en cantidad de usuarios como en tiempo diario respecto de las horas laborales totales. Este retraso, explican, es esperable, ya que la integración de una nueva tecnología requiere tiempo para adaptar rutinas, modificar estructuras organizativas, resolver la fragmentación de conocimientos sectoriales, adecuar los datos disponibles y cumplir con los marcos regulatorios. Como ilustración, mencionan el caso de la electrificación de fábricas, un proceso que demandó décadas debido a la reorganización completa de operaciones y espacios industriales. Además, advierten que centrarse solo en la innovación técnica, sin considerar la velocidad real de adopción, genera pronósticos poco realistas. Subrayan que muchas aplicaciones de IA requieren pruebas en entornos reales, lo cual puede resultar lento y costoso, especialmente en ámbitos regulados como el desarrollo farmacéutico o los vehículos autónomos. Estas dinámicas hacen prever que el impacto económico de la IA será más gradual de lo que sugieren los escenarios de automatización repentina. El impacto de la inteligencia artificial en la economía será paulatino, no abrupto. Los riesgos asociados a la inteligencia artificial pueden mitigarse con estrategias de ciberseguridad ya existentes (Imagen Ilustrativa Infobae) Cambios en el empleo y tareas humanas Lejos de negar el cambio, los autores afirman que incluso una penetración lenta de la IA transformará el universo laboral. A medida que más tareas se hagan automáticas o dependan de la IA, “un porcentaje cada vez mayor de los empleos y actividades humanas estará relacionado con el control de la IA”. El ejemplo de la Revolución Industrial les resulta esclarecedor: los empleos no desaparecieron, sino que migraron de actividades manuales esenciales, como el tejido, hacia labores de supervisión y ajuste de maquinaria. Siguiendo esa lógica, el trabajo futuro no será necesariamente suprimido, sino que se reenfocará en la configuración, supervisión y corrección de sistemas automáticos. Sin este tipo de control por parte de las personas, alertan, la IA acabaría siendo tan proclive al error que dejaría de ser útil para las empresas. Riesgos, mitigación y políticas públicas En relación con los riesgos, el análisis se distancia de los enfoques basados únicamente en la “alineación” de los modelos de IA, es decir, los intentos de garantizar que los resultados coincidan en todo momento con los objetivos humanos. Los autores subrayan que el contexto es determinante para evaluar si una acción es dañina, y que, a diferencia de las personas, la IA no dispone de comprensión situacional. Por ejemplo, un modelo capaz de generar un correo persuasivo no distinguirá si se emplea para mercadotecnia legítima o para actividades fraudulentas. Por este motivo, consideran que buscar una IA completamente infalible e inmune a usos nocivos es tan irreal como pretender construir una computadora que no pueda emplearse con fines negativos. Recomiendan, en cambio, centrar las estrategias de defensa en fortalecer las medidas existentes de ciberseguridad y bioprotección, ya que esto contribuye tanto contra amenazas amplificadas por la IA como frente a riesgos sin relación directa con ella. Estas ideas tienen aplicaciones prácticas para el diseño de políticas públicas. Entre las propuestas figuran sistemas de protección para denunciantes, declaración obligatoria del uso de IA en procedimientos sensibles, registros de despliegue —como el control de vehículos y drones— y notificación obligatoria de incidentes, siguiendo el ejemplo de los protocolos existentes para ciberataques. El análisis concluye que las lecciones extraídas de tecnologías anteriores pueden aplicarse con éxito a la IA, y que tratarla como una tecnología normal permite adoptar políticas más sensatas que aquellas basadas en la expectativa de una superinteligencia inminente. El enfoque normalista sobre inteligencia artificial reduce tanto el alarmismo como las expectativas utópicas (Imagen Ilustrativa Infobae) Debate académico y valor del enfoque “normalista” Este planteamiento ha suscitado controversia entre la comunidad académica. Algunas voces consideran que el artículo cae en una oposición excesiva al entusiasmo mediático sobre la IA y que sus argumentos no siempre resultan convincentes; este reparo también se hace extensivo a los discursos utópicos y catastrofistas. Incluso desde posturas pragmáticas, se acusa a Narayanan y Kapoor de minimizar el potencial reestructurador sobre el mercado laboral, subestimar la velocidad de adopción, relativizar el peligro de la desalineación y confiar demasiado en las capacidades regulatorias actuales. También se pone en duda su predicción de que la IA no podrá superar de forma significativa a especialistas humanos en tareas como la predicción o la persuasión. Se advierte, incluso, que aunque los escenarios extremos no lleguen a concretarse, la IA todavía podría tener un impacto mucho más profundo que el descrito. A pesar de las críticas, muchos observadores encuentran en esta perspectiva crítica del excepcionalismo de la inteligencia artificial una visión reconocible, sensata y alejada de los augurios más dramáticos de colapso o revolución inmediata. Para Narayanan y Kapoor, exponer públicamente esta posición “intermedia” resulta relevante porque canaliza las intuiciones de buena parte de la comunidad especializada, aunque cuente con menos visibilidad en el debate público. Frente al ruido y la ansiedad que acompañan la inversión y el desarrollo de la IA, su enfoque aporta una alternativa sobria que invita a examinar las promesas tecnológicas a la luz de los ritmos y desafíos observados en otras grandes transformaciones históricas.
Ver noticia original