Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • La inteligencia artificial ya puede automejorarse y el cambio recién empieza

    Buenos Aires » Infobae

    Fecha: 13/03/2026 04:29

    La novedad ya no pasa solo por chatbots que escriben mejor o responden más rápido. El verdadero giro aparece cuando los sistemas comienzan a percibir, planificar, actuar, verificar y corregir sus propios procesos, mientras nos obligan también a pensar de otra manera nuestra relación con la tecnología. La etapa que se abre ya no se explica únicamente por mejores respuestas, sino por una lógica más cercana a la orquestación de agentes, herramientas y flujos de trabajo. Durante años, la conversación pública sobre inteligencia artificial estuvo dominada por una misma inquietud. Si estas herramientas ya podían escribir, traducir, resumir o programar, ¿cuánto faltaba para que empezaran a reemplazar tareas humanas? Pero ese ya no es el verdadero punto de inflexión. Lo nuevo no está solo en que la IA haga cosas por nosotros, sino en que ciertos sistemas empiezan a mejorar su propio desempeño, a ensayar caminos, corregir errores y optimizar procesos sin depender de una intervención humana constante. Y eso obliga a mover la pregunta. Porque cuando una tecnología empieza a automejorarse, lo que se vuelve incierto no es únicamente cuánto trabajo puede absorber, sino hasta dónde puede acelerar su capacidad de actuar, reorganizar entornos y ampliar su influencia sobre decisiones, procesos y estructuras. No estamos todavía ante una inteligencia autónoma en sentido fuerte, ni ante una máquina consciente. Pero sí frente a una mutación decisiva. La inteligencia artificial empieza a dejar de parecerse a una caja que contesta para convertirse en una estructura en movimiento. Y cuando una estructura aprende a perfeccionarse, ya no alcanza con preguntarse qué hace. Empieza a ser imprescindible preguntarse hacia dónde puede llevarnos. Una de las señales más claras de ese corrimiento la dio Andrej Karpathy al publicar en GitHub su proyecto autoresearch. Allí no aparece una fantasía futurista, sino una escena mucho más concreta y, justamente por eso, más perturbadora. Un agente de IA que trabaja sobre un entorno real, aunque pequeño, de entrenamiento de modelos, modifica código, prueba hipótesis, ejecuta ciclos breves, mide resultados, conserva mejoras y descarta errores sin depender, a cada paso, de la mano humana. Karpathy no presentó una mente artificial emancipada. Presentó algo que, para el corto plazo, puede ser incluso más decisivo. Un circuito de investigación automatizada que comprime el tiempo entre intuición, prueba y corrección. Ese mismo desplazamiento se volvió todavía más visible con GPT-5.4. OpenAI lo presentó como un modelo pensado para trabajo profesional real, no solo para conversación. La compañía mostró mejoras fuertes en tareas de conocimiento, en uso de computadoras y en reducción de errores fácticos, además de un rendimiento orientado a documentos, hojas de cálculo, presentaciones y software cotidiano. Más que un chatbot mejorado, lo que empieza a aparecer es otra figura. Una inteligencia artificial capaz de moverse con creciente soltura dentro del entramado concreto del trabajo. En paralelo, Google empujó esa misma dirección con NotebookLM, cuya nueva función Cinematic Video Overviews transforma materiales escritos en videos inmersivos y personalizados. Ya no se trata solo de responder una pregunta. Se trata de intervenir cada vez más tramos del proceso. Y allí emerge, a mi juicio, uno de los nombres posibles para esta nueva etapa. Un pensamiento agéntico. Es decir, una manera de comprender la IA no como una interfaz que contesta, sino como una estructura que percibe, planifica, actúa, verifica y corrige. Ya no alcanza con saber pedir. Empieza a ser necesario saber dirigir. Entender cómo se encadenan tareas, cómo se combinan herramientas, cómo se supervisan secuencias de acción y cómo se conserva el control sobre procesos que la máquina empieza a recorrer con una autonomía creciente. Por eso la discusión sobre la automejora no puede separarse de la geopolítica. La disputa entre Anthropic y el Pentágono lo mostró con crudeza. El Departamento de Defensa de Estados Unidos calificó a Anthropic como supply-chain risk, restringiendo su uso en contratistas militares, en medio de un conflicto por las salvaguardas que la empresa se negaba a flexibilizar respecto de armas autónomas y vigilancia masiva. Más allá del caso puntual, lo que queda expuesto es algo más profundo. Cuando estas tecnologías dejan de ser solo comerciales y empiezan a insertarse en estructuras estratégicas, la pregunta ya no es únicamente qué pueden hacer, sino quién fija sus límites y con qué legitimidad. El otro gran frente es el trabajo. Y aquí también conviene escapar tanto del entusiasmo ingenuo como del apocalipsis fácil. El Foro Económico Mundial proyecta que, hacia 2030, se crearán 170 millones de puestos y se desplazarán 92 millones, mientras el FMI advirtió en febrero de 2026 que la inteligencia artificial impactará alrededor del 40 por ciento de los empleos a nivel mundial y al 60 por ciento en las economías avanzadas. Pero ese impacto no cae de manera pareja. Un estudio reciente del Stanford Digital Economy Lab detectó una caída relativa del 16 por ciento en el empleo de trabajadores de 22 a 25 años en ocupaciones más expuestas a IA generativa, aunque otras investigaciones muestran mejoras de productividad del 15 por ciento en tareas asistidas por IA. Leídas juntas, esas evidencias dicen algo muy concreto. La inteligencia artificial puede abrir nuevas eficiencias y, al mismo tiempo, cerrar ciertas puertas de entrada. La era de la automejora no anuncia la emancipación de la máquina, sino la necesidad de redefinir con más lucidez el lugar humano. La pregunta central ya no es si la inteligencia artificial puede hacer más cosas, porque todo indica que puede y cada vez mejor. La pregunta decisiva es otra: quién fija el rumbo, bajo qué valores se ordena esa potencia, quién responde por sus efectos y cómo se distribuyen sus beneficios. Porque cuando la tecnología empieza a perfeccionarse a sí misma, el mayor peligro no es solamente que avance demasiado rápido. El peligro real es que nosotros lleguemos demasiado tarde a decidir en qué clase de mundo queremos vivir.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por