21/04/2025 22:51
21/04/2025 22:50
21/04/2025 22:50
21/04/2025 22:50
21/04/2025 22:50
21/04/2025 22:50
21/04/2025 22:50
21/04/2025 22:50
21/04/2025 22:50
21/04/2025 22:50
Buenos Aires » Infobae
Fecha: 21/04/2025 10:31
Estamos entrando en una era donde las decisiones más importantes pueden no pasar por un ser humano (Imagen Ilustrativa Infobae) Google acaba de presentar, en su evento Cloud Next 2025, en Las Vegas, una serie de avances que confirman algo que ya intuíamos: la inteligencia artificial empieza a caminar sola. El anuncio más potente no fue solo técnico, fue simbólico. Google lanzó un nuevo sistema llamado Agent2Agent, que permite que diferentes inteligencias artificiales se comuniquen entre sí, colaboren y tomen decisiones sin intervención humana. Es decir, las máquinas ya no solo piensan por nosotros, sino que empiezan a hablar entre ellas. Esto, que suena a ciencia ficción, es muy real. Lo acompañan herramientas como Vertex AI Agent Builder, que permite crear agentes autónomos capaces de planificar tareas, ejecutar procesos y adaptarse a diferentes situaciones sin ser programados en detalle. Solo hay que darles un objetivo. Ellos harán el resto. También se presentaron nuevos modelos de IA como Gemini 2.5 Pro y Gemini Flash, que entienden no solo texto, sino también imágenes, video y audio. Ya no son “chatbots”: son sistemas que comprenden el mundo casi como lo hacemos nosotros, pero con más velocidad y sin fatiga. Y todo esto está ahora al alcance de cualquier desarrollador, gracias a nuevas APIs abiertas que Google puso a disposición del público. En otras palabras: cualquiera puede usar esta tecnología. Eso es una oportunidad… y también un riesgo. ¿El futuro nos necesita? Estamos entrando en una era donde las decisiones más importantes pueden no pasar por un ser humano. Un agente de IA puede negociar contratos, responder emails, tomar decisiones de inversión, o incluso gestionar una operación médica remota. Esto es eficiencia pura, pero también una pérdida de control. Algunos expertos, como Demis Hassabis, CEO de DeepMind, celebran estos avances como el inicio de una era dorada del conocimiento. Pero otros, como Elon Musk o el filósofo Nick Bostrom, advierten sobre el punto de no retorno: el momento de la “singularidad”, en el que la inteligencia artificial supere a la humana y ya no podamos entender ni controlar lo que está haciendo. ¿Exagerado? Tal vez. ¿Imposible? Ya no. Como en Hollywood, pero real Durante décadas, el cine nos mostró futuros dominados por máquinas pensantes: Her, Ex Machina, I, Robot. Hoy esos guiones están más cerca de ser documentales que ficción. No es que los robots vayan a rebelarse mañana, pero ya estamos delegando muchas decisiones críticas en sistemas que no sienten, no dudan y no descansan. Y eso tiene un lado bueno: menos errores, más eficiencia, más innovación. Pero también tiene un lado oscuro: pérdida de empleos, manipulación algorítmica, desigualdad tecnológica, y una peligrosa desconexión entre el ser humano y el mundo que él mismo ha creado. Una nueva responsabilidad Los avances son extraordinarios, pero nos dejan una pregunta clave: ¿cómo vamos a gobernar un mundo que ya no necesita que lo gobernemos? La inteligencia artificial no es buena ni mala. Es poderosa. Y como toda herramienta poderosa, su impacto dependerá de quién la use, para qué, y con qué límites. Este momento no es para celebrar sin pensar, ni para temer sin entender. Es para reflexionar, regular y decidir, antes de que las decisiones ya no nos necesiten.
Ver noticia original