Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Alex Wang alertó sobre el impacto de la IA en la seguridad global: “Hay que hacerlo bien o las cosas se pondrán realmente peligrosas”

    Buenos Aires » Infobae

    Fecha: 01/08/2025 08:34

    A los 19 años, Wang dejó el MIT, donde estudiaba aprendizaje automático, para unirse a la aceleradora Y Combinator y fundar Scale AI (Captura de video: YouTube - Shawn Ryan Show) Alex Wang, CEO y cofundador de Scale AI, se convirtió en una voz determinante sobre el impacto de la inteligencia artificial en la seguridad global. Al frente de una de las plataformas de datos más influyentes para el desarrollo de IA, Wang advirtió que la humanidad se encuentra en una encrucijada: “Tenemos que hacerlo bien, de lo contrario, las cosas se pondrán realmente peligrosas”, afirmó en una entrevista con Shawn Ryan Show. Durante ese diálogo, abordó los desafíos éticos, geopolíticos y de defensa asociados con el crecimiento acelerado de la IA, en particular en la competencia que enfrentan Estados Unidos y China. Criado en Los Álamos, Nuevo México, en un ambiente de científicos y proyectos militares, Wang fundó Scale AI en 2016 tras dejar el MIT. La compañía alcanzó una valuación superior a USD 13.000 millones y se posicionó como pilar de la infraestructura de datos para los modelos de IA más avanzados. Entre sus clientes están OpenAI, Microsoft y el Departamento de Defensa de Estados Unidos, así como grandes empresas del sector bancario, farmacéutico y de telecomunicaciones. Wang es el multimillonario hecho a sí mismo más joven del mundo y posee cerca del 14 % de Scale AI (REUTERS) Su empresa se especializa en la producción de conjuntos de datos de alta calidad, indispensables para el entrenamiento de IA, y facilita el despliegue de sistemas que transforman procesos empresariales y gubernamentales a través de la automatización. Fue reconocido por Forbes y TIME como uno de los líderes jóvenes más influyentes en tecnología y sostiene la ética y seguridad como ejes fundamentales: “Abogo por el desarrollo responsable de la IA y por políticas que garanticen avances éticos y seguros”, declaró. IA y defensa: automatización y el futuro de la guerra La integración de la IA en la defensa y la seguridad nacional constituye uno de los ejes principales para Wang. Scale AI trabajó con el Departamento de Defensa de Estados Unidos, primero en problemas de datos para sistemas de reconocimiento de imágenes satelitales y, más recientemente, en proyectos como Thunder Forge, destinados a la planificación militar automatizada. Explicó que los agentes de IA pueden transformar la toma de decisiones militares: desde el análisis de datos hasta la simulación de escenarios y la presentación de recomendaciones a los comandantes. La automatización de decisiones militares y la manipulación de información colocan a la inteligencia artificial en el centro del debate sobre seguridad (Captura de video: YouTube - Shawn Ryan Show) “La idea es pasar de procesos donde los humanos están en el centro de cada decisión, a sistemas donde los agentes de IA realizan gran parte del trabajo y los humanos supervisan y validan”, precisó Wang. Este salto permite acelerar la planificación de operaciones de días a horas, multiplicando la velocidad de respuesta. No obstante, advirtió que esa ventaja será temporal: “Si solo Estados Unidos tiene esta capacidad, será una ventaja asimétrica. Pero cuando otros actores la desarrollen, la competencia se trasladará a la velocidad, la calidad de los datos y la cantidad de recursos computacionales”. Riesgos emergentes: interfaces cerebro-computadora, manipulación y control El joven de 28 años identificó riesgos futuros ligados al desarrollo de interfaces cerebro-computadora, impulsadas por empresas como Neuralink. “Si tienes un enlace directo al cerebro, podrías leer recuerdos, controlar pensamientos o manipular emociones. Es un riesgo enorme”, advirtió. La tecnología, aún en fase inicial, ya demostró en animales la capacidad de proyectar estímulos visuales y modificar comportamientos. A largo plazo, anticipa la posibilidad de manipular sentidos y recuerdos, abriendo sujetos a dilemas éticos y de seguridad sin precedentes. Interfaces neuronales como las desarrolladas por Neuralink podrían permitir la lectura de recuerdos y el control de pensamientos (Neuralink) “La capacidad de insertar pensamientos o emociones, o de crear realidades falsas, otorga un poder extremo que nunca antes ha existido”, subrayó Wang en el pódcast. Frente a esto, propuso que las democracias lideren el desarrollo para evitar que regímenes autoritarios utilicen la IA para el control social. Amenazas futuras: ciberataques, biotecnología y desinformación Wang alertó sobre la vulnerabilidad de infraestructuras críticas ante ciberataques, en especial en el sector energético. “La red eléctrica de Estados Unidos es extremadamente susceptible a ataques, y muchos sistemas ni siquiera cambiaron las contraseñas por defecto”, indicó. Un ataque coordinado podría dejar sin energía a ciudades enteras, paralizar centros de datos y bases militares, y causar pérdidas estratégicas y humanas. En el plano biotecnológico, advirtió sobre la posibilidad de crear patógenos que ataquen segmentos específicos del ADN, riesgo que la IA acelerará. Wang alertó sobre los peligros de los ciberataques y manipulación de información impulsados por la inteligencia artificial (Imagen Ilustrativa Infobae) Aunque existen avances en tecnologías de detección y contención, el equilibrio entre capacidades defensivas y ofensivas se mantiene delicado. La manipulación de información mediante deepfakes y simulaciones hiperrealistas representa otro desafío: “La IA hará indistinguibles las pruebas reales de las fabricadas, y los sistemas legales no están preparados para ello”, enfatizó. Regulación, ética y la urgencia de la cooperación internacional Wang fue claro sobre la urgencia de mecanismos de gobernanza y regulación internacional capaces de responder a tecnologías poderosas: “Ningún país está preparado para gobernar tecnologías tan poderosas como las que estamos desarrollando”, afirmó en Shawn Ryan Show. Resaltó la necesidad de mantener la “soberanía humana” en los sistemas críticos, evitando delegar el control completo a la IA y asegurando la vigilancia humana en decisiones militares, políticas y económicas. El desarrollo ético y seguro de la IA, junto con la vigilancia humana y la gobernanza internacional, son claves para evitar una carrera armamentista tecnológica (Imagen Ilustrativa Infobae) Insistió en que la cooperación internacional será indispensable para evitar una carrera armamentista fuera de control y para gestionar los riesgos de la biotecnología y la ciberseguridad. En el cierre de la entrevista, Wang sostuvo que la carrera tecnológica definirá el equilibrio de poder de los próximos años. “El peor escenario para Estados Unidos es que China logre una ventaja decisiva en IA y utilice ese poder para imponer su modelo al mundo”, advirtió. Solo una acción urgente y coordinada permitirá a las democracias mantener el liderazgo tecnológico, evitando que la IA se transforme en herramienta de dominación o destrucción. “La cooperación internacional y la regulación son esenciales para asegurar que la IA impulse el progreso, la seguridad y la oportunidad, y no la catástrofe”, concluyó Wang.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por