Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Los incontables peligros de dormirnos al volante en la era de la IA

    » TN

    Fecha: 03/05/2026 05:19

    Hay riesgos que no aparecen cuando aceleramos, sino cuando nos relajamos demasiado. Imaginemos una ruta de montaña conocida. La hacemos seguido. Sabemos dónde están las curvas, dónde la bajada se deja llevar, dónde el paisaje se abre y parece invitarnos a aflojar. Y justamente ahí aparece el peligro. A veces uno no se duerme por completo al volante: a veces alcanza con distraerse con el paisaje, con creer que ya conoce el camino, con asumir que el auto, la ruta y las barreras harán el resto. En ese exceso de confianza, casi sin darnos cuenta, se revelan nuestras vulnerabilidades. Algo parecido está ocurriendo en la era de la IA No porque la tecnología sea, en sí misma, una amenaza inevitable. El problema es otro: nuestra superficie de contacto con el mundo digital se amplió de manera radical. Hoy trabajamos con más aplicaciones, más integraciones, más credenciales, más accesos cruzados, más automatizaciones y más herramientas de inteligencia artificial conectadas entre sí. Tenemos más velocidad, más comodidad y más potencia. Pero también más puntos de entrada, más zonas ciegas y más lugares donde algo puede salir mal. Es como si ya no manejáramos por una sola ruta, sino por una red de autopistas, caminos secundarios, túneles, desvíos y accesos automáticos que se abren solos. Y, sin embargo, muchos seguimos conduciendo con la misma lógica mental de cuando el camino era más simple. El episodio que involucró a Vercel lo ilustra con crudeza. No hizo falta un hacker de película ni una maniobra imposible de anticipar. Bastó una combinación mucho más común y, por eso mismo, más inquietante: confianza mal colocada, herramientas nuevas integradas sin pensar del todo en sus implicancias y una puerta que nunca debió haber quedado abierta. La secuencia es conocida: un empleado de otra compañía descargó en su computadora laboral un archivo vinculado a Roblox que ocultaba malware. Ese programa robó credenciales, cookies y tokens de acceso. A partir de allí, los atacantes aprovecharon permisos e integraciones existentes para moverse por un ecosistema más amplio. La puerta de entrada no estuvo donde todos la buscaban. Estuvo en una conexión lateral. En un punto aparentemente menor. En una de esas salidas de la ruta que parecían inofensivas. Ese detalle importa porque dice mucho sobre la época El riesgo ya no está solo en el núcleo de una organización. Está también en sus bordes, en sus vínculos, en las herramientas que se conectan para ganar productividad, en los permisos que se conceden casi por default, en las automatizaciones que ahorran tiempo, pero multiplican la exposición. Durante años, pensamos la seguridad como quien revisa si las puertas de la casa están cerradas. Hoy el problema es más complejo: ya no alcanza con mirar la puerta principal. Hay que entender cuántas ventanas abrimos, cuántas llaves repartimos, cuántos accesos remotos habilitamos y cuántos terceros pueden entrar a nuestra información por haber sido integrados para trabajar más rápido. En otras palabras: el mundo digital ya no es solo un lugar donde operamos. Es el ambiente en el que vivimos, trabajamos, decidimos y delegamos. Y mientras esa superficie de contacto se expande, nuestra cultura de gobernanza y ciberseguridad avanza mucho más lento. La metáfora vial ayuda a verlo. Aprender a manejar nunca fue solamente aprender a mover el auto. También implicó aprender normas, prioridades, distancias, límites, señales, puntos ciegos, responsabilidades y consecuencias. Uno no obtiene seguridad porque el vehículo sea más moderno, sino porque entiende las reglas que hacen posible circular con otros sin chocar. En el mundo digital, muchas veces estamos actuando al revés Hoy abundan los autos con caja automática, sensores, asistencia a la conducción y promesa de manejo simple. Las herramientas digitales (y, sobre todo, las de IA) se vuelven cada vez más fáciles de usar. Eso es parte de su atractivo. Pero facilidad de uso no significa comprensión del riesgo. Y comodidad no equivale a control. Muchos usan estas herramientas sin entender demasiado bien cuáles son las reglas de tránsito asociadas: qué datos no deberían compartir, qué permisos no conviene conceder, qué tipo de revisión humana sigue siendo imprescindible, qué significa gobernanza, qué implica ciberseguridad, qué riesgos aparecen cuando una herramienta piensa o actúa sobre información sensible. La consecuencia es paradójica: cuanto más intuitiva parece la tecnología, más fácil resulta subestimarla. Por eso el debate no debería ser si usamos o no inteligencia artificial, sino cómo la usamos. No se trata de enamorarse de la idea de AI First, como si la respuesta correcta fuera poner IA en todo porque sí, porque acelera, porque está de moda o porque da la sensación de modernidad. Ese camino se parece demasiado a salir a la ruta con un auto más potente sin haber aprendido a frenar mejor. Lo que hace falta es AI Fit AI Fit es usar inteligencia artificial donde realmente encaja, donde resuelve un problema concreto, donde agrega valor y donde existe una combinación razonable entre beneficio, criterio humano, gobernanza y control. AI Fit no es frenar la innovación. Es encuadrarla. Es usar de manera inteligentemente humana una inteligencia artificialmente inteligente. Eso supone hacerse preguntas incómodas antes de adoptar, integrar o delegar. ¿Qué problema específico resuelve esta herramienta? ¿Qué datos toca? ¿Qué nivel de acceso necesita? ¿Qué riesgos abre? ¿Qué controles existen? ¿Qué decisiones no deberían salir nunca del circuito humano? ¿Qué capacidades humanas estamos fortaleciendo y cuáles estamos empezando a erosionar por exceso de dependencia? Leé también: Las cuatro olas de la IA Porque hay otro riesgo menos visible: cuando delegamos demasiado, no solo aumentamos la exposición. También debilitamos criterio. Si dejamos que la IA escriba, decida, evalúe, revise o conecte todo sin supervisión suficiente, corremos el riesgo de perder la humanidad que siempre debe dirigir y necesitamos para detectar errores, interpretar contextos, hacer preguntas difíciles y frenar a tiempo. Es el equivalente a confiar tanto en la asistencia a la conducción que olvidamos cómo leer la ruta. En este punto, la gobernanza deja de ser una palabra burocrática y pasa a ser una cuestión profundamente práctica. Gobernanza es decidir quién accede a qué, bajo qué condiciones, con qué trazabilidad y con qué límites. Es saber qué herramientas usa realmente la organización, no solo las aprobadas, sino también las que aparecen en la sombra porque alguien las encontró útiles, rápidas y aparentemente inofensivas. Es entender que cada permiso amplio concedido sin revisión puede transformarse, más adelante, en una carretera directa hacia la información más sensible. Y también es asumir algo incómodo: la ausencia de una catástrofe visible no significa ausencia de peligro. (*) Juan Pablo Cosentino es profesor del área Dirección de Operaciones y Tecnología en IAE Business School. Ingeniero Electrónico con especialización en Telecomunicaciones (UB) y posee un Máster en Comunicaciones Móviles (Universidad Politécnica de Catalunya)

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por