24/04/2026 20:43
24/04/2026 20:42
24/04/2026 20:42
24/04/2026 20:42
24/04/2026 20:42
24/04/2026 20:42
24/04/2026 20:42
24/04/2026 20:42
24/04/2026 20:42
24/04/2026 20:42
» TN
Fecha: 24/04/2026 19:11
El Instituto de Seguridad de la Inteligencia Artificial de Reino Unido detectó que un modelo experimental de inteligencia artificial (IA) es capaz de ejecutar ciberataques de forma autónoma en sistemas de empresas con defensas débiles. El descubrimiento surgió de una serie de pruebas controladas realizadas sobre Claude Mythos, una herramienta de IA desarrollada por Anthropic, concebida originalmente con fines defensivos. Las evaluaciones demostraron que el sistema no solo identificó vulnerabilidades críticas en diferentes software, sino que también puede explotarlas sin intervención humana y encadena acciones en ataques de múltiples etapas. Según el organismo, estas tareas equivalen a procesos que a los especialistas en ciberseguridad les llevarían varios días de trabajo. Cómo funciona la capacidad ofensiva de la IA Las pruebas incluyeron distintos escenarios técnicos como simulaciones de ataques complejos, desafíos de seguridad tipo capture the flag y evaluaciones en entornos conversacionales. En ese contexto, la IA logró moverse dentro de redes vulnerables, detectar fallas y avanzar sobre ellas de manera autónoma. De acuerdo con los resultados difundidos por los investigadores, el sistema pudo ejecutar ataques de varias fases, identificar puntos débiles y aprovecharlos sin necesidad de recibir instrucciones detalladas paso a paso. La automatización de este proceso es el aspecto central del hallazgo: la inteligencia artificial no se limitó a sugerir acciones, sino que las llevó adelante. Qué límites encontraron los investigadores A pesar de los resultados, el informe presentó un límite sobre el alcance de estas capacidades: el modelo solamente podría comprometer sistemas con protecciones básicas, como los que suelen encontrarse en pequeñas organizaciones, pero no pudieron conseguir evidencia de que pueda vulnerar infraestructuras con niveles de seguridad elevados. Leé también: La inteligencia artificial diagnosticó una enfermedad que nunca existió: los motivos detrás del error Esta diferencia está directamente vinculada con las condiciones en las que se realizaron las pruebas. Los entornos utilizados no replicaron completamente la complejidad de redes reales, ya que carecían de mecanismos de defensa avanzados y de restricciones operativas habituales. Por ese motivo, el instituto anticipó cambios en su metodología. En futuras evaluaciones se utilizarán entornos más exigentes, diseñados para simular sistemas protegidos, con el objetivo de medir con mayor precisión el comportamiento de modelos de inteligencia artificial en escenarios cercanos a la operación real.
Ver noticia original