23/07/2025 16:06
23/07/2025 16:06
23/07/2025 16:06
23/07/2025 16:06
23/07/2025 16:06
23/07/2025 16:05
23/07/2025 16:05
23/07/2025 16:05
23/07/2025 16:05
23/07/2025 16:04
Buenos Aires » Infobae
Fecha: 23/07/2025 08:34
Altman advierte sobre los riesgos de la autenticación por huella de voz en bancos (AP Foto/Mark Schiefelbein) Sam Altman, director ejecutivo de OpenAI, advirtió sobre el riesgo inminente que la inteligencia artificial representa para la seguridad bancaria mundial durante una conferencia de la Reserva Federal en Washington. La capacidad de la IA para clonar voces humanas ha vuelto obsoletos los sistemas de autenticación por voz, según remarcó Altman. Advirtió de una “crisis de fraude” que podría golpear pronto a bancos e instituciones financieras, que deben abandonar estos métodos rápidamente. Así lo reportó KSAT, medio que también difundió el llamado del CEO a prepararse para un escenario de amenazas digitales inéditas. El CEO de OpenAI alerta que la autenticación por voz es obsoleta ante los avances de la inteligencia artificial (Imagen ilustrativa Infobae) Altman intervino en un momento marcado por la evolución acelerada de la tecnología y una creciente inquietud regulatoria. Mientras la Casa Blanca se apresta a publicar un plan de acción sobre IA y la industria financiera revisa sus protocolos de seguridad, la advertencia de Altman resalta la urgencia de repensar la protección de los activos financieros ante la sofisticación de los ataques potenciados por inteligencia artificial. Autenticación por voz: un sistema superado Durante el evento de la Reserva Federal, Altman expresó su preocupación ante la persistencia de la autenticación por huella de voz en instituciones financieras. “Algo que me aterra es que, al parecer, todavía hay algunas instituciones financieras que aceptan la huella de voz como autenticación”, afirmó Altman ante ejecutivos y legisladores de Wall Street. Consideró “una locura” mantener este sistema, subrayando que la inteligencia artificial “ya ha derrotado completamente ese método”. El 91% de los bancos de EE.UU. revisa sus métodos de verificación de voz por el riesgo de suplantación con IA (Foto: Imagen ilustrativa Infobae) El mecanismo, que se popularizó hace más de una década entre clientes de alto patrimonio, permite a los usuarios acceder a cuentas telefónicas pronunciando una frase específica. Sin embargo, Altman advirtió que los clones de voz generados por IA pueden suplantar identidades con un realismo casi total, lo que obliga al sector a diseñar nuevas formas de verificación. Según Axios, Altman remarcó que la crisis de fraude está “muy, muy cerca” y que los delincuentes ya no necesitan tecnología de última generación para atacar. Destacó que la sociedad no está preparada para la rapidez con la que evoluciona la IA, lo que incrementa la vulnerabilidad de los sistemas actuales. Clonación de voz por IA: facilidad y ejemplos de ataques La clonación de voz mediante IA ha progresado tanto que, según Consumer Reports, solo hacen falta tres segundos de audio para crear imitaciones convincentes. Incluso periodistas han utilizado estas herramientas para superar barreras de seguridad de bancos reconocidos, como lo reportó KSAT. El proceso técnico requiere modelos de IA entrenados con muestras mínimas de audio. Estas herramientas pueden reproducir timbre, entonación y patrones de habla de una persona, generando grabaciones prácticamente idénticas a la voz original. Este avance desafía los sistemas de autenticación tradicionales, que confiaban en la singularidad de la voz para garantizar la seguridad. La clonación de voz con IA avanza y pone en jaque la seguridad bancaria (Imagen Ilustrativa Infobae) La popularidad de la autenticación por voz entre clientes de alto patrimonio se basaba en la creencia de que la voz era un identificador único y difícil de falsificar. La penetración de la inteligencia artificial ha destruido este supuesto, permitiendo ataques de suplantación cada vez más sofisticados y difíciles de detectar. Respuesta regulatoria y colaboración Ante la amenaza creciente, los reguladores han comenzado a reaccionar. Michelle Bowman, vicepresidenta de Supervisión de la Reserva Federal y máxima autoridad reguladora del banco central, moderó la charla con Altman y manifestó la disposición de la institución a buscar soluciones conjuntas: “Eso podría ser algo en lo que podamos pensar en asociarnos”, declaró Bowman según KSAT. Esto refleja el incremento de la atención regulatoria sobre los riesgos de seguridad ligados a la inteligencia artificial. Investigaciones citadas por KSAT señalan que el 91% de los bancos estadounidenses están reconsiderando sus métodos de verificación de voz tras el auge de la clonación por IA. La apertura a la cooperación sugiere que la industria financiera y la regulación reconocen la magnitud del reto. Impacto económico y urgencia de cambio El fraude basado en deepfakes y clonación de voz por IA crece en gravedad y costo. Expertos estiman que las pérdidas asociadas a estos ataques podrían llegar a 40.000 millones de dólares para 2027, frente a los 12.000 millones de dólares de 2023, según datos citados por KSAT. Estas cifras reflejan la velocidad y el alcance de la amenaza, así como la urgencia de actualizar los sistemas de seguridad. Las pérdidas por ataques de deepfakes y clonación de voz aumentan de 12.000 a 40.000 millones de dólares en cuatro años (Imagen Ilustrativa Infobae) La facilidad para crear imitaciones de voz ha impulsado a la mayoría de bancos estadounidenses a replantear sus mecanismos de autenticación. La revisión de los protocolos y la búsqueda de soluciones innovadoras se han convertido en prioridades; el sector financiero enfrenta una carrera contrarreloj para proteger activos y clientes. OpenAI bajo presión, competencia y nuevos frentes La advertencia pública de Altman tiene lugar en un contexto de intensa competencia y desafíos internos para OpenAI. Según AOL, la empresa ha atravesado meses turbulentos bajo la presión de grandes tecnológicas como Google, Meta, Amazon y Microsoft, además de la competencia de startups emergentes y nuevos modelos lanzados por rivales como xAI. Con una valoración de cerca de 300.000 millones de dólares tras una histórica ronda de inversión, OpenAI ha visto cómo empresas como Meta tratan de atraer a sus ingenieros con millonarios bonos de entrada. Altman señaló que Meta ofreció “bonos de firma de 100 millones de dólares”, aunque minimizó el impacto de la fuga de empleados, insistiendo en la solidez del equipo de la compañía. Las fricciones con Microsoft, principal inversor de OpenAI, se han amplificado por diferencias sobre acuerdos comerciales y el concepto de inteligencia artificial general (AGI). La caída de una posible adquisición de la startup Windsurf y retrasos en nuevos lanzamientos han añadido presión. Altman anunció que el próximo modelo de lenguaje de la empresa se ha pospuesto para realizar pruebas de seguridad adicionales, sin fecha concreta para su debut. El próximo modelo de lenguaje de OpenAI se pospone para realizar pruebas de seguridad adicionales, sin fecha de lanzamiento definida (Imagen ilustrativa Infobae) OpenAI, sin embargo, sigue expandiéndose con acuerdos estratégicos. Ha firmado un contrato de 200 millones de dólares para proveer capacidad de IA al ejército de Estados Unidos, además de anunciar colaboraciones con empresas como Mattel para integrar IA en productos de consumo como Barbie. También planea el lanzamiento de un navegador web impulsado por IA que competirá con Google Chrome, incorporando ChatGPT y funciones automatizadas para los usuarios. La visita de Sam Altman a Washington tenía la meta de promover la inteligencia artificial como un bien “democrático” para la economía estadounidense, según Axios. Sin embargo, su advertencia sobre la inminente crisis de fraude bancario deja claro que resulta fundamental equilibrar innovación y seguridad para proteger a los usuarios.
Ver noticia original