Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Cómo saber si la voz de un familiar es real o IA: evita robos de identidad, daños en la reputación y pérdida dinero

    Buenos Aires » Infobae

    Fecha: 10/11/2025 21:17

    La persona detrás de la línea puede argumentar que es un conocido y necesita ayuda. (Imagen Ilustrativa Infobae) Los fraudes en los que se suplanta la voz de familiares y conocidos mediante inteligencia artificial (IA) muestran un crecimiento sostenido, de acuerdo con el Instituto Nacional de Ciberseguridad de España (INCIBE). La sofisticación de estas técnicas, conocidas como voice hacking o clonación de voz, facilita el robo de identidad, la afectación a la reputación y la pérdida de sumas considerables de dinero a través de engaños que logran manipular la confianza de las víctimas. Las estafas abarcan desde llamadas para obtener acceso a información bancaria hasta el uso de audios manipulados que ejecutan comandos en dispositivos inteligentes o conectados a internet. El avance de estos delitos digitales incrementa la urgencia de aprender a identificar cuándo una voz es real y cuándo proviene de la IA. Qué señales ayudan a diferenciar una voz real de una manipulada La desconfianza es clave para evitar ser víctima de fraudes. (Imagen Ilustrativa Infobae) Detectar una voz clonada exige atención. El INCIBE advierte que las voces sintéticas pueden mostrar anomalías sutiles, como patrones monótonos, pausas recién perceptibles o respuestas que no se adaptan bien al contexto. “La voz manipulada puede presentar ligeros retardos o articulaciones poco naturales, especialmente si la conversación se extiende”, señala el organismo. Otra señal es la ausencia de emociones espontáneas y la repetición inusual de frases o palabras. Contrastar la identidad por otro canal y desconfiar de solicitudes inesperadas aporta seguridad. El INCIBE sugiere: “Sospecha de peticiones raras o historias que generen urgencia, y tómate tu tiempo para analizar la situación”. Cuáles son las pautas clave para protegerse de fraudes de voz Se debe configurar opciones de seguridad en el dispositivo para evitar ciberataques. (Imagen Ilustrativa Infobae) Para enfrentar el avance del voice hacking, el INCIBE aconseja cautela ante llamadas de números desconocidos y evitar compartir información personal bajo presión. Cambiar contraseñas con regularidad, usar gestores de contraseñas y activar la autenticación de voz en dispositivos compatibles forma parte de las medidas efectivas. “Configura esta función en dispositivos compatibles para que respondan solo a tu voz o a voces previamente registradas”. Además, no se debe utilizar asistentes de voz en lugares públicos y mantener los dispositivos actualizados. Contrastar las solicitudes por vías habituales y consultar con contactos de confianza ayuda a reducir riesgos. Qué tipos de estafa están asociadas a la clonación de voz por IA Los atacantes buscan robar datos sensibles o fondos de los usuarios. (Imagen Ilustrativa Infobae) El vishing es una modalidad en la que los estafadores llaman a una persona, que en la mayoría pueden ser adultos mayores, simulando ser representantes de bancos, servicios al cliente o instituciones oficiales. Luego de recibir contestación, usan ingeniería social para manipular la confianza de la víctima y obtener información sensible. Los expertos en ciberseguridad advierten que “los ciberdelincuentes pueden extraer datos bancarios, contraseñas o números de tarjetas mediante el engaño en una sola llamada”. Asimismo, en la suplantación de identidad mediante deepfake de voz, se utiliza una voz clonada para reproducir el tono de familiares, colegas o directivos empresariales. En estos casos se persuade a la víctima para que realice transferencias, entregue credenciales o compre bajo instrucciones que parecen confiables. El INCIBE subraya: “Los ciberdelincuentes logran que las víctimas obedezcan órdenes por el simple hecho de reconocer una voz conocida”. Por qué los asistentes de voz y dispositivos conectados son vulnerables Extraños pueden interactuar con sistemas inteligentes y simular ser el propietario. (Imagen Ilustrativa Infobae) Los asistentes de voz como Alexa o Siri forman parte del objetivo de los ataques de voice hacking. El INCIBE explica que “los atacantes pueden explotar brechas de seguridad en el software para ejecutar comandos con voces clonadas y acceder a información, realizar compras no autorizadas o desactivar alarmas de seguridad”. El uso de comandos mediante voces sintéticas no deja rastros visuales y puede comprometer la seguridad antes de que el usuario lo advierta. La autenticación de voz y las actualizaciones ayudan a reducir riesgos. Los expertos en ciberseguridad sugieren: “Utiliza asistentes de voz en espacios privados y seguros para minimizar el riesgo de exposición”.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por