24/03/2026 09:41
24/03/2026 09:40
24/03/2026 09:39
24/03/2026 09:39
24/03/2026 09:39
24/03/2026 09:39
24/03/2026 09:38
24/03/2026 09:38
24/03/2026 09:37
24/03/2026 09:36
» TN
Fecha: 24/03/2026 08:01
La inteligencia artificial cambió el mapa del delito. Ya no hace falta más que unos segundos de audio para clonar una voz, o una fotografía pública para fabricar un video comprometedor que nunca existió. Lo que antes era ciencia ficción es hoy una herramienta al alcance de cualquier persona con acceso a internet. Y la ley penal argentina, como ocurre casi siempre frente a las nuevas tecnologías, llega tarde. Cuáles son las principales conductas delictivas que se cometen usando IA en Argentina, cómo encuadran (o no) en el Código Penal vigente, y qué es lo que todavía falta. Tipos de fraudes con IA 1. Estafas con voces o videos falsos: el delito que ya existe. El caso más frecuente que llega hoy a las fiscalías es la estafa mediante deepfake. Un video o audio generado por IA imita la voz o la imagen de una figura pública, un político, un empresario, un comunicador, para promocionar inversiones fraudulentas o solicitar transferencias de dinero. Cuando el engaño involucra manipulación informática, por ejemplo, cuando se alteran sistemas de pago o se interceptan credenciales, corresponde aplicar el artículo 173, inciso 16 del Código Penal (estafa informática, incorporado por la Ley 26.388) 2. Suplantación de identidad con inteligencia artificial La suplantación de identidad digital es otra de las conductas en expansión. Consiste en asumir la apariencia de otra persona, a través de su voz, imagen o datos personales generados o modificados con IA, para engañar a terceros, dañar su reputación o cometer delitos en su nombre. El Derecho Penal argentino no tiene un tipo autónomo de suplantación de identidad digital. Sin embargo, distintas figuras permiten dar respuesta según la finalidad de la conducta como fraude o engaño patrimonial, daño a la reputación, violencia de género y protección de datos personales. 3. Audios falsos y deepfakes: qué dice la ley Los deepfakes son videos, audios o imágenes generados con IA que imitan la apariencia, la voz y los gestos de una persona real. Su problema jurídico en Argentina no es que estén prohibidos, sino que no existe una figura penal específica para su creación o difusión no consentida, más allá del contenido sexual. Desde el Ministerio de Justicia se proponen modificaciones al Código Penal para incluir los deepfakes sexuales como delito autónomo, la regulación del ciberacoso y la suplantación de identidad. Es un avance en la dirección correcta, aunque todavía no se pudo ver el texto final de la reforma. 4. Uso de fotos sin consentimiento para crear contenido falso Uno de los casos más impactantes y frecuentes es la descarga de fotos de redes sociales para generar, mediante técnicas de face-swapping, imágenes o videos sexualmente explícitos con el rostro real de la víctima. En junio de 2025, un joven de 19 años fue procesado en Córdoba por haberlo hecho con sus compañeras de colegio. Estos casos revelan el vacío legal que ya tiene consecuencias reales. Ante la ausencia de una figura específica, los operadores judiciales deben recurrir a tipos penales no pensados para esta realidad: lesiones graves, injurias, etc. 5. Extorsiones con imágenes generadas por IA La extorsión mediante deepfakes es la vertiente más grave y silenciada de este fenómeno. El mecanismo es el siguiente: el delincuente genera imágenes o videos falsos en situaciones comprometedoras, generalmente de contenido sexual, y amenaza con difundirlas si la víctima no paga dinero o accede a sus exigencias. Aquí el Código Penal ofrece herramientas más claras. El problema real no es la calificación legal, sino la dificultad probatoria. Demostrar que una imagen es un deepfake requiere peritos especializados, cadenas de custodia digital cuidadosas y laboratorios forenses. Muchas víctimas ni siquiera denuncian porque no creen que puedan probar nada. Lo que falta: el derecho penal frente a la IA El balance es preocupante pero no desolador. Argentina tiene herramientas penales para perseguir las estafas, las amenazas y las extorsiones realizadas con IA. El problema central es la ausencia de tipos penales específicos para el deepfake y la suplantación de identidad digital, que obliga a los operadores jurídicos a forzar figuras que no fueron diseñadas para estas conductas. Lo que el sistema necesita, con urgencia, es: Legislación específica: la creación y difusión de deepfakes sin consentimiento, en especial con contenido sexual, debe ser tipificada como delito autónomo, con penas proporcionales al daño real que produce. Capacidad técnica en el sistema judicial: fiscalías y juzgados especializados en cibercrimen, con acceso a peritos en IA y forenses digitales. Protección de datos actualizada: la reforma de la Ley 25.326 deberá incorporar expresamente los datos biométricos como datos sensibles, con consentimiento explícito como condición para su procesamiento. Responsabilidad de las plataformas: las plataformas que ofrecen servicios de clonación de voz y rostro sin controles mínimos de uso son parte del problema. Su regulación es inaplazable. La inteligencia artificial es una gran herramienta, tanto para el bien como para delinquir, por lo que debe contar con límites acordes a sus capacidades. (*) Andrés García Vautrin es Abogado penalista, en los último años se enfocó a delitos financieros, fraudes con cripto activos, estafas tecnológicas y nuevas formas de criminalidad económica asociadas al entorno digital.
Ver noticia original