16/05/2025 00:42
16/05/2025 00:42
16/05/2025 00:41
16/05/2025 00:41
16/05/2025 00:41
16/05/2025 00:41
16/05/2025 00:41
16/05/2025 00:41
16/05/2025 00:41
16/05/2025 00:41
» El Ciudadano
Fecha: 15/05/2025 21:45
El uso de sistemas de inteligencia artificial (IA) para generar videos deepfakes representa una preocupación creciente. No obstante, esta tecnología también ha demostrado ser valiosa para visibilizar problemáticas de violencia e injusticia en la sociedad. ¿De qué manera? Por ejemplo, al recrear digitalmente a víctimas para que, simbólicamente, puedan alzar la voz una vez más. Uno de los casos más recientes tuvo lugar en Arizona, Estados Unidos. En 2021, Christopher Pelkey fue asesinado en una riña vial ocurrida en la ciudad de Chandler, condado de Maricopa. El hombre, de 37 años, perdió la vida luego de que Gabriel Paul Horcasitas le disparara en repetidas ocasiones tras una discusión mientras ambos conducían por la carretera Gilbert Road. El proceso legal avanzó hasta llegar a juicio. Fue ahí que Pelkey “revivió” gracias a la IA para participar simbólicamente en la audiencia de sentencia de su agresor. Según reportaron medios locales, se trató del primer caso en la historia judicial de Arizona en el que se utiliza esta tecnología para presentar una declaración de impacto personal de una persona fallecida. La iniciativa fue impulsada por la hermana de la víctima, Stacey Wales, y su esposo, quienes recurrieron a herramientas digitales para recrear la imagen y la voz del veterano militar fallecido. En la grabación proyectada ante el tribunal, el avatar de Pelkey explicó que, gracias al uso de la IA, había sido posible reconstruirlo digitalmente para compartir una semblanza de su historia. Después de relatar aspectos de su trayectoria en el ejército y sus convicciones religiosas, la versión digital de Pelkey se dirigió directamente al responsable de su muerte: “A Gabriel Horcasitas, el hombre que me disparó, le digo que es lamentable que nuestros caminos se cruzaran bajo esas circunstancias. En otra vida, tal vez podríamos haber sido amigos. Creo en el perdón y en un Dios misericordioso. Siempre ha sido así para mí, y lo sigue siendo”, expresó el avatar. Además del testimonio generado con inteligencia artificial, el video incorporó material auténtico, incluyendo grabaciones caseras y una fotografía intervenida con un filtro de envejecimiento que proyectaba cómo habría lucido Pelkey en su vejez. “Esto es lo más cercano a cómo me vería si hubiera tenido la oportunidad de envejecer. Recuerden que llegar a viejo es un privilegio que no todos reciben. Abrácenlo, y dejen de preocuparse por las arrugas”, añadió la versión reconstruida de Pelkey. Stacey Wales comentó en declaraciones recogidas por el medio abc15 Arizona que quienes conocieron a Christopher coincidieron en que la representación digital lograba capturar fielmente su espíritu y forma de pensar, especialmente en lo que habría sido su postura frente al juicio por su asesinato. La IA y su posible influencia en las decisiones judiciales Tras la presentación del video, Gabriel Horcasitas fue condenado a 10 años y medio de prisión. El juez Todd Lang, quien presidió el caso, señaló al finalizar la audiencia que, tras ver la grabación, podía imaginar que Pelkey realmente habría sentido y expresado esas palabras al conocer su destino. También destacó el mensaje de fondo del video: la indignación de la familia por la pérdida, pero también su disposición a dejar que Christopher se expresara “desde el corazón, tal como habría hecho en vida”, según informó The Associated Press. Por su parte, Jason Lamm, abogado defensor de Horcasitas, indicó que habían presentado una apelación, argumentando que la sentencia pudo haber sido influenciada de forma indebida por la declaración generada con inteligencia artificial. El uso de esta tecnología para formular declaraciones de impacto representa una herramienta emergente en el ámbito legal, al menos dentro del estado de Arizona. La legislación local permite a las víctimas o sus familiares entregar este tipo de testimonios en distintos formatos digitales, lo que abre la puerta a nuevas posibilidades en las etapas no probatorias de un juicio. A pesar de las oportunidades que esto representa, Ann Timmer, ministra presidenta de la Corte Suprema del estado, advirtió que, aunque la IA puede mejorar la eficiencia del sistema judicial y facilitar la participación de quienes no tienen formación legal, también implica riesgos. “Si se emplea de manera inapropiada, puede entorpecer o incluso alterar el curso de la justicia”, declaró. Anunció además que se ha conformado un comité especializado para analizar los usos de la inteligencia artificial y emitir recomendaciones al respecto. “En última instancia, los usuarios, incluidos los tribunales, son responsables de la veracidad del contenido generado”, puntualizó. Este no es el único antecedente del uso de tecnología para representar a víctimas de homicidio. En 2019, la organización mexicana Propuesta Cívica lanzó la campaña ‘Seguimos Hablando’, cuyo objetivo fue “revivir” de forma virtual a periodistas asesinados en el país. Un año después, el proyecto presentó una recreación digital de Javier Valdez Cárdenas, asesinado el 15 de mayo de 2017 por ejercer un periodismo ético de investigación. El video lo muestra dirigiéndose al entonces presidente de México, Andrés Manuel López Obrador, y a los mandatarios estatales, exigiendo un alto a la violencia contra la prensa, así como justicia para él y para otros colegas asesinados. “Señor presidente Andrés Manuel López Obrador, soy Javier Valdez, periodista y escritor. El 15 de mayo de 2017 fui asesinado por órdenes de alguien que no toleró lo que publiqué. No tengo miedo, señor presidente, porque no pueden matarme dos veces. Por eso, vengo a hablar por los cientos de periodistas asesinados, desaparecidos y desplazados por ejercer un periodismo ético de investigación”, afirma la reconstrucción digital del comunicador. La campaña buscó generar conciencia pública sobre la grave situación que enfrenta la libertad de expresión en México y evidenciar la espiral de violencia que se ha intensificado contra quienes ejercen esta labor. Aunque los ejemplos mencionados reflejan causas legítimas y muestran el potencial de la inteligencia artificial como medio de denuncia y sensibilización social, también suscitan cuestionamientos éticos sobre su uso en el ámbito jurídico. La posibilidad de manipular emociones, influir en las decisiones judiciales o distorsionar hechos obliga a establecer marcos normativos claros que garanticen el uso responsable y transparente de esta tecnología emergente.
Ver noticia original