Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • IA responsable en parlamentos: ¿Diella en Entre Ríos o IA Ética?

    Concordia » Libre Entre Rios

    Fecha: 19/09/2025 21:40

    Compartilo con En el panorama político global, la IA responsable en parlamentos se ha convertido en una frase clave que encapsula un debate crucial sobre el futuro de la gobernanza. La irrupción de “Diella”, una ministra generada por inteligencia artificial en Albania, encendió las alarmas y desató un torbellino de interrogantes. Mientras tanto, en la Legislatura entrerriana, se abrieron espacios de capacitación y reflexión sobre el uso de estas nuevas tecnologías. Este contraste invita a una profunda consideración: ¿Entre Ríos buscará emular un modelo como Diella, o se inclinará por un camino de desarrollo de IA más centrado en la responsabilidad y la supervisión humana? La IA responsable en parlamentos: El Caso Diella y la alerta global La presentación de Diella, la ministra albanesa de Obras Públicas creada con IA, tenía un objetivo ambicioso: garantizar que las licitaciones públicas estuvieran “100% libres de corrupción” y fueran “perfectamente transparentes”. El primer ministro socialista Edi Rama la presentó como una herramienta incorruptible, un golpe de efecto para un país que busca ingresar a la Unión Europea y combatir una corrupción endémica. Sin embargo, su nombramiento y su posterior “defensa” en el Parlamento no tardaron en generar críticas y controversias. Los dilemas de la IA en parlamentos, desde ‘Diella’ en Albania hasta la capacitación en Entre Ríos. ¿Es posible una IA transparente y justa? Expertos y la oposición albanesa señalaron la “opacidad disfrazada” de este modelo. Cuestionaron la falta de información pública sobre los datos con los que se capacitó a Diella, los criterios de decisión que sigue y los mecanismos de control externo que la supervisan. La preocupación radica en que toda inteligencia artificial es construida, entrenada y calibrada por humanos, arrastrando consigo sus valores, prioridades y visiones del mundo. La creencia de que los algoritmos son imparciales es un error, ya que pueden reflejar y amplificar los sesgos de quienes los crean. La objetividad no se garantiza con máquinas, sino con el pluralismo, la auditoría y un control ciudadano efectivo, recordaron los especialistas. Además, la IA carece de la capacidad de entender el contexto humano, lo que puede llevar a errores graves y decisiones desprovistas de la dimensión humana. Entre Ríos: capacitación y el camino hacia la IA responsable en parlamentos En contraste con el audaz experimento albanés, la Legislatura entrerriana adoptó un enfoque proactivo y cauteloso. Esta semana, el pasado 16 de septiembre, la Cámara de Diputados de Entre Ríos, en colaboración con la Universidad Austral y el apoyo de la Westminster Foundation for Democracy (WFD) y la Fundación Hanns Seidel Argentina, realizó una instancia formativa a través del lanzamiento de la guía “Directrices para el uso de la Inteligencia Artificial en los Parlamentos”. Esta capacitación, dirigida a legisladores, asesores y personal administrativo, buscó fomentar las “buenas prácticas, desafíos y oportunidades” de la IA. El diputado Bruno Sarubi, autor de un proyecto sobre la enseñanza de las nuevas tecnologías en las escuelas, destacó la necesidad de “formarse para usarla en los procesos legislativos” pero con un énfasis claro en el “uso responsable”. La vicegobernadora y presidente del Senado de Entre Ríos, Alicia Aluani enfatizó que, si bien la IA puede hacer un Estado “más ágil y dinámico”, es crucial no perder de vista “el lugar que como personas ocupamos y las decisiones que desde ese lugar humano muchas veces debemos tomar”. Este evento subraya la importancia de la educación y el intercambio de conocimientos para una integración informada y ética de la IA en el ámbito parlamentario. Transparencia, sesgos y la lucha contra la corrupción: Más allá de la máquina Uno de los principales interrogantes que plantea la IA en la gestión pública es si puede, por sí misma, combatir la corrupción y la baja confianza institucional. La respuesta es que si bien la IA puede identificar patrones y anomalías en grandes volúmenes de datos, lo que podría detectar irregularidades en licitaciones, no puede erradicar la corrupción por sí sola. De hecho, sin una supervisión humana robusta y mecanismos de transparencia, la IA podría convertirse en una “fachada tecnocrática que simula control, mientras oculta nuevas formas de opacidad”. Las directrices del WFD y la IPU enfatizan la necesidad de abordar proactivamente los posibles sesgos en los datos y algoritmos iniciales. Para garantizar la justicia, la equidad y la no discriminación, es fundamental examinar y auditar minuciosamente las fuentes de datos, emplear métodos transparentes de recopilación y utilizar datos diversos y representativos. La preocupación de que las propias normas, creadas con sesgos políticos, puedan ser la base del entrenamiento de la IA, hace que el pluralismo, la auditoría y el control ciudadano sean más relevantes que nunca. Las directrices también sugieren la realización de auditorías del código, los modelos y los criterios de decisión. Además, es crucial que los datos utilizados para el entrenamiento sean públicos, documentados y accesibles para los organismos de control, y que exista una supervisión humana constante de las decisiones de la IA. Esto es vital para evitar el riesgo de trasladar la corrupción al algoritmo, en lugar de resolver el problema de fondo. La capacitación sobre IA responsable en parlamentos se realizó en modalidad híbrida y convocó a expertos argentinos y extranjeros. Autonomía humana y la pregunta de la responsabilidad legal La autonomía humana y la toma de decisiones informadas son principios democráticos fundamentales que la IA debe complementar, no reemplazar. Un riesgo significativo es la dependencia excesiva de la IA, que podría generar una falsa sensación de seguridad y menoscabar el juicio humano. Por ello, se recomienda un “saludable escepticismo” y priorizar la participación humana en la toma de decisiones. La cuestión de la responsabilidad legal de las decisiones tomadas por la IA es otro dilema central. La IA no posee personalidad jurídica, lo que deja abierta la pregunta de quién asume la responsabilidad si una decisión de la IA lesiona los derechos de los ciudadanos o arroja resultados injustos. Las directrices de la WFD proponen que las decisiones de seguridad, por ejemplo, deben ser adoptadas por humanos, asegurando así la responsabilidad y la capacidad de responder a amenazas complejas. En última instancia, la IA en los parlamentos debe orientarse al desarrollo de las capacidades humanas, a potenciar el trabajo legislativo y a fomentar la democracia, más allá de una mera búsqueda de productividad. Hacia un futuro parlamentario con IA ética e inclusiva La integración de la inteligencia artificial en los parlamentos es una realidad innegable que presenta tanto enormes oportunidades para mejorar la eficiencia y la transparencia, como desafíos considerables en cuanto a la ética, la privacidad, la seguridad y la gobernanza. Alicia Aluani y Gustavo Hein durante el encuentro de capacitación sobre IA responsable en parlamentos. Las “Directrices para el uso de la IA en los Parlamentos” de la WFD y la IPU proporcionan un marco integral para una adopción responsable. Hacen hincapié en la rendición de cuentas, la transparencia, el respeto por la dignidad humana, la justicia, la equidad, la protección de la privacidad, la mitigación de riesgos y la importancia de la supervisión humana. La colaboración interparlamentaria y con expertos externos es crucial para compartir experiencias y mejores prácticas, como se ha visto en la iniciativa de Entre Ríos. En este camino, los parlamentos tienen la doble responsabilidad de ser usuarios y reguladores de la IA, liderando con el ejemplo en la adopción ética de estas tecnologías. La clave reside en un enfoque medido y basado en riesgos, comenzando con proyectos piloto, asegurando una supervisión humana robusta y fomentando la alfabetización en IA y datos en toda la organización. Solo así se podrá garantizar que la IA fortalezca las instituciones democráticas y los derechos ciudadanos, en lugar de socavarlos.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por