Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Gustavo Béliz, miembro de órgano influyente del Vaticano, advierte sobre la inteligencia artificial

    Parana » Informe Digital

    Fecha: 05/11/2025 09:24

    Con cada día que pasa, las plataformas de inteligencia artificial (IA) se desarrollan, profundizan e integran a la rutina de maneras casi imperceptibles. Sin embargo, algunos especialistas advierten sobre los riesgos del uso excesivo de la IA, y han aparecido debates en distintos ámbitos que plantean problemas sociales inmediatos como la “desinformación”, la “manipulación” y, a largo plazo, incluso amenazas de “pérdida de control”. En ese sentido, Gustavo Béliz, exministro del Interior y miembro de la Academia de Ciencias Sociales del Vaticano, alertó sobre la “preocupación” que expresan los propios científicos que desarrollan la tecnología. Resaltó el debate ético que impulsa el Vaticano frente a las “líneas rojas” de la IA general y advirtió sobre el peligro de la “agencia autónoma”, cuando las máquinas toman decisiones desalineadas de los humanos. El exfuncionario reclamó un debate ético urgente en el cierre del encuentro anual de Agronegocios “Transformación digital en primera persona”, del Centro de Agronegocios y Alimentos de la Universidad Austral, que se realizó este martes en el Malba. Allí se abordó el uso de estas plataformas y cómo las empresas de tecnología las aplican al agro. Béliz afirmó que, por impulso del Papa Francisco, el Vaticano comenzó a analizar este fenómeno mediante un trabajo que arrancó con la publicación “Algoritmo Holandia” y que convocó a premios Nobel y a científicos de primer nivel para debatir sobre IA y biotecnología. Dijo que la Academia de Ciencias Sociales ha intensificado su labor, reuniendo recientemente a 50 de los “científicos top a nivel mundial” en debates de frontera sobre IA. “En ese seminario analizamos varias cuestiones: la ética no es menor”, afirmó. Béliz señaló que, si bien existen “enormes oportunidades” para el desarrollo humano y la paz, también hay riesgos significativos. “Me tocó firmar hace unas semanas un llamamiento con otros científicos mundiales, sobre las líneas rojas que no puede pasar un sistema de inteligencia artificial general”, afirmó. Bernardo Piazzardi, director ejecutivo de la Maestría de Agronegocios de la Universidad Austral, y Gustavo Béliz, exministro del Interior y miembro de la Pontificia Academia de Ciencias Sociales Universidad Austral Además, citó, entre otros referentes, al economista del Instituto Tecnológico de Massachusetts, David Autor, y destacó que “hay mucho miedo” en torno a la IA. Subrayó que esta preocupación no proviene de “comentaristas de café”, sino de los propios científicos que desarrollaron los modelos de lenguaje. “Nos están diciendo ‘cuidado’, porque si la inteligencia artificial traspasa ciertos límites, puede convertirse en un riesgo existencial para la humanidad”, advirtió y diferenció tres tipos de “agencias” con las que se convive. En primer lugar mencionó la agencia humana, es decir, la toma de decisiones con libre albedrío. En segundo lugar, la agencia híbrida: decisiones mediadas por la tecnología (por ejemplo, los smartphones). Habló también de la agencia autónoma, que sería un riesgo: “Las máquinas tomando decisiones por sí mismas, desalineadas de lo que es el diseño de los que la fabricamos”. Aunque aclaró que aún no se ha llegado a esa “inteligencia general autónoma”, el debate científico sitúa su llegada en un plazo que va “de 7 meses a 2 años”, mientras otros lo ven imposible. Describió el estado actual como una “gran fábrica” holística e indicó que la IA generativa (como ChatGPT) ya está siendo superada por “agentes colaborativos” y que esto presenta oportunidades geopolíticas para la Argentina y la región. Gustavo Béliz, en una charla en el Malba Universidad Austral En la agroindustria planteó la necesidad de potenciar la infraestructura: agregó la urgencia de valorizar minerales críticos, generar data centers sostenibles y mejorar la conectividad (especialmente la brecha rural-urbana) para “achicar costos”. En el terreno de la bioingeniería, aseguró que el debate va más allá de los drones. Mencionó a Jennifer Doudna (creadora de Crispr y miembro de la Academia) y los dilemas éticos sobre los “bebés de diseño”. “También puede mejorar la calidad del cacao, del arroz, del trigo”, contrapuso, al destacar el potencial de la tecnología aplicada con criterios éticos. Respecto de la inversión en seguridad, criticó que solo entre el 3% y el 4% de la inversión mundial en IA se destina a la seguridad de los modelos, a la confiabilidad, a evitar “alucinaciones” y a la calidad de los datos. Dijo también que “están surgiendo muchas nuevas ocupaciones o profesiones”. Paradójicamente, citó a Geoffrey Hinton, uno de los llamados “padres” de la IA, y sostuvo que la profesión del futuro podrían ser los “plomeros”, dado que el código, antes la gran habilidad de los profesionales, hoy lo hacen las máquinas. El riesgo principal, finalizó, es que el ser humano no adopte la tecnología adecuadamente. “Ese es el principal riesgo que enfrenta hoy la humanidad. Convertirnos nosotros en un artefacto, en lugar de la tecnología ser un artefacto para el resto de un mundo muy apropiado”.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por