07/05/2025 22:11
07/05/2025 22:11
07/05/2025 22:11
07/05/2025 22:10
07/05/2025 22:10
07/05/2025 22:10
07/05/2025 22:08
07/05/2025 22:08
07/05/2025 22:08
07/05/2025 22:08
Buenos Aires » Infobae
Fecha: 07/05/2025 06:45
—(Cortesía Ticmas) En una tarde de charlas sobre la inteligencia artificial en el auditorio de Ticmas, dentro de la 49° Feria Internacional del Libro de Buenos Aires, y frente a una audiencia curiosa y dispuesta al debate, Patricio Zunini lanzó la consigna sin rodeos: “¿Harari tiene razón?”. No hizo falta más. Esa única pregunta abrió una conversación profunda y sobre la inteligencia artificial, su rol en la sociedad actual y los límites —o excesos— del discurso apocalíptico. Lalo Zanoni, periodista y autor de Las máquinas no pueden soñar, lleva años siguiendo de cerca el vínculo entre tecnología y sociedad. Consuelo López, ingeniera en sistemas y escritora, viene desarmando mitos sobre IA desde una perspectiva técnica y crítica; su libro Ok Pandora es una referencia clave. Y Santiago Castillo, consultor político de 81Dmentes con una formación en ciencia política, ofreció una mirada estratégica desde el cruce entre algoritmos, poder y democracia. A diferencia de otras charlas de las jornadas educativas de Ticmas, aquí se presentó la fricción y contrapuntos como parte de una conversación viva. Cada panelista habló desde su experiencia —periodística, técnica, política— para cuestionar y poner en contexto las alarmas que Yuval Noah Harari encendió en su libro Nexus, publicado en 2024. El historiador israelí advierte sobre la posibilidad de un futuro dominado por sistemas de IA sin control ético, capaces de poner en riesgo la democracia, la privacidad y hasta la libertad individual. Pero, ¿qué tan sólidas son esas advertencias? ¿Desde dónde habla Harari? —(Cortesía Ticmas) “Harari dice cualquier cosa sobre inteligencia artificial”, disparó Zanoni sin vueltas, marcando un punto de inflexión. Para el periodista, Nexus se apoya más en intuiciones filosóficas que en datos técnicos. “Habla como si viniera del futuro, pero no explica desde dónde lo hace. Ni siquiera aclara si habla de ChatGPT, de autos autónomos o de algoritmos de recomendación”, dijo. Con tono crítico, apuntó que el miedo es un recurso rentable. “Hay negocio ahí. Libros, charlas, gurús. Se vende el miedo”. Consuelo López no negó la relevancia de la advertencia, pero optó por desmontarla desde la base: “No es ni tan inteligente ni tan artificial”, dijo sobre la IA, y explicó por qué. Los sistemas predictivos se alimentan de datos generados por humanos, programados por humanos, con sesgos humanos. “La industria tecnológica está dominada por hombres blancos del norte global. Si esos son los que entrenan los modelos, es lógico que haya sesgos”, explicó. Para López, la ilusión de neutralidad en los sistemas tecnológicos es uno de los mitos más peligrosos. Santiago Castillo sumó una capa histórica al análisis. Como ajedrecista, recordó el impacto que tuvo la victoria de la computadora Deep Blue sobre Garry Kasparov en los años 90. “Se dijo que era el fin del ajedrez. Hoy se juega mejor que nunca”, aseguró. También relató cómo los softwares que rastrean datos cambiaron el póker profesional, para bien. Para él, la clave de Nexus no está en el aspecto técnico sino en la advertencia política: “Harari se pregunta qué pasaría si un régimen autoritario tuviera acceso a una supercomputadora sin límites éticos. Esa es una preocupación legítima”. Mitos de la neutralidad y regulaciones que no llegan —(Cortesía Ticmas) La conversación viró luego hacia otro terreno sensible: la modernización del Estado a través de IA, una idea lanzada por el presidente argentino pero extrapolable a cualquier país. “Hay una percepción errónea de que si lo dice la computadora, entonces es objetivo”, señaló López. “Pero detrás de esa decisión hay datos, estructuras, modelos entrenados por alguien. No es magia, hay intereses”. Castillo retomó la preocupación de Harari pero la redirigió hacia el negocio digital. Citó el caso de Myanmar y el uso de algoritmos para promover fake news en elecciones. “El algoritmo no actúa por ideología, actúa para maximizar el tiempo que pasamos en pantalla. Más atención, más dinero. Es una lógica puramente comercial”, explicó. Por eso, añadió, la regulación es clave, pero también difícil: “Los Estados siempre corren detrás de la realidad. Y sin conocimiento técnico, regulan mal”. Zanoni, por su parte, se mostró escéptico ante la sobrevaloración del fenómeno fake news: “¿Alguien fue realmente influenciado por una fake news en los últimos años? Se habla más del tema que de casos concretos”, dijo. Aunque reconoció los riesgos, pidió enfocar la discusión donde realmente hay desarrollo: “La inteligencia artificial aplicada a la salud está avanzando a pasos agigantados. Pero como no somos médicos, no lo vemos”. En la última ronda, la moderación de Zunini invitó a pensar hacia un futuro en el corto plazo. López pidió mantener la mirada crítica, Castillo insistió en combinar educación y regulación, y Zanoni subrayó que los verdaderos desafíos no son tecnológicos, sino sociales. “No perdamos de vista quién toma las decisiones”, concluyó López.
Ver noticia original