Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • “La IA no va a quitarte el trabajo; pero puede sustituirte si no la sabes utilizar”

    » Diario Cordoba

    Fecha: 28/10/2025 13:12

    Hay personas con un carisma que trasciende la conversación, y Cristina Aranda es una de ellas. Cofundadora de Mujeres Tech y consultora de IA, es doctora en Lingüística Teórica y Aplicada, demostrando que la humanística y la tecnología no sólo pueden, sino que deben ir de la mano. Con una pasión contagiosa por las palabras y una claridad de ideas deslumbrante, es una de las voces más influyentes en el impulso de una tecnología con propósito y libre de sesgos de género. Hablamos con ella de las ventajas, los riesgos y la necesidad ética de la inteligencia artificial, pero también de la AI for Good para la salud, la educación, el trabajo y el impacto social. En su libro Vidas Futuras reflexiona sobre cómo la IA puede ser una poderosa aliada si aprendemos a usarla. Sin miedo, pero con responsabilidad. ¿Qué te motivó a escribir Vidas futuras, y en qué momento sentiste que era necesario abordar públicamente estos temas de IA en forma divulgativa? Si te soy sincera, la editorial, Aguilar (Penguin Random House), vino a buscarme. Les interesaba mi discurso sobre la IA y cómo la explicaba. Como ya tenía en mente hacer algo divulgativo, pero soy autónoma, y el día a día nos come, cuando ya hay un planteamiento de una gran editorial, ya me senté para redactarlo y tenerlo listo con las pautas bien establecidas. Supongo que te ayudó venir de escribir tu tesis doctoral de lingüística de 500 páginas con la calificación summa cum laude. Exacto. Quien haya hecho un doctorado sabe que es un trabajo muy angustioso y solitario y requiere un gran compromiso, con unos hitos y unas fases de entrega matemáticos. Aunque hice la tesis en creatividad léxica, lingüística y psicolingüística, en este caso de creación e interpretación de nombres de marcas de productos alimentarios, también abordé herramientas de generativa sin yo saberlo, y es que nunca sabes hacia dónde evolucionará el progreso… Es genial, y tranquilizador, cuando dices en el libro que la IA va a necesitar más humanistas que nunca. Porque llevamos dos décadas en que la mayoría de las carreras elegidas por los jóvenes son técnicas. Pues fíjate, eso de la ingeniera y la generación de códigos ya lo están haciendo las máquinas. Después de este boom de personas que picaban códigos, y que ya lo hace una máquina, ¿qué van a aportar ahora? “Las personas con habilidades sociales y emocionales van a estar muy bien valoradas y a tener más opciones laborales” Eres filóloga, ¿cómo ha influido tu formación en humanidades en tu enfoque al estudiar y explicar la inteligencia artificial? Porque he padecido mucho. Ha sido un proceso de autoconocimiento y autodidactismo, lo que me ha permitido tener una perspectiva más humilde y me ha servido para entender que la IA adolecía de esa perspectiva humanista. En la conferencia de Dortmund, donde estaban todos los señores ingenieros y donde no había ninguna mujer, dieron con esa maravillosa y espeluznante definición: que la IA es igual que la inteligencia natural. ¿Me estás comparando la inteligencia humana con una máquina, con una lavadora, con un Seat Panda, cuando las personas somos multidimensionales, altamente complejas, y podemos cambiar de opinión en una hora? Eso me hizo luchar aún más, y también demostrar que la perspectiva humanista es absolutamente necesaria, no sólo ahora sino en el futuro. ¿Cómo está moldeando la IA nuestra vida cotidiana? ¿Qué crees que la sociedad está pasando por alto? Siempre ha existido la propaganda, pero es preocupante esta celeridad en la propagación de bulos y rumores, esta polarización del odio… Y es que no hay mayor impacto que la manipulación de la opinión pública, con esos fakes constantes. Lo peor es que no tenemos espíritu crítico y muchos influencers se han convertido en líderes de opinión, en los nuevos oráculos del conocimiento, cuando hay veces que su rigor científico da vergüenza ajena, además de la osadía de su ignorancia. Me preocupa la salud mental de los adolescentes, que quieren vivir esas vidas extraordinarias y ser cryptobros. Es increíble el impacto que ha tenido la manipulación en las democracias, como ocurrió con el Brexit. Te podría seguir enumerando ejemplos en el control de las personas, en la escasez de privacidad. ¿Algún ejemplo esperanzador? ¡Claro! El impacto positivo de la AI for Good, su capacidad para ayudarnos a prevenir cánceres con muchos años de antelación, a detectar el suicidio, o a tener experiencias de consumo super personalizadas. ¿Cómo nos podemos blindar los ciudadanos de a pie de esa parte nociva? Hay unos teléfonos, los no conectados o teléfonos tontos, los dumb phones, que no están conectados y con los que sólo puedes hacer llamadas. En el libro lo menciono, hay una marca suiza que los fabrica, y ya se ve el incremento de esta tendencia, y además, contra lo que se podría pensar, sobre todo de personas jóvenes. ¿Cuáles son los riesgos éticos más urgentes que plantea la IA hoy en día? El de privacidad y el de transparencia. Realmente no sabemos muy bien qué están haciendo con nuestros datos. Eres lo que buscas, lo que le estás pidiendo a la IA que haga. Si le preguntas a ChatGPT cómo pedir un aumento de sueldo, ya sabe que no estás contenta con tu salario. Es una paradoja entonces, porque la IA nos sirve, pero nos estamos metiendo en la boda del lobo. La paradoja la tenemos que manejar desde el punto de vista de la responsabilidad. Puedes crear un súper coche para ir a 240 km. por hora, pero ha de haber un código de circulación para que las personas sean cívicas, porque no todo el mundo es igual, ni desde el punto de vista penal ni de cualquier tipo. Y el tecnofeudalismo en el que vivimos maneja muchas narrativas para que la opinión pública esté confundida y no les demande, como el clásico “es que si regulamos, detenemos la innovación”. No, no, perdona, la regulación sirve para proteger a la ciudadanía. ¿Cuáles son entonces los retos éticos más urgentes? Formular códigos deontológicos que se cumplan. Que todo el mundo que trabaje en el ecosistema de la IA tenga un código deontológico. Como tienen los médicos o abogados, de manera que, si alguien ve algo raro, se auxilie. Aquí da igual, alguien genera una plataforma de deepfakes y unos chavales la utilizan para denigrar y humillar a sus compis desde un punto de vista pornográfico… ¡a la plataforma no le pasa nada! “Los riesgos éticos más urgentes son el de privacidad y el de transparencia” ¿Cómo perpetúan —o incluso agravan— los algoritmos las desigualdades de género y sociales? ¿Podrías compartir algunos ejemplos que le parezcan especialmente relevantes? Hay muchos ejemplos en el documental ‘Coded bias’. Hay un dicho en el sector: garbage in, garbage out, que significa que si metes basura, obtienes basura. Si haces una paella con productos malos y caducados, te va a salir un desastre de plato. Es lo que pasa con la información que le metes a una máquina. Ellas no tienen ética, sólo computan, así que también imitan los sesgos. Si tienes en cuenta los datos y sólo metes lo que te interesa o crees, te dará más de lo mismo. Si no tienes regulación ni ética deontológica, y a eso le unes un afán pornográfico de ganar dinero, ya la tienes liada. Los algoritmos son el puro reflejo de una automatización de la sociedad en la que hay machismo y homofobia, por ejemplo. Por eso es necesario que se establezcan unos protocolos éticos dentro del desarrollo de estos sesgos. Que no se cuelen las cosas, que uno haga su propio autotesteo revisando si estás haciendo sesgos o si estás siendo injusta. Uno de los miedos más comunes es aquello de “la IA nos va a quitar el trabajo”. ¿Cómo están desarrollando la mayoría de las empresas esa reestructuración laboral, esa transición a la IA? Hay empresas y empresas, porque en España la mayoría de tejido empresarial son pymes de nueve personas, y cada una la aborda como puede. Hay algunas que ya están empezando a dar formación en las diferentes áreas y otras están aún viendo sus funcionalidades y herramientas y decidiendo si la aplican o no. En las grandes corporaciones, como el BBVA, Elena Alfaro, responsable de la implantación de la IA, ya vemos managers globales que definen la estrategia de cultura y adquisición de habilidades y competencias, de la formación en definitva, para manejar estas IA. El estudio “State of AI in Business” del MIT (Massachusetts Institute of Technology) señala que un 90% de los empleadoslo utiliza por su cuenta lo que se llama shadow AI, .es decir, su utilización no autorizada. Por eso deben tener una estrategia de cultura, de definir roles claros entre sus empleados, de establecer responsabilidades específicas sobre la IA, y de capacitar a las personas que van a manejar estas herramientas para cumplir con la regulación. ¿Qué papel crees juegan las tecnológicas en la corrección de los sesgos algorítmicos y en la construcción de sistemas de IA más responsables? Todo. Meta (Zuckerberg) ha quitado toda la política de supervisión de sesgos, así que vamos a seguir replicando todas las brechas repartidas por internet. Tienen un papel fundamental, por eso es tan importante que en Europa pongamos regulación. Y según tu experiencia, ¿qué cambios estructurales son necesarios para que haya más mujeres diseñando, liderando y supervisando tecnologías de IA? Como decía Mary Beard en su maravilloso libro “Mujeres y poder”, la sociedad es netamente masculina. Así ha sido siempre en la tecnología, por ejemplo, en el desarrollo del software. Al principio, las tareas más tediosas eran elaboradas por mujeres. Pero cuando ese sector empezó a estar muy bien remunerado, los hombres lo empezaron a liderar ocupando puestos de poder. Hay que desarrollar y fomentar mayor diversidad en los equipos, empezar en las escuelas mostrando que la IA puede cambiar el mundo. También debería haber exenciones fiscales para que estas empresas contraten a más mujeres. En las grandes tecnológicas de China, EEUU y Rusia hay pocas mujeres; a las pocas que había las echaron o se marcharon. ¿Cómo imaginas la vida cotidiana dentro de veinte años en relación con la IA? ¿Qué cambios serán más visibles para la gente común? En el terreno de la salud vamos a ver una medicina más predictiva y preventiva, porque tendremos un microchip en nuestro organismo que nos irá avisando para llevar un control de la salud. Podremos desarrollar o aportar soluciones en remoto. Tendremos una educación más individualizada para que podamos adaptar los contenidos a la evolución o al desarrollo cognitivo de cada estudiante. La IA acompañará a personas con soledad no deseada o que quieren estar en soledad, pero se quieran enamorar, como ocurría en la película ‘Her’. O como ocurría en la serie ‘Upload’, que cuando los personajes morían, se podía replicar su conciencia en un espacio similar en internet. En el terreno de la movilidad, podremos ir de Huesca a Málaga en un hyperloop. En definitiva, tendremos lo actual, pero elevado a la enésima potencia. También habrá una tendencia a la desconexión, habrá un apagón, pero elegido. Cuando vivimos el de abril, la gente se echó a las calles a relacionarse unos con otros. Habrá una tendencia a desaparecer de las redes sociales: eso será lo más cool. Finalmente, ¿qué reflexión te gustaría que los lectores se llevaran al terminar Vidas futuras? Que no hay que temer a la IA. Es una herramienta como lo es la calculadora, una gran copilota que nos va a permitir hacer cosas increíbles, como manejar la información de una manera productiva y trabajar de manera más eficiente. Que no les va a quitar el trabajo, se lo va a quitar a quien no sepa manejarla. Y que nunca la IA va a sentir ni emocionarse, es una máquina, como el coche. Nosotros tenemos y seguiremos teniendo la inteligencia emocional y social, y ese contacto humano nunca va a desaparecer. Las personas con habilidades sociales y emocionales van a estar muy bien valoradas y a tener más opciones laborales. Hay trabajos que nunca van a ser suplidos por las máquinas, como las ventas, el cuidado, los trabajos manuales, y el arte, que tanto mueve y conmueve. Estas máquinas tienen memoria, pero no recuerdan (recordar, etimológicamente, es ‘volver a pasar por el corazón’). Recordando a la gran Gloria Fuertes, invito a que la gente disfrute de su inteligencia a palo seco.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por