Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • ¿Una inteligencia artificial racista?

    » Rafaela Noticias

    Fecha: 22/11/2024 21:06

    ¿Una inteligencia artificial racista? Paradójicamente, la Inteligencia Artificial (IA), una de las herramientas tecnológicas más avanzadas de las que disponen las sociedades contemporáneas, puede conspirar contra la construcción de un futuro mejor. Esto ocurre porque las IA son entrenadas con datos generados por humanos. Estos datos, inevitablemente, están cargados de sesgos, es decir, de una mirada particular sobre el mundo que puede contener prejuicios o elementos racistas o misóginos. Por ejemplo, las IA que se utilizan en la Justicia estadounidense para calcular el riesgo de reincidencia de un convicto antes de darle la libertad condicional están cargadas de información tangencial sobre características étnicas. La IA aprende a detectarla y reproducir esos prejuicios como un indicador relevante, que produce encierros que a su vez retroalimentan la IA en un loop que crece cada vez más. Lo mismo puede ocurrir con las IA utilizadas para hacer una preselección de potenciales empleados: si la IA fue entrenada con datos que indican que frente al mismo nivel educativo y capacidad se suele contratar a un varón, tenderá a repetir este mecanismo discriminatorio. Las IA no buscan explicaciones porque, pese a su nombre, no son «inteligentes»: carecen de criterio y solo encuentran patrones estadísticos que repiten acríticamente. En cambio, si hubiera un humano consciente tomando esas decisiones, podría preguntarse qué es lo que está ocurriendo, cuáles son las causas y, eventualmente, pensar alternativas o soluciones. Por otro lado, en la medida en que se deleguen más tareas en estas herramientas, una porción cada vez mayor de los datos usados para entrenarlas provendrán, a su vez, de otras IA, por lo que los sesgos comenzarán a profundizarse generando lo que algunos especialistas llaman «enfermedad de los Habsburgo», en referencia a las severas patologías que produjeron las prácticas endogámicas en esta casa real europea. Debido a estos límites, los especialistas coinciden en que siempre debe haber una supervisión humana sobre los resultados de las IA para evaluar posibles sesgos y evitar que ocurran «alucinaciones», es decir, respuestas que aparecen aleatoriamente, pero no tienen coherencia o ignoran elementos básicos de la realidad. Otro desafío, en ese sentido, es que, si eventualmente las IA remplazan masivamente trabajadores humanos, cada vez habrá menos gente con conocimientos específicos y, por lo tanto, menos personas en condiciones de evaluar si los resultados provistos por la IA son equivocados o mejorables. Por ejemplo, si un estudio de arquitectos utiliza una IA especializada para que haga los primeros borradores de un plano, supervisada solo por uno o dos arquitectos experimentados, podrá ahorrar dinero, pero remplazará a jóvenes profesionales que no podrán adquirir la experiencia necesaria para desarrollarse o evaluar los productos de esa misma IA. De esa manera, una decisión económicamente razonable en el corto plazo puede generar un problema a escala en el mediano o largo plazo. Recordemos que la IA es estadística, es decir, un promedio de lo que se ha hecho en el pasado y que se repite hacia adelante. Esa herramienta puede ser poderosa, pero también limitada. Conocer esas limitaciones resulta vital para su uso productivo. Esteban Magnani

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por