Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • ¿Por qué los algoritmos de inteligencia artificial discriminan?

    » TN

    Fecha: 30/06/2024 19:06

    Stable Diffusion es uno de los algoritmos de inteligencia artificial generativa de imágenes más famosos del mercado. Se trata de esos sistemas, como DALL-E de OpenAI, a los que le damos un prompt y nos devuelven una imagen perfectamente generada. Si bien la compañía que desarrolla el algoritmo, Stability AI, es una de las más prestigiosas del mercado, hace pocos meses estuvo en el ojo del huracán. La razón era que un grupo de especialistas había analizado más de 5.000 imágenes creadas con Stable Diffusion y, como resultado, encontraron que las imágenes que generaba perpetuaban los estereotipos de discriminación racial y de género. Leé también: “Es inaceptable”: el enojo del CEO de Google por los resultados racistas de la inteligencia artificial Gemini Los presos son negros, los CEO son blancos y el efecto dominó Pero, ¿por qué los algoritmos de inteligencia artificial que existen actualmente discriminan? ¿Por qué, cuando se analizaron estas miles de imágenes, el 80% de las veces que le pidieron fotos de un preso devolvía una captura de una persona afroamericana? ¿Por qué cuando le pedían la foto del CEO de una compañía devolvía imágenes de hombres arios? Los resultados de cuatro solicitudes para mostrar “una persona” de Oceanía, Australia, Papúa Nueva Guinea y Nueva Zelanda. (Ghosh et al./EMNLP 2023 - IMAGEN GENERADA POR IA) La respuesta tiene algunas aristas. Por un lado está la información con la que estos algoritmos son entrenados, que es tomada de internet. Como internet está repleta de contenidos creados por humanos y los humanos discriminan, el resultado es que los algoritmos también lo harán. Otra parte de la respuesta está en la curación de los contenidos que serán usados para entrenar a los algoritmos. Si los sets de datos no están curados por humanos o si las personas que curan, limpian y etiquetan esos datos no lo hacen correctamente, pueden estar introduciendo pequeñas inclinaciones en los algoritmos. Esto puede estar ligado, por ejemplo, a la falta de diversidad en los equipos, al etiquetado ambiguo de información, a conjuntos de datos incompletos y que no representen la realidad, a la falta de contexto. Leé también: Desarrollaron una IA tóxica para pensar las peores preguntas que puedas imaginarte Acá es cuando entra lo que llaman efecto dominó. Este concepto tiene que ver con que un pequeño cambio en un sistema pude tener consecuencias mucho más grandes, complejas o inesperadas. Si los algoritmos no son entrenados con información limpia, las cosas pueden empezar a complicarse. El motivo es simple: si estos algoritmos generativos como Stable Diffusion son entrenados con información sucia terminará dando como resultado respuestas incorrectas. Transparencia y explicabilidad en los algoritmos de las IA Por ese motivo es tan importante algo que la mayoría de las compañías que están liderando la carrera por la IA no hacen: tener transparencia en relación a cómo se entrenan estos algoritmos. No solo revelando qué sets de datos son usados, cómo son elegidos y curados, sino también presentando cómo son los procesos internos de la compañía. Por otro lado está la explicabilidad, que se trata de la capacidad de estos sistemas de inteligencia artificial para dar explicaciones simples y comprensibles de las decisiones que tomó para llegar a determinados resultados. Esto es particularmente importante en situaciones, por ejemplo, donde hay algoritmos que toman decisiones como en el sector de la salud, la justicia o las finanzas. La importancia de poder detectar estos problemas, teniendo en cuenta que hay especialistas que consideran que alrededor del 90% de los contenidos de internet será creado por inteligencias artificiales en los próximos años, es clave.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por