Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • “¿Confiás en mí?”: qué decisiones no debería tomar sola la inteligencia artificial, según Martín Palazzo, de UdeSA

    Buenos Aires » Infobae

    Fecha: 19/05/2025 04:51

    Martín Palazzo, profesor de UdeSA Seis años atrás, Martín Palazzo fue seleccionado para participar de la publicación Argentina 2030 y ser parte del Plan Nacional de Inteligencia Artificial. Hoy, en 2025, el uso de la IA parece algo de todos los días, pero especialistas de diversas disciplinas estudian su uso y comportamiento desde hace décadas para entender los algoritmos que nos rodean. Martín Palazzo es investigador y docente de la Universidad de San Andrés y la Universidad Tecnológica Nacional donde se especializa en inteligencia artificial, ciencia de datos y dirige proyectos de procesamiento estadístico de biología molecular. Martín Palazzo, en el auditorio de Ticmas ¿De qué estamos hablando? En diálogo con Patricio Zunini, Palazzo intentó dar las claves para entender de qué hablamos cuando hablamos de inteligencia artificial. “La IA generativa es una tecnología que observó muchos datos de un contexto y, a partir de los patrones que toma de esos datos observados, construye una respuesta”, explicó Palazzo y desarrolló: “¿Qué quiere decir esto? Que la IA generativa es como el té con leche. No es el té solo ni la leche sola. Te queda como un promedio. Entonces yo lo veo como una buena tecnología para aproximarse a donde querés ir, pero no para definir, no para tomar la última decisión”. Y agregó: “Los modelos de inteligencia artificial siempre van a manejar un concepto de qué es el error. Todos los modelos se equivocan. No existe el modelo perfecto si hay un modelo perfecto o estamos en una etapa tecnológica superior o no es un problema que se tenga que resolver con inteligencia artificial. Entonces, todos los modelos tienen un nivel de error que nosotros, los que hacemos ingeniería lo podemos evaluar durante el entrenamiento que le hacemos preguntas intermedias”. Y destacó: “La alucinación es algo que no necesariamente se detecta como un error, porque a veces es una respuesta intermedia que vale, pero puede tener un error aguas abajo que no es detectado durante el entrenamiento. Por ejemplo, si vos le pedís que te escriba un reporte o le pedís que te escriba un ensayo y que te ponga la bibliografía. Hay mucha evidencia de textos de inteligencia artificial que la bibliografía que cita no existe”. “Por eso digo que es esto del té con leche. Y por eso también insisto en que es muy buena para aproximarse a lo que yo quiero hacer. Pero después un humano tiene que revisar lo que efectivamente te dice”, resaltó. Martín Palazzo, profesor de UdeSA ¿La amabilidad nos va a salvar? Siempre circula el chiste- y no tan chiste- de que hay que hablarle bien a la IA para que en el caso de una invasión al estilo Terminator uno no sea visto como un ludita. “La inteligencia artificial no se da cuenta de que si vos sos mala onda tiene que ser mala onda. Es que la inteligencia artificial está entrenada. O sea, observó muchísimos textos de respuestas mala onda cuando la solicitud era mala onda”, resaltó Palazzo. Y señaló: “En general aprende a correlacionar que cada vez que vos le haces un pedido formal o educado, la respuesta tiene que ser educada, no porque se da cuenta, sino porque observa un patrón. No es una cuestión de que tiene conciencia, sino que sabe muy bien en función de todos los textos que vio, de que tiene que ser así”. Martín Palazzo es doctor en Ingeniería y profesor de la carrera de Ingeniería en Inteligencia Artificial en Udesa IA y biotecnología Palazzo trabaja en una start up llamada Stamm Biotech donde “exponemos a modelos de inteligencia artificial datos biológicos. Concretamente de producción de células de bioprocesos, de biomanufactura y también genera respuestas biológicas que son biomoleculares. O sea, en vez de poner una palabra, la respuesta es una proteína o una secuencia o un montón de cosas a nivel celular de lo que está dentro de una célula a nivel biomolecular”. A diferencia de los textos, las alucinaciones en estos casos son más difíciles de evaluar: “Entonces tenemos que construir otras máquinas que entiendan el lenguaje de la biología y que puedan detectar inconsistencias en esas respuestas para que después un humano (un biólogo molecular o un bioinformático, un biotecnólogo o un ingeniero especializado en biología) pueda agarrar ese caso particular y decir, efectivamente se equivocó. El desafío adicional es que no podés detectar los errores con tus sentidos. Necesitás otra máquina que te ayude a explorar esos errores”. Analizar imágenes con IA “Hay una tecnología específica en inteligencia artificial que se llama red neuronal convolucional. Cuando vos hablás de texto, ChatGPT ordena la información en una secuencia de palabras que una va atrás de la otra. Si vos tenés las mismas palabras pero desordenadas, no tiene sentido”, señaló Palazzo y explicó que en el caso de las imágenes “pasa algo parecido, pero en el espacio cada píxel tiene información, pero también pesa. Vos podés tener una foto con los pixeles todos desordenados y deja de hacer esa foto. Entonces importa no solo el valor del píxel de cada cuadradito y si es rojo, azul o verde y la intensidad, sino que también importa el orden espacial”. Y argumentó: “Entonces se dice que los datos de lenguaje natural, por ejemplo, se indexan en secuencias y los datos de imágenes se indexan en espacio. Entonces hay información embebida en cada píxel y hay información embebida en cómo esos píxeles se ordenan en el espacio”. Martín Palazzo en diálogo con Patricio Zunini Sesgos “Se le dice grandes modelos de lenguaje a los modelos que hoy interactuamos, como ChatGPT o Gemini o Claude; los que usamos en internet para escribir y tener respuestas. El gran tema con esto es que están alineados. El alineamiento es básicamente ciertos sesgos que el desarrollador del modelo decide imponerle”, señaló Palazzo. Y explicó: “Por ejemplo, si vos a un modelo de lenguaje le querés preguntar cómo armar una máquina de destrucción masiva, no te va a dar esa respuesta porque hay un alineamiento, hay un sesgo que dice no hables sobre este tipo de temas. También hay un sesgo que es ‘sé muy educado’ o ‘sé muy amable’ con el usuario porque posiblemente (esto es una intuición mía) estas empresas quieren que vos estés la mayor cantidad de tiempo interactuando con su servicio”. Big Data “La IA surge en gran parte apalancada por el Big Data o los grandes volúmenes de datos disponibles. Hoy sacar fotos es muy barato, hace 50 años era muy caro. Entonces, la disponibilidad de datos ayuda a que exista la inteligencia artificial, además del desarrollo de algoritmos, etcétera”, destacó Palazzo. Y retomó una palabra que mencionó Zunini y es la importancia de la probabilidad. “La probabilidad habla de lo que es la incertidumbre. Los modelos siempre te van a dar una respuesta. El tema es cuán seguros están de la respuesta que te están dando”, señaló. ¿Qué le preguntaría la IA a un humano especialista en IA? Patricio Zunini hizo el ejercicio de preguntarle a ChatGPT qué le preguntaría a Martín Palazzo sobre sí misma. La pregunta que emitió el algoritmo fue: “¿Confías en mí? ¿En qué tipo de tareas me dejarías actuar solo y en cuáles no me dejarías intervenir nunca?” Palazzo contestó: “Si tengo que escribir un texto, lo escribo yo. Pero le pediría que busque algunos errores superficiales o que no haya oraciones que estén desordenadas. Que haga una segunda mirada de algo que yo produje. Lo que seguro no le pediría son consejos clínicos. No lo usaría como un psicólogo o como un terapeuta, no le pediría consejo sobre mi vida sentimental, porque las respuestas que va a dar son respuestas que son las que yo quiero escuchar y no las que me diría un amigo”. Y agregó: “Tampoco lo haría para hacer trabajo original. A veces nos damos cuenta los profesores cuando utilizan esta tecnología y es una situación incómoda para todos, porque además lo que se nota ahí es falta de originalidad. Y también hay patrones que la inteligencia artificial deja; hay señales o rastros y es decepcionante cuando de golpe se espera que un humano escriba algo y uno nota que lo escribió la inteligencia artificial”.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por