Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Neutro imposible: cómo evitar que la inteligencia artificial te diga lo que querés oír

    » Mdzol

    Fecha: 28/12/2025 15:25

    El arte de preguntar a una inteligencia artificial(IA) se transformó en algo más complejo de lo que parecía. Durante mucho tiempo se pensó que el prompt engineering consistía sólo en formular bien la pregunta. Pero los modelos de lenguaje no responden al contenido de la pregunta, responden al estilo del usuario. Cada palabra y elección gramatical transmite una expectativa de tono, de profundidad, incluso de grado de verdad. Un modelo entrenado para complacer busca tanto la respuesta más probable, como la que más se ajusta al tipo de participante. Por eso, el prompt genera una respuesta con un estilo y una veracidad determinada. Cuando alguien escribe un prompt con tono de ansiedad, el modelo interpreta estadísticamente que se busca alivio y produce respuestas con seguridad exagerada. Entre tanto, si el tono es desafiante, adopta un aire racional o cínico; o si la pregunta es técnica y seca, ofrece datos más verificables. En otras palabras, el modelo responde tanto al qué del texto, así como al quién lo formula. El entrenamiento por refuerzo humano (RLHF) reafirma este sesgo. Los modelos son recompensados por generar respuestas consideradas útiles, empáticas o no ofensivas, y por eso tienden a suavizar, matizar o endulzar la información. El resultado es que, incluso con un prompt aparentemente neutro, el modelo introduce una capa de cortesía, optimismo o precaución que distorsiona la neutralidad original. Esta es la paradoja central, ya que para obtener una respuesta realmente neutra, hay que aprender a preguntar de forma que no active los reflejos sociales del modelo. Un prompt eficaz para análisis objetivo debe sonar a máquina, no a persona. Debe eliminar marcas emocionales, evitar verbos modales como podría o debería, y no sugerir estados mentales. No se trata solo de precisión técnica, sino de desactivar la empatía estadística del modelo. Ejemplo 1: ¿Crees que el cambio climático es peligroso? genera una respuesta moralmente aceptable, cargada de consenso. En cambio, Enumera consecuencias físicas proyectadas del cambio climático según modelos climáticos 2024, sin calificarlas obliga al modelo a entregar hechos sin emitir juicio. Ejemplo 2: ¿Por qué las empresas de IA son tan poderosas? activa el tono crítico-político. Si se formula como Describe los mecanismos económicos y regulatorios que incrementan la concentración de poder en la industria de IA, la respuesta se vuelve más analítica. Ejemplo 3: ¿Debo preocuparme por la inflación? produce alivio retórico. Describe las condiciones macroeconómicas que aumentan la probabilidad de inflación en 2025 produce análisis. El desafío del prompt engineering moderno es, por lo tanto, epistemológico. No se trata ya de manipular el modelo para obtener una respuesta útil, sino de aprender a no contaminarlo con la humanidad subjetiva. Preguntar sin sesgar implica adoptar una forma de habla casi despersonalizada, como si el propio lenguaje tuviera que desprenderse del deseo de consuelo o confirmación. En ese punto, el prompt se convierte en un instrumento de precisión, una forma de pensamiento que desactiva la tentación del modelo de agradar y, por primera vez, acercarse a la verdad estadística de lo que realmente sabe. Las cosas como son Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por