Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Inteligencia artificial: la “perplejidad” en el campo científico de la IA

    » La Gaceta Tucuman

    Fecha: 05/05/2024 10:34

    Un principio para superar las alucinaciones con el Modelo de Lenguaje Confiable. El 25 de abril, de Cleanlab “una empresa de IA surgida de un laboratorio de computación cuántica del MIT (Instituto Tecnológico de Massachusetts, EE UU)” lanzaron el Modelo de Lenguaje Confiable (TLM), diseñado para abordar uno de los desafíos más significativos en la implementación de los LLM: las alucinaciones (las alucinaciones se refieren a la capacidad de los modelos de lenguaje grande LLM para generar contenido falso o inventado). https://cleanlab.ai/blog/trustworthy- language-model/. El TLM introduce una puntuación de confiabilidad para cada respuesta generada por el modelo, permitiendo una distinción clara entre las respuestas confiables y las potencialmente engañosas, si bien “TLM requiere un cálculo adicional para proporcionar estos beneficios, internamente llama al LLM subyacente varias veces para reflexionar sobre las respuestas y evaluar la coherencia entre las respuestas”.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por