18/05/2024 19:39
18/05/2024 19:39
18/05/2024 19:39
18/05/2024 19:39
18/05/2024 19:39
18/05/2024 19:39
18/05/2024 19:39
18/05/2024 19:38
18/05/2024 19:37
18/05/2024 19:37
» La Gaceta Tucuman
Fecha: 05/05/2024 10:34
Un principio para superar las alucinaciones con el Modelo de Lenguaje Confiable. El 25 de abril, de Cleanlab “una empresa de IA surgida de un laboratorio de computación cuántica del MIT (Instituto Tecnológico de Massachusetts, EE UU)” lanzaron el Modelo de Lenguaje Confiable (TLM), diseñado para abordar uno de los desafíos más significativos en la implementación de los LLM: las alucinaciones (las alucinaciones se refieren a la capacidad de los modelos de lenguaje grande LLM para generar contenido falso o inventado). https://cleanlab.ai/blog/trustworthy- language-model/. El TLM introduce una puntuación de confiabilidad para cada respuesta generada por el modelo, permitiendo una distinción clara entre las respuestas confiables y las potencialmente engañosas, si bien “TLM requiere un cálculo adicional para proporcionar estos beneficios, internamente llama al LLM subyacente varias veces para reflexionar sobre las respuestas y evaluar la coherencia entre las respuestas”.
Ver noticia original