07/05/2026 22:02
07/05/2026 22:01
07/05/2026 22:01
07/05/2026 22:01
07/05/2026 22:01
07/05/2026 22:01
07/05/2026 22:01
07/05/2026 22:01
07/05/2026 21:56
07/05/2026 21:56
Buenos Aires » TN
Fecha: 07/05/2026 20:53
Anthropic presentó una nueva función experimental para Claude que abrió un debate inmediato dentro de la industria tecnológica: la empresa aseguró que su inteligencia artificial ahora puede soñar. El término, cargado de sentido humano, remite al nombre de la función, Dreaming, que permite a los agentes de IA revisar experiencias pasadas, detectar patrones y reorganizar información cuando no están ejecutando tareas activas. La nueva característica forma parte de Managed Agents, la plataforma de Anthropic para crear y administrar agentes autónomos vinculados a Claude, y por ahora está disponible para desarrolladores que soliciten acceso. El anuncio trajo polémica. Llamar sueño a un proceso de análisis y reorganización de información puede facilitar la explicación de una función compleja, aunque también puede llevar a que los usuarios atribuyan capacidades humanas a sistemas que no las tienen. Por qué el anuncio generó debate La novedad no fue discutida únicamente por su funcionamiento técnico. El punto más sensible está en la palabra elegida por Anthropic. La revista especializada Wired cuestionó el uso de términos asociados a la experiencia humana para describir procesos de inteligencia artificial. La advertencia apunta a una tendencia cada vez más común en la industria: hablar de modelos que piensan, recuerdan, razonan o sueñan, aunque en realidad ejecuten operaciones estadísticas, almacenamiento de datos, análisis de patrones o evaluación de resultados. Ese tipo de lenguaje puede influir en la forma en que las personas usan estas herramientas. Si un usuario interpreta que un chatbot tiene capacidades similares a las humanas, puede confiar demasiado en sus respuestas o delegar tareas sensibles sin suficiente control. Leé también: La competencia de ChatGPT crece con ayuda de Elon Musk: Claude usará servidores de SpaceX Qué significa que Claude pueda soñar Según Anthropic, Dreaming funciona cuando el agente está inactivo. En esos períodos, el sistema revisa sesiones recientes, analiza lo que hizo y busca aprendizajes útiles para futuras tareas. La idea es que el agente no dependa solo de una interacción puntual. Con esta función, puede identificar problemas que se repiten en distintos trabajos, reconocer decisiones poco eficientes y ajustar información guardada en su memoria. La empresa también indicó que los desarrolladores pueden controlar cómo se aplican esos cambios. Las modificaciones pueden incorporarse de manera automática o quedar sujetas a una revisión previa antes de pasar a formar parte de la memoria del agente. ¿Sueñan las IA con ovejas eléctricas? Parafraseando el título de la novela de Phillip K. Dick, vale aclarar que Claude no sueña como una persona. Lo que hace Dreaming es revisar información previa, reorganizar aprendizajes y modificar su memoria para mejorar tareas futuras. La elección del término, sin embargo, muestra un problema que acompañará a la próxima etapa de la inteligencia artificial: cuanto más autónomos parezcan los sistemas, más importante será explicar con precisión dónde termina la metáfora y dónde empieza el funcionamiento real de la tecnología.
Ver noticia original