11/03/2026 09:09
11/03/2026 09:09
11/03/2026 09:08
11/03/2026 09:08
11/03/2026 09:08
11/03/2026 09:08
11/03/2026 09:08
11/03/2026 09:07
11/03/2026 09:06
11/03/2026 09:04
Parana » AIM Digital
Fecha: 11/03/2026 07:27
Especialistas en tecnología advirtieron a AIM que el desempeño de los sistemas de inteligencia artificial depende en gran medida de la calidad de los datos, la definición de objetivos claros y la supervisión humana durante su funcionamiento. La inteligencia artificial se consolidó en los últimos años como una herramienta asociada a la eficiencia y la automatización de procesos. Sin embargo, especialistas en desarrollo tecnológico señalaron que los resultados de estos sistemas dependen de cómo se entrenan y de la calidad de la información que reciben. Según supo AIM, uno de los principales desafíos es evitar que la tecnología replique errores o limitaciones presentes en los datos con los que trabaja. En ese sentido, el ingeniero en inteligencia artificial Tomás D'Aureli, de la empresa Ingenia, explicó a AIM que los modelos de IA deben ser concebidos como sistemas dinámicos que requieren un entrenamiento estratégico y revisiones constantes. De acuerdo con lo que indicó, antes de incorporar información es fundamental definir con claridad cuál será el propósito del sistema, ya que sin ese análisis previo la tecnología tiende a reproducir problemas existentes en lugar de resolverlos. D'Aureli indicó a AIM además que la coherencia de los datos es tan importante como su volumen. Cuando la información está desordenada o utiliza diferentes nombres para un mismo concepto, los sistemas pueden generar respuestas incorrectas o inconsistentes. Por ese motivo, remarcaron la importancia de organizar y estructurar adecuadamente las bases de datos que alimentan estos modelos. Otro aspecto clave es la actualización permanente del contexto. Las herramientas de inteligencia artificial aprenden a partir de información previa y, si esos datos quedan desactualizados, el modelo puede perder precisión o quedar desalineado con la realidad de las organizaciones o de los procesos que intenta asistir. A esto se suma la necesidad de evitar una confianza excesiva en los resultados que arrojan estos sistemas. Según informaron a AIM especialistas en el área, la urgencia por implementar soluciones basadas en inteligencia artificial puede llevar a utilizar datos sin analizar su pertinencia, lo que produce respuestas que parecen correctas pero que pueden inducir a errores. Finalmente, los expertos destacaron la importancia de incorporar el enfoque conocido como human in the loop, que implica la participación activa de personas en la supervisión de los sistemas. Este mecanismo permite detectar inconsistencias, validar los resultados y garantizar que la inteligencia artificial complemente el juicio humano en lugar de reemplazarlo.
Ver noticia original