Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Según un estudio, las luces de autos de emergencia pueden confundir inteligencias artificiales en vehículos automatizados

    Buenos Aires » Infobae

    Fecha: 28/11/2024 14:52

    Aunque los autos autónomos prometen reducir accidentes, su interacción con luces de emergencia podría ser una de sus mayores vulnerabilidades. (Freepik) Los sistemas de conducción automatizada fueron aclamados por su capacidad para reducir el estrés y mejorar la seguridad en la carretera al delegar en las máquinas tareas complejas, como la identificación de posibles colisiones. Sin embargo, un reciente estudio de la empresa Fujitsu y la Universidad Ben-Gurion evidencia una vulnerabilidad alarmante en estos sistemas. Según la investigación, publicada en un artículo de Wired, las luces intermitentes de los vehículos de emergencia, como ambulancias, patrulleros de policía y camiones de bomberos, pueden interferir con el funcionamiento de los sistemas automatizados basados en cámaras, un fenómeno denominado “epilepticars”. Este efecto provoca que los sistemas de detección de objetos, entrenados mediante inteligencia artificial, pierdan precisión y fluctúen sincronizadamente con los destellos de las luces, especialmente en condiciones de poca luz, lo que aumenta el riesgo de accidentes. Este malfuncionamiento podría generar una falsa sensación de seguridad y poner en peligro a los conductores, porque los sistemas podrían no detectar adecuadamente a los vehículos de emergencia o tomar decisiones incorrectas. Los investigadores advierten que este problema representa un riesgo significativo, ya que podría dar lugar a choques cerca de vehículos de emergencia. El parpadeo de las luces intermitentes de vehículos de emergencia puede alterar la visión de los sistemas automatizados, afectando su capacidad para identificar correctamente los obstáculos. (Freepik) Para realizar sus experimentos, los investigadores utilizaron cámaras de sistemas de conducción automatizada compradas comercialmente, que están equipadas con tecnologías de detección de colisiones. Sin embargo, no se probaron sistemas avanzados específicos de marcas como Tesla o General Motors. En lugar de ello, emplearon dispositivos más simples y accesibles al público. Tras realizar diversas pruebas y analizar las imágenes capturadas por estas cámaras, se evidenció que los sistemas automatizados no podían procesar de manera efectiva las imágenes cuando se encontraban con luces intermitentes. Este hallazgo evidencia la necesidad de mejorar la fiabilidad y robustez de los algoritmos que alimentan estos sistemas, especialmente en escenarios inesperados. A pesar de los resultados alarmantes, los investigadores dejaron claro que no se puede concluir directamente que esta vulnerabilidad esté presente en sistemas avanzados como el Autopilot de Tesla, que fue objeto de controversia tras varios accidentes con vehículos de emergencia entre 2018 y 2021. La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) llevó a cabo una investigación a raíz de estos incidentes, que resultó en un retiro de software. El informe de la agencia señaló que el sistema de Tesla no garantizaba que el conductor mantuviera la atención necesaria cuando el Autopilot estaba activado, lo que podría haber contribuido a las colisiones. Sin embargo, no se pudo establecer una relación directa entre las luces intermitentes y estos accidentes, lo que sugiere que la causa es más compleja y podría estar relacionada con la interacción del sistema con diversos factores en el entorno. Los autos autónomos, como los de Tesla, podrían sufrir fallos al interactuar con luces de emergencia, lo que incrementa el riesgo de colisiones. (REUTERS/Alexandria Sage) El problema se amplía cuando se considera que los sistemas basados en visión artificial (como las cámaras) son más susceptibles a fallos que otros sensores que proporcionan una perspectiva más detallada del entorno. A pesar de que algunos desarrolladores, incluida Tesla, apostaron por sistemas de cámaras como base para la conducción autónoma, el desafío está en que estos sistemas deben ser capaces de interpretar correctamente todo tipo de situaciones imprevistas, como las luces intermitentes de emergencia. Ante este desafío, los investigadores propusieron una posible solución al problema mediante un software llamado Caracetamol, diseñado específicamente para entrenar a los sistemas de detección de objetos a reconocer vehículos con luces de emergencia. Esta herramienta, que se presenta como una alternativa para mejorar la precisión en condiciones complejas, podría reducir significativamente los fallos de los sistemas automatizados al identificar vehículos con luces intermitentes. Bryan Reimer, experto en automatización vehicular de MIT AgeLab, enfatiza que las automotrices deben garantizar que sus sistemas sean probados en una amplia gama de condiciones antes de ser lanzados al mercado. Para él, los resultados de este estudio reflejan la falta de preparación ante situaciones imprevistas y la necesidad de enfoques más rigurosos para asegurar que las tecnologías no solo sean efectivas, sino también seguras. Además, la rapidez con que los fabricantes están implementando estas tecnologías podría estar superando su capacidad de validación, lo que aumenta los riesgos. Este estudio subraya que la conducción autónoma está lejos de ser una tecnología infalible y que aún quedan muchos obstáculos por superar antes de que los vehículos autónomos sean completamente seguros. A pesar de los avances en inteligencia artificial y sensores, los vehículos autónomos deben ser capaces de adaptarse a situaciones complejas e impredecibles. En definitiva, aunque la conducción autónoma promete revolucionar la movilidad, es fundamental que los fabricantes fortalezcan la fiabilidad de estos sistemas frente a una gama más amplia de situaciones reales, garantizando que puedan reaccionar con seguridad ante cualquier imprevisto que se presente en las carreteras.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por