Associated Reality: A cognitive Human–Machine Layer for autonomous driving
dc.contributor.author | Fernandez, Felipe | |
dc.contributor.author | Sanchez, Angel | |
dc.contributor.author | Velez, Jose F. | |
dc.contributor.author | Moreno, Belen | |
dc.date.accessioned | 2025-01-30T09:43:09Z | |
dc.date.available | 2025-01-30T09:43:09Z | |
dc.date.issued | 2020-11 | |
dc.description.abstract | Los Sistemas Avanzados de Asistencia al Conductor (ADAS) y los Vehículos Automatizados y Autónomos (AV) son sistemas y procesos cooperativos que utilizan: inteligencia artificial, métodos cognitivos, tecnologías en la nube, comunicaciones cooperativas Vehicle-to-everything (V2X), plataformas software–hardware, plataformas de sensores e infraestructuras de transporte inteligente incipientes, para lograr sistemas de conducción autónoma y servicios de movilidad conectada inteligente. Este artículo, para dar apoyo a los sistemas de conducción automatizada (de vehículos asistidos, semi-autónomos y totalmente autónomos), introduce una capa cognitiva llamada Realidad Asociada que permite realzar la información y mejorar los procesos involucrados de conocimiento y comunicación. La arquitectura definida incluye un Mapa Dinámico Local Aumentado, con capas complementarias, y una Base de Datos de Grafos Aumentada, con relaciones semánticas-cognitivas complementarias, para el propósito considerado, en sistemas cooperativos humano-máquina y máquina-máquina. Se definen puntos de referencia (landmarks) aumentados virtualmente para mejorar la conectividad y la inteligencia de los sistemas de información espacial involucrados. Se definen, categorizan y utilizan diferentes landmarks estructurales y secuenciales (regulares, repetitivos y periódicos), categorizados y usados en diversos escenarios de localización visual y de mapeo, para la conducción autónoma. En este artículo, también se muestra, como prueba de concepto para la localización y mapeo de vehículos en túneles viales, la detección visual de diferentes secuencias de luminarias periódicas, utilizando el algoritmo de detección basado en redes neuronales profundas YOLO v3, para la detección correspondiente de luces LED, o un procedimiento alternativo específico desarrollado con un coste computacional muy bajo. | |
dc.identifier.citation | Felipe Fernandez, Angel Sanchez, Jose F. Velez, Belen Moreno, Associated Reality: A cognitive Human–Machine Layer for autonomous driving, Robotics and Autonomous Systems, Volume 133, 2020, 103624, ISSN 0921-8890, https://doi.org/10.1016/j.robot.2020.103624 | |
dc.identifier.doi | https://doi.org/10.1016/j.robot.2020.103624 | |
dc.identifier.issn | 0921-8890 | |
dc.identifier.uri | https://hdl.handle.net/10115/70837 | |
dc.language.iso | en | |
dc.publisher | Elsevier | |
dc.rights.accessRights | info:eu-repo/semantics/closedAccess | |
dc.subject | ADAS and autonomous vehicle | |
dc.subject | Cooperative ITS | |
dc.subject | Human Machine system | |
dc.subject | Augmented Local Dynamic Map | |
dc.subject | Cognitive system | |
dc.subject | Cognitive landmark | |
dc.title | Associated Reality: A cognitive Human–Machine Layer for autonomous driving | |
dc.type | Article |
Archivos
Bloque original
1 - 1 de 1
No hay miniatura disponible
- Nombre:
- Elsevier 2020 Associate Reality.pdf
- Tamaño:
- 4.78 MB
- Formato:
- Adobe Portable Document Format