Associated Reality: A cognitive Human–Machine Layer for autonomous driving

dc.contributor.authorFernandez, Felipe
dc.contributor.authorSanchez, Angel
dc.contributor.authorVelez, Jose F.
dc.contributor.authorMoreno, Belen
dc.date.accessioned2025-01-30T09:43:09Z
dc.date.available2025-01-30T09:43:09Z
dc.date.issued2020-11
dc.description.abstractLos Sistemas Avanzados de Asistencia al Conductor (ADAS) y los Vehículos Automatizados y Autónomos (AV) son sistemas y procesos cooperativos que utilizan: inteligencia artificial, métodos cognitivos, tecnologías en la nube, comunicaciones cooperativas Vehicle-to-everything (V2X), plataformas software–hardware, plataformas de sensores e infraestructuras de transporte inteligente incipientes, para lograr sistemas de conducción autónoma y servicios de movilidad conectada inteligente. Este artículo, para dar apoyo a los sistemas de conducción automatizada (de vehículos asistidos, semi-autónomos y totalmente autónomos), introduce una capa cognitiva llamada Realidad Asociada que permite realzar la información y mejorar los procesos involucrados de conocimiento y comunicación. La arquitectura definida incluye un Mapa Dinámico Local Aumentado, con capas complementarias, y una Base de Datos de Grafos Aumentada, con relaciones semánticas-cognitivas complementarias, para el propósito considerado, en sistemas cooperativos humano-máquina y máquina-máquina. Se definen puntos de referencia (landmarks) aumentados virtualmente para mejorar la conectividad y la inteligencia de los sistemas de información espacial involucrados. Se definen, categorizan y utilizan diferentes landmarks estructurales y secuenciales (regulares, repetitivos y periódicos), categorizados y usados en diversos escenarios de localización visual y de mapeo, para la conducción autónoma. En este artículo, también se muestra, como prueba de concepto para la localización y mapeo de vehículos en túneles viales, la detección visual de diferentes secuencias de luminarias periódicas, utilizando el algoritmo de detección basado en redes neuronales profundas YOLO v3, para la detección correspondiente de luces LED, o un procedimiento alternativo específico desarrollado con un coste computacional muy bajo.
dc.identifier.citationFelipe Fernandez, Angel Sanchez, Jose F. Velez, Belen Moreno, Associated Reality: A cognitive Human–Machine Layer for autonomous driving, Robotics and Autonomous Systems, Volume 133, 2020, 103624, ISSN 0921-8890, https://doi.org/10.1016/j.robot.2020.103624
dc.identifier.doihttps://doi.org/10.1016/j.robot.2020.103624
dc.identifier.issn0921-8890
dc.identifier.urihttps://hdl.handle.net/10115/70837
dc.language.isoen
dc.publisherElsevier
dc.rights.accessRightsinfo:eu-repo/semantics/closedAccess
dc.subjectADAS and autonomous vehicle
dc.subjectCooperative ITS
dc.subjectHuman Machine system
dc.subjectAugmented Local Dynamic Map
dc.subjectCognitive system
dc.subjectCognitive landmark
dc.titleAssociated Reality: A cognitive Human–Machine Layer for autonomous driving
dc.typeArticle

Archivos

Bloque original

Mostrando 1 - 1 de 1
No hay miniatura disponible
Nombre:
Elsevier 2020 Associate Reality.pdf
Tamaño:
4.78 MB
Formato:
Adobe Portable Document Format