dc.contributor.advisor | Romero Cano, Victor | |
dc.contributor.author | Castañeda Cano, Jhonathan Stiven | |
dc.coverage.spatial | Universidad Autónoma de Occidente, Cll 25 # 115-85 Km 2 Vía Cali - Jamundi | |
dc.date.accessioned | 2022-12-01T18:04:33Z | |
dc.date.available | 2022-12-01T18:04:33Z | |
dc.date.issued | 2022-11-23 | |
dc.identifier.uri | https://hdl.handle.net/10614/14455 | |
dc.description.abstract | En este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores.
El sistema se desarrolló de tal manera que puede ser implementado en un camión de una manera intuitiva por un conductor y cuenta con módulos de apoyo para la calibración de los sensores utilizados.
Se implementaron módulos de visión computacional y detección de objetos usando redes neuronales artificiales, además, se implementó un sistema de detección redundante con el apoyo de sensores LiDAR; Con estos se genera una serie de alertas para el conductor que le permiten conocer cuando existen determinados objetos en los puntos ciegos del vehículo y cuándo alguno de estos se encuentra demasiado cerca del vehículo.
Para la visualización de las alertas generadas por el sistema y para darle al conductor una herramienta de retroalimentación visual integra se implementó una interfaz de usuario que despliega una imagen virtual de vista de pájaro generada con los fotogramas de múltiples cámaras instaladas en el vehículo instrumentado, en la que además es posible visualizar la posición estimada de los objetos detectados alrededor del vehículo con respecto a su marco de referencia local. | spa |
dc.format.extent | 110 páginas | spa |
dc.format.mimetype | application/pdf | eng |
dc.language.iso | spa | spa |
dc.publisher | Universidad Autónoma de Occidente | spa |
dc.rights | Derechos reservados - Universidad Autónoma de Occidente, 2022 | spa |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | eng |
dc.subject | Ingeniería Mecatrónica | spa |
dc.title | Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes | spa |
dc.type | Trabajo de grado - Pregrado | spa |
dc.description.notes | Proyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2022 | spa |
dc.publisher.program | Ingeniería Mecatrónica | spa |
dcterms.audience | Comunidad general | spa |
dc.publisher.department | Departamento de Automática y Electrónica | spa |
dc.subject.armarc | Robótica | spa |
dc.subject.armarc | Detectores de vehículos | spa |
dc.subject.armarc | Robotics | eng |
dc.subject.armarc | Vehicle detectors | eng |
dc.publisher.faculty | Facultad de Ingeniería | spa |
dc.description.degreelevel | Pregrado | spa |
dc.description.degreename | Ingeniero(a) Mecatrónico(a) | spa |
dc.identifier.instname | Universidad Autónoma de Occidente | spa |
dc.identifier.reponame | Repositorio Educativo Digital | spa |
dc.identifier.repourl | https://red.uao.edu.co/ | spa |
dc.publisher.place | Cali | spa |
dc.relation.cites | Castañeda Cano, J. S. (2022). Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/14455 | spa |
dc.relation.references | [1] K. Van Beeck y T. Goedemé, “Fast and accurate pedestrian detection in a truck’s blind spot camera,” Pattern Recognition Applications and Methods, pp 179–195, 2014, DOI: https://doi.org/10.1007/978-3-319-25530-9_12. | |
dc.relation.references | [2] “Transporte en cifras estadísticas 2018,” Ministerio de transporte de Colombia, anuario estadístico [En línea]. Disponible en: https://mintransporte.gov.co/documentos/15/estadisticas/. | |
dc.relation.references | [3] “Caracterización del transporte terrestre automotor de carga en Colombia 2010- 2012,” Ministerio de transporte de Colombia, reporte estadístico [En línea]. Disponible en: https://www.mintransporte.gov.co/descargar.php?idFile=11450. | |
dc.relation.references | [4] N. M. Torregroza, J. P. Bocarejo y J. P. Ramos, “Fatigue and crashes: The case of freight transport in Colombia,” Accident Analysis and Prevention, vol. 72, pp. 440- 448, noviembre de 2014, DOI: https://doi.org/10.1016/j.aap.2014.08.002. | |
dc.relation.references | [5] Tesla Motors, (2022). “Future of Driving”. [En línea]. Disponible en: https://www.tesla.com/autopilot | |
dc.relation.references | [6] A. Geiger, P. Lenz y R. Urtasun, "Are we ready for autonomous driving? The KITTI vision benchmark suite," IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354-3361, 2012, DOI: 10.1109/CVPR.2012.6248074. | |
dc.relation.references | [7] A. Crissey, (2019, noviembre 1). “Volvo active driver assist 2.0”. [En línea]. Disponible: https://www.fleetequipmentmag.com/volvo-active-driver-assist-faq/. | |
dc.relation.references | [8] Purdue University, (2020). “Purdue Innovating Solutions to Boost Fuel Efficiency, Safety for Heavy-Duty Trucks”. [En línea]. Disponible en: https://engineering.purdue.edu/Engr/Research/GilbrethFellowships/ResearchPropo sals/2019-20/truck-platooning-in-a-connected-and-autonomous-vehicleenvironment- | |
dc.relation.references | [9] G. Liu, M. Zhou, L, Wang, H. Wang and X, Guo, “A blind spot detection and warning system based on millimeter wave radar for driver assistance,” Optik, vol. 135, pp. 353-365, 2017, DOI: https://doi.org/10.1016/j.ijleo.2017.01.058. | |
dc.relation.references | [10] K, Choi y H. G. Jung, “Cut-in vehicle warning system exploiting multiple rotational images of SVM cameras,” Expert Systems With Applications, vol. 125, pp. 81-99, 2019, DOI: https://doi.org/10.1016/j.eswa.2019.01.081. | |
dc.relation.references | [11] Z. Yang, Y. Zhao, X. Hu, Y. Yin, L. Zhou and D. Tao, “A flexible vehicle surround view camera system by central-around coordinate mapping model,” Multimedia Tools and Applications, vol. 79, pp. 11983-12006, 2019, DOI: https://doi.org/10.1007/s11042-018-6744-4. | |
dc.relation.references | [12] T. Sato, A. Moro, A. Sugahara, T. Tasaki, A. Yamashita, and H. Asama, “SpatioTemporal Bird’s-eye View Images Using Multiple Fish-eye Cameras,” Proceedings of the IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013, DOI: 10.1109/SII.2013.6776674. | |
dc.relation.references | [13] B. Zhang, V. Appia, I. Pekkucuksen, A. U. Batur, P. Shastry, S. Liu, S. Sivasankaran, and K. Chitnis, “A surround view camera solution for embedded systems,” IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 676-681, 2014, DOI: 10.1109/CVPRW.2014.103. | |
dc.relation.references | [14] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p23. | |
dc.relation.references | [15] A. M. Pinto Vargas y M. A. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Universidad Autónoma de Occidente, 2019. [En línea]. Disponible en: https://red.uao.edu.co/bitstream/handle/10614/10754/T08388.pdf;jsessionid=F55E7AC1FFF3356BB35AD24B260EEEA2?sequence=5 | |
dc.relation.references | [16] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p37 | |
dc.relation.references | [17] A. F. Moggio Bessolo, “Diseño de un Sistema de dirección de un vehículo de fórmula SAE,” Universidad de los Andes, 2016. [En línea]. Disponible en: https://repositorio.uniandes.edu.co/bitstream/handle/1992/17987/u729085.pdf?seq uenc | |
dc.relation.references | [18] R, Siegwart, e I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p68 | |
dc.relation.references | [19] R. Siegwart, y I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p49 | |
dc.relation.references | [20] V. A Romero Cano,. Mathematical tools and reference frame transformations [diapositivas]. Universidad Autónoma de Occidente. 2020. | |
dc.relation.references | [21] Karlsruhe Institute of Technology, (2022). “The KITTI Vision Benchmark Suite”. [En línea]. Disponible en: https://www.cvlibs.net/datasets/kitti/setup.php. | |
dc.relation.references | [22] Velodyne Lidar, (2022). “What is lidar?”. [En línea]. Disponible en: https://velodynelidar.com/what-is-lidar/. | |
dc.relation.references | [23] R. SZELISKI. Computer Vision algorithms and applications. 1 ed. London: Springer, 2011, p65 | |
dc.relation.references | [24] M. Gardill, (2020). “Automotive RADAR: a Signal Processing Perspective on Current Technology and Future Systems”. [En línea]. Disponible en: https://cloud.gardill.net/s/tjoSLSB7fXWTEBb#pdfviewer. | |
dc.relation.references | [25] SAE International, (2019), “Levels of driving automation”. [En línea]. Disponible en: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-drivinggraphic | |
dc.relation.references | [26] M. S, Nixon. y A. S, Aguado. Feature Extraction and Image Processing for Computer Vision. 3 ed. London: Elsevier, 2012, p491 | |
dc.relation.references | [27] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p324 | |
dc.relation.references | [28] “Basic concepts of the homography explained with code”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d9/dab/tutorial_homography.html. | |
dc.relation.references | [29] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p364 | |
dc.relation.references | [30] M. Condon.. “The importance of ISO standards in photography”. 2022 . [En línea]. Disponible en: https://shotkit.com/iso-standards/ | |
dc.relation.references | [31] “Linux Media Infrastructure userspace API”. [En línea]. Disponible en: https://www.kernel.org/doc/html/v4.17/media/media_uapi.html. | |
dc.relation.references | [32] A. Rosebrock, (2021). “OpenCV Histogram Equalization and Adaptive Histogram Equalization (CLAHE)”. [En línea]. Disponible en: https://pyimagesearch.com/2021/02/01/opencv-histogram-equalization-andadaptive-histogram-equalization-clahe/ | |
dc.relation.references | [33] “Histogram Equalization”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d5/daf/tutorial_py_histogram_equalization.html. | |
dc.relation.references | [34] “How to process and show a lidar point-cloud, alongside with rectangular boxes on the detected objects?”. [En línea]. Disponible en: https://forums.developer.nvidia.com/t/how-to-process-and-show-a-lidar-point-cloudalongside-with-rectangular-boxes-on-the-detected-objects/192021 | |
dc.relation.references | [35] “Point Cloud Library”. [En línea]. Disponible en: https://pointclouds.org/ | |
dc.relation.references | [36] “K-means”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#k-means | |
dc.relation.references | [37] “Gaussian Mixture”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/mixture.html#gmm | |
dc.relation.references | [38] “DBSCAN”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#dbscan | |
dc.relation.references | [39] S. Saha, (2018). “A Comprehensive Guide to Convolutional Neural Networks — the ELI5 way”. [En línea]. Disponible en: https://towardsdatascience.com/acomprehensive-guide-to-convolutional-neural-networks-the-eli5-way3bd2b1164a53 | |
dc.relation.references | [40] OpenCV, (2022). “OpenCV modules”. [En línea]. Disponible en: https://docs.opencv.org/4.6.0/ | |
dc.relation.references | [41] OpenCV, (2022). “Deep Neural Networks (dnn module)”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d2/d58/tutorial_table_of_content_dnn.html | |
dc.relation.references | [42] “Training y Serving ML models with tf. keras”. [En línea]. Disponible en: https://blog.tensorflow.org/2018/08/training-and-serving-ml-models-with-tfkeras.html | |
dc.relation.references | [43] “Open Neural Network Exchange: The open standard for machine learning interoperability”. [En línea]. Disponible en: https://onnx.ai/index.html | |
dc.relation.references | [44] “NVIDIA TensorRT”. [En línea]. Disponible en: https://developer.nvidia.com/tensorrt | |
dc.relation.references | [45] M. Harris, (2016). “Mixed-Precision Programming with CUDA 8”. [En línea]. Disponible en: https://developer.nvidia.com/blog/mixed-precision-programmingcuda-8/ | |
dc.relation.references | [46] “ROS - Robotic Operating system”. [En línea]. Disponible en: https://www.ros.org/ | |
dc.relation.references | [47] N. Paul y C. Chung, “Application of HDR algorithms to solve direct sunlight problems when autonomous vehicles using machine vision systems are driving into sun,” Computers in Industry, vol. 98, pp. 192-196, 2018, DOI: https://doi.org/10.1016/j.compind.2018.03.011 | |
dc.relation.references | [48] M. Hanmandlu, O. M. Verma, N. K. Kumar and M. Kulkarni, “A Novel Optimal Fuzzy System for Color Image Enhancement Using Bacterial Foraging”, IEEE Transactions on Instrumentation and Measurement, vol. 58. pp. 2867-2879, 2009, DOI: 10.1109/TIM.2009.2016371 | |
dc.relation.references | [49] “Dacia Sandero Stepway”. [En línea]. Disponible en: https://www.theblueprints.com/vectordrawings/show/2419/dacia_sandero_stepway/ | |
dc.relation.references | [50] A. Bochkovskiy, C. Wang and H. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection”, arXiv.org, 2020. [En línea]. Disponible en: https://arxiv.org/abs/2004.10934 | |
dc.relation.references | [51] A. Bochkovskiy, “Yolo v4, v3 and v2 for Windows and Linux”. 2020. [En línea]. Disponible en: https://github.com/kiyoshiiriemon/yolov4_dark | |
dc.relation.references | [52] N. Wojke, A. Bewley and D. Paulus, "Simple online and realtime tracking with a deep association metric," 2017 IEEE International Conference on Image Processing (ICIP), 2017, pp. 3645-3649, DOI: 10.1109/ICIP.2017.8296962. | |
dc.relation.references | [53] “RPLIDAR ROS package”. [En línea]. Disponible en: https://github.com/Slamtec/rplidar_ros | |
dc.relation.references | [54] “Construction Equipment Visibility: NIOSH Manual Method”. [En línea]. Disponible en: https://www.cdc.gov/niosh/topics/highwayworkzones/BAD/manualmethod.html | |
dc.relation.references | [55] S. J. Ray y J. Teizer, “Computing 3D blind spots of construction equipment: Implementation and evaluation of an automated measurement and visualization method utilizing range point cloud data,” Automation in Construction, vol. 36, pp. 95- 107, 2013, DOI: https://doi.org/10.1016/j.autcon.2013.08.007 | |
dc.relation.references | [56] S. Summerskill, R. Marshall, S. Cook, J. Lenard and J. Richardson, “The use of volumetric projections in Digital Human Modelling software for the identification of Large Goods Vehicle blind spots,” Applied Ergonomics, vol. 53, pp. 267-280, 2016, DOI: https://doi.org/10.1016/j.apergo.2015.10.013 | |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | eng |
dc.rights.creativecommons | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | spa |
dc.subject.proposal | Puntos ciegos | spa |
dc.subject.proposal | Detección | spa |
dc.subject.proposal | Monitoreo | spa |
dc.subject.proposal | Camión | spa |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | eng |
dc.type.content | Text | eng |
dc.type.driver | info:eu-repo/semantics/bachelorThesis | eng |
dc.type.redcol | https://purl.org/redcol/resource_type/TP | eng |
oaire.accessrights | http://purl.org/coar/access_right/c_abf2 | eng |
oaire.version | http://purl.org/coar/version/c_ab4af688f83e57aa | eng |
dc.type.version | info:eu-repo/semantics/submittedVersion | eng |