Show simple item record

dc.contributor.advisorRomero Cano, Victor
dc.contributor.authorCastañeda Cano, Jhonathan Stiven
dc.coverage.spatialUniversidad Autónoma de Occidente, Cll 25 # 115-85 Km 2 Vía Cali - Jamundi
dc.date.accessioned2022-12-01T18:04:33Z
dc.date.available2022-12-01T18:04:33Z
dc.date.issued2022-11-23
dc.identifier.urihttps://hdl.handle.net/10614/14455
dc.description.abstractEn este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores. El sistema se desarrolló de tal manera que puede ser implementado en un camión de una manera intuitiva por un conductor y cuenta con módulos de apoyo para la calibración de los sensores utilizados. Se implementaron módulos de visión computacional y detección de objetos usando redes neuronales artificiales, además, se implementó un sistema de detección redundante con el apoyo de sensores LiDAR; Con estos se genera una serie de alertas para el conductor que le permiten conocer cuando existen determinados objetos en los puntos ciegos del vehículo y cuándo alguno de estos se encuentra demasiado cerca del vehículo. Para la visualización de las alertas generadas por el sistema y para darle al conductor una herramienta de retroalimentación visual integra se implementó una interfaz de usuario que despliega una imagen virtual de vista de pájaro generada con los fotogramas de múltiples cámaras instaladas en el vehículo instrumentado, en la que además es posible visualizar la posición estimada de los objetos detectados alrededor del vehículo con respecto a su marco de referencia local.spa
dc.format.extent110 páginasspa
dc.format.mimetypeapplication/pdfeng
dc.language.isospaspa
dc.publisherUniversidad Autónoma de Occidentespa
dc.rightsDerechos reservados - Universidad Autónoma de Occidente, 2022spa
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/eng
dc.subjectIngeniería Mecatrónicaspa
dc.titleDesarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejesspa
dc.typeTrabajo de grado - Pregradospa
dc.description.notesProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2022spa
dc.publisher.programIngeniería Mecatrónicaspa
dcterms.audienceComunidad generalspa
dc.publisher.departmentDepartamento de Automática y Electrónicaspa
dc.subject.armarcRobóticaspa
dc.subject.armarcDetectores de vehículosspa
dc.subject.armarcRoboticseng
dc.subject.armarcVehicle detectorseng
dc.publisher.facultyFacultad de Ingenieríaspa
dc.description.degreelevelPregradospa
dc.description.degreenameIngeniero(a) Mecatrónico(a)spa
dc.identifier.instnameUniversidad Autónoma de Occidentespa
dc.identifier.reponameRepositorio Educativo Digitalspa
dc.identifier.repourlhttps://red.uao.edu.co/spa
dc.publisher.placeCalispa
dc.relation.citesCastañeda Cano, J. S. (2022). Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/14455spa
dc.relation.references[1] K. Van Beeck y T. Goedemé, “Fast and accurate pedestrian detection in a truck’s blind spot camera,” Pattern Recognition Applications and Methods, pp 179–195, 2014, DOI: https://doi.org/10.1007/978-3-319-25530-9_12.
dc.relation.references[2] “Transporte en cifras estadísticas 2018,” Ministerio de transporte de Colombia, anuario estadístico [En línea]. Disponible en: https://mintransporte.gov.co/documentos/15/estadisticas/.
dc.relation.references[3] “Caracterización del transporte terrestre automotor de carga en Colombia 2010- 2012,” Ministerio de transporte de Colombia, reporte estadístico [En línea]. Disponible en: https://www.mintransporte.gov.co/descargar.php?idFile=11450.
dc.relation.references[4] N. M. Torregroza, J. P. Bocarejo y J. P. Ramos, “Fatigue and crashes: The case of freight transport in Colombia,” Accident Analysis and Prevention, vol. 72, pp. 440- 448, noviembre de 2014, DOI: https://doi.org/10.1016/j.aap.2014.08.002.
dc.relation.references[5] Tesla Motors, (2022). “Future of Driving”. [En línea]. Disponible en: https://www.tesla.com/autopilot
dc.relation.references[6] A. Geiger, P. Lenz y R. Urtasun, "Are we ready for autonomous driving? The KITTI vision benchmark suite," IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354-3361, 2012, DOI: 10.1109/CVPR.2012.6248074.
dc.relation.references[7] A. Crissey, (2019, noviembre 1). “Volvo active driver assist 2.0”. [En línea]. Disponible: https://www.fleetequipmentmag.com/volvo-active-driver-assist-faq/.
dc.relation.references[8] Purdue University, (2020). “Purdue Innovating Solutions to Boost Fuel Efficiency, Safety for Heavy-Duty Trucks”. [En línea]. Disponible en: https://engineering.purdue.edu/Engr/Research/GilbrethFellowships/ResearchPropo sals/2019-20/truck-platooning-in-a-connected-and-autonomous-vehicleenvironment-
dc.relation.references[9] G. Liu, M. Zhou, L, Wang, H. Wang and X, Guo, “A blind spot detection and warning system based on millimeter wave radar for driver assistance,” Optik, vol. 135, pp. 353-365, 2017, DOI: https://doi.org/10.1016/j.ijleo.2017.01.058.
dc.relation.references[10] K, Choi y H. G. Jung, “Cut-in vehicle warning system exploiting multiple rotational images of SVM cameras,” Expert Systems With Applications, vol. 125, pp. 81-99, 2019, DOI: https://doi.org/10.1016/j.eswa.2019.01.081.
dc.relation.references[11] Z. Yang, Y. Zhao, X. Hu, Y. Yin, L. Zhou and D. Tao, “A flexible vehicle surround view camera system by central-around coordinate mapping model,” Multimedia Tools and Applications, vol. 79, pp. 11983-12006, 2019, DOI: https://doi.org/10.1007/s11042-018-6744-4.
dc.relation.references[12] T. Sato, A. Moro, A. Sugahara, T. Tasaki, A. Yamashita, and H. Asama, “SpatioTemporal Bird’s-eye View Images Using Multiple Fish-eye Cameras,” Proceedings of the IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013, DOI: 10.1109/SII.2013.6776674.
dc.relation.references[13] B. Zhang, V. Appia, I. Pekkucuksen, A. U. Batur, P. Shastry, S. Liu, S. Sivasankaran, and K. Chitnis, “A surround view camera solution for embedded systems,” IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 676-681, 2014, DOI: 10.1109/CVPRW.2014.103.
dc.relation.references[14] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p23.
dc.relation.references[15] A. M. Pinto Vargas y M. A. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Universidad Autónoma de Occidente, 2019. [En línea]. Disponible en: https://red.uao.edu.co/bitstream/handle/10614/10754/T08388.pdf;jsessionid=F55E7AC1FFF3356BB35AD24B260EEEA2?sequence=5
dc.relation.references[16] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p37
dc.relation.references[17] A. F. Moggio Bessolo, “Diseño de un Sistema de dirección de un vehículo de fórmula SAE,” Universidad de los Andes, 2016. [En línea]. Disponible en: https://repositorio.uniandes.edu.co/bitstream/handle/1992/17987/u729085.pdf?seq uenc
dc.relation.references[18] R, Siegwart, e I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p68
dc.relation.references[19] R. Siegwart, y I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p49
dc.relation.references[20] V. A Romero Cano,. Mathematical tools and reference frame transformations [diapositivas]. Universidad Autónoma de Occidente. 2020.
dc.relation.references[21] Karlsruhe Institute of Technology, (2022). “The KITTI Vision Benchmark Suite”. [En línea]. Disponible en: https://www.cvlibs.net/datasets/kitti/setup.php.
dc.relation.references[22] Velodyne Lidar, (2022). “What is lidar?”. [En línea]. Disponible en: https://velodynelidar.com/what-is-lidar/.
dc.relation.references[23] R. SZELISKI. Computer Vision algorithms and applications. 1 ed. London: Springer, 2011, p65
dc.relation.references[24] M. Gardill, (2020). “Automotive RADAR: a Signal Processing Perspective on Current Technology and Future Systems”. [En línea]. Disponible en: https://cloud.gardill.net/s/tjoSLSB7fXWTEBb#pdfviewer.
dc.relation.references[25] SAE International, (2019), “Levels of driving automation”. [En línea]. Disponible en: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-drivinggraphic
dc.relation.references[26] M. S, Nixon. y A. S, Aguado. Feature Extraction and Image Processing for Computer Vision. 3 ed. London: Elsevier, 2012, p491
dc.relation.references[27] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p324
dc.relation.references[28] “Basic concepts of the homography explained with code”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d9/dab/tutorial_homography.html.
dc.relation.references[29] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p364
dc.relation.references[30] M. Condon.. “The importance of ISO standards in photography”. 2022 . [En línea]. Disponible en: https://shotkit.com/iso-standards/
dc.relation.references[31] “Linux Media Infrastructure userspace API”. [En línea]. Disponible en: https://www.kernel.org/doc/html/v4.17/media/media_uapi.html.
dc.relation.references[32] A. Rosebrock, (2021). “OpenCV Histogram Equalization and Adaptive Histogram Equalization (CLAHE)”. [En línea]. Disponible en: https://pyimagesearch.com/2021/02/01/opencv-histogram-equalization-andadaptive-histogram-equalization-clahe/
dc.relation.references[33] “Histogram Equalization”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d5/daf/tutorial_py_histogram_equalization.html.
dc.relation.references[34] “How to process and show a lidar point-cloud, alongside with rectangular boxes on the detected objects?”. [En línea]. Disponible en: https://forums.developer.nvidia.com/t/how-to-process-and-show-a-lidar-point-cloudalongside-with-rectangular-boxes-on-the-detected-objects/192021
dc.relation.references[35] “Point Cloud Library”. [En línea]. Disponible en: https://pointclouds.org/
dc.relation.references[36] “K-means”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#k-means
dc.relation.references[37] “Gaussian Mixture”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/mixture.html#gmm
dc.relation.references[38] “DBSCAN”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#dbscan
dc.relation.references[39] S. Saha, (2018). “A Comprehensive Guide to Convolutional Neural Networks — the ELI5 way”. [En línea]. Disponible en: https://towardsdatascience.com/acomprehensive-guide-to-convolutional-neural-networks-the-eli5-way3bd2b1164a53
dc.relation.references[40] OpenCV, (2022). “OpenCV modules”. [En línea]. Disponible en: https://docs.opencv.org/4.6.0/
dc.relation.references[41] OpenCV, (2022). “Deep Neural Networks (dnn module)”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d2/d58/tutorial_table_of_content_dnn.html
dc.relation.references[42] “Training y Serving ML models with tf. keras”. [En línea]. Disponible en: https://blog.tensorflow.org/2018/08/training-and-serving-ml-models-with-tfkeras.html
dc.relation.references[43] “Open Neural Network Exchange: The open standard for machine learning interoperability”. [En línea]. Disponible en: https://onnx.ai/index.html
dc.relation.references[44] “NVIDIA TensorRT”. [En línea]. Disponible en: https://developer.nvidia.com/tensorrt
dc.relation.references[45] M. Harris, (2016). “Mixed-Precision Programming with CUDA 8”. [En línea]. Disponible en: https://developer.nvidia.com/blog/mixed-precision-programmingcuda-8/
dc.relation.references[46] “ROS - Robotic Operating system”. [En línea]. Disponible en: https://www.ros.org/
dc.relation.references[47] N. Paul y C. Chung, “Application of HDR algorithms to solve direct sunlight problems when autonomous vehicles using machine vision systems are driving into sun,” Computers in Industry, vol. 98, pp. 192-196, 2018, DOI: https://doi.org/10.1016/j.compind.2018.03.011
dc.relation.references[48] M. Hanmandlu, O. M. Verma, N. K. Kumar and M. Kulkarni, “A Novel Optimal Fuzzy System for Color Image Enhancement Using Bacterial Foraging”, IEEE Transactions on Instrumentation and Measurement, vol. 58. pp. 2867-2879, 2009, DOI: 10.1109/TIM.2009.2016371
dc.relation.references[49] “Dacia Sandero Stepway”. [En línea]. Disponible en: https://www.theblueprints.com/vectordrawings/show/2419/dacia_sandero_stepway/
dc.relation.references[50] A. Bochkovskiy, C. Wang and H. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection”, arXiv.org, 2020. [En línea]. Disponible en: https://arxiv.org/abs/2004.10934
dc.relation.references[51] A. Bochkovskiy, “Yolo v4, v3 and v2 for Windows and Linux”. 2020. [En línea]. Disponible en: https://github.com/kiyoshiiriemon/yolov4_dark
dc.relation.references[52] N. Wojke, A. Bewley and D. Paulus, "Simple online and realtime tracking with a deep association metric," 2017 IEEE International Conference on Image Processing (ICIP), 2017, pp. 3645-3649, DOI: 10.1109/ICIP.2017.8296962.
dc.relation.references[53] “RPLIDAR ROS package”. [En línea]. Disponible en: https://github.com/Slamtec/rplidar_ros
dc.relation.references[54] “Construction Equipment Visibility: NIOSH Manual Method”. [En línea]. Disponible en: https://www.cdc.gov/niosh/topics/highwayworkzones/BAD/manualmethod.html
dc.relation.references[55] S. J. Ray y J. Teizer, “Computing 3D blind spots of construction equipment: Implementation and evaluation of an automated measurement and visualization method utilizing range point cloud data,” Automation in Construction, vol. 36, pp. 95- 107, 2013, DOI: https://doi.org/10.1016/j.autcon.2013.08.007
dc.relation.references[56] S. Summerskill, R. Marshall, S. Cook, J. Lenard and J. Richardson, “The use of volumetric projections in Digital Human Modelling software for the identification of Large Goods Vehicle blind spots,” Applied Ergonomics, vol. 53, pp. 267-280, 2016, DOI: https://doi.org/10.1016/j.apergo.2015.10.013
dc.rights.accessrightsinfo:eu-repo/semantics/openAccesseng
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)spa
dc.subject.proposalPuntos ciegosspa
dc.subject.proposalDetecciónspa
dc.subject.proposalMonitoreospa
dc.subject.proposalCamiónspa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1feng
dc.type.contentTexteng
dc.type.driverinfo:eu-repo/semantics/bachelorThesiseng
dc.type.redcolhttps://purl.org/redcol/resource_type/TPeng
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2eng
oaire.versionhttp://purl.org/coar/version/c_ab4af688f83e57aaeng
dc.type.versioninfo:eu-repo/semantics/submittedVersioneng


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

Derechos reservados - Universidad Autónoma de Occidente, 2022
Except where otherwise noted, this item's license is described as Derechos reservados - Universidad Autónoma de Occidente, 2022