Show simple item record

dc.contributor.advisorPaniagua Jaramillo, Jose Luis
dc.contributor.authorTorres Revelo, Isabella
dc.coverage.spatialUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.date.accessioned2020-12-18T19:13:48Z
dc.date.available2020-12-18T19:13:48Z
dc.date.issued2020-11-30
dc.identifier.urihttp://red.uao.edu.co//handle/10614/12751
dc.description.abstractEn este documento se presenta el desarrollo de una red neuronal convolucional profunda para la clasificación de imágenes de retina con retinopatía diabética y la implementación de mapas de activaciones de clase ponderados por gradientes (Grad-CAM) a los resultados obtenidos por el modelo. El modelo fue entrenado con un conjunto de imágenes de retina (aproximadamente 88.000) de alta resolución tomadas bajo diferentes condiciones de captura. Las imágenes fueron sometidas a un preprocesamiento con el objetivo de homogeneizar su tamaño y color. Además, fueron etiquetadas por expertos médicos con los cinco niveles de severidad de la enfermedad. El desempeño de la red neuronal fue evaluado por medio del cálculo de métricas estadísticas obtenidas de la matriz de confusión y con la métrica Kappa. Con esta última se obtuvo un porcentaje de acuerdo de 77% para los datos de prueba entre la clasificación dada por el modelo y la de los expertos médicos. También, con la matriz de confusión se identificaron los errores de tipo I y II cometidos por la red neuronal. Grad-CAM es una técnica de explicación que aporta información sobre las representaciones internas de los modelos de aprendizaje profundo. La aplicación de esta técnica en las imágenes de la retina resaltó regiones donde se encuentran lesiones características de la enfermedad con un mapa de calor. Estos resultados permitieron conocer los patrones y características que la red neuronal aprendió a reconocer y se comprendieron las razones por las cuales la red neuronal clasifica una imagen en un nivel de severidad determinado. Así mismo, facilitó el reconocimiento de falsos positivos y negativos en los resultados de la clasificación permitiendo que se desarrollen alternativas y mejoras al modelo de red neuronal para aumentar su desempeño y su capacidad de reconocimientospa
dc.description.abstractIn this document is presented the development of a deep convolutional neural network for the classification of retinal images with diabetic retinopathy and the implementation of gradient-weighted class activation maps (Grad-CAM) to the results obtained by the model. The model was trained with a set of high-resolution retinal images (approximately 88,000) taken under different capture conditions. The images were subjected to pre-processing in order to homogenize their size and color. In addition, they were labeled by medical experts with the five levels of disease severity. The performance of the neural network was evaluated by calculating statistical metrics obtained from the confusion matrix and with Kappa metrics. With the latter, a percentage agreement of 77% was obtained for the test data between the classification given by the model and that of the medical experts. Also, with the confusion matrix, errors of type I and II committed by the neuronal network were identified. Grad-CAM is an explanation technique that provides information about the internal representations of the deep learning models. The application of this technique in retinal images highlighted regions where characteristic lesions of the disease are found with a heat map. These results made it possible to know the patterns and characteristics that the neuronal network learned to recognize and to understand the reasons why the neuronal network classifies an image at a given level of severity. It also facilitated the recognition of false positives and negatives in the classification results allowing alternatives and improvements to the neural network model to increase its performance and recognition capacity.eng
dc.formatapplication/pdfeng
dc.format.extent102 páginasspa
dc.language.isospaspa
dc.publisherUniversidad Autónoma de Occidentespa
dc.rightsDerechos Reservados - Universidad Autónoma de Occidentespa
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/eng
dc.sourceinstname:Universidad Autónoma de Occidentespa
dc.sourcereponame:Repositorio Institucional UAOspa
dc.subjectIngeniería Biomédicaspa
dc.subjectRetinopatía diabéticaspa
dc.subjectDeep learningeng
dc.subjectRedes neuronales convolucionalesspa
dc.subjectInterpretabilidadspa
dc.subjectTécnicas de explicaciónspa
dc.subjectGrad-CAMspa
dc.subjectMapas de activación de clasespa
dc.titleInterpretabilidad de un modelo basado en aprendizaje profundo para el diagnóstico de retinopatía diabéticaspa
dc.typeTrabajo de grado - Pregradospa
dc.description.notesProyecto de grado (Ingeniero Biomédico)-- Universidad Autónoma de Occidente, 2020spa
dc.publisher.programIngeniería Biomédicaspa
dc.creator.degreeIngeniero Biomédicospa
dc.publisher.departmentDepartamento de Automática y Electrónicaspa
dc.subject.armarcRedes neurales (Computadores)spa
dc.subject.armarcImágenes diagnósticas-Técnicas digitalesspa
dc.subject.armarcArtificial intelligenceeng
dc.subject.armarcNeural networks (Computer science)eng
dc.subject.armarcDiagnostic imaging-Digital techniqueseng
dc.publisher.facultyFacultad de Ingenieríaspa
dc.description.degreelevelPregradospa
dc.description.degreenameIngeniero(a) Biomédico(a)spa
dc.relation.referencesACEVEDO Eder; SERNA Alexei y SERNA Edgar. Principios y características de las redes neuronales artificiales. En: Desarrollo e Innovación en Ingeniería [en línea]. 2 ed. Medellín – Antioquia: Editorial IAI, 2017. 173 p. ISBN: 978-958-59127-5-5. [Consultado: 27 de julio de 2020]. Disponible en: https://www.researchgate.net/publication/331498946_Principios_y_caracteristicas_de_las_redes_neuronales_artificialesspa
dc.relation.referencesALISEDA, D. y BERÁSTEGUI, L. Retinopatía diabética [en línea]. En: Anales del Sistema Sanitario de Navarra - Scielo. 2008, vol. 31, suppl. 3, p. 23-34. [Consultado: 16 de julio de 2019]. Disponible en Internet: http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S1137-66272008000600003&lng=es&tlng=esspa
dc.relation.referencesÁLVAREZ TRIVIÑO, María Camila. Deep Learning Aplicado a Imágenes de Retina como Herramienta de Tamizaje en un Proceso de Diagnóstico Médico [en línea]. Trabajo de investigación Ingeniera Mecatrónica. Santiago de Cali. Universidad Autónoma de Occidente. Facultad de Ingeniería. Departamento de Automática y Electrónica, 2016. [Consultado: 10 de julio de 2019]. Disponible en Internet: Repositorio Educativo Digital UAO. http://red.uao.edu.co/handle/10614/9568spa
dc.relation.referencesÁLVAREZ TRIVIÑO, María Camila et. al. Deep Learning on Retina Images as Screening Tool for Diagnostic Decision Support [en línea]. En: Computer Science. Computer Vision and Pattern Recognition. Julio de 2016. [Consultado: 22 de julio de 2019]. Disponible en Internet: https://arxiv.org/ftp/arxiv/papers/1807/1807.09232.pdfspa
dc.relation.referencesAMAT, Joaquín. Árboles de predicción: random forest, gradient boosting y C5.0 [blog]. Ciencia de datos. Febrero de 2017. [Consultado: 4 de agosto de 2020]. Disponible en: https://www.cienciadedatos.net/documentos/33_arboles_de_prediccion_bagging_random_forest_boosting#Baggingspa
dc.relation.referencesAMAT, Joaquín. Máquinas de Vector Soporte (Support Vector Machines, SVMs) [blog]. Ciencia de datos. Abril de 2017. [Consultado: 03 de agosto de 2020]. Disponible en: https://www.cienciadedatos.net/documentos/34_maquinas_de_vector_soporte_support_vector_machines#coste_computacional_de_svmspa
dc.relation.referencesARELI-TORAL BARRERA, Jamie. Redes Neuronales. Universidad de Guadalajara. [Consultado: 27 de julio de 2020]. Disponible en: http://www.cucei.udg.mx/sites/default/files/pdf/toral_barrera_jamie_areli.pdfspa
dc.relation.referencesBELL, Jason. Machine Learning: Hands-On for Developers and Technical Professionals [en línea]. John Wiley & Sons, 2014. [Consultado: 25 de julio de 2019]. Disponible en Internet: https://doc.lagout.org/science/Artificial%20Intelligence/Machine%20learning/Machine%20Learning%20Hands-On%20for%20Developers%20and%20Technical%20Professionals%20%5BBell%202014-11-03%5D.pdfspa
dc.relation.referencesBERGSTRA, James et.al. Theano: A CPU and GPU Math Compiler in Python. En: Proceedings of the 9th Python in Science Conference (SCIPY), 2010. [Consultado: 5 de agosto de 2020]. Disponible en: http://www.iro.umontreal.ca/~lisa/pointeurs/theano_scipy2010.pdf BISO, Nick. Keras Class Activation Map [blog]. Github. 9 de febrero de 2018. [Consultado: 29 de julio de 2020]. Disponible en: https://github.com/nickbiso/Keras-Class-Activation-Mapspa
dc.relation.referencesBOYD, Kierstan. ¿Qué es la retinopatía diabética? [en línea]. American Academy of Ophthalmology. (4 de diciembre de 2018), párr. 1. [Consultado: 18 de julio de 2019]. Disponible en Internet: https://www.aao.org/salud-ocular/enfermedades/retinopatia-diabeticaspa
dc.relation.referencesBROWNLEE, Jason. A Gentle Introduction to Pooling Layers for Convolutional Neural Networks [blog]. Machine Learning Mastery. 22 de abril de 2019. [Consultado: 4 de agosto de 2020]. Disponible en: https://machinelearningmastery.com/pooling-layers-for-convolutional-neural-networks/spa
dc.relation.referencesCALVO, Diego. Función de activación – Redes neuronales [en línea]. Diego Calvo. (7 de diciembre de 2018). [Consultado: 1 de agosto de 2019]. Disponible en Internet: http://www.diegocalvo.es/funcion-de-activacion-redes-neuronales/spa
dc.relation.referencesCOHEN, Jacob. Weighed kappa: Nominal scale agreement with provision for scaled disagreement or partial credit. En: Psychological Bulletin. Octubre, 1968, vol. 70, no. 4, p. 213–220.spa
dc.relation.referencesDANDY, John. Bug: inconsistency for the BatchNormalization layer between Tensorflow, CNTK and Theano backends [blog]. GitHub. [Consultado: 3 de noviembre de 2020]. Disponible en: https://github.com/keras-team/keras/issues/12957spa
dc.relation.referencesDESPRAZ, Jérémie et. al. Exploring Internal Representations of Deep Neural Networks [en línea]. En: International Joint Conference on Computational Intelligence. Noviembre de 2017, vol. 829. p. 119-138. Springer, Cham. [Consultado: 8 de julio de 2019]. doi: https://doi.org/10.1007/978-3-030-16469-0_7spa
dc.relation.referencesERROZ, ARROYO, David. Visualizando neuronas en Redes Neuronales Convolucionales [en línea]. Trabajo de investigación Ingeniera Informática. Pamplona. Universidad Pública de Navarra, 2019. [Consultado: 29 de julio de 2020]. Disponible en Internet: https://academica-e.unavarra.es/bitstream/handle/2454/33694/memoria_TFG.pdf?sequence=1&isAllowed=yspa
dc.relation.referencesFALBEL, Daniel et. al. Keras Backend. [en línea]. [Consultado: 9 de julio de 2020]. Disponible en internet: https://keras.rstudio.com/articles/backend.htmlspa
dc.relation.referencesFERNÁNDEZ, PRADA María, LLANOS-MÉNDEZ Aurora y GÓMEZ Rebeca Isabel. Eficacia del diagnóstico asistido por ordenador aplicado al cribado de cáncer de mama [en línea]. Sevilla: Agencia de Evaluación de Tecnologías Sanitarias de Andalucía. 2013, p. 21. [Consultado: 18 de julio de20 19]. Disponible en Internet: https://www.aetsa.org/download/publicaciones/antiguas/AETSA_2013_4_Diag_Asist.pdfspa
dc.relation.referencesFLORES D. et al. Prediciendo la Actividad Cardíaca de la Almeja Tivela stultorum con Digoxina utilizando redes neuronales artificiales. En: Revista Mexicana de Ingeniería Biomédica. 2017, vol. 38, nro. 1, p. 208-216. [Consultado: 27 de julio de 2020]. Disponible en: http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0188-95322017000100208#aff1spa
dc.relation.referencesFLOREZ-LOPEZ, Raquel y FÉRNANDEZ FÉRNANDEZ José. Las redes neuronales artificiales: fundamentos teóricos y aplicaciones prácticas [en línea]. 1 ed. España: Oleiros (La Coruña): Netbiblo, 2008. [Consultado: 28 de julio de 2020]. Disponible en: https://www.worldcat.org/title/redes-neuronales-artificiales-fundamentos-teoricos-y-aplicaciones-practicas/oclc/433872848 ISBN: 978-84-9745-246-5spa
dc.relation.referencesGONDAL, WALEED et al. Weakly-supervised localization of diabetic retinopathy lesions in retinal fundus images [en línea]. En: 2017 IEEE International Conference on Image Processing (ICIP). Septiembre de 2017, p. 2069-2073. [Consultado: 10 de julio de 2019]. doi: 10.1109/ICIP.2017.8296646spa
dc.relation.referencesGOODFELLOW, Ian, BENGIO, Yoshua y COURVILLE, Aaron. Deep Learning [en línea]. MIT Press, 2016. [Consultado: 26 de julio de 2019]. Capítulo 9, Convolutional Networks. p. 326 - 366. Disponible en: http://www.deeplearningbook.org/spa
dc.relation.referencesGULSHAN, V., PENG, L., CORAM, M. et. al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs [en línea]. En: Innovations in Health Care Delivery - Jama. Diciembre, 2016, vol. 316, no. 22, p. 2402-2410. [Consultado: 16 de julio de 2019]. Disponible en Internet: https://jamanetwork.com/journals/jama/fullarticle/2588763spa
dc.relation.referencesH5PY. HDF5 for Python [sitio web]. Andrew Collette. 2014. [Consultado: 25 de junio de 2020]. Disponible en: https://docs.h5py.org/en/stable/index.html#spa
dc.relation.referencesIOFFE, Sergey, SZEGEDY Christian. Batch normalization: Accelerating deep network training by reducing internal covariate shift. En: 32nd International Conference on Machine Learning, ICML 2015, 1, 448-456. [Consultado: 14 de julio de 2020]. Disponible en: http://arxiv.org/abs/1502.03167spa
dc.relation.referencesISLAM, Johirul Md et. al. A Comprehensive Study on Deep Learning Bug Characteristics. En: The ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering (ESEC/FSE) [en línea]. Tallinn, Estonia: Junio, 2019. [Consultado: 3 de noviembre de 2020]. Disponible en: https://arxiv.org/pdf/1906.01388.pdfspa
dc.relation.referencesJIA Xi et al. Skin Lesion Classification using Class Activation Map [en línea]. Marzo, 2017. [Consultado: 29 de julio de 2019]. Disponible en Internet: https://arxiv.org/ftp/arxiv/papers/1703/1703.01053.pdfspa
dc.relation.referencesLARRANAGA Pedro; INZA Iñaki y MOUJAHID Abdelmalik. Tema 8. Redes Neuronales. Universidad del País Vasco. Departamento de Ciencias de la Computación e Inteligencia Artificial, 2015. [Consultado: 27 de julio de 2020]. Disponible en: http://www.sc.ehu.es/ccwbayes/docencia/mmcc/docs/t8neuronales.pdfspa
dc.relation.referencesLIMA GÓMEZ Virgilio. Retinopatía diabética simplificada: la escala clínica internacional [en línea]. En: Revista del Hospital Juárez de México. 2006, vol. 73, no. 4, p. 170-174. [Consultado: 17 de julio de 2019] Disponible en Internet: http://www.medigraphic.com/pdfs/juarez/ju-2006/ju064k.pdfspa
dc.relation.referencesLISA LAB, Universidad de Montreal Theano Documentation.spa
dc.relation.referencesLÓPEZ GÁLVEZ, MI. Escala internacional de severidad de la retinopatía y del edema macular diabético [en línea]. En: Archivos de la Sociedad Española de Oftalmología – Scielo. Abril 2004, vol. 79, no. 4, p. 149-150. [Consultado: 17 de julio de 2019]. Disponible en Internet: http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S0365-66912004000400001&lng=es&tlng=es.spa
dc.relation.referencesLUCAS, Benjamin. Bug: Batch Normalization Initializer not used [blog]. GitHub. [Consultado: 3 de noviembre de 2020]. Disponible en: https://github.com/keras-team/keras/issues/13214spa
dc.relation.referencesMARTINEZ HERAS, José. Regularización Lasso L1, Ridge L2 y ElasticNet [blog]. IArtificial.net. [Consultado: 5 de agosto de 2020]. Disponible en: https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdfspa
dc.relation.referencesMAYO FOUNDATION FOR MEDICAL EDUCATION AND RESEARCH. Retinopatía diabética [en línea]. Mayo Clinic. (20 de noviembre de 2018). [Consultado: 17 de julio de 2019]. Disponible en Internet: https://www.mayoclinic.org/es-es/diseases-conditions/diabetic-retinopathy/diagnosis-treatment/drc-20371617spa
dc.relation.referencesMOHAMMED Mohssen, KHAN, M. B. y BASHIER, E. B. M. Machine Learning: Algorithms and Applications [en línea]. Boca Raton: CRC Press 2016. [Consultado: 25 de julio de 2019]. Disponible en Internet: https://www.researchgate.net/publication/303806260_Machine_Learning_Algorithms_and_Applicationsspa
dc.relation.referencesNGIAM Jiquan et. al. Convolutional Neural Network [en línea]. Unsupervised Feature Learning and Deep Learning Tutorial. Stanford University. [Consultado: 26 de julio de 2019]. Disponible en Internet: http://ufldl.stanford.edu/tutorial/supervised/ConvolutionalNeuralNetwork/spa
dc.relation.referencesORGANIZACIÓN MUNDIAL DE SALUD. Ceguera y discapacidad visual [en línea]. (11 de octubre de 2018). [Consultado: 18 de julio de 2019]. Disponible en Internet: https://www.who.int/es/news-room/fact-sheets/detail/blindness-and-visual-impairmentspa
dc.relation.referencesPARADZHANYAN, Levon. Demystifying Deep Learning and Artificial Intelligence [blog]. The New Stack. 8 de mayo de 2020. [Consultado: 17 de noviembre de 2020]. Disponible en: https://thenewstack.io/demystifying-deep-learning-and-artificial-intelligence/spa
dc.relation.referencesPATEL, Savan. Machine Learning 101. Chapter 2. SVM (Support Vector Machine) – Theory [blog]. Medium. 03 de mayo de 2017. [Consultado: 03 de agosto de 2020]. Disponible en: https://medium.com/machine-learning-101/chapter-2-svm-support-vector-machine-theory-f0812effc72spa
dc.relation.referencesPEÑA-REYES, Carlos Andrés. Rule and knowledge extraction from deep neural networks [video]. En: 5th Valais/Wallis AI Workshop. Idiap, Research Institute. [Consultado: 8 de julio de 2019]. 57:55 minutos. Disponible en Internet: https://www.idiap.ch/en/allnews/deep-neural-networks-remain-for-the-most-part-black-boxesspa
dc.relation.referencesPICAZO MONTOYA, Óscar. Redes Neuronales Convolucionales Profundas para el Reconocimiento de Emociones en Imágenes [en línea]. Máster Universitario en Inteligencia Artificial. Madrid: Escuela Técnica Superior de Ingenieros Informáticos. Universidad Politécnica de Madrid. 2018. [Consultado: 4 de agosto de 2020]. Disponible en: http://oa.upm.es/51441/1/TFM_OSCAR_PICAZO_MONTOYA.pdfspa
dc.relation.referencesPITA FERNÁNDEZ, S y PÉRTEGAS DÍAZ, S. Pruebas diagnósticas: Sensibilidad y especificidad. En: Cad Aten Primaria. España: 2003, vol. 10, p.120-124. [Consultado: 30 de octubre de 2020]. Disponible en: https://www.fisterra.com/mbe/investiga/pruebas_diagnosticas/pruebas_diagnosticas.aspspa
dc.relation.referencesRIVAS ASANZA Wilmer; MAZÓN OLIVO Bertha y PEÑAFIEL MEJÍA Edwin. Generalidades de las redes neuronales artificiales. En: Redes neuronales artificiales aplicadas al reconocimiento de patrones [en línea]. Machala-Ecuador: Editorial UTMACH, 2018, p. 19-21. ISBN: 978-9942-24-100-9. [Consultado: 28 de julio de 2020]. Disponible en: https://www.researchgate.net/publication/327703478_Capitulo_1_Generalidades_de_las_redes_neuronales_artificialesspa
dc.relation.referencesSANSEVIERO, Omar. Introducción a Tensorflow (Parte 1) [blog]. Medium. 11 de marzo de 2019. [Consultado: 5 de agosto de 2020]. Disponible en: https://medium.com/ai-learners/introducci%C3%B3n-a-tensorflow-parte-1-840c01881658spa
dc.relation.referencesSCHMIDHUBER Jürgen. Deep learning in neural networks: An overview [en línea]. En: Neural networks. Enero de 2015, vol. 61. p. 85-117. Elsevier. [Consultado: 8 de julio de 2019]. doi: https://doi.org/10.1016/j.neunet.2014.09.003spa
dc.relation.referencesSELVARAJU Ramprasaath et. al. Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization. En: International Journal of Computer VIsion (IJCV). Octubre, 2019. p. 336-359 [Consultado: 30 de julio de 2020]. Disponible en Internet: https://arxiv.org/abs/1610.02391spa
dc.relation.referencesSHARMA Abhishek. What Are Saliency Maps in Deep Learning? [en línea]. En: Analytics India Magazine. Julio, 2018. [Consultado: 31 de julio de 2019]. Disponible en Internet: https://www.analyticsindiamag.com/what-are-saliency-maps-in-deep-learning/spa
dc.relation.referencesSIMONYAN Karen; VEDALDI Andrea y ZIZZERMAN Andrew. Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps [imagen]. [Consultado: 29 de julio de 2020]. Disponible en: https://arxiv.org/pdf/1312.6034.pdfspa
dc.relation.referencesSINGHAL Deepak y SWARUP Shanti. Electricity price forecasting using artificial neural networks. En: International Journal of Electrical Power & Energy Systems. 2011, vol. 33, nro. 3, p. 550-555. [Consultado: 27 de julio de 2020]. DOI https://doi.org/10.1016/j.ijepes.2010.12.009. ISSN 0142-0615.spa
dc.relation.referencesSORIA Emilio y BLANCO Antonio. Redes neuronales artificiales. En: Autores científico-técnicos y académicos, 2007. p. 25-33. [Consultado: 28 de julio de 2020]. Disponible en: https://www.acta.es/medios/articulos/informatica_y_computacion/019023.pdfspa
dc.relation.referencesSRIVASTAVA, Nitish et.al. Dropout: A simple Way to Prevent Neural Networks from Overfitting. En: Journal of Machine Learning Research. 2014, vol. 15, p. 1929-1958. [Consultado: 5 de agosto de 2020]. Disponible en: https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdfspa
dc.relation.referencesTABLADA Claudio y TORRES Germán. Redes Neuronales Artificiales. En: Revista de Educación Matemática. Octubre 13 de 2009, vol. 24, nro. 3. [Consultado: 27 de julio de 2020]. Disponible en: https://revistas.unc.edu.ar/index.php/REM/article/view/10280/10979spa
dc.relation.referencesVALVERDE Juan Miguel. Introduction to Activation Maximization and Implementation in Tensorflow [en línea]. Lipman’s Artificial Intelligence Directory. (18 de junio de 2018). [Consultado: 29 de julio de 2019]. Disponible en Internet: http://laid.delanover.com/introduction-to-activation-maximization-and-implementation-in-tensorflow/spa
dc.relation.referencesWERNICK Miles et. al. Machine Learning in Medical Imaging [en línea]. En: IEEE signal processing magazine. Julio, 2010, vol. 27, no. 4, p. 25 – 38. [Consultado: 25 de julio de 2019]. Disponible en Internet: https://ieeexplore.ieee.org/abstract/document/5484160spa
dc.relation.referencesYIU, Tony. Understanding Random Forest [blog]. Towards Data Science. 12 de junio de 2019. [Consultado: 4 de agosto de 2020]. Disponible en: https://towardsdatascience.com/understanding-random-forest-58381e0602d2#:~:text=The%20random%20forest%20is%20a,that%20of%20any%20individual%20tree.spa
dc.relation.referencesZHOU B., KHOSLA, A., LAPEDRIZA, A., OLIVA, A., TORRALBA, A. Learning Deep Features for Discriminative Localization [en línea]. En: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Diciembre, 2015. p.2921–2929. [Consultado: 29 de julio de 2019]. Disponible en Internet:http://cnnlocalization.csail.mit.edu/Zhou_Learning_Deep_Features_CVPR_2016_paper.pdfspa
dc.rights.accessrightsinfo:eu-repo/semantics/openAccesseng
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)spa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1feng
dc.type.contentTexteng
dc.type.driverinfo:eu-repo/semantics/bachelorThesiseng
dc.type.redcolhttps://purl.org/redcol/resource_type/TPeng
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2eng
oaire.versionhttp://purl.org/coar/version/c_970fb48d4fbd8a85eng
dc.type.versioninfo:eu-repo/semantics/publishedVersioneng


Files in this item

Thumbnail
Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

Derechos Reservados - Universidad Autónoma de Occidente
Except where otherwise noted, this item's license is described as Derechos Reservados - Universidad Autónoma de Occidente