Mostrar el registro sencillo del ítem

dc.contributor.advisorLizondo, Diego
dc.creatorAndreozzi, Stella María
dc.creatorCeriana, Emanuel
dc.creatorNacchio, Gino Bernabé
dc.creatorOsatinsky, Agustin
dc.date.accessioned2023-03-17T13:39:30Z
dc.date.available2023-03-17T13:39:30Z
dc.date.issued2021-03-05
dc.identifier.urihttp://hdl.handle.net/20.500.12272/7634
dc.description.abstractNuestro proyecto consiste en la realización de una aplicación que permita mediante la utilización de técnicas de visión computacional y mecanismos de Inteligencia Artificial poder detectar situaciones de emergencia con armas de fuego en tiempo real y avisar a las autoridades pertinentes para una rápida resolución del incidente. Hoy en día los agentes de las fuerzas de seguridad son los encargados de observar los videos captados por las cámaras para poder prevenir y detectar situaciones de violencia. Según estudios realizados, el ser humano pierde entre el 50% y el 90% de su percepción visual luego de 20 minutos de supervisión continua, debido a la sobrecarga visual. Nuestro sistema será un aporte considerable para los agentes de seguridad en estos aspectos. El principal objetivo con este proyecto es contribuir a mejorar la seguridad de las personas que adquieran nuestro producto y a su vez colaborar con los agentes de seguridad a que puedan hacer frente de una manera más veloz y eficiente ante las distintas situaciones de emergencia que se puedan presentar. Además, transferir al entorno profesional el conocimiento aprendido en esta larga trayectoria.es_ES
dc.formatpdfes_ES
dc.language.isospaes_ES
dc.rightsopenAccesses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/*
dc.rights.uriAtribución-NoComercial-CompartirIgual 4.0 Internacional*
dc.subjectSistema de interpretación, armas, seguridad, innovación tecnológica, visión computacional, inteligencia artificial.es_ES
dc.titleSAURON: Sistema de interpretación de imágenes para la detección de armas.es_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.holderAttribution-NonCommercial-NoDerivatives 4.0 Internacionales_ES
dc.description.affiliationFil: Andreozzi, Stella María. Universidad Tecnológica Nacional. Facultad Regional Tucumán; Argentina.es_ES
dc.description.affiliationFil: Ceriana, Emanuel. Universidad Tecnológica Nacional. Facultad Regional Tucumán; Argentina.es_ES
dc.description.affiliationFil: Nacchio, Gino Bernabé. Universidad Tecnológica Nacional. Facultad Regional Tucumán; Argentina.es_ES
dc.description.affiliationFil: Osatinsky, Agustin. Universidad Tecnológica Nacional. Facultad Regional Tucumán; Argentina.es_ES
dc.type.versionacceptedVersiones_ES
dc.relation.referencesA. Bochkovskiy, C. W. (2020). YOLOv4: Optimal Speed and Accuracy of Object Detection. Corner University.es_ES
dc.relation.references¿Por qué Flask? (s.f.). Obtenido de https://codigofacilito.com/articulos/por-que-flaskes_ES
dc.relation.referencesAgile Framework for AI Projects. (s.f.). Obtenido de https://towardsdatascience.com/an-agileframework-for-ai-projects-6b5a1bb41ce4?gi=5cc3a95aaac6es_ES
dc.relation.referencesecured.cu. (s.f.). Obtenido de https://www.ecured.cu/Arquitectura_en_Capases_ES
dc.relation.referenceses.vuejs.org. (s.f.). Obtenido de https://es.vuejs.org/v2/guide/es_ES
dc.relation.referencesFrontEnd y BackEnd. (s.f.). Obtenido de programacionymas.com: https://programacionymas.com/frontend-vs-backendes_ES
dc.relation.referencesIntroduction to YOLO V4. (s.f.). Obtenido de https://medium.com/analytics-vidhya/introduction-toyolov4-object-detection-fcba8bb72449es_ES
dc.relation.referencesPMI. (s.f.). Dirección de Proyectos PMI. Obtenido de https://www.studocu.com/pe/document/universidad-tecnologica-del-peru/estadisticadescriptiva-y-probabilidades/informe/la-direccion-de-proyectos/9319779/viewes_ES
dc.relation.referencesSQLite. (s.f.). Obtenido de https://www.sqlite.org/about.htmles_ES
dc.rights.usehttp://creativecommons.org/licenses/by-nc-nd/4.0/es_ES
dc.relation.isreferencedbyG. Gkioxari, R. G. (2017). Detecting and Recognizing Human-Object Interactions. 1704.es_ES
dc.relation.isreferencedbyGirshick, R. (2015). Fast R-CNN. IEEE International Conference on Computer Vision (ICCV, 1440-1448. I., T. G. (2018). Global Mortality From Firearms. JAMA, 792-814.es_ES
dc.relation.isreferencedbyJ. Suss, F. V. (2015). Don’t Overlook the Human! Applying the Principlesof Cognitive Systems Engineering to the Design of Intelligent Video Surveillance Systems. IEEE International Conference on Advanced Video and Signal.es_ES
dc.relation.isreferencedbyK. He, G. G. (2017). Mask R-CNN. IEEE International Conference on Computer Vision (ICCV, 2980-2988.es_ES
dc.relation.isreferencedbySendGrid. (s.f.). SendGrid. Obtenido de https://app.sendgrid.com/login?redirect_to=%2Fes_ES
dc.relation.isreferencedbyT. Lin, P. D. (2017). Feature Pyramid Networks for Object Detection. IEEE Conference on Computer Vision and Pattern Recognition (CVPR, 936-944.es_ES
dc.relation.isreferencedbyW. Shi, J. C. (2016). "Edge Computing: Vision and Challenges,". IEEE Internet of Things Journal.es_ES


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

openAccess
Excepto si se señala otra cosa, la licencia del ítem se describe como openAccess