2. Maestría
Permanent URI for this communityhttp://98.81.228.127/handle/20.500.12404/2
Tesis de la Escuela de Posgrado
Browse
20 results
Search Results
Item Gestión de riesgos de seguridad de información, bajo el estándar ISO/IEC 27005:2022, aplicando ontologías de dominio(Pontificia Universidad Católica del Perú, 2024-10-07) Santos Llanos, Daniel Elías; Brossard Núñez, Ian Paul; Beltrán Castañón, César ArmandoEl proceso de gestión de riesgos, en el dominio específico de la seguridad de información, es una labor compleja pero necesaria para prevenir eventos adversos que perjudiquen a las organizaciones. Bien por obligaciones regulatorias o porque se requiere propiciar el logro de los objetivos estratégicos, la gestión de riesgos de seguridad de información (GRSI) se ha convertido en un proceso necesario y recurrente. El desarrollo de una GRSI se fundamenta en normas locales e internacionales que establecen protocolos, actividades y criterios, que establecen diversos conceptos que guardan relaciones complejas en sus términos y taxonomías. En consecuencia, se requieren especialistas experimentados para ejecutar este proceso de manera competente. Esto, a su vez, ocasiona que los resultados de este proceso estén intrínsecamente expuestos a la subjetividad e influencia de las personas que lo realizan. En esta tesis se propone e implementa un proceso de gestión de riesgos de seguridad de información, basado en una ontología de dominio, cuyo corpus está basado en los términos establecidos en los estándares ISO de seguridad de información, las normas técnicas peruanas afines y otras regulaciones internacionales relacionadas. Como resultado de la investigación aplicada se ha comprobado que es posible estructurar los conceptos y taxonomías sobre los dominios de gestión de riesgos y seguridad de la información, en una ontología integrada. Esta ha sido implementada, para guiar y automatizar, mediante una solución informática, la ejecución de una GRSI, de manera que se han mitigado la subjetividad y los errores de consistencia en los resultados de este proceso.Item Desarrollo de un algoritmo de Instance Placement en nubes privadas que soporte cargas de Alta Performance(Pontificia Universidad Católica del Perú, 2024-09-04) Córdova Alvarado, Rubén Francisco; Santiváñez Guarniz, César Augusto; Beltrán Castañón, César ArmandoEl aumento de la capacidad computacional ha permitido el uso cada vez mayor de métodos computacionales para resolver problemas complejos de diferentes áreas, logrando tal incremento en la eficiencia y productividad que se dice que hemos empezado una nueva revolución industrial (la era del conocimiento). En esta nueva era, el uso de aplicaciones de alta, High-Performance Computing en inglés (HPC), es cada vez más común. Una forma de utilizar de manera eficiente los recursos computacionales es desplegar estas aplicaciones sobre recursos compartidos (paradigma de computo en la nube, sea esta pública o privada) en lugar de asignarlos a servidores de manera exclusiva, lo que puede resultar en tiempos muertos en el uso de alguno o todos los recursos. El problema de decidir la mejor forma de compartir recursos asignados a servidores ya sea como máquinas virtuales (VMs), contenedores, o en modo dedicado (bare metal) es llamado el problema de Instance Placement, y es fundamental para la performance de una plataforma de computo en la nube. El subproblema que se presenta cuando ya se decidió una asignación via VMs es el de VM Placement. El problema de Instance Placement es actualmente un problema abierto debido a que la solución online requiere el conocimiento no sólo de las demandas actuales y sus parámetros, sino también de las demandas futuras. Como un primer acercamiento a una solución, esta tesis busca diseñar e implementar un algoritmo de Offline Instance Placement donde el conjunto de demandas, su inicio y duración, así como sus estadísticas de uso son conocidas. El algoritmo busca asignar –de la mejor manera posible– los recursos de cómputo a instancias en una nube privada, considerando el tipo de carga a la que estas pertenecen y su nivel de servicio. Debido a que OpenStack es una de las soluciones más empleadas para nubes privadas, se toma como referencia el scheduler de OpenStack para comparar la utilidad de el algoritmo propuesto. Luego de realizar las pruebas, se obtuvo que el scheduler propuesto presenta una mayor utilidad que el scheduler de OpenStack para distintos tipos de cargas.Item Clasificación automática de eventos en videos de fútbol utilizando redes convolucionales profundas(Pontificia Universidad Católica del Perú, 2024-06-21) Laboriano Galindo, Alipio; Beltrán Castañón, César ArmandoLa forma en que las nuevas generaciones consumen y experimentan el deporte especialmente el fútbol, ha generado oportunidades significativas en la difusión de contenidos deportivos en plataformas no tradicionales y en formatos más reducidos. Sin embargo, recuperar información con contenido semántico de eventos deportivos presentados en formato de video no es tarea sencilla y plantea diversos retos. En videos de partidos de fútbol entre otros retos tenemos: las posiciones de las cámaras de grabación, la superposición de eventos o jugadas y la ingente cantidad de fotogramas disponibles. Para generar resúmenes de calidad y que sean interesantes para el aficionado, en esta investigación se desarrolló un sistema basado en Redes Convolucionales Profundas para clasificar automáticamente eventos o jugadas que ocurren durante un partido de fútbol. Para ello se construyó una base de datos a partir de videos de fútbol descargados de SoccerNet, la cual contiene 1,959 videoclips de 5 eventos: saques de meta, tiros de esquina, faltas cometidas, tiros libres indirectos y remates al arco. Para la experimentación se utilizó técnicas de preprocesamiento de video, una arquitectura convolucional propia y se aplicó transfer learning con modelos como ResNet50, EfficientNetb0, Visión Transformers y Video Visión Transformers. El mejor resultado se obtuvo con una EfficentNetb0 modificada en su primera capa convolucional, con la cual se obtuvo un 91% accuracy, y una precisión de 100% para los saques de meta, 92% para los tiros de esquina, 90% para las faltas cometidas, 88% para los tiros libres indirectos y 89% para los remates al arco.Item Modelo de regresión para el pronóstico de la cantidad de denuncias por delitos que se registran en las Comisarías de la Policía Nacional de Perú en Lima Metropolitana(Pontificia Universidad Católica del Perú, 2023-08-31) Chipa Sierra, Roger; Beltrán Castañón, César ArmandoEn nuestro país, la cantidad promedio de denuncias por delitos de manera mensual en el año 2019 presenta 30,000 casos, lo cual se ha ido incrementando a lo largo de los años, por lo que es de crucial importancia generar estrategias de seguridad ciudadana que ayuden a mejorar el bienestar de la sociedad peruana, para ello es crucial tener información fiable y de calidad para la toma de decisiones; asimismo, tiene una Dirección de Tecnologías de la Información y Comunicación de la Policía (DIRTIC), la cual dentro de su estructura tiene a su cargo a la División de Estadística (DIVEST) y la División de Informática (DIVINFOR), las cuales tienen como función el control del Sistema de Denuncias Policiales en la cual el 80 % de las comisarías de la Policía Nacional del Perú se encuentran interconectadas y existe un 20 % que no se encuentran interconectadas, por lo cual el 20 % de comisarías no registra información en el Sistema de Denuncias Policiales, generando una incertidumbre para la toma de decisiones. Es por tal motivo que la División de Estadística (DIVEST) propone un modelo para el pronóstico de la cantidad de denuncias por delitos que se registran en las comisarías de la Policía Nacional de Perú en Lima Metropolitana, en base a la técnica de regresión RANDOM FOREST REGRESSOR Y ÁRBOL DE DECISIÓN DE REGRESIÓN, con la cual se podrá conocer cuál de las dos técnicas genera un mejor pronóstico en base a la información que proviene del SIDPOL y del INEI.Item Agrupamiento de textos basado en la generación de Embeddings(Pontificia Universidad Católica del Perú, 2022-08-19) Cachay Guivin, Anthony Wainer; Beltrán Castañón, César ArmandoActualmente, gracias a los avances tecnológicos, principalmente en el mundo de la informática se logra disponer de una gran cantidad de información, que en su mayoría son una composición de signos codificados a nivel computacional que forman una unidad de sentido, como son los textos. Debido a la variabilidad y alta volumetría de información navegable en internet hace que poder agrupar información veraz sea una tarea complicada. El avance computacional del lenguaje de procesamiento natural está creciendo cada día para solucionar estos problemas. El presente trabajo de investigación estudia la forma como se agrupan los textos con la generación de Embeddings. En particular, se centra en usar diferentes métodos para aplicar modelos supervisados y no supervisados para que se puedan obtener resultados eficientes al momento de toparse con tareas de agrupamiento automático. Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos supervisados se pudo determinar que el mejor Embedding es FastText implementado con Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y capa K-means.Item Modelos de detección de emociones en texto y rostros para agentes conversacionales multimodales(Pontificia Universidad Católica del Perú, 2022-04-06) Balbuena Galván, José Guillermo; Beltrán Castañón, César ArmandoEl presente trabajo de investigación aborda la implementación, análisis y selección de distintos modelos de redes neuronales recurrentes (RNN) y convolucionales (CNN) para la detección de emociones en texto y rostros; los cuales pueden ser utilizados como módulos adicionales en agentes conversacionales de tiempo real como son chatbots o robots sociales. Los módulos de detección permiten a los agentes conversacionales poder entender cómo se sienten las personas durante la interacción con ellas; conociendo estos estados los agentes conversacionales pueden responder empáticamente. En primer lugar, se revisará la literatura sobre como los agentes conversacionales buscan ser más empáticos, así como los métodos de detección de emociones mediante distintos canales como texto y rostros. Luego, se procede a recolectar y pre-procesar bases de datos públicas para el entrenamiento de los algoritmos seleccionados en base a la literatura. Finalmente, métricas tanto para la evaluación del rendimiento de predicción multiclase (Accuracy, Precision, Recall y F1), como la velocidad de procesamiento (ej. Framesper- second) son seleccionadas y analizadas para determinar cuáles son los mejores algoritmos para implementar una aplicación de tiempo real.Item Identificación automática de las fases del gesto de recepción en el vóley mediante análisis de videos usando redes neuronales convolucionales(Pontificia Universidad Católica del Perú, 2020-07-21) Garcia Sulca, Jose Gustavo; Beltrán Castañón, César ArmandoEl presente trabajo presenta un modelo algorítmico que permite la identificación automática a partir de videos de las fases temporales que ocurren durante la ejecución de la técnica de recepción en el vóley. En la etapa inicial se muestra la definición de dichas fases temporales a analizar, así como algunos trabajos relacionados al ámbito de reconocimiento de actividades en el área de ciencias de la computación. De igual manera, se presenta el marco teórico que contiene los conceptos necesarios para el desarrollo de este trabajo. Luego se procedió a definir dos módulos en los que se divide el modelo algorítmico: módulo de detección de jugador y módulo de clasificación de fases. En cada uno de estos módulos se detalla las arquitecturas de los modelos a utilizar así como el pre-procesamiento de los datos y el respectivo método de entrenamiento. Finalmente, se muestra lo obtenido tras la implementación de los módulos detallados anteriormente. Para ello se realizó adicionalmente la recolección de una base de datos de videos con su respectivo etiquetado, la cual fue desarrollada para la presente tesis como parte del proyecto “Caracterización biomecánica del gesto técnico de recepción en el voleibol puesta al servicio del entrenamiento deportivo mediante el desarrollo de un aplicativo móvil integrado a un sistema de captura de movimiento low-cost”, el cual viene siendo desarrollado por el Grupo de Investigación en Robótica Aplicada y Biomecánica. Con ello, se muestran los resultados obtenidos al realizar el entrenamiento de los módulos con esta base de datos. Estos muestran que el modelo implementado consigue identificar correctamente la fase temporal a nivel de frames con una precisión de 92.19%. Además a ello, en los casos donde ocurre un error en la identificación, la fase identificada por el modelo es una contigua a la real, mostrando que el modelo pudo captar la esencia temporal de las fases.Item Application on semantic segmentation with few labels in the detection of water bodies from PERUSAT-1 satellite's images(Pontificia Universidad Católica del Perú, 2020-07-02) Gonzalez Villarreal, Jessenia Margareth Marina; Beltrán Castañón, César ArmandoRemote sensing is widely used to monitor earth surfaces with the main objective of extracting information from it. Such is the case of water surface, which is one of the most affected extensions when flood events occur, and its monitoring helps in the analysis of detecting such affected areas, considering that adequately defining water surfaces is one of the biggest problems that Peruvian authorities are concerned with. In this regard, semi automatic mapping methods improve this monitoring, but this process remains a time-consuming task and into the subjectivity of the experts. In this work, we present a new approach for segmenting water surfaces from satellite images based on the application of convolutional neural networks. First, we explore the application of a U-Net model and then a transfer knowledge-based model. Our results show that both approaches are comparable when trained using an 680-labelled satellite image dataset; however, as the number of training samples is reduced, the performance of the transfer knowledge-based model, which combines high and very high image resolution characteristics, is improvedItem Desarrollo de un aplicativo movil para la extracción automática de información del documento de indentificación mediante visión computacional(Pontificia Universidad Católica del Perú, 2020-07-02) Carrillo Fuertes, Tomas Ivan; Beltrán Castañón, César ArmandoLos seres humanos han tenido varias formas de identificar individuos y grupos, pero los orígenes del sistema de identificación nacional contemporáneo se remontan a 1938, cuando los legisladores en el Reino Unido aprobaron la Ley de Registro Nacional, que exigía que todos los residentes posean tarjetas de identidad. Posteriormente, Alemania, Francia, Polonia, Grecia, entre otros, también instituyeron sistemas de tarjeta de identidad (ID) después del final de la Segunda Guerra Mundial. En Perú, el Documento Nacional de Identidad (DNI) constituye la única cédula de identidad personal reconocida por el Estado para todos los actos civiles, comerciales, administrativos, judiciales y, en general, para todos aquellos casos en que, por mandato legal, deba ser presentado. Su emisión se encuentra a cargo del Registro Nacional de Identificación y Estado Civil - RENIEC. Así, la presentación del DNI implica sobre todo verificar la información que se encuentra en ella, para certificar que pertenece al portador. Para empresas como de seguros, bancos, clínicas, entre otros; es importante realizar esta tarea de verificación de forma rápida y precisa, pero por lo general esta tarea es realizada de forma manual mediante el uso de la aplicación que facilita la RENIEC, pero la cual requiere una autorización además que posee un costo por consulta1. También existen diversos aplicativos OCR para leer información de las personas a partir de tarjetas de presentación, pasaporte y documentos de identidad, sin embargo, estas herramientas son tecnologías cerradas y propietarias, cuyos costos se hacen elevados en el tiempo. Por ello, el presente trabajo busca desarrollar un modelo algorítmico que permita extraer la información de una persona a partir de la imagen de su DNI electrónico. Para conseguir este objetivo, el aplicativo utiliza algoritmos de procesamiento de imagen para identificar los datos de la persona en el DNI, luego separa cada dato de la persona en palabras y por último cada palabra en letras. Cada imagen que contiene una letra será clasificada por un modelo para identificar que letra es. En este trabajo para la clasificación de letras se probó los modelos de Adaboost, basado en árboles de decisiones y YOLO (v3 tiny), que es una arquitectura neuronal inspirada en GoogLeNet. Tomando una muestra de 17 DNI electrónicos se obtuvo como resultado el 87% de letras correctamente detectadas con Adaboost y 98% con YOLO. En base a este resultado se concluye que los modelos Adaboost y YOLO pueden mejorar la extracción de la información de una persona a partir de la imagen de su DNI electrónico.Item A generative adversarial network approach for super resolution of sentinel-2 satellite images(Pontificia Universidad Católica del Perú, 2020-03-17) Pineda Ancco, Ferdinand Edgardo; Beltrán Castañón, César ArmandoRecently, satellites in operation offering very high-resolution (VHR) images has experienced an important increase, but they remain as a smaller proportion against existing lower resolution (HR) satellites. Our work proposes an alternative to improve the spatial resolution of HR images obtained by Sentinel-2 satellite by using the VHR images from PeruSat1, a Peruvian satellite, which serve as the reference for the superresolution approach implementation based on a Generative Adversarial Network (GAN) model, as an alternative for obtaining VHR images. The VHR PeruSat-1 image dataset is used for the training process of the network. The results obtained were analyzed considering the Peak Signal to Noise Ratios (PSNR), the Structural Similarity (SSIM) and the Erreur Relative Globale Adimensionnelle de Synth`ese (ERGAS). Finally, some visual outcomes, over a given testing dataset, are presented so the performance of the model could be analyzed as well.