Informática con mención en Ciencias de la Computación

Permanent URI for this collectionhttp://98.81.228.127/handle/20.500.12404/6357

Browse

Search Results

Now showing 1 - 10 of 29
  • Thumbnail Image
    Item
    Support system for decision making in the phenotypic Evaluation of brown swiss cattle using image processing and augmented reality
    (Pontificia Universidad Católica del Perú, 2019-11-27) Apumayta Lopez, Julianna Milagros; Alatrista Salas, Hugo; Nuñez del Prado, Miguel
    To certify the information coming from the registered animals of different breeds and to guarantee their racial purity and contribute to the genetic improvement, we propose the development of a model based on augmented reality and support decision making for identification and automatic classification of Brown Swiss cattle. TensorFlow Object Detection API was used to detect the cow in real time. The learning transfer approach was used for training, and MobilNet pre-trained architecture was selected. MobilNet is an efficient model for mobile applications because it is small in size and fasts. The results were reflected in the development of a mobile app, which was evaluated through the automatic adjustment and calibration of the template on the cow if the animal that was focusing was or was not of the Brown Swiss breed.
  • Thumbnail Image
    Item
    A crowd-powered conversational assistant for the improvement of a neural machine translation system in native peruvian language
    (Pontificia Universidad Católica del Perú, 2019-09-13) Gómez Montoya, Héctor Erasmo; Oncevay Marcos, Felix Arturo
    Para las comunidades más pequeñas y nativas en un país, es muy difícil encontrar información que se encuentre en su idioma original, esto debido a que su lengua no tiene el alcance ni la cantidad suficiente de hablantes, para poder seguir siendo transmitida. A este tipo de lengua se le denomina minoritaria o de pocos recursos. Una de las principales formas en las que el gobierno incentiva el proceso de multilingüismo es proporcionando educación en el idioma nativo a su población, tal es el caso de los hablantes de Shipibo-Konibo que se encuentran dispersos a lo largo de la amazonía del Perú. Ellos cuentan con colegios donde se les imparten clases en su lengua nativa para los niveles de primaria y secundaria. Sin embargo, una necesidad con la que cuentan los pobladores es que la cantidad de material educativo completamente traducido a Shipibo-Konibo es reducida. Esto debido a que el proceso de traducción es muy costoso y poco confiable. El Grupo de investigación en Inteligencia Artificial de la PUCP (IA-PUCP, ex GRPIAA) ha desarrollado una plataforma que utiliza corpus paralelos la creación de un modelo estadístico de traducción automática para las lenguas Shipibo-Konibo y español. Este modelo sufre de ciertas limitantes, entre las cuales tenemos: la cantidad de recursos bibliográficos y material completamente traducido, esto debido a que al ser una lengua minoritaria o de pocos recursos carecen de facilidades para la generación de nuevos corpus. Por otro lado, se desea mejorar el modelo actual en parámetros de eficiencia y obtener mejores resultados en las traducciones. En este contexto nace la pregunta que motiva el presente trabajo: ¿de qué manera podemos incrementar el corpus paralelo de forma eficiente y confiable para la mejora del modelo actual de traducción automática? Por consiguiente, en el presente trabajo se propone desarrollar un agente conversacional que permita la generación de nuevos corpus paralelos entre Shipibo-Konibo y español que permitan mejorar un modelo de traducción automática neuronal en las lenguas ya mencionadas.
  • Thumbnail Image
    Item
    Ionospheric echoes detection in digital ionograms using convolutional neural networks
    (Pontificia Universidad Católica del Perú, 2019-09-12) De la Jara Sánchez, César; Olivares Poggi, César Augusto
    An ionogram is a graph that shows the distance that a vertically transmitted wave, of a given frequency, travels before returning to the earth. The ionogram is shaped by making a trace of this distance, which is called virtual height, against the frequency of the transmitted wave. Along with the echoes of the ionosphere, ionograms usually contain a large amount of noise of different nature, that must be removed in order to extract useful information. In the present work, we propose to use a convolutional neural network model to improve the quality of the information obtained from digital ionograms, compared to that using image processing and machine learning techniques, in the generation of electronic density profiles. A data set of more than 900,000 ionograms from 5 ionospheric observation stations is available to use.
  • Thumbnail Image
    Item
    Identificación de líderes de opinión mediante el modelo PROV-DM y técnicas de minería de grafos
    (Pontificia Universidad Católica del Perú, 2019-09-04) Leon Payano, Mauro Antonio; Alatrista Salas, Hugo
    El análisis de la influencia social nos permite estudiar la manera de determinar la opinión de las personas utilizando como medio el intercambio de información. Dentro de esta disciplina, la identificación líderes de opinión tiene como finalidad identificar a las personas que ejercen un mayor nivel de influencia. La identificación de líderes de opinión se usa en campañas de marketing viral, sistemas de recomendación de productos y en sistemas de detección de anómalas en redes de telefonía móvil. Debido a que los medios sociales se han transformado en la fuente de datos más representativa y relevante para entender el comportamiento de las personas, el análisis de influencia se ha convertido en una de las tecnologías más importantes en las industrias modernas de información y servicios. Existen diversos métodos para identificar a los líderes de opinión. En este trabajo se plantea un algoritmo híbrido para cuantificar la influencia de acuerdo a atributos estáticos y de interacción de los usuarios pertenecientes a una red social. Los algoritmos híbridos requieren la representación de las interacciones de los usuarios mediante grafos. Por ello, se implementó un algoritmo de construcción, de segmentación y de visualización de grafos con el objeto de abordar los desafíos que involucra identificar y cuantificar la influencia de los usuarios en grandes redes sociales. El procedimiento fue aplicado en mensajes que tratan sobre el calentamiento global, recolectados desde la plataforma de Twitter con el objetivo de representar en un grafo, a los usuarios interesados en el tema. Los líderes de opinión seleccionados a partir del algoritmo propuesto representan mejor la influencia ganada a través del proceso de difusión. Este documento consta de 6 Capítulos: El capítulo 1 busca venir el problema y el enfoque adoptado en este trabajo. El Capítulo 2 describe los diversos conceptos, métodos, procesos y herramientas utilizados en el análisis de influencia social tanto en el presente trabajo y estudios relacionados. El Capítulo 3 describe los trabajos previos que busquen identificar líderes de opinión en grandes redes sociales. El Capítulo 4 describe el procedimiento de análisis de influencia social desarrollado. El Capítulo 5 describe los resultados obtenidos en la ejecución del procedimiento propuesto. Finalmente, el Capítulo 6 presentamos las conclusiones y recomendaciones obtenidas producto de trabajo realizado.
  • Thumbnail Image
    Item
    Diseño de una arquitectura de aprendizaje automático que brinde soporte para la detección de mentiras mediante el análisis de video
    (Pontificia Universidad Católica del Perú, 2019-07-30) Salas Guillén, Diego Andrés; Sipiran Mendoza, Iván Anselmo
    La justicia y la búsqueda de la verdad en la investigación criminal requiere del uso de una herramienta fundamental para su éxito, el interrogatorio. En un interrogatorio, un experto hace uso de su experiencia y su juicio para, mediante el cuestionamiento del acusado, obtener una verdad explícita o implícita de parte de este sobre el hecho a investigar. El presente proyecto de investigación apunta a diseñar un modelo de aprendizaje automático que brinde soporte para la detección de mentiras en interrogatorios mediante el análisis de video. Es una contribución a los trabajos de investigación realizados por el grupo IA-PUCP (Grupo de Investigación en Inteligencia Artificial) de la Pontificia Universidad Católica del Perú. Se utilizó un conjunto de datos puesto a disponibilidad por Rada Mihalcea del grupo “Language and Information Technologies” de la Universidad de Michigan. La propuesta de arquitectura para el modelo consiste en una capa de preprocesamiento de datos que utiliza un algoritmo de reconocimiento facial para extraer los rostros del video, limitando el espacio de características. Luego, se utiliza una red convolucional preentrenada para realizar la extracción de características. Finalmente, se utiliza una red recurrente LSTM para procesar las características y luego una red neuronal para clasificar los videos. Se experimentó con cinco redes convolucionales (Resnet, InceptionV3, Xception, VGG16 y VGG19), el mejor fue InceptionV3. Este obtuvo una exactitud de 78.6 %, valor que supera varios de los resultados obtenidos por los modelos, presentados en la publicación “A Multi-View Learning Approach to Deception Detection” de N. Carissimi, que no aplicaron entrenamiento en la extracción convolucional. Esto, utilizando menos información y automatizando la extracción de la misma.
  • Thumbnail Image
    Item
    Fusión de datos para segmentación semántica en aplicaciones urbanas de teledetección aérea usando algoritmos de aprendizaje profundo
    (Pontificia Universidad Católica del Perú, 2019-06-27) Chicchón Apaza, Miguel Angel; Sipiran Mendoza, Iván Anselmo
    La creciente urbanización requiere un mapeo y monitoreo preciso del sistema urbano para planificar futuros desarrollos. La teledetección permite obtener información de la superficie de la Tierra y a partir de esta comprender el proceso de urbanización. Esta información hoy en dia puede ser obtenida en forma masiva utilizando vehículos aéreos no tripulados. Esta información puede ser variada incluyendo imágenes ópticas rgb, multiespectrales y modelos digitales de superficie, generandose la necesida de contar con técnicas de fusión multisensorial eficientes y efectivas para explotarlas completamente. La segmentación semántica en teledetección urbana permite la interpretación automática de los datos y es útil en tareas como el mapeo de la cobertura terrestre y la planificación urbana. Actualmente, el aprendizaje profundo se ha vuelto de interés en Visión por computador y Teledetección, existiendo diferentes estudios de la aplicación de variantes de redes neuronales convolucionales (CNN) en segmentación semántica. En el presente trabajo de tesis se investiga la utilización de métodos de fusión de datos basado en algoritmos de aprendizaje profundo para la segmentación semántica en aplicaciones urbanas de teledetección.
  • Thumbnail Image
    Item
    Modelo convolucional para la detección de nódulos pulmonares a partir de tomografías 3D
    (Pontificia Universidad Católica del Perú, 2019-05-23) Maldonado Cadenillas, Rodrigo Ricardo; Beltrán Castañón, César Armando
    El cáncer al pulmón se ha convertido en una de las enfermedades con mayor incidencia a nivel mundial. Sin embargo, el análisis preventivo y detección de nódulos cancerígenos generalmente se realiza de forma manual por los radiólogos, lo cual ralentiza el proceso y genera posibles errores humanos. De esta manera, se han realizado diversas investigaciones sobre este problema utilizando Deep Learning como alternativa de solución para el análisis automático de tomografías. En este trabajo, se propone una aplicación y configuración de un modelo U- net, con bloques residuales y con regiones más rápidas para la detección de nódulos en tomografías computarizadas 3D. Los resultados obtenidos arrojan un FROC del 78 %, lo cual muestra que nuestra propuesta esta´ en el camino correcto, considerando las limitaciones de hardware en la que se ejecutó.
  • Thumbnail Image
    Item
    Predicting market segmentation variables using Twitter following relations
    (Pontificia Universidad Católica del Perú, 2018-12-03) Brossard Núñez, Ian Paul; Alatrista Salas, Hugo
    From the beginning, social sciences have looked to categorize people into groups that share common characteristics, to better serve the population, giving a distinguished treatment to each group. Applying this approach to the planning of business activities, we can better understand people’s needs, choosing the most favorable marketing strategies for each stratum of customers (saving effort in advertising and distribution) and maximize the level of satisfaction of each of market segment. Social Media is not a stranger to this principle: a correct segmentation will allow companies to avoid bringing content to people that are not part of their target audience, and to better respond to comments and complaints about their products and brands. However, some Social Media like Twitter still haven’t included demographic markers about their users within their marketing platforms, rendering decision-making difficult. In this paper, we demonstrate that it is possible to estimate important demographic information in Social Media by analyzing the tastes and preferences of the users (represented through the Twitter accounts they follow). We present four predictive models that allowed us to estimate the gender, age, socio-economic level and LATIR Lifestyle of a Twitter user. These models were trained using machine learning algorithms
  • Thumbnail Image
    Item
    Segmentación automática de textos, mediante redes neuronales convolucionales en imágenes documentos históricos
    (Pontificia Universidad Católica del Perú, 2018-11-28) Ascarza Mendoza, Franco Javier; Beltrán Castañón, César Armando
    Los manuscritos históricos contienen valiosa información, en los últimos años se han realizado esfuerzos para digitalizar dicha información y ponerla al alcance de la comunidad científica y público en general a través de imágenes en bibliotecas virtuales y repositorios digitales. Sin embargo, existen documentos y manuscritos históricos escritos en un lenguaje extinto en la actualidad y una cantidad limitada de profesionales expertos en la interpretación y análisis de dichos documentos. Las imágenes de los documentos y manuscritos históricos poseen características particulares producto precisamente de su antigüedad como por ejemplo: La degradación del papel, el desvanecimiento de la tinta, la variabilidad en iluminación y textura, entre otros. Tareas como recuperación de información o traducción automática de imágenes de manuscritos históricos requieren una etapa de pre-procesamiento importante debido a las características mencionadas en el párrafo anterior. Entre las tareas de pre-procesamiento se puede mencionar la binarización y la segmentación de la imagen en regiones de interés. La presente tesis se enfoca en el procedimiento de segmentación en regiones de interés de las imágenes de manuscritos históricos. Existen métodos para segmentar imágenes de documentos históricos basados fundamentalmente en la extracción manual de características con previo conocimiento del dominio. La finalidad de la presente tesis es desarrollar un modelo general que automáticamente aprenda a extraer características de los pixeles de las imágenes de los documentos históricos y utilizar dichas características para clasificar los pixeles en las clases que previamente se definirán.
  • Thumbnail Image
    Item
    Identificación automática de acciones humanas en secuencias de video para soporte de videovigilancia
    (Pontificia Universidad Católica del Perú, 2018-11-28) Fernández Martínez, Luis Christian; Beltrán Castañón, César Armando
    La identificación de acciones en secuencias de video es un tema de especial interés para aplicaciones como detección de peleas, identificación de vandalismo, detección de asaltos a transeúntes, detección de contenido no apto para menores, etc. Este interés se encuentra asociado al incremento de cámaras de videovigilancia alrededor del mundo y a la masiva producción de videos en línea cargados a las diferentes plataformas sociales de almacenamiento y distribución de contenido bajo demanda. Debido a ello, se decide utilizar un modelo de detección de acciones humanas y aplicarlo en secuencias de videovigilancia. Dicho modelo utiliza redes neuronales profundas, con la finalidad de poder realizar la tarea de clasificación. El modelo aplicado se basa en el extracción de características convolucionales y temporales utilizando una parte de la red Inception V3 para lo primero y una red LSTM para lo segundo. Finalmente, se aplica el modelo en el dataset UCF101 el cual contiene acciones humanas diversas y luego sobre el dataset VIRAT 2.0 Ground, el cual contiene secuencias de videovigilancia.