2. Maestría
Permanent URI for this communityhttp://98.81.228.127/handle/20.500.12404/2
Tesis de la Escuela de Posgrado
Browse
13 results
Search Results
Item Una investigación sobre arquitecturas que soportan la composición de servicios web semánticos: una revisión sistemática(Pontificia Universidad Católica del Perú, 2020-06-18) Quispe Yalle, Albert Gustavo; Melgar Sasieta, Héctor AndrésEn la actualidad muchas instituciones están migrando sus procesos de negocio de manera que se encuentren soportados por servicios web para facilitar la interoperabilidad con otras instrucciones y una mejor reutilización de sus componentes, sin embargo la manera sintáctica como se describen los servicios web en la actualidad presentan sus limitaciones cuando se desean hacer actividades automatizadas de descubrimiento, composición e invocación de los servicios web más convenientes. Estas limitaciones están siendo cubiertas con la combinación de conceptos de la web semántica y de los servicios web existentes dando lugar a los servicios web semánticos (SWS). Pero aún existen desafíos que deben resolverse tal como la composición de los servicios web semánticos, este problema se vuelven más críticos sobre todo en las instituciones financieras cuyos procesos de negocio están compuestos por más de un servicio. El objetivo de este trabajo es llenar ese vacío mediante una revisión sistemática de la literatura existente acerca de las arquitecturas planteadas en la composición de servicios web semánticos. Este documento tiene tres propósitos: en primer lugar, proponer una definición y discusión de las arquitecturas de servicios web compuestos, obtener una clasificación de las arquitecturas en base a sus componentes. En base a clasificación, se identifican y discuten necesidades de investigación futuras.Item Revisión sistemática sobre generadores de código fuente y patrones de arquitectura(Pontificia Universidad Católica del Perú, 2020-06-18) Huari Casas, María Rosario; Melgar Sasieta, Héctor AndrésLos proyectos de desarrollo de software, están sujetos a situaciones que, pueden ocasionar demora en la entrega del producto o generar aplicaciones de mala calidad, debido a deficiencias en la organización estructural del código y a la falta de integración de los componentes de software. Para reducir el riesgo de demoras en la parte de la codificación de los programas, se puede hacer uso de herramientas informáticas que mejoren la productividad, entre estas herramientas se puede encontrar a los Generadores de Código Fuente (GCF), aplicaciones que generan código automáticamente, los cuales se utilizan en situaciones donde la lógica para armar un sistema es repetitiva; es decir las interfaces para el ingreso de datos, la conexión a las bases de datos, los reportes o salida de datos cumplen la misma lógica teniendo como única variante la estructura de datos. Así mismo, para mejorar la calidad de los productos, antes de empezar a codificar los programas, es muy importante planificar y diseñar el patrón de arquitectura del aplicativo; tener un esquema de organización para agrupar, acoplar y encapsular los programas. Mediante la revisión sistemática de la literatura se logra identificar patrones de arquitectura utilizados en la generación de código fuente de aplicaciones web; así como los principales frameworks y herramientas. Las etapas de la revisión sistemática realizadas son: planeamiento, ejecución, reporte y divulgación. Así mismo, en las preguntas de investigación, se aplicaron los criterios del método PICOC, se realizaron estrategias de búsqueda y selección de fuentes haciendo uso de las principales bases de datos científicas o académicas. Los resultados de la revisión sistemática de la literatura, estuvieron orientadas a analizar los GCF, para comprender su importancia en el desarrollo de sistemas informáticos, así como analizar su relación con los patrones de arquitectura de software. Finalmente, en base a la información obtenida, se llega a la conclusión de que los patrones de arquitectura tienen un papel importante en la generación de código fuente, ya que estandariza y organiza la aplicación en bloques o capas, de esta manera los desarrolladores tienen la opción de elegir herramientas estructuradas, reutilizables y eficientes.Item Investigación cualitativa del impacto de los errores de software en los usuarios(Pontificia Universidad Católica del Perú, 2018-11-26) Romero Untiveros, Luis Alfredo; Melgar Sasieta, Héctor AndrésEl presente trabajo de investigación consiste en una investigación cualitativa que busca indagar acerca del impacto de los errores de software en los usuarios a partir de un estudio de caso correspondiente al desarrollo de un sistema de información de aplicación a nivel nacional. El estudio hace una revisión del estado del arte acerca del tratamiento del usuario desde el punto de vista humano / emocional / emotivo, buscando así indagar en herramientas que permitan mejorar el proceso de desarrollo involucrando a las emociones humanas. A partir de la pregunta inicial ¿cómo influyen los errores de software en los usuarios?, se desarrolla una línea de investigación que toma en cuenta factores de usabilidad considerados dentro de los estándares de desarrollo, los métodos y herramientas utilizados para el registro de requisitos y su alineamiento con las características del usuario final, la caracterización de los usuarios y los elementos personales de los usuarios que deben ser tomados en cuenta durante el proceso de desarrollo. Así se busca responder a la pregunta motivadora del estudio que es ¿cómo influyen los errores de software en los usuarios?, que busca medir el impacto a través de elementos indirectos que se miden a través de las consecuencias en el usuario y su entorno laboral. Durante la investigación se estudiaron los criterios tomados en cuenta por los estándares de desarrollo de la organización a través de una revisión documentaria y entrevistas con los actores involucrados. Asimismo, se analizaron los métodos y procedimientos utilizados por el equipo de desarrollo para el registro de requisitos y cómo estos están alineados con las características del usuario final y sus características personales. Finalmente se identificaron herramientas que puedan aportar a la caracterización de los usuarios a fin de incorporar buenas prácticas destinadas a evitar errores en etapas tempranas de desarrollo. Como resultados de la investigación, se sugiere la incorporación de herramientas que permitan explorar el lado humano del usuario y sus emociones, considerándolos como fuentes valiosas de información para el desarrollo de la solución tecnológica y como una forma de evitar errores de software futuros. Asimismo, el impacto de los errores detectados se hace visible en los ámbitos personal y profesional, impactando en el clima laboral, productividad del equipo usuario y crecimiento institucional. La investigación se realizó en el contexto del desarrollo de la herramienta informática SIGMO diseñada y gestionada por el Ministerio de Educación y que tiene alcance a nivel nacional a partir de la participación de usuarios con permisos y roles diferenciados.Item Inteligencia competitiva de promociones aplicando ontologías de dominio en Facebook de empresas de telecomunicaciones del Perú(Pontificia Universidad Católica del Perú, 2018-05-22) Colchado Ruiz, Geraldo; Melgar Sasieta, Héctor AndrésEl mercado de telecomunicaciones en el Perú es muy competitivo y es uno de los sectores económicos que más crecimiento tuvo en los últimos años lo que se refleja en que actualmente existan más celulares que población. Las 5 empresas de telecomunicaciones (Operadores) ofrecen sus promociones en redes sociales, principalmente en Facebook, para mantener a sus clientes existentes y obtener nuevos clientes. Hay una gran cantidad de datos en Facebook escrita en lenguaje natural sin significado para el computador que los operadores no están utilizando para tener Inteligencia Competitiva. La Inteligencia Competitiva es un proceso que identifica las necesidades de información de los tomadores de decisiones acerca de los competidores, recolecta datos de fuentes públicas y legales, les da significado o semántica y los analiza para dar respuesta a las necesidades de información comunicando los resultados a los tomadores de decisiones. En esta tesis se propone e implementa un proceso de Inteligencia Competitiva de promociones para los operadores que incluye la recolección de 15,634 posts y 1,411,698 comentarios de Facebook como corpus, el proceso de creación manual de una ontología de dominio en telecomunicaciones con 119 palabras, 27 conceptos y 6 relaciones en 5 niveles jerárquicos, la clasificación de los posts usando la ontología de telecomunicaciones, el proceso de creación semiautomático de una ontología de dominio en polaridad a partir de WordNet en español y SentiWordNet con 9,344 palabras, el análisis de polaridad o clasificación de polaridad positiva, negativa o neutra de cada comentario, la implementación de una aplicación web para que los tomadores de decisiones puedan realizar búsquedas de posts basadas en la ontología de telecomunicaciones y responder a sus necesidades de información o preguntas relevantes y la implementación de una aplicación web que compara los resultados de los posts por operador en un formato de línea de tiempo incluyendo comentarios positivos y negativos logrando la Inteligencia Competitiva. El proceso de Inteligencia Competitiva como el proceso de creación de la ontología de dominio en telecomunicaciones podrían ser aplicados en empresas de telecomunicaciones de otros países y también en otros contextos donde existan varios competidores que ofrezcan productos o servicios equivalentes que puedan compararse. El proceso de creación de ontología en polaridad puede ser replicado por otros investigadores para análisis de polaridad en otros idiomas distintos al inglés y español dada la disponibilidad de WordNet en varios idiomas.Item Research on proposals and trends in the architectures of semantic search engines: a systematic literature review(Pontificia Universidad Católica del Perú, 2018-05-02) Morales Vidal, Jorge Arturo; Melgar Sasieta, Héctor AndrésLas tecnologías de web semántica han ganado atención en los últimos años, en su mayoría explicada por la proliferación de dispositivos móviles y el acceso a Internet de banda ancha. Tal como Tim Berners-Lee, creador de la World Wide Web, lo avisoró a principios de siglo, las tecnologías de la web semántica han fomentado el desarrollo de estándares que permiten, a su vez, la aparición de los motores de búsqueda semánticos que dan a los usuarios la información que están buscando. Este estudio de investigación presenta los resultados de una revisión sistemática de la literatura que se centra en la comprensión de las propuestas y tendencias en los motores de búsqueda semánticos desde el punto de vista de la arquitectura del software. A partir de los resultados, es posible decir que la mayoría de los estudios proponen una solución integral para sus usuarios, donde los requisitos, el contexto y los módulos que componen el buscador desempeñan un gran rol. Las ontologías y el conocimiento también juegan un papel importante en estas arquitecturas a medida que evolucionan, permitiendo una gran cantidad de soluciones que responden de una mejor manera a las expectativas de los usuarios. La presente tesis es una extensión del artículo "Research on proposals and trends in the architectures of semantic search engines: A systematic literature review", publicado en "Proceedings of the 2017 Federated Conference on Computer Science and Information Systems". Esta tesis expone mayores detalles con respecto al artículo publicado, teniendo ambos en común el desarrollo y los resultados de la revisión sistemática de la literatura.Item Análisis de publicaciones en una red social de microblogging para la detección automática de sucesos violentos durante manifestaciones públicas(Pontificia Universidad Católica del Perú, 2017-05-04) Oncevay Marcos, Félix Arturo; Melgar Sasieta, Héctor AndrésEl activismo social en el Perú se encuentra en crecimiento, principalmente en las zonas urbanas y en los sectores de ingresos medios, donde las redes sociales han llegado a influir en las diversas acciones de la población, y en el modo de informar, influir y convocar a las personas. Es por ello que se han observado casos recientes como las marchas contra la Ley Laboral Juvenil o ‘Ley Pulpín’, donde se movilizó una gran cantidad de personas, y se podían observar dos manifestaciones en paralelo pero afines: en la calle y en las redes sociales, principalmente en Twitter. Sin embargo, a pesar de ser convocada como marcha pacífica, sucedieron actos de violencia y enfrentamientos, los cuales lamentablemente son frecuentes en la realidad peruana. En este contexto, se propone el desarrollo de un mecanismo para analizar los mensajes publicados en Twitter durante una manifestación real. El objetivo principal es identificar y caracterizar automáticamente los diferentes sucesos de violencia que pueden ocurrir durante la protesta. Para esto, luego de recolectar publicaciones de Twitter durante manifestaciones reales, se analizarán cuáles son las mejores técnicas a aplicar para el tratamiento y transformación de estos mensajes a información relevante para nuestro objetivo. El enfoque de esta investigación se plantea desde las áreas de la ingeniería del conocimiento (análisis del dominio del conocimiento sobre violencia), la minería de textos (detección, resumen y descripción de eventos a partir de textos) y el procesamiento de lenguaje natural. Finalmente, se calcularán métricas de evaluación sobre los sucesos violentos identificados, para validar la eficacia del procedimiento propuesto.Item ExpertTI : an knowledge system for intelligent service desks using free text(Pontificia Universidad Católica del Perú, 2017-04-17) Bello Ruiz, Alejandro Toribio; Melgar, Andrés; Pizarro, Daniel; Melgar Sasieta, Héctor AndrésWhen many users consult service desks simultaneously, these typically saturate. This causes the customer attention is delayed more than usual. The service is perceived as lousy from the point of view of the customer. Increase the amount of human agents is a costly process for organizations. In addition, the amount of sta turnover in this type of service is very high, which means make frequent training. All this has motivated the design of a knowledge-based system that automatically assists both customers and human agents at the service desk. Web technology was used to enable clients to communicate with a software agent via chat. Techniques of Natural Language Processing were used in order the software agent understands the customer requests. The domain knowledge used by the software agent to understand customer requests has been codi ed in an ontology. A rule-based expert system was designed to perform the diagnostic task. This paper presents a knowledge-based system allowing client to communicate with the service desk through a chat system using free text. A software agent automatically executes the customer request. The agent software attempts to reach a conclusion using expert system and ontology. If achieved success, returns the response to the customer, otherwise the request is redirected to a human agent. Evaluations conducted with users have shown an improvement in the attention of service desks when the software developed is used. On the other hand, since the most frequent requests are handled automatically, the workload of human agents decreases considerably. The software has also been used to train new human agents which facilitates and reduces the cost of training.Item Generación de corpus paralelos para la implementación de un traductor automático estadístico entre shipibo-konibo y español(Pontificia Universidad Católica del Perú, 2017-03-31) Galarreta Asian, Ana Paula; Melgar Sasieta, Héctor Andrés; Oncevay Marcos, Félix ArturoActualmente, existe información que debe estar disponible para todos los habitantes de nuestro país, tales como textos educativos, leyes y noticias. Sin embargo, a pesar que el Perú es un país multilingüe, la mayoría de textos se encuentran redactados únicamente en español. Una de las razones por las que no se traducen estos textos a otras lenguas habladas en nuestro país es porque el proceso es costoso y requiere de mucho tiempo. Por este motivo se propone desarrollar un traductor automático basado en colecciones de textos, también llamados corpus, que utilice métodos estadísticos y pueda servir de apoyo una plataforma de software de traducción automática de texto entre el español y el shipibo-konibo. Para implementar un método estadístico, es necesario contar con corpus paralelos en los idiomas a traducir. Esto representa un problema, pues existen muy pocos textos escritos en shipibokonibo, y la mayoría de estos no cuenta con una traducción al español. Por este motivo es necesario construir corpus paralelos en base a dos procesos: la traducción de textos del shipibo-konibo al español (y viceversa) y la alineación semi-automática de los textos bilingües disponibles. Con los corpus paralelos obtenidos, se puede entrenar y validar un traductor automático, a fin de encontrar los parámetros que generan las mejores traducciones. Además, en base a los resultados obtenidos, se determinará la etapa en la que el traductor estadístico se integrará a la plataforma de software de traducción automática que será implementada por investigadores del Grupo de Reconocimiento de Patrones e Inteligencia Artificial Aplicada (GRPIAA) y el departamento de lingüística de la PUCP.Item Revisión sistemática sobre la aplicación de ontologías de dominio en el análisis de sentimiento(Pontificia Universidad Católica del Perú, 2016-11-26) Olivares Poggi, César Augusto; Melgar Sasieta, Héctor AndrésEl análisis de sentimiento es un área de creciente investigación en los campos del procesamiento de lenguaje natural y la recuperación de información. En los últimos años ha habido un aumento en la aplicación de técnicas semánticas en el análisis de sentimiento, en particular con el apoyo de la aplicación de ontologías de dominio. Sin embargo, en la literatura actual no se cuenta con un estudio que reporte de manera sistemática los beneficios alcanzados con la aplicación de ontologías de dominio al análisis de sentimiento. Esta revisión sistemática tiene por objetivos realizar dicha síntesis, reportar el grado de generalización de las investigaciones realizadas, verificar el aprovechamiento de la riqueza expresiva de las ontologías de dominio y señalar el estado del arte actual en la representación de las emociones humanas por medio de ontologías de dominio en su aplicación al análisis de sentimiento. Se identificó 9 distintos problemas del análisis del sentimiento a los que se aplicó ontologías de dominio y un total de 22 beneficios de dicha aplicación. Los beneficios más reportados son: (1) el soporte para una representación estructurada de las opiniones y la vinculación de datos; (2) mayor precisión y exhaustividad en la clasificación de la polaridad; y (3) soporte para la representación de modelos emocionales. Como investigación futura se sugiere profundizar en el empleo de ontologías de dominios para analizar el sentimiento a nivel de conceptos, modelar el proceso de análisis de sentimiento, estandarizar la elaboración de ontologías de productos e integrar diversos modelos emocionales, así como aprovechar mejor la expresividad semántica y capacidad de razonamiento de las ontologías de dominio.Item Propuesta de patrón de diseño de software orientado a prevenir la extracción automatizada de contenido web(Pontificia Universidad Católica del Perú, 2016-11-26) Castañeda Rojas, Edson Bryan; Melgar Sasieta, Héctor AndrésWeb scraping o extracción de datos Web es el proceso de recolección de información de uno o más sitios Web de manera automatizada, emulando la interacción entre un usuario y un servidor, dicho proceso se basa en el análisis de estructuras HTML y no requiere la autorización de los propietarios. El uso de estructuras repetitivas o plantillas, facilita el funcionamiento de un programa informático que extrae contenido Web, dicha intrusión genera un incremento considerable en el uso de recursos, considerando la permanente ejecución de instrucciones para obtener tanto contenido como sea posible. Con la finalidad de reducir la vulnerabilidad de los sitios Web frente a procesos de extracción de contenido masivo, en el presente trabajo se planteó un patrón de diseño de software tomando como referencia el patrón Template View de Martin Fowler, al cual se agregó una capa de aleatorización que permita generar estructuras HTML no predecibles. Mediante la aplicación de una herramienta de extracción de contenido a un sitio Web de prueba, cuya capa de presentación se desarrolló tomando en cuenta el patrón de diseño propuesto, se logró verificar una reducción considerable de la cantidad de datos extraídos.