Informática con mención en Ciencias de la Computación
Permanent URI for this collectionhttp://98.81.228.127/handle/20.500.12404/6357
Browse
3 results
Search Results
Item Diseño de un modelo explicativo basado en ontologías aplicado a un chatbot conversacional(Pontificia Universidad Católica del Perú, 2024-01-15) Arteaga Meléndez, Daniel Martin; Gómez Montoya, Héctor ErasmoActualmente, la inteligencia artificial es una de las áreas de investigación más importantes para el desarrollo de tecnología en múltiples disciplinas. Aunque ha tenido un crecimiento exponencial en los últimos años, el entendimiento de cómo funciona es mínimo para la mayoría de las personas. En consecuencia de ello, su uso en actividades que implican una toma de decisiones es limitado, lo cual se evidencia en el Reporte 2023 de Artificial Intelligence Index [1]. Según este reporte, el cambio porcentual en las respuestas de adopción de la inteligencia artificial por industria y actividad entre el 2021 y 2022 ha sido de -15% y -13% para las actividades de marketing y ventas, y desarrollo de productos y/o servicios, respectivamente. Frente a esto se propone el diseño de un modelo que permita explicar los componentes básicos de un sistema basado en inteligencia artificial a través de un chatbot conversacional en idioma inglés. De este modo, la explicación se brinda en un formato sencillo (texto) y a través de un medio interactivo (conversación). El modelo explicativo se basa en la ontología XAIO, propuesta en este estudio y desarrollada a partir de dos ontologías de aprendizaje de máquina e inteligencia artificial explicable. Haciendo uso de un modelo de generación de lenguaje natural a partir de datos estructurados, el modelo explicativo genera explicaciones en lenguaje natural basadas en el conocimiento descrito en las tripletas de la ontología XAIO. Para evaluar el modelo se implementó un chatbot conversacional que utiliza un modelo de entendimiento de lenguaje natural para identificar intenciones y entidades, a partir de las cuales se realizan las consultas en la ontología que permiten obtener las tripletas. En la evaluación cuantitativa se obtuvo un BLEU promedio de 76.97, lo cual indica un buen desempeño en la tarea de generación de lenguaje natural a partir de datos estructurados. Asimismo, se desarrollaron sistemas de inteligencia artificial explicable con chatbot para la prueba con usuarios y se obtuvo un SUS de 69, indicando una usabilidad por encima del promedio. Finalmente, también se realizó una evaluación cualitativa para obtener las apreciaciones de los participantes acerca de los sistemas, las cuales señalan la coherencia al momento de responder, la sencillez de las respuestas y la interacción amigable con el chatbot.Item Desarrollo de recursos léxicos multi-dialécticos para el quechua(Pontificia Universidad Católica del Perú, 2023-03-13) Melgarejo Vergara, Nelsi Belly; Gómez Montoya, Héctor ErasmoLas lenguas de bajos recursos como el quechua no cuentan con recursos léxicos a pesar de ser importantes para contribuir en las investigaciones y en el desarrollo de muchas herramientas de Procesamiento de Lenguaje Natural (NLP) que se benefician o requieren de recursos de este tipo, de esa forma poder contribuir en la preservación de la lengua. El objetivo de esta investigación es construir una WordNet (base de datos léxica) para las variedades quechua sureño, central, amazónico y norteño, y un un etiquetado gramatical de secuencias de palabras (POS tagging) para la variedad del quechua sureño. Para el desarrollo de esta investigación se recopiló información de los diccionarios y se creó corpus paralelo quechua - español, se implementó un algoritmo de clasificación para alinear el sentido de las palabras con el synset del significado en español para cada variedad de la lengua quechua y finalmente se creó un modelo de etiquetación gramatical basado en el modelo BERT. El score obtenido para el POS tagging de la variedad quechua sureño fue 0.85% y para el quechua central 0.8 %.Item Agrupamiento de textos basado en la generación de Embeddings(Pontificia Universidad Católica del Perú, 2022-08-19) Cachay Guivin, Anthony Wainer; Beltrán Castañón, César ArmandoActualmente, gracias a los avances tecnológicos, principalmente en el mundo de la informática se logra disponer de una gran cantidad de información, que en su mayoría son una composición de signos codificados a nivel computacional que forman una unidad de sentido, como son los textos. Debido a la variabilidad y alta volumetría de información navegable en internet hace que poder agrupar información veraz sea una tarea complicada. El avance computacional del lenguaje de procesamiento natural está creciendo cada día para solucionar estos problemas. El presente trabajo de investigación estudia la forma como se agrupan los textos con la generación de Embeddings. En particular, se centra en usar diferentes métodos para aplicar modelos supervisados y no supervisados para que se puedan obtener resultados eficientes al momento de toparse con tareas de agrupamiento automático. Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos supervisados se pudo determinar que el mejor Embedding es FastText implementado con Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y capa K-means.