Show simple item record

dc.contributor.advisorBeltrán Castañón, César Armando
dc.contributor.authorCachay Guivin, Anthony Wainer
dc.date.accessioned2022-08-19T23:11:42Z
dc.date.available2022-08-19T23:11:42Z
dc.date.created2022
dc.date.issued2022-08-19
dc.identifier.urihttp://hdl.handle.net/20.500.12404/23159
dc.description.abstractActualmente, gracias a los avances tecnológicos, principalmente en el mundo de la informática se logra disponer de una gran cantidad de información, que en su mayoría son una composición de signos codificados a nivel computacional que forman una unidad de sentido, como son los textos. Debido a la variabilidad y alta volumetría de información navegable en internet hace que poder agrupar información veraz sea una tarea complicada. El avance computacional del lenguaje de procesamiento natural está creciendo cada día para solucionar estos problemas. El presente trabajo de investigación estudia la forma como se agrupan los textos con la generación de Embeddings. En particular, se centra en usar diferentes métodos para aplicar modelos supervisados y no supervisados para que se puedan obtener resultados eficientes al momento de toparse con tareas de agrupamiento automático. Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos supervisados se pudo determinar que el mejor Embedding es FastText implementado con Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y capa K-means.es_ES
dc.description.abstractNowadays, thanks to technological advances, mainly in the world of information technology, a large amount of information is available, most of which is a composition of signs encoded at a computational level that form a unit of meaning, such as texts. Due to the variability and high volume of navigable information on the Internet, grouping truthful information is a complicated task. The computational advance of natural language processing is growing every day to solve these problems. The present research work studies the way texts are clustered with the generation of Embeddings. In particular, it focuses on using different methods to apply supervised and unsupervised models so that efficient results can be obtained when encountering automatic clustering tasks. Five Datasets were worked with, and as a result of the implementation of the supervised models it was determined that the best Embedding is FastText implemented with Gensim and applied in models based on boosting. For the unsupervised models the best Embedding is Glove applied in neural network models with AutoEncoder and K-means layer.es_ES
dc.language.isospaes_ES
dc.publisherPontificia Universidad Católica del Perúes_ES
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-sa/2.5/pe/*
dc.subjectProcesamiento en lenguaje natural (Informática)es_ES
dc.subjectInteligencia artificiales_ES
dc.subjectSistemas embebidos (Computadoras)es_ES
dc.titleAgrupamiento de textos basado en la generación de Embeddingses_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
thesis.degree.nameMaestro en Informática con mención en Ciencias de la Computaciónes_ES
thesis.degree.levelMaestríaes_ES
thesis.degree.grantorPontificia Universidad Católica del Perú. Escuela de Posgrado.es_ES
thesis.degree.disciplineInformática con mención en Ciencias de la Computaciónes_ES
renati.advisor.dni29561260
renati.advisor.orcidhttps://orcid.org/0000-0002-0173-4140es_ES
renati.author.dni71535030
renati.discipline611087es_ES
renati.jurorPineda Ancco, Ferdinand Edgardoes_ES
renati.jurorBeltran Castañon, Cesar Armandoes_ES
renati.jurorGomez Montoya, Hector Erasmoes_ES
renati.levelhttps://purl.org/pe-repo/renati/level#maestroes_ES
renati.typehttps://purl.org/pe-repo/renati/type#tesises_ES
dc.publisher.countryPEes_ES
dc.subject.ocdehttps://purl.org/pe-repo/ocde/ford#1.02.00es_ES


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess