Informática con mención en Ciencias de la Computación
Permanent URI for this collectionhttp://98.81.228.127/handle/20.500.12404/6357
Browse
11 results
Search Results
Now showing 1 - 10 of 11
Item Construcción de recursos para la detección y clasificación automática de disfluencias producidas por tartamudez en español(Pontificia Universidad Católica del Perú, 2024-09-18) Cabrera Díaz, Daniel Alonso; Sobrevilla Cabezudo, Marco AntonioEsta tesis abordó el desarrollo de recursos computacionales para la detección y clasificación de disfluencias de tartamudez en español, cubriendo desde la recolección y anotación de audios hasta la implementación de un modelo de aprendizaje automático y estrategias de aumento de datos. Se recolectaron audios en español de cinco participantes con tartamudez, conformes a los estándares del dataset SEP-28K y con apoyo de dos especialistas en tartamudez. Aunque la naturaleza controlada de las grabaciones limitó la diversidad de disfluencias observadas, estos audios proporcionaron una base sólida para el desarrollo del modelo. El modelo presentado se basó en el modelo DisfluencyNet. Este modelo fue pre entrenado utilizando wav2vec 2.0 XLSR53 aprovechando su robusta base de datos multilingüe. El modelo demostró su capacidad para identificar y clasificar disfluencias en español, aunque su rendimiento fue inferior comparado con modelos equivalentes en inglés. Esta diferencia subraya la necesidad de más datos. Para mejorar la detección de disfluencias, se implementaron dos estrategias de aumento de datos. La primera incluyó variaciones de pitch, adición de reverberación y ruido blanco, duplicando efectivamente la cantidad de datos disponibles. Aunque esta estrategia mejoró el recall en ciertas disfluencias, los resultados en precisión y F1 fueron mixtos. La segunda estrategia, mediante clonación de voz con el modelo XTTS-v2, generó nuevos audios que emulaban disfluencias naturales, como prolongaciones y bloqueos. Aunque mejoró el recall, especialmente en rondas posteriores de aumento de datos, la precisión y F1 continuaron siendo desafiantes. Futuras investigaciones se enfocarán en expandir la anotación de disfluencias en contextos de habla espontánea y procesar los audios restantes del corpus inicial para explorar mejoras en la clasificación y detección de disfluencias. Además, se explorarán métodos avanzados de clonación de voz y otras técnicas de modificación de audios para enriquecer los datasets y mejorar los modelos de detección y clasificación de disfluencias.Item Evaluación de método para la detección automática de puntos de referencia (landmark detection) en imágenes en dos dimensiones de huellas plantares para el diseño de una plantilla ortopédica(Pontificia Universidad Católica del Perú, 2024-08-28) Donayre Gamboa, Gustavo Miguel; Fonseca Arroyo, Pablo AlejandroEl presente trabajo de investigación evalúa la técnica de regresión de mapas de calor (heatmap regression - HR) para la detección automática de puntos de referencia (landmark detection) en imágenes médicas, específicamente en las imágenes de huellas plantares en dos dimensiones. El estudio se basa en la regresión de mapas de calor con aprendizaje profundo, una técnica que ha demostrado ser efectiva en la detección de puntos en rostros y en la estimación de la pose humana. Se propone un método automático para la detección de 8 puntos en las imágenes digitalizadas de huellas plantares que servirán de referencia para el diseño base de una plantilla ortopédica bidimensional, buscando así mejorar el proceso de fabricación de plantillas ortopédicas, que actualmente se realiza de forma manual y artesanal en la mayoría de los países de América Latina. La detección automática de estos puntos de referencia en las huellas plantares tiene el potencial de agilizar este proceso y mejorar la precisión de las plantillas. Los resultados del estudio mostraron un error absoluto promedio normalizado de 0.01017 en el conjunto de validación. Estas evaluaciones se llevaron a cabo utilizando una red convolucional U-Net, la cual consta de una ruta de codificación y compresión de imágenes para capturar el contexto, y una ruta de expansión simétrica que permite una localización precisa de puntos de interés en un tiempo razonable gracias al uso de los procesadores GPU actuales.Item Predicción de la aceptación de pedidos por parte de los repartidores en la industria de entregas a domicilio utilizando machine learning(Pontificia Universidad Católica del Perú, 2024-08-14) Alarcon Flores, Jorge Brian; Beltrán Castañón, César ArmandoLa industria de entregas a domicilio ha experimentado un auge significativo debido a la creciente demanda de los consumidores que buscan la comodidad de recibir productos y alimentos directamente en sus hogares. El avance de tecnologías y aplicaciones móviles ha impulsado el crecimiento de este mercado, permitiéndole adaptarse a las preferencias cambiantes de los consumidores [10] [19]. Sin embargo, un componente crítico en este proceso son los repartidores, quienes, tras la realización de un pedido por parte del cliente en la plataforma de la empresa, reciben notificaciones que les ofrecen una serie de pedidos sugeridos. Si aceptan, asumen la responsabilidad de recoger y entregar el pedido a los consumidores, así como la ganancia asociada, pero en ocasiones, los repartidores pueden declinar la aceptación de un pedido, lo que potencialmente conlleva a retrasos en la entrega, generando experiencias insatisfactorias para los usuarios. Este aspecto se presenta como un desafío significativo en la optimización de las operaciones de entrega a domicilio, el cual puede abordarse con soluciones de aprendizaje de máquina. En este artículo se presentan los resultados de la experimentación realizada con diversos modelos de aprendizaje de máquina, aplicándose la técnica de balanceo Smartly OverSampling con SMOTE. Los modelos se aplicaron a un conjunto de datos proporcionado por una institución latinoamericana líder en el sector de entregas a domicilio, reportando el algoritmo LightGBM, los mejores resultados con un AUC de 0.88 y un Average Precision Recall de 0.47.Item Aprendizaje profundo para transcripción de textos históricos manuscritos en español(Pontificia Universidad Católica del Perú, 2024-07-16) Choque Dextre, Gustavo Jorge; Beltrán Castañón, Cesar ArmandoEl reconocimiento de textos historicos es considerado un problema desafiante debido a los muchos factores que ´ alteran el estado de los manuscritos y la complejidad de los diferentes estilos de escritura involucrados en este tipo de documentos; en los anos recientes se han creado muchos modelos de Reconocimiento de textos manuscritos ˜ enfocados en diversos idiomas como el ingles, chino, ´ arabe y japon ´ es entre otros, sin embargo no se han ´ encontrado muchas iniciativas de reconocimiento de texto orientadas al idioma espanol debido fundamentalmente ˜ a un escasez de datasets publicos disponibles para ayudar a solucionar la problem ´ atica en dicho idioma. ´ En esta publicacion se presenta la aplicaci ´ on de t ´ ecnicas de Deep Learning basadas en una arquitectura de ´ red neuronal encoder-decoder y convoluciones compuerta Gated-CNN las cuales en los ultimos ha demostrado ´ resultados sobresalientes para resolver dicha problematica, as ´ ´ı mismo se propone la aplicacion de mecanismos de ´ Transferencia de Aprendizaje para el reconocimiento de textos historicos en espa ´ nol. Los experimentos demuestran ˜ que la aplicacion de estos m ´ etodos puede brindar resultados sobresalientes, adem ´ as la aplicaci ´ on de otras t ´ ecnicas ´ tales como Aumentacion de Datos y Modelos de Lenguaje conllevan a mejoras significativas en los resultados finales. ´ Se propone ademas el uso de un nuevo dataset de textos hist ´ oricos en espa ´ nol conformado por 1000 elementos ˜ tomados de textos historicos peruanos referentes al siglo XVIII.Item Evaluación de modelos de segmentación semántica para el monitoreo de deslizamiento de tierra utilizando imágenes satelitales(Pontificia Universidad Católica del Perú, 2024-04-03) Yali Samaniego, Roy Marco; Fonseca Arroyo, Pablo AlejandroEn el ámbito del aprendizaje automático, un desafío persistente es la disponibilidad de datos suficientes, especialmente en tareas de visión por computadora. Este desafío se amplifica cuando se trabaja con sensores remotos, donde las bases de datos etiquetadas para abordar problemas son escasas. Este manuscrito examina críticamente el monitoreo de deslizamientos de tierra en el paisaje peruano y presenta tres contribuciones en esta dirección. La primera contribución expande un conjunto de datos de imágenes satelital es sobre deslizamientos de tierra (Landslide4Sense) proveniente de territorios asiáticos, con 3799 imágenes debidamente etiquetadas. Reconociendo la dinámica geoespacial de Perú, se incrementó este conjunto de datos con 838 escenarios locales. Estas adiciones mantienen congruencia con el conjunto de datos original en términos de atributos y configuración, asegurando replicabilidad y escalabilidad para futuras investigaciones. La segunda evalúa varios modelos de segmentación semántica basados en la arquitectura U-net, reforzada por la función de pérdida de Entropía Cruzada Ponderada + Dice Loss, óptima en tareas de segmentación con conjuntos de datos desequilibrados. Los resultados permiten alcanzar un F1-Score del 75.5% con la arquitectura U-net (vanilla) superando el benchmark de referencia del 71.65%. La última contribución muestra un desarrollado integral para la adquisición de datos, procesamiento y entrenamiento/evaluación de modelos. Dado que este marco tiene el potencial de impulsar una aplicabilidad general de sistemas de segmentación a sistemas de monitoreo de deslizamientos de tierra, y detener un alcance más amplio a la comunidad académica y partes interesadas gubernamentales en Latinoamérica y en todo el mundo.Item Sobre la construcción de ensambles de clasificadores diversos en tanto que variación normalizada de información y su vínculo con su precisión(Pontificia Universidad Católica del Perú, 2021-11-07) Guinea Ordóñez, Rodrigo José; Villanueva Talavera, Edwin RafaelLa hipótesis en cuestión afirma que, dado el contexto teórico (i.e., definiciones matemáticas consideradas apropiadas para describir los fenómenos que se pretende estudiar) descrito en el artículo, existe una relación entre diversidad global y precisión de un ensamble de clasificadores. Por lo tanto, el propósito de esta investigación es estudiar la relación entre la precisión de ensambles y su diversidad dentro de un contexto geométrico y de información. Para lograrlo, interpretamos el problema como uno geométrico introduciendo un espacio métrico, donde los puntos son predicciones de clasificadores; la función de distancia, la métrica Variación de Información Normalizada (NVI, por sus siglas en inglés); y la construcción de un ensamble diverso es reducida a un problema de criba y novedosamente transformado a uno de programación cuadrática. La significancia estadística es asegurada haciendo uso de métodos Monte Carlo sobre 53 conjuntos de datos apropiados. El resultado es un algoritmo basado en una métrica usada en el contexto de teoría de la información, ideal para estudiar conjuntos de datos de alta dimensionalidad e inherentemente ruidosos. Por tanto, es relevante cuando el costo de adquirir muestras es muy alto; y la cantidad de variables, enorme. El marco teórico incluye las definiciones (e.g., definiciones relacionadas al concepto de diversidad o al espacio métrico utilizado), los teoremas (e.g., propiedades de espacios métricos) y algoritmos base (i.e., programación cuadrática) usados para conseguir los resultados. Los resultados muestran que, en promedio, el exceso de precisión de un ensemble diverso respecto de su contraparte aleatoria es función del valor de la diversidad global del mismo. Esto confirma la hipótesis inicial. Además, la metodología introducida para modelar el algoritmo introduce un marco que permite esclarecer la relación entre diversidad y precisión, ya que la representa en términos geométricos.Item Comparación de modelos de aprendizaje de máquina en la predicción del incumplimiento de pago en el sector de las microfinanzas(Pontificia Universidad Católica del Perú, 2021-06-24) López Malca, Jiam Carlos; Olivares Poggi, Cesar AugustoLas instituciones financieras dedicadas a las Microfinanzas brindan sus servicios a un público objetivo que en su mayoría presentan bajos recursos económicos y/o cuyo acceso a los sistemas bancarios tradicionales es limitado, estas instituciones al desarrollarse en un contexto poco favorable los riesgos de incumplimiento en los pagos son mayores en comparación a la banca tradicional. Por tanto, se exige hacer una evaluación económica financiera con mayor grado de detalle, requiriendo para tal fin la participación de un experto del negocio que basado en información obtenida y pericia propia determine si el potencial cliente será un buen pagador. Esta forma de evaluar a un cliente ha evolucionado en el sector financiero en los últimos años, esto debido en gran medida a la aplicación de tecnologías como la inteligencia artificial y el aprendizaje de máquina, ofreciendo una singularidad que es la capacidad de aprender de los datos, demandando menos esfuerzo y participación humana, y redituando mayores niveles de precisión. Se presentan en este artículo los resultados de la experimentación realizada con los siguientes modelos de aprendizaje de maquina: Regresión Logística, XGBoost, Random Forest, Gradient Boosting, Perceptron Multicapa (MLP) y algoritmos de aprendizaje profundo para la predicción del incumplimiento de pagos, aplicándose técnicas de balanceo de submuestreo y sobremuestreo, incluida la técnica de SMOTE. Así mismo, se aplicó la técnica de One Hot Encoding para el tratamiento de variables categóricas. Los diferentes modelos de aprendizaje de maquina se aplicaron a un conjunto de datos proporcionado por una institución peruana líder en el sector de las microfinanzas, reportando los mejores resultados el modelo XGBoost, con una exactitud de 97.53% y un F1-Score de 0.1278.Item Diseño de una arquitectura de aprendizaje automático que brinde soporte para la detección de mentiras mediante el análisis de video(Pontificia Universidad Católica del Perú, 2019-07-30) Salas Guillén, Diego Andrés; Sipiran Mendoza, Iván AnselmoLa justicia y la búsqueda de la verdad en la investigación criminal requiere del uso de una herramienta fundamental para su éxito, el interrogatorio. En un interrogatorio, un experto hace uso de su experiencia y su juicio para, mediante el cuestionamiento del acusado, obtener una verdad explícita o implícita de parte de este sobre el hecho a investigar. El presente proyecto de investigación apunta a diseñar un modelo de aprendizaje automático que brinde soporte para la detección de mentiras en interrogatorios mediante el análisis de video. Es una contribución a los trabajos de investigación realizados por el grupo IA-PUCP (Grupo de Investigación en Inteligencia Artificial) de la Pontificia Universidad Católica del Perú. Se utilizó un conjunto de datos puesto a disponibilidad por Rada Mihalcea del grupo “Language and Information Technologies” de la Universidad de Michigan. La propuesta de arquitectura para el modelo consiste en una capa de preprocesamiento de datos que utiliza un algoritmo de reconocimiento facial para extraer los rostros del video, limitando el espacio de características. Luego, se utiliza una red convolucional preentrenada para realizar la extracción de características. Finalmente, se utiliza una red recurrente LSTM para procesar las características y luego una red neuronal para clasificar los videos. Se experimentó con cinco redes convolucionales (Resnet, InceptionV3, Xception, VGG16 y VGG19), el mejor fue InceptionV3. Este obtuvo una exactitud de 78.6 %, valor que supera varios de los resultados obtenidos por los modelos, presentados en la publicación “A Multi-View Learning Approach to Deception Detection” de N. Carissimi, que no aplicaron entrenamiento en la extracción convolucional. Esto, utilizando menos información y automatizando la extracción de la misma.Item Fusión de datos para segmentación semántica en aplicaciones urbanas de teledetección aérea usando algoritmos de aprendizaje profundo(Pontificia Universidad Católica del Perú, 2019-06-27) Chicchón Apaza, Miguel Angel; Sipiran Mendoza, Iván AnselmoLa creciente urbanización requiere un mapeo y monitoreo preciso del sistema urbano para planificar futuros desarrollos. La teledetección permite obtener información de la superficie de la Tierra y a partir de esta comprender el proceso de urbanización. Esta información hoy en dia puede ser obtenida en forma masiva utilizando vehículos aéreos no tripulados. Esta información puede ser variada incluyendo imágenes ópticas rgb, multiespectrales y modelos digitales de superficie, generandose la necesida de contar con técnicas de fusión multisensorial eficientes y efectivas para explotarlas completamente. La segmentación semántica en teledetección urbana permite la interpretación automática de los datos y es útil en tareas como el mapeo de la cobertura terrestre y la planificación urbana. Actualmente, el aprendizaje profundo se ha vuelto de interés en Visión por computador y Teledetección, existiendo diferentes estudios de la aplicación de variantes de redes neuronales convolucionales (CNN) en segmentación semántica. En el presente trabajo de tesis se investiga la utilización de métodos de fusión de datos basado en algoritmos de aprendizaje profundo para la segmentación semántica en aplicaciones urbanas de teledetección.Item Predicting market segmentation variables using Twitter following relations(Pontificia Universidad Católica del Perú, 2018-12-03) Brossard Núñez, Ian Paul; Alatrista Salas, HugoFrom the beginning, social sciences have looked to categorize people into groups that share common characteristics, to better serve the population, giving a distinguished treatment to each group. Applying this approach to the planning of business activities, we can better understand people’s needs, choosing the most favorable marketing strategies for each stratum of customers (saving effort in advertising and distribution) and maximize the level of satisfaction of each of market segment. Social Media is not a stranger to this principle: a correct segmentation will allow companies to avoid bringing content to people that are not part of their target audience, and to better respond to comments and complaints about their products and brands. However, some Social Media like Twitter still haven’t included demographic markers about their users within their marketing platforms, rendering decision-making difficult. In this paper, we demonstrate that it is possible to estimate important demographic information in Social Media by analyzing the tastes and preferences of the users (represented through the Twitter accounts they follow). We present four predictive models that allowed us to estimate the gender, age, socio-economic level and LATIR Lifestyle of a Twitter user. These models were trained using machine learning algorithms