3. Licenciatura

Permanent URI for this communityhttp://98.81.228.127/handle/20.500.12404/3

Tesis de todas las facultades

Browse

Search Results

Now showing 1 - 10 of 20
  • Item
    Modelo de red neuronal convolucional para la clasificación de tipos de nubes en imágenes de webcam
    (Pontificia Universidad Católica del Perú, 2025-01-14) Andonaire Tuesta, Mario Alejandro; Beltrán Castañón, César Armando; Villanueva Talavera, Edwin Rafael
    La presente investigación aborda la problemática de la clasificación manual de tipos de nubes en estaciones meteorológicas del Servicio Nacional de Meteorología e Hidrología del Perú (SENAMHI), un proceso sujeto a errores y demandante de tiempo. El estudio justifica su relevancia destacando la importancia de la observación precisa de nubes en la meteorología y cómo la automatización mediante una herramienta de clasificación basada en redes neuronales convolucionales podría optimizar este procedimiento. Este trabajo se enmarca dentro del proyecto Meteo-Huascarán, en colaboración con el SENAMHI y el grupo de investigación IAPUCP. El método empleado consiste en el entrenamiento de un modelo de red neuronal convolucional, utilizando aprendizaje supervisado para clasificar automáticamente los tipos de nubes a partir de imágenes tomadas desde tierra. La investigación contempla la preparación de una base de datos representativa, la implementación de tres arquitecturas de redes neuronales y la selección de la más adecuada mediante una evaluación comparativa. Además, el desarrollo una interfaz web para mostrar el funcionamiento del modelo. Los resultados muestran un avance en la automatización de la clasificación de tipos de nubes, seleccionando la arquitectura Inception v3 como la más adecuada para el proyecto. La implementación de la interfaz web facilita la interacción con el modelo, permitiendo la carga de imágenes de nubes y obteniendo la clasificación correspondiente de forma automática. Este trabajo contribuye a la automatización del proceso de clasificación de tipos de nubes en el SENAMHI, proponiendo una solución tecnológica que reduce la dependencia de observadores humanos y mejora la eficiencia y precisión en la observación meteorológica. La implementación de este modelo representa un paso adelante hacia la modernización y adaptación a las necesidades futuras en el campo de la meteorología en el Perú.
  • Item
    Desarrollo de un modelo predictivo del tiempo de espera de camiones en punto de descarga de mineral de una unidad mina superficial chilena utilizando machine learning
    (Pontificia Universidad Católica del Perú, 2025-01-14) Rojas Telles, Nicolás Lucas; Bravo Obregón, Sebastián Fabrizio; Guzmán Córdova, Maribel Giovana
    El presente trabajo busca desarrollar un modelo predictivo que permita tener un mejor control en los procesos de carguío y acarreo dentro de una unidad minera superficial utilizando herramientas de Machine Learning. La minería, al no poder influir en el precio de los metales (producto de venta), tiene como uno de sus objetivos principales la regulación de costos. Las actividades que generan la mayor cantidad de costos son el carguío y el acarreo; por tanto, se debe tener un monitoreo de estos procesos para así controlar y no exceder en los costos. Actualmente, en las diferentes industrias, se viene implementando distintos modelos predictivos basados en Machine Learning mediante diversas metodologías. Este trabajo se basa en el desarrollo de un modelo predictivo aplicando la metodología desarrollada por IBM (CRISP-DM) en la industria minera. Esta consta de cinco pasos fundamentales: entendimiento del negocio, entendimiento de la data, preparación de la data, modelamiento e implementación del modelo. En el presente trabajo, solo se realizará los primeros trespasos, puesto que realizar la implementación del modelo desarrollado no está dentro del alcance de la tesis. Como primera etapa de la metodología, Entendimiento del Negocio, se analizó la data, proporcionada de manera confidencial, y se detectar distintas variables para una posible mejora. De todas estas variables se escogió el tiempo de espera en el punto de descarga ya que presentaba mayor variabilidad y era posible hacer una mejora a partir de un modelo predictivo porque se contaba con la data. Una vez elegida esta variable se continua con los demás pasos de la metodología hasta finalmente obtener el modelo predictivo entrenado y evaluado. En el presente trabajo se probarán tres algoritmos: Random Forest, Regresión Logística y Adabbost. Los resultados presentados por los algoritmos mostrados fueron buenos en precisión según los indicadores obtenidos en el proceso de evaluación. Sin embargo, se deben optimizar más los modelos para obtener resultados más acertados en los otros indicadores como sensibilidad y especificidad.
  • Thumbnail Image
    Item
    Propuesta de solución a la sobrevaloración o subvaluación de futbolistas profesionales mediante algoritmos de Machine Learning
    (Pontificia Universidad Católica del Perú, 2025-01-13) Andia Cáceres, José Alexander; Silva Sotillo, Walter Alejandro
    La presente investigación aborda la problemática de la sobrevaloración y subvaluación de futbolistas profesionales en el mercado de fichajes, utilizando algoritmos de aprendizaje supervisado de Machine Learning para estimar el valor de mercado de los jugadores. El objetivo principal del estudio es identificar un modelo que permita una valoración objetiva y precisa de los futbolistas, ayudando a los clubes a tomar decisiones fundamentadas en datos para evitar la especulación y distorsión de precios. La metodología empleada incluyó la recolección y procesamiento de datos de plataformas reconocidas como Transfermarkt y SoFIFA, que proporcionaron información detallada sobre las características y rendimiento de los futbolistas. A partir de estas fuentes, se generó un conjunto de datos con variables relevantes como la edad, peso, altura y demás características. Posteriormente, se aplicaron cinco modelos de predicción: K-Nearest Neighbors (KNN), árboles de decisión, Random Forest, Gradient Boosting y regresión lineal múltiple. Los resultados indicaron que el modelo de árboles de decisión optimizado fue el más eficaz, con un RMSE de 0.45, MAE de 0.14 y un coeficiente de determinación (R²) de 99.94%. Este modelo permitió identificar con precisión jugadores sobrevalorados como Aymeric Laporte y subvalorados como Jude Bellingham. La aplicación de este modelo a un caso práctico del Chelsea FC evidenció una sobrevaloración de 127.5 millones de euros en sus fichajes, subrayando la necesidad de una mayor regulación en el mercado para evitar inflación de precios. En conclusión, el uso de algoritmos de Machine Learning es una herramienta poderosa para estimar el valor de mercado de los futbolistas de manera objetiva y eficiente, promoviendo un entorno financiero más equilibrado y sostenible en la industria del fútbol.
  • Thumbnail Image
    Item
    Análisis y diagnóstico del estado de paneles fotovoltaicos por el método de electroluminiscencia
    (Pontificia Universidad Católica del Perú, 2024-12-03) Prado López, Joseph Aldair; Paragua Macuri, Carlos Alberto
    El uso de paneles fotovoltaico ha permitido obtener energía renovable y amigable con el medio ambiente, pues tiene un impacto positivo en la reducción de gases de efecto invernadero. Su rápida popularidad y su acelerado desarrollo tecnológico ha permitido la comercialización de paneles en distintos ámbitos. Sin embargo, estos paneles pueden presentar defectos en sus celdas que en algunos casos no pueden visualizarse e influyen en su performance y como consecuencia en su tiempo de vida; por eso, existen las técnicas de trazador de curvas I-V, la termografía y la electroluminiscencia que permiten obtener la información del estado del panel fotovoltaico. En este trabajo de investigación, se ahonda en la técnica de electroluminiscencia que permite obtener imágenes de alta resolución para analizar los defectos presentes en un panel. Utilizando el sistema de electroluminiscencia “LumiSolarOutDoor”, esta técnica se aplicó a los paneles fotovoltaicos de sistemas conectados a la red en la facultad de Física de la Pontificia Universidad Católica del Perú con el objetivo de constituir una base de datos que servirá para el entrenamiento de la red neuronal pre entrenada “ResNet-50” que realizará la clasificación de su tecnología y del estado de degradación de cada celda que constituye el panel. El algoritmo planteado realiza un preprocesamiento, filtrado, segmentación, extracción de características y clasificación a las nuevas imágenes que se les desea analizar. Además, permite la relación de un modelo eléctrico que traza la curva I-V en base los datos de la placa del panel y los resultados de la clasificación por celda.
  • Thumbnail Image
    Item
    Diseño de un robot autónomo de limpieza utilizando aprendizaje de máquina
    (Pontificia Universidad Católica del Perú, 2024-10-02) Susanibar Sipan, Grover Hernando; Portella Delgado, Jhon Manuel
    En la actualidad existen varias marcas de robots limpiadores en el mercado, sin embargo, estos robots no realizan su misión de forma eficiente, debido a que presentan errores sistemáticos al momento de desplazarse en un ambiente requerido, por lo que no logran limpiar adecuadamente la suciedad. Se realizó un estudio de los motivos por los cuales los robots actuales presentan problemas y se determinó que los algoritmos de control que usan para desplazarse sobre una habitación no son del todo eficientes, por lo que es necesario plantear otros algoritmos que complementen y así se puedan disminuir los errores. La presente tesis es desarrollada con el objetivo de diseñar un robot de limpieza que sea capaz de desplazarse de forma autónoma sobre todos los espacios de una habitación y limpie de forma eficiente todas las partículas de suciedad presentes en el interior de dicha habitación. Asimismo, se propone el uso de un algoritmo de Aprendizaje de Máquina a través del entrenamiento de una Red Neuronal Convolucional que le permite al robot aprender a reconocer objetos y partes de la habitación para que en su recorrido de limpieza se pueda guiar y le sirva como retroalimentación en su propósito de localizarse. En el documento se detalla el diseño mecatrónico del robot limpiador describiendo los componentes mecánicos y de desplazamiento del robot; los sensores, actuadores y circuitos de alimentación de energía; así como la arquitectura de control y diagramas de flujo de los algoritmos involucrados. Con el objetivo de validar el funcionamiento del diseño de robot planteado, se realizaron simulaciones computacionales del recorrido y limpieza de un robot dentro de una habitación requerida. Con los resultados obtenidos se concluye que es posible mejorar el desempeño de los robots actuales a través del uso de algoritmos de Inteligencia Artificial que le permiten al robot ir aprendiendo a reconocer objetos a lo largo de su desplazamiento. Finalmente, el robot propuesto tiene un costo estimado del sistema mecánico y electrónico de S/. 5’610 y un costo de diseño de S/. 5’625 para el proyecto, teniendo en cuenta que el costo de diseño va a disminuir conforme el robot sea fabricado en grandes volúmenes de producción.
  • Thumbnail Image
    Item
    Segmentación semántica de escenas urbanas de la provincia de Huamanga
    (Pontificia Universidad Católica del Perú, 2024-09-10) Pasapera Huaman, Lui Gustavo; Flores Espinoza, Donato Andrés
    La presente tesis se enfoca en la identificación y clasificación de objetos en escenas urbanas de la provincia de Huamanga, explorando un entorno diferente al de las ciudades desarrolladas y otras bases de datos existentes. Se estudiarán las escenas urbanas de Huamanga para segmentar imágenes en 7 clases de datos: personas, vehículos, motociclistas, edificios, veredas, pistas y otros, que incluyen detalles de cielo y cables de energía eléctrica. El enfoque principal de la tesis estará centrado en la visión por computadora, específicamente en la segmentación semántica para la clasificación de objetos. Para ello, se emplearán arquitecturas de aprendizaje profundo pre-entrenadas adaptadas a Deeplabv3+, y se utilizarán imágenes de la provincia de Huamanga como base de datos local. La investigación se inicia con un análisis del estado del arte, destacando la importancia de la clasificación de objetos en escenas urbanas y los beneficios del aprendizaje profundo en comparación con métodos tradicionales. Se enfatiza la necesidad de utilizar bases de datos locales sobre las existentes, así como la base teórica para la clasificación de imágenes locales utilizando Deeplabv3+ y redes de aprendizaje profundo mediante la transferencia de aprendizaje. Posteriormente, se describe el diseño, la recopilación y el enfoque de la base de datos locales en comparación con conjuntos de datos como Imagenet y CityScapes, utilizando la arquitectura Deeplabv3+ junto con redes de aprendizaje profundo en los datos locales. Finalmente, se presentan los resultados basados en el incremento del número de datos, analizando la precisión, el Índice de Jaccard (IoU) y el mBFScore tanto a nivel global como por clase, junto con un análisis comparativo con la base de datos Cityscapes. Se proporcionan tablas sumarias que verifican los resultados de cada red de aprendizaje profundo y se propone hardware para dispositivos capaces de ejecutar tareas de segmentación semántica.
  • Thumbnail Image
    Item
    Incremento de la actividad digital y facturación de los clientes para el producto de tarjeta de crédito en una entidad bancaria mediante el uso de Machine Learning
    (Pontificia Universidad Católica del Perú, 2024-02-19) Diestra Ñañez, Joselin Rosemary; Carbajal López, Eduardo
    En los últimos años, el comercio electrónico y la transformación digital han presentado un auge, han experimentado un crecimiento exponencial impulsado por la pandemia del COVID-19 debido a que en todo el mundo se vivieron las restricciones de movilidad que generaron que tanto las empresas como las personas se “digitalicen” y por lo tanto proporcionen y compren, respectivamente, cada vez más productos y servicios en línea (UNCTAD, 2021). Es así que las entidades bancarias, vieron aquí una oportunidad de crecimiento, ya que ellas brindan a los clientes tarjetas de crédito con las que se pueden realizar consumos de forma digital y con las que, a su vez, por cada consumo ganan una comisión. Diferentes empresas han logrado incrementar sus ventas o los consumos de sus clientes significativamente gracias a la implementación de estrategias de comercio electrónico efectivas utilizando la herramienta de Machine Learning. Según Vlačić et al. (2021), la Inteligencia artificial (IA) se utiliza cada vez más para enriquecer las estrategias de marketing mediante el análisis de las relaciones entre los consumidores y las marcas. Una gran variedad de empresas utiliza la IA y Machine Learning (ML) con el fin de buscar entender mejor las necesidades de los consumidores, predecir la demanda a futuro y optimizar el servicio que se brinda a los clientes (De Mauro et al., 2022). El presente informe describe un proyecto en el que se utilizó la tecnología de Machine Learning para predecir la propensión al consumo e-commerce con tarjeta de crédito de los clientes de una entidad bancaria. El objetivo del proyecto es incrementar dos indicadores clave del negocio: el porcentaje de clientes que consumen de forma digital con su tarjeta de crédito en el mes y la facturación, es decir, el monto total consumido por los clientes; para ello, se desarrollaron modelos de Machine Learning con los que se predice qué clientes son los más propensos al consumo e-commerce con tarjeta de crédito (TC) y quienes los menos propensos, logrando así que el negocio pueda usar esta valiosa información para el rediseño, mejora y optimización de sus estrategias de incentivo y lanzamiento de campañas a los clientes TC.
  • Thumbnail Image
    Item
    Aplicación de técnicas de Machine Learning e imágenes de radar para la detección temprana de invasiones en zonas de alto riesgo de desastres
    (Pontificia Universidad Católica del Perú, 2023-11-22) Jaimes Cucho, Javier Alonso; Moya Huallpa, Luis Angel
    La presente tesis aborda la problemática de las invasiones de terrenos por grupos vulnerables. En la mayoría de casos estos grupos se asientan en zonas de alto riesgo de desastres debido a fenómenos naturales. Lo expuesto previamente se evidenció en los procesos migratorios del siglo pasado y en invasiones más recientes donde grupos de personas vulnerables se asentaron en zonas costeras periféricas a las ciudades. Estas zonas según los distintos mapas elaborados por el SIGRID y CISMID tienen mayor probabilidad de ocurrencia de desastres. Por lo tanto, esta investigación tiene por finalidad identificar, de forma temprana y remota, la creciente tasa de asentamientos informales en zonas de alto riesgo de desastres. Para tal propósito se plantea una metodología que permita detectar estructuras y patrones de asentamientos informales. Para la detección de invasiones se emplean diversas técnicas de machine learning empleando imágenes satelitales de radar, de libre acceso, de media resolución (10m) y técnica de postprocesamiento para la mejora en el desempeño de la predicción. Para la evaluación de la metodología planteada se empleó como caso de estudio la invasión en Lomo de Corvina, ocurrido en abril del 2021. Para las áreas invadidas se obtuvo valores promedio de precision del 39%, lo cual es indicador que los algoritmos sobrestiman las áreas invadidas debido a las distorsiones complejas y ruido en las imágenes de radar, y recall del 85%, lo que indica que los algoritmos identifican correctamente un alto porcentaje del área invadida. Por lo tanto, se puede emplear esta metodología para la detección temprana de áreas invadidas con características similares a las estudiadas. Se lograrán mejores resultados si las invasiones son repentinas, de gran extensión y están ubicadas en zonas poco accidentadas y sin cubierta vegetal.
  • Thumbnail Image
    Item
    Implementación de un sistema de información para la gestión del proceso de reclutamiento y selección de personal orientado a la asignación de puestos en pymes
    (Pontificia Universidad Católica del Perú, 2023-09-21) Alvarez Rojas, Dominick Patricia; Quispe Vilchez, Eder Ramiro
    En la actualidad, las empresas buscan obtener el personal más idóneo para los puestos de trabajo a través del proceso de reclutamiento y selección. Esto debido a que una elección adecuada tiene un impacto positivo en las organizaciones para la consecución de sus objetivos. Además, en muchas ocasiones, se cuestionan si el personal ya existente dentro de la organización también puede calificar como potencial candidato. Ante ello, surge una necesidad por llevar el proceso de reclutamiento y selección de la manera más efectiva y eficiente posible; sin embargo, en la mayoría de medianas y pequeñas empresas carecen de herramientas tecnológicas que les permita hacer el uso adecuado de la información. Es por ello que, actualmente, el proceso de reclutamiento y selección en la mayoría de las pymes se gestiona con actividades manuales o con herramientas que almacenan la información del personal, pero no permiten estructurarla y obtener información necesaria y accesible para la organización. Esto se da porque la mayoría de herramientas actuales son utilizadas como un repositorio para los documentos e información del trabajador sin aprovecharla para la toma de decisiones dentro del proceso de reclutamiento y selección. Así mismo, se evidencia que en la mayoría de pymes no existen lineamientos formales para llevar a cabo el proceso de reclutamiento y selección, es por ello que procedimientos como la selección del personal se ejecutan en base a un conocimiento tácito. Como consecuencia, la data no se utiliza en su totalidad para obtener información enriquecedora para este proceso, además que genera un sentimiento de desconfianza por parte de los postulantes internos o externos sobre la objetividad de las actividades llevadas a cabo en el proceso. Es por todo lo expuesto que se evidencian los problemas y necesidades que surgen en el proceso reclutamiento y selección en las pequeñas y medianas empresas, por lo que se presenta en el presente documento el proyecto de tesis acerca la de implementación de un sistema de información para la gestión del proceso de reclutamiento y selección en pymes, la cual sigue lineamientos para el diseño centrado en el usuario así como la automatización de la selección personal implementando un algoritmo de machine learning basado en la experiencia, cursos y habilidades del personal o potencial candidato.
  • Thumbnail Image
    Item
    Identificación de múltiples intenciones y sus dependencias subsumidas en múltiples utterances para el desarrollo de Chatbots
    (Pontificia Universidad Católica del Perú, 2023-03-29) Pariasca Trevejo, Emanuel Eduardo Franco; Beltran Castañón, César Armando
    Los chatbots son sistemas de procesamiento de lenguaje natural con los que se puede interactuar mediante una interfaz de texto o voz, y han sido adoptados en muchas industrias para responder las preguntas y solicitudes de los usuarios a través de interfaces de chat. Por ende, los chatbots tienen un valor comercial como asistentes virtuales. Tanto es así que se está trabajando en que los chatbots puedan comunicarse con los usuarios de manera similar a la comunicación que hay entre dos humanos; en otras palabras, un usuario debe experimentar la sensación de comunicarse con una persona. A su vez, dado que los chatbots eliminan los factores humanos y están disponibles las 24 horas del día, hay un incremento en la demanda de las capacidades de inteligencia artificial para interactuar con los clientes. En este aspecto, la sensación de comunicarse con una persona puede ser lograda mediante la inclusión de técnicas de comprensión del lenguaje natural, procesamiento del lenguaje natural, generación del lenguaje natural y aprendizaje automático. De este modo, los chatbots son capaces de interpretar una o varias intenciones comunicativas en cada “utterance” de un usuario, siendo que un “utterance” es todo lo que el usuario o chatbot mencionan mientras es su turno de hablar o escribir. Así mismo, los chatbots pueden asociar una o varias intenciones comunicativas a un identificador de “utterances” que contiene varios “utterances”. Por ende, a partir del “utterance” de un usuario, un chatbot es capaz de interpretar una o varias intenciones comunicativas asociadas a un identificador de “utterances”, a través del cual usa los “utterances” contenidos para escoger o generar un “utterance” como respuesta al usuario. No obstante, si bien un chatbot puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, con un “utterance”, no puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, que contenga múltiples “utterances”. En consecuencia, tampoco se ha investigado como encontrar los “utterances” de respuesta del chatbot cuando se tiene múltiples “utterances”. Por lo descrito previamente, en este proyecto se propone la implementación de una herramienta para: identificar múltiples intenciones comunicativas en múltiples “utterances”, identificar las dependencias entre intenciones, agrupar las intenciones a partir de sus dependencias, identificar las dependencias entre los grupos de intenciones respecto de los identificadores de “utterances” y los identificadores de “utterances” respecto de los “utterances”. Además, para facilitar el uso de la herramienta, se elabora una interfaz de programación de aplicaciones que recibe múltiples “utterances” en forma de texto, y devuelve los “utterances” segmentados, las intenciones identificadas, los grupos entre intenciones y los “utterances” de respuesta del chatbot para cada grupo de intenciones. Los resultados obtenidos evidencian que los enfoques utilizados son exitosos. Por último, se espera mejorar los resultados con técnicas de inteligencia artificial y computación lingüística.