Facultad de Ciencias e Ingeniería

Permanent URI for this communityhttp://98.81.228.127/handle/20.500.12404/7

Browse

Search Results

Now showing 1 - 10 of 14
  • Thumbnail Image
    Item
    Análisis y diagnóstico del estado de paneles fotovoltaicos por el método de electroluminiscencia
    (Pontificia Universidad Católica del Perú, 2024-12-03) Prado López, Joseph Aldair; Paragua Macuri, Carlos Alberto
    El uso de paneles fotovoltaico ha permitido obtener energía renovable y amigable con el medio ambiente, pues tiene un impacto positivo en la reducción de gases de efecto invernadero. Su rápida popularidad y su acelerado desarrollo tecnológico ha permitido la comercialización de paneles en distintos ámbitos. Sin embargo, estos paneles pueden presentar defectos en sus celdas que en algunos casos no pueden visualizarse e influyen en su performance y como consecuencia en su tiempo de vida; por eso, existen las técnicas de trazador de curvas I-V, la termografía y la electroluminiscencia que permiten obtener la información del estado del panel fotovoltaico. En este trabajo de investigación, se ahonda en la técnica de electroluminiscencia que permite obtener imágenes de alta resolución para analizar los defectos presentes en un panel. Utilizando el sistema de electroluminiscencia “LumiSolarOutDoor”, esta técnica se aplicó a los paneles fotovoltaicos de sistemas conectados a la red en la facultad de Física de la Pontificia Universidad Católica del Perú con el objetivo de constituir una base de datos que servirá para el entrenamiento de la red neuronal pre entrenada “ResNet-50” que realizará la clasificación de su tecnología y del estado de degradación de cada celda que constituye el panel. El algoritmo planteado realiza un preprocesamiento, filtrado, segmentación, extracción de características y clasificación a las nuevas imágenes que se les desea analizar. Además, permite la relación de un modelo eléctrico que traza la curva I-V en base los datos de la placa del panel y los resultados de la clasificación por celda.
  • Thumbnail Image
    Item
    Diseño de un robot autónomo de limpieza utilizando aprendizaje de máquina
    (Pontificia Universidad Católica del Perú, 2024-10-02) Susanibar Sipan, Grover Hernando; Portella Delgado, Jhon Manuel
    En la actualidad existen varias marcas de robots limpiadores en el mercado, sin embargo, estos robots no realizan su misión de forma eficiente, debido a que presentan errores sistemáticos al momento de desplazarse en un ambiente requerido, por lo que no logran limpiar adecuadamente la suciedad. Se realizó un estudio de los motivos por los cuales los robots actuales presentan problemas y se determinó que los algoritmos de control que usan para desplazarse sobre una habitación no son del todo eficientes, por lo que es necesario plantear otros algoritmos que complementen y así se puedan disminuir los errores. La presente tesis es desarrollada con el objetivo de diseñar un robot de limpieza que sea capaz de desplazarse de forma autónoma sobre todos los espacios de una habitación y limpie de forma eficiente todas las partículas de suciedad presentes en el interior de dicha habitación. Asimismo, se propone el uso de un algoritmo de Aprendizaje de Máquina a través del entrenamiento de una Red Neuronal Convolucional que le permite al robot aprender a reconocer objetos y partes de la habitación para que en su recorrido de limpieza se pueda guiar y le sirva como retroalimentación en su propósito de localizarse. En el documento se detalla el diseño mecatrónico del robot limpiador describiendo los componentes mecánicos y de desplazamiento del robot; los sensores, actuadores y circuitos de alimentación de energía; así como la arquitectura de control y diagramas de flujo de los algoritmos involucrados. Con el objetivo de validar el funcionamiento del diseño de robot planteado, se realizaron simulaciones computacionales del recorrido y limpieza de un robot dentro de una habitación requerida. Con los resultados obtenidos se concluye que es posible mejorar el desempeño de los robots actuales a través del uso de algoritmos de Inteligencia Artificial que le permiten al robot ir aprendiendo a reconocer objetos a lo largo de su desplazamiento. Finalmente, el robot propuesto tiene un costo estimado del sistema mecánico y electrónico de S/. 5’610 y un costo de diseño de S/. 5’625 para el proyecto, teniendo en cuenta que el costo de diseño va a disminuir conforme el robot sea fabricado en grandes volúmenes de producción.
  • Thumbnail Image
    Item
    Segmentación semántica de escenas urbanas de la provincia de Huamanga
    (Pontificia Universidad Católica del Perú, 2024-09-10) Pasapera Huaman, Lui Gustavo; Flores Espinoza, Donato Andrés
    La presente tesis se enfoca en la identificación y clasificación de objetos en escenas urbanas de la provincia de Huamanga, explorando un entorno diferente al de las ciudades desarrolladas y otras bases de datos existentes. Se estudiarán las escenas urbanas de Huamanga para segmentar imágenes en 7 clases de datos: personas, vehículos, motociclistas, edificios, veredas, pistas y otros, que incluyen detalles de cielo y cables de energía eléctrica. El enfoque principal de la tesis estará centrado en la visión por computadora, específicamente en la segmentación semántica para la clasificación de objetos. Para ello, se emplearán arquitecturas de aprendizaje profundo pre-entrenadas adaptadas a Deeplabv3+, y se utilizarán imágenes de la provincia de Huamanga como base de datos local. La investigación se inicia con un análisis del estado del arte, destacando la importancia de la clasificación de objetos en escenas urbanas y los beneficios del aprendizaje profundo en comparación con métodos tradicionales. Se enfatiza la necesidad de utilizar bases de datos locales sobre las existentes, así como la base teórica para la clasificación de imágenes locales utilizando Deeplabv3+ y redes de aprendizaje profundo mediante la transferencia de aprendizaje. Posteriormente, se describe el diseño, la recopilación y el enfoque de la base de datos locales en comparación con conjuntos de datos como Imagenet y CityScapes, utilizando la arquitectura Deeplabv3+ junto con redes de aprendizaje profundo en los datos locales. Finalmente, se presentan los resultados basados en el incremento del número de datos, analizando la precisión, el Índice de Jaccard (IoU) y el mBFScore tanto a nivel global como por clase, junto con un análisis comparativo con la base de datos Cityscapes. Se proporcionan tablas sumarias que verifican los resultados de cada red de aprendizaje profundo y se propone hardware para dispositivos capaces de ejecutar tareas de segmentación semántica.
  • Thumbnail Image
    Item
    Incremento de la actividad digital y facturación de los clientes para el producto de tarjeta de crédito en una entidad bancaria mediante el uso de Machine Learning
    (Pontificia Universidad Católica del Perú, 2024-02-19) Diestra Ñañez, Joselin Rosemary; Carbajal López, Eduardo
    En los últimos años, el comercio electrónico y la transformación digital han presentado un auge, han experimentado un crecimiento exponencial impulsado por la pandemia del COVID-19 debido a que en todo el mundo se vivieron las restricciones de movilidad que generaron que tanto las empresas como las personas se “digitalicen” y por lo tanto proporcionen y compren, respectivamente, cada vez más productos y servicios en línea (UNCTAD, 2021). Es así que las entidades bancarias, vieron aquí una oportunidad de crecimiento, ya que ellas brindan a los clientes tarjetas de crédito con las que se pueden realizar consumos de forma digital y con las que, a su vez, por cada consumo ganan una comisión. Diferentes empresas han logrado incrementar sus ventas o los consumos de sus clientes significativamente gracias a la implementación de estrategias de comercio electrónico efectivas utilizando la herramienta de Machine Learning. Según Vlačić et al. (2021), la Inteligencia artificial (IA) se utiliza cada vez más para enriquecer las estrategias de marketing mediante el análisis de las relaciones entre los consumidores y las marcas. Una gran variedad de empresas utiliza la IA y Machine Learning (ML) con el fin de buscar entender mejor las necesidades de los consumidores, predecir la demanda a futuro y optimizar el servicio que se brinda a los clientes (De Mauro et al., 2022). El presente informe describe un proyecto en el que se utilizó la tecnología de Machine Learning para predecir la propensión al consumo e-commerce con tarjeta de crédito de los clientes de una entidad bancaria. El objetivo del proyecto es incrementar dos indicadores clave del negocio: el porcentaje de clientes que consumen de forma digital con su tarjeta de crédito en el mes y la facturación, es decir, el monto total consumido por los clientes; para ello, se desarrollaron modelos de Machine Learning con los que se predice qué clientes son los más propensos al consumo e-commerce con tarjeta de crédito (TC) y quienes los menos propensos, logrando así que el negocio pueda usar esta valiosa información para el rediseño, mejora y optimización de sus estrategias de incentivo y lanzamiento de campañas a los clientes TC.
  • Thumbnail Image
    Item
    Aplicación de técnicas de Machine Learning e imágenes de radar para la detección temprana de invasiones en zonas de alto riesgo de desastres
    (Pontificia Universidad Católica del Perú, 2023-11-22) Jaimes Cucho, Javier Alonso; Moya Huallpa, Luis Angel
    La presente tesis aborda la problemática de las invasiones de terrenos por grupos vulnerables. En la mayoría de casos estos grupos se asientan en zonas de alto riesgo de desastres debido a fenómenos naturales. Lo expuesto previamente se evidenció en los procesos migratorios del siglo pasado y en invasiones más recientes donde grupos de personas vulnerables se asentaron en zonas costeras periféricas a las ciudades. Estas zonas según los distintos mapas elaborados por el SIGRID y CISMID tienen mayor probabilidad de ocurrencia de desastres. Por lo tanto, esta investigación tiene por finalidad identificar, de forma temprana y remota, la creciente tasa de asentamientos informales en zonas de alto riesgo de desastres. Para tal propósito se plantea una metodología que permita detectar estructuras y patrones de asentamientos informales. Para la detección de invasiones se emplean diversas técnicas de machine learning empleando imágenes satelitales de radar, de libre acceso, de media resolución (10m) y técnica de postprocesamiento para la mejora en el desempeño de la predicción. Para la evaluación de la metodología planteada se empleó como caso de estudio la invasión en Lomo de Corvina, ocurrido en abril del 2021. Para las áreas invadidas se obtuvo valores promedio de precision del 39%, lo cual es indicador que los algoritmos sobrestiman las áreas invadidas debido a las distorsiones complejas y ruido en las imágenes de radar, y recall del 85%, lo que indica que los algoritmos identifican correctamente un alto porcentaje del área invadida. Por lo tanto, se puede emplear esta metodología para la detección temprana de áreas invadidas con características similares a las estudiadas. Se lograrán mejores resultados si las invasiones son repentinas, de gran extensión y están ubicadas en zonas poco accidentadas y sin cubierta vegetal.
  • Thumbnail Image
    Item
    Implementación de un sistema de información para la gestión del proceso de reclutamiento y selección de personal orientado a la asignación de puestos en pymes
    (Pontificia Universidad Católica del Perú, 2023-09-21) Alvarez Rojas, Dominick Patricia; Quispe Vilchez, Eder Ramiro
    En la actualidad, las empresas buscan obtener el personal más idóneo para los puestos de trabajo a través del proceso de reclutamiento y selección. Esto debido a que una elección adecuada tiene un impacto positivo en las organizaciones para la consecución de sus objetivos. Además, en muchas ocasiones, se cuestionan si el personal ya existente dentro de la organización también puede calificar como potencial candidato. Ante ello, surge una necesidad por llevar el proceso de reclutamiento y selección de la manera más efectiva y eficiente posible; sin embargo, en la mayoría de medianas y pequeñas empresas carecen de herramientas tecnológicas que les permita hacer el uso adecuado de la información. Es por ello que, actualmente, el proceso de reclutamiento y selección en la mayoría de las pymes se gestiona con actividades manuales o con herramientas que almacenan la información del personal, pero no permiten estructurarla y obtener información necesaria y accesible para la organización. Esto se da porque la mayoría de herramientas actuales son utilizadas como un repositorio para los documentos e información del trabajador sin aprovecharla para la toma de decisiones dentro del proceso de reclutamiento y selección. Así mismo, se evidencia que en la mayoría de pymes no existen lineamientos formales para llevar a cabo el proceso de reclutamiento y selección, es por ello que procedimientos como la selección del personal se ejecutan en base a un conocimiento tácito. Como consecuencia, la data no se utiliza en su totalidad para obtener información enriquecedora para este proceso, además que genera un sentimiento de desconfianza por parte de los postulantes internos o externos sobre la objetividad de las actividades llevadas a cabo en el proceso. Es por todo lo expuesto que se evidencian los problemas y necesidades que surgen en el proceso reclutamiento y selección en las pequeñas y medianas empresas, por lo que se presenta en el presente documento el proyecto de tesis acerca la de implementación de un sistema de información para la gestión del proceso de reclutamiento y selección en pymes, la cual sigue lineamientos para el diseño centrado en el usuario así como la automatización de la selección personal implementando un algoritmo de machine learning basado en la experiencia, cursos y habilidades del personal o potencial candidato.
  • Thumbnail Image
    Item
    Identificación de múltiples intenciones y sus dependencias subsumidas en múltiples utterances para el desarrollo de Chatbots
    (Pontificia Universidad Católica del Perú, 2023-03-29) Pariasca Trevejo, Emanuel Eduardo Franco; Beltran Castañón, César Armando
    Los chatbots son sistemas de procesamiento de lenguaje natural con los que se puede interactuar mediante una interfaz de texto o voz, y han sido adoptados en muchas industrias para responder las preguntas y solicitudes de los usuarios a través de interfaces de chat. Por ende, los chatbots tienen un valor comercial como asistentes virtuales. Tanto es así que se está trabajando en que los chatbots puedan comunicarse con los usuarios de manera similar a la comunicación que hay entre dos humanos; en otras palabras, un usuario debe experimentar la sensación de comunicarse con una persona. A su vez, dado que los chatbots eliminan los factores humanos y están disponibles las 24 horas del día, hay un incremento en la demanda de las capacidades de inteligencia artificial para interactuar con los clientes. En este aspecto, la sensación de comunicarse con una persona puede ser lograda mediante la inclusión de técnicas de comprensión del lenguaje natural, procesamiento del lenguaje natural, generación del lenguaje natural y aprendizaje automático. De este modo, los chatbots son capaces de interpretar una o varias intenciones comunicativas en cada “utterance” de un usuario, siendo que un “utterance” es todo lo que el usuario o chatbot mencionan mientras es su turno de hablar o escribir. Así mismo, los chatbots pueden asociar una o varias intenciones comunicativas a un identificador de “utterances” que contiene varios “utterances”. Por ende, a partir del “utterance” de un usuario, un chatbot es capaz de interpretar una o varias intenciones comunicativas asociadas a un identificador de “utterances”, a través del cual usa los “utterances” contenidos para escoger o generar un “utterance” como respuesta al usuario. No obstante, si bien un chatbot puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, con un “utterance”, no puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, que contenga múltiples “utterances”. En consecuencia, tampoco se ha investigado como encontrar los “utterances” de respuesta del chatbot cuando se tiene múltiples “utterances”. Por lo descrito previamente, en este proyecto se propone la implementación de una herramienta para: identificar múltiples intenciones comunicativas en múltiples “utterances”, identificar las dependencias entre intenciones, agrupar las intenciones a partir de sus dependencias, identificar las dependencias entre los grupos de intenciones respecto de los identificadores de “utterances” y los identificadores de “utterances” respecto de los “utterances”. Además, para facilitar el uso de la herramienta, se elabora una interfaz de programación de aplicaciones que recibe múltiples “utterances” en forma de texto, y devuelve los “utterances” segmentados, las intenciones identificadas, los grupos entre intenciones y los “utterances” de respuesta del chatbot para cada grupo de intenciones. Los resultados obtenidos evidencian que los enfoques utilizados son exitosos. Por último, se espera mejorar los resultados con técnicas de inteligencia artificial y computación lingüística.
  • Thumbnail Image
    Item
    Desarrollo de modelo predictivo de desgaste basado en datos de ensayos según ASTM G-65 utilizando algoritmos de Machine Learning
    (Pontificia Universidad Católica del Perú, 2023-01-24) Cabanillas Flores, Renato; Sakihama Uehara, Jose Luis Hideki
    Los ensayos de desgaste según la norma ASTM G-65 son realizados para determinar la resistencia al desgaste abrasivo de bajo esfuerzo de un material mediante su exposición al contacto con arena seca. Estos ensayos permiten la evaluación de recargues duros o hardfacing con la finalidad de encontrar los efectos de los elementos aleantes sobre la microestructura y la resistencia al desgaste. Por su parte, el aprendizaje automático, conocido como Machine Learning, es una técnica del campo de la inteligencia artificial que busca desarrollar modelos computacionales con la capacidad de realizar tareas de clasificación y regresión. La metodología utilizada para realizar el entrenamiento, y posterior evaluación de los modelos obtenidos, consiste en la digitalización de los registros de ensayos de desgaste ejecutados por la American Welding Society, el análisis del comportamiento de la pérdida de masa en función del porcentaje de la concentración de los elementos presentes en el depósito del recargue duro y el desarrollo de los siguientes algoritmos de modelos de aprendizaje automático: k-vecinos cercanos (KNN), red neuronal artificial (ANN) y máquina de aprendizaje extremo (ELM). Posterior al entrenamiento, se emplearon los modelos ya entrenados para calcular la pérdida de masa en probetas previamente ensayadas en el Laboratorio de Materiales de la Pontificia Universidad Católica del Perú (PUCP) y así evaluar la efectividad de los modelos en la sección de resultados. Para los modelos entrenados se identificaron las variantes con mejor efectividad en la predicción de pérdida de masa, las cuales fueron la red neuronal artificial de 3 capas entrenada en 1000 épocas, el modelo de k-vecinos cercanos con 6 vecinos y la máquina de aprendizaje extremo con 10,000 neuronas. Para la comparación con datos de ensayos realizado sen la PUCP se obtuvo un error medio absoluto de 0.086 g para ANN, 0.726 g para KNN 0.853 g para ELM; en contraste con los valores de 0.228 g, 0.321 g y 0.666 g obtenidos para los ensayos realizado por la AWS, respectivamente. De entre los 3 modelos entrenados, se identifica que la red neuronal artificial congrega la mayor cantidad de puntos cercanos a la igualdad entre el valor real de pérdida de masa y la predicción calculada mediante el modelo. Se concluye que la ANN puede predecir con éxito la pérdida de masa en función de la composición química del depósito y su dureza, alcanzando una precisión del 85.75%. Por otro lado, la ELM requiere elevados recursos computacionales para entrenarse por encima de las 500,000 neuronas, así como un análisis más profundo para evitar el sobreajuste del modelo a los datos de entrenamiento. El algoritmo KNN no calcula exitosamente la masa perdida en un ensayo de desgaste debido a que entrega valores de promedios locales para datos que no se estructuran de forma ordenada. Finalmente, los resultados alcanzados brindan validez a la aplicación de técnicas de aprendizaje automático para encontrar la pérdida de masa en ensayos de desgaste.
  • Thumbnail Image
    Item
    Visión computacional en la industria de la construcción: identificación de equipos de seguridad en obras mediante el uso de deep learning
    (Pontificia Universidad Católica del Perú, 2022-11-11) Gutiérrez Torres, Miguel Moisés; Murguía Sánchez, Danny Eduardo
    La industria de la construcción es uno de los sectores que expone la vida de los operarios en constante peligro debido a las condiciones laborales que esta demanda como el trabajo en alturas, manejo de maquinaria pesada, entre otros. El uso de equipos de protección colectiva y personal es una medida de seguridad para resguardar la vida de los operarios frente a caídas, colisiones, entre otros accidentes. No obstante, en campo existen actitudes inapropiadas por parte del personal de obra pues estos tienden a retirarse los equipos de seguridad, debido a la disconformidad que produce su peso, el cambio de temperatura, entre otros factores. En efecto, actualmente el control de estos comportamientos es exhaustivo, pues involucra monitorear múltiples actividades proactivamente a lo largo de la jornada laboral. Este estudio propone evaluar la efectividad de la tecnología deep learning en automatizar el reconocimiento de estos equipos de seguridad para comunicar a los supervisores de campos sobre el uso inapropiado de estos objetos y, de esta manera, controlar los accidentes de obra. En consecuencia, se desarrolló una base de datos que comprende imágenes de equipos de seguridad en obra bajo diferentes condiciones visuales: variedad de intraclase (posturas, color, contexturas, estaturas, etc.), intensidades de iluminación, oclusiones, aglomeraciones, entre otros efectos. Este entregable se justifica debido a que en comparación con la literatura se analizó una mayor variedad de equipos de seguridad y se empleó para entrenar y evaluar tres algoritmos más recurridos en la bibliografía (VGG-16, Resnet-18 y Inception-V3), debido al desempeño de sus resultados. Específicamente, el performance del prototipo Inception-V3 alcanzó un valor de 84% en accuracy empleando el set de datos de escala regular. Este desempeño indica que las metodologías en aprendizaje profundo pueden contribuir a monitorear equipos de seguridad de obra al disponer de mayor datos, seleccionando modelos más sofisticados y siguiendo las recomendaciones en este documento para evitar confusiones en la clasificación de objetos. Asimismo, existen dos contribuciones adicionales. En primer lugar, se realizó un resumen del estado del arte sobre las aplicaciones actuales de la visión computacional en el sector construcción con el objetivo de orientar a otros proyectos a seleccionar un tema de estudio, identificar los logros alcanzados, responder a las limitaciones encontradas y reconocer buenas prácticas. En segundo lugar, el set de base de datos desarrollado presenta una mayor variedad de tipos de EPP’s y EPC’s, respecto a la literatura, y está disponible a solicitud con el objetivo de estandarizar la existencia de un set de datos propio para el sector construcción y facilitar la aplicación de la visión computacional en esta industria.
  • Thumbnail Image
    Item
    Desarrollo de un Framework para la identificación del nivel de complejidad de texto para el entrenamiento de chatbots basado en Machine Learning
    (Pontificia Universidad Católica del Perú, 2022-03-21) Matos Rios, Hans; Beltrán Castañón, César Armando
    La generación de diálogo implica diseñar un programa para generar una conversación natural, esto requiere desarrollar algoritmos que puedan conversar con un ser humano y otro programa de manera coherente y fluida. Desarrollar una conversación también depende del contexto y conocimiento del interlocutor, lo cual nos lleva a definir la existencia de niveles de complejidad conversacional, la cual se refiere a determinar que tan fácil o difícil de leer es un texto. En este aspecto, especialmente para el idioma español, no existe una herramienta que tenga un módulo propio que le permita clasificar textos en español por su complejidad textual. En el presente trabajo de fin de carrera se realiza el desarrollo de un módulo en el lenguaje de programación Python, el cual funciona como un Framework para identificar la complejidad textual de textos en español usando técnicas de Machine Learning. Para ello, en primer lugar, se implementaron 48 métricas de análisis de complejidad textual basadas en Coh-Metrix usando el lenguaje de programación Python. Dichas métricas convierten textos en español en datos numéricos con los cuales se entrenaron distintos modelos de Machine Learning, con el motivo de obtener el mejor modelo a utilizar con el Framework desarrollado, siendo este capaz de utilizar un modelo personalizado provisto por el usuario. Para ello, se necesitó obtener un corpus de 183 textos en español para realizar dicho entrenamiento, el cual fue obtenido al descargar textos educativos de nivel primaria y secundaria. Por último, se entrenó un chatbot con los textos obtenidos para el corpus, cuyas respuestas generadas fueron analizados con el Framework previamente desarrollado, identificando que el nivel de complejidad de dichas respuestas correspondía al nivel de los textos con los cuales el chatbot fue entrenado. En conclusión, en el presente proyecto de investigación se desarrolla un módulo de Python que funciona como un Framework, el cual es capaz de identificar la complejidad textual de textos en español, ya sea con el mejor modelo de Machine Learning utilizado en el presente proyecto o utilizando uno provisto por el usuario de la herramienta.