Informática con mención en Ciencias de la Computación

Permanent URI for this collectionhttp://98.81.228.127/handle/20.500.12404/6357

Browse

Search Results

Now showing 1 - 3 of 3
  • Thumbnail Image
    Item
    Ontologías de dominio para dar soporte al proceso de creación de diccionarios monolingües
    (Pontificia Universidad Católica del Perú, 2024-10-17) Rebaza Valdivia, Carlos Alberto; Beltrán Castañón, César Armando; Brossard Núñez, Ian Paul
    Los diccionarios han sido, durante siglos, fundamentales para el entendimiento y la preservación de las lenguas. Fueron también la última palabra para resolver muchas discusiones, actuando como autoridades definitivas en cuestiones de significado y uso correcto de las palabras. La importancia de los diccionarios radica en su capacidad para proporcionar a los lectores una referencia confiable y precisa que facilita la comunicación efectiva y el aprendizaje. Sin embargo, la creación de un diccionario es una tarea ardua y meticulosa que puede llevar décadas en completarse. Este proceso implica la recopilación exhaustiva de datos léxicos, el análisis detallado de palabras y sus múltiples significados, y la verificación de su uso en diferentes contextos. Cada nueva edición de un diccionario requiere un esfuerzo considerable para incorporar cambios en el lenguaje, incluyendo la adición de nuevas palabras, la modificación de definiciones existentes y la eliminación de términos obsoletos. Esta labor intensa asegura que los diccionarios continúen siendo recursos valiosos y relevantes en un mundo en constante evolución. La lexicografía, la disciplina dedicada a la elaboración y estudio de diccionarios, enfrenta numerosos desafíos en su práctica. Más allá del diseño de la estructura del diccionario, el lexicógrafo debe lidiar con la complejidad de la lengua, donde uno de los mayores retos es la polisemia. Las palabras con múltiples significados requieren un tratamiento cuidadoso para asegurar que las definiciones sean precisas y relevantes para el contexto en el que se utilizarán. Este proceso implica no solo identificar todos los posibles significados de una palabra, sino también determinar cuál de estos es más adecuado para el lector objetivo del diccionario. Además, el lexicógrafo debe asegurarse de que las definiciones sean claras y comprensibles, evitando ambigüedades y proporcionando ejemplos de uso que ilustren adecuadamente cada significado. Este desafío se amplifica en un entorno lingüístico dinámico donde el lenguaje evoluciona constantemente, haciendo imprescindible la utilización de herramientas avanzadas que apoyen en la toma de decisiones y en la estructuración eficiente de las entradas del diccionario. Actualmente, tecnologías como TLex y Microsoft Word brindan herramientas que se enfocan en la edición y presentación de las entradas del diccionario, orientadas a detallar las definiciones seleccionadas y mejorar la calidad de su presentación. Sin embargo, el lenguaje es dinámico y evoluciona constantemente, comportándose como un ente vivo en constante evolución que refleja cambios sociales, culturales y tecnológicos. Palabras nuevas emergen, otras caen en desuso y los significados pueden transformarse con el tiempo. Este comportamiento evolutivo del lenguaje presenta un desafío significativo para la lexicografía tradicional. La propuesta de esta tesis es tratar el corpus lexicográfico como un ente orgánico que evoluciona, integrando ontologías y folksonomías para gestionar y adaptar este dinamismo. Las ontologías proporcionan una estructura jerárquica y organizada del conocimiento, permitiendo representar de manera precisa las relaciones entre los términos. Por otro lado, las folksonomías, que son sistemas de clasificación colaborativa, permiten analizar el uso real del lenguaje de manera más flexible y adaptativa. Al apoyarse en grafos de conocimiento, es posible realizar análisis detallados y visualizaciones que ayudan a identificar tendencias, relaciones y cambios en el uso del lenguaje. Este enfoque no solo facilita la actualización y mejora continua de los diccionarios, sino que también permite ofrecer definiciones más precisas y relevantes. Herramientas como las nubes de palabras (wordclouds) pueden proporcionar al lexicógrafo valiosa información sobre las definiciones y su composición léxica. Estas herramientas visualizan la frecuencia de uso de las palabras, sugiriendo qué términos son más comunes y, por ende, más fácilmente comprendidos por los lectores. Esto permite al lexicógrafo identificar rápidamente cuáles definiciones están compuestas por palabras de uso más frecuente, facilitando la creación de entradas más accesibles y relevantes. De igual manera, si algunas palabras dentro de las definiciones pudieran estar sujetas a algún tipo de censura, esta información puede ser comunicada al lexicógrafo, permitiéndole tomar decisiones informadas sobre qué definiciones incluir en el diccionario, acorde al público objetivo. Al integrar estas herramientas en el proceso lexicográfico, se mejora la precisión y relevancia de las definiciones, asegurando que el diccionario cumpla con las expectativas y necesidades de sus lectores.
  • Thumbnail Image
    Item
    Evaluación de método para la detección automática de puntos de referencia (landmark detection) en imágenes en dos dimensiones de huellas plantares para el diseño de una plantilla ortopédica
    (Pontificia Universidad Católica del Perú, 2024-08-28) Donayre Gamboa, Gustavo Miguel; Fonseca Arroyo, Pablo Alejandro
    El presente trabajo de investigación evalúa la técnica de regresión de mapas de calor (heatmap regression - HR) para la detección automática de puntos de referencia (landmark detection) en imágenes médicas, específicamente en las imágenes de huellas plantares en dos dimensiones. El estudio se basa en la regresión de mapas de calor con aprendizaje profundo, una técnica que ha demostrado ser efectiva en la detección de puntos en rostros y en la estimación de la pose humana. Se propone un método automático para la detección de 8 puntos en las imágenes digitalizadas de huellas plantares que servirán de referencia para el diseño base de una plantilla ortopédica bidimensional, buscando así mejorar el proceso de fabricación de plantillas ortopédicas, que actualmente se realiza de forma manual y artesanal en la mayoría de los países de América Latina. La detección automática de estos puntos de referencia en las huellas plantares tiene el potencial de agilizar este proceso y mejorar la precisión de las plantillas. Los resultados del estudio mostraron un error absoluto promedio normalizado de 0.01017 en el conjunto de validación. Estas evaluaciones se llevaron a cabo utilizando una red convolucional U-Net, la cual consta de una ruta de codificación y compresión de imágenes para capturar el contexto, y una ruta de expansión simétrica que permite una localización precisa de puntos de interés en un tiempo razonable gracias al uso de los procesadores GPU actuales.
  • Thumbnail Image
    Item
    Predicción de la aceptación de pedidos por parte de los repartidores en la industria de entregas a domicilio utilizando machine learning
    (Pontificia Universidad Católica del Perú, 2024-08-14) Alarcon Flores, Jorge Brian; Beltrán Castañón, César Armando
    La industria de entregas a domicilio ha experimentado un auge significativo debido a la creciente demanda de los consumidores que buscan la comodidad de recibir productos y alimentos directamente en sus hogares. El avance de tecnologías y aplicaciones móviles ha impulsado el crecimiento de este mercado, permitiéndole adaptarse a las preferencias cambiantes de los consumidores [10] [19]. Sin embargo, un componente crítico en este proceso son los repartidores, quienes, tras la realización de un pedido por parte del cliente en la plataforma de la empresa, reciben notificaciones que les ofrecen una serie de pedidos sugeridos. Si aceptan, asumen la responsabilidad de recoger y entregar el pedido a los consumidores, así como la ganancia asociada, pero en ocasiones, los repartidores pueden declinar la aceptación de un pedido, lo que potencialmente conlleva a retrasos en la entrega, generando experiencias insatisfactorias para los usuarios. Este aspecto se presenta como un desafío significativo en la optimización de las operaciones de entrega a domicilio, el cual puede abordarse con soluciones de aprendizaje de máquina. En este artículo se presentan los resultados de la experimentación realizada con diversos modelos de aprendizaje de máquina, aplicándose la técnica de balanceo Smartly OverSampling con SMOTE. Los modelos se aplicaron a un conjunto de datos proporcionado por una institución latinoamericana líder en el sector de entregas a domicilio, reportando el algoritmo LightGBM, los mejores resultados con un AUC de 0.88 y un Average Precision Recall de 0.47.