2. Maestría
Permanent URI for this communityhttp://98.81.228.127/handle/20.500.12404/2
Tesis de la Escuela de Posgrado
Browse
2 results
Search Results
Item Herramienta integrada para la curación de proteínas repetidas(Pontificia Universidad Católica del Perú, 2023-07-20) Bezerra Brandao Corrales, Manuel Alberto; Hirsh Martinez, LaylaA finales de los años 1990, se identificó un conjunto de proteínas caracterizadas por tener patrones repetidos en su secuencia, lo que produce una estructura tridimensional repetitiva (Marcotte et al., 1999). Se han clasificado al menos 14% de proteínas encontradas en la naturaleza como repetidas, y presentan un rol crítico en procesos biológicos como la comunicación celular y el reconocimiento molecular (Brunette et al., 2015; Marcotte et al., 1999). Existe un creciente interés en el estudio de las proteínas repetidas debido a sus pliegues estructurales estables, una alta conversación evolutiva y un amplio repertorio de funciones biológicas (Chakrabarty & Parekh, 2022). Además, se estima que una de cada tres proteínas humanas son consideradas repetidas (Jorda & Kajava, 2010). La identificación, clasificación y curación de regiones de repetición en proteínas es un proceso complejo que requiere del procesamiento manual de expertos, gran capacidad computacional y tiempo. Existen diversos avances recientes y relevantes que aplican modelos de aprendizaje automático para la predicción de estructura tridimensional de proteínas y la predicción de clasificación de proteínas repetidas. Este tipo de aplicaciones resultan útiles para este proceso de curación. No obstante, a pesar de que este tipo de software son de libre acceso y de código abierto, no se cuenta con un servicio integrado que contemple las herramientas y bases de datos que soporten la investigación en proteínas repetidas. Por estos motivos, en este proyecto de investigación de plantea, diseña y desarrolla un servicio web integrado para la curación de proteínas repetidas. Con este objetivo, se ha considerado la integración con la base de datos de estructuras terciarias del Protein Data Bank (PDB) y la base de datos de predicciones de estructuras tridimensionales AlphaFold. Asimismo, se ha utilizado un modelo de redes neuronales que permite predecir la probabilidad de clasificación en cada clase de proteína repetida. Finalmente, con esta predicción, se implementó una mejora al algoritmo ReUPred para volver más eficiente el proceso de identificación de regiones y unidades de repetición. Este servicio ha sido desplegado utilizando computación en la nube en la página bioinformática.org de la cual es parte el laboratorio de investigación en Bioinformática de la Pontificia Universidad Católica del Perú. Este servicio permite que los investigadores no requieran contar con alta capacidad de procesamiento computacional para el proceso de curación de proteínas repetidas e integra los resultados totales obtenidos.Item Sobre la construcción de ensambles de clasificadores diversos en tanto que variación normalizada de información y su vínculo con su precisión(Pontificia Universidad Católica del Perú, 2021-11-07) Guinea Ordóñez, Rodrigo José; Villanueva Talavera, Edwin RafaelLa hipótesis en cuestión afirma que, dado el contexto teórico (i.e., definiciones matemáticas consideradas apropiadas para describir los fenómenos que se pretende estudiar) descrito en el artículo, existe una relación entre diversidad global y precisión de un ensamble de clasificadores. Por lo tanto, el propósito de esta investigación es estudiar la relación entre la precisión de ensambles y su diversidad dentro de un contexto geométrico y de información. Para lograrlo, interpretamos el problema como uno geométrico introduciendo un espacio métrico, donde los puntos son predicciones de clasificadores; la función de distancia, la métrica Variación de Información Normalizada (NVI, por sus siglas en inglés); y la construcción de un ensamble diverso es reducida a un problema de criba y novedosamente transformado a uno de programación cuadrática. La significancia estadística es asegurada haciendo uso de métodos Monte Carlo sobre 53 conjuntos de datos apropiados. El resultado es un algoritmo basado en una métrica usada en el contexto de teoría de la información, ideal para estudiar conjuntos de datos de alta dimensionalidad e inherentemente ruidosos. Por tanto, es relevante cuando el costo de adquirir muestras es muy alto; y la cantidad de variables, enorme. El marco teórico incluye las definiciones (e.g., definiciones relacionadas al concepto de diversidad o al espacio métrico utilizado), los teoremas (e.g., propiedades de espacios métricos) y algoritmos base (i.e., programación cuadrática) usados para conseguir los resultados. Los resultados muestran que, en promedio, el exceso de precisión de un ensemble diverso respecto de su contraparte aleatoria es función del valor de la diversidad global del mismo. Esto confirma la hipótesis inicial. Además, la metodología introducida para modelar el algoritmo introduce un marco que permite esclarecer la relación entre diversidad y precisión, ya que la representa en términos geométricos.