Estadística
Permanent URI for this collectionhttps://hdl.handle.net/20.500.12404/757
Browse
66 results
Search Results
Item Modelos espacio-temporales bayesianos para estudiar la incidencia de dengue en el Perú(Pontificia Universidad Católica del Perú, 2025-02-28) Caro Ferreyra, Katia Alejandra; Quiroz Cornejo, Zaida JesúsLa prevención del dengue requiere un sistema para identificar las áreas con mayor riesgo, utilizando datos epidemiológicos con estructura espacial y temporal. Los enfoques bayesianos, que integran información previa y manejan estructuras jerárquicas, proporcionan un enfoque flexible y robusto, que permite estimaciones más precisas de la incertidumbre, además de captar la correlación espacial y espacio-temporal, registrando esta variabilidad en las estimaciones de riesgo de enfermedades. Estos enfoques jerárquicos bayesianos, a menudo requieren métodos numéricos sofisticados para proporcionar estimaciones de los parámetros. En este sentido, se pueden aplicar métodos como el Monte Carlo basado en cadenas de Markov (MCMC) o la Aproximación Anidada Integrada de Laplace (INLA), siendo esta última una alternativa computacionalmente más eficiente para modelos gaussianos latentes (MGL), incluyendo modelos espaciales como el modelo jerárquico de Besag, York y Mollié (BYM), el cual puede extenderse a contextos espacio-temporales, que son de gran utilidad para evaluar el conteo de casos a lo largo del tiempo. En este marco, el presente trabajo evaluó tres modelos bayesianos: un modelo jerárquico de tendencia lineal paramétrica, un modelo jerárquico modelado dinámicamente usando un paseo aleatorio o random walk, y un modelo de tendencia dinámica no paramétrica con interacción espacio-temporal. Para mostrar el aporte de esta propuesta, los tres modelos se ajustaron a datos reales que incluyeron tanto los casos de dengue como su incidencia. En el procedimiento de selección del modelo no solo se comparó la idoneidad de los modelos, sino también de distintas distribuciones de conteo, añadiendo al análisis covariables climáticas.Item Inferencia bayesiana aproximada para el modelo multivariado block-NNGP(Pontificia Universidad Católica del Perú, 2025-01-21) Gonzales Pizango, Carlos Alberto; Quiroz Cornejo, Zaida JesúsEl estudio de las especies de aves es un excelente indicador de la biodiversidad o la productividad. Se sabe que el calentamiento global y los cambios en el uso de la tierra por parte de los humanos están afectando la abundancia de aves. En este estudio nos enfocamos en las especies Morning Dove y American Robin, las especies más abundantes en América del norte. Las abundancias de estas especies pueden estar correlacionadas entre sí y mostrar una distribución espacial similar. Por lo tanto, proponemos modelar estos datos simultáneamente a través de modelos multivariados espaciales que se basan en compartir términos comunes de efectos aleatorios espaciales gaussianos. Para mejorar la eficiencia computacional, los procesos espaciales gaussianos se aproximan a un proceso gaussiano de vecinos más cercanos por bloques (block-NNGP). El modelo geoestadístico multivariado pertenece a la clase de modelos gaussianos latentes, por ello se usó el método de aproximación de Laplace anidada integrada (INLA) que permite una inferencia bayesiana rápida. El rendimiento del modelo propuesto se demuestra a través de simulaciones y la aplicación a los datos de especies de aves.Item Modelo de diagnóstico cognitivo longitudinal con estructura jerárquica de orden superior y atributos dependientes(Pontificia Universidad Católica del Perú, 2024-11-04) Villanueva Valerio, Cesar Manuel; Valdivieso Serrano, Luis HilmarDiagnosticar el estado de aprendizaje de los estudiantes y determinar las habilidades subyacentes que permitan la comprensión de ciertos temas representan un desafío complejo en el ámbito educativo. Existen numerosos factores, tanto generales como específicos, que pueden influir en el desempeño individual para dominar dichas habilidades. Además, para hacerlo más desafiante, estas podrían estar interrelacionadas, formando una jerarquía en donde unas son pre requisito para acceder a otras más avanzadas. Para abordar esta complejidad, se han desarrollado modelos de diagnóstico cognitivo que permiten construir perfiles detallados de las fortalezas y debilidades de los estudiantes en relación con habilidades específicas. Estos perfiles facilitan la creación de trayectorias de aprendizaje personalizadas, diseñadas para guiar a cada estudiante hacia el dominio de los conocimientos requeridos. Las trayectorias de aprendizaje representan secuencias de habilidades que los estudiantes deben adquirir para alcanzar un objetivo educativo determinado. Estas trayectorias son dinámicas y requieren una evaluación continua para garantizar que se ajusten a las necesidades individuales de cada estudiante. En este sentido, resulta fundamental contar con modelos de diagnóstico cognitivo que sean capaces de adaptarse a los nuevos requerimientos educativos y proporcionar información precisa sobre el progreso de los estudiantes. En este estudio, se analizarán dos modelos de diagnóstico cognitivo longitudinal de orden superior secuencial de reciente desarrollo. A través de un ejercicio de simulación y una aplicación con datos reales de una prueba matemática, se evaluará el desempeño la capacidad clasificadora de estos modelos. Esta investigación contribuirá con la difusión de esta clase de modelos para promover su uso en los procesos de aprendizaje.Item Modelos de regresión con mixtura de escala Gaussiana bajo regularización bayesiana(Pontificia Universidad Católica del Perú, 2024-09-09) Urbano Burgos, Alejandrina Margarita; Valdivieso Serrano, Luis HilmarLa presente tesis busca estudiar las propiedades, estimación y aplicación a dos conjuntos de datos reales de diversas técnicas de regularización bayesiana sobre un modelo de regresión lineal múltiple con mixtura de escala Gaussiana, modelo que incluye al de una regresión logística. Estas técnicas de regresión penalizada bayesiana plantean distribuciones a priori que realizan la penalización, introduciendo el concepto de esparcidad, el cual se refiere al hecho de que solo un reducido número de variables tengan valores distintos de cero en sus coeficientes de regresión; es decir, es una especie de truncamiento de coeficientes llevados a cero que produce a su vez modelos más manejables e interpretables. De particular interés en este trabajo, fue la comparación de las técnicas de regularización bajo penalización y las derivadas de introducir las prioris de Horseshoe y de Horseshoe + a los coeficientes de regresión del modelo. Mostrando en la presente tesis, de manera explícita, cómo realizar un muestreo de Gibbs para la estimación de estos modelos, detallando no solo las distribuciones condicionales completas necesarias; sino también como es posible, mediante el uso del paquete bayesreg de R, optimizar algunas de estas propuestas de muestreo.Item Estimación de áreas pequeñas mediante modelos aditivos de ubicación, escala y forma aplicados a una encuesta de hogares en Perú(Pontificia Universidad Católica del Perú, 2024-08-09) Stehli Torrecilla, Hans; Valdivieso Serrano, Luis HilmarEl objetivo de la presente tesis es evaluar la robustez de los modelos aditivos de ubicación, escala y forma (GAMLSS) en una estimación en áreas pequeñas. Para ello, se realizan simulaciones estadísticas en donde se aplican estos modelos para diferentes distribuciones de la variable dependiente considerando distintos niveles de variabilidad entre las áreas, analizando la precisión de los resultados en cada caso. Asimismo, se realiza una aplicación utilizando la Encuesta Nacional de Hogares de Perú (ENAHO) del año 2017 para obtener indicadores de infraestructura de hogares y sus intervalos de confianza a nivel distrital para el departamento de Ica, además de contrastar las estimaciones con las cifras poblacionales obtenidas del Censo Nacional del mismo año. Los resultados revelan que los indicadores obtenidos mediante GAMLSS tienen un menor error cuadrático medio que aquellos estimados de manera directa, considerando el diseño muestral. Asimismo, se encuentra que los GAMLSS generan resultados más exactos respecto a los valores poblacionales, aunque ello depende de la heterogeneidad de las áreas. Este hallazgo es consistente aún bajo el supuesto de una variable dependiente de tipo dicotómica (balanceada o no balanceada) o de tipo numérica (discreta o continua). Asimismo, estas bondades son más evidentes si el tamaño de las muestras de las áreas es reducido. Finalmente, a través de la aplicación, se han obtenido estimaciones puntuales y intervalos de confianza para indicadores de acceso a saneamiento y número de habitaciones de las viviendas, correspondientes a 37 distritos del departamento de Ica.Item Análisis de componentes principales evolutivos frente a segmentado: una comparación(Pontificia Universidad Católica del Perú, 2024-05-17) Purizaca Rosillo, Luis Guillermo; Camiz, SergioLa reducción de dimensionalidad, fundamental en el análisis estadístico multivariado, busca comprender estructuras complejas de datos extensos de forma reducida. El Análisis de Componentes Principales (PCA) es comúnmente empleado para estos fines, pero en series de tiempo, sus limitaciones surgen debido a que el PCA no considera la variación de la estructura de correlación entre las series de tiempo, así como la potencial autocorrelación existente. Este estudio se enfoca en presentar el PCA Evolutivo, una propuesta metodológica desarrollada por Camiz et al. (2011), diseñada específicamente para capturar las fluctuaciones en niveles de correlación presentes en este tipo de datos. Se procede a comparar los resultados obtenidos a través del PCA Evolutivo con aquellos generados por el método PCA Segmentado, desarrollado por Banko et al. (2011). Los resultados revelan que el PCA Evolutivo complementa la descripción de datos en comparación con el PCA y ofrece perspectivas distintas respecto al PCA Segmentado en la identificación de segmentos homogéneos, relacionados con cambios en correlación en el tiempo. Estas diferencias se atribuyen a las estrategias de construcción: el PCA Evolutivo sigue un enfoque basado en el índice de Calinski-Harabász, mientras que el PCA Segmentado se guía por el método bottom-up. La estabilidad del PCA Evolutivo depende de la ventana de tiempo, determinando la amplitud de los intervalos homogéneos. Por otro lado, el PCA Segmentado es más sensible a la cantidad de dimensiones retenidas, proporcionando mayor robustez al ajustar segmentos mediante una función de costos que disminuye con la retención de más componentes principales. Aplicamos los métodos en datos simulados y en series de tiempo de materias primas.Item Aplicación de un modelo de riesgos competitivos bayesiano(Pontificia Universidad Católica del Perú, 2024-03-05) Saavedra Palacios, Erick Dennis; Sal Y Rosas Celi, Victor GiancarloEn el presente trabajo se presenta y discute el modelo de riesgos competitivos bayesiano propuesto por Vallejos y Steel (2017). Dentro del análisis se incluyó un estudio de simulación en donde se comparó los resultados de aplicar el modelo frecuentista con respecto al bayesiano, confirmando la eficiencia de este último con respecto al anterior. Finalmente, se aplicó este modelo a la base de datos de alumnos ingresantes a la Pontificia Universidad Católica del Perú entre los años 2004 a 2012. El resultado de la aplicación mostró como única variable significativa a si el alumno ingreso por la primera opción con respecto al haber ingresado por la vía tradicional la cual aumentaba la probabilidad de graduación y reducía la probabilidad de abandono.Item Aprendizaje estadístico supervisado con máquina de soporte vectorial(Pontificia Universidad Católica del Perú, 2024-02-26) Falcón Cisneros, Sergio Daniel; Véliz Capuñay, Carlos NilbertoActualmente las organizaciones recolectan datos en grandes volúmenes y de fuentes muy variadas. Para dar sentido y convertir los datos en información útil es necesario utilizar técnicas que permitan encontrar y entender las relaciones ocultas en los datos. Generalmente, la relación que nos interesa estudiar es cómo predecir un evento utilizando un conjunto de variables. Sin embargo, muchas veces la relación entre los datos es muy compleja y no puede ser analizada adecuadamente usando las técnicas más conocidas, dado que éstas suelen tener supuestos que no necesariamente se cumplen. Por ello, es importante conocer técnicas de análisis más complejas y flexibles. Esta tesis busca ser un instrumento de ayuda en el aprendizaje y uso de nuevas técnicas para estudiar los datos, lo cual es relevante sobre todo en el medio local en el que este tema es poco conocido. Con este objetivo, presenta una revisión introductoria de la teoría del aprendizaje estadístico, la cual provee del marco teórico para que distintos métodos utilicen los datos para aprender, y usando este conocimiento puedan hacer predicciones sobre datos nuevos o diferentes. Luego se centra en un estudio exhaustivo del método de aprendizaje de Máquinas de Soporte Vectorial (SVM por sus siglas en inglés), introduciendo y aplicando las funciones Kernel. Este método se puede entender como una representación de los datos como puntos en el espacio, asignados de tal forma que exista una brecha grande que separe a los elementos diferentes. Finalmente se pone en práctica la teoría estudiada aplicando el método SVM a datos de clientes de una entidad financiera. Esta entidad financiera usa predominantemente técnicas de aprendizaje estadístico simples y con varios supuestos; particularmente usa una de estas técnicas en un modelo que predice la propensión a la compra y persistencia del producto Seguro de Protección de Tarjetas. Por ello, la presente tesis se centra en aplicar el método SVM para construir una alternativa a este modelo.Item Regresión cuantílica binaria: un enfoque bayesiano basado en la distribución asimétrica de Laplace(Pontificia Universidad Católica del Perú, 2024-02-15) Baldeon Molleda, Dante Reynaldo; Bayes Rodríguez, Cristian LuisLa regresión cuantílica es una técnica estadística que permite analizar la relación entre variables en distintos cuantiles de la distribución de la variable respuesta. No obstante, su aplicación en variables respuesta binaria puede contraintuitivo, pues la definición tradicional de cuantiles se conceptualiza para variables continuas y no tienen una interpretación directa en una variable binaria. A pesar de que una variable de respuesta binaria sólo toma dos valores y no permite una definición tradicional de cuantiles, es posible extender la regresión cuantílica para modelar los cuantiles de la variable latente subyacente a la variable de respuesta binaria. Esta variable latente es continua y permite aplicar la regresión cuantílica en contextos donde la variable de respuesta sea binaria. En este estudio, adoptamos un enfoque bayesiano para la regresión cuantílica binarios basado en la distribución asimétrica de Laplace (ALD); aplicaremos el modelo en un conjunto de datos correspondiente a resultados de descarte de pruebas COVID-19 en pacientes oncológicos y estimaremos los coeficientes de la regresión mediante el paquete bayesQR desarrollado en R.Item Modelo de regresión lineal usando una mixtura de distribuciones senh-normal(Pontificia Universidad Católica del Perú, 2023-09-27) Palomino Ore, Roussel Simpson; Benites Sánchez, Luis EnriqueLa distribución Senohiperbólico-Normal, denominada también como una variación de la distribución Birnbaum-Saunders, surgió inicialmente para estimar el deterioro en la calidad de los materiales sujetos a estrés. Asimismo, los modelos de mixtura han suscitado considerable interés en el campo de estadística debido a que permiten lidiar con situaciones en las que el comportamiento de los errores de un modelo con ajuste lineal se aleja significativamente de la normalidad. Esta tesis aborda los dos temas mencionados mediante la presentación de un modelo de ajuste lineal usando una mixtura de distribuciones Senohiperbólico Normal o Log-Birnbaum-Saunders. Esta propuesta es una familia versátil de distribuciones de probabilidad que posibilita representar datos que presentan multimodalidad además de provenir de poblaciones heterogéneas. Para conseguir los estimadores de máxima verosimilitud se emplea el algoritmo EM con maximización condicional. Asimismo, se llevan a cabo estudios de simulación y análisis de conjuntos de datos reales para demostrar la utilidad del método propuesto. Por último, se implementa la propuesta del algoritmo y los métodos en el software R.