Estadística

Permanent URI for this collectionhttp://98.81.228.127/handle/20.500.12404/757

Browse

Search Results

Now showing 1 - 7 of 7
  • Thumbnail Image
    Item
    Análisis de componentes principales evolutivos frente a segmentado: una comparación
    (Pontificia Universidad Católica del Perú, 2024-05-17) Purizaca Rosillo, Luis Guillermo; Camiz, Sergio
    La reducción de dimensionalidad, fundamental en el análisis estadístico multivariado, busca comprender estructuras complejas de datos extensos de forma reducida. El Análisis de Componentes Principales (PCA) es comúnmente empleado para estos fines, pero en series de tiempo, sus limitaciones surgen debido a que el PCA no considera la variación de la estructura de correlación entre las series de tiempo, así como la potencial autocorrelación existente. Este estudio se enfoca en presentar el PCA Evolutivo, una propuesta metodológica desarrollada por Camiz et al. (2011), diseñada específicamente para capturar las fluctuaciones en niveles de correlación presentes en este tipo de datos. Se procede a comparar los resultados obtenidos a través del PCA Evolutivo con aquellos generados por el método PCA Segmentado, desarrollado por Banko et al. (2011). Los resultados revelan que el PCA Evolutivo complementa la descripción de datos en comparación con el PCA y ofrece perspectivas distintas respecto al PCA Segmentado en la identificación de segmentos homogéneos, relacionados con cambios en correlación en el tiempo. Estas diferencias se atribuyen a las estrategias de construcción: el PCA Evolutivo sigue un enfoque basado en el índice de Calinski-Harabász, mientras que el PCA Segmentado se guía por el método bottom-up. La estabilidad del PCA Evolutivo depende de la ventana de tiempo, determinando la amplitud de los intervalos homogéneos. Por otro lado, el PCA Segmentado es más sensible a la cantidad de dimensiones retenidas, proporcionando mayor robustez al ajustar segmentos mediante una función de costos que disminuye con la retención de más componentes principales. Aplicamos los métodos en datos simulados y en series de tiempo de materias primas.
  • Thumbnail Image
    Item
    Estimación bayesiana de efectos de red: el modelo Logit mixto
    (Pontificia Universidad Católica del Perú, 2017-10-02) Chahuara Vargas, Paulo Roberto; Bayes Rodríguez, Cristian Luis
    Los efectos o externalidades de red son factores que pueden condicionar las decisiones de contratación de los consumidores en favor de empresas ya establecidas y en contra de los nuevos competidores, pudiendo limitar la competencia efectiva y potencial de los mercados, en especial, en aquellas industrias donde el número de empresas es bajo y la entrada de nuevos competidores es poco frecuente. Por ello, es importante verificar su existencia y la magnitud de sus efectos sobre las decisiones de compra de los consumidores con el objetivo de justificar o establecer medidas que impulsen una competencia más equilibrada entre las empresas. Además, teniendo en consideración que los consumidores pueden tener cierto grado de heterogeneidad en sus comportamientos de adquisición, también resulta relevante estudiar el grado de diferenciación de los efectos de red entre los consumidores a fin de mejorar las políticas que fomenten la competencia. Este trabajo tiene por objetivo estimar un modelo logit mixto bajo el enfoque de la inferencia bayesiana, para estudiar empíricamente la existencia y heterogeneidad de los efectos de red sobre las decisiones de contratación de los consumidores en la industria de telefonía móvil peruana. El análisis se hace con base a una muestra que combina información de la Encuestas Residencial de Servicios de Telecomunicaciones (ERESTEL) del a˜no 2015 e información de las empresas operadoras del servicio de telefonía móvil. Los resultados de las estimaciones realizadas sugieren que los efectos de red tendrían un condicionamiento importante sobre las decisiones de contración del servicio de telefonía móvil, además de presentar un grado de heterogeneidad estadísticamente significativo en la magnitud de sus efectos.
  • Thumbnail Image
    Item
    Combinación de reglas de portafolio con la asignación 1/N y la ponderada por capitalización bursátil
    (Pontificia Universidad Católica del Perú, 2016-11-23) Rodríguez Alcócer, Augusto Fernando; Valdivieso Serrano, Luis Hilmar
    La teoría del portafolio estudia el proceso a través del cual se realiza la asignación óptima de activos. El análisis Media - Varianza (MV) propone que los agentes estructuran portafolios de inversión optimizando el retorno esperado o el riesgo. Así, fijando el nivel deseado de una de estas variables, es posible elaborar una frontera eficiente compuesta por portafolios óptimos. Sin embargo, si bien el análisis MV ha sido trabajado de manera extensa presenta una limitación: los parámetros reales no son conocidos sino estimados a partir de la observación de datos. Ello incorpora el problema de incertidumbre en la modelación, por lo que las reglas de portafolio óptimo están sujetas a errores aleatorios que pueden generar que los parámetros estimados se alejen de los reales. El objetivo del presente trabajo es revisar dicho análisis bajo el enfoque de reglas de portafolio, y si existe la posibilidad de reducir el riesgo de estimación a través de la combinación de las reglas con el portafolio de pesos iguales y con el portafolio ajustado por capitalización bursátil. Para la programación se utiliza el paquete estadístico R - project. Los resultados sugieren que la combinación de las reglas con los dos portafolios seleccionados puede mejorar los resultados fuera de muestra esperados y que bajo ciertas circunstancias, combinar con el portafolio de capitalización bursátil puede ser más eficiente que con el portafolio de pesos iguales.
  • Thumbnail Image
    Item
    Una aplicación de intervalos de confianza para la mediana de supervivencia en el modelo de regresión de Cox
    (Pontificia Universidad Católica del Perú, 2015-07-17) Mondragón Arbocco, Jorge Adolfo; Bayes Rodríguez, Cristian Luis
    El presente trabajo estudiará el método propuesto por Tze y Zheng (2006) aplicándolo a la obtención de intervalos de confianza para la mediana de supervivencia de líneas móviles de una empresa de telecomunicaciones. Esta metodología se aplicará con el objeto de conocer el riesgo de vida promedio de la línea móvil así como de qué manera inciden las covariables sobre el tiempo hasta el incumplimiento del pago de los clientes de la empresa. Para ello se hará uso de una extensión del modelo de Cox haciendo uso de la estimación máximo verosímil para obtener nuevas estimaciones del vector de parámetros mediante el método bootstrap lo que permita la construcción de los intervalos de confianza para la mediana de supervivencia.
  • Thumbnail Image
    Item
    Análisis de votos electorales usando modelos de regresión para datos de conteo
    (Pontificia Universidad Católica del Perú, 2013-04-08) Contreras Vilca, Norma; Bazán Guzmán, Jorge Luis
    Se presentan dos modelos de regresión para datos de conteo: el modelo de regresión Poisson y modelo de regresión Binomial Negativa dentro del marco de los Modelos Lineales Generalizados. Los modelos son aplicados inicialmente a un conjunto de datos conocido como ((The Aircraft Damage)) presentado en Montgomery (2006) referido al número de daños en las aeronaves durante la guerra de Vietnam. La principal aplicación de este trabajo sería el análisis de los votos obtenidos por el candidato Ollanta Humala Tasso en los resultados de las ((Elecciones Generales y Parlamento Andino 2011)), analizamos los datos de la primera vuelta a nivel de regiones considerando diversos predictores. Ambos conjunto de datos, presentan sobredispersión, esto es una varianza mayor que la media, bajo estas condiciones el modelo de Regresión Binomial Negativa resulta m as adecuado que el modelo de Regresión Poisson. Adicionalmente, se realizaron estudios de diagnósticos que confirman la elección del modelo Binomial Negativa como el más apropiado para estos datos.
  • Thumbnail Image
    Item
    Modelos de regresión binaria Skew probit para el calculo de probabilidad de default en el ámbito del sistema financiero
    (Pontificia Universidad Católica del Perú, 2013-02-05) Pantoja Marin, Luis; Bazán Guzmán, Jorge Luis
    La presente investigación se fundamenta en el uso o aplicación de Modelos Skew Probit con enlace asimétrico desde un enfoque Bayesiano. Los modelos a usar incorporan la posibilidad de usar enlaces asimétricos para estimar la probabilidad de y i =1 en muestras no balanceadas (alta proporción de ceros y por ende pequeña proporción de unos). La formulación general de esto modelos es debida a Bazán, Bolfarine y Branco (2010). Aunque en estos modelos inicialmente su computación es complicada se usaron Cadenas de Markov por Monte Carlo (MCMC) o muestreo Gibbs (para la aplicación de estos procedimientos ver Carlin y Polson, 1992) que hacen simple la formulación del modelo y por tanto simple su implementación usando el software WinBugs (los códigos de los diferentes modelos utilizados fueron obtenidos en el programa BRMUW propuesto por Bazán y Bayes, 2010). De acuerdo al análisis y estudio de aplicación realizado sobre una muestra de clientes de préstamos pertenecientes a una entidad micro financiera, aquellos modelos Skew Probit BBB y Estándar presentan los mejores indicadores de eficiencia. El análisis sobre datos reales señala que el modelo tradicional Probit presenta un 56.6% (371/664) de mala clasificación versus los modelos Estándar y BBB que en promedio muestran dicho indicador alrededor de 43% (290/664). El análisis mediante curvas COR (Receiver Operating Characteristic) ratifica lo mencionado; el área debajo de las curvas superan el 0.74 de 1 para el modelo BBB, mientras que dicho dato es de 0.70 para el caso del modelo simétrico tradicional probit. Por tanto la sensibilidad y especificidad (eficiencia) es mayor para aquellos modelos Skew Probit (mejor modelo BBB). Dentro de los modelos con Enlaces Asimétricos los modelos (SP) BBB y Estándar son los que presentan mejores indicadores de ajuste e información as__ como mejoran la sensibilidad y especificidad de un determinado modelo. Finalmente, se pretende la sistematización de la propuesta a nivel de la entidad micro financiera y su aplicación en la estimación de la probabilidad de default de créditos pero aplicado en todos los tipos de créditos.
  • Thumbnail Image
    Item
    El análisis de correspondencias conjunto y múltiple ajustado
    (Pontificia Universidad Católica del Perú, 2012-08-15) Saavedra López, Ricardo Elías; Valdivieso Serrano, Luis Hilmar
    Esta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.