Estadística
Permanent URI for this collectionhttp://98.81.228.127/handle/20.500.12404/757
Browse
Item El análisis de correspondencias conjunto y múltiple ajustado(Pontificia Universidad Católica del Perú, 2012-08-15) Saavedra López, Ricardo Elías; Valdivieso Serrano, Luis HilmarEsta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.Item Estimación no paramétrica en un proceso de Markov "enfermedad-muerte" aplicado a una base de clientes de una AFP(Pontificia Universidad Católica del Perú, 2012-08-16) Requena Espinoza, Genaro; Doig Camino, ElizabethEn el presente trabajo, se estudian las propiedades del método de estimación no paramétrico en un modelo de “Enfermedad - Muerte" de proceso de Markov. Este modelo posee tres estados 1, 2 y 3 correspondientes a “salud", “enfermedad" y “muerte" respectivamente y solo admite las transiciones de 1-2, 1-3 y 2-3, asimismo a este proceso se le denomina de Markov porque la probabilidad de transición de un estado a otro es independiente del tiempo de permanencia en el estado inicial. Las funciones de tiempo de muerte y enfermedad, así como la función de riesgo de muerte dada la enfermedad son los parámetros del modelo \Enfermedad - Muerte". Sin embargo la estimación de estas funciones del modelo no es directa pues existen dos formas de censura en los datos: los intervalos censurados y la pérdida de estados de transición; por lo que se utiliza un algoritmo de autoconsistencia para calcular estos estimadores. Los intervalos censurados y la pérdida de estados de transición se generan porque los pacientes son evaluados periódicamente. En un intervalo censurado (t1 , t2) se conoce que la enfermedad ocurrió entre un tiempo t1 y t2 pero no el momento exacto, mientras que para la pérdida de estados de transición se sabe que la enfermedad no ha ocurrido hasta la última medición pero se desconoce si la enfermedad ocurre entre esta última medición y el tiempo final del estudio. En la aplicación del modelo \Enfermedad - Muerte" de proceso de Markov a una base de clientes de una administradora de fondos de pensiones (AFP) se consideran los intervalos censurados para los reclamos de los clientes, as__ como la pérdida de estados de transición para los traspasos. Modelar los tiempos de traspaso y de reclamo de los afiliados bajo un proceso de Markov \Enfermedad - Muerte" con intervalos censurados y pérdida de estados de transición intermedia, aumenta la precisión de los estimadores de las funciones de tiempo y riesgo.Item Modelos testlet logísticos y logísticos de exponente positivo para pruebas de compresión de textos(Pontificia Universidad Católica del Perú, 2012-08-16) Flores Ari, Sandra Elizabeth; Bazán Guzmán, Jorge LuisLos modelos de Teoría de Respuesta al Item (TRI) para datos binarios multivariados, permiten estimar una medida latente (de habilidad) a partir de información observada, que puede ser respuestas dicotómicas (de éxito y fracaso) a un conjunto de ítems de una determinada prueba. Uno de los supuestos críticos en los modelos TRI es la independencia condicional de los ítems, que permite el cálculo directo de la verosimilitud del modelo. En muchas situaciones de evaluación este supuesto no se cumple, como es el caso de pruebas de comprensión de textos, en la que se presenta un texto y luego varias preguntas relacionadas con ese texto. Este tipo de estructuras son denominadas como testlets. Bradlow et al. (1999) desarrollaron una parametrización adicional para recoger el efecto de esta dependencia. A partir de este trabajo se presenta el modelo Testlet logístico y se propone el modelo Testlet logístico de exponente positivo (2LPET), que es una extensión del modelo LPE propuesto por Samejima (1999) y Bazan y Bolfarine (2010) y considera enlaces asimétricos. Se desarrollaron varios estudios de simulación en los que se muestra que cuando se tiene testlets, los modelos Testlet recuperan mejor los parámetros respecto a los modelos TRI. Finalmente se realizó una aplicación con datos del Ministerio de Educación, específicamente con los resultados de la prueba de comprensión de textos de la Evaluación Censal de Estudiantes (ECE) dirigido a estudiantes de segundo grado de primaria, en un conjunto de escuelas de Lima metropolitana. De los resultados obtenidos se concluye que los modelos TRI sobreestiman la medida de habilidad respecto a los modelos Testlets y además la información de la prueba es mejor distribuida por el modelo propuesto.Item Modelo de Rasch dicotómico con aplicación a la educación(Pontificia Universidad Católica del Perú, 2012-08-17) Chincaro Del Coral, Omar Antonio; Bazán Guzmán, Jorge LuisEn investigaciones de origen cuantitativo generalmente se emplean instrumentos de medición que generan base de datos dicotómicas, en la cual cada persona responde las preguntas o ítems del instrumento. Subyacente a estas respuestas existen variables no observables o variables latentes que caracterizan a las personas evaluadas y a los ítems del instrumento de medición utilizado. En este trabajo se modeló la probabilidad de responder correctamente al ítem en función a sus parámetros mediante el uso de los modelos logísticos o modelos de Rasch. Considerando las respuestas a estas variables latentes de las personas, de lo ítems, y sus supuestos se estimó los parámetros a partir de la función de verosimilitud del modelo. En esta tesis se mostró diferentes métodos de estimación como el de Máxima Verosimilitud Marginal (MVM) que depende de las puntuaciones que se obtenga en cada ítem, el de Máxima Verosimilitud Condicional (MVCOND) que considerara patrones de respuesta, el método de Máxima Verosimilitud Conjunta (MVC) y el método Bayesiano utilizando Cadenas de Markov y métodos de Monte Carlo (MCMC) como el algoritmo Gibbs Sampling. El Método Bayesiano fué analizado bajo dos esquemas: adaptative rejection sampling (ARS) y el data argumentation gibbs sampling (DAGS). Con estos métodos se estimaron los parámetros de los ítems y las personas evaluadas, los cuales se compararon con estudios de simulación determinándose que el mejor método de estimación es el Bayesiano. El método bayesiano presenta las estimativas más precisas considerando diferentes escenarios de tamaño de muestra y número de ítems frente a los otros métodos de estimación. Adicionalmente no tiene restricción en la estimación frente a valores extremos y finalmente es un método conjunto que estima al mismo tiempo habilidades y dificultades a diferencia de otros métodos que sólo estiman dificultades u otros que estiman ambos pero baja precisión. Finalmente se realizó una aplicación del modelo en el ámbito educacional.Item Modelos de regresión binaria Skew probit para el calculo de probabilidad de default en el ámbito del sistema financiero(Pontificia Universidad Católica del Perú, 2013-02-05) Pantoja Marin, Luis; Bazán Guzmán, Jorge LuisLa presente investigación se fundamenta en el uso o aplicación de Modelos Skew Probit con enlace asimétrico desde un enfoque Bayesiano. Los modelos a usar incorporan la posibilidad de usar enlaces asimétricos para estimar la probabilidad de y i =1 en muestras no balanceadas (alta proporción de ceros y por ende pequeña proporción de unos). La formulación general de esto modelos es debida a Bazán, Bolfarine y Branco (2010). Aunque en estos modelos inicialmente su computación es complicada se usaron Cadenas de Markov por Monte Carlo (MCMC) o muestreo Gibbs (para la aplicación de estos procedimientos ver Carlin y Polson, 1992) que hacen simple la formulación del modelo y por tanto simple su implementación usando el software WinBugs (los códigos de los diferentes modelos utilizados fueron obtenidos en el programa BRMUW propuesto por Bazán y Bayes, 2010). De acuerdo al análisis y estudio de aplicación realizado sobre una muestra de clientes de préstamos pertenecientes a una entidad micro financiera, aquellos modelos Skew Probit BBB y Estándar presentan los mejores indicadores de eficiencia. El análisis sobre datos reales señala que el modelo tradicional Probit presenta un 56.6% (371/664) de mala clasificación versus los modelos Estándar y BBB que en promedio muestran dicho indicador alrededor de 43% (290/664). El análisis mediante curvas COR (Receiver Operating Characteristic) ratifica lo mencionado; el área debajo de las curvas superan el 0.74 de 1 para el modelo BBB, mientras que dicho dato es de 0.70 para el caso del modelo simétrico tradicional probit. Por tanto la sensibilidad y especificidad (eficiencia) es mayor para aquellos modelos Skew Probit (mejor modelo BBB). Dentro de los modelos con Enlaces Asimétricos los modelos (SP) BBB y Estándar son los que presentan mejores indicadores de ajuste e información as__ como mejoran la sensibilidad y especificidad de un determinado modelo. Finalmente, se pretende la sistematización de la propuesta a nivel de la entidad micro financiera y su aplicación en la estimación de la probabilidad de default de créditos pero aplicado en todos los tipos de créditos.Item Inferencia bayesiana en el modelo de regresión spline penalizado con una aplicación a los tiempos en cola de una agencia bancaria(Pontificia Universidad Católica del Perú, 2013-04-08) Huaraz Zuloaga, Diego Eduardo; Bayes Rodríguez, Cristian LuisEn diversos campos de aplicación se requiere utilizar modelos de regresión para analizar la relación entre dos variables. Cuando esta relación es compleja, es difícil modelar los datos usando técnicas paramétricas tradicionales, por lo que estos casos requieren de la flexibilidad de los modelos no paramétricos para ajustar los datos. Entre los diferentes modelos no paramétricos está la regresión spline penalizada, que puede ser formulada dentro de un marco de modelos lineales mixtos. De este modo, los programas computacionales desarrollados originalmente para la inferencia clásica y Bayesiana de modelos mixtos pueden ser utilizados para estimarlo. La presente tesis se centra en el estudio de la inferencia Bayesiana en el modelo de regresión spline penalizado. Para lograr esto, este trabajo proporciona un marco teórico breve de este modelo semiparamétrico y su relación con el modelo lineal mixto, la inferencia Bayesiana de este modelo, y un estudio de simulación donde se comparan la inferencia clásica y Bayesiana en diferentes escenarios considerando diversos valores del n umero de nodos, tamaños de muestra y niveles de dispersión en la data simulada. Finalmente, en base a los resultados del estudio de simulación, el modelo se aplica para estimar el tiempo de espera en cola de los clientes en agencias bancarias con el fin de calcular la capacidad de personal óptima bajo determinadas metas de nivel de servicio.Item Análisis de votos electorales usando modelos de regresión para datos de conteo(Pontificia Universidad Católica del Perú, 2013-04-08) Contreras Vilca, Norma; Bazán Guzmán, Jorge LuisSe presentan dos modelos de regresión para datos de conteo: el modelo de regresión Poisson y modelo de regresión Binomial Negativa dentro del marco de los Modelos Lineales Generalizados. Los modelos son aplicados inicialmente a un conjunto de datos conocido como ((The Aircraft Damage)) presentado en Montgomery (2006) referido al número de daños en las aeronaves durante la guerra de Vietnam. La principal aplicación de este trabajo sería el análisis de los votos obtenidos por el candidato Ollanta Humala Tasso en los resultados de las ((Elecciones Generales y Parlamento Andino 2011)), analizamos los datos de la primera vuelta a nivel de regiones considerando diversos predictores. Ambos conjunto de datos, presentan sobredispersión, esto es una varianza mayor que la media, bajo estas condiciones el modelo de Regresión Binomial Negativa resulta m as adecuado que el modelo de Regresión Poisson. Adicionalmente, se realizaron estudios de diagnósticos que confirman la elección del modelo Binomial Negativa como el más apropiado para estos datos.Item Un enfoque de credibilidad bajo espacios de Hilbert y su estimación mediante modelos lineales mixtos(Pontificia Universidad Católica del Perú, 2013-04-08) Ruíz Arias, Raúl Alberto; Valdivieso Serrano, Luis HilmarLa teoría de la credibilidad provee un conjunto de métodos que permiten a una compañía de seguros ajustar las primas futuras, sobre la base de la experiencia pasada individual e información de toda la cartera. En este trabajo presentaremos los principales modelos de credibilidad utilizados en la práctica, como lo son los modelos de Bühlmann (1967), Bühlmann-Straub (1970), Jewell (1975) y Hachemeister (1975), todos ellos analizados en sus propiedades desde un punto de vista geométrico a través de la teoría de espacios de Hilbert y en su estimación mediante el uso de los modelos lineales mixtos. Mediante un estudio de simulación se mostrará la ventaja de utilizar este último enfoque de estimación.Item Una aplicación de intervalos de confianza para la mediana de supervivencia en el modelo de regresión de Cox(Pontificia Universidad Católica del Perú, 2015-07-17) Mondragón Arbocco, Jorge Adolfo; Bayes Rodríguez, Cristian LuisEl presente trabajo estudiará el método propuesto por Tze y Zheng (2006) aplicándolo a la obtención de intervalos de confianza para la mediana de supervivencia de líneas móviles de una empresa de telecomunicaciones. Esta metodología se aplicará con el objeto de conocer el riesgo de vida promedio de la línea móvil así como de qué manera inciden las covariables sobre el tiempo hasta el incumplimiento del pago de los clientes de la empresa. Para ello se hará uso de una extensión del modelo de Cox haciendo uso de la estimación máximo verosímil para obtener nuevas estimaciones del vector de parámetros mediante el método bootstrap lo que permita la construcción de los intervalos de confianza para la mediana de supervivencia.Item An empirical application of stochastic volatility models to Latin-American stock returns using GH skew student's t-distribution(Pontificia Universidad Católica del Perú, 2015-07-17) Lengua Lafosse, Patricia; Bayes Rodríguez, Cristian LuisThis paper represents empirical studies of stochastic volatility (SV) models for daily stocks returns data of a set of Latin American countries (Argentina, Brazil, Chile, Mexico and Peru) for the sample period 1996:01-2013:12. We estimate SV models incorporating both leverage effects and skewed heavy-tailed disturbances taking into account the GH Skew Student’s t-distribution using the Bayesian estimation method proposed by Nakajima and Omori (2012). A model comparison between the competing SV models with symmetric Student´s t-disturbances is provided using the log marginal likelihoods in the empirical study. A prior sensitivity analysis is also provided. The results suggest that there are leverage effects in all indices considered but there is not enough evidence for Peru, and skewed heavy-tailed disturbances is confirmed only for Argentina, symmetric heavy-tailed disturbances for Mexico, Brazil and Chile, and symmetric Normal disturbances for Peru. Furthermore, we find that the GH Skew Student s t-disturbance distribution in the SV model is successful in describing the distribution of the daily stock return data for Peru, Argentina and Brazil over the traditional symmetric Student´s t-disturbance distribution.Item Modelos alternativos de respuesta graduada con aplicaciones en la calidad de servicios(Pontificia Universidad Católica del Perú, 2015-07-20) Tarazona Vargas, Enver Gerald; Bazán Guzmán, Jorge LuisLos modelos politómicos de la Teoría de Respuesta al Ítem (TRIP) tienen como finalidad explicar la interacción existente entre los sujetos evaluados y los atributos de un test en aquellas situaciones en las cuales los atributos que lo componen tienen varias categorías de respuesta. Dentro de los distintos tipos de modelos TRIP, el Modelo de Respuesta Graduada General (GRM) propuesto originalmente por Samejima (1969, 2010), es un conjunto de modelos diseñados para aplicarse en aquellas situaciones en las cuales las categorías de respuesta son ordinales. En este trabajo se presenta una formulación general para los GRM, su clasificación y principales propiedades desde el punto de vista bayesiano. De manera específica, se muestra el Modelo de Respuesta Graduada Logístico de dos parámetros (2PL-GRM) como un caso particular de los GRM simétricos y el Modelo de Respuesta Graduada Logístico de Exponente Positivo (LPE-GRM) como un modelo asimétrico derivado de incorporar un parámetro de penalización que controla la curvatura de las Funciones de Respuesta a las Etapas de los Ítems (FREI). La estimación de ambos modelos fue realizada usando la inferencia bayesiana con Métodos Montecarlo vía Cadenas de Markov (MCMC) e implementada en R y WinBUGS. Se realizó un estudio de simulación con el _n de estudiar la precisión en la recuperación de parámetros para el Modelo 2PL-GRM obteniéndose resultados apropiados para las medidas de ajuste consideradas. Los modelos 2PL-GRM y LPE-GRM estudiados fueron aplicados al estudio de un cuestionario acerca de la satisfacción de clientes y comparados con el tradicional análisis clásico de los test. La muestra del estudio está formada por 5354 clientes de una empresa de telecomunicaciones que se comunicaron con el Call Center de atención al cliente por algún motivo (consulta, reclamo, pedido, etc.). A través del análisis de dimensionalidad de la escala se encontró que el cuestionario evalúa dos dimensiones de la satisfacción con la atención al cliente: la Accesibilidad (4 ítems) y el Desempeño del asesor (7 ítems). Los resultados indican, considerando diferentes criterios, que en ambas dimensiones el modelo LPE-GRM es mejor. Adicionalmente, ambos modelos ofrecen mejor información que el tradicional análisis clásico. Se sugiere realizar diferentes estudios de simulación para evaluar distintas condiciones para la inferencia del modelo LPE-GRM puesto que para las mismas condiciones de estimación MCMC se observa que puede ser más demorado debido a que presenta mayor autocorrelación que el modelo 2PL-GRM.Item Inferencia bayesiana en un modelo de regresión cuantílica semiparamétrico(Pontificia Universidad Católica del Perú, 2015-07-20) Agurto Mejía, Hugo Miguel; Bayes Rodríguez, Cristian LuisEste trabajo propone un Modelo de Regresión Cuantílica Semiparamétrico. Nosotros empleamos la metodología sugerida por Crainiceanu et al. (2005) para un modelo semiparamétrico en el contexto de un modelo de regresión cuantílica. Un enfoque de inferencia Bayesiana es adoptado usando Algoritmos de Montecarlo vía Cadenas de Markov (MCMC). Se obtuvieron formas cerradas para las distribuciones condicionales completas y así el algoritmo muestrador de Gibbs pudo ser fácilmente implementado. Un Estudio de Simulación es llevado a cabo para ilustrar el enfoque Bayesiano para estimar los parámetros del modelo. El modelo desarrollado es ilustrado usando conjuntos de datos reales.Item Portafolios óptimos bajo estimadores robustos clásicos y bayesianos con aplicaciones al mercado peruano de acciones(Pontificia Universidad Católica del Perú, 2015-07-20) Vera Chipoco, Alberto Manuel; Bayes Rodríguez, Cristian LuisEl Modelo del Portafolio, propuesto por Markowitz (1952), es uno de los más importantes en el ámbito nanciero. En él, un agente busca lograr un nivel óptimo de sus inversiones considerando el nivel de riesgo y rentabilidad de un portafolio, conformado por un conjunto de acciones bursátiles. En este trabajo se propone una extensión a la estimación clásica del riesgo en el Modelo del Portafolio usando Estimadores Robustos tales como los obtenidos por los métodos del Elipsoide de Volumen mínimo, el Determinante de Covarianza Mínima, el Estimador Ortogonalizado de Gnanadesikan y Kettenring, el Estimador con base en la matriz de Covarianzas de la distribución t-student Multivariada y la Inferencia Bayesiana. En este último caso se hace uso de los modelos Normal Multivariado y t-student multivariado. En todos los modelos descritos se evalúa el impacto económico y las bondades estadísticas que se logran si se usaran estas técnicas en el Portafolio del inversionista en lugar de la estimación clásica. Para esto se utilizarán activos de la Bolsa de Valores de Lima.Item Modelos Chain Ladder estocásticos y aplicaciones al cálculo de reservas en compañías de seguros(Pontificia Universidad Católica del Perú, 2015-07-20) Mazuelos Vizcarra, Gisella Gabriela; Valdivieso Serrano, Luis HilmarThis document is intented to deepen the study of univariate and multivariate Chain Ladder methods for estimating reserves in an insurance company. It presents from a theoretical and applicative perspective both the univariate deterministic and stochastic Chain Ladder methods. Although, the first is the most used method by insurance companies due to its simplicity and lack of probabilistic assumptions, the second, proposed by Mack (1993), allows the construction of confidence intervals for the estimated reserves, which is invaluable for researchers. We also develop the General Multivariate Chain Ladder model, which has the basic premise to analyze the possible relationship that may exist between different development triangles, thus providing another tool to improve inferences and predictions of reserves. These methods have been developed and applied to a database of 3 types of health insurance, thus showing the advantages and disadvantages of each of them in different scenarios and providing various tools for decision making in meeting the future obligations of insurance companies.Item Una aplicación de la regresión de Cox con puntos de cambio en las covariables(Pontificia Universidad Católica del Perú, 2016-06-20) Trujillo Angeles, Lucía Inés; Doig Camino, ElizabethEl siguiente trabajo de tesis, estudiará el modelo de regresión de Cox con puntos de cambio en las covariables propuesto por Jensen y Lutkebohmert (2008), realizando el desarrollo y la aplicación para una base de líneas móviles postpago. El objetivo es obtener los parámetros de las covariables y el nuevo parámetro en el modelo que es el punto de cambio, para analizar la manera como estas covariables tienen influencia en la desactivación de una línea a solicitud del cliente.Item An application of discrete time survival models to analyze student dropouts at a private university in Peru(Pontificia Universidad Católica del Perú, 2016-06-20) Pebes Trujillo, Miguel Raúl; Sal y Rosas Celi, Víctor GiancarloDiscrete-time survival models are discussed and applied to the study of which factors are associated with student dropouts at a private university in Lima, Per_u. We studied the characteristics of 26; 790 incoming students enrolled between 2004 and 2012 in all the under-graduate programs at the University. The analysis include the estimation of the survival and hazard functions using the Kaplan-Meier method and the _tting of parametric models using the Cox proportional hazards regression and the Logistic regression for survival analysis, this last one, in order to include time varying variables as predictors. During the period of analysis, the cumulative probability of remain at the University after _ve years was 73.7% [95% CI: 73.1% - 74.4%]. In any period the hazard is greater than 4.4% and this highest value is reached in the 3rd semester. In a multivariate analysis, we found that academic factors (area of study, type of admission, standardized academic performance index, and the percentage of passed credits); economic factors (type of residence, and payment scale); and sociodemographic factors (mother education level, indicators of whether or not parents are alive, and the age of the student) were associated with the risk of dropout.Item Estudio de tres propuestas de distribución skew-t(Pontificia Universidad Católica del Perú, 2016-06-20) Kantor Benavides, Alejandro; Bayes Rodríguez, Cristian LuisEste trabajo compara tres distribuciones skew-t. En particular, las propuestas por Branco y Dey (2001) y Azzalini y Capitanio (2003), Fernández y Steel (1998), y Jones y Faddy (2003). Se analiza la relación entre los parámetros y el nivel de asimetría a través de la medida de Patil et al. (2014). Se propone una nueva parametrización de la distribución skew-t de Jones y Faddy (2003) que modela mejor la asimetría. Las distribuciones son ajustadas a datos reales basados en el retorno logarítmico de la tasa de cambio de PEN a USD.Item Modelo de regresión de clases latentes: factores asociados a la valoración de una universidad privada(Pontificia Universidad Católica del Perú, 2016-06-20) Wiener Ramos, Lucia; Valdivieso Serrano, Luis HilmarEn diversos campos de análisis, especialmente en las ciencias sociales y humanas, se identifican constructos teóricos a los cuales queremos aproximarnos pero que no son directamente observables ni medibles, como por ejemplo, la calidad o satisfacción con un servicio, el nivel de estrés, el nivel de conocimiento en matemáticas, entre otras. Este tipo de constructos son llamados variables latentes y su valor solo puede ser aproximado a través de variables observadas o manifiestas que si pueden ser medidas (Bartholomew et al., 2011). En el Capítulo 2 se presenta consideraciones generales acerca del modelo lineal general de variables latentes y el modelo de clases latentes. En el Capítulo 3 se estudian los modelos de regresión de clases latentes, la estimación de sus parámetros y su implementación computacional. En el Capítulo 4 se presenta los resultados de la aplicación del modelo a un conjunto de datos reales orientados a conocer la valoración de una universidad privada. En el Capítulo 5 se presenta algunas conclusiones, recomendaciones y futuras extensiones que se podrían derivar de este trabajo.Item Combinación de reglas de portafolio con la asignación 1/N y la ponderada por capitalización bursátil(Pontificia Universidad Católica del Perú, 2016-11-23) Rodríguez Alcócer, Augusto Fernando; Valdivieso Serrano, Luis HilmarLa teoría del portafolio estudia el proceso a través del cual se realiza la asignación óptima de activos. El análisis Media - Varianza (MV) propone que los agentes estructuran portafolios de inversión optimizando el retorno esperado o el riesgo. Así, fijando el nivel deseado de una de estas variables, es posible elaborar una frontera eficiente compuesta por portafolios óptimos. Sin embargo, si bien el análisis MV ha sido trabajado de manera extensa presenta una limitación: los parámetros reales no son conocidos sino estimados a partir de la observación de datos. Ello incorpora el problema de incertidumbre en la modelación, por lo que las reglas de portafolio óptimo están sujetas a errores aleatorios que pueden generar que los parámetros estimados se alejen de los reales. El objetivo del presente trabajo es revisar dicho análisis bajo el enfoque de reglas de portafolio, y si existe la posibilidad de reducir el riesgo de estimación a través de la combinación de las reglas con el portafolio de pesos iguales y con el portafolio ajustado por capitalización bursátil. Para la programación se utiliza el paquete estadístico R - project. Los resultados sugieren que la combinación de las reglas con los dos portafolios seleccionados puede mejorar los resultados fuera de muestra esperados y que bajo ciertas circunstancias, combinar con el portafolio de capitalización bursátil puede ser más eficiente que con el portafolio de pesos iguales.Item Modelos de teoría de respuesta al ítem multidimensional con una aplicación psicológica(Pontificia Universidad Católica del Perú, 2016-11-23) Malaspina Quevedo, Martín Ludgardo; Bazán Guzmán, Jorge LuisLa presente investigación, dentro del contexto de la Teoría de Respuesta al Ítem (TRI), estudia un modelo multidimensional logístico compensatorio de dos parámetros (M2PL) para ítems dicotómicos. Para ello, se explican teóricamente los métodos de estimación más conocidos para los parámetros de los ítems y de los rasgos latentes de las personas, priorizando el método bayesiano mediante Cadenas de Markov de Monte Carlo (MCMC). Estos métodos de estimación se exploran mediante implementaciones computacionales con el software R y R2WinBUGS. La calidad de las respectivas estimaciones de los parámetros se analiza mediante un estudio de simulación, en el cual se comprueba que el método de estimación más robusto para el modelo propuesto es el bayesiano mediante MCMC. Finalmente, el modelo y el método de estimación elegidos se ilustran mediante una aplicación que usa un conjunto de datos sobre actitudes hacia la estadística en estudiantes de una universidad privada de Colombia.