Estadística
Permanent URI for this collectionhttp://98.81.228.127/handle/20.500.12404/757
Browse
Item A beta inflated mean regression model with mixed effects for fractional response variables(Pontificia Universidad Católica del Perú, 2017-06-20) Fernández Villegas, Renzo; Bayes Rodríguez, Cristian LuisIn this article we propose a new mixed effects regression model for fractional bounded response variables. Our model allows us to incorporate covariates directly to the expected value, so we can quantify exactly the influence of these covariates in the mean of the variable of interest rather than to the conditional mean. Estimation is carried out from a Bayesian perspective and due to the complexity of the augmented posterior distribution we use a Hamiltonian Monte Carlo algorithm, the No-U-Turn sampler, implemented using Stan software. A simulation study for comparison, in terms of bias and RMSE, was performed showing that our model has a better performance than other traditional longitudinal models for bounded variables. Finally, we applied our Beta Inflated mixed-effects regression model to real data which consists of utilization of credit lines in the peruvian financial system.Item An application of discrete time survival models to analyze student dropouts at a private university in Peru(Pontificia Universidad Católica del Perú, 2016-06-20) Pebes Trujillo, Miguel Raúl; Sal y Rosas Celi, Víctor GiancarloDiscrete-time survival models are discussed and applied to the study of which factors are associated with student dropouts at a private university in Lima, Per_u. We studied the characteristics of 26; 790 incoming students enrolled between 2004 and 2012 in all the under-graduate programs at the University. The analysis include the estimation of the survival and hazard functions using the Kaplan-Meier method and the _tting of parametric models using the Cox proportional hazards regression and the Logistic regression for survival analysis, this last one, in order to include time varying variables as predictors. During the period of analysis, the cumulative probability of remain at the University after _ve years was 73.7% [95% CI: 73.1% - 74.4%]. In any period the hazard is greater than 4.4% and this highest value is reached in the 3rd semester. In a multivariate analysis, we found that academic factors (area of study, type of admission, standardized academic performance index, and the percentage of passed credits); economic factors (type of residence, and payment scale); and sociodemographic factors (mother education level, indicators of whether or not parents are alive, and the age of the student) were associated with the risk of dropout.Item An empirical application of stochastic volatility models to Latin-American stock returns using GH skew student's t-distribution(Pontificia Universidad Católica del Perú, 2015-07-17) Lengua Lafosse, Patricia; Bayes Rodríguez, Cristian LuisThis paper represents empirical studies of stochastic volatility (SV) models for daily stocks returns data of a set of Latin American countries (Argentina, Brazil, Chile, Mexico and Peru) for the sample period 1996:01-2013:12. We estimate SV models incorporating both leverage effects and skewed heavy-tailed disturbances taking into account the GH Skew Student’s t-distribution using the Bayesian estimation method proposed by Nakajima and Omori (2012). A model comparison between the competing SV models with symmetric Student´s t-disturbances is provided using the log marginal likelihoods in the empirical study. A prior sensitivity analysis is also provided. The results suggest that there are leverage effects in all indices considered but there is not enough evidence for Peru, and skewed heavy-tailed disturbances is confirmed only for Argentina, symmetric heavy-tailed disturbances for Mexico, Brazil and Chile, and symmetric Normal disturbances for Peru. Furthermore, we find that the GH Skew Student s t-disturbance distribution in the SV model is successful in describing the distribution of the daily stock return data for Peru, Argentina and Brazil over the traditional symmetric Student´s t-disturbance distribution.Item Análisis bayesiano de modelos de clases latentes para variables politómicas: Confianza hacia instituciones públicas(Pontificia Universidad Católica del Perú, 2019-02-11) Cruz Sarmiento, Marylía Paola; Valdivieso Serrano, Luis HilmarEl modelo de análisis de clases latentes tiene como finalidad describir una variable no observable a través del agrupamiento de los individuos en base a sus patrones de respuestas. La estimación en este modelo se puede realizar mediante el algoritmo de Esperanza-Maximización (EM) y su desarrollo para el caso politómico se encuentra implementado en el paquete poLCA de R. Desde el punto de vista bayesiano, esta estimación ha sido hasta el momento implementada sólo para el caso de variables dicotómicas. En este trabajo, se busca extender este ultimo aporte para el caso politómico, haciendo uso del muestrador de Gibbs. La aplicación del modelo de análisis de clases latentes, bajo el enfoque bayesiano aquí desarrollado, se realizó sobre un conjunto de datos reales relacionados con la con fianza hacia 21 instituciones públicas en una encuesta para Lima Metropolitana. En general, se identificaron tres grupos de encuestados seg un sus niveles de confianza institucional, los cuales se analizaron luego en relación a otras variables.Item Análisis de componentes principales evolutivos frente a segmentado: una comparación(Pontificia Universidad Católica del Perú, 2024-05-17) Purizaca Rosillo, Luis Guillermo; Camiz, SergioLa reducción de dimensionalidad, fundamental en el análisis estadístico multivariado, busca comprender estructuras complejas de datos extensos de forma reducida. El Análisis de Componentes Principales (PCA) es comúnmente empleado para estos fines, pero en series de tiempo, sus limitaciones surgen debido a que el PCA no considera la variación de la estructura de correlación entre las series de tiempo, así como la potencial autocorrelación existente. Este estudio se enfoca en presentar el PCA Evolutivo, una propuesta metodológica desarrollada por Camiz et al. (2011), diseñada específicamente para capturar las fluctuaciones en niveles de correlación presentes en este tipo de datos. Se procede a comparar los resultados obtenidos a través del PCA Evolutivo con aquellos generados por el método PCA Segmentado, desarrollado por Banko et al. (2011). Los resultados revelan que el PCA Evolutivo complementa la descripción de datos en comparación con el PCA y ofrece perspectivas distintas respecto al PCA Segmentado en la identificación de segmentos homogéneos, relacionados con cambios en correlación en el tiempo. Estas diferencias se atribuyen a las estrategias de construcción: el PCA Evolutivo sigue un enfoque basado en el índice de Calinski-Harabász, mientras que el PCA Segmentado se guía por el método bottom-up. La estabilidad del PCA Evolutivo depende de la ventana de tiempo, determinando la amplitud de los intervalos homogéneos. Por otro lado, el PCA Segmentado es más sensible a la cantidad de dimensiones retenidas, proporcionando mayor robustez al ajustar segmentos mediante una función de costos que disminuye con la retención de más componentes principales. Aplicamos los métodos en datos simulados y en series de tiempo de materias primas.Item El análisis de correspondencias conjunto y múltiple ajustado(Pontificia Universidad Católica del Perú, 2012-08-15) Saavedra López, Ricardo Elías; Valdivieso Serrano, Luis HilmarEsta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.Item Análisis de influencia bajo inferencia bayesiana en evaluaciones escolares de altas consecuencias(Pontificia Universidad Católica del Perú, 2018-07-30) Christiansen Trujillo, Andrés Guillermo; Bayes Rodríguez, Cristian LuisLa presente investigación estudia una metodología para la detección de observaciones atípicas mediante un análisis de influencia bajo la perspectiva de la inferencia bayesiana. Se utiliza la medida de phi-divergencia y el estimador de Monte Carlo, derivado de ésta, trabajados previamente por Peng y Dey (1995), para el cálculo de las divergencias Kullback-Leibler, distancia rectilínea y ji-cuadrado. Además, en el presente trabajo se busca realizar este análisis de influencia en evaluaciones de altas consecuencias (evaluaciones cuyos resultados tienen un alto impacto en la vida de los estudiantes o docentes). El estudio de simulación revela que es posible recuperar observaciones previamente distorsionadas como atípicas. Finalmente, se aplica la metodología a una evaluación realizada por el Ministerio de Educación. Esta aplicación revela que la metodología estudiada es capaz de identificar escuelas con resultados no esperados dadas sus condiciones y resultados anteriores.Item Análisis de votos electorales usando modelos de regresión para datos de conteo(Pontificia Universidad Católica del Perú, 2013-04-08) Contreras Vilca, Norma; Bazán Guzmán, Jorge LuisSe presentan dos modelos de regresión para datos de conteo: el modelo de regresión Poisson y modelo de regresión Binomial Negativa dentro del marco de los Modelos Lineales Generalizados. Los modelos son aplicados inicialmente a un conjunto de datos conocido como ((The Aircraft Damage)) presentado en Montgomery (2006) referido al número de daños en las aeronaves durante la guerra de Vietnam. La principal aplicación de este trabajo sería el análisis de los votos obtenidos por el candidato Ollanta Humala Tasso en los resultados de las ((Elecciones Generales y Parlamento Andino 2011)), analizamos los datos de la primera vuelta a nivel de regiones considerando diversos predictores. Ambos conjunto de datos, presentan sobredispersión, esto es una varianza mayor que la media, bajo estas condiciones el modelo de Regresión Binomial Negativa resulta m as adecuado que el modelo de Regresión Poisson. Adicionalmente, se realizaron estudios de diagnósticos que confirman la elección del modelo Binomial Negativa como el más apropiado para estos datos.Item Una aplicación de intervalos de confianza para la mediana de supervivencia en el modelo de regresión de Cox(Pontificia Universidad Católica del Perú, 2015-07-17) Mondragón Arbocco, Jorge Adolfo; Bayes Rodríguez, Cristian LuisEl presente trabajo estudiará el método propuesto por Tze y Zheng (2006) aplicándolo a la obtención de intervalos de confianza para la mediana de supervivencia de líneas móviles de una empresa de telecomunicaciones. Esta metodología se aplicará con el objeto de conocer el riesgo de vida promedio de la línea móvil así como de qué manera inciden las covariables sobre el tiempo hasta el incumplimiento del pago de los clientes de la empresa. Para ello se hará uso de una extensión del modelo de Cox haciendo uso de la estimación máximo verosímil para obtener nuevas estimaciones del vector de parámetros mediante el método bootstrap lo que permita la construcción de los intervalos de confianza para la mediana de supervivencia.Item Una aplicación de la regresión de Cox con puntos de cambio en las covariables(Pontificia Universidad Católica del Perú, 2016-06-20) Trujillo Angeles, Lucía Inés; Doig Camino, ElizabethEl siguiente trabajo de tesis, estudiará el modelo de regresión de Cox con puntos de cambio en las covariables propuesto por Jensen y Lutkebohmert (2008), realizando el desarrollo y la aplicación para una base de líneas móviles postpago. El objetivo es obtener los parámetros de las covariables y el nuevo parámetro en el modelo que es el punto de cambio, para analizar la manera como estas covariables tienen influencia en la desactivación de una línea a solicitud del cliente.Item Aplicación de un modelo de riesgos competitivos bayesiano(Pontificia Universidad Católica del Perú, 2024-03-05) Saavedra Palacios, Erick Dennis; Sal Y Rosas Celi, Victor GiancarloEn el presente trabajo se presenta y discute el modelo de riesgos competitivos bayesiano propuesto por Vallejos y Steel (2017). Dentro del análisis se incluyó un estudio de simulación en donde se comparó los resultados de aplicar el modelo frecuentista con respecto al bayesiano, confirmando la eficiencia de este último con respecto al anterior. Finalmente, se aplicó este modelo a la base de datos de alumnos ingresantes a la Pontificia Universidad Católica del Perú entre los años 2004 a 2012. El resultado de la aplicación mostró como única variable significativa a si el alumno ingreso por la primera opción con respecto al haber ingresado por la vía tradicional la cual aumentaba la probabilidad de graduación y reducía la probabilidad de abandono.Item Aplicación del modelo de espacio de estados con errores correlacionados a la tasa de desempleo en Perú(Pontificia Universidad Católica del Perú, 2021-02-25) Visa Flores, Rafael; Sikov, AnnaEn este trabajo se presenta los modelos de espacio de estados con errores correlacionados, propuesto por Pfeffermann y Tiller (2006), aplicado a datos reales de la tasa de desempleo para Lima Metropolitana, cuya información es recolectada mediante la Encuesta Permanente del Empleo - EPE por el Instituto Nacional de Estadística e Informática. Estos modelos permiten dar tratamiento a series de tiempo con errores de medición correlacionados, la estimación de los componentes del modelo se realiza mediante el algoritmo recursivo de Pfeffermann y Tiller, y cuando los errores son independientes se utiliza el algoritmo recursivo del filtro de Kalman. Se realizó un estudio de simulación con series de tiempo con errores correlacionados con el objetivo de comparar las predicciones obtenidas con el algoritmo del filtro de Kalman y el algoritmo de Pfeffermann y Tiller, resultando este último con menores errores de predicción. Con la finalidad de comparar la aplicación del modelo de espacio de estados con errores correlacionados con una metodología muy conocida como el desarrollado por Box and Jenkins, se ajustó los datos de la tasa de desempleo a un modelo ARIMA, se comparó las predicciones de ambos modelos con las verdaderas observaciones, donde los errores de las predicciones fueron similares, sin embargo, el menor error cuadrático medio se obtuvo con el modelo de espacio de estados con errores correlacionados.Item Approximate bayesian inference for directed acyclic graph autoregressive models(Pontificia Universidad Católica del Perú, 2022-02-02) Buendía Narváez, Julio César; Quiroz Cornejo, Zaida JesúsLa prevalencia de enfermedades epidemiológicas recolectadas en áreas geográficamente limitadas, como distritos o provincias, son cruciales para la toma de decisiones en salud pública. Usualmente esta variable respuesta presenta dependencia espacial, es decir, es similar en áreas vecinas, debido a la naturaleza de la enfermedad, clima, nivel económico y cultural, entre otras razones. En este sentido, se proponen modelos espaciales de datos áreas para identificar tendencias y factores asociados a enfermedades epidemiológicas, tomando en cuenta la dependencia espacial entre áreas geográficas. Por lo general, estos modelos ajustan a la dependencia espacial a través de efectos aleatorios derivados a través de grafos. En particular, el modelo autorregresivo de gráfico acíclico dirigido (DAGAR) se basa en un grafo acíclico dirigido y algunos efectos aleatorios \del pasado". Como consecuencia, la matriz de precisión (inversa de la covarianza) del modelo es dispersa. Este modelo tiene una interpretación intuitiva de los parámetros asociados con la dependencia espacial y se puede representar como un modelo gaussiano latente. En este contexto, en esta tesis se propone implementar el modelo DAGAR a través del método de inferencia bayesiano aproximado INLA que es determinista, bastante preciso y eficiente. Dentro de este enfoque, la estimación de datos grandes se puede realizar en segundos o minutos, y permite ajustar los datos con distribución gaussiana o no gaussiana. Finalmente, para mostrar el aporte de esta propuesta, el modelo DAGAR se ajusta a datos reales.Item Aprendizaje estadístico supervisado con máquina de soporte vectorial(Pontificia Universidad Católica del Perú, 2024-02-26) Falcón Cisneros, Sergio Daniel; Véliz Capuñay, Carlos NilbertoActualmente las organizaciones recolectan datos en grandes volúmenes y de fuentes muy variadas. Para dar sentido y convertir los datos en información útil es necesario utilizar técnicas que permitan encontrar y entender las relaciones ocultas en los datos. Generalmente, la relación que nos interesa estudiar es cómo predecir un evento utilizando un conjunto de variables. Sin embargo, muchas veces la relación entre los datos es muy compleja y no puede ser analizada adecuadamente usando las técnicas más conocidas, dado que éstas suelen tener supuestos que no necesariamente se cumplen. Por ello, es importante conocer técnicas de análisis más complejas y flexibles. Esta tesis busca ser un instrumento de ayuda en el aprendizaje y uso de nuevas técnicas para estudiar los datos, lo cual es relevante sobre todo en el medio local en el que este tema es poco conocido. Con este objetivo, presenta una revisión introductoria de la teoría del aprendizaje estadístico, la cual provee del marco teórico para que distintos métodos utilicen los datos para aprender, y usando este conocimiento puedan hacer predicciones sobre datos nuevos o diferentes. Luego se centra en un estudio exhaustivo del método de aprendizaje de Máquinas de Soporte Vectorial (SVM por sus siglas en inglés), introduciendo y aplicando las funciones Kernel. Este método se puede entender como una representación de los datos como puntos en el espacio, asignados de tal forma que exista una brecha grande que separe a los elementos diferentes. Finalmente se pone en práctica la teoría estudiada aplicando el método SVM a datos de clientes de una entidad financiera. Esta entidad financiera usa predominantemente técnicas de aprendizaje estadístico simples y con varios supuestos; particularmente usa una de estas técnicas en un modelo que predice la propensión a la compra y persistencia del producto Seguro de Protección de Tarjetas. Por ello, la presente tesis se centra en aplicar el método SVM para construir una alternativa a este modelo.Item Clasificación de riesgo para frecuencias y severidades en un seguro de automóviles usando modelos GAMLSS(Pontificia Universidad Católica del Perú, 2022-03-16) Hernández Bello, Diana Patricia; Valdivieso Serrano, Luis HilmarEn la tarificación de seguros generales, en particular en seguros de vehículos, es valioso incorporar toda la información disponible del asegurado, del bien asegurado y de los siniestros que se han presentado, con el fin de obtener modelos que consideren las variables relevantes en la estimación y así generar una prima de riesgo adecuada para el riesgo que se está analizando. Los modelos a considerar están construidos con base en las reclamaciones que ha presentado el asegurado y su estimaci´on se obtiene mediante distribuciones del número y monto de siniestros dando como resultado tarifas que incluyen recargos y descuentos en base a la experiencia siniestral, lo que se conoce como Sistema Bonus-Malus. Adicionalmente se han analizado modelos de regresión que incluyen información tanto del asegurado como del vehículo y cuya estimación de la prima de riesgo se realiza a través de la media tanto de la frecuencia como de la severidad. Sin embargo, dado que los riesgos en la cartera expuesta son heterogéneos, se plantean también modelos de regresión en los que la estimación de la frecuencia y la severidad se realiza a través de parámetros como: la media, la varianza, el sesgo y la curtosis, estos últimos son denominados modelos aditivos generalizados de localización, escala y forma (GAMLSS).Item Clusterización basada en una mixtura con distribuciones normales contaminadas multivariadas con datos incompletos: Una aplicación a la evaluación de habilidades socioemocionales(Pontificia Universidad Católica del Perú, 2023-08-31) Zegarra López, Ángel Christopher; Benites Sánchez, Luis EnriqueAunque la distribución normal es útil en una variedad de contextos, enfrenta ciertas limitaciones al modelar datos que contienen valores extremos. Estos valores pueden generar “colas” más pesadas en la distribución, en contraste con las colas más ligeras de la distribución normal. Por lo tanto, en tales circunstancias, la distribución normal contaminada se presenta como una alternativa efectiva. Este ajuste es especialmente significativo en aplicaciones como la agrupación basada en modelos. En este método, es habitual emplear distribuciones normales multivariadas como fundamento para la agrupación. No obstante, la estimación de parámetros puede verse afectada por la presencia de valores extremos. En este estudio, implementamos la distribución normal contaminada multivariada como base para la agrupación basada en modelos, tal como propone Tong y Tortora (2022). Explicamos las características del modelo y llevamos a cabo un estudio de simulación para contrastar su desempeño con la distribución normal multivariada y la distribución t multivariada. Finalmente, aplicamos un proceso de agrupación basado en una mezcla de distribuciones normales contaminadas multivariadas a un conjunto de datos reales. Estos datos se derivan de los resultados de la Evaluación de Habilidades Socioemocionales, una iniciativa implementada por el Ministerio de Educación de Perú en 2021.Item Combinación de reglas de portafolio con la asignación 1/N y la ponderada por capitalización bursátil(Pontificia Universidad Católica del Perú, 2016-11-23) Rodríguez Alcócer, Augusto Fernando; Valdivieso Serrano, Luis HilmarLa teoría del portafolio estudia el proceso a través del cual se realiza la asignación óptima de activos. El análisis Media - Varianza (MV) propone que los agentes estructuran portafolios de inversión optimizando el retorno esperado o el riesgo. Así, fijando el nivel deseado de una de estas variables, es posible elaborar una frontera eficiente compuesta por portafolios óptimos. Sin embargo, si bien el análisis MV ha sido trabajado de manera extensa presenta una limitación: los parámetros reales no son conocidos sino estimados a partir de la observación de datos. Ello incorpora el problema de incertidumbre en la modelación, por lo que las reglas de portafolio óptimo están sujetas a errores aleatorios que pueden generar que los parámetros estimados se alejen de los reales. El objetivo del presente trabajo es revisar dicho análisis bajo el enfoque de reglas de portafolio, y si existe la posibilidad de reducir el riesgo de estimación a través de la combinación de las reglas con el portafolio de pesos iguales y con el portafolio ajustado por capitalización bursátil. Para la programación se utiliza el paquete estadístico R - project. Los resultados sugieren que la combinación de las reglas con los dos portafolios seleccionados puede mejorar los resultados fuera de muestra esperados y que bajo ciertas circunstancias, combinar con el portafolio de capitalización bursátil puede ser más eficiente que con el portafolio de pesos iguales.Item Endpoint-inflated beta-binomial regression for correlated count data(Pontificia Universidad Católica del Perú, 2021-03-29) Fazio Luna, Boris Manuel; Sal y Rosas Celi, Víctor GiancarloEl modelo de regresión binomial con in acción en los extremos permite modelar datos de conteo acotados en los que una alta proporción de las observaciones se encuentra en los extremos. Extendemos el modelo considerando una función de enlace de logit ordenado, la cual aprovecha la información de orden implícita en las probabilidades de in acción y exploramos el uso de efectos aleatorios y marginalización para manejar la presencia de observaciones repetidas. Empleamos un conjunto de datos previamente analizado en la literatura mediante un modelo de regresión binomial con in acción en los extremos que emplea el enlace softmax para mostrar el mejor ajuste logrado por nuestro modelo.Item Un enfoque bayesiano para estimar las temperaturas mínimas extremas a través de un modelo geoestadístico GEV(Pontificia Universidad Católica del Perú, 2023-01-16) Guevara Alvarado, Anilda Maribel; Quiroz Cornejo, Zaida JesúsEl desarrollo sostenible de un país puede verse limitado debido a cambios graduales del clima y eventos hidrometeorológicos extremos, que afectan de manera recurrente la infraestructura, medios de vida así como las inversiones. El Perú es uno de los países más afectados por la variabilidad y cambio climático, por tanto la gestión del riesgo climático, entre ellas el estudio de temperaturas extremas, contribuye a reducir impactos socio-económicos y ambientales en las inversiones público-privadas. En este contexto, en esta tesis se propone aplicar un modelo bayesiano geoestadístico usando una distribución generalizada para valores extremos (GEV) para estimar y predecir las temperaturas mínimas extremas en el Perú en el 2012. Asimismo, dado el alto costo computacional que ameritan los modelos bayesianos espaciales, se propone usar el enfoque de ecuaciones diferenciales parciales estocásticas (SPDE) y para la estimación de los parámetros se usa el método integrado de aproximación anidada de Laplace (INLA). El modelo propuesto permite estimar las temperaturas mínimas extremas en el Perú, con el propósito de mejorar la gestión de riesgo climáticoItem Un enfoque de credibilidad bajo espacios de Hilbert y su estimación mediante modelos lineales mixtos(Pontificia Universidad Católica del Perú, 2013-04-08) Ruíz Arias, Raúl Alberto; Valdivieso Serrano, Luis HilmarLa teoría de la credibilidad provee un conjunto de métodos que permiten a una compañía de seguros ajustar las primas futuras, sobre la base de la experiencia pasada individual e información de toda la cartera. En este trabajo presentaremos los principales modelos de credibilidad utilizados en la práctica, como lo son los modelos de Bühlmann (1967), Bühlmann-Straub (1970), Jewell (1975) y Hachemeister (1975), todos ellos analizados en sus propiedades desde un punto de vista geométrico a través de la teoría de espacios de Hilbert y en su estimación mediante el uso de los modelos lineales mixtos. Mediante un estudio de simulación se mostrará la ventaja de utilizar este último enfoque de estimación.