SciELO - Scientific Electronic Library Online

 
 número1EDITORIALMODELOS ARCH Y GARCH índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

    Links relacionados

    • No hay articulos citadosCitado por SciELO
    • No hay articulos similaresSimilares en SciELO

    Bookmark

    Revista Varianza

    versión impresa ISSN 9876-6789

    Revista Varianza  n.1 La Paz oct. 2001

     

    Propuestas Teóricas

     

    £1 Conflicto en Inferencia Estadística Verosimilitud

     

     

    Kjetil Brinchmann Haslvorsen

     

     


     

    Contrario a o que piensan muchas personas no iniciada, los fundamentos para la Inferencia Estadística no son resueltos para la satisfacción de todos, pero es una fuente de mucho conflicto . Lo que ahora se llama "Estadística Clásica", con raíces desde los años 1920, han proporcionado métodos muy usados como pruebas de significancia pura, prueba de hipótesis , intervalos de confianza entre otros. Esto sin duda ha sido un gran aporte práctico a la ciencia, pero su base lógica no es muy firme. En el mismo año (1934) como Newman & Pearson propuso la teoría de intervalos de confianza, Fisher lo atacaba fuertemente. ¿Porqué? no satisface los requerimientos de la teoría de la inducción científica, no produce una medida de evidencia en un cierto cuerpo de datos sobre alguna teoría científica, pero reemplaza en el concepto de evidencia por el de "la propiedad de confianza". Este último básicamente dice que no tenemos confianza en un cierto intervalo de confianza, pero tenemos sólo confianza en el método que lo ha producido. En hecho algunos estadísticos modernos muy conocidos como Lucien LeCam. argumenta que no necesariamente existe evidencia acerca de una hipótesis científica, basado en un experimento concreto"(Lucien LeCam, en su discusión en Berger & Wolpert (2).

    Para la mayoría de los científicos en el campo aplicado, este argumento parece raro, por decir lo menos.

    Existe alternativas a la estadística Clásica, y los más importantes son la Inferencia Bayesiana y la Inferencia de Verosimilitud Pura. Estos son paradigmas alternativos, aplicables para todo el campo de la estadística. Otras teorías, menos conocidas, tienen aparentemente menor aplicabilidad, y no las mencionaremos en este artículo. Para una discusión y referencias, mire por ejemplo Edwards (4) ó Hacking (6).

    ¿Porqué debemos preocuparnos de estos temas aquí, en lugar de sólo preocuparnos de los aspectos inmediatamente aplicables a la Estadística? Por múltiples razones, primero por su importancia e interés, segundo, por razones pedagógicas. Talvez la mejor manera de entender los a los métodos y principios estadísticos, es presentar diferentes teorías de una manera comparativa, con énfasis en la diferencia en base lógica e interpretación . este argumento es particularmente apropiado en este momento cuando la Carrera de estadística de la Universidad Mayor de San Andrés se encuentra en una fase de discusiones de pedagogía y metodología, por razón del Diplomado en Educación Superior.

    La evidencia es que la mayoría de los usuarios de intervalos de confianza lo interpretan de una manera evidencial, que no es estrictamente permitida. Por ejemplo en Berger (1) Berger dice que ha tenido éxito en enseñar intervalos de confianza a estudiantes en cursos introductorios, sólo cuando paralelamente ha enseñado intervalos de confianza a estudiantes en cursos introductorios, cuando paralelamente ha enseñado intervalos bayesianos.

    Entonces, existen muchas buenas razones para una enseñanza "agnóstica" de los principios de la Estadística. Este autor ha presentado en artículos anteriores aspectos de la teoría bayesiana en nuestro medio, por ejemplo (7), y en otros documentos. Ahora es tiempo para una pequeña presentación de otro punto de vista alternativo, sólo con aspectos de la verosimilitud .

     

    2. PROBLEMAS CON LA TEORÍA CLÁSICA

    Presentamos un solo ejemplo sencillo, tomando (2), mostrando el tipo de problemas que ocurren con la teoría clásica de intervalos de confianza. Básicamente, ocurren problemas porque las inferencias clásicas no son condicionales en los datos. En los datos.

    Sea X 1 y X2 independientes, cada uno con la distribución.

    Aquí es un parámetro desconocido, para estimar en base a las observaciones. Es fácil mostrar que un conjunto de confianza con grado de confianza 75% esta dado por donde el grado de confianza es 75% quiere decir que, en uso repetido, la frecuencia de casos donde el conjunto C(X1,X2) actualmente contiene 8, converge en probabilidad a 75%. No dice que la probabilidad que (X1,X2) es igual a 75% en un caso particular, una interpretación que muchos usuarios dan.

     

     

    En este ejemplo en particular, es claro que la información contenido en la muestra es muy diferente si . En el primer caso, hemos observado . Entonces podemos concluir que ó , aparentemente con igual probabilidad par ambos posibilidades (la función de verosimilitud es igual para los dos posibilidades). Entonces sería mejor reportar que el grado de confianza condicional én la muestra de C(X1,X2) es 50%. En el otro caso, la muestra da información completa acerca de 8, y parece natural reportar un grado de confianza condicional en a muestra de 100%. Pero este concepto nuevo de un grado de confianza condicional en la muestra no esta definido en la teoría clásica.

    La diferencia entre los dos conceptos de grado de confianza usado en el anterior párrafo, es que el grado de confianza clásica es una medida pre-experimental (esta basada en probabilidades que se puede calcular antes de obtener la muestra), mientras el grado de confianza condicional en los datos es una medida post-experimental (esta basada en probabilidades que se puede calcular sólo después de obtener la muestra). La Estadística clásica supone, sin decirlo, que una medida pre-experimental es relevante también después de obtener la muestra. Esto está abierto a discusión. El ejemplo anterior muestra que este supuesto por lo menos es dudable.

    Si el ejemplo parece artificial, en que algunas muestras posibles revelan con certeza la identidad del parámetro desconocido, existen dos defensas. Primero, era necesario usar un ejemplo lo más sencillo posible para hacer un punto. Segundo, éste fenómeno ocurre en ejemplos prácticos. Considere una pareja, un hombre con ojos azules, seguramente un homozygoto (bb), y una mujer con ojos negros, que puede ser un heterozygoto ó un homozygoto (bB ó BB). Pero después de observar que uno de los hijos de la pareja tiene ojos azules, sabemos que la mujer es heterozygoto. Entonces, casos donde la información contenida en una muestra depende de la configuración de esta, ocurren también en la práctica.

    Kiefer [5] ha tratado de desarrollar una teoría de confianza condicional, pero existe muy pocos artículos que han seguido esa línea, lo que implica que ésta teoría sería muy difícil. También es conocido [ver ejemplos en (2)] que ésta teoría no puede ser completamente general.

     

    3. Verosimilitud

    Ha llegado el momento para presentar un método que esta propuesto como alternativa a la teoría clásica. Discutimos la propuesta de realizar inferencias basado solo en la función de verosimilitud, sin ningún otro input. Primero tenemos que observar que la función de verosimilitud es fundamental también en otros acercamientos a la estadística, lo que en cualquier caso hace interesante ver que inferencias se puede hacer solo usando esta función.

    Si los dados X = (X1, X2,........Xn) tiene función de densidad

    Donde = es el espacio parámetrico, definimos la función de verosimilitud como

    Omitiendo constantes irrelevantes. Queremos estudiar el "contenido" de soporte para los intervalos de confianza usuales para u. con grado de confianza 95%. Esto tiene la forma.

    y la diferencia en soporte entre el estimador máximo verosímil de u y los puntos extremos de este intervalo de confianza esta dado por

    Una pequeña tabla de estos valores esta dado en la continuación:

     

    El primer resultado, obvio, de este ejercicio, es que el contenido evidencial de los intervalos de confianza basado en la distribución t depende de los grados de libertad, y segundo, que para pocos grados de libertad son demasiados conservativos. Esta observación es consistente con la paradoja de Lindley [mire(l)] en la teoría Bayesiana: El contenido evidencial de una prueba clásica he hipótesis depende de los números de observaciones n.

    Como un compromiso con la teoría de verosimilitud pura, sería conveniente siempre reportar las diferencias en soporte cuando se da un intervalo de confianza.

    Damos un ejemplo más, esta vez la prueba F en el modelo lineal general. Suponemos , con los supuestos estándares de normalidad e independencia. Estamos interesados en la hipótesis = c. La prueba F equivalente con la prueba de razón de verosimilitud, esta dado por

    Donde q es el número de restricciones lineales, en el hipótesis H, y S2 es el estimador usual (insesgado) de la varianza. Bajo la hipótesis nula F tiene una distribución F con q y n - p grados de libertad. Algunos cálculos sencillos basados en formulas dados en por ejemplo Seber [8], muestra que la diferencia en soporte ente el estimador máximo verosímil irrestringido y bajo la hipótesis H, esta dado por lo que en el caso t se reduce a la expresión dado anteriormente.

     

     

    Usamos esto para el análisis del ejemplo de penicilina de Box, Hunter & Hunter [3]. Este ejemplo es un diseño de bloques al azar para comparar 4 diferentes métodos para la producción de penicilina. Para este ejemplo, n = 20, n - p = 12 . En el cuadro abajo damos los datos relevantes, calculados a partir del tabla de ANOVA.

     

    Pero aquí estamos comparando modelos con mayor diferencia en complejidad, es decir, número de parámetros, entonces debemos requerir mayor diferencia en soporte para declarar una diferencia como evidencia fuerte. Edwards [4] note que se tome una diferencia en soporte de dos unidades como un buen taza de intercambio entre evidencia y complejidad cuando se compara dos modelos con un parámetro en diferencia, entonces en general se puede requerir dos unidades de soporte par cada parámetro en diferencia. En este criterio la insignificancia de tratamientos es evidente, mientras la significancia de bloques parece claro. En la teoría clásico, la prueba F del hipótesis nula de ningún efecto de los bloques da un valor . que tradicionalmente se juzga como significante. Al respecto. Box, Hunter Nunter [3] dice: donde k es una constante positivo arbitraria. Esta definición implica que la función de verosimilitud, en isolación, solo se puede usar para hacer inferencias relativas, comparando diferentes posibles valores de en los mismos datos. Esto es, los proponentes de verosimilitud puro niega la posibilidad de hacer inferencias absolutas, como propone la Estadística clásica ó Estadística Bayesiana, dice que solo inferencias relativas son posibles. El requerimiento de que evidencia en conjuntos de datos independientes, acerca del mismo parámetro 6, debe ser aditiva, llega a medir la evidencia usando la función de log verosimilitud, llamado la función de soporte en Edwards [4]. El valor de con mayor soporte corresponde al estimador de máximo verosimilitud, pero clásicamente se ha evaluado el estimador de máximo verosimilitud, pero clásicamente se ha evaluado el estimador de máximo verosimilitud, usando sus propiedades en muestreo repetido, mientras esto no es permitido (ó tiene sentido) en la teoría de verosimilitud puro. Interpretamos la razón de verosimilitud entre dos diferentes hipótesis (el exponencial de la diferencia en soporte) directamente como una medida de la evidencia relativa entre los dos hipótesis. En Estadística clásica se niega directamente que esto tiene sentido, aunque en libros modernos no tan fuerte como antes.

    Edwards en [4] propone, usando una comparación con inferencia clásica en el modelo normal con varianza conocida, usar una diferencia en soporte de 2 unidades como un criterio de "plausibilidad". Es decir, propone que todos los valores de 8 tiene diferencia en soporte comparado con el estimador máximo verosímil menor que 2, como plausibles. Si la diferencia en número de parámetros entre los dos hipótesis son mayor a uno, es necesario de alguna manera compensar más por la diferencia en complejidad entre los dos hipótesis. Porque, todo otro igual preferimos la hipótesis más simple que es consistente con los hechos.

    Vamos a estudiar el criterio de diferencia en soporte (ó equivalentemente, razón de verosimilitud), usándolo en algunos modelos simples bien conocidos. Primero el modelo normal con esperanza y varianza desconocida. Sea

    La función de prueba tiene la distribución tn - 1 , y da lugar a una

    Función de soporte proporcional a

     

    A menudo se confunde el contraste F general . Un analista que encuentra un valor significativo a nivel de 4% podría ir directamente a la conclusión de que había mucho más evidencia para la separación entre las medias que la realmente hay. Sin embargo, el examen de la figura 7.5.b le haría ver la realidad de que aunque es probable que haya diferencias de alguna clase entre las medias (por ejemplo, mezcla 1 y 5 probablemente tienen medias diferentes), no están bien calculadas. En concreto, si las diferencias de, por ejemplo, 5 unidades fueran de importancia económica, haría falta un experimento mucho más grande para estimarlas.

    La figura 7.5b referida es una distribución de referencia para diferencias entre las promedias) . Usando una tasa de intercambio de dos unidades de soporte por parámetro, el análisis de verosimilitud puro da una conclusión parecida a la conclusión de Box, Hunter & Hunter [3] . La evidencia para un efecto importante de bloques es débil, El uso automático de la prueba F puede fácilmente llegar a una conclusión errónea.

    Incidentalmente , la penalización de dos unidades de soporte por parámetro indicado por Edwards [4] , es más fuerte que el implicado en Akaikes criterio AIC:

    Que corresponde a una penalización de uno por parámetro. Usando este criterio bloques son significativos en el ejemplo. El criterio AIC ha sido muy popular en ciencias aplicadas, especialmente en tecnología, los últimos décadas. Es probablemente la instancia más usado de inferencia de verosimilitud pura.

     

    4. Conclusiones y comentarios.

    Hemos visto que inferencia de verosimilitud puro es un punto de vista interesante que puede dar resultado diferentes de Estadística Clásicas y en muchos casos puede ser por lo menos un complemento importante. En las referencias, especialmente [2] y [4] se pude encontrar muchos más ejemplos.

    En la enseñanza de Estadística se debe presentar los diferentes puntos de vista en el conflicto acerca de inferencia Estadística, y especialmente mostrar que medidas pre-experimentales de la Estadística clásica puede ser inválidos, desde un punto de vista post-experimental. Los dos puntos de vista más importantes como alternativas a la Estadística clásica, Bayes y verosimilitud puro, ambos usa un punto de vista post-experimental. Se presenta este papel como una invitación a una discusión aquí, localmente, acerca de estos problemas.

     

    Referencias

    (1) James O. Berger (I980) Stalistical Decisión Theory: Foundations, Concepts, and Methods. Springer - Verlag.        [ Links ]

    (1) James O. Berger <b Robert L. Wolpert (1984) The Likelihood Principie. Institute of Marthemathical Statistics, Lecture Notes -Monugraph Series.

    (2) GE.I'. Box. W. (¡. Hunter <t- J.S. Hunter Statistics for Experimenters, and Introduction to Design, Data Analysis and Model Building. John Wiley A Sons.

    (3l A IV. F Edwards (1992) Likelihood. Expanded Edition. The John Hopkins University Press.

    (4) J.Kiefer (1977) Condilional confidente statements and confidence estimators (with discussion) J. Amer. Statist. Assoc, 72, 789-827.        [ Links ]

    (5) I.Hacking (1979) Logic ofStatistical ¡nference. Cambridge University Press.        [ Links ]

    (6) Kjetil Halvorsen (1997) ¿Es probabilidad un concepto suficiente para expresar incertidumbre? Apuntes de enseñanza.        [ Links ]

    (7) G.A.F. Seber (1977) Linear Regressión Analysis, Jhon Wiley & Sons.        [ Links ]