SciELO - Scientific Electronic Library Online

 
 número8El nuevo IETAHistoria de la Estadística índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Artigo

Indicadores

    Links relacionados

    • Não possue artigos citadosCitado por SciELO
    • Não possue artigos similaresSimilares em SciELO

    Bookmark

    Revista Varianza

    versão impressa ISSN 9876-6789

    Revista Varianza  n.8 La Paz nov. 2011

     

    INVESTIGACIÓN

     

    Estadística Clásica e Inferencia

     

     


     

     

    1.- Introduccion

    En la actualidad, la inferencia estadística clásica, desarrollada en el primer tercio del siglo XX, da respuesta suficiente para tratar de forma adecuada la problemática suscitada.

    Tomar el valor de una medida (población), pasa por realizar unas concretas determinaciones (muestra) y a partir de ella, dar el resultado final de la medida y su incertidumbre.

    La incertidumbre es un parámetro asociado al resultado de una medición que caracteriza la dispersión de los valores que pueden atribuirse a la medición.

    De esta forma, la muestra y las técnicas de muestreo se convierten en el fundamento de la inferencia estadística clásica.

    2.- Estadistica Clasica

    La estadística tiene muchos significados, siendo una técnica que debe establecer una guía para determinar situaciones de incertidumbre.

    La información y la incertidumbre participan de forma decisiva. Es, por lo tanto, la estadística una ligazón entre pasado y futuro, de especial trascendencia en la mayor parte de los procesos.

    Todo procedimiento estadístico que emplea información para obtener conocimiento, está en el ámbito de la inferencia y cuando hay que determinar acciones, se aborda la denominada decisión estadística.

    Los primeros nombres ligados a esta etapa significativa son los Bernoulli. Originarios de los Países Bajos, huyeron a Suiza por la persecución que en el reinado de Felipe II hicieron los españoles a los no católicos.

    3.- La Teoria de la Probabilidad

    En el primer tercio del siglo XX irrumpen con fuerza en el ámbito científico-matemático con corrientes que tratan de configurar un marco propio: la teoría de la probabilidad.

    Crear una axiomática propia y establecer las bases para difundir una nueva estadística, ocupó un amplio período de tiempo donde científicos de gran renombre fueron plasmando sus teorías.

    Es necesario destacar los tres grandes bloques de tratamiento en esta etapa tan interesante que trata de dar contenidos a una nueva forma en el ámbito del conocimiento matemático.

    Preparación de una base topológica y de las estructuras asociadas necesarias para establecer una nueva axiomática (Cantor, Hilbert, Borel).

    Inicio y consolidación de la axiomática de la teoría de la probabilidad (Lebesgue, Kolmogorov, Feller).

    Desarrollo de la inferencia estadística clásica y su aplicación a Ingeniería, Industria (Markov, Pearson, Gosset, Snedecor, Von Mises, Fisher).

    Los tres bloques fueron desarrollándose a la vez, consiguiendo en tan solo cincuenta años desgajar unos contenidos que han formado una estructura propia en el ámbito de las ciencias matemáticas.

    4.- Inferencia Estadistica Moderna

    A partir de mediados del siglo XX, tras la implantación de la denominada inferencia clásica, surgen investigadores que intentan reforzar nuevas formas, tratando de implementar aplicaciones dirigidas hacia las ciencias sociales y ámbito económico.

    La moderna inferencia tiene dos pilares fundamentales: la teoría de la decisión y los métodos bayesianos.

    A mediados de 1.800 ya se distinguen aspectos como utilidad marginal y utilidad total, renovándose el primitivo concepto de Bernoulli.

    Con posterioridad Von Neumann y Oscar Morgenstern, hacia 1.945, desarrollan la moderna teoría probabilística de la utilidad, definiendo una axiomática común para la probabilidad y para la utilidad.

    En 1.954 aparece la obra de Savage, iniciador de la línea bayesiana, en el marco de la teoría de la utilidad.

    En los últimos años el empleo de la teoría ha sido predictivo, aplicado en muchas ocasiones a las ciencias sociales y económicas, destacando la utilidad colectiva de Arrow (problema de bienestar social) y hace poco tiempo Black y Rethenberg.

    Recientemente trabajos de McCrimmon (1968) han contrastado la axiomática de Savage, empleando experimentación adecuada, obteniendo interesantes resultados.

    Fundamentalmente la inferencia estadística moderna sigue dos sentidos que, aunque convergentes, tienen enfoque diferenciado:

    Teoría bayesiana. Admite conocimientos a priori, así como observaciones nuevas. Las a priori son modificadas por las verosimilitudes.

    Teoría de la decisión. Punto de partida en los trabajos de Wald (1.950). Pretende establecer una teoría, unas reglas de acción en situación de incertidumbre o riesgo. El valor de cualquier decisión es medido por su pérdida.

    5.- Inferencia Estadistica Robusta

    La inferencia estadística clásica establece mecanismos de actuación ampliamente desarrollados como la estimación genérica y los contrastes de hipótesis.

    Ambos constituyen una parte esencial del trabajo habitual en la estadística actual. En ellos impera el dogma de la normalidad, quedando invalidadas las observaciones discordantes con esta norma.

    Etapas de transición han intentado establecer mecanismos fundados en incluir los datos anómalos y diseñar funciones de distribución mixtas que modelen ambos comportamientos.

    Los métodos robustos son complementarios de los métodos estadísticos clásicos y configuran una teoría más afinada en aspectos tan interesantes como la parte de estimación y de contraste.

    El término robusto fue establecido por Box (1.953), tratando de forzar hacia una modelización más completa que la establecida. Trabajos posteriores fueron reforzando la teoría, destacando:

    Quenouille (1.956), con técnicas que permiten reducir el sesgo y establecer nuevos entornos para la estimación.

    Anscombel (1.960), estimulando la investigación teórica y experimental en datos extremos.

    Huber (1.964), diseñando los procedimientos estadísticos robustos.

    Hampel (1.968), introduciendo el uso de curvas de influencia para analizar la sensibilidad de los estimadores.

    Jaeckel (1.971) y Berger (1.976), sobre aspectos de admisibilidad de los estimadores.

    En la actualidad, y una vez establecidos los elementos teóricos necesarios, es preciso aplicar el potencial de la nueva herramienta a las múltiples utilidades que diferentes áreas tienen establecidas.

    BAYES, Thomas (1702 - 1761)

    Teólogo y matemático británico. Hijo de uno de los primeros ministros presbiterianos ordenados en Inglaterra. También fue ministro y asistió a su padre.

    Fue el primero en utilizar la probabilidad inductivamente, estableciendo un fundamento matemático para la inferencia probabilística.

    En un ensayo póstumo quedó patente el intento de establecer las probabilidades tras el conocimiento de causas. Laplace, a los once años de su muerte, dio a conocer definitivamente sus revolucionarias teorías.

    La estadística bayesiana le debe su nombre al trabajo pionero del reverendo Thomas Bayes titulado "An Essay towards solving a Problem in the Doctrine of Chances" ( Una composición para solucionar un problema en la doctrina de las oportunidades ) , publicado póstumamente en 1764 en la "Philosophical Transactions of the Royal Society ofLondon".

    El artículo fue enviado a la Real Sociedad de Londres por Richard Price, amigo de Bayes, en 1763, quién escribió:

    "Yo ahora le mando un ensayo que he encontrado entre los papeles de nuestro fallecido amigo Thomas Bayes, y el cual, en mi opinión, tiene un gran mérito, y bien merece ser preservado... En una introducción que él ha escrito para este ensayo, él dice, que su objetivo en un principio fue, descubrir un método por el cual se pueda juzgar la probabilidad de que un evento tenga que ocurrir bajo circunstancias dadas, y bajo la suposición de que nada es conocido sobre dicho evento, salvo que, bajo las mismas circunstancias, éste ha ocurrido un cierto número de veces y fallado otro tanto... Cualquier persona juiciosa verá que el problema aquí mencionado no es de ninguna manera una simple especulación producto de la curiosidad, sino un problema que se necesita resolver para contar con un fundamento seguro para todos nuestros razonamientos concernientes a hechos pasados y a lo que probablemente ocurra de ahí en adelante... El propósito a mí me parece es, mostrar qué razones nosotros tenemos para creer que en la constitución de las cosas existen leyes fijas de acuerdo con las cuales las cosas pasan, y que, por lo tanto, el funcionamiento del mundo debe ser el efecto de la sabiduría y el poder de una causa inteligente, y así, confirmar el argumento tomado desde las causas finales para la existencia de la deidad. "

    Aunque la obra de Thomas Bayes data ya de hace más de dos siglos, la estadística bayesiana es relativamente nueva, y actualmente ostenta un gran desarrollo aunque no ajeno a también grandes controversias.

    Los métodos bayesianos, con una interpretación diferente del concepto de probabilidad, constituyen una alternativa a la estadística tradicional centrada en el contraste de hipótesis, denominada por contraposición estadística frecuentista, y están siendo motivo actual de debate.

    En esencia se diferencian en que incorporan información externa al estudio para con ella y los propios datos observados estimar una distribución de probabilidad para la magnitud -efecto-que se está investigando.

    Se denomina método bayesiano por basarse originalmente en el teorema de Bayes, publicación póstuma de Thomas Bayes en 1764, que en esencia nos permite, si conocemos la probabilidad de que ocurra un suceso, modificar su valor cuando disponemos de nueva información.

    6.- Teorema de Bayes

    Recordando la terminología y el teorema de Bayes. Vamos a llamar P(A) a la probabilidad de que ocurra el suceso A.

    P(AB) a la probabilidad de que ocurran los sucesos A y B (ambos).

    P(A / B) a la probabilidad de que ocurra A cuando sabemos que ha ocurrido B (se denomina probabilidad condicionada).

    La probabilidad de que ocurra A y B es igual a la probabilidad de B multiplicada por la probabilidad de A condicionada a que haya ocurrido B.

    P(AB) = P(B) x P(A / B) = P(A) x P(B / A)

    Por simetría es obvio que se cumple la tercera igualdad.

    Si tenemos un conjunto de posibles sucesos Ai (A1 ... An), mutuamente excluyentes (no puede ocurrir dos de ellos a la vez) y que constituyen todas las posibles situaciones (o lo que es lo mismo P(A1) + P(A2) + ... + P(An) = 1, el que ocurra alguno de los sucesos A tiene probabilidad 1, suceso seguro). Lo representamos gráficamente en la figura. El cuadrado corresponde a todas las situaciones posibles, que en este caso pueden dividirse en tres: A1, A2, A3. El suceso B se puede producir en cualquiera de las tres situaciones.

    Si reescribimos ahora la anterior ecuación por ejemplo para A1 tenemos


    que constituye el famoso teorema de Bayes.
    Para cualquiera de las otras situaciones (A2,A3) la fórmula es similar.

    7.- Metodología bayesiana

    En la metodología estadística clásica -frecuentista-se calcula la probabilidad de observar un resultado suponiendo que la realidad sea de una manera determinada (hipótesis nula), sin embargo en la práctica necesitamos los conocimientos para tomar decisiones, y lo que realmente nos interesa es conocer la probabilidad de que las cosas sean de una manera determinada dados los datos (condicionado a..) que hemos observado.

    Esta es la diferencia que radica en el enfoque bayesiano. En el caso de las pruebas diagnósticas lo que nos interesa en la práctica es el valor predictivo, positivo o negativo, de la prueba no la sensibilidad o especificidad de éstas.

    Aunque estamos habituados a la presentación de los métodos bayesianos con sucesos binarios o dicotómicos (enfermo o sano), también son aplicables cuando los resultados son continuos (por ejemplo proporción de pacientes que sobreviven).

    En el análisis estadístico clásico para evaluar por ejemplo la eficacia de un nuevo tratamiento frente al tratamiento anterior se utiliza exclusivamente la información obtenida en el estudio.

    El teorema de Bayes es bastante importante, pues relaciona las probabilidades "a priori" P(A) con las probabilidades "aposteriori" P(A/B) (Probabilidad de A después que ha ocurrido el evento B).

    Supongamos que se está comparando la tasa de mortalidad,. Para utilizar la terminología habitual vamos a llamar a esa magnitud que interesa calcular

    Lo primero que hay que determinar es la distribución de probabilidad de esa magnitud con la información externa de la que se dispone, es lo que se denomina probabilidad a priori y vamos a representar como. Seguidamente se cuantifica la información que aportan los datos observados en nuestro estudio mediante lo que se denomina función de verosimilitud (likelihood), que denotaremos comoLa verosimilitud representa la probabilidad de los datos observados para cualquier valor del parámetro . Podemos ahora utilizar el teorema de Bayes para actualizar el valor a prioria la luz de los datos obtenidos y calcularla denominada función de probabilidad a posteriori, es decir cómo de probables son los diferentes valores posibles de e una vez obtenidos nuestros datos. Según el teorema de Bayes tenemos que

    donde el símbolo aindica que el lado de la izquierda es proporcional al lado de la derecha, es decir que son iguales salvo por un término constante (el denominador del teorema de Bayes) que no depende del parámetro de interés

    Así pues los resultados se expresan como una función de la probabilidad a posteriori de los diferentes valores de

    8.- Inferencia Estadística

    Inferencia Estadística es la ciencia que permite hacer conclusiones acerca de una población a partir de la información de una muestra. Esta definición deja algunas preguntas por responder tales como:

    - ¿Qué es una población?

    - ¿Qué es una muestra?

    - ¿Cómo se debe extraer la muestra?

    - ¿Cómo se relacionan la muestra y la población?

    Una respuesta a esta última pregunta es "a través de probabilidades" (condicionales). En pruebas de hipótesis clásicas se definen dos tipos de error cuyas probabilidades están dadas por:

    El proceso de prueba de hipótesis consiste en evaluar cuán probable es la muestra, dada una población desconocida pero definida a partir de una hipótesis nula. Este proceso se puede esquematizar de la siguiente manera:

    1.  Se tiene una "realidad" desconocida la cual se desea estudiar (parámetros).

    2.  La realidad desconocida es no observable pero sus consecuencias sí lo son (datos).

    3. Aunque la realidad es desconocida, se tiene un supuesto inicial acerca de ella (hipótesis nula).

    4.  Esta hipótesis inicial conduce, por un proceso de deducción, a ciertas consecuencias necesarias (modelo de probabilidad) que pueden ser comparadas con los datos.

    5. Si las consecuencias de la hipótesis nula y los datos no concuerdan, la discrepancia puede conducir, por un proceso de inducción, al rechazo de la hipótesis nula.

    La pregunta ahora es, cómo evaluar esa di screpancia. La respuesta es el "valor de probabilidad".

    El valor de probabilidad (p) mide la probabilidad de obtener datos al menos tan discordantes como los obtenidos en la muestra bajo el modelo de probabilidad supuesto.

    Si el valor de probabilidad es alto, los datos obtenidos son muy probables bajo el modelo de probabilidad supuesto (poco discordantes con las consecuencias de Ho) y por lo tanto se concluye en que no hay suficiente evidencia para rechazar Ho.

    Si el valor de probabilidad es bajo, los datos obtenidos son poco probables bajo el modelo de probabilidad supuesto (muy discordantes con las consecuencias de Ho) y por lo tanto se concluye en que sí hay suficiente evidencia para rechazar Ho.

    9.- Inferencia Bayesiana

    Un punto importante en la definición clásica de inferencia es que el parámetroel cual es desconocido, es tratado como constante en vez que como variable. Esta es la idea fundamental de la teoría clásica, pero conduce a ciertos problemas de interpretación.

    Si [0.2, 0.3] es un intervalo del 95% de confianza para , sería cómodo decir que hay un 95% de probabilidad de queesté en el intervalo. Sin embargo, esto es incongruente con la idea de que 0 no es aleatorio. Dado que 0 es fijo, solo existen dos opciones: 0 está dentro o está fuera del intervalo. El único elemento aleatorio en este modelo es y, por lo que la interpretación correcta del intervalo consistiría en decir que, si se repite el procedimiento muchas veces, entonces a la larga, el 95% de los intervalos contendrían a.

    Toda inferencia basada en la estadística clásica es forzada a tener este tipo de interpretación frecuencial, aunque sin embargo, nosotros solo contamos con un intervalo para interpretar.

    El marco teórico en el cual se desarrolla la inferencia bayesiana es idéntico al de la teoría clásica.

    Se tiene un parámetro poblacionalsobre el cual se desea hacer inferencias y se tiene un modelo de probabilidad el cual determina la probabilidad de los datos observadosy bajo diferentes valores de La diferencia fundamental entre la teoría clásica y la bayesiana está en que 0 es tratado como una cantidad aleatoria. Así, la inferencia bayesiana se basa enesto es, en la distribución de probabilidades del parámetro dados los datos.

    La inferencia bayesiana, se puede resumir como el proceso de ajustar un modelo de probabilidad a un conjunto de datos y resumir los resultados mediante una distribución de probabilidades para los parámetros del modelo y para cantidades desconocidas pero observables tales como predicciones para nuevas observaciones.

    La característica esencial de los métodos bayesianos está en su uso explícito de probabilidades para cuantificar la incertidumbre en inferencias basadas en el análisis estadístico de los datos. Esto permite un manejo mucho más natural e intuitivo de la inferencia, salvando por ejemplo el problema de la interpretación frecuencial de los resultados. Sin embargo, para hacer uso de un enfoque bayesiano, es necesario especificar una distribución de probabilidades a priori la cual representa el conocimiento que se tiene sobre la distribución de 0 previo a la obtención de los datos.

    Esta noción de una distribución a priori para el parámetro constituye el centro del pensamiento bayesiano y, dependiendo de si se es un defensor o un opositor a esta metodología, su principal ventaja sobre la teoría clásica o su mayor vulnerabilidad.

    10.- Características de la Aproximación Bayesiana

    De acuerdo con O'Hagan (1994), se pueden identificar cuatro aspectos fundamentales que caracterizan la aproximación bayesiana a la inferencia estadística:

    - Información a Priori. Todos los problemas son únicos y tienen su propio contexto. De tal contexto se deriva información a priori, y es la formulación y uso de esta información a priori la que diferencia la inferencia bayesiana de la estadística clásica.

    Probabilidad Subjetiva. La estadística bayesiana formaliza la noción de que todas las probabilidades son subjetivas, dependiendo de las creencias individuales y la información disponible. Así, el análisis bayesiano resulta personal, único de acuerdo con las creencias individuales de cada uno.

    Auto consistente. Al tratar al parámetro 8 como aleatorio, la inferencia bayesiana se basa completamente en la teoría de la probabilidad. Esto tiene muchas ventaj as y significa que toda inferencia puede ser tratada en términos de declaraciones probabilísticas para 0.

    No "adhockery". Debido a que la inferencia clásica no puede hacer declaraciones probabilísticas acerca de 9, varios criterios son desarrollados para juzgar si un estimador particular es en algún sentido "bueno". Esto ha conducido a una proliferación de procedimientos, frecuentemente en conflicto unos con otros. La inferencia bayesiana deja de lado esta tendencia a inventar criterios ad hoc para juzgar y comparar estimadores al basarse exclusivamente en la distribución posterior para expresar en términos exclusivamente probabilísticos toda inferencia referente al parámetro.

    11.- Objeciones a la Inferencia Bayesiana.

    La principal objeción a la inferencia bayesiana, es que las conclusiones dependen de la selección específica de la distribución a priori. Aunque para otros esto es lo interesante de la aproximación bayesiana, este es un debate aún no cerrado. Sin embargo, antes de dejar esta característica, se debe señalar que inclusive en inferencia clásica, y además en investigación científica en general, estos conocimientos a priori son utilizados implícitamente. Así por ejemplo, el conocimiento a priori es utilizado para formular un modelo de verosimilitud apropiado. En pruebas de hipótesis, las creencias a priori acerca de la plausibilidad de una hipótesis son frecuentemente utilizadas para ajustar el nivel de significancia de la prueba. Así,

    si se cree que los datos pueden conducir al rechazo de la hipótesis, esto se puede ajustar escogiendo un nivel de significancia bastante alto. En este sentido entonces, la inferencia bayesiana formaliza la incorporación de la información a priori, la cual es incorporada frecuentemente "debajo de la mesa" en el análisis clásico.

    12.- Ampliación de Inferencia bayesiana: distribuciones a priori y a posteriori

    Por lo comentado seconocetécnicas y procedimientos de la denominada "inferencia estadística clásica" donde, en los casos en que se exponían métodos basados en parámetros poblacionales, se suponía que estos eran desconocidos pero no aleatorios.

    La diferencia fundamental que plantea el "enfoque inferencial bayesiano" radica en que considera el parámetro desconocidocomo variable aleatoria, a la que se asigna, por tanto, una determinada distribución de probabilidad, que recibe el nombre de distribución a priori y se representa por

    La información suministrada por una muestra aleatoria simple X bajo la óptica bayesiana, puede cambiar la idea del comportamiento probabilistico que se tuviera sobre el parámetro y, en este sentido, es posible aceptar que exista una distribución a posteriori del parámetro, representa por donde se recoge la modificación de la distribución de probabilidad de dicho parámetro Q cuando se dispone de la información muestral X.

    Si la distribución a priori del parametrose postula de tipo discreto, aplicando el teorema de Bayes pueden determinarse las correspondientes probabilidades a posteiori para cada uno de los valores que tome el parámetro. En efecto

    Si la distribución a priories continua, y la población de donde se extrae la muestra también, puede obtenerse la distribución a posteriori del parámetro 0 teniendo en cuenta que:

    13.- Estimacion deBayes.

    El estimador de Bayes es la función de decisión, establecida sobre el espacio paramétricoque produzca el menor riesgo esperado.

     

    Referencias Bibliográficas

    YAÑEZ DE DIEGO, I.: Teoría de muestras. UNED. Madrid, 1.991.        [ Links ]

    INFANTE MACIAS, R.: Teoría de la decisión. UNED. Madrid, 1.992.        [ Links ]

    CASTILLO RON, E.: Introducción a la estadística aplicada. Ed. el autor. Santander, 1.993.        [ Links ]

    FELLER, W.: Introducción a la Teoría de probabilidades y sus aplicaciones. Volumen 1. Editorial Limusa. México, 1.996.        [ Links ]

    GARCIA PEREZ, A.: Inferencia estadística robusta. UNED. Primer Curso sobre métodos de la teoría de la probabilidad y la inferencia estadística. Avila, Otoño 1.997.        [ Links ]

    GOMEZ VILLEGAS, M.A.: ?R.A. Fisher: el inicio del análisis multivariante?. 100cias@uned. N?3. 2.000. Pág.: 51-55.        [ Links ]