¿Cuál es el origen de la legendaria estadística bayesiana?
El académico británico Thomas Bayes propuso una teoría de inferencia inductiva en "Sobre la solución del azar", que luego fue desarrollada por algunos estadísticos como un método de inferencia estadística sistemática. Todos los resultados obtenidos de la inferencia estadística utilizando este método constituyen el contenido de la estadística bayesiana. Los estadísticos que creían que los métodos bayesianos eran el único método razonable de inferencia estadística formaron la escuela bayesiana de estadística matemática, que se remonta a la década de 1930. En las décadas de 1950 y 1960, se había convertido en una escuela influyente. Hoy, su influencia está creciendo.
Nombre chino Bayes Statistics mbth Bayes Statistics fue propuesto por Thomas Bayes en 1763 y traducido por Jia Naiguang.
Índice
1 Principios Técnicos
Distribución Previa
Distribución Posterior
2 Disputas Teóricas
p>
3 Historial de desarrollo
Editor de principios técnicos
Distribución previa
Es la distribución de probabilidad del parámetro de distribución general θ. El punto fundamental de la escuela bayesiana es que en cualquier problema de inferencia estadística sobre θ, además de la información proporcionada por la muestra X, también se debe especificar una distribución previa para θ, que es un factor indispensable en la inferencia. Los bayesianos interpretan la distribución previa como una expresión de probabilidad de la información previa sobre θ antes del muestreo. La distribución previa no tiene por qué tener una base objetiva sino que puede basarse parcial o totalmente en creencias subjetivas.
Por ejemplo, un sospechoso tiene la enfermedad A, y el médico mide su temperatura corporal, presión arterial y otros indicadores cuando ve a un médico. Los resultados forman una muestra x Introduce el parámetro θ: cuando está enfermo, θ. = 1; cuando no hay enfermedad, θ = 0. La distribución de X depende de si θ es 0 o 1, por lo que conocer X ayuda a inferir si θ es 1. Según la escuela tradicional (frecuente), los médicos solo utilizan la información proporcionada por Si A está enfermo (es decir, si θ es 1). El número p describe la distribución previa de este problema, que puede interpretarse como la incidencia de la enfermedad a. Las reglas de la distribución previa tienen un impacto en los resultados de la inferencia. Por ejemplo, en este caso, si la incidencia de la enfermedad A es pequeña, los médicos se inclinarán a diagnosticar la enfermedad A sólo si la muestra X muestra pruebas sólidas. El uso de distribuciones previas parece razonable aquí, pero no se utiliza la interpretación bayesiana basada en "P es la tasa de ocurrencia". De hecho, incluso si no sabemos nada sobre la incidencia de esta enfermedad, debemos especificar dicha P, de lo contrario el problema no se puede resolver.
Distribución posterior
Según la distribución Pθ de la muestra. Utilizando el método de distribución de probabilidad, se puede calcular la distribución condicional π(θ|x) de θ. Debido a que esta distribución se obtiene después del muestreo, se denomina distribución posterior. Los bayesianos creen que esta distribución combina la información relevante proporcionada por la muestra X y la distribución previa π (θ). El propósito del muestreo es completar la transformación de la distribución anterior a la distribución posterior. Por ejemplo, si p=P(θ=1)=0,001, π(θ=1|x)=0,86, la explicación bayesiana es: antes de medir el índice de A, la probabilidad de que su enfermedad se establezca en 0,001 Y una vez obtenida, la fórmula para calcular la distribución posterior es esencialmente la famosa fórmula bayesiana en la teoría de la probabilidad (ver probabilidad). Este es un contenido importante del artículo bayesiano de 1763 mencionado anteriormente.
La clave del método de inferencia bayesiano es que cualquier inferencia debe basarse en la distribución posterior π(θ│X) y ya no puede involucrar la distribución muestral Pθ de X.
Por ejemplo, en la teoría de Neyman-Pearson (ver prueba de hipótesis), para determinar el valor crítico c para la prueba de nivel α, se debe considerar la distribución Pθ de X, lo cual no está permitido en la teoría bayesiana. inferencia. Pero la inferencia bayesiana tiene cierta flexibilidad en cuanto a cómo utilizar π(θ│X).
Por ejemplo, para una estimación puntual de θ, puede usar el punto máximo de la densidad de distribución posterior h(θ|X) alrededor de θ, o puede usar la media o mediana de π(θ|X) (consulte Distribución de probabilidad) . Para estimar el intervalo de θ, podemos tomar el intervalo [A(X), B(X)] tal que π(A(X)≤θ≤B(X)│X) es igual al número 1-α( 0