La Red de Conocimientos Pedagógicos - Aprendizaje de redacción de artículos/tesis - ¿Qué significa la variación en la escuela secundaria?

¿Qué significa la variación en la escuela secundaria?

La varianza es una medida de la dispersión de una variable aleatoria o un conjunto de datos en teoría de probabilidad y estadística.

Ampliar conocimientos

Primero, sobre la varianza

La varianza en la teoría de la probabilidad se utiliza para medir la desviación entre una variable aleatoria y su expectativa matemática (es decir, la media). . La varianza (varianza de la muestra) en estadística es el promedio de las diferencias al cuadrado entre cada valor de muestra y la media de todos los valores de muestra. En muchos problemas prácticos, es de gran importancia estudiar la varianza, es decir, la desviación. La varianza es una medida de la diferencia entre los datos de origen y los valores esperados.

El término "varianza" fue propuesto por primera vez por Ronald Fisher en su artículo "Kinibismo apoyado por la herencia mendeliana".

2. Significancia estadística

Cuando la distribución de los datos está relativamente dispersa (es decir, los datos fluctúan mucho alrededor del valor promedio), la suma de los cuadrados de las diferencias entre cada dato y el valor promedio es mayor y la varianza es mayor. Cuando la distribución de datos está concentrada, la suma de los cuadrados de las diferencias entre cada dato y la media es pequeña. Por lo tanto, cuanto mayor es la varianza, mayor es la fluctuación de los datos; cuanto menor es la varianza, menor es la fluctuación de los datos.

La suma promedio de los cuadrados de la diferencia entre los datos de la muestra y la media muestral se llama varianza muestral; la raíz cuadrada aritmética de la varianza muestral se llama desviación estándar muestral. La varianza muestral y la desviación estándar muestral son medidas de la volatilidad muestral. Cuanto mayor sea la varianza o la desviación estándar de la muestra, más volátiles serán los datos de la muestra.

La varianza y la desviación estándar son los indicadores más importantes y comúnmente utilizados de las tendencias de dispersión. La varianza es el promedio de la varianza al cuadrado de cada valor de variable y su media. Es la forma más importante de medir la dispersión de datos numéricos.

La diferencia entre desviación estándar y varianza es que la desviación estándar tiene la misma unidad de cálculo que la variable, que es más clara que la varianza, por lo que a menudo usamos más la desviación estándar en el análisis.