Medidas de dispersión

En estadística, las medidas de dispersión (también llamadas variabilidad, dispersión o propagación) es el grado en que una distribución se estira o se comprime.[1] Ejemplos comunes de medidas de dispersión estadística son la varianza, la desviación estándar y el rango intercuartil.

Ejemplo de muestras de dos poblaciones con la misma media pero diferente dispersión media. La población azul está mucho más dispersa que la población roja.

Las medidas de dispersión se contrastan con la ubicación o la tendencia central, y juntas son las propiedades más utilizadas de las distribuciones.

Medidas

Una medida de dispersión estadística es un número real no negativo que es cero si todos los datos son iguales y aumenta a medida que los datos se vuelven más diversos.

La mayoría de las medidas de dispersión tienen las mismas unidades que la cantidad que se mide. En otras palabras, si las medidas están en metros o segundos, también lo es la medida de dispersión. Los ejemplos de medidas de dispersión incluyen:

Estos se usan con frecuencia (junto con factores de escala) como estimadores de parámetros de escala, en cuya capacidad se denominan estimaciones de escala. Las medidas de escala robustas no se ven afectadas por un pequeño número de valores atípicos, e incluyen el IQR y el MAD.

Todas las medidas anteriores de dispersión estadística tienen la propiedad útil de que son invariantes de ubicación y de escala lineal. Esto significa que si una variable aleatoria X tiene una dispersión de SX, entonces una transformación lineal Y = aX + b para real a y b debería tener una dispersión SY = | a | SX, donde | a | es el valor absoluto de a, es decir, ignora un signo negativo anterior -.

Otras medidas de dispersión son adimensionales. En otras palabras, no tienen unidades, incluso si la variable en sí tiene unidades. Éstos incluyen:

  • Coeficiente de variación
  • Coeficiente de dispersión cuartil
  • Diferencia media relativa, igual al doble del Coeficiente de Gini
  • Entropía: mientras que la entropía de una variable discreta es invariante de ubicación e independiente de la escala, y por lo tanto no es una medida de dispersión en el sentido anterior, la entropía de una variable continua es invariante de ubicación y escala aditiva: si Hz es la entropía de variable continua z e y = ax + b, luego Hy = Hx + log (a).

Existen otras medidas de dispersión:

  • Varianza (el cuadrado de la desviación estándar): invariante de ubicación pero no lineal en escala.
  • Relación de varianza a media: se utiliza principalmente para los datos de conteo cuando se usa el término coeficiente de dispersión y cuando esta relación no tiene dimensiones, ya que los datos de conteo son adimensionales, de lo contrario.

Algunas medidas de dispersión tienen fines especializados, entre ellos la varianza de Allan y la varianza de Hadamard.

Para las variables categóricas, es menos común medir la dispersión por un solo número; ver variación cualitativa. Una medida que lo hace es la entropía discreta.

Fuentes

En las ciencias físicas, dicha variabilidad puede ser el resultado de errores de medición aleatorios: las mediciones de instrumentos a menudo no son perfectamente precisas, es decir, reproducibles, y existe una variabilidad adicional entre los evaluadores al interpretar e informar los resultados medidos. Se puede suponer que la cantidad que se está midiendo es estable y que la variación entre las mediciones se debe a un error de observación. Un sistema de un gran número de partículas se caracteriza por los valores medios de un número relativamente pequeño de cantidades macroscópicas, como la temperatura, la energía y la densidad. La desviación estándar es una medida importante en la teoría de la fluctuación, que explica muchos fenómenos físicos, incluido por qué el cielo es azul.[2]

En las ciencias biológicas, la cantidad que se mide rara vez es inmutable y estable, y la variación observada también puede ser intrínseca al fenómeno: puede deberse a la variabilidad interindividual, es decir, miembros distintos de una población que difieren entre sí. Además, puede deberse a la variabilidad intraindividual, es decir, un mismo sujeto que difiere en las pruebas tomadas en diferentes momentos o en otras condiciones diferentes. Tales tipos de variabilidad también se ven en el campo de los productos manufacturados; incluso allí, el científico meticuloso encuentra variación.

En economía, finanzas y otras disciplinas, el análisis de regresión intenta explicar la dispersión de una variable dependiente, generalmente medida por su varianza, utilizando una o más variables independientes, cada una de las cuales tiene dispersión positiva. La fracción de varianza explicada se llama coeficiente de determinación.

Un orden parcial de dispersión

Una extensión de preservación de la media (MPS) es un cambio de una distribución de probabilidad A a otra distribución de probabilidad B, donde B se forma al extender una o más porciones de la función de densidad de probabilidad de A mientras se deja la media (el valor esperado) sin cambios.[3] El concepto de una distribución de preservación de la media proporciona un ordenamiento parcial de las distribuciones de probabilidad de acuerdo con sus dispersiones: de dos distribuciones de probabilidad, una puede clasificarse como que tiene más dispersión que la otra, o alternativamente ninguna puede clasificarse como que tiene más dispersión.

Véase también

Referencias

  1. NIST/SEMATECH e-Handbook of Statistical Methods. «1.3.6.4. Location and Scale Parameters». www.itl.nist.gov. U.S. Department of Commerce.
  2. McQuarrie, Donald A. (1976). Statistical Mechanics. NY: Harper & Row. ISBN 0-06-044366-9.
  3. Rothschild, Michael; Stiglitz, Joseph (1970). «Increasing risk I: A definition». Journal of Economic Theory 2 (3): 225-243. doi:10.1016/0022-0531(70)90038-4.

Enlaces externos

Este artículo ha sido escrito por Wikipedia. El texto está disponible bajo la licencia Creative Commons - Atribución - CompartirIgual. Pueden aplicarse cláusulas adicionales a los archivos multimedia.