Convergencia en probabilidad

La convergencia en probabilidad se da cuando a medida que , o el tamaño de muestra, aumenta entonces la variable aleatoria (v.a.) toma valores cercanos a una constante con mayor probabilidad. Un ejemplo sencillo de esto sería, dado una v.a. que toma 2 valores c con probabilidad y con probabilidad . Entonces al hacer crecer n lo que ocurre es que el valor "n" de la v.a. aumenta pero su probabilidad disminuye a una velocidad de (1/n) mientras que la probabilidad de que la v.a. tome el valor c va tendiendo a 1.

Sea una variable aleatoria cuyo índice señala el tamaño de la muestra a partir de la cual dicha variable aleatoria está construida.

Se define convergencia en probabilidad

Se dice que la sucesión de variables aleatorias converge en probabilidad a una constante c si para cualquier >0, también se escribe como .

El resultado anterior, con ayuda de las propiedades de valor absoluto se puede ver como


Este artículo ha sido escrito por Wikipedia. El texto está disponible bajo la licencia Creative Commons - Atribución - CompartirIgual. Pueden aplicarse cláusulas adicionales a los archivos multimedia.