Independencia (probabilidad)

En teoría de probabilidades, se dice que dos sucesos aleatorios son independientes entre sí cuando la probabilidad de cada uno de ellos no está influida porque el otro suceso ocurra o no, es decir, cuando ambos sucesos no están relacionados. Por ejemplo, si se tira un dado en dos opotunidades, una después de la otra, el segundo resultado no está influenciado por el primero, ni el primero por lo que saldrá en el segundo.[1]

Definición formal

Dos sucesos son independientes si la probabilidad de que ocurran ambos simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de ellos, es decir, si

Motivación de la definición

Sean y dos sucesos tales que , intuitivamente A es independiente de B si la probabilidad de A condicionada por B es igual a la probabilidad de A. Es decir si:

De la propia definición de probabilidad

se deduce que y dado que deducimos trivialmente que .

Si el suceso A es independiente del suceso B, automáticamente el suceso B es independiente de A.

Propiedades

Auto-independencia

Un evento es independiente de sí mismo si y sólo si

De esta forma un evento es independiente de sí mismo si y sólo si ocurre casi con certeza, es decir si su probabilidad de aparecer es 1, o si casi con certeza ocurre su complemento, es decir su probabilidad es 0; este hecho es útil cuando se prueban las leyes cero-uno.

No heredable

Si y son independientes y puede que y no sean independientes. Por ejemplo si .

Expectativa y covarianza

Si y son variables aleatorias independientes, entonces la esperanza tiene la propiedad

y la covarianza es cero, como se sigue de la siguiente expresión

Lo contrario no se cumple: si dos variables aleatorias tienen una covarianza igual a 0, es posible que no sean independientes.

Del mismo modo para dos procesos estocásticos y  : Si son independientes, entonces no están correlacionados.[2]

Función característica

Dos variables aleatorias y son independientes si y solo si la función característica del vector aleatorio satisface

En particular, la función característica de su suma es el producto de sus funciones características individuales (la implicación inversa no se cumple):

Referencias

  1. Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical statistics with applications (Seventh edition edición). Thomson Brooks/Cole. ISBN 978-0-495-11081-1. OCLC 183886598. Consultado el 30 de septiembre de 2022.
  2. Park,Kun Il (2018). Fundamentals of Probability and Stochastic Processes with Applications to Communications. Springer. ISBN 978-3-319-68074-3.

Bibliografía

  • P. Ibarrola, L. Pardo y V. Quesada (1997): Teoría de la Probaiblidad, Ed. Síntesis, ISBN 84-7738-516-5.
  • Spiegel, Murray. 1970. Estadística, McGraw-Hill, México.
  • Olav Kallenberg, Probabilistic Symmetries and Invariance Principles. Springer-Verlag, New York (2005). 510 pp. ISBN 0-387-25115-4
  • Kallenberg, O., Foundations of Modern Probability, 2nd ed. Springer Series in Statistics. (2002). 650 pp. ISBN 0-387-95313-2
  • Rafael Díaz. Introducción a la Probabilidad, los Procesos Estocásticos y la Estadística en Ingeniería. Escuela de Ingeniería Eléctrica. Universidad Central de Venezuela. 2000
Este artículo ha sido escrito por Wikipedia. El texto está disponible bajo la licencia Creative Commons - Atribución - CompartirIgual. Pueden aplicarse cláusulas adicionales a los archivos multimedia.