Inégalité de Fano
L'inégalité de Fano est un résultat de théorie de l'information.
Énoncé
Pour deux variables aléatoires et prenant valeurs possibles, on a :
où est la probabilité d'erreur et est l'entropie de Shannon de la loi de Bernoulli de paramètre .
Démonstration
Considérons où est le symbole de Kronecker. suit une loi de Bernoulli de paramètre . En appliquant deux fois la règle de la chaîne pour l'entropie conditionnelle, on a :
La donnée de permet de calculer donc le terme est nul. On observe ensuite que . Le terme restant est décomposé selon la valeur de :
- Quand , on majore simplement l'entropie (entropie de la variable aléatoire conditionnellement à ) par , puisqu'il n'y a que valeurs disponibles pour une fois la valeur de exclue ;
- Quand , la donnée de détermine dont l'entropie est nulle.
On a donc :
- Portail de l’informatique
- Portail des probabilités et de la statistique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.