Complément de Schur
En algèbre linéaire et plus précisément en théorie des matrices, le complément de Schur est défini comme suit. Soit
Pour les articles homonymes, voir Complément.
Ne doit pas être confondu avec la méthode du complément de Schur (en) en analyse numérique.
une matrice de dimension (p+q)×(p+q), où les blocs A, B, C, D sont des matrices de dimensions respectives p×p, p×q, q×p et q×q, avec D inversible. Alors, le complément de Schur du bloc D de la matrice M est constitué par la matrice de dimension p×p suivante :
Propriétés
- Lorsque B est la transposée de C, la matrice M est symétrique définie positive si et seulement si D et son complément de Schur dans M le sont.
- Le complément de Schur apparaît en particulier comme le résultat d'une élimination de Gauss « partielle » en multipliant la matrice M à droite avec la matrice « triangulaire inférieure par blocs » suivante
Ici, Ip désigne la matrice identité de dimension p×p. Après multiplication par la matrice LT, le complément de Schur apparaît dans le bloc p×p supérieur. La matrice produit est
L'inverse de M peut ainsi être exprimée en termes de D−1 et de l'inverse du complément de Schur
ou encore plus simplement,
- De même, si A est inversible, son complément de Schur est par définition D – CA−1B, et si ce dernier est également inversible on a :
Application à la résolution d'équations linéaires
Le complément de Schur apparaît naturellement lors de la résolution d'un système d'équations linéaires de la forme
où
- x et a sont des vecteurs colonne de dimension p,
- y et b sont des vecteurs colonne de dimension q,
- A, B, C, D sont comme précédemment.
En multipliant la seconde équation par BD−1 puis en la soustrayant de la première, il vient
Ainsi, la résolution de cette équation en x est possible dès que D et son complément de Schur sont inversibles. Il est ensuite possible d'obtenir y en résolvant l'équation Cx + Dy = b. Cette méthode réduit le problème de l'inversion d'une matrice de dimension (p + q) × (p + q) à celui de l'inversion de deux matrices de dimensions respectives p×p et q×q. En pratique, la matrice D doit être bien conditionnée pour rendre la méthode précise.
Applications aux probabilités et à la statistique
Soit (X, Y) un vecteur gaussien de ℝp+q de matrice de covariance
Ici, X (respectivement Y) est un vecteur gaussien de ℝp (respectivement ℝq) de matrice de covariance A (respectivement C), et BT désigne la transposée de B.
La loi conditionnelle de X sachant Y est encore une loi gaussienne multivariée de dimension p. Supposons que la matrice V est inversible (elle est donc symétrique et définie positive). Alors, la matrice de covariance de la loi conditionnelle de X sachant Y ne dépend pas de Y et est donnée par le complément de Schur de C dans V.
Cela montre en particulier que le complément de Schur d'un bloc diagonal d'une matrice de covariance empirique d'un échantillon gaussien suit une loi de Wishart (tout comme la matrice de covariance empirique elle-même).
Bibliographie
- (en) Roger A. Horn et Charles R. Johnson, Matrix Analysis, Cambridge University Press, chap. 7
- (en) Kaare Brandt Petersen et Syskind Pedersen, The Matrix Cookbook, version du 16/02/2008, § 9.1
Articles connexes
- Formule d'additivité de l'inertie de Haynsworth (en)
- Identité matricielle de Woodbury (en)
- Loi normale multidimensionnelle
- Loi de Wishart inverse
- Méthode de Quasi-Newton
- Pseudo-inverse
- Portail des mathématiques