Racine carrée d'une matrice
En mathématiques, la notion de racine carrée d'une matrice particularise aux anneaux de matrices carrées la notion générale de racine carrée dans un anneau.
Définition
Soient un entier naturel n non nul et M une matrice carrée d'ordre n à coefficients dans un anneau A. Un élément R de Mn(A) est une racine carrée de M si R2 = M.
Une matrice donnée peut n'admettre aucune racine carrée, comme un nombre fini voire infini de racine carrées.
Exemples
Dans M2(ℝ) :
- est une racine carrée de
- les (pour tout réel x) sont des racines carrées de
- n'a pas de racine carrée R, car cela imposerait (mais elle en a dans M2(ℂ)).
Dans M2(ℂ), la matrice n'a pas de racine carrée, parce qu'elle est non nulle mais de carré nul (on dit qu'elle est nilpotente d'indice 2). En effet, une racine carrée R serait aussi nilpotente (de puissance 4e nulle), or toute matrice nilpotente de taille 2 est de carré nul. On aurait donc M = R2 = 0, ce qui n'est pas le cas.
Inverse
Si R est une racine carrée de M alors R est inversible si et seulement si M l'est.
Si une matrice est inversible, les racines carrées de son inverse sont les inverses de ses racines carrées.
Matrice positive
Toute matrice symétrique à coefficients réels est diagonalisable via une matrice de passage orthogonale, et elle est positive si et seulement si ses valeurs propres sont des réels positifs ou nuls. Par ailleurs, si une matrice S est diagonalisable alors son carré a mêmes sous-espaces propres (associés aux carrés des valeurs propres de S). Par conséquent, parmi les racines carrées d'une matrice symétrique positive M, une et une seule est symétrique positive : la matrice S qui a mêmes sous-espaces propres que M et dont les valeurs propres associées sont les racines carrées de celles de M. De plus, lorsque M est définie positive, S l'est aussi.
Pour les matrices à coefficients complexes, la situation est la même en remplaçant « symétrique » par « hermitienne » et « orthogonale » par « unitaire » .
Algorithme de calcul de Denman-Beavers
Le calcul d'une racine carrée d'une matrice A peut s'effectuer par convergence d'une suite de matrices. Soit Y0 = A et Z0 = I où I est la matrice identité. Chaque itération repose sur :
La convergence n'est pas garantie (même si A possède une racine carrée) mais si elle a lieu alors la suite Yk converge de façon quadratique vers A1/2, tandis que la suite Zk converge vers son inverse, A–1/2[1],[2].
Racine carrée d'un opérateur positif
En théorie des opérateurs (en), un opérateur borné P sur un espace de Hilbert complexe est positif (en) si et seulement s'il existe (au moins) un opérateur borné T tel que P = T* T, où T* désigne l'adjoint de T[3]. En fait, si P est positif, il existe même un unique opérateur Q positif (donc autoadjoint) tel que P = Q2[3]. Cet opérateur Q, obtenu par calcul fonctionnel continu, est appelé la racine carrée de P et appartient au bicommutant de P[3].
Notes et références
- (en) Eugene D. Denman et Alex N. Beavers, « The matrix sign function and computations in systems », Applied Mathematics and Computation, vol. 2, no 1, , p. 63–94 (DOI 10.1016/0096-3003(76)90020-5).
- (en) Sheung Hun Cheng, Nicholas J. Higham, Charles S. Kenney et Alan J. Laub, « Approximating the Logarithm of a Matrix to Specified Accuracy », SIAM Journal on Matrix Analysis and Applications, vol. 22, no 4, , p. 1112–1125 (DOI 10.1137/S0895479899364015, lire en ligne [PDF]).
- (en) Ronald G. Douglas, Banach Algebra Techniques in Operator Theory, Springer, coll. « GTM » (no 179), , 2e éd. (1re éd. 1972) (lire en ligne), p. 86-87.