Théorème de Perron-Frobenius

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Perron et Théorème de Frobenius.

En algèbre linéaire et en théorie des graphes, le théorème de Perron-Frobenius, démontré par Oskar Perron et Ferdinand Georg Frobenius, est un théorème portant sur la réduction des matrices à coefficients positifs. Il a d'importantes applications en théorie des probabilités (chaînes de Markov), en théorie des systèmes dynamiques, en économie (analyse entrée-sortie[1]), en théorie des graphes, en dynamique des populations[2] (matrices de LeslieMatrice de Leslie) et dans l'aspect mathématique du calcul des pagerank de Google[3].

Théorème de Perron Frobenius pour une matrice positive irréductible

Théorème de Perron-Frobenius —  Soit A {\displaystyle A} une matrice à coefficients positifs de type n × n {\displaystyle n\times n} et irréductible.

  • Le rayon spectral ρ {\displaystyle \rho } de A {\displaystyle A} est une valeur propre simple de A {\displaystyle A} , et le sous-espace propre associé est une droite vectorielle engendrée par un vecteur (colonne) strictement positif.
  • Si s {\displaystyle s} et S {\displaystyle S} sont respectivement le minimum et le maximum des sommes des éléments de chaque ligne de A {\displaystyle A} , on a s ρ S {\displaystyle s\leq \rho \leq S} .
  • Si n 2 {\displaystyle n\geq 2} alors ρ > 0 {\displaystyle \rho >0} .
  • Soit h {\displaystyle h} le nombre de valeurs propres (complexes) de module ρ {\displaystyle \rho } . Le spectre de A {\displaystyle A} dans le plan complexe est invariant par la rotation de centre O {\displaystyle O} et d'angle 2 π h {\displaystyle {\frac {2\pi }{h}}} . En outre, si h > 1 {\displaystyle h>1} , il existe une matrice de permutation S {\displaystyle S} telle que t S A S = S 1 A S = ( 0 A 1 , 2 0 0 0 0 A 2 , 3 0 0 0 0 A h 1 , h A h , 1 0 0 0 ) {\displaystyle {}^{t}SAS=S^{-1}AS={\begin{pmatrix}0&A_{1,2}&0&\cdots &0\\0&0&A_{2,3}&\cdots &0\\\vdots \\0&0&0&\cdots &A_{h-1,h}\\A_{h,1}&0&0&\cdots &0\end{pmatrix}}} , où les blocs diagonaux (nuls) sont carrés.
Démonstration

Dans toute la démonstration nous identifions naturellement R n {\displaystyle \mathbb {R} ^{n}} ou C n {\displaystyle \mathbb {C} ^{n}} à l'espace des matrices colonne n × 1 {\displaystyle n\times 1} réelles ou complexes.

  1. Désignons par S {\displaystyle S} l'ensemble des vecteurs de ( R + ) n {\displaystyle (\mathbb {R} _{+})^{n}} non nuls et par S 0 {\displaystyle S^{0}} l'ensemble de ces vecteurs (colonne) strictement positifs. Définissons l'application r {\displaystyle r} de S {\displaystyle S} dans R + {\displaystyle \mathbb {R} _{+}} par r ( X ) = min i { 1 , 2 , , n } , X i > 0 [ A X ] i X i {\displaystyle r(X)=\min _{i\in \{1,2,\dotsc ,n\},X_{i}>0}{\frac {[AX]_{i}}{X_{i}}}} . On voit aisément qu'on a également r ( X ) = sup { λ R + : λ X A X } {\displaystyle r(X)=\sup \left\{\lambda \in \mathbb {R} _{+}:\lambda X\leq AX\right\}} .
    • l'application r {\displaystyle r} admet un point de maximum sur S.

L'application r {\displaystyle r} est continue sur S 0 {\displaystyle S^{0}} puisqu'il s'agit alors simplement du minimum d'une famille finie d'applications continues ( X [ A X ] i X i ) i { 1 , 2 , , n } {\displaystyle \left(X\mapsto {\frac {[AX]_{i}}{X_{i}}}\right)_{i\in \{1,2,\dotsc ,n\}}} . Cependant, on ne peut affirmer la continuité sur S {\displaystyle S} . Par ailleurs, S {\displaystyle S} et S 0 {\displaystyle S^{0}} ne sont pas compacts. La solution sera de montrer l'existence d'un point de maximum sur une partie compacte K {\displaystyle K} de S 0 {\displaystyle S^{0}} et de vérifier ensuite que ce point réalise aussi le maximum sur S {\displaystyle S} . Il suffira pour cela de montrer que sup X S r ( X ) sup X K r ( X ) {\displaystyle \sup _{X\in S}{r(X)}\leq \sup _{X\in K}{r(X)}} (en fait égalité, évidemment).

La première chose consiste à remarquer que r {\displaystyle r} est constante sur chaque demi-droite (ouverte) d'origine 0 {\displaystyle 0} incluse dans S {\displaystyle S} . On peut par conséquent se limiter à travailler sur la partie D {\displaystyle D} de S {\displaystyle S} formée des vecteurs colonne de norme 1 (nous prendrons la norme N ( X ) = max i { 1 , 2 , , n } | X i | {\displaystyle \mathrm {N} _{\infty }(X)=\max _{i\in \{1,2,\dotsc ,n\}}{|X_{i}|}} ).

D {\displaystyle D} est compact, mais on n'a pas encore la continuité de r {\displaystyle r} sur D {\displaystyle D} . C'est maintenant qu'intervient l'irréductibilité de A {\displaystyle A} .

Montrons que l'ensemble K = ( A + I ) n 1 D {\displaystyle K=(A+I)^{n-1}D} satisfait à notre objectif ( K {\displaystyle K} compact, r {\displaystyle r} continue sur K {\displaystyle K} et sup X S r ( X ) = sup X K r ( X ) {\displaystyle \sup _{X\in S}r(X)=\sup _{X\in K}r(X)} ).

Tout d'abord K {\displaystyle K} est compact comme image du compact D {\displaystyle D} par une application (linéaire) continue. Ensuite voyons que K {\displaystyle K} est inclus dans S 0 {\displaystyle S^{0}} , ce qui montrera bien la continuité de r {\displaystyle r} sur K {\displaystyle K} . En effet on sait que ( A + I ) n 1 > 0 {\displaystyle (A+I)^{n-1}>0} et il en résulte immédiatement que [ X 0 , X 0 ] ( A + I ) n 1 X > 0 {\displaystyle \left[X\geq 0,X\neq 0\right]\Rightarrow (A+I)^{n-1}X>0} . Par conséquent r {\displaystyle r} possède un point de minimum sur K {\displaystyle K} . Enfin pour achever montrons que W D r ( ( A + I ) n 1 ( W ) ) r ( W ) {\displaystyle \forall W\in D\quad r\left((A+I)^{n-1}(W)\right)\geq r(W)} . En effet r ( W ) W A W r ( W ) ( A + I ) n 1 W A ( A + I ) n 1 W {\displaystyle r(W)W\leq AW\Rightarrow r(W)(A+I)^{n-1}W\leq A(A+I)^{n-1}W} ce qui montre que r ( W ) {\displaystyle r(W)} est majoré par r ( ( A + I ) n 1 W ) = sup { λ R + λ X A X } {\displaystyle r\left((A+I)^{n-1}W\right)=\sup\{\lambda \in \mathbb {R} _{+}\backslash \lambda X\leq AX\}} . Ainsi on a bien sup W S r ( W ) = sup X K r ( X ) {\displaystyle \sup _{W\in S}r(W)=\sup _{X\in K}r(X)}

Nous désignerons désormais par ρ {\displaystyle \rho } la valeur maximale de r ( X ) {\displaystyle r(X)} trouvée ci-dessus et par vecteur extrémal tout vecteur X {\displaystyle X} réalisant le maximum de r {\displaystyle r} sur S {\displaystyle S} .

    • Tout vecteur extrémal est vecteur propre de A {\displaystyle A} associé à la valeur propre ρ {\displaystyle \rho } . Réciproquement tout vecteur propre positif relatif à ρ {\displaystyle \rho } est extrémal.

Soit X {\displaystyle X} un vecteur extrémal. Par définition ρ X A X {\displaystyle \rho X\leq AX} . Supposons que ρ X A X {\displaystyle \rho X\neq AX} . Posons Y = ( A + I ) n 1 X {\displaystyle Y=(A+I)^{n-1}X} . Puisque A X ρ X 0 {\displaystyle AX-\rho X\geq 0} et A X ρ X 0 {\displaystyle AX-\rho X\neq 0} on a ( A + I ) n 1 ( A X ρ X ) > 0 {\displaystyle (A+I)^{n-1}(AX-\rho X)>0} , soit encore A Y ρ Y > 0 {\displaystyle AY-\rho Y>0} , c'est-à-dire ρ Y < A Y {\displaystyle \rho Y<AY} . On peut trouver ϵ > 0 {\displaystyle \epsilon >0} tel que ( ρ + ϵ ) Y A Y {\displaystyle (\rho +\epsilon )Y\leq AY} , ce qui contredit la maximalité de ρ {\displaystyle \rho } .

Réciproquement si le vecteur positif X {\displaystyle X} vérifie A X = ρ X {\displaystyle AX=\rho X} , en écrivant d’une part ρ X A X {\displaystyle \rho X\leq AX} on voit que ρ r ( X ) {\displaystyle \rho \leq r(X)} et d’autre part r ( X ) X A X = ρ X {\displaystyle r(X)X\leq AX=\rho X} montre que r ( X ) ρ {\displaystyle r(X)\leq \rho } . Ainsi r ( X ) = ρ {\displaystyle r(X)=\rho } et X est extrémal.

    • Pour toute valeur propre (complexe) λ {\displaystyle \lambda } de A | λ | ρ . ρ {\displaystyle A\quad |\lambda |\leq \rho .\quad \rho } est le rayon spectral de A {\displaystyle A} .

En effet de A Z = λ Z {\displaystyle AZ=\lambda Z} on tire A | Z | | λ | | Z | {\displaystyle A|Z|\geq |\lambda ||Z|} . Donc | λ | r ( | Z | ) ρ {\displaystyle |\lambda |\leq r(|Z|)\leq \rho } .

    • Tout vecteur extremal est strictement positif.

En effet si X {\displaystyle X} est extrémal posons Z = ( A + I ) n 1 X {\displaystyle Z=(A+I)^{n-1}X} . Comme X 0 , X 0 {\displaystyle X\geq 0,X\neq 0} et A {\displaystyle A} irréductible on a Z > 0 {\displaystyle Z>0} . Comme X {\displaystyle X} est vecteur propre de A {\displaystyle A} relatif à ρ {\displaystyle \rho } (cf. ci-dessus) on a Z = ( ρ + 1 ) n 1 X {\displaystyle Z=(\rho +1)^{n-1}X} d'où on tire X = ( ρ + 1 ) 1 n Z > 0 {\displaystyle X=(\rho +1)^{1-n}Z>0} .

    • Pour tout vecteur propre (complexe) Z {\displaystyle Z} de A {\displaystyle A} relatif à une valeur propre λ {\displaystyle \lambda } de module ρ {\displaystyle \rho } , le vecteur | Z | {\displaystyle |Z|} (vecteur dont les composantes sont les modules de celles de Z {\displaystyle Z} ) est un vecteur extrémal (et est donc strictement positif ). Il en résulte que chaque vecteur propre de A {\displaystyle A} (éventuellement complexe) relatif à λ {\displaystyle \lambda } vérifiant | λ | = ρ {\displaystyle |\lambda |=\rho } a toutes ses composantes non nulles.

En effet de A Z = λ Z {\displaystyle AZ=\lambda Z} on déduit immédiatement A | Z | ρ | Z | {\displaystyle A|Z|\geq \rho |Z|} , ce qui entraîne ρ r ( | Z | ) ρ {\displaystyle \rho \leq r(|Z|)\leq \rho } par maximalité de ρ {\displaystyle \rho } , d’où le résultat.

    • Le sous-espace propre de A {\displaystyle A} relatif à la valeur propre ρ {\displaystyle \rho } est une droite vectorielle.

Supposons en effet que X {\displaystyle X} et Y {\displaystyle Y} soient 2 vecteurs propres linéairement indépendants. On sait (cf. ci-dessus) que ces 2 vecteurs ont toutes leurs composantes non nulles. Il est possible de former une combinaison linéaire non nulle ayant par exemple la première composante nulle. Cette combinaison est ainsi un vecteur propre de A {\displaystyle A} ayant une composante nulle, ce qui est contradictoire.

    • ρ {\displaystyle \rho } est une valeur propre simple de A {\displaystyle A} .

Désignons par B ( λ ) {\displaystyle B(\lambda )} la comatrice transposée de λ I A {\displaystyle \lambda I-A} . Remarquons tout d'abord que le sous-espace propre relatif à ρ : k e r ( ρ I A ) {\displaystyle \rho :\quad ker(\rho I-A)} étant de dimension 1 il en résulte que ρ I A {\displaystyle \rho I-A} est de rang n 1 {\displaystyle n-1} et que par suite il y a au moins un cofacteur non nul, ce qui montre que B ( ρ ) 0 {\displaystyle B(\rho )\neq 0} . De plus on sait que ( λ I A ) B ( λ ) = d e t ( λ I A ) I {\displaystyle (\lambda I-A)B(\lambda )=\mathrm {det} (\lambda I-A)I} . En particulier ( ρ I A ) B ( ρ ) = 0 {\displaystyle (\rho I-A)B(\rho )=0} , ce qui montre que les colonnes non nulles de B ( ρ ) {\displaystyle B(\rho )} sont des vecteurs propres de A {\displaystyle A} relatives à ρ {\displaystyle \rho } et par suite que ces colonnes non nulles sont toutes multiples de l'une d'entre elles et ont toutes leurs composantes non nulles et de même signe. Mais on a aussi B ( ρ ) ( ρ I A ) = 0 {\displaystyle B(\rho )(\rho I-A)=0} , soit en transposant ( ρ I t A ) t B ( ρ ) = 0 {\displaystyle (\rho I-{}^{t}A)\;{}^{t}B(\rho )=0} . Or t A {\displaystyle {}^{t}A} est aussi une matrice positive irréductible puisque ( t A + I ) n 1 = t ( ( A + I ) n 1 ) > 0 {\displaystyle ({}^{t}A+I)^{n-1}={}^{t}\left((A+I)^{n-1}\right)>0} . Le raisonnement précédent appliqué à t A {\displaystyle {}^{t}A} permet ainsi de montrer que les colonnes non nulles de t B ( ρ ) {\displaystyle {}^{t}B(\rho )} et donc les lignes non nulles de B ( ρ ) {\displaystyle B(\rho )} ont tous leurs éléments non nuls et de même signe. Finalement on en déduit facilement que B ( ρ ) {\displaystyle B(\rho )} a tous ses éléments non nuls et de même signe. En effet soient B i , j ( ρ ) {\displaystyle B_{i,j}(\rho )} et B k , l ( ρ ) {\displaystyle B_{k,l}(\rho )} deux éléments quelconques de B ( ρ ) {\displaystyle B(\rho )} . Si B i , j ( ρ ) = 0 {\displaystyle B_{i,j}(\rho )=0} toute sa ligne est nulle, donc B i , l ( ρ ) = 0 {\displaystyle B_{i,l}(\rho )=0} , par suite toute la colonne l {\displaystyle l} est nulle et ainsi B k , l ( ρ ) = 0 {\displaystyle B_{k,l}(\rho )=0} . Finalement on en déduit que B ( ρ ) = 0 {\displaystyle B(\rho )=0} , ce qui est exclu. D'autre part le signe de B i , j ( ρ ) {\displaystyle B_{i,j}(\rho )} est celui de B i , l ( ρ ) {\displaystyle B_{i,l}(\rho )} et finalement celui de B k , l ( ρ ) {\displaystyle B_{k,l}(\rho )} . Tous les éléments de B ( ρ ) {\displaystyle B(\rho )} sont bien non nuls et de même signe.

Posons Π ( λ ) = d e t ( λ I A ) {\displaystyle \Pi (\lambda )=\mathrm {det} (\lambda I-A)} (polynôme caractéristique). On a Π ( λ ) = i = 1 n B i , i ( λ ) = T r ( B ( λ ) ) {\displaystyle \Pi '(\lambda )=\sum _{i=1}^{n}B_{i,i}(\lambda )=\mathrm {Tr} (B(\lambda ))} . En effet désignons par A i ( λ ) {\displaystyle A_{i}(\lambda )} la i_ème colonne de la matrice λ I A {\displaystyle \lambda I-A} .

On a Π ( λ ) = d d λ det ( A 1 ( λ ) , A 2 ( λ ) , , A n ( λ ) ) = i = 1 n det ( A 1 ( λ ) , A 2 ( λ ) , , A i ( λ ) , , A n ( λ ) ) {\displaystyle \Pi '(\lambda )={\frac {d}{d\lambda }}{\text{det}}(A_{1}(\lambda ),A_{2}(\lambda ),\dotsc ,A_{n}(\lambda ))=\sum _{i=1}^{n}{\text{det}}(A_{1}(\lambda ),A_{2}(\lambda ),\dotsc ,A_{i}'(\lambda ),\dotsc ,A_{n}(\lambda ))} . Mais A i ( λ ) {\displaystyle A_{i}'(\lambda )} a tous ses éléments nuls sauf le i_ème qui est égal à 1. Le résultat s'ensuit immédiatement. On a donc Π ( ρ ) 0 {\displaystyle \Pi '(\rho )\neq 0} puisque tous les éléments de B ( ρ ) {\displaystyle B(\rho )} sont non nuls et de même signe. Ceci montre bien que ρ {\displaystyle \rho } est valeur propre simple de A {\displaystyle A} [4].

  1. Soit X > 0 {\displaystyle X>0} un vecteur propre relatif à ρ {\displaystyle \rho } . On a donc i = 1 n A i , j X j = ρ X i {\displaystyle \sum _{i=1}^{n}A_{i,j}X_{j}=\rho X_{i}} . Soit q {\displaystyle q} l'indice d'une composante X j {\displaystyle X_{j}} maximale. On a ρ X q = j = 1 n A q , j X j j = 1 n A q , j X q S X q {\displaystyle \rho X_{q}=\sum _{j=1}^{n}A_{q,j}X_{j}\leq \sum _{j=1}^{n}A_{q,j}X_{q}\leq SX_{q}} et en simplifiant par X q > 0 {\displaystyle X_{q}>0} on obtient ρ S {\displaystyle \rho \leq S} . La démonstration est symétrique pour s {\displaystyle s} en considérant cette fois l'indice d'une composante X j {\displaystyle X_{j}} minimale.

Si n 2 {\displaystyle n\geq 2} alors s > 0 {\displaystyle s>0} (sinon il y aurait une ligne nulle, soit la j-ème et la matrice ne serait pas irréductible puisque dans G ( A ) {\displaystyle {\mathcal {G}}(A)} le sommet j {\displaystyle j} ne pourrait être l'origine d'un chemin aboutissant à un autre sommet). Donc dans ce cas 0 < s ρ {\displaystyle 0<s\leq \rho } .

  1. Disposition des valeurs propres dans le plan complexe.
    • Démontrons d'abord l'équivalence entre les propositions suivantes :

(i) γ = ρ e i ϕ {\displaystyle \gamma =\rho \mathrm {e} ^{i\phi }} est une valeur propre de A {\displaystyle A} .

(ii) Il existe une matrice D {\displaystyle D} vérifiant | D | = I {\displaystyle |D|=I} (unité) telle que D 1 A D = e i ϕ A {\displaystyle D^{-1}AD=\mathrm {e} ^{i\phi }A} .

(i) {\displaystyle \Rightarrow } (ii). Soit Y {\displaystyle Y} un vecteur propre relatif à γ {\displaystyle \gamma } . On a vu ci-dessus (cf. (1)) que | Y | {\displaystyle |Y|} était un vecteur extrémal et donc un vecteur propre relatif à ρ {\displaystyle \rho } . On peut écrire Y = D | Y | {\displaystyle Y=D|Y|} D {\displaystyle D} est une matrice diagonale dont tous les éléments diagonaux sont de module 1. Par ailleurs on peut poser γ = ρ e i ϕ {\displaystyle \gamma =\rho \mathrm {e} ^{i\phi }} . On a donc A D | Y | = ρ e i ϕ D | y | {\displaystyle AD|Y|=\rho \mathrm {e} ^{i\phi }D|y|} d'où e i ϕ D 1 A D | Y | = ρ | Y | = A | Y | {\displaystyle \mathrm {e} ^{-i\phi }D^{-1}AD|Y|=\rho |Y|=A|Y|} . Mais l'égalité e i ϕ D 1 A D | Y | = A | Y | {\displaystyle \mathrm {e} ^{-i\phi }D^{-1}AD|Y|=A|Y|} entraîne e i ϕ D 1 A D = A {\displaystyle \mathrm {e} ^{-i\phi }D^{-1}AD=A} . En effet Posons W = e i ϕ D 1 A D {\displaystyle W=\mathrm {e} ^{-i\phi }D^{-1}AD} . On voit immédiatement que i j | W i , j | = A i , j {\displaystyle \forall i\forall j|W_{i,j}|=A_{i,j}} . En écrivant l'égalité W | Y | = A | Y | {\displaystyle W|Y|=A|Y|} pour la ligne i : j = 1 n W i , j | Y j | = j = 1 n A i , j | Y j | {\displaystyle i:\quad \sum _{j=1}^{n}W_{i,j}|Y_{j}|=\sum _{j=1}^{n}A_{i,j}|Y_{j}|} et en tenant compte de | W i , j | = A i , j {\displaystyle |W_{i,j}|=A_{i,j}} et | Y | > 0 {\displaystyle |Y|>0} on obtient le résultat demandé.

(ii) {\displaystyle \Rightarrow } (i). Soit X {\displaystyle X} un vecteur extrémal de A {\displaystyle A} et posons Y = D X {\displaystyle Y=DX} . On a A Y = A D X = e i ϕ D A D 1 D X = e i ϕ D A X = e i ϕ D ρ X = e i ϕ ρ Y = γ Y {\displaystyle AY=ADX=\mathrm {e} ^{i\phi }DAD^{-1}DX=\mathrm {e} ^{i\phi }DAX=\mathrm {e} ^{i\phi }D\rho X=\mathrm {e} ^{i\phi }\rho Y=\gamma Y} .

    • Soit h {\displaystyle h} le nombre de valeurs propres de A {\displaystyle A} de module ρ {\displaystyle \rho } . Considérons l'ensemble H {\displaystyle {\mathcal {H}}} des nombres γ ρ {\displaystyle {\frac {\gamma }{\rho }}} γ {\displaystyle \gamma } est valeur propre de module ρ {\displaystyle \rho } et montrons que cet ensemble est un sous-groupe du groupe multiplicatif des complexes de module 1. En effet si γ 1 ρ = e i φ 1 {\displaystyle {\frac {\gamma _{1}}{\rho }}=\mathrm {e} ^{i\varphi _{1}}} et γ 2 ρ = e i φ 2 {\displaystyle {\frac {\gamma _{2}}{\rho }}=\mathrm {e} ^{i\varphi _{2}}} sont 2 éléments de H {\displaystyle {\mathcal {H}}} , en appliquant le préliminaire ci-dessus il existe D 1 {\displaystyle D_{1}} et D 2 {\displaystyle D_{2}} tels que D 1 1 A D 1 = e i φ 1 A {\displaystyle D_{1}^{-1}AD_{1}=\mathrm {e} ^{i\varphi _{1}}A} et D 2 1 A D 2 = e i φ 2 A {\displaystyle D_{2}^{-1}AD_{2}=\mathrm {e} ^{i\varphi _{2}}A} , ce qui entraîne e i φ 1 D 1 1 A D 1 = e i φ 2 D 2 1 A D 2 {\displaystyle \mathrm {e} ^{-i\varphi _{1}}D_{1}^{-1}AD_{1}=\mathrm {e} ^{-i\varphi _{2}}D_{2}^{-1}AD_{2}} soit e i ( φ 2 φ 1 ) D 2 D 1 1 A D 1 D 2 1 = A {\displaystyle \mathrm {e} ^{i(\varphi _{2}-\varphi _{1})}D_{2}D_{1}^{-1}AD_{1}D_{2}^{-1}=A} , ce qui montre que e i ( φ 2 φ 1 ) = e i φ 2 e i φ 1 H {\displaystyle \mathrm {e} ^{i(\varphi _{2}-\varphi _{1})}={\frac {\mathrm {e} ^{i\varphi _{2}}}{\mathrm {e} ^{i\varphi _{1}}}}\in {\mathcal {H}}} qui est bien un sous-groupe du groupe des complexes de module 1. En fait ce sous-groupe étant d'ordre h {\displaystyle h} et donc formé de racines h-ième de 1, il coïncide avec l'ensemble de ces racines h-ième.

Il existe donc D {\displaystyle D} telle que D 1 A D = e 2 i π h A {\displaystyle D^{-1}AD=\mathrm {e} ^{-{\frac {2i\pi }{h}}}A} . Si Π ( λ ) {\displaystyle \Pi (\lambda )} désigne le polynôme caractéristique de A {\displaystyle A} qui est aussi celui de D 1 A D {\displaystyle D^{-1}AD} on peut écrire Π ( λ ) = d e t ( λ I e 2 i π h A ) = e ( 1 ) n 2 i n π h Π ( e 2 i π h λ ) {\displaystyle \Pi (\lambda )=\mathrm {det} (\lambda I-\mathrm {e} ^{-{\frac {2i\pi }{h}}}A)=\mathrm {e} ^{(-1)^{n}{\frac {2in\pi }{h}}}\;\Pi (\mathrm {e} ^{\frac {2i\pi }{h}}\lambda )} . Ceci montre bien l'invariance de l'ensemble des valeurs propres de A {\displaystyle A} par la rotation de centre O {\displaystyle O} et d'angle 2 π h {\displaystyle {\frac {2\pi }{h}}} . En outre si γ {\displaystyle \gamma } est une valeur propre, la valeur propre e 2 i π h γ {\displaystyle \mathrm {e} ^{\frac {2i\pi }{h}}\gamma } est de même ordre de multiplicité que γ {\displaystyle \gamma } . En particulier toutes les valeurs propres de module ρ {\displaystyle \rho } sont simples.

Supposons maintenant h > 1 {\displaystyle h>1} et soit X {\displaystyle X} un vecteur extrémal. D'après ce qui précède il existe une matrice diagonale Δ {\displaystyle \Delta } vérifiant | Δ | = I {\displaystyle |\Delta |=I} telle que Δ X {\displaystyle \Delta X} soit vecteur propre relatif à e 2 i π h ρ {\displaystyle \mathrm {e} ^{\frac {2i\pi }{h}}\rho } et Δ 1 A Δ = e 2 i π h A . Δ {\displaystyle \Delta ^{-1}A\Delta =\mathrm {e} ^{\frac {2i\pi }{h}}A.\quad \Delta } est défini à un facteur près, la valeur propre étant simple et le sous-espace propre étant par conséquent une droite vectorielle. Nous pouvons donc décider de choisir Δ {\displaystyle \Delta } de manière que sa première composante soit 1 {\displaystyle 1} , ce qui assure l'unicité. Mais de la même manière Δ h X {\displaystyle \Delta ^{h}X} est vecteur propre relatif à e 2 i h π h ρ = ρ {\displaystyle \mathrm {e} ^{\frac {2ih\pi }{h}}\rho =\rho } , ce qui implique Δ h X = X {\displaystyle \Delta ^{h}X=X} et donc Δ h = I {\displaystyle \Delta ^{h}=I} puisque X > 0 {\displaystyle X>0} et Δ {\displaystyle \Delta } diagonale. Il en résulte que les éléments diagonaux de Δ {\displaystyle \Delta } sont des racines h-ième de l'unité. Il existe donc une matrice de permutation S {\displaystyle S} telle que Δ ~ = t S D S = S 1 D S = ( e 2 i π h n 0 I 0 0 0 0 0 e 2 i π h n 1 I 1 0 0 0 0 e 2 i π h n 2 I 2 0 . . . . 0 0 0 e 2 i π h n s 1 I s 1 ) {\displaystyle {\tilde {\Delta }}={}^{t}SDS=S^{-1}DS={\begin{pmatrix}\mathrm {e} ^{{\frac {2i\pi }{h}}n_{0}}I_{0}&0&0&\cdots &0\\0&\mathrm {e} ^{{\frac {2i\pi }{h}}n_{1}}I_{1}&0&\cdots &0\\0&0&\mathrm {e} ^{{\frac {2i\pi }{h}}n_{2}}I_{2}&\cdots &0\\.&.&.&\cdots \\.\\0&0&0&\cdots &\mathrm {e} ^{{\frac {2i\pi }{h}}n_{s-1}}I_{s-1}\end{pmatrix}}} avec n i N , n 0 = 0 < n 1 < n 2 < < n s 1 < h , I 0 , I 1 , , I s 1 {\displaystyle n_{i}\in \mathbb {N} ,\quad n_{0}=0<n_{1}<n_{2}<\dotsb <n_{s-1}<h,\qquad I_{0},I_{1},\dotsc ,I_{s-1}} étant des matrices unités. On a évidemment s h {\displaystyle s\leq h} .

En posant de même A ~ = S 1 A S {\displaystyle {\tilde {A}}=S^{-1}AS} on trouve Δ ~ 1 A ~ Δ ~ = e 2 i π h A ~ {\displaystyle {\tilde {\Delta }}^{-1}{\tilde {A}}{\tilde {\Delta }}=\mathrm {e} ^{\frac {2i\pi }{h}}{\tilde {A}}} .

Partitionnons A ~ {\displaystyle {\tilde {A}}} suivant le même schéma que Δ ~ {\displaystyle {\tilde {\Delta }}}  : A ~ = ( A ~ 1 , 1 A ~ 1 , 2 A ~ 1 , s A ~ 2 , 1 A ~ 2 , 2 A ~ 2 , s . . A ~ s , 1 A ~ s , 2 A ~ s , s ) {\displaystyle {\tilde {A}}={\begin{pmatrix}{\tilde {A}}_{1,1}&{\tilde {A}}_{1,2}&\cdots &{\tilde {A}}_{1,s}\\{\tilde {A}}_{2,1}&{\tilde {A}}_{2,2}&\cdots &{\tilde {A}}_{2,s}\\.&\cdots &.\\{\tilde {A}}_{s,1}&{\tilde {A}}_{s,2}&\cdots &{\tilde {A}}_{s,s}\end{pmatrix}}} .

Nous allons montrer par récurrence que k { 0 , 1 , , s 1 } n k = k {\displaystyle \forall k\in \{0,1,\dotsc ,s-1\}n_{k}=k} .

L'égalité est vraie pour k = 0 {\displaystyle k=0} . Supposons qu'elle le soit jusque k 1 < s 1 {\displaystyle k-1<s-1} . L'égalité Δ ~ 1 A ~ Δ ~ = e 2 i π h A ~ {\displaystyle {\tilde {\Delta }}^{-1}{\tilde {A}}{\tilde {\Delta }}=\mathrm {e} ^{\frac {2i\pi }{h}}{\tilde {A}}} donne en ce qui concerne la ligne de blocs N° k l { 1 , 2 , , s } e 2 i π h A ~ k , l = e 2 i π h ( n l 1 n k 1 ) A ~ k , l {\displaystyle k\quad \forall l\in \{1,2,\dotsc ,s\}\mathrm {e} ^{\frac {2i\pi }{h}}{\tilde {A}}_{k,l}=\mathrm {e} ^{{\frac {2i\pi }{h}}(n_{l-1}-n_{k-1})}{\tilde {A}}_{k,l}} . Comme les A ~ k , l {\displaystyle {\tilde {A}}_{k,l}} ne sont pas tous nuls puisque la matrice est irréductible l { 1 , 2 , , s } n l 1 n k 1 = 1 + p h ( p Z ) {\displaystyle \exists l\in \{1,2,\dotsc ,s\}\quad n_{l-1}-n_{k-1}=1+ph(p\in \mathbb {Z} )} , soit n l 1 = k + p h {\displaystyle n_{l-1}=k+ph} . Mais comme k < s h {\displaystyle k<s\leq h} et 0 n l 1 < h {\displaystyle 0\leq n_{l-1}<h} on en déduit p = 0 {\displaystyle p=0} par élimination des cas p < 0 {\displaystyle p<0} et p > 0 {\displaystyle p>0} .

Donc n l 1 = k = ( k 1 ) + 1 = n k 1 + 1 {\displaystyle n_{l-1}=k=(k-1)+1=n_{k-1}+1} . Ceci ne peut se réaliser que si n l 1 {\displaystyle n_{l-1}} est le successeur immédiat de n k 1 {\displaystyle n_{k-1}} dans la suite croissante des n j {\displaystyle n_{j}} . Donc l 1 = k 1 + 1 = k {\displaystyle l-1=k-1+1=k} et n l 1 = n k = k {\displaystyle n_{l-1}=n_{k}=k} , ce qui achève la récurrence.

D'autre part e 2 i π h A ~ k , l = e 2 i π h ( l k ) A ~ k , l {\displaystyle \mathrm {e} ^{\frac {2i\pi }{h}}{\tilde {A}}_{k,l}=\mathrm {e} ^{{\frac {2i\pi }{h}}(l-k)}{\tilde {A}}_{k,l}} montre que si l k {\displaystyle l-k} n'est pas congru à 1 {\displaystyle 1} modulo h {\displaystyle h} on a A ~ k , l = 0 {\displaystyle {\tilde {A}}_{k,l}=0} .

Il reste à prouver que s = h {\displaystyle s=h} . Or en considérant la dernière ligne de blocs on ne peut avoir n l 1 = l 1 = s + p h {\displaystyle n_{l-1}=l-1=s+ph} que si p = 1 {\displaystyle p=-1} . En effet si p 0 {\displaystyle p\geq 0} on a l > s {\displaystyle l>s} , ce qui est impossible et si p < 1 , n l 1 < 0 {\displaystyle p<-1,n_{l-1}<0} également exclu. Donc l 1 = s h {\displaystyle l-1=s-h} soit l = s h + 1 {\displaystyle l=s-h+1} . Mais 0 < l = s h + 1 {\displaystyle 0<l=s-h+1} et donc s > h 1 {\displaystyle s>h-1} soit s h {\displaystyle s\geq h} . Comme on a évidemment s h {\displaystyle s\leq h} on a s = h {\displaystyle s=h} , ce qui a achève la démonstration.

Le théorème de Perron Frobenius est donc complètement démontré.

Applications pratiques

  • Ce théorème permet de montrer, sous certaines conditions, qu'une chaîne de Markov ergodique sur un espace d'états fini converge en loi vers son unique mesure invariante[réf. nécessaire].
  • Le vecteur de Google utilisé lors du calcul des PageRank de Google est un vecteur de Perron-Frobenius[3].

Notes et références

  1. Carl Meyer, Matrix analysis and applied linear algebra, SIAM, (ISBN 0-89871-454-0, lire en ligne)8.3.6 p. 681)
  2. Bair Jacques, « Matrice de Leslie. Pour modéliser la dynamique d'une population structurée en classes d'âges. », Bulletin de l'APMEP,‎ , p. 527-533 (ISSN 0240-5709, lire en ligne)
  3. a et b Bachir Bekka, Le théorème de Perron-Frobenius, les chaînes de Markov et un célèbre moteur de recherche
  4. Π ( ρ ) = T r ( B ( ρ ) ) {\displaystyle \Pi '(\rho )=\mathrm {Tr} (B(\rho ))} et ρ {\displaystyle \rho } est la plus grande racine réelle (c'est une racine simple) du polynôme réel Π ( λ ) {\displaystyle \Pi (\lambda )} qui vérifie lim λ + Π ( λ ) = + {\displaystyle \lim _{\lambda \rightarrow +\infty }\Pi (\lambda )=+\infty } . On voit que B ( ρ ) {\displaystyle B(\rho )} est strictement positive.
  • icône décorative Portail des mathématiques