Applications sur le calcul matriciel
Diagonalisation
Définition
Une matrice carrée \(A\) est diagonalisable s’il existe une matrice carrée \(P\) inversible et une matrice diagonale \(D\) telles que : \(A = PDP^{-1}\).
On a alors : \(\forall n \in \mathbb{N}\), \(A^n = PD^{n}P^{-1}\).
Remarque
Dans la pratique les matrices \(P\) et \(D\) seront données, mais il existe un procédé pour les déterminer.
Suites de matrices
Définition
Soit \((U_n)\) une suite de matrices colonnes de premier terme \(U_0\) et telle que, pour tout \(n \in \mathbb{N}, U_{n+1} = AU_n\) où \(A\) est une matrice carrée.
L’expression de \(U_n\) en fonction de \(n\) et de \(U_0\) est alors : \(U_n = A^nU_0\).
Remarque
La suite \(U_n\) est donc une suite géométrique de matrices colonnes. On la rencontre dans l'évolution d'un système fermé. Pour connaître l'expression de \(U_n\) en fonction de \(n\), on cherchera à diagonaliser la matrice \(A\).
Transformations géométriques
Propriété
Une transformation \(f\) du plan est une bijection du plan dans lui-même qui à un point \(M\) associe le point \(M'\) tel que \(M' = f(M)\). Dans un repère \((O; \vec{\imath},\vec{\jmath})\) orthonormé du plan, soit \(M(x ; y)\) et \(M'(x';y')\)
- \(f\) est la translation de vecteur \(\vec{u}(a ; b)\) alors :
-
Si \(f\) n’est pas une translation alors \(\left(\begin{array}{c}x'\\ y'\end{array}\right)=A\left(\begin{array}{c}x\\ y\end{array}\right)\) avec \(A\) inversible.
- Si \(f\) est la rotation de centre \(O\) et d’angle \(\Theta\) alors : \(A=\left(\begin{array}{cc}\cos{\Theta} & -\sin{\Theta} \\ \sin{\Theta} & \cos{\Theta}\end{array}\right)\)
- Si \(f\) est l'homothétie de centre \(O\) et de rapport \(k\) alors : \(A=\left(\begin{array}{cc}k & 0 \\ 0 & k\end{array}\right)\)
- Si \(f\) est la réflexion d’axe passant par \(O\) alors : \(A=\left(\begin{array}{cc}\cos{\Theta} & \sin{\Theta} \\ \sin{\Theta} & -\cos{\Theta}\end{array}\right)\)
Remarque
Repérer le signe "-" dans la matrice de rotation. Dans une réflexion l’angle \(\Theta\) correspond au double de l’angle que forme l’axe de symétrie avec l’axe des abscisses. On vérifie que \(A^2 = I_2 \Leftrightarrow A^{-1} = A\).
Preuve
Pour la matrice rotation de centre \(O\) et d'angle \(\Theta\), on a \(OM=OM'=r\) et \(\left(\overrightarrow{OM};\overrightarrow{OM'}\right)=\Theta\).
\(\left(\begin{array}{c}x'\\ y'\end{array}\right)=\left(\begin{array}{c}r\cos{(\alpha+\Theta)}\\ r\sin{(\alpha+\Theta)}\end{array}\right)=\left(\begin{array}{c}r\cos{\alpha}\cos{\Theta}-r\sin{\alpha}\sin{\Theta}\\ r\sin{\alpha}\cos{\Theta}+r\cos{\alpha}\sin{\Theta}\end{array}\right)=\left(\begin{array}{c}x\cos{\Theta}-y\sin{\Theta}\\ y\cos{\Theta}+x\sin{\Theta}\end{array}\right)\) D'où \(\left(\begin{array}{c}x'\\ y'\end{array}\right)=\left(\begin{array}{c}x\cos{\Theta}-y\sin{\Theta}\\ x\sin{\Theta}+y\cos{\Theta}\end{array}\right)=\left(\begin{array}{c}\cos{\Theta}-\sin{\Theta}\\ \sin{\Theta}+\cos{\Theta}\end{array}\right)\left(\begin{array}{c}x\\ y\end{array}\right)\)
Chaînes de Markov
Définition
- Un graphe est pondéré (orienté ou non) lorsque ses arêtes sont affectées de nombres positifs.
- Le poids d’une chaîne est la somme des poids des arêtes qui la composent.
Remarque
Il existe un algorithme pour déterminer la chaîne la plus courte reliant deux sommets : l'algorithme de Moore-Dijkstra. Mais il est souvent plus rapide sur des graphes simples de le faire à l'oeil !
Définition
Un graphe probabiliste est un graphe orienté pondéré tel que :
-
Tous les poids appartiennent à l’intervalle \([0 ; 1]\).
-
La somme des poids des chemins issus d'un sommet est égale à 1.
-
La matrice d’adjacence d’un graphe probabiliste est une matrice stochastique.
Remarque
-
"stochastique" est un synonyme d'aléatoire.
-
La somme des coefficients de chaque ligne vaut 1.
Définition
Une chaîne de Markov est une suite de variables aléatoires \((X_n)\) où, pour tout \(n \in \mathbb{N}\), \(X_n\) est un sommet du graphe probabiliste tel que l'état \(X_{n+1}\) du processus à l'étape \(n+1\) ne dépend que de celui à l'étape \(n\).
Remarque
-
Si cette chaîne modélise un processus temporel, l’état futur du système, \(X_{n+1}\), ne dépend que de son état présent, \(X_n\), et non des états passés \((X_0, X_1,..., X_{n-1})\).
Un tel processus est alors qualifié de "processus sans mémoire".
-
La matrice de transition d’une chaîne de Markov est la matrice carrée d’ordre \(n\) dont le coefficient \(p_{ij}\) situé sur la ligne \(i\) et la colonne \(j\) est la probabilité de transition portée par l’arc reliant le sommet \(i\) vers le sommet \(j\) s'il existe et 0 sinon.
Définition
L'état probabiliste après \(n\) étapes de la chaîne de Markov est la matrice ligne dont les coefficients sont les probabilités d'arrivée en chaque sommet après \(n\) étapes.
Définition
Soit une chaîne de Markov \((X_n)\) de matrice de transition \(P\). \(\pi\) est une distribution invariante si la matrice ligne \(\pi\) vérifie : \(\pi P = \pi\)
Remarque
\(\pi\) n'existe pas si \((P−I_N)\) est inversible car une distribution ne peut correspondre au vecteur nul.
Propriété
Soit une chaîne de Markov homogène \((X_n)\) de matrice de transition \(P\) d'ordre \(N\).
Si \(P\) ne possède aucun coefficient nul autre que sur sa diagonale principale, alors \((X_n)\) admet une unique distribution invariante.