Aller au contenu

Applications sur le calcul matriciel

Diagonalisation

Définition

Une matrice carrée \(A\) est diagonalisable s’il existe une matrice carrée \(P\) inversible et une matrice diagonale \(D\) telles que : \(A = PDP^{-1}\).

On a alors : \(\forall n \in \mathbb{N}\), \(A^n = PD^{n}P^{-1}\).

Remarque

Dans la pratique les matrices \(P\) et \(D\) seront données, mais il existe un procédé pour les déterminer.

Suites de matrices

Définition

Soit \((U_n)\) une suite de matrices colonnes de premier terme \(U_0\) et telle que, pour tout \(n \in \mathbb{N}, U_{n+1} = AU_n\) où \(A\) est une matrice carrée.

L’expression de \(U_n\) en fonction de \(n\) et de \(U_0\) est alors : \(U_n = A^nU_0\).

Remarque

La suite \(U_n\) est donc une suite géométrique de matrices colonnes. On la rencontre dans l'évolution d'un système fermé. Pour connaître l'expression de \(U_n\) en fonction de \(n\), on cherchera à diagonaliser la matrice \(A\).

Transformations géométriques

Propriété

Une transformation \(f\) du plan est une bijection du plan dans lui-même qui à un point \(M\) associe le point \(M'\) tel que \(M' = f(M)\). Dans un repère \((O; \vec{\imath},\vec{\jmath})\) orthonormé du plan, soit \(M(x ; y)\) et \(M'(x';y')\)

  1. \(f\) est la translation de vecteur \(\vec{u}(a ; b)\) alors :
\[\left(\begin{array}{c}x'\\ y'\end{array}\right)=\left(\begin{array}{c}x\\ y\end{array}\right)+\left(\begin{array}{c}a\\b\end{array}\right)\]
  1. Si \(f\) n’est pas une translation alors \(\left(\begin{array}{c}x'\\ y'\end{array}\right)=A\left(\begin{array}{c}x\\ y\end{array}\right)\) avec \(A\) inversible.

    • Si \(f\) est la rotation de centre \(O\) et d’angle \(\Theta\) alors : \(A=\left(\begin{array}{cc}\cos{\Theta} & -\sin{\Theta} \\ \sin{\Theta} & \cos{\Theta}\end{array}\right)\)
    • Si \(f\) est l'homothétie de centre \(O\) et de rapport \(k\) alors : \(A=\left(\begin{array}{cc}k & 0 \\ 0 & k\end{array}\right)\)
    • Si \(f\) est la réflexion d’axe passant par \(O\) alors : \(A=\left(\begin{array}{cc}\cos{\Theta} & \sin{\Theta} \\ \sin{\Theta} & -\cos{\Theta}\end{array}\right)\)

Remarque

Repérer le signe "-" dans la matrice de rotation. Dans une réflexion l’angle \(\Theta\) correspond au double de l’angle que forme l’axe de symétrie avec l’axe des abscisses. On vérifie que \(A^2 = I_2 \Leftrightarrow A^{-1} = A\).

Preuve

Pour la matrice rotation de centre \(O\) et d'angle \(\Theta\), on a \(OM=OM'=r\) et \(\left(\overrightarrow{OM};\overrightarrow{OM'}\right)=\Theta\).

\(\left(\begin{array}{c}x'\\ y'\end{array}\right)=\left(\begin{array}{c}r\cos{(\alpha+\Theta)}\\ r\sin{(\alpha+\Theta)}\end{array}\right)=\left(\begin{array}{c}r\cos{\alpha}\cos{\Theta}-r\sin{\alpha}\sin{\Theta}\\ r\sin{\alpha}\cos{\Theta}+r\cos{\alpha}\sin{\Theta}\end{array}\right)=\left(\begin{array}{c}x\cos{\Theta}-y\sin{\Theta}\\ y\cos{\Theta}+x\sin{\Theta}\end{array}\right)\) D'où \(\left(\begin{array}{c}x'\\ y'\end{array}\right)=\left(\begin{array}{c}x\cos{\Theta}-y\sin{\Theta}\\ x\sin{\Theta}+y\cos{\Theta}\end{array}\right)=\left(\begin{array}{c}\cos{\Theta}-\sin{\Theta}\\ \sin{\Theta}+\cos{\Theta}\end{array}\right)\left(\begin{array}{c}x\\ y\end{array}\right)\)

Chaînes de Markov

Définition

  • Un graphe est pondéré (orienté ou non) lorsque ses arêtes sont affectées de nombres positifs.
  • Le poids d’une chaîne est la somme des poids des arêtes qui la composent.

Remarque

Il existe un algorithme pour déterminer la chaîne la plus courte reliant deux sommets : l'algorithme de Moore-Dijkstra. Mais il est souvent plus rapide sur des graphes simples de le faire à l'oeil !

Définition

Un graphe probabiliste est un graphe orienté pondéré tel que :

  • Tous les poids appartiennent à l’intervalle \([0 ; 1]\).

  • La somme des poids des chemins issus d'un sommet est égale à 1.

  • La matrice d’adjacence d’un graphe probabiliste est une matrice stochastique.

Remarque

  • "stochastique" est un synonyme d'aléatoire.

  • La somme des coefficients de chaque ligne vaut 1.

Définition

Une chaîne de Markov est une suite de variables aléatoires \((X_n)\) où, pour tout \(n \in \mathbb{N}\), \(X_n\) est un sommet du graphe probabiliste tel que l'état \(X_{n+1}\) du processus à l'étape \(n+1\) ne dépend que de celui à l'étape \(n\).

Remarque

  • Si cette chaîne modélise un processus temporel, l’état futur du système, \(X_{n+1}\), ne dépend que de son état présent, \(X_n\), et non des états passés \((X_0, X_1,..., X_{n-1})\).

    Un tel processus est alors qualifié de "processus sans mémoire".

  • La matrice de transition d’une chaîne de Markov est la matrice carrée d’ordre \(n\) dont le coefficient \(p_{ij}\) situé sur la ligne \(i\) et la colonne \(j\) est la probabilité de transition portée par l’arc reliant le sommet \(i\) vers le sommet \(j\) s'il existe et 0 sinon.

Définition

L'état probabiliste après \(n\) étapes de la chaîne de Markov est la matrice ligne dont les coefficients sont les probabilités d'arrivée en chaque sommet après \(n\) étapes.

Définition

Soit une chaîne de Markov \((X_n)\) de matrice de transition \(P\). \(\pi\) est une distribution invariante si la matrice ligne \(\pi\) vérifie : \(\pi P = \pi\)

Remarque

\(\pi\) n'existe pas si \((P−I_N)\) est inversible car une distribution ne peut correspondre au vecteur nul.

Propriété

Soit une chaîne de Markov homogène \((X_n)\) de matrice de transition \(P\) d'ordre \(N\).

Si \(P\) ne possède aucun coefficient nul autre que sur sa diagonale principale, alors \((X_n)\) admet une unique distribution invariante.