TRANSFORMATIONS DE VARIABLES ALÉATOIRES CONCENTRATION - LOI DES GRANDS NOMBRES
1 - TRANSFORMATIONS DE VARIABLES ALÉATOIRES
Rappels
Soit \(X=\left\{ x_{1},x_{2},\ldots,x_{n} \right\}\) un ensemble sur lequel a été définie une loi de probabilité . On note \(p_{i}\) la probabilité de l'éventualité \(x_{i}\).
-
L'espérance mathématique de la loi de probabilité est le nombre \(\mathrm{E}(X)\) parfois noté \(\mu\) défini par :
\[\mathrm{E}(X) = \sum\limits_{i = 1}^{n} p_{i}x_{i}\] -
La variance de la loi de probabilité est le nombre \(V\) défini par :
\[V = \sum\limits_{i = 1}^{n}p_{i}(x_{i} - \mu)^{2} = \sum\limits_{i = 1}^{n}p_{i}x_{i}^{2}- (\mathrm{E}(X))^{2}\] -
L'écart-type de la loi de probabilité est le nombre \(\sigma\) défini par :
\[\sigma = \sqrt{\text{V}}\]
A - TRANSFORMATION AFFINE
Définition
Soit \(a \in \mathbb{R}^{*}, b \in \mathbb{R}\) et \(X\) une variable aléatoire.
On note \(x_{1}, x_{2}, \ldots, x_{n}\) les valeurs prises par \(X\).
La variable aléatoire \(Y = a X + b\) est la variable aléatoire qui prend pour valeurs les réels \(a x_{1} + b, a x_{2} + b, \ldots, a x_{n} + b\).
Propriété
Soit \(a \in \mathbb{R}^{*}, b \in \mathbb{R}\) et \(X\) une variable aléatoire. On a :
Preuve : non exigible
On note \(x_{1}, x_{2}, \ldots, x_{n}\) les valeurs prises par \(X\). On note \(p_{i} = \mathrm{P}(X = x_{i})\) (pour \(i\) allant de 1 à \(n\)).
On a alors \(\mathrm{E}(X) = \sum_{i=1}^{n} p_{i} x_{i}\) et \(\mathrm{V}(X) = \sum_{i=1}^{n} p_{i} x_{i}^{2} - \mathrm{E}(X)^{2}\).
- \(\mathrm{E}(a \mathrm{X} + b) = \sum_{i=1}^{n} p_{i}(a x_{i} + b) = \sum_{i=1}^{n}a p_{i} x_{i} + b p_{i} = \sum_{i=1}^{n} a p_{i} x_{i} + \sum_{i=1}^{n} b p_{i} = a \sum_{i=1}^{n} p_{i} x_{i} + b \sum_{i=1}^{n} p_{i}\)
Or \(\mathrm{E}(X) = \sum_{i=1}^{n} p_{i} x_{i}\) et \(\sum_{i=1}^{n} p_{i} = 1\). On en déduit que \(\mathrm{E}(a \mathrm{X} + b) = a \mathrm{E}(X) + b\).
- \(\mathrm{V}(a \mathrm{X} + b) = \sum_{i=1}^{n} p_{i}(a x_{i} + b)^{2} - \mathrm{E}(a \mathrm{X} + b)^{2}\)
Or \(2 a b \sum_{i=1}^{n} p_{i} x_{i} = 2 a b \mathrm{E}(X)\) et \(b^{2} \sum_{i=1}^{n} p_{i} = b^{2} \times 1 = b^{2}\). Ainsi \(\mathrm{V}\{a \mathrm{X} + b\} = a^{2}\{\sum_{i=1}^{n} p_{i} x_{i}^{2} - \mathrm{E}(X)^{2}\} + 2 a b \mathrm{E}(X) + b^{2} - 2 a b \mathrm{E}(X) - b^{2} = a^{2} \mathrm{V}(X)\).
Exemple
Soit \(X\) une variable aléatoire suivant la loi binomiale de paramètre \(n = 6\) et \(p = 0,7\) et soit \(Y = 2 X - 3\).
On a \(\mathrm{E}(X) = 6 \times 0,7 = 4,2\) et \(\mathrm{V}(X) = 6 \times 0,7 \times (1 - 0,7) = 1,26\).
On a donc : \(\mathrm{E}(Y) = 2 \mathrm{E}(X) - 3 = 2 \times 4,2 - 3 = 5,4\) et \(\mathrm{V}(Y) = 2^{2} \times \mathrm{V}(X) = 4 \times 1,26 = 5,04\).
B - SOMME DE DEUX VARIABLES ALÉATOIRES
Définition
Soit \(X\) et \(Y\) deux variables aléatoires.
\(X + Y\) est la variable aléatoire qui prend pour valeurs toutes les sommes possibles des valeurs de \(X\) et de \(Y\).
Exemple :
Si \(\Omega_X = \{1, 2, 3\}\) et \(\Omega_Y = \{10, 20\}\) alors \(\Omega_{X + Y} = \{11, 12, 13, 21, 22, 23\}\).
Propriété : admise
Soit \(X\) et \(Y\) deux variables aléatoires. On a :
Cette propriété et \(\mathrm{E}(a X) = a \mathrm{E}(X)\) caractérisent la linéarité de l'espérance.
Exemple :
Soit \(X\) une variable aléatoire suivant la loi binomiale de paramètre \(n = 6\) et \(p = 0,7\) et \(Y\) une variable aléatoire suivant la loi binomiale de paramètre \(n = 10\) et \(p = 0,2\). \(X + Y\) est une variable aléatoire dont les valeurs possibles sont \(\{0, 1, 2, \ldots, 16\}\) et \(\mathrm{E}(X + Y) = \mathrm{E}(X) + \mathrm{E}(Y) = 6 \times 0,7 + 10 \times 0,2 = 6,2\).
Propriété : admise
Soit \(X\) et \(Y\) deux variables aléatoires associées à deux expériences aléatoires telles que les conditions de réalisation sont indépendantes. On a :
Remarque
On peut avoir \(\mathrm{V}(X + Y) = \mathrm{V}(X) + \mathrm{V}(Y)\) sans que les variables aléatoires ne soient indépendantes.
C - Applications sur la loi binomiale
Propriété
Soit \(X\) une variable aléatoire suivant une loi binomiale de paramètres \(n\) et \(p\), notée \(X \sim B(n, p)\).
L'espérance \(\mathrm{E}(X)\) est donnée par :
Preuve exigible
Une variable aléatoire binomiale \(X\) peut être vue comme la somme de \(n\) variables aléatoires indépendantes \(X_i\), chacune suivant une loi de Bernoulli de paramètre \(p\).
Pour chaque \(X_i\), on a :
Par linéarité de l'espérance, on obtient :
Propriété
Soit \(X\) une variable aléatoire suivant une loi binomiale de paramètres \(n\) et \(p\), notée \(X \sim B(n, p)\).
La variance \(\text{Var}(X)\) est donnée par :
Preuve exigible
La variance d'une somme de variables aléatoires indépendantes est égale à la somme des variances de ces variables.
Pour chaque \(X_i\), la variance est :
Calculons \(\mathrm{E}(X_i^2)\) :
Donc, \(\(\text{Var}(X_i) = p - p^2 = p(1-p)\)\)
Par conséquent, la variance de \(X\) est :
Remarque
Ces résultats montrent que l'espérance et la variance d'une loi binomiale dépendent directement des paramètres \(n\) et \(p\).
2 - INÉGALITÉ DE BIENAYMÉ-TCHEBYCHEV
Propriété : admise
Soit \(X\) une variable aléatoire et \(\delta\) un réel strictement positif. On a :
- \(\delta\) est la lettre grecque « delta ».
- La probabilité que les valeurs prises par \(X\) s'écartent d'au moins \(\delta\) de \(\mathrm{E}(X)\) est d'autant plus petite que \(\delta\) est grand.
- \([\mathrm{E}(X) - \delta ; \mathrm{E}(X) + \delta]\) est un intervalle de fluctuation.
Preuve : non exigible
Soient \(s\) les issues de \(\Omega\).
\(A\) est l'événement : \(A = \{s \in \Omega, |X(s) - \mathrm{E}(X)| \geqslant \delta\}\).
On cherche donc à prouver que :
On a \(\mathrm{V}(X) = \sum_{s \in \Omega}(X(s) - \mathrm{E}(X))^{2} P(s) = \sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) + \sum_{s \notin A}(X(s) - \mathrm{E}(X))^{2} P(s)\). Or \(\sum_{s \notin A}(X(s) - \mathrm{E}(X))^{2} P(s)\) est une somme de termes positifs, donc est positive.
Par conséquent, \(\sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) \leqslant \mathrm{V}(X)\).
De plus, pour chaque élément \(s\) de \(A\), on a \((X(s) - \mathrm{E}(X))^{2} \geqslant \delta^{2}\).
D'où \(\sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) \cong \sum_{s \in A} \delta^{2} P(s)\) et \(\sum_{s \in A} \delta^{2} P(s) = \delta^{2} \times \mathrm{P}(A)\).
On peut conclure avec \(\delta^{2} \times \mathrm{P}(A) \leqslant \sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) \leqslant \mathrm{V}(X) \Rightarrow \mathrm{P}(A) \leqslant \frac{\mathrm{V}(X)}{\delta^{2}}\).
Remarque : En utilisant l'événement contraire on obtient :
Cas particulier : \(\delta = 2 \sigma(X)\) où \(\sigma(X)\) est l'écart type de la variable aléatoire \(X\).
On obtient \(\mathrm{P}(|X - \mathrm{E}(X)| \geqslant 2 \sigma(X)) \leqslant \frac{\mathrm{V}(X)}{4 \mathrm{V}(X)} \Rightarrow \mathrm{P}(|X - \mathrm{E}(X)| \geqslant 2 \sigma(X)) \leqslant \frac{1}{4}\).
Ce qui signifie que la probabilité qu'une variable aléatoire prenne des valeurs s'écartant de son espérance d'au moins le double de son écart type est inférieure à \(\dfrac{1}{4}\).
3 - LOI DES GRANDS NOMBRES : LE CAS PARTICULIER DE LA LOI BINOMIALE
Propriétés : admise
On considère un schéma de Bernoulli constitué de \(n\) répétitions d'une épreuve de Bernoulli de succès de probabilité \(p\).
Pour tout \(i \in \{1, 2, \ldots, n\}\), on note \(X_{i}\) la variable aléatoire, suivant la loi de Bernoulli de paramètre \(p\), associée à la i-ème épreuve de Bernoulli prenant la valeur 1 en cas de succès et 0 dans le cas contraire. On a donc \(\mathrm{P}(X_{i} = 1) = p\).
- La variable aléatoire \(S_{n} = \sum\limits_{i=1}^{n} X_{i} = X_{1} + X_{2} + \ldots + X_{n}\) est égale au nombre de succès lors des \(n\) épreuves.
- \(S_{n}\) suit la loi binomiale de paramètres \(n\) et \(p\).
Définition et propriété : admise
On appelle moyenne empirique des variables aléatoires \(X_{1}, X_{2}, \ldots, X_{n}\), la variable aléatoire \(M_{n} = \dfrac{X_{1} + X_{2} + \ldots + X_{n}}{n} = \dfrac{S_{n}}{n}\).
Soit \(\delta\) un réel strictement positif.
En appliquant l'inégalité de Bienaymé-Tchebychev à \(S_{n}\) et \(M_{n}\), on obtient :
La probabilité que les valeurs prises par \(S_{n}\) s'écartent d'au moins \(\delta\) de son espérance \(n p\) est d'autant plus petite que \(\delta\) est grand.
Remarques :
En utilisant l'événement contraire on obtient :
4 - LOI DES GRANDS NOMBRES
Définition
Soit \(n\) expériences aléatoires identiques et indépendantes et \(X_{1}, X_{2}, \ldots, X_{n}\) les variables aléatoires toutes de même loi associées à ces expériences.
On note à nouveau \(S_{n} = \sum\limits_{i=1}^{n} X_{i} = X_{1} + X_{2} + \ldots + X_{n}\).
On appelle moyenne empirique des variables aléatoires \(X_{1}, X_{2}, \ldots, X_{n}\), la variable aléatoire \(M_{n} = \dfrac{X_{1} + X_{2} + \ldots + X_{n}}{n} = \dfrac{S_{n}}{n}\).
Théorème : la loi des grands nombres
Soit une expérience aléatoire et \(X\) la variable aléatoire associée à cette expérience.
On répète \(n\) fois cette expérience de manière indépendante.
On obtient alors un échantillon de taille \(n\) composé de \(n\) variables aléatoires \(X_{1}, X_{2}, \ldots, X_{n}\), suivant toute la même loi et donc d'espérance \(\mathrm{E}(X)\) et de variance \(\mathrm{V}(X)\).
Pour tout réel \(\delta\) strictement positif, on a :
On appelle cette expression inégalité de concentration.
L'écart entre la moyenne d'un échantillon d'une variable aléatoire et l'espérance de cette variable ne dépasse une valeur donnée à l'avance qu'avec une probabilité qui tend vers zéro quand la taille de l'échantillon tend vers l'infini. Ce qui s'écrit de manière mathématique \(\lim\limits_{n \to +\infty} \mathrm{P}(|M_{n} - \mathrm{E}(X)| \geqslant \delta) = 0\).
On dit que \(M_{n}\) converge en probabilité vers \(\mathrm{E}(X)\) quand \(n\) tend vers \(+\infty\).