Aller au contenu

TRANSFORMATIONS DE VARIABLES ALÉATOIRES CONCENTRATION - LOI DES GRANDS NOMBRES

1 - TRANSFORMATIONS DE VARIABLES ALÉATOIRES

Rappels

Soit \(X=\left\{ x_{1},x_{2},\ldots,x_{n} \right\}\) un ensemble sur lequel a été définie une loi de probabilité . On note \(p_{i}\) la probabilité de l'éventualité \(x_{i}\).

  • L'espérance mathématique de la loi de probabilité est le nombre \(\mathrm{E}(X)\) parfois noté \(\mu\) défini par :

    \[\mathrm{E}(X) = \sum\limits_{i = 1}^{n} p_{i}x_{i}\]
  • La variance de la loi de probabilité est le nombre \(V\) défini par :

    \[V = \sum\limits_{i = 1}^{n}p_{i}(x_{i} - \mu)^{2} = \sum\limits_{i = 1}^{n}p_{i}x_{i}^{2}- (\mathrm{E}(X))^{2}\]
  • L'écart-type de la loi de probabilité est le nombre \(\sigma\) défini par :

    \[\sigma = \sqrt{\text{V}}\]

A - TRANSFORMATION AFFINE

Définition

Soit \(a \in \mathbb{R}^{*}, b \in \mathbb{R}\) et \(X\) une variable aléatoire.

On note \(x_{1}, x_{2}, \ldots, x_{n}\) les valeurs prises par \(X\).

La variable aléatoire \(Y = a X + b\) est la variable aléatoire qui prend pour valeurs les réels \(a x_{1} + b, a x_{2} + b, \ldots, a x_{n} + b\).

Propriété

Soit \(a \in \mathbb{R}^{*}, b \in \mathbb{R}\) et \(X\) une variable aléatoire. On a :

\[\mathrm{E}(a \mathrm{X} + b) = a \mathrm{E}(\mathrm{X}) + b \quad \mathrm{V}(a \mathrm{X} + b) = a^{2} \mathrm{V}(\mathrm{X})\]
Preuve : non exigible

On note \(x_{1}, x_{2}, \ldots, x_{n}\) les valeurs prises par \(X\). On note \(p_{i} = \mathrm{P}(X = x_{i})\) (pour \(i\) allant de 1 à \(n\)).

On a alors \(\mathrm{E}(X) = \sum_{i=1}^{n} p_{i} x_{i}\) et \(\mathrm{V}(X) = \sum_{i=1}^{n} p_{i} x_{i}^{2} - \mathrm{E}(X)^{2}\).

  • \(\mathrm{E}(a \mathrm{X} + b) = \sum_{i=1}^{n} p_{i}(a x_{i} + b) = \sum_{i=1}^{n}a p_{i} x_{i} + b p_{i} = \sum_{i=1}^{n} a p_{i} x_{i} + \sum_{i=1}^{n} b p_{i} = a \sum_{i=1}^{n} p_{i} x_{i} + b \sum_{i=1}^{n} p_{i}\)

Or \(\mathrm{E}(X) = \sum_{i=1}^{n} p_{i} x_{i}\) et \(\sum_{i=1}^{n} p_{i} = 1\). On en déduit que \(\mathrm{E}(a \mathrm{X} + b) = a \mathrm{E}(X) + b\).

  • \(\mathrm{V}(a \mathrm{X} + b) = \sum_{i=1}^{n} p_{i}(a x_{i} + b)^{2} - \mathrm{E}(a \mathrm{X} + b)^{2}\)
\[\begin{aligned} & = \sum_{i=1}^{n} p_{i} \times (a^{2} x_{i}^{2} + 2 a b x_{i} + b^{2}) - (a \mathrm{E}(X) + b)^{2} \\ & = \sum_{i=1}^{n}(p_{i} a^{2} x_{i}^{2} + p_{i} 2 a b x_{i} + p_{i} b^{2}) - (a^{2} \mathrm{E}(X)^{2} + 2 a b \mathrm{E}(X) + b^{2}) \\ & = a^{2} \sum_{i=1}^{n} p_{i} x_{i}^{2} + 2 a b \sum_{i=1}^{n} p_{i} x_{i} + b^{2} \sum_{i=1}^{n} p_{i} - a^{2} \mathrm{E}(X)^{2} - 2 a b \mathrm{E}(X) - b^{2} \end{aligned}\]

Or \(2 a b \sum_{i=1}^{n} p_{i} x_{i} = 2 a b \mathrm{E}(X)\) et \(b^{2} \sum_{i=1}^{n} p_{i} = b^{2} \times 1 = b^{2}\). Ainsi \(\mathrm{V}\{a \mathrm{X} + b\} = a^{2}\{\sum_{i=1}^{n} p_{i} x_{i}^{2} - \mathrm{E}(X)^{2}\} + 2 a b \mathrm{E}(X) + b^{2} - 2 a b \mathrm{E}(X) - b^{2} = a^{2} \mathrm{V}(X)\).

Exemple

Soit \(X\) une variable aléatoire suivant la loi binomiale de paramètre \(n = 6\) et \(p = 0,7\) et soit \(Y = 2 X - 3\).

On a \(\mathrm{E}(X) = 6 \times 0,7 = 4,2\) et \(\mathrm{V}(X) = 6 \times 0,7 \times (1 - 0,7) = 1,26\).

On a donc : \(\mathrm{E}(Y) = 2 \mathrm{E}(X) - 3 = 2 \times 4,2 - 3 = 5,4\) et \(\mathrm{V}(Y) = 2^{2} \times \mathrm{V}(X) = 4 \times 1,26 = 5,04\).

B - SOMME DE DEUX VARIABLES ALÉATOIRES

Définition

Soit \(X\) et \(Y\) deux variables aléatoires.

\(X + Y\) est la variable aléatoire qui prend pour valeurs toutes les sommes possibles des valeurs de \(X\) et de \(Y\).

Exemple :

Si \(\Omega_X = \{1, 2, 3\}\) et \(\Omega_Y = \{10, 20\}\) alors \(\Omega_{X + Y} = \{11, 12, 13, 21, 22, 23\}\).

Propriété : admise

Soit \(X\) et \(Y\) deux variables aléatoires. On a :

\[\mathrm{E}(X + Y) = \mathrm{E}(X) + \mathrm{E}(Y)\]

Cette propriété et \(\mathrm{E}(a X) = a \mathrm{E}(X)\) caractérisent la linéarité de l'espérance.

Exemple :

Soit \(X\) une variable aléatoire suivant la loi binomiale de paramètre \(n = 6\) et \(p = 0,7\) et \(Y\) une variable aléatoire suivant la loi binomiale de paramètre \(n = 10\) et \(p = 0,2\). \(X + Y\) est une variable aléatoire dont les valeurs possibles sont \(\{0, 1, 2, \ldots, 16\}\) et \(\mathrm{E}(X + Y) = \mathrm{E}(X) + \mathrm{E}(Y) = 6 \times 0,7 + 10 \times 0,2 = 6,2\).

Propriété : admise

Soit \(X\) et \(Y\) deux variables aléatoires associées à deux expériences aléatoires telles que les conditions de réalisation sont indépendantes. On a :

\[\mathrm{V}(X + Y) = \mathrm{V}(X) + \mathrm{V}(Y)\]

Remarque

On peut avoir \(\mathrm{V}(X + Y) = \mathrm{V}(X) + \mathrm{V}(Y)\) sans que les variables aléatoires ne soient indépendantes.

C - Applications sur la loi binomiale

Propriété

Soit \(X\) une variable aléatoire suivant une loi binomiale de paramètres \(n\) et \(p\), notée \(X \sim B(n, p)\).

L'espérance \(\mathrm{E}(X)\) est donnée par :

\[\mathrm{E}(X) = np\]
Preuve exigible

Une variable aléatoire binomiale \(X\) peut être vue comme la somme de \(n\) variables aléatoires indépendantes \(X_i\), chacune suivant une loi de Bernoulli de paramètre \(p\).

Pour chaque \(X_i\), on a :

\[\mathrm{E}(X_i) = 1 \cdot p + 0 \cdot (1-p) = p\]

Par linéarité de l'espérance, on obtient :

\[\mathrm{E}(X) = \mathrm{E}\left(\sum_{i=1}^{n} X_i\right) = \sum_{i=1}^{n} \mathrm{E}(X_i) = np\]

Propriété

Soit \(X\) une variable aléatoire suivant une loi binomiale de paramètres \(n\) et \(p\), notée \(X \sim B(n, p)\).

La variance \(\text{Var}(X)\) est donnée par :

\[\text{Var}(X) = np(1-p)\]
Preuve exigible

La variance d'une somme de variables aléatoires indépendantes est égale à la somme des variances de ces variables.

Pour chaque \(X_i\), la variance est :

\[\text{Var}(X_i) = \mathrm{E}(X_i^2) - (\mathrm{E}(X_i))^2\]

Calculons \(\mathrm{E}(X_i^2)\) :

\[\mathrm{E}(X_i^2) = 1^2 \cdot p + 0^2 \cdot (1-p) = p\]

Donc, \(\(\text{Var}(X_i) = p - p^2 = p(1-p)\)\)

Par conséquent, la variance de \(X\) est :

\[\text{Var}(X) = \sum_{i=1}^{n} \text{Var}(X_i) = np(1-p)\]

Remarque

Ces résultats montrent que l'espérance et la variance d'une loi binomiale dépendent directement des paramètres \(n\) et \(p\).

2 - INÉGALITÉ DE BIENAYMÉ-TCHEBYCHEV

Propriété : admise

Soit \(X\) une variable aléatoire et \(\delta\) un réel strictement positif. On a :

\[\mathrm{P}(|X - \mathrm{E}(X)| \geqslant \delta) \leqslant \frac{\mathrm{V}(X)}{\delta^{2}}\]
  • \(\delta\) est la lettre grecque « delta ».
  • La probabilité que les valeurs prises par \(X\) s'écartent d'au moins \(\delta\) de \(\mathrm{E}(X)\) est d'autant plus petite que \(\delta\) est grand.
  • \([\mathrm{E}(X) - \delta ; \mathrm{E}(X) + \delta]\) est un intervalle de fluctuation.
Preuve : non exigible

Soient \(s\) les issues de \(\Omega\).

\(A\) est l'événement : \(A = \{s \in \Omega, |X(s) - \mathrm{E}(X)| \geqslant \delta\}\).

On cherche donc à prouver que :

On a \(\mathrm{V}(X) = \sum_{s \in \Omega}(X(s) - \mathrm{E}(X))^{2} P(s) = \sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) + \sum_{s \notin A}(X(s) - \mathrm{E}(X))^{2} P(s)\). Or \(\sum_{s \notin A}(X(s) - \mathrm{E}(X))^{2} P(s)\) est une somme de termes positifs, donc est positive.

Par conséquent, \(\sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) \leqslant \mathrm{V}(X)\).

De plus, pour chaque élément \(s\) de \(A\), on a \((X(s) - \mathrm{E}(X))^{2} \geqslant \delta^{2}\).

D'où \(\sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) \cong \sum_{s \in A} \delta^{2} P(s)\) et \(\sum_{s \in A} \delta^{2} P(s) = \delta^{2} \times \mathrm{P}(A)\).

On peut conclure avec \(\delta^{2} \times \mathrm{P}(A) \leqslant \sum_{s \in A}(X(s) - \mathrm{E}(X))^{2} P(s) \leqslant \mathrm{V}(X) \Rightarrow \mathrm{P}(A) \leqslant \frac{\mathrm{V}(X)}{\delta^{2}}\).

Remarque : En utilisant l'événement contraire on obtient :

\[\mathrm{P}(|X - \mathrm{E}(X)| < \delta) \geqslant 1 - \frac{\mathrm{V}(X)}{\delta^{2}} \quad \Leftrightarrow \quad \mathrm{P}(\mathrm{E}(X) - \delta < X < \mathrm{E}(X) + \delta) \geqslant 1 - \frac{\mathrm{V}(X)}{\delta^{2}}\]

Cas particulier : \(\delta = 2 \sigma(X)\)\(\sigma(X)\) est l'écart type de la variable aléatoire \(X\).

On obtient \(\mathrm{P}(|X - \mathrm{E}(X)| \geqslant 2 \sigma(X)) \leqslant \frac{\mathrm{V}(X)}{4 \mathrm{V}(X)} \Rightarrow \mathrm{P}(|X - \mathrm{E}(X)| \geqslant 2 \sigma(X)) \leqslant \frac{1}{4}\).

Ce qui signifie que la probabilité qu'une variable aléatoire prenne des valeurs s'écartant de son espérance d'au moins le double de son écart type est inférieure à \(\dfrac{1}{4}\).

3 - LOI DES GRANDS NOMBRES : LE CAS PARTICULIER DE LA LOI BINOMIALE

Propriétés : admise

On considère un schéma de Bernoulli constitué de \(n\) répétitions d'une épreuve de Bernoulli de succès de probabilité \(p\).

Pour tout \(i \in \{1, 2, \ldots, n\}\), on note \(X_{i}\) la variable aléatoire, suivant la loi de Bernoulli de paramètre \(p\), associée à la i-ème épreuve de Bernoulli prenant la valeur 1 en cas de succès et 0 dans le cas contraire. On a donc \(\mathrm{P}(X_{i} = 1) = p\).

  • La variable aléatoire \(S_{n} = \sum\limits_{i=1}^{n} X_{i} = X_{1} + X_{2} + \ldots + X_{n}\) est égale au nombre de succès lors des \(n\) épreuves.
  • \(S_{n}\) suit la loi binomiale de paramètres \(n\) et \(p\).

Définition et propriété : admise

On appelle moyenne empirique des variables aléatoires \(X_{1}, X_{2}, \ldots, X_{n}\), la variable aléatoire \(M_{n} = \dfrac{X_{1} + X_{2} + \ldots + X_{n}}{n} = \dfrac{S_{n}}{n}\).

Soit \(\delta\) un réel strictement positif.

En appliquant l'inégalité de Bienaymé-Tchebychev à \(S_{n}\) et \(M_{n}\), on obtient :

\[\mathrm{P}(|S_{n} - n p| \geqslant \delta) \leqslant \dfrac{n p (1 - p)}{\delta^{2}} \text{ et } \mathrm{P}(|M_{n} - p| \geqslant \delta) \leqslant \frac{p (1 - p)}{n \delta^{2}}\]

La probabilité que les valeurs prises par \(S_{n}\) s'écartent d'au moins \(\delta\) de son espérance \(n p\) est d'autant plus petite que \(\delta\) est grand.

Remarques :

En utilisant l'événement contraire on obtient :

\[\begin{aligned} & \mathrm{P}(|S_{n} - n p| < \delta) \geqslant 1 - \dfrac{n p (1 - p)}{\delta^{2}} \Leftrightarrow \mathrm{P}(n p - \delta < S_{n} < n p + \delta) \geqslant 1 - \dfrac{n p (1 - p)}{\delta^{2}} \\ & \text{et} \\ & \mathrm{P}(|M_{n} - p| < \delta) \geqslant 1 - \dfrac{p (1 - p)}{n \delta^{2}} \Leftrightarrow \mathrm{P}(p - \delta < M_{n} < p + \delta) \geqslant 1 - \dfrac{p (1 - p)}{n \delta^{2}} \end{aligned}\]

4 - LOI DES GRANDS NOMBRES

Définition

Soit \(n\) expériences aléatoires identiques et indépendantes et \(X_{1}, X_{2}, \ldots, X_{n}\) les variables aléatoires toutes de même loi associées à ces expériences.

On note à nouveau \(S_{n} = \sum\limits_{i=1}^{n} X_{i} = X_{1} + X_{2} + \ldots + X_{n}\).

On appelle moyenne empirique des variables aléatoires \(X_{1}, X_{2}, \ldots, X_{n}\), la variable aléatoire \(M_{n} = \dfrac{X_{1} + X_{2} + \ldots + X_{n}}{n} = \dfrac{S_{n}}{n}\).

Théorème : la loi des grands nombres

Soit une expérience aléatoire et \(X\) la variable aléatoire associée à cette expérience.

On répète \(n\) fois cette expérience de manière indépendante.

On obtient alors un échantillon de taille \(n\) composé de \(n\) variables aléatoires \(X_{1}, X_{2}, \ldots, X_{n}\), suivant toute la même loi et donc d'espérance \(\mathrm{E}(X)\) et de variance \(\mathrm{V}(X)\).

Pour tout réel \(\delta\) strictement positif, on a :

\[\mathrm{P}(|M_{n} - \mathrm{E}(X)| \geqslant \delta) \leqslant \dfrac{\mathrm{V}(X)}{n \delta^{2}}\]

On appelle cette expression inégalité de concentration.

L'écart entre la moyenne d'un échantillon d'une variable aléatoire et l'espérance de cette variable ne dépasse une valeur donnée à l'avance qu'avec une probabilité qui tend vers zéro quand la taille de l'échantillon tend vers l'infini. Ce qui s'écrit de manière mathématique \(\lim\limits_{n \to +\infty} \mathrm{P}(|M_{n} - \mathrm{E}(X)| \geqslant \delta) = 0\).

On dit que \(M_{n}\) converge en probabilité vers \(\mathrm{E}(X)\) quand \(n\) tend vers \(+\infty\).