probabilité

Maîtriser les différents liens qui existent entre les lois de probabilité paraît essentiel. Ces liens sont souvent à expliciter dans les sujets (Parisiennes ou non), voire à prouver (Parisiennes). Avoir connaissance de ceux-ci te permettra d’aller plus vite, mais également de briller en Python, où ils sont très utiles.

 

Loi de Bernoulli – Loi binomiale

Sûrement le lien le plus classique que je puisse te proposer : celui entre une loi de Bernoulli et une loi binomiale. Ce lien est étudié dans énormément d’annales (ex. : ESSEC II, 2013, ECE).

Soit \( n \in \mathbb{N} \)
Soit \( X  \hookrightarrow\mathcal{B}(p) \)
Soit \( (X_1,X_2 … , X_n) \ n \) variables aléatoires qui suivent toutes la même loi que \( X \)

Hypothèse : On suppose que les \( (X_k)_{(k \in [\![1,n]\!])} \)    sont mutuellement indépendantes (et identiques).

La variable aléatoire \( \displaystyle \sum_{k=1}^{n}X_k \) apparaît alors naturellement comme un compteur de succès. De fait, pour \( X  \hookrightarrow\mathcal{B}(p), X \mathbb{(\Omega)} = { [\![0,1]\!]} \). Ainsi, \( \displaystyle \sum_{k=1}^{n}X_k \ \) comptera le nombre de \( X_k \) tels que \( [X_k=1] \) est réalisé.

Or, on sait qu’une binomiale modélise le nombre de succès obtenus lors de la répétition d’épreuves identiques et indépendantes.

Ainsi :
\[ \fbox{\( \displaystyle \displaystyle \sum_{k=1}^{n}X_k \hookrightarrow\mathcal{B}(n,p)\)} \]

 

Loi uniforme – loi exponentielle

La formule

Ce lien semble un peu plus complexe que le précédent, mais il te sera extrêmement utile (notamment en Python) et est donc à connaître.

Soit \( \ U \hookrightarrow\mathcal{U}([0,1[)) \)
Soit \( \lambda \in \mathbb{R}_{+}^{*} \)

Alors :
\[ \fbox{\( \displaystyle-1/\lambda \times (\ln(1-U)) \hookrightarrow\mathcal{E}(\lambda) \)} \]

Cette formule repose sur la méthode d’inversion, elle-même fondée sur le principe de bijection. Appliquons-la ici en guise de démonstration.

 

La démonstration

Soit \( \lambda \in \mathbb{R}_{+}^{*} \)
Soit \( X \hookrightarrow\mathcal{E}(\lambda) \)

On a que : \( \forall x \in \mathbb{R}, F_X(x)=\left\{ \begin{array}{ll} \displaystyle 1 – e^{-\lambda x}&\textrm{si }x\geq 0\\ 0&\textrm{sinon.} \end{array}\right. \)

On voit que \( F_X \) est strictement croissante sur \( \mathbb{R+} \) (d’après l’expression de sa dérivée, c’est-à-dire d’une densité de \( X \)), et elle est continue sur \( \mathbb{R+} \) en tant que fonction de répartition. De plus, \( \lim \limits_{x \to +\infty} F_X(x) = 1 \ \) et \( \ F_X(0)=0 \)

D’après le théorème de la bijection, elle réalise une bijection de \( \mathbb{R+} \) sur \( [0,1[ \).

Trouvons alors la bijection réciproque de \( F_X \).

Soit \( y \in [0,1[ \). On pose :
\(
\begin{align}
\forall x \in \mathbb{R+}, F_X(x) = y &\Leftrightarrow 1 – e^{-\lambda x} = y   \\
&\Leftrightarrow 1-y = e^{-\lambda x}  \\
&\Leftrightarrow \ln(1-y) = -\lambda x  \\
&\Leftrightarrow -1/\lambda \times \ln(1-y) = x
\end{align}
\)

On retrouve donc bien le fait que \( H : \begin{cases} [0,1[ \to \mathbb{R+} \\y \mapsto -1/\lambda \times \ln(1-y) \end{cases} \)
soit la bijection réciproque de \( F_X \).

Ceci nous donne la démonstration de la formule d’inversion écrite plus haut.

Cette formule te sera très utile en Python. En effet, si la commande \(rd.exponential(\lambda) \) existe bien, beaucoup d’exercices font étudier cette bijection, puis demandent de remplir un code Python à l’aide de la fonction H trouvée.

 

Loi binomiale – Loi de Poisson

La formule

Le lien entre binomiale et Poisson est particulier en ce qu’il apparaît à la limite. Ainsi, la loi de Poisson peut être vue comme une « loi limite ». Ce lien est au cœur du sujet ESSEC II 2013 (ECE).

Soit \( n \in \mathbb{N}, \) Soit \(\lambda \in \mathbb{R}_{+}^{*}, \)

Soit \( (X_n)_{n \in \mathbb{N}} \)  une suite de variables aléatoires suivant la loi \( \mathcal{B}(n,\frac{\lambda}{n}) \). On a alors :
\[ \fbox{\( \displaystyle \forall k \in \mathbb{N}, \lim \limits_{n \to +\infty} P(X_n = k) = e^{-\lambda}\frac{\lambda^k}{k!}\)} \]

On dit que la suite de variables aléatoires \( (X_n)_{n \in \mathbb{N}} \) converge en loi vers une variable aléatoire suivant la loi \( P(\lambda) \)

Ainsi, quand \( n \) est suffisamment grand, la loi \( \mathcal{B}(n,\lambda/n) \) peut être approchée par la loi \( \mathcal{P}(\lambda) \)

 

La démonstration

Soit \( \lambda \in \mathbb{R}_{+}^{*} \)
Soit \( (X_n)_{n \in \mathbb{N}} \) une suite de variables aléatoires suivant la loi \( \mathcal{B}(n,\frac{\lambda}{n}) \)
Soit \( Y \hookrightarrow\mathcal{P}(\lambda) \)

On a \( X_n \mathbb{(\Omega)} = [\![0,n]\!] \).
De plus, \( Y \mathbb{(\Omega)} = \mathbb{N} \).

On a que : \( \displaystyle  \forall k \in \mathbb{ [\![0,n]\!] }, P(X_n=k)=\binom nk (\frac{\lambda}{n})^k (1-(\frac{\lambda}{n}))^{n-k} \).

Commençons par montrer que \( \displaystyle \binom nk \underset{+\infty}{\sim}\frac{n^k}{k!} \) (1)
De fait, \( \\ \begin{align}\binom nk & =  \frac{n!}{k! \times (n-k)!} \\ & =  \frac{n(n-1)…(n-k+1)}{k!} \\ &= \displaystyle\prod_{i \in [\![0,k-1]\!]} \frac{(n-i)}{k!}\ \end{align} \)

Or, \( \forall i \in [\![0,k-1]\!], (n-i) \underset{+\infty}{\sim}n \), donc on a finalement (par théorème sur les équivalents) que : \(\displaystyle \binom nk \underset{+\infty}{\sim}\frac{n \times n … \times n}{k!} \underset{+\infty}{\sim}\frac{n^k}{k!} \)

Aussi, \( (1 – \frac{\lambda}{n})^{n-k} = e^{(n-k) \times \ln(1-\frac{\lambda}{n})}, \)   et on a :

\(\begin{cases}
\displaystyle \lim_{n \to +\infty} (n-k) \times \ln(1-\frac{\lambda}{n}) = -\lambda
\ \text{(obtenu par un équivalent)}\\
\lim \limits_{x \to -\lambda} e^{x} = e^{-\lambda} \ (\text{par continuité de exp en} -\lambda)
\end{cases}
\)

Donc, par théorème, \( \lim \limits_{n \to +\infty}e^{(n-k) \times \ln(1-\frac{\lambda}{n})} = e^{-\lambda} \)
Et donc (\( e^{-\lambda} \ne 0) \), on a \( \lim \limits_{n \to +\infty}e^{(n-k) \times \ln(1-\frac{\lambda}{n})} \underset{+\infty}{\sim} e^{-\lambda}  \) (2)

Donc, d’après (1) et (2), on a bien que : \( \displaystyle  \binom nk (\frac{\lambda}{n})^k (1-(\frac{\lambda}{n}))^{n-k} \underset{+\infty}{\sim} e^{-\lambda}\frac{\lambda^k}{k!} \)

De plus,
\(
\begin{cases}
\forall n \in \mathbb{N}, \, X_n(\Omega) = [\![0,n]\!] \subset \mathbb{N} \\
X(\Omega) = \mathbb{N} \subset \mathbb{Z} \\
\mathbb{N} \subset \mathbb{Z}
\end{cases}
\)

Donc, d’après le théorème caractérisant la convergence en loi, on a finalement que :
\[ \fbox{\( \displaystyle X_n \overset{\mathcal{L}}{\rightarrow} Y\)} \]

 

Loi géométrique – Loi exponentielle

La formule

On dit souvent que la loi exponentielle est la version continue de la loi géométrique. Il n’est dès lors pas étonnant de trouver un lien entre ces deux lois. On remarque d’ailleurs une autre similitude : la propriété d’absence de mémoire, propre aux deux lois.

Soit \( \lambda \in \mathbb{R}_{+}^{*} \), Soit \(X \hookrightarrow\mathcal{E}(\lambda) \)

Posons \( Y = \lfloor X \rfloor + 1, \text{et} \ p = 1 – e^{-\lambda} \)

Alors :
\[ \fbox{\( \displaystyle Y\hookrightarrow\mathcal{G}(p)\)} \]

 

La démonstration

Cette démonstration est un classique à connaître. De plus, elle t’aidera à avoir des idées lorsqu’il te faudra manipuler la fonction partie avec des variables aléatoires. On prend les mêmes notations que dans le paragraphe précédent.

On a :
\( X(\Omega) = \mathbb{R}_{+} \)
\( \begin{align}
Y(\Omega) &= \lfloor x \rfloor + 1, \quad x \in X(\Omega) \\
&= \mathbb{N^*}
\end{align} \)

Soit \( k \in \mathbb{N^*} \)
\( \begin{align}
P(Y=k) &= P(\lfloor X \rfloor + 1 = k) \\
&= P(\lfloor X \rfloor = k \ – 1) \\
&= P(k-1 \le X < k) \\
&= F_X(k) – F_X(k-1) \\
&= e^{-\lambda \times (k-1)} – e^{-\lambda \times k} \\
&= (e^{-\lambda})^{k-1} \times (1 – e^{-\lambda}) \\
&= (1-p)^{k-1} p
\end{align} \)

Tu as donc la preuve de ce qui a été annoncé au-dessus. Essaie de retenir notamment les égalités no 3 et no 4, qui sont particulièrement classiques.

 

Loi binomiale – Loi normale

La formule

La formule ici est quasi anecdotique (bien qu’elle puisse être étudiée dans certaines annales). Ce qui compte ici est le raisonnement à suivre pour y arriver, car cette approximation n’est pas la seule de sa catégorie (approximations grâce au théorème central limite). Alors, de quoi parle-t-on ?

Soit \( n \in \mathbb{N^*} \), Soit \( p \in ]0,1[ \). Alors :

La loi \( \mathcal{B}(n,p) \) peut être approchée par la loi \( \mathcal{N}(np, np(1-p)) \)

 

La démonstration

Pour utiliser le TCL, il nous faut une suite de variables aléatoires mutuellement indépendantes et ayant toutes la même loi. On va donc utiliser le premier lien de cet article pour décomposer notre binomiale !

Soit \( n \in \mathbb{N^*} \), Soit \( p \in ]0,1[ \).
Soit \( X  \hookrightarrow\mathcal{B}(p) \).
Soit \( (X_1,X_2 … , X_n) \ n \) variables aléatoires qui suivent toutes la même loi que \( X \), et qui sont mutuellement indépendantes.
Soit \( Y \hookrightarrow\mathcal{N}(0,1) \)

On pose \( S_n = \displaystyle \sum_{k=1}^{n}X_k \).
Ainsi, \( S_n \hookrightarrow\mathcal{B}(n,p), \text{et on a} \ E(S_n) = np, \ V(S_n) = np(1-p) \)
Or, \( p \in ]0,1[ \ \text{donc} \ V(S_n) \ne 0 \)

Donc : \( \forall n \in \mathbb{N^*}, S_n^{*} \ \text{existe et vaut} : \ S_n^{*} = \frac{S_n – np}{\sqrt{np(1-p)}} \)

Toutes les conditions sont réunies pour appliquer le théorème central limite, qui nous donne :

\( S_n^{*} \overset{\mathcal{L}}{\rightarrow} Y \)

Donc, lorsque \( n \) est grand, la loi de \( S_n^{*} \) peut être approchée par la loi normale centrée réduite.

Or, \( \forall n \in \mathbb{N^*} \),
\( \begin{align}
S_n^{*} &= \frac{S_n – np}{\sqrt{np(1-p)}} \\
\Leftrightarrow S_n &= \sqrt{np(1-p)} \times S_n^{*} + np
\end{align} \)

Ainsi, par stabilité de la loi normale par transformation affine, on peut affirmer que :

La loi de \( S_n \) peut être approchée par la loi \( \mathcal{N}(np,np(1-p)) \) quand \(n\) est grand (>20)

N.B. : L’exacte même démarche peut être menée pour prouver qu’une loi de Poisson de paramètre \( \lambda \) peut être approchée par une loi normale de paramètre \( (\lambda, \lambda) \). Je te laisse le faire pour t’entraîner si tu le souhaites.

 

Conclusion

Tu connais maintenant les cinq principaux liens entre les différentes lois de probabilité. Ces liens te seront indispensables lors des concours et leurs démonstrations te seront extrêmement utiles, notamment si tu vises les Parisiennes.

Tu peux retrouver toutes nos autres ressources mathématiques ici !