Poisson

Les notions hors programme sont à travailler en priorité par les candidats visant les trois Parisiennes. Cet article te propose de découvrir le processus de Poisson, assez récurrent dans les sujets de concours, pour mieux t’aider à le comprendre si tu te trouves face à ce sujet un jour de concours. Il te permettra aussi de donner une interprétation à la loi de Poisson, vue en première année d’ECG.

 

Introduction au processus de Poisson

Le processus de Poisson désigne un processus qui compte le nombre d’occurrences d’un événement dans un intervalle de temps donné. Concrètement, c’est l’analogue continu du processus de Bernoulli, que tu connais par cœur depuis la terminale. Faisons ici la comparaison entre les deux processus.

Dans un processus de Bernoulli, on appelle « succès » un certain événement \(A\) (par exemple, l’événement \(A\) pourrait désigner « obtenir pile » dans un pile ou face). On effectue alors \(n\) expériences aléatoires indépendantes de même probabilité de succès \(p\), et on compte le nombre de succès obtenus.

Dans un processus de Poisson, on va également s’intéresser au nombre de réalisations d’un événement \(A\), mais au lieu d’arrêter le processus après \(n\) expériences, on l’arrête après un temps \(t\in\mathbb R_+^*\).

On modélise le temps écoulé entre la \((k-1)^{\text{ième}}\) et la \(k^{\text{ième}}\) réalisation de l’événement \(A\) par une variable \(\Delta_k\) qui suit une loi exponentielle de paramètre \(\lambda\in\mathbb R_+^*\) : on définit ainsi une suite de variables aléatoires \((\Delta_k)_{k\in\mathbb N^*}\) qu’on suppose indépendantes.

On peut ensuite poser \(T_0=0\) et, pour tout \(n\in\mathbb N^*\) :
\[T_n=\sum_{k=1}^n\Delta_k\]

La variable \(T_n\) représente le temps écoulé avant la \(n^{\text{ième}}\) réalisation de l’événement \(A\).

Finalement, on pose \(N(t)\) la variable égale au plus grand entier \(n\in\mathbb N\) tel que \(T_n\leq t\) : autrement dit, c’est le nombre de réalisations de l’événement \(A\) pendant un temps \(t\).

Processus de Poisson

Pour donner un exemple concret : on chronomètre pendant un temps \(t\) le nombre d’arrivées dans une file d’attente. On suppose que les arrivées sont indépendantes. Alors \(\Delta_k\) représente le temps écoulé entre la \((k-1)^{\text{ième}}\) et la \(k^{\text{ième}}\) personne qui arrive, \(T_n\) représente le temps écoulé jusqu’à ce que \(n\) personnes arrivent, et \(N(t)\) représente le nombre d’arrivées après un temps \(t\).

L’étude de ces variables et en particulier de \(N(t)\) est un classique des concours. Je te propose de décortiquer tout ça.

 

Loi de Tₙ

Commençons par déterminer la loi de \(T_n\). On va montrer par récurrence que pour tout \(n\in\mathbb N^*\), \(T_n\) admet pour densité la fonction :
\[f_n:x\mapsto\left\{\begin{array}{ll} \frac{\lambda^nx^{n-1}e^{-\lambda x}}{(n-1)!}&\text{si }x>0 \\ 0&\text{si }x\leq 0 \end{array}\right.\]

Essaie de la faire par toi-même avant de lire la correction, c’est un très bon entraînement aux produits de convolution.

 

Initialisation

On a \(T_1=\Delta_1\), or \(\Delta_1\) suit la loi exponentielle de paramètre \(\lambda\). Une densité de \(T_1\) est donc la fonction \(f_1\) définie par \(f_1(x)=0\) si \(x\leq 0\) et pour tout \(x>0\) :
\[\displaystyle f_1(x)=\lambda e^{-\lambda x}=\frac{\lambda^1x^{1-1}e^{-\lambda x}}{(1-1)!}\]

 

Hérédité

Soit \(n\in\mathbb N^*\). On suppose que \(T_n\) admet pour densité :
\[\displaystyle f_n:x\mapsto\left\{\begin{array}{ll}\frac{\lambda^nx^{n-1}e^{-\lambda x}}{(n-1)!}&\text{si }x>0 \\ 0&\text{si }x\leq 0 \end{array}\right.\]

Alors, d’après le lemme des coalitions, \(T_n\) et \(\Delta_{n+1}\) sont indépendantes.

On fait un produit de convolution.

On sait qu’une densité de \(T_n\) est \(f_n\) et qu’une densité de \(\Delta_{n+1}\) est \(f_1\).

Si \(x\leq 0\) : alors pour tout \(y\in\mathbb R\), \(\displaystyle f_n(y)f_1(x-y) =0\), donc \(\displaystyle \int_{-\infty}^{+\infty} f_n(y)f_1(x-y) dy \) converge et vaut 0.

Si \(x> 0\) : alors pour tout \(y\in\mathbb R\) : \(\displaystyle f_n(y)f_1(x-y)\ne 0\) si, et seulement si \(y>0\) et \(y<x\).

Donc, \(\displaystyle \int_{-\infty}^{+\infty} f_n(y)f_1(x-y) dy \) converge et vaut :
\[\displaystyle \int_0^x f_n(y)f_1(x-y) dy = \int_0^x \frac{\lambda^ny^{n-1}e^{-\lambda y}}{(n-1)!} \lambda e^{-\lambda(x-y)} dy = \lambda^{n+1}e^{-\lambda x}\int_0^x\frac{y^{n-1}}{(n-1)!}dy = \frac{\lambda^{n+1}x^{n}e^{-\lambda x}}{n!}\]

Ainsi \(T_{n+1}\) admet pour densité la fonction :
\[\displaystyle f_{n+1}:x\mapsto\left\{\begin{array}{ll} \frac{\lambda^{n+1}x^{n}e^{-\lambda x}}{n!}&\text{si }x> 0 \\ 0&\text{si }x\leq 0 \end{array}\right.\]

Ainsi par principe de récurrence : pour tout \(n\in\mathbb N^*\), \(T_n\) admet pour densité la fonction :
\[\displaystyle f_n:x\mapsto\left\{\begin{array}{ll} \frac{\lambda^nx^{n-1}e^{-\lambda x}}{(n-1)!}&\text{si }x>0 \\ 0&\text{si }x\leq 0 \end{array}\right.\]

 

Loi de N(t)

Maintenant qu’on a déterminé la loi de \(T_n\), intéressons-nous à celle de \(N(t)\).

On va montrer que \(N(t)\) suit une loi de Poisson de paramètre \(\lambda t\). Accroche-toi !

 

Écrire la fonction de répartition de \(T_{n+1}\) sous forme d’une somme

On se fixe \(t\in\mathbb R_+^*\), qui représente la durée de l’observation dans le processus de Poisson.

On note \(F_n\) la fonction de répartition de \(T_n\) pour tout \(n\in\mathbb N^*\).

D’après la densité de \(T_{n+1}\), on a donc \(\displaystyle F_{n+1}(t)=\int_0^{t}\frac{\lambda^{n+1}x^{n}e^{-\lambda x}}{n!}dx\).

Or, la fonction \(\displaystyle \varphi:x\mapsto e^{\lambda x}\) est de classe \(\mathcal C^\infty\) sur \([0,t]\), et par récurrence immédiate : pour tout \(k\in\mathbb N\), \(\varphi^{(k)}(x)=\lambda^ke^{\lambda x}\).

On peut donc appliquer à \(\varphi\) la formule de Taylor avec reste intégral à l’ordre \(n\) sur \([0,t]\) :
\[\displaystyle e^{\lambda t}=\sum_{k=0}^n\frac{(\lambda t)^k}{k!}+\int_0^t\frac{(t-x)^n}{n!}\lambda^{n+1}e^{\lambda x}dx\]

Or, en posant le changement de variable affine \(u=t-x\), on obtient :
\[\displaystyle \int_0^t\frac{(t-x)^n}{n!}\lambda^{n+1}e^{\lambda x}dx=e^{\lambda t}\int_0^t\frac{u^n}{n!}\lambda^{n+1}e^{-\lambda u}du=e^{\lambda t}F_{n+1}(t)\]

On en déduit que :
\[\displaystyle e^{\lambda t}=\sum_{k=0}^n\frac{(\lambda t)^k}{k!}+e^{\lambda t}F_{n+1}(t)\]

En multipliant par \(e^{-\lambda t}\), on obtient alors :
\[\displaystyle F_{n+1}(t)=1-e^{-\lambda t}\sum_{k=0}^n\frac{(\lambda t)^k}{k!}\]

 

Lien entre \(F_{n+1}(t)\) et \(N(t)\)

Il faut maintenant utiliser la seule information qu’on a sur \(N(t)\) : sa définition.

\(N(t)\) est la variable égale au plus grand entier \(n\in\mathbb N\) tel que \(T_n\leq t\).

La suite \((T_n)_{n\in\mathbb N}\) étant strictement croissante, on a donc \(N(t)=n\) si et seulement si \(T_n\leq t\) et \(T_{n+1}>t\).

En termes d’événements, cela s’écrit :
\[(N(t)=n)=(T_n\leq t)\cap(T_{n+1}>t)\]

Or :
\[(T_{n+1}>t)=(T_n>t)\cup((T_n\leq t)\cap(T_{n+1}>t))=(T_n>t)\cup(N(t)=n)\]

Les deux événements \((T_n>t)\) et \((N(t)=n)\) étant incompatibles, en passant aux probabilités, on obtient :
\[1-F_{n+1}(t)=1-F_n(t)+P(N(t)=n)\]

D’où, finalement :
\[P(N(t)=n)=e^{-\lambda t}\sum_{k=0}^{n+1}\frac{(\lambda t)^k}{k!}-e^{-\lambda t}\sum_{k=0}^n\frac{(\lambda t)^k}{k!}=e^{-\lambda t}\frac{(\lambda t)^n}{n!}\]

On peut donc conclure que \(N(t)\) suit une loi de Poisson de paramètre \(\lambda t\).

 

Une question classique à ce sujet

Dans un sujet de concours, avant de te faire trouver la loi de \(N(t)\), on pourrait t’interroger sur une subtilité.

Ici, la variable \(N(t)\) est potentiellement mal définie : en effet, on peut imaginer qu’on puisse avoir pour tout \(n\in\mathbb N\), \(T_n\leq t\) : dans ce cas, parler de « plus grand entier \(n\in\mathbb N\) tel que \(T_n\leq t\) » n’a pas de sens, puisque \(T_n\leq t\) est vrai pour \(n\) aussi grand que l’on veut…

Pour contourner le problème, le sujet fera souvent quelque chose dans ce style.

 

Méthode 1

On pose la convention : \(N(t)=-1\) si pour tout \(n\in\mathbb N\), \(T_n\leq t\).

Avec cette convention, on a donc : \(N(t)(\Omega)=\{-1\}\cup\mathbb N\).

Or, en utilisant la valeur de la série exponentielle :
\[\displaystyle P(N(t)\in\mathbb N)=e^{-\lambda t}\sum_{k=0}^{+\infty}\frac{(\lambda t)^k}{k!}=1\]

Ainsi, la probabilité qu’il existe un entier \(n\in\mathbb N\) maximal pour lequel \(T_n\leq t\) est égale à 1.

En revanche, par passage au complémentaire : \(P(N(t)=-1)=0\), donc la probabilité que pour tout \(n\in\mathbb N\), \(T_n\leq t\) est nulle.

Autrement dit, si on se contente de la définition « \(N(t)\) est le plus grand entier \(n\in\mathbb N\) tel que \(T_n\leq t\) », alors la probabilité que \(N(t)\) soit mal définie vaut 0 (on dit qu’il est « quasi impossible » que \(N(t)\) soit mal définie).

 

Méthode 2

Avec Bienaymé-Tchebychev et le théorème de la limite monotone.

On remarque que :
\[\displaystyle (|T_n-\lambda n|\geq \lambda n-t)=(T_n-\lambda n\geq \lambda n-t)\cup(\lambda n-T_n\geq \lambda n-t)=(T_n-\lambda n\geq \lambda n-t)\cup(T_n\leq t)\supset(T_n\leq t)\]

De plus, par linéarité, \(E(T_n)=\lambda n\), et puisque les \((\Delta_k)_{k\in\mathbb N^*}\) sont indépendantes, \(V(T_n)=V(\Delta_1)+\cdots+V(\Delta_n)=\lambda n\).

D’après l’inégalité de Bienaymé-Tchebychev :
\[P(|T_n-\lambda n|\geq \lambda n-t)\leq \frac{\lambda n}{(\lambda n-t)^2}\]

Donc, d’après l’inclusion d’événements montrée précédemment :
\[P(T_n\leq t)\leq \frac{\lambda n}{(\lambda n-t)^2}\]

D’où, par encadrement : \(\lim_{n\to+\infty}P(T_n\leq t)=0\).

Enfin, on remarque que la suite \((T_n\leq t)_{n\in\mathbb N^*}\) est décroissante au sens de l’inclusion.

Donc, d’après le théorème de la limite monotone :
\[P\left(\bigcap_{n\in\mathbb N^*}(T_n\leq t)\right)=0\]

Ce qui prouve, de même, que la probabilité que pour tout \(n\in\mathbb N\), \(T_n\leq t\) est nulle.

 

Conclusion

Comme toutes les notions hors programme, un jour de concours, tu n’es pas censé(e) connaître ces résultats. Ce qui signifie que si tu tombes sur ce sujet, il faut savoir redémontrer tout ça ! Cependant, ne t’empresse pas d’apprendre par cœur cet article, ce serait une perte de temps.

Si tu veux t’entraîner sur le processus de Poisson, je te conseille plutôt de :

  • savoir refaire la récurrence effectuée précédemment pour déterminer une densité de \(T_n\) ;
  • bien comprendre le schéma de la « question classique » : pourquoi a priori a-t-on un problème et comment s’en sort-on ?
  • faire le sujet HEC maths II 2001 ECS, qui te fait démontrer tous les résultats précédents (sans parler explicitement du processus de Poisson), mais dans le cas particulier \(\lambda = 1\), ce qui simplifie beaucoup les calculs et permet de prendre du recul sur ce concept.

 

N’hésite pas à consulter toutes nos ressources mathématiques.