maths

Les calculs de limites de suites sont généralement assez simples : par encadrement, en utilisant des équivalents… Toutefois, il peut t’arriver, et notamment aux oraux (et surtout en question sur préparation), de devoir déterminer la limite d’une suite qui n’est franchement pas jolie à voir. Pour résoudre ce problème d’analyse, il peut être nécessaire d’utiliser des outils probabilistes. Notamment le théorème qui est considéré par beaucoup comme le plus important de la théorie des probabilités : le théorème central limite.

Je te propose de découvrir cette méthode qui sort des sentiers battus, mais qui te permettra de bluffer un jury dès la mention de l’idée, à travers l’étude d’un exemple.

Nous allons démontrer que \(\displaystyle \sum_{k=0}^{n} \frac{n^k}{k!}\underset{+\infty}{\sim} \frac{e^n}{2}\).

Avant-propos

Avant de commencer la démonstration, tu auras peut-être remarqué l’originalité de la suite que l’on étudie. On ne peut pas traiter ce sujet comme un calcul de somme de série, car il y a du \(n\) dans les bornes de la somme, mais aussi dans les termes de la somme.

Il est donc difficile de s’imaginer une façon de trouver directement l’équivalent demandé. Et le piège consisterait à voir dans cette question un problème d’analyse. De manière générale, il ne faut pas voir l’algèbre, l’analyse et les probabilités comme des matières indépendantes. Les outils d’algèbre peuvent par exemple te servir en probabilités.

Dans notre cas, nous allons utiliser les outils du programme de probabilité pour déterminer cet équivalent.

La première intuition

En observant un peu les objets que l’on va manipuler, tu pourrais reconnaître une loi usuelle. En fait, montrer que \(\displaystyle \sum_{k=0}^{n} \frac{n^k}{k!}\underset{+\infty}{\sim} \frac{e^n}{2}\), c’est équivalent à montrer que \(\displaystyle \sum_{k=0}^{n} \frac{n^ke^{-n}}{k!}\underset{+\infty}{\sim} \frac{1}{2}\).

Attardons-nous un peu sur le terme de gauche dans cette équivalence. Si l’on note \(X_n\) une variable aléatoire de loi de Poisson de paramètre \(n\) (on note donc \(X_n \hookrightarrow \mathcal{P}(n)\)), on peut remarquer que \(\displaystyle \sum_{k=0}^{n} \frac{n^ke^{-n}}{k!}=\sum_{k=0}^{n} P(X_n=k)=P(X_n \le n)\).

Cette nouvelle écriture nous aide énormément, puisque nous allons alors démontrer que \(\lim \limits_{n \to +\infty} P(X_n \le n)=\frac{1}{2}\), soit encore que \(\lim \limits_{n \to +\infty} P(X_n -E(X_n) \le 0)=\frac{1}{2}\), car si \(X_n \hookrightarrow \mathcal{P}(n)\), \(X_n\) possède une espérance qui vaut \(n\) d’après le cours.

Tu sens peut-être que nous nous rapprochons de quelque chose qui nous est bien plus familier : le théorème central limite.

La mise en place du théorème central limite

Rappel de cours

Pour mettre en place le théorème central limite, nous avons besoin de cinq éléments, que je vais mettre en gras : une somme de variables aléatoires, indépendantes, identiquement distribuées, ce qui veut dire de même loi (on réunit généralement ces deux points sous l’acronyme « IID »), qui possèdent une espérance et une variance non nulle.

En notant \(S_n\) cette somme, on a, d’après le théorème central limite, \(\frac{S_n-E(S_n)}{\sqrt{V(S_n)}}\overset{\mathcal{L}}{\rightarrow} N\), où \(N \hookrightarrow \mathcal{N}(0,1)\).

Expliciter le théorème central limite

Pour pouvoir utiliser le théorème central limite dans notre exercice, nous devons expliciter une somme de variables aléatoires. Car il y a bien une somme ! Mais elle est implicite.

Tu sais peut-être que d’après le cours, la loi de Poisson est dite « stable par convolution ». Cela signifie que la loi de la somme de deux variables aléatoires indépendantes de loi de Poisson est de Poisson. Ce résultat se généralise par récurrence.

Autrement dit, si \(\forall i \in [\![1,n]\!], Y_i \hookrightarrow\mathcal{P}(1)\), où les \(Y_i\) sont indépendantes, \( \displaystyle \sum_{i=1}^{n}Y_i \hookrightarrow\mathcal{P}(n)\).

On peut donc écrire \(X_n\) comme une somme de variables aléatoires indépendantes, de même loi (de Poisson de paramètre 1) qui possèdent une espérance et une variance non nulle (d’après le cours, si \(X \hookrightarrow
\mathcal{P}(\lambda)\), \(X\) possède une espérance et une variance, toutes deux égales à \(\lambda\)).

Ainsi, d’après le théorème central limite,

\(\frac{X_n-E(X_n)}{\sqrt {V(X_n)}}\overset{\mathcal{L}} {\rightarrow} N\) où \(N\) est de loi normale centrée réduite.

Cela signifie en particulier que \(\lim \limits_{n \to +\infty} P(\frac{X_n-E(X_n)}{\sqrt{V(X_n)}} \le 0)= \Phi(0)=\frac{1}{2}\).

Or, \(P(\frac{X_n-E(X_n)}{\sqrt{V(X_n)}} \le 0)=P(\ {X_n-E(X_n)} \le 0)\), car \(\sqrt{V(X_n)} >0\).

Donc, \(\lim \limits_{n \to +\infty} P({X_n-E(X_n)} \le 0)=P({X_n-n} \le 0) =\Phi(0)=\frac{1}{2}\).

Conclusion

D’après ce qui a été fait précédemment, on a donc \(\lim \limits_{n \to +\infty} \displaystyle \sum_{k=0}^{n} \frac{n^ke^{-n}}{k!}=\frac{1}{2}\). Ce qui peut aussi s’écrire \( \displaystyle \sum_{k=0}^{n} \frac{n^ke^{-n}}{k!} \underset{\infty}{\sim}\frac{1}{2}\).

Il nous reste simplement à multiplier par \(e^n\) des deux cotés pour obtenir le résultat demandé :
\(\displaystyle \sum_{k=0}^{n} \frac{n^k}{k!} \underset{\infty}{\sim}\frac{e^n}{2}\).

Comment reconnaître des cas similaires ?

Tu l’auras compris, cette méthode est très élégante et saura impressionner un jury si tu parviens à la mettre en place. Toutefois, il ne faut pas en abuser. Cette méthode ne sert que dans un cas très spécifique. Pour éviter de tenter cette méthode lorsque cela n’a pas lieu d’être, il faut savoir reconnaître ce cas.

Déjà, il est important de voir que cette méthode peut servir à calculer des limites de somme, comme nous l’avons fait dans notre exemple, mais aussi des limites d’intégrale, dans le cas où les variables aléatoires en jeu sont à densité.

Les indices qui peuvent te pousser à tenter cette méthode sont au nombre de trois :

  • il y a du \(n\) à la fois dans les bornes de la somme (ou de l’intégrale) et dans les termes de la somme (ou dans l’intégrande) ;
  • tu reconnais vaguement quelque chose qui ressemble à une loi de variable aléatoire ;
  • cette loi est stable par convolution.

Si tu veux aller voir nos autres articles de mathématiques, c’est par ici !