Les Ehrenfest viennent en aide à Boltzmann
Publié le 14/09/2015
Résumé

Cet article a pour but de souligner l'intérêt des résultats sur les chaînes de Markov dans le contexte de la cinétique des gaz. Les notions seront abordées progressivement dans un souci d'apporter un maximum d'intuition tout en évitant un excès de formalisme.

L'étude que je propose repose sur la question inhabituelle suivante : vous êtes en train de cuisiner et vous mettez au four la tarte que vous venez de préparer. Un moment d'inattention et quelques événements imprévus... vous oubliez votre préparation. Le drame se produit ! Déjà, trop tard ! votre œuvre est carbonisée et votre logement est enfumé. Comme vous le faites habituellement, vous vous précipitez et vous ouvrez toutes les fenêtres. En pensant bien faire, vous vous dites : « pour aérer, il suffit que je laisse mes fenêtres ouvertes le plus longtemps possible. » Est-ce une erreur ? Prenez-vous le risque que la fumée revienne en laissant vos fenêtres ouvertes trop longtemps ?

Dans cet article nous allons essayer de répondre à cette question. Pour y parvenir, nous essayerons d'analyser avec un maximum d'intuition les phénomènes liés au temps d'attente.

La plupart des notions abordées pourront être réutilisées dans l'introduction des probabilités au collège, au lycée et faire l'objet de sujets détaillés dans l'enseignement supérieur. Ce thème pourrait également faire l'objet d'une approche pluridisciplinaire. La dernière partie propose une activité pour le collège, un sujet détaillé niveau lycée et un sujet niveau supérieur reprenant pas à pas la démonstration d'un des principaux théorèmes.

Les Ehrenfest viennent en aide à Boltzmann

 


Auteur : Alexandre Marino, Lycée Joffre (Montpellier)

Mots-clefs : Probabilités, Chaîne de Markov, Cinétique des gaz

Cet article est disponible au format pdf.


Sommaire


A. Utilisation en classe et liens

Cet article a pour objectif de découvrir des phénomènes liés au temps d'attente. Pour cela nous allons effleurer sans approfondir des théories qui pourraient faire l'objet d'un ou plusieurs articles ou livres. Pour éviter une quelconque frustration du lecteur je vous propose des liens vers des documents qui vous permettront de répondre à la plupart de vos attentes. Je vous suggère également de suivre les liens pour découvrir des animations utilisables en classe qui permettent de mettre en évidence la beauté des phénomènes étudiés.

Les animations. Cette liste n'est pas exhaustive et n'est qu'indicative.

Pour compléter ce texte, je vous propose de visionner une vidéo de Laure Saint-Raymond, professeure à l'École Normale Supérieure. Elle n'est pas nécessaire pour la lecture et la compréhension de ce document et peut paraître éloignée du sujet étudié. Elle a principalement l'avantage de proposer de manière élégante les problèmes liés à la cinétique des gaz et de souligner l'aspect historique des phénomènes abordés. Une belle preuve une fois de plus que les mathématiques sont bel et bien vivantes !

Rencontre autour des mathématiques : l'irréversibilité, une histoire de probabilités

B. Attendre pour estimer une probabilité

1. Introduction

L'approche usuelle, suggérée par les programmes officiels, permettant de définir la probabilité d'un événement repose sur l'approche fréquentiste. Ce point de vue basé sur la fameuse « loi des grands nombres » ne laisse pas à première vue beaucoup de latitude quand à la définition de la probabilité de la réalisation d'un événement.

Nous pourrions, en poussant le vice, penser que la probabilité d'un événement est définie de manière non ambiguë et impose par nature une unique approche. Nous pouvons lire dans de nombreux manuels la phrase « déterminer la probabilité de... » sans pour autant en définir le sens. Comme si la probabilité considérée était implicitement celle à laquelle nous pensons tous. Mais à quoi pensons-nous ? ou même : en quoi croyons-nous ?

Nous pourrions envisager une approche différente dite « bayésienne » basée sur la croyance1. Voilà un bien grand mot !

Un exemple simple pour s'en convaincre. Nous sommes amis, je vous propose de jouer avec moi à Pile ou Face en suivant les règles suivantes : si la pièce tombe sur Pile vous me donnez 1 euro et dans le cas contraire je vous donne 1 euro.

Confiant, vous allez jouer en pensant implicitement que cette pièce est équilibrée. Nous pourrions introduire dans ce cas la notion de croyance a priori ou de probabilité de réalisation a priori. Mais rien ne permet de croire que cette pièce est équilibrée... comment s'en convaincre ?

Il suffit de se ramener à l'approche fréquentiste et lancer la pièce un nombre de fois suffisant. Comment allez vous réagir ? Au bout de 10 lancers, la liste des résultats va vous permettre de reviser votre croyance et d'aborder le jeu sous un autre angle. Nous abordons ici la notion de probabilité conditionnelle et de probabilité a posteriori.

Nous procédons de la sorte dans la plupart des situations rencontrées (par exemple : revision des croyances suite à la publication d'une analyse statistique sur les thèmes comme les maladies, les accidents de la route, économie, etc.)

Cette approche souligne la difficulté de proposer une unique approche concernant la définition d'une probabilité. Ce constat est probablement à l'origine de l'engouement pour le formalisme et l'axiomatique de Kolmogorov de la part des mathématiciens pour définir la notion de probabilité.

Cet article n'a pas pour but de revenir sur cette belle théorie, mais d'en extraire sur un exemple une interprétation en terme de « temps d'attente » de la notion de probabilité.

2. Un exemple fondamental

Cette approche repose sur un exemple simple : nous jouons à une machine à sous avec l'espoir non dissimulé d'obtenir un triple 7. Comment évaluer la probabilité de ce triple 7 pour connaître notre espérance de gain ?

Nous pourrions proposer une approche fréquentiste et dire que chaque rouleau peut proposer 10 symboles et par conséquent nous aurions une probabilité de réalisation de $\displaystyle \frac{1}{10^3}$. À l'aide de ce résultat, combien de parties à 1 euro sommes nous prêts à effectuer pour espérer gagner ?

À l'aide de l'analyse précédente nous sommes prêts à répondre $10^3$ parties. Nous constatons que le calcul de la probabilité n'est pas directement lié au temps d'attente nécessaire pour l'obtention du triple 7. Pourrions-nous proposer une approche plus adaptée ?

Pour faire un lien direct avec l'effort financier à effectuer nous pourrions considérer que la probabilité d'obtenir un triple 7 est inversement proportionnelle au temps d'attente pour l'obtenir. Est-ce que nous obtenons le même résultat ?

Nous proposons pour cela la modélisation suivante : nous considérons une suite d'expériences indépendantes et nous notons $X$ la variable aléatoire associée au temps d'attente du premier succès. Nous introduisons l'événement succès : l'événement « triple 7 » de probabilité $\displaystyle p=\frac{1}{10^3} $. La variable $X$ suit une loi géométrique2 de paramètre $p$.

En particulier son espérance est égale à $\displaystyle \frac{1}{p}=10^3$.

Si $X$ suit une loi géométrique de paramètre $p$ alors $E[X]=\displaystyle \frac{1}{p}$.

Nous pouvons traduire ce résultat de la manière suivante :

Si $A$ est un événement et $T$ la variable aléatoire associée au temps d'attente de la première réalisation de $A$ alors la probabilité de $A$ est $P(A)=\displaystyle \frac{1}{E[T]}$.

Nous proposons ainsi une nouvelle approche qui va s'avérer simple et efficace.

C. Vers les chaînes de Markov

1. Introduction

1.1. Généralités

Même si l'exemple précédent révèle l'importance de cette approche il est nécessaire dans un premier temps de généraliser le contexte pour espérer capter le plus grand nombres de phénomènes physiques, économiques, etc.

Le contexte retenu. Nous considérons un récipient (ce choix n'est pas anodin !) supposé à un état initial noté $e_0$ (par exemple : vide). Nous offrons la possibilité à ce récipient de changer d'état au cours du temps et nous notons $\{e_0,\cdots, e_N\} $ (avec $N\in \mathbb{N}^*$) l'ensemble des états possibles.

Nous imposons une probabilité de transition en notant, pour tout $i,j$ dans $[\![0,N]\!]$, $a_{i,j}$ la probabilité que le récipient passe de l'état $i$ à l'état $j$. Nous remarquons en particulier que cette transition ne dépend pas de l'étape à laquelle nous nous trouvons et donc du temps.

Afin de proposer une représentation précise nous noterons $Y_n$ le vecteur de $\mathbb{R}^{N+1}$ dont la $k$-ième coordonnée est la probabilité que le récipient soit dans l'état $k$ à l'instant $n\in \mathbb{N}$. Par hypothèse, $Y_0$ est donné par la matrice ligne $Y_0=\left(\begin{array}{c} 1\ , \ 0 \ , \ \cdots \ , 0 \end{array}\right)$.

Comment « lier » $Y_{n+1}$ et $Y_n$ ? En fixant $n$ un entier naturel correspondant à un instant, la description du modèle nous impose de reviser nos croyances sur l'état du récipient à l'instant $n+1$. En notant, pour tout $n\in \mathbb{N}$, $$Y_n=\left(\begin{array}{c} y^0_n\ , \ y^1_n \ , \ y^2_n \ , \ \ldots \ , y^N_n \end{array}\right),$$ la formule des probabilités totales3 nous donne4 $$\left\{ \begin{array}{cccc} y^0_{n+1}&=& a_{0,0}y^0_{n}+a_{1,0}y^2_n+\cdots +a_{N,0}y^N_n\\ y^1_{n+1}&=& a_{0,1}y^0_{n}+a_{1,1}y^2_n+\cdots +a_{N,1}y^N_n\\ & \vdots &\\ y^N_{n+1}&=& a_{0,N}y^0_{n}+a_{2,N}y^2_n+\cdots +a_{N,N}y^N_n. \end{array}\right. $$ En notant $A$ la matrice carrée de taille $N+1$ définie par $A=(a_{i,j})_{i,j\in [\![0,N]\!]}$ nous obtenons directement l'égalité : pour tout $n$ entier naturel, $$ Y_{n+1}=Y_nA.$$ La matrice $A$ sera appelée « matrice de transition » du processus ou de la chaîne de Markov. Ce qui nous mène à

Si $(Y_n)_{n\in \mathbb{N}}$ est un processus associé à la matrice de transition $A$, alors, pour tout $n$ entier naturel, $Y_n=Y_0A^n$.

Nous pouvons en particulier remarquer que l'analyse du phénomène probabiliste nous dirige vers l'étude d'un système dynamique. Cette description contient une idée importante que nous résumerons par le schéma suivant.

Un processus probabiliste $\Rightarrow$ un système dynamique.

Les questions que nous suggérons sont les suivantes :

  • Existe-t-il une situation d'équilibre ?
  • Est-ce que le récipient revient un jour à l'état initial ?
  • En combien de temps ?

Les urnes d'Ehrenfest : premier contact

Nous considérons deux urnes $U_1$ et $U_2$ séparées par une membrane poreuse qui permettent à des particules de passer d'une urne à l'autre. Nous considérons à l'origine que l'urne $U_1$ contient $N\in \mathbb{N}^*$ particules. Celles-ci se déplacent au cours du temps d'une urne à l'autre en respectant le procédé suivant :

À chaque instant, nous choisissons de manière équiprobable une particule et nous la transférons dans l'urne qui ne la contenait pas.

Nous nous intéressons à l'état de l'urne $U_1$ au cours du temps. Nous considérerons $Y_n$ le vecteur de taille $N+1$ donné par $$Y_n=\left(\begin{array}{c} y^0_n\ ,\ y^1_n \ , \ y^2_n \ , \ \cdots \ , y^N_n \end{array}\right) $$ tel que pour tout $k\in [\![0,N]\!]$,

$y^k_n$ est la probabilité que l'urne $U_1$ contienne $k$ particules à l'étape $n$.

Il nous suffit de déterminer les transitions : soit $i\in [\![1,N-1]\!]$ ; si l'urne $U_1$ contient $i$ particules à l'étape $n$ l'étape d'après l'urne $U_1$ contient $i-1$ ou $i+1$ particules. Plus précisément, l'urne $U_1$ passe de $i$ à $i-1$ particules en transférant une particule dans l'urne $U_2$ avec probabilité $$\frac{i}{N} \text{(nombre de particules dans $U_1$ à l'étape $n$ sur le nombre total de particules)}.$$

De même l'urne $U_1$ passe de $i$ à $i+1$ particules en transférant une particule de l'urne $U_2$ dans l'urne $U_1$ avec probabilité $\displaystyle\frac{N-i}{N}=1-\displaystyle\frac{i}{N}$. Nous obtenons ainsi : $$\begin{cases} \forall i \in [\![1,N]\!], & p_{i,i-1}=\displaystyle\frac{i}{N}\\ \forall i \in [\![0,N-1]\!], & p_{i,i+1}=1-\displaystyle\frac{i}{N}. \end{cases}$$

Ce qui donne la matrice de transition de taille $N+1$ suivante : $$A=\begin{pmatrix} 0 & 1 & 0 & \cdots &\cdots &\cdots & 0 \\ \frac{1}{N} & 0 &1-\frac{1}{N}& & & &\vdots \\ &\ddots &\ddots & \ddots & & &\vdots \\ \vdots &&\frac{i}{N} &0 & 1-\frac{i}{N}&&\vdots \\ \vdots & &&\ddots & & \ddots& \vdots \\ \vdots & & &&1-\frac{1}{N} &0 & \frac{1}{N}& \\ 0 & \cdots & \cdots & \cdots &\cdots &1 & 0 \\ \end{pmatrix}.$$

Par exemple, pour 3 particules la matrice de transition est $$A=\begin{pmatrix} 0 & 1 & 0 & 0 \\ \displaystyle\frac{1}{3} & 0 & \displaystyle\frac{2}{3} & 0 \\ 0 & \displaystyle\frac{2}{3} & 0 & \displaystyle\frac{1}{3} \\ 0 & 0 & 1 & 0 \\ \end{pmatrix}.$$

Nous avons pour tout entier naturel $n$, $Y_{n}=Y_0A^n$.

Les questions deviennent

Existe-t-il une situation d'équilibre ? Est-ce l'équilibre thermodynamique attendu ? Est-ce que les particules reviennent toutes à un instant dans l'urne $U_1$ ?

Pour plus de clarté, nous pouvons traduire la deuxième question par :

Votre logement est enfumé. Vous ouvrez les fenêtres pour laisser s'échapper la fumée. Est-ce que vous prenez le risque que la fumée revienne en laissant vos fenêtres ouvertes ?

2. Formalisation du problème

Nous notons, pour tout entier naturel $n$, $X_n$ la variable associée à l'état du récipient au temps $n$.

$P(X_n=k)$ est la probabilité que l'urne $U_1$ contienne $k$ particules à l'étape $n$.

Le lien avec la partie précédente se fait à l'aide de l'écriture $$Y_n=( P(X_n=0), \ \cdots, P(X_n=N)).$$ Nous précisons qu'il ne s'agit pas là d'une volonté de complexifier l'exposé mais bien au contraire de proposer une approche basée sur l'interprétation des états successifs du récipient parfaitement représentés par la suite de variables aléatoires $(X_n)_{n\in \mathbb{N}}$. Le vocabulaire associé est le suivant :

La suite $(X_n)_{n\in \mathbb{N}}$ est une chaîne de Markov de matrice de transition $A$.

Nous pouvons traduire les questions précédentes de la manière suivante :

  1. Est-ce qu'il existe une configuration d'équilibre ? Autrement dit, peut-on trouver $\pi=(\pi_0,\cdots , \pi_N)\in (\mathbb{R}^+)^{N+1}$ tels que $\sum_{i=0}^{n}\pi_i=1$ et $\pi A=\pi$.

     

    Ce qui se traduit par : si nous choisissons l'état initial du récipient à l'aide d'un tirage au sort tel que la probabilité d'être dans l'état $k$ est $\pi_k$ alors à l'instant suivant la probabilité que le récipient soit à l'état $k$ est $\pi_k$.

  2. Est-ce qu'il y a convergence vers cette situation d'équilibre ?

    Sous réserve d'existence de la distribution $\pi$, est-ce que pour tout $k\in [\![0,N]\!]$, $$P(X_n=k)\xrightarrow[n\to +\infty]{} \pi_k ?$$

    Variante5 : sous réserve d'existence de la distribution $\pi$, est-ce que pour tout $k\in [\![0,N]\!]$, la fréquence moyenne de passage à l'état $k$ converge vers $\pi_k$ ?

    En notant $\mathbf{1}_{X_i=k}$ la variable aléatoire de Bernoulli associée à l'événement succès $[X_i=k]$ la fréquence de passage à l'état $k$ sur les $n$ premières étapes s'écrit $\displaystyle\frac{1}{n}\sum_{i=0}^{n-1}\mathbf{1}_{X_i=k}$ et la question devient ainsi : $$E\left[\displaystyle\frac{1}{n}\sum_{i=0}^{n-1}\mathbf{1}_{X_i=k}\right] =\displaystyle\frac{1}{n}\sum_{i=0}^{n-1}P(X_i=k)\xrightarrow[n\to+\infty]{?}\pi_k.$$

  3. Sous les conditions précédentes, comment interpréter cette distribution limite ? Quel est le lien entre le temps d'attente du premier retour à l'état $k$ et la valeur $\pi_k$ ?

3. Une hypothèse sur les transitions

Avant d'envisager une approche « théorique » et de proposer les résultats associés à notre problématique, nous allons revenir sur les conditions que nous aimerions imposer à la matrice $A$.

\begin{eqnarray*} A=& \begin{pmatrix} \cdots & & \cdots \\ \cdots & & \cdots \\ &p_{i,j} &\\ \cdots & & \cdots \\ \cdots & & \cdots \\ \end{pmatrix}.\\ & \uparrow\\ & \text{probabilité de passer de $i$ à $j$ en une étape} \end{eqnarray*}

Nous obtenons par itération que pour tout entier $n$, \begin{eqnarray*} A^n=& \begin{pmatrix} \cdots & & \cdots \\ \cdots & & \cdots \\ &p_{i,j,n} &\\ \cdots & & \cdots \\ \cdots & & \cdots \\ \end{pmatrix}.\\ & \uparrow\\ & \text{probabilité de passer de $i$ à $j$ en $n$ étapes} \end{eqnarray*}

Nous allons imposer à notre modèle que

tous les états communiquent :
Pour tout $i,j\in [\![0,N]\!]$, il existe un entier naturel $n\in \mathbb{N}$ tel que $p_{i,j,n}>0$.

Cette condition sera vérifée pour le modèle des urnes d'Ehrenfest.

Dans ce cas, nous conviendrons du vocabulaire suivant.

La chaîne de Markov $(X_n)_{n\in \mathbb{N}}$ de matrice de transition $P$ est dite irréductible.

Nous remarquons en effet que la chaîne de Markov des urnes d'Ehrenfest est bien irréductible. Pour passer de l'état $k$ à un état $i$ il suffit de rajouter ou d'enlever $k-i$ particules (en $\vert k-i\vert $ étapes) à l'urne $U_1$. Les états communiquent donc tous.

D. Un peu de théorie

1. Existence et unicité d'une loi limite

Théorème 1 : existence et unicité d'une situation d'équilibre.
Soit $A$ une matrice de transition associée à une chaîne de Markov irréductible.

  • L'ensemble des vecteurs $\pi$ tels que $\pi = \pi A$ est un espace vectoriel de dimension $1$.
  • Il existe un unique $\pi=(\pi_0, \ldots, \pi_N)$ tel que
    • Pour tout entier naturel $i\in [\![0,N]\!]$, $\pi_i>0$.
    • $\sum_{i=0}^{n}\pi_i=1$.
    • $\pi = \pi A$.

L'unique distribution $\pi $ est appelée distribution stationnaire associée à $A$.

Théorème 2 : un comportement limite.
Soit $(X_n)_{n\in \mathbb{N}}$ une chaîne de Markov irréductible de distribution stationnaire $\pi$. Nous avons le comportement asymptotique suivant.

Pour tout état $k\in [\![0,N]\!]$, la fréquence moyenne de passage à l'état $k$ converge vers $\pi_k$, ce que nous pouvons traduire par $$E\left[\displaystyle\frac{1}{n}\sum_{i=0}^{n-1}\mathbf{1}_{X_i=k}\right] =\displaystyle\frac{1}{n}\sum_{i=0}^{n-1}P(X_i=k)\xrightarrow[n\to +\infty]{}\pi_k.$$

Un très beau résultat à ne pas s'y tromper.6 Que contient-il ?

  1. Le mode de convergence ?

    Avant d'approfondir cette question, une précision sur la convergence obtenue s'impose : peut-on espérer la convergence de la suite $(P(X_n=i))_{n\in \mathbb{N}}$ vers $\pi_i$ ?

    Prenons l'exemple des urnes d'Ehrenfest dans le cas très particulier d'une seule particule $N=1$. Dans ce cas, le phénomène proposé est clairement déterministe. Nous souhaitons souligner qu'une hypothèse supplémentaire est nécessaire même dans un cas aussi simple.

    En considérant que l'urne $U_1$ contient la particule à l'origine nous obtenons que pour tout entier naturel $n$ $$P(X_{2n}=1)=1 \text{ et } P(X_{2n+1}=1)=0.$$ La suite $(P(X_n=1))_{n\in \mathbb{N}}$ ne peut donc pas converger !

    Quel est le problème ? la possibilité d'une « périodicité ».

    Nous ne perdons pas la convergence des fréquences : dans ce cas $$E\left[\displaystyle\frac{1}{n}\sum_{i=0}^{n-1}\mathbf{1}_{X_i=1}\right] =\displaystyle\frac{1}{n}\sum_{i=0}^{n-1}P(X_i=1)\xrightarrow[n\to +\infty]{}\displaystyle\frac{1}{2}.$$ Les fréquences que nous pouvons interpréter comme des barycentres permettent d'absorber les phénomènes de périodicité.

    Pour espérer une convergence des $(P(X_n=k))_{n\in \mathbb{N}}$ vers $\pi_k$ nous devons donc rajouter une hypothèse.

    Une condition suffisante d'absence de « périodicité » ?

    Comme nous venons de le constater la condition d'irréductibilité de la chaîne n'est pas suffisante. Ainsi, il ne suffit pas que « tous les états communiquent »7 pour éviter l'aspect périodique. Nous pourrions par exemple contrôler le temps de « communication » en supposant que :

    « tous les états communiquent en $n_0$ étapes »

    Ce qui impose en particulier que lorsque les $n_0$ étapes se sont écoulées, tous les états peuvent se produire à chaque instant avec probabilité strictement positive. Ce qui évite ainsi tout phénomène de périodicité.

    Nous dirons que la chaîne de Markov est apériodique lorsque 8

    Il existe un entier naturel $n_0\in \mathbb{N}$ tel que pour tout $i,j\in [\![0,N]\!]$, $p_{i,j,n_0}>0$.

     

    Nous obtenons ainsi

    Théorème 2 bis : un comportement limite.
    Soit $(X_n)_{n\in \mathbb{N}}$ une chaîne de Markov irréductible apériodique de distribution stationnaire $\pi$. Alors, pour tout entier $k\in [\![0,N]\!]$, $$P(X_n=k)\xrightarrow[n\to +\infty]{} \pi_k.$$

    Je propose au lecteur de consulter le cours [Vel] pour des définitions claires et précises.

    Les preuves des résultats précédents9 sont proposées sous forme d'un sujet détaillé à la fin de l'article.

  2. Où est la distribution initiale ?

    Le résultat le plus remarquable qui est masqué dans l'énoncé précédent est lié à la condition initiale

    • La convergence ne dépend pas de la loi de $X_0$ ou du vecteur $(P(X_0=0), \cdots, P(X_0=N))$.
    • La limite ne dépend pas de la loi de $X_0$.

    Ce que nous pouvons traduire par : quelle que soit la distribution initiale, la distribution finale sera la même.

  3. Une première interprétation de la distribution stationnaire ?

    L'approche fréquentiste est de retour... Ce résultat corrobore l'approche usuelle en termes de fréquences que nous proposons pour la définition de la probabilité d'un événement. Nous serions donc tenté d'affirmer que

    $\pi_k$ est la probabilité de l'événement « le récipient est dans l'état $k$ ».

    Cette définition nous semble naturelle et classique. En revanche, une interprétation en lien avec la dynamique d'évolution proposée dans la formalisation ne semble pas évidente. Comme nous l'avons effectué pour l'expérience du « triple 7 », pourrions nous proposer une approche adaptée ?

  4. Il manque deux « détails » pour compléter le tableau :
    • Comment interpréter la distribution $\pi$ en termes de temps d'attente ?
    • Comment expliciter la distribution $\pi$ ?

2. La distribution stationnaire

2.1. Comment la trouver ?

L'un des résultats directement issu de l'analyse précédente est10 :

Corollaire : réversibilité.
Soit $A$ une matrice associée à une chaîne de Markov irréductible. Si $\pi $ est un vecteur de coordonnées positives vérifiant $$\forall i , j \in [\![0,N]\!], \pi_ia_{i,j}=\pi_ja_{j,i},$$ alors $\pi$ est la distribution stationnaire de $A$.

Concernant les urnes d'Ehrenfest, quelle est cette distribution ? Nous pouvons évidemment procéder intuitivement, quelle serait cette distribution d'équilibre ?

Pour chacune des $N$ particules, afin de respecter le rôle symétrique des urnes, nous proposons de choisir l'urne dans laquelle nous allons la placer en lançant une pièce équilibrée. Sur Pile la particule sera positionnée initialement dans $U_1$ et sur Face dans $U_2$.

Pour $\pi_k$, nous proposons que $\pi_k$ soit la probabilité que l'urne $U_1$ contienne $k$ particules parmi $N$. Nous opterions ainsi pour que la distribution stationnaire soit une distribution binomiale de paramètre $\left(N,\displaystyle\frac{1}{2}\right)$. Le facteur $\displaystyle\frac{1}{2}$ correspond à l'équiprobabilité de choisir l'urne dans laquelle nous mettrons la particule. Nous envisageons ainsi que pour tout entier $k\in [\![0,N]\!]$, $$\pi_k=\displaystyle\frac{1}{2^N}\binom{N}{k}.$$

Il suffit de vérifier que cette distribution convient. Nous obtenons ainsi que

Urne d'Ehrenfest 1.
La distribution stationnaire est donnée par : pour tout $k\in [\![0,N]\!]$, $$\pi_k=\displaystyle\frac{1}{2^N}\binom{N}{k}.$$

Nous remarquons que lorsque $N=1$ nous retrouvons $\pi_1=\displaystyle\frac{1}{2}$.

2.2. Comment l'interpréter ?

Nous nous trouvons sur la question la plus sensible de l'article : comment interpréter ce résultat ? L'approche à l'aide d'un temps d'attente va prendre tout son sens à la lecture du théorème suivant.

Théorème 3 : distribution stationnaire inversement proportionnelle au temps d'attente du premier retour.
Soit $(X_n)_{n\in \mathbb{N}}$ une chaîne de Markov irréductible de distribution stationnaire $\pi$. Nous notons, pour tout entier $i\in [\![0,N]\!]$, $T_i$ la variable aléatoire associée au temps d'attente du premier retour à l'état $i$. Nous avons alors les égalités $$ \text{pour tout entier $i\in [\![0,N]\!]$, } \pi_i=\displaystyle\frac{1}{E[T_i]}.$$

Nous pouvons proposer comme dans l'introduction de cet article deux lectures de ce résultat.

  1. La première consiste à obtenir une interprétation de cette probabilité limite et d'en déduire le comportement asymptotique des fréquences moyennes de passage en un état donné.
  2. La deuxième consiste à renverser l'égalité obtenue et d'en déduire l'espérance du temps d'attente du premier retour.
    L'espérance du premier retour à l'état $k$ est donné par $E[T_k]=\displaystyle\frac{1}{\pi_k}$.

Nous obtenons en particulier le résultat pour les urnes d'Ehrenfest :

Urne d'Ehrenfest 2.
En considérant que l'urne $U_1$ contient initialement $k$ particules sur un total de $N$, l'espérance du premier retour à l'état initial est de $\displaystyle\frac{2^N}{\binom{N}{k}}$.

E. Les Ehrenfest viennent en aide à Boltzmann

Sans rentrer dans les détails des résultats de thermodynamique et de cinétique des gaz nous pouvons considérer que les problématiques se placent à deux échelles :

  • une échelle macroscopique : description des équilibres thermodynamiques.
  • une échelle microscopique : description des dynamiques d'évolution des particules.

Sont-elles contradictoires ?

Les résultats fondamentaux de thermodynamique permettent d'affirmer que si l'on place toutes les particules d'un gaz dans une urne $U_1$ qui communique par une membrane poreuse avec une urne $U_2$ alors les particules vont progressivement se redistribuer dans les deux urnes jusqu'à atteindre une situation d'équilibre dans laquelle les deux urnes sont thermodynamiquement équivalentes.

Notre enfance scientifique a été bercée par les fameux principes de la thermodynamique11 qui légitiment cette approche. Boltzmann12 complète l'analyse en ajoutant que l'entropie du système est une fonction croissante du temps et qu'elle atteint son maximum à l'équilibre.13 Avant de passer à l'aspect contradictoire, nous pouvons constater que la distribution stationnaire limite obtenue dans l'analyse précédente corrobore cette analyse. En effet,

Équilibre thermodynamique.
Nous rappelons que pour tout $k\in [\![0,N]\!]$, $\pi_k= \displaystyle\frac{1}{2^N}\binom{N}{k}$. Le poids maximal sur la distribution stationnaire limite est atteinte pour la valeur $k=\displaystyle\frac{N}{2}$. L'équilibre thermodynamique est atteint lorsque les deux urnes contiennent $N/2$ particules.

Les urnes du couple Ehrenfest sont en adéquation avec ce constat thermodynamique.

Venons-en au problème. Ernst Zermelo14 questionna Ludwig Bolzmann sur les contradictions que soulevait cette interprétation15 Zermelo opposa à Bolzmann que son interprétation macroscopique n'était pas en accord avec les lois microscopiques sur la dynamique des particules. En effet, les particules et donc l'urne initialement vide étaient vouées à revenir à un instant donné à son état d'origine.

À la question posée :

Votre logement est enfumé. Vous ouvrez les fenêtres pour laisser s'échaper la fumée.
Est-ce que vous prenez le risque que la fumée revienne en laissant vos fenêtres ouvertes ?
La réponse serait-elle OUI ?

Quelle fut la réponse de Boltzmann ? Il affirma qu'il était effectivement possible qu'un retour à l'état initial se produise mais que ce temps de retour serait trop long pour que nous puissions l'observer.

C'est en ce sens que le couple Ehrenfest16 vient en aide à Boltzmann. Le modèle permet en effet de justifier techniquement la réponse de Boltzmann à Zermelo. Nous obtenons par exemple pour le cas de la fumée. En notant $N$ le nombre de particules de fumée présentes dans votre logement en ouvrant les fenêtres la communication va s'effectuer avec l'extérieur jusqu'à l'équilibre thermodynamique auquel votre logement est aéré.

D'après l'étude précédente le temps de premier retour à l'état initial « logement enfumé » est égal à $$E[T_0]= 2^N \text{ unités de temps}.$$

En considérant par exemple $N= 6\times 10^{23}$ égal à la constante d'Avogadro qui est égal au nombre de molécules dans une mole de gaz, nous obtenons un temps d'attente gigantesque. Plus précisément nous obtenons ainsi en considérant une échelle de temps de $10^{-5}$ seconde que le temps de premier retour à l'état initial est approximativement égal à $$E[T_0]= 2^{10^{23}} \text{ secondes}.$$

Sachant qu'une année contient environ $2^{25}$ secondes, nous obtenons un temps d'attente de l'ordre de $$ 2^{10^{22}}\text{ années}.$$ Nous ne risquons donc rien... vous pouvez continuer à aérer.

Les résultats proposés ne permettent pas de répondre (en l'état) à une question du quotidien : combien de temps doit-on attendre pour considérer que notre pièce est aérée ?

La question devient donc : quelle est l'espérance du temps d'attente pour atteindre la situation d'équilibre thermodynamique ? Nous pourrions montrer que le temps moyen pour atteindre la situation d'équilibre est de l'ordre de $2N\ln(N)$.En considérant $N=6\times 10^{22}$ et une unité de temps de $10^{-5}$ secondes (comme dans l'analyse précédente) nous obtenons un temps d'attente de l'ordre de la seconde. Nous pouvons ainsi conclure que vous pouvez aller ouvrir vos fenêtres pour aérer sans prendre le risque que la fumée revienne.

Références

F. Des sujets détaillés

De quoi s'agit-il ?

En espérant que la lecture de cet article vous a plu... je vous propose dans les parties suivantes différentes manières d'aborder ce thème sous la forme d'activités ou de devoirs. Ne sachant pas quelles sont précisément les attentes des classes visées, je vous suggère de considérer ces sujets/activités comme un cadre que vous pouvez évidemment adapter à votre guise.

  • Activité pour le collège : une façon d'aborder la notion de probabilité en testant en classe le temps d'attente d'un succès. Cette activité est accompagnée d'un script Python.
  • Devoirs pour le lycée et le supérieur : ces devoirs proposent une démonstration très détaillée du théorème 2 bis.
  • 1. Voir [Hen], une lecture très instructive sur les approches possibles.
  • 2. Pour une utilisation en 1re S de la loi géométrique tronquée consultez [PrL]. Une approche détaillée pourra se trouver dans n'importe quel cours de CPGE accessible en ligne.
  • 3. C'est une réécriture de la formule des probabilités conditionnelles, que que nous retrouvons dans [PrC].
  • 4. $a_{i,j}$ est la probabilité que le récipient soit dans l'état $j$ à l'instant $n+1$ sachant qu'il était dans l'état $i$ à l'instant $n$.
  • 5. Dans cette question, plus faible, la convergence est remplacée par la convergence en moyenne, aussi appelée convergence au sens de Césaro ou de la moyenne ergodique.
  • 6. Pour plus de précisions, je vous propose une lecture complète et détaillée : [Vel, chapitre 9].
  • 7. traduction : pour tout $i,j\in [\![0,N]\!]$, il existe un entier naturel $n\in \mathbb{N}$ tel que $p_{i,j,n}>0$.
  • 8. Il ne s'agit pas de la définition « classique » de « l'apériodicité ». Le lemme 9.6 page 154 du cours [Vel] permet de se convaincre de l'équivalence des définitions. Avec les notations du « sujet pour le supérieur » (en annexe), notre définition se traduit par « une puissance de la matrice de transition $A$ est dans $ S_n^*$ ».
  • 9. Uniquement du théorème 2 bis.
  • 10. Le sens du « titre » du corollaire s'éclaircira à la lecture du cours [Vel]. Cela demande néanmoins d'appréhender le problème sous un angle plus technique.
  • 11. Non, cette phrase n'est pas provocante... Bon d'accord, elle l'est !
  • 12. Physicien et philosophe autrichien (1844-1906), voir [BioLB].
  • 13. La vidéo de Laure Saint-Raymond proposée en introduction aborde la notion d'entropie et précise l'approche de Boltzmann.
  • 14. Mathématicien allemand (1871-1953), voir [BioEZ].
  • 15. Voir [Bar] pour un récit historique des travaux de L. Bolztmann qui souligne l'importance de ce paradoxe.
  • 16. Tatiana Afanassieva, mathématicienne russo-néerlandaise (1876-1964) et Paul Ehrenfest, physicien autrichien (1880-1933), voir [BioPE].
 
 
 
 
 
Dernières publications