Probabilités
Question du jeudi #11 : Des passagers embarquent à bord d'un Airbus A380. L'avion est complet. Idéalement, les passagers devraient embarquer un à un et s'asseoir à leur place. Cependant, le premier passager, étourdi, s'assoit à une place aléatoire. Ensuite, les passagers s'assoient à leur place si elle est libre, et à une place libre, aléatoirement, sinon. Vous embarquez le dernier. Quelle est la probabilité que votre place soit occupée ?

Question du jeudi #3 : On répartit 100 boules (cinquante bleues et cinquante rouges) dans deux urnes. Ensuite, on tire à pile ou face une des urnes, puis au hasard une boule dans cette urne. La probabilité de tirer une boule rouge dépend-elle de la répartition ?

Comment évolue au cours du temps une population dans laquelle deux versions d'un même gène coexistent, et quelle sera la proportion, dans la population finale, des sous populations caractérisées par cette différence génétique ? Ce problème et bien d'autres peuvent être modélisés par un outil probabiliste : une urne aléatoire. Nous présenterons ici cet objet, ainsi qu'une manière de calculer les probabilités d'évolution de celui-ci grâce à des séries entières.

Lorsque l'on s'intéresse au patrimoine génétique d'une population, il est souvent intéressant d'étudier également les liens de parenté entre les individus de cette population. Le processus coalescent de Kingman est un modèle probabiliste qui associe à un petit nombre d'individus pris au hasard dans une population leur arbre généalogique. En utilisant ce modèle, on peut tester des hypothèses sur la dissémination de mutations. Nous étudierons ici quelques propriétés du processus coalescent de Kingman.

Ce texte a été écrit à la fin de ma thèse, pour essayer de donner aux non-mathématiciens une idée du monde dans lequel j’avais baigné pendant quelques années. C’était l’occasion de présenter rapidement, à travers quelques exemples, la théorie des systèmes dynamiques.

 

La formule dite de Stirling, qui donne une évaluation de n! pour les grandes valeurs de n, est au centre des travaux menés au début du XVIIIe siècle sur les problèmes probabilistes de passage à la limite et d'approximations. Cet article peut se présenter comme un complément au texte sur le théorème de de Moivre-Laplace. La découverte des évaluations de n! par de Moivre et Stirling a donné lieu à des travaux concomitants de ces deux mathématiciens avec des échanges de correspondance, des corrections mutuelles d'erreurs. Ces travaux se situent à un moment que l'on peut qualifier de paradoxal dans l'histoire des mathématiques. En effet les méthodes infinitésimales se développent alors de plus en plus ; elles permettent d'aborder et de résoudre des questions nouvelles. Mais la véracité des résultats obtenus ne peut plus être légitimée par une synthèse démonstrative à la grecque. Il faut donc innover, expérimenter, confronter les résultats obtenus par différentes méthodes ou différents auteurs, avant de pouvoir être sûr de la scientificité d'un énoncé. Nous savons de plus aujourd'hui que certains outils étaient employés sans la rigueur (au sens moderne du terme) nécessaire. Ce sont donc les tours et détours des démarches analytiques du début du XVIIIe siècle que nous voudrions montrer dans ce texte.

Le couple fréquence-probabilité, ainsi que la théorie instituant ce rapport qu'on peut appeler schématiquement "loi des grands nombres", est un leitmotiv de la période classique de l'histoire du calcul des probabilités. Il est au coeur du développement de la théorie et des préoccupations des probabilistes, comme de ses utilisateurs. Les programmes des lycées imposent de prendre une approche fréquentiste pour définir une probabilité. Cela pose le problème du statut de ces énoncés que l'on rassemble sous le nom de "loi des grands nombres". Peu de propositions mathématiques portent ce titre de "loi". Est-ce un théorème, comme il est utilisé habituellement pour le théorème de De Moivre-Laplace ? Est-ce un énoncé extra-mathématique, admis comme prémisse à toute théorie scientifique ?

Les processus de branchement sont des modèles introduits pour étudier le développement d'une population, dans laquelle les individus se reproduisent indépendamment les uns des autres, et selon la même loi de probabilité. Introduit au 19ème siècle pour étudier la probabilité d'extinction de noms de familles illustres en Grande Bretagne, le modèle de Galton-Watson et ses variantes trouve de nombreuses applications en biologie ou en physique nucléaire.

La percolation est un phénomène physique que l'on rencontre bien sûr lorsque l'on étudie le passage de la vapeur à travers du café, mais également des situations aussi diverses que la propagation d'un incendie de forêt, la circulation automobile, la conductivité électrique d'une alliage... Nous introduisons ici cette théorie, partant de la notion de graphe aléatoire. Nous verrons notamment qu'il existe une notion de probabilité critique, c'est-à-dire un seuil tel qu'en-dessous la probabilité d'avoir un phénomène de percolation est nulle, et égale à 1 au-delà.
Nous nous pencherons plus particulièrement sur les cas des arbres infinis et des réseaux cubiques.

Les processus de branchement sont des modèles introduits pour étudier le développement d'une population, dans laquelle les individus se reproduisent indépendamment les uns des autres, et selon la même loi de probabilité. Introduit au 19ème siècle pour étudier la probabilité d'extinction de noms de familles illustres en Grande Bretagne, le modèle de Galton-Watson et ses variantes trouve de nombreuses applications en biologie ou en physique nucléaire.