L'induction statistique au lycée, illustrée par le tableur

Philippe Dutarte (IREM Paris-Nord), éditions Didier, Paris 2005.

 

Cet ouvrage est destiné aux professeurs de mathématiques en lycée, en étroit rapport avec les actuels programmes de seconde, 1ère et terminale L, ES et S. Il traite des thèmes de statistique inductive (ou inférentielle) introduits dans les programmes de lycée à partir de 2000, ou encore dernièrement, à la rentrée 2005, dans le programme d'option maths de terminale littéraire. Les enseignants trouveront dans le livre des apports théoriques leur permettant d'avoir le recul nécessaire, une approche historique (voir aussi l'ouvrage de l'IREM de basse-Normandie présenté ci-dessous), et de nombreux exemples, souvent en rapport avec des thèmes de société et directement exploitables en classe, notamment avec le tableur.

 

 Quatrième de couverture :

Dans une petite ville du Massachusetts apparaît, au début des années 1980, un nombre important de leucémies infantiles. Faut-il s’inquiéter ? La statistique « inductive » montra que le nombre de cas observés était « significativement » supérieur à la normale et permit de mettre en évidence le syndrome du trinitrotoluène. Ce livre présente ainsi de nombreux exemples. Les méthodes de la statistique inductive, sondages, tests statistiques, théorie de la décision en milieu aléatoire, évaluation des risques, se sont en effet largement développées dans la seconde moitié du XX e siècle, tant dans les domaines techniques, comme ceux de la qualité, de la fiabilité, des études de marchés, de la modélisation, qu’au sein même de la société, devenant un outil essentiel du débat démocratique.

Cet ouvrage se propose de contribuer à la formation des enseignants de lycée dans ce domaine, en associant les apports théoriques et historiques à des expérimentations par simulation sur tableur. Il est fondé sur des pratiques de classe. Le livre se présente en trois parties, correspondant aux trois principaux domaines de la statistique inductive abordés au lycée : variabilité (fluctuations d’échantillonnage), estimation (intervalles de confiance) et adéquation (tests statistiques). Dans chacune de ces parties, le lecteur trouvera :

    En fin d’ouvrage, des « fiches techniques » synthétisent les principales procédures mises en œuvre sur le tableur, dans le cas du logiciel Excel, aisément adaptables à d’autres tableurs.