Lois discrètes
Introduction :
En classe de première, nous avons vu la notion de variable aléatoire, ainsi que la loi d’une variable aléatoire réelle. Dans ce cours, nous allons découvrir des nouvelles lois de probabilité, à savoir les lois uniformes, la loi de Bernoulli et la loi binomiale, puis les lois géométriques.
La loi binomiale, notamment, est utilisée dans divers domaines d’étude : on s’en sert pour modéliser des situations simples de succès ou d’échec, comme un jeu de pile ou face, par exemple. Elle est également utilisée dans des tests statistiques qui permettent d’interpréter des données et de prendre des décisions dans des situations dépendant du hasard.
Nous commencerons par rappeler quelques notions de probabilité, puis nous découvrirons ce qu’est une loi uniforme. Nous verrons enfin comment définir, à partir d’une épreuve de Bernoulli, la loi de Bernoulli et la loi binomiale.
Rappels
Rappels
Commençons par faire quelques rappels de première, pour redécouvrir des notions indispensables pour la suite de ce cours.
Probabilités conditionnelles et indépendance
Probabilités conditionnelles et indépendance
Commençons par rappeler la formule des probabilités totales.
Soit $A_1,\,A_2,\,…,\,A_n$ une partition de l’univers $\Omega$ et $B$ un événement quelconque de $\Omega$.
Alors la probabilité de $B$ est donnée par la formule :
$$p(B)=p(A_1\cap B)+p(A_2\cap B)+⋯+p(A_n\cap B)$$
Image temporaire
Rappelons que ces événements $A_i$ forment une partition de l’univers $\Omega$ si les $3$ conditions suivantes sont vérifiées :
- aucun des $A_i$ n’est de probabilité nulle pour $i$ allant de $1$ à $n$ ;
- les $A_i$ sont $2$ à $2$ disjoints : $A_i\cap A_j=\varnothing$ pour $i\neq j$, avec $i$ et $j$ compris entre $1$ et $n$ ;
- la réunion des $A_i$ est égale à l’univers $\Omega$ :
$$A_1\cup A_2\cup…\cup A_n=\Omega$$
Redonnons maintenant la définition des probabilités conditionnelles.
Probabilité conditionnelle :
Soit $A$ et $B$ deux événements de l’univers $\Omega$. Supposons non nulle la probabilité de $A$.
On appelle probabilité conditionnelle de $B$ sachant $A$ le nombre, noté $p_A (B)$, défini par :
$$p_A (B)=\dfrac{p(A\cap B)}{p(A)}$$
Nous pouvons faire quelques remarques :
- $p_A (B)$ est la probabilité que l’événement $B$ se réalise sachant que l’événement $A$ s’est réalisé ;
- $p_A (B)\neq p_B (A)$ ;
- une probabilité conditionnelle a les mêmes propriétés qu’une probabilité ;
- on déduit de la définition que :
$$p(A\cap B)=p_A (B)\times p(A)\footnotesize{\textcolor{#A9A9A9}{\text{ [avec $p(A)\neq0$]}}}$$
Comme on a : $p(A\cap B)=p_A(B)\times p(A)$, alors la formule des probabilités totales peut aussi s’écrire sous la forme :
$$p(B)=p_{A_1} (B)\times p(A_1)+p_{A_2} (B)\times p(A_2)+⋯+p_{A_n} (B)\times p(A_n)$$
Enfin, il est important de préciser l’indépendance de deux événements.
Indépendance de deux événements :
Soit $A$ et $B$ deux événements associés à une expérience aléatoire.
On dit que les événements $A$ et $B$ sont indépendants si et seulement si :
$$p(A\cap B)=p(A)\times p(B)$$
Et nous pouvons en déduire les propriétés suivantes.
Soit $A$ et $B$ deux événements associés à une expérience aléatoire.
$A$ et $B$ sont indépendants :
- si et seulement si $p_A(B)=p(B)$, avec $p(A)\neq 0$ ;
- si et seulement si $p_B(A)=p(A)$, avec $p(B)\neq 0$.
Variable aléatoire et loi de probabilité
Variable aléatoire et loi de probabilité
Ce cours est consacré à des variables aléatoires qui suivent certaines lois de probabilité. Il est donc utile de redonner les définitions de ces notions.
Variable aléatoire :
On considère une expérience aléatoire dont l’univers est un ensemble fini $\Omega$.
Une variable aléatoire $X$ est une fonction définie sur $\Omega$ et à valeurs dans $\mathbb R$.
- Définir une variable aléatoire consiste donc à associer un réel à chaque issue de l’expérience aléatoire.
Loi de probabilité d’une variable aléatoire :
Soit $X$ une variable aléatoire définie sur un univers $\Omega$ et qui prend les valeurs $x_1$, $x_2$, …, $x_n$.
Définir la loi de probabilité de $X$ consiste à donner les probabilités $p(X=x_i)$, pour tout entier $i$ compris entre $1$ et $n$.
Nous pouvons aussi mieux décrire une variable aléatoire, grâce à des indicateurs : l’espérance, la variance et l’écart-type.
Espérance, variance et écart-type :
Soit $X$ une variable aléatoire qui prend les valeurs $x_1$, $x_2$, …, $x_n$ , avec respectivement les probabilités $p_1$, $p_2$, …, $p_n$.
- L’espérance de $X$ est le réel, noté $E(X)$, défini par :
$$E(X)=\sum_{i=1}^n x_ip_i$$
- La variance de $X$ est le réel positif, noté $V(X)$, défini par :
$$V(X)=\sum_{i=1}^n p_i\big(x_i-E(X)\big)^2$$
- L’écart-type de $X$ est le réel positif, noté $\sigma(X)$, défini par :
$$\sigma(X)=\sqrt{V(X)}$$
Rappelons enfin les interprétations que l’on peut tirer de ces indicateurs.
- L’espérance s’interprète comme la valeur moyenne prise par $X$ lorsqu’on répète un grand nombre de fois l’expérience aléatoire.
- La variance et l’écart-type mesurent la dispersion des valeurs prises par $X$ autour de l’espérance.
- Plus ils sont grands, plus les valeurs sont dispersées.
Ces rappels étant faits, nous pouvons maintenant aborder quelques lois de probabilité remarquables.
Loi uniforme discrète
Loi uniforme discrète
Définition
Définition
Commençons par une loi simple à se représenter.
Pour cela, considérons un jeu non truqué de $32$ cartes, indiscernables au toucher.
On tire une carte :
- s’il s’agit d’un cœur, on marque $1$ point ;
- s’il s’agit d’un carreau, on marque $2$ points ;
- s’il s’agit d’un pique, on marque $3$ points ;
- s’il s’agit d’un trèfle, on marque $4$ points.
Soit $X$ la variable aléatoire qui associe à la carte tirée le nombre de points.
- Nous voyons que $X$ prend ses valeurs dans l’ensemble $\lbrace 1,\,2,\,3,\, 4 \rbrace$.
Calculons maintenant les probabilités que $X$ soit égal à $i$, avec $i$ compris entre $1$ et $4$. Chaque carte a la même probabilité d’être tirée : nous sommes donc dans une situation d’équiprobabilité.
- Nous pouvons donc considérer que la probabilité d’obtenir un événement $A$ est égale à :
$$p(A)=\dfrac{\text{Nombre d’issues réalisant }A}{\text{Nombre total d’issues}}$$
Ainsi, il y a au total $32$ issues, et l’événement $X=1$ est réalisé par l’événement « La carte tirée est un cœur », lui-même réalisé par $8$ issues (« La carte tirée est un sept de cœur », « La carte tirée est un huit de cœur », etc.).
- Nous obtenons donc :
$$\begin{aligned} p(X=1)&=\dfrac 8{32} \\ &=\dfrac 14 \end{aligned}$$
- Nous obtenons de la même façon :
$$\begin{aligned} p(X=2) &= \dfrac 14 \\ p(X=3) &= \dfrac 14 \\ p(X=4) &= \dfrac 14 \end{aligned}$$
Nous voyons donc que :
$$p(X=1)=p(X=2)=p(X=3)=p(X= 4)=\dfrac 14$$
- On dit alors que la variable aléatoire $X$ suit une loi uniforme sur $\lbrace 1,\,2,\,3,\, \purple 4 \rbrace$ et, pour tout $i$ compris entre $1$ et $\purple 4$ :
$$p(X=i)=\dfrac{1}{\purple 4}$$
Loi uniforme :
Soit $X$ une variable aléatoire définie sur $\Omega$ et qui prend ses valeurs dans $\lbrace 1,\,2,\,…,\,n\rbrace$.
On dit que $X$ suit une loi uniforme sur $\lbrace 1,\,2,\,…,\,n\rbrace$ si, pour tout entier $i\in \lbrace 1,\,2,\,…,\,n\rbrace$ :
$$p(X=i)=\dfrac 1n$$
Indicateurs d’une variable suivant une loi uniforme
Indicateurs d’une variable suivant une loi uniforme
Soit $X$ une variable aléatoire qui suit une loi uniforme sur $\lbrace 1,\,2,\,…,\,n\rbrace$.
L’espérance $E(X)$ et la variance $V(X)$ se calculent avec les formules :
$$\begin{aligned} E(X)&=\dfrac{n+1}2 \\ V(X)&=\dfrac{n^2-1}{12} \end{aligned}$$
Démontrons la formule donnée pour le calcul de l’espérance.
Il suffit de faire appel à la définition de l’espérance :
$$\begin{aligned} E(X)&= \sum_{i=1}^n i\times \dfrac 1n \\ &=1\times \dfrac 1n + 2\times \dfrac 1n +…+n\times \dfrac 1n \\ &=\dfrac 1n\times (1 + 2 +… + n) \\ &=\dfrac 1n \times \dfrac{n(n+1)}2 \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[par la formule vue en première}}} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{qui donne la somme des $n$ premiers entiers non nuls]}}} \\ &=\dfrac{n+1}2 \end{aligned}$$
Reprenons notre situation initiale, avec le jeu de $32$ cartes.
- Nous obtenons :
$$\begin{aligned} E(X)&=\dfrac {4+1}2 \\ &=2,5 \end{aligned}$$
Nous pouvions le pressentir intuitivement : si l’on répète un grand nombre de fois l’expérience, on gagnera en moyenne $2,5$ points.
Calcul de probabilités dans le cas d’une loi uniforme
Calcul de probabilités dans le cas d’une loi uniforme
Si une variable aléatoire suit une loi uniforme, il est assez simple de calculer des probabilités, nous allons le montrer à travers un exemple.
Considérons la variable aléatoire $X$ qui suit une loi uniforme sur $\lbrace 1,\,2,\,…,\,150\rbrace$.
- Calculons $p(X=112)$.
Puisque $X$ suit une loi uniforme sur $\lbrace 1,\,2,\,…,\,150\rbrace$, nous avons, pour tout $i\in \lbrace 1,\,2,\,…,\,150\rbrace$ :
$$p(X=i)=\dfrac 1{150}$$
- Et en particulier, l’événement $(X=112)$ étant élémentaire :
$$p(X=112)=\frac 1{150}$$
- Calculons $p(75<X<80)$.
L’événement $(75<X<80)$ est réalisé par les événements élémentaires $(X=76)$, $(X=77)$, $(X=78)$, $(X=79)$, qui sont au nombre de $4$.
- Nous obtenons donc :
$$\begin{aligned} p(75<X<80)&=p(X=76)+p(X=77)+p(X=78)+p(X=79) \\ &= \dfrac 1 {150}+\dfrac 1 {150}+\dfrac 1 {150}+\dfrac 1 {150} \\ &=4\times \dfrac 1{150} \\ &=\dfrac {2}{75} \end{aligned}$$
- Calculons $p(X\geq 145)$.
L’événement $(X\geq 145)$ est réalisé par les événements élémentaires $(X=145)$, $(X=146)$, $(X=147)$, $(X=148)$, $(X=149)$, $(X=150)$, qui sont au nombre de $6$.
- Nous obtenons donc :
$$\begin{aligned} p(X\geq 145)&= p(X=145)+p(X=146)+p(X=147) \\ &\quad\quad\quad+p(X=148)+p(X=149)+p(X=150) \\ &= \dfrac 1 {150}+\dfrac 1 {150}+\dfrac 1 {150}+\dfrac 1 {150}+\dfrac 1 {150}+\dfrac 1 {150} \\ &=6\times \dfrac 1{150} \\ &=\dfrac {1}{25} \end{aligned}$$
Épreuve, loi et schéma de Bernoulli
Épreuve, loi et schéma de Bernoulli
Jacques Bernoulli, mathématicien et physicien suisse des XVIIe et XVIIIe siècles, est l’auteur de l’un des ouvrages les plus importants dans la théorie des probabilités : l’Ars Conjectandi, publié de manière posthume en 1713.
Nous allons ici étudier la loi à laquelle il a donné son nom.
Épreuve de Bernoulli
Épreuve de Bernoulli
Commençons par définir ce type d’expérience aléatoire.
Épreuve de Bernoulli :
Une épreuve de Bernoulli est une expérience aléatoire qui ne comporte que deux issues, appelées généralement succès ($S$) et échec ($E$).
Si on note $p$ la probabilité d’obtenir $S$, alors, comme $S$ et $E$ sont deux événements complémentaires ($E=\bar S$), la probabilité d’obtenir $E$ est donc $1-p$.
Voici l’arbre correspondant à une épreuve de Bernoulli :
Image temporaire
Prenons quelques exemples.
- L’expérience qui consiste à lancer une pièce de monnaie et à regarder si la face pile est obtenue est une épreuve de Bernoulli. En effet, on n’a que deux issues : soit pile (succès), soit face (échec).
- Si la pièce n’est pas truquée, la probabilité $p$ d’obtenir un succès est égale à $\frac 12$.
- L’expérience qui consiste à tirer une carte au hasard dans un jeu de $32$ cartes et à regarder si c’est un roi est aussi une épreuve de Bernoulli : les issues possibles sont tirer un roi (succès) et toute autre carte (échec).
- Si le jeu de cartes n’est pas truqué, la probabilité $p$ d’obtenir un succès est égale à $\frac 4{32}=\frac 18$.
Loi de Bernoulli
Loi de Bernoulli
Dans le cas d’une épreuve de Bernoulli, nous pouvons définir une variable aléatoire $X$.
Par convention, nous choisissons d’associer $1$ à toute issue correspondant à un succès et $0$ à toute issue correspondant à un échec.
- Ainsi, si $\Omega$ est l’univers de l’épreuve de Bernoulli considérée :
$$X(\Omega)=\lbrace 0,\,1\rbrace$$
Et nous pouvons donner sa loi de probabilité, appelée loi de Bernoulli.
Loi de Bernoulli :
On considère une épreuve de Bernoulli avec une probabilité $p$ d’obtenir un succès.
Soit $X$ la variable aléatoire qui ne prend que deux valeurs :
- la valeur $1$ si l’issue est un succès ;
- la valeur $0$ si l’issue est un échec.
Alors la loi de probabilité de la variable aléatoire $X$ est appelée loi de Bernoulli de paramètre $p$.
Elle est donnée par le tableau suivant :
$x_i$ | $1$ | $0$ |
$p(X=x_i)$ | $p$ | $1-p$ |
Comme pour la loi uniforme, nous pouvons donner les formules permettant de calculer les indicateurs d’une variable aléatoire qui suit une loi de Bernoulli.
Si $X$ est une variable aléatoire suivant une loi de Bernoulli de paramètre $p$, alors :
- l’espérance mathématique de $X$ vaut :
$$E(X)=p$$
- la variance de $X$ vaut :
$$V(X)=p(1-p)$$
- l’écart-type de $X$ vaut :
$$\sigma(X)=\sqrt{p(1-p)}$$
Nous pouvons le démontrer facilement, grâce aux définitions que nous connaissons.
- Par définition, l’espérance de $X$ est :
$$\begin{aligned} E(X)&=1\times p(X=1)+0\times p(X=0) \\ &=1\times p+0\times (1-p)\\ &=p \end{aligned}$$
- Par définition de la variance, on a :
$$\begin{aligned} V(X)&=p(X=1)\times \big(1-E(X)\big)^2+p(X=0)\times \big(0-E(X)\big)^2 \\ &=p\times (1-p)^2+(1-p)\times (0-p)^2 \footnotesize{\textcolor{#A9A9A9}{\text{ [car $E(X)=p$]}}} \\ &=(1-p)\times \big(p(1-p)+p^2\big) \footnotesize{\textcolor{#A9A9A9}{\text{ [en factorisant par $(1-p)$]}}} \\ &=(1-p)\times (p-p^2+p^2) \\ &=(1-p)\times p \end{aligned}$$
- Nous en déduisons l’écart-type :
$$\begin{aligned} \sigma(X)&=\sqrt{V(X)} \\ &=\sqrt{p(1-p)} \end{aligned}$$
Schéma de Bernoulli
Schéma de Bernoulli
Nous allons maintenant voir ce qui se passe si l’on répète une épreuve de Bernoulli plusieurs fois de suite.
Schéma de Bernoulli :
On appelle schéma de Bernoulli la répétition de $n$ épreuves de Bernoulli identiques et indépendantes.
Les conditions identiques et indépendantes sont fondamentales pour être dans le cas d’un schéma de Bernoulli. Elles doivent donc être toujours vérifiées dans chaque situation.
Pour cela, nous vérifions :
- si les issues des épreuves sont les mêmes ;
- et si ces issues ont les mêmes probabilités d’une épreuve à l’autre.
On peut représenter un schéma de Bernoulli par un arbre pondéré, mais qui devient compliqué à tracer pour $n$ assez grand.
Nous allons donner celui correspondant à un schéma de Bernoulli pour $n=3$ (épreuve de Bernoulli répétée $3$ fois) dans l’exemple ci-dessous.
Dans une urne contenant $5$ boules blanches et $3$ boules vertes, indiscernables au toucher, on tire une boule au hasard.
On regarde si elle est verte, on a alors un succès, et on la remet.
On effectue au total $3$ tirages.
- Nous voyons bien ici que les issues sont les mêmes : « La boule tirée est verte » et « La boule tirée est blanche ».
- Et, comme, il y a remise après tirage, les probabilités sont identiques pour chaque expérience.
- La répétition de cette expérience $3$ fois de suite est un schéma de Bernoulli, avec les paramètres $n=3$ et $p=\frac 38$.
$p=\frac 38$ est la probabilité d’obtenir un succès : « La boule tirée est verte ».
La probabilité d’obtenir un échec : « La boule tirée est blanche », est alors égale à $1-p=\frac 58$.
Ce schéma de Bernoulli est représenté par l’arbre pondéré suivant, dans lequel $V$ est l’événement « La boule tirée est verte » (succès) et $B$ « La boule tirée est blanche » (échec).
Image temporaire
Coefficient binomial
Coefficient binomial
Dans notre exemple précédent, nous pourrions nous demander combien il existe de façons d’obtenir $1$, $2$ ou $3$ succès, c’est-à-dire, dans l’arbre pondéré que nous avions, combien il existe de chemins contenant $1$, $2$ ou $3$ succès.
- Ce nombre est donné par le coefficient binomial.
Coefficient binomial :
Considérons un arbre pondéré représentant un schéma de Bernoulli de paramètres $n$ et $p$. Soit $k$ un entier naturel tel que $0\leq k\leq n$.
On appelle coefficient binomial, noté $\binom nk$, le nombre de chemins correspondant à $k$ succès.
- La notation $\binom nk$ se lit « k parmi n ».
Reprenons l’arbre précédent, et nous cherchons à savoir combien de chemins mènent à $2$ succès, c’est-à-dire à $2$ boules vertes tirées parmi les $3$.
- Ces chemins sont : $(V,\,V,\,B)$, $(V,\,B,\,V)$ et $(B,\,V,\,V)$. On en a donc :
$$\binom 32=3$$
On calcule de même le nombre de chemins pour obtenir $0$, $1$ et $3$ succès, et nous obtenons :
$$\displaystyle \binom 30=1$$ | Il y a $1$ seul chemin contenant $0$ succès | $$(B,\,B,\,B)$$ |
$$\displaystyle \binom 31=3$$ | Il y a $3$ chemins contenant $1$ succès | $$\begin{aligned} (V,\,B,\,B) \\ (B,\,V,\,B) \\ (B,\,B,\,V) \end{aligned}$$ |
$$\displaystyle \binom 32=3$$ | Il y a $3$ chemins contenant $2$ succès | $$\begin{aligned} (V,\,V,\,B) \\ (V,\,B,\,V) \\ (B,\,V,\,V) \end{aligned}$$ |
$$\displaystyle \binom 33=1$$ | Il y a $1$ seul chemin contenant $3$ succès | $$(V,\,V,\,V)$$ |
Nous remarquons les égalités suivantes :
$$\begin{aligned} \binom 30&=\binom 33=1 \\ \binom 31&=\binom 32=3 \end{aligned}$$
Nous pouvons donner les propriétés suivantes.
Soit $n$ un entier naturel.
Nous avons :
$$\begin{aligned} \binom n0&=\binom nn=1 \\ \binom n k&=\binom n {n-k} \footnotesize{\textcolor{#A9A9A9}{\text{ [où $0\leq k\leq n$]}}} \end{aligned}$$
Nous pouvons aussi donner la formule de Pascal.
Si $n\geq 2$ et $1\leq k\leq n-1$, nous avons :
$$\binom nk =\binom {n-1}k+\binom{n-1}{k-1}$$
Avec ces formules, on peut calculer de proche en proche les coefficients binomiaux.
- Pour cela, nous pouvons nous servir du triangle de Pascal, que nous donnons jusqu’à $n=9$ :
$^{k\,\rightarrow}_{n\,\downarrow}$ | $0$ | $1$ | $2$ | $3$ | $4$ | $5$ | $6$ | $7$ | $8$ | $9$ |
$0$ | $1$ | |||||||||
$1$ | $1$ | $1$ | ||||||||
$2$ | $1$ | $2$ | $1$ | |||||||
$3$ | $1$ | $3$ | $3$ | $1$ | ||||||
$4$ | $1$ | $4$ | $6$ | $4$ | $1$ | |||||
$5$ | $1$ | $5$ | $10$ | $10$ | $5$ | $1$ | ||||
$6$ | $1$ | $6$ | $15$ | $20$ | $15$ | $6$ | $1$ | |||
$7$ | $1$ | $7$ | $21$ | $35$ | $35$ | $21$ | $7$ | $1$ | ||
$8$ | $1$ | $8$ | $28$ | $56$ | $70$ | $56$ | $28$ | $8$ | $1$ | |
$9$ | $1$ | $9$ | $36$ | $84$ | $126$ | $126$ | $84$ | $36$ | $9$ | $1$ |
On peut aussi calculer ces coefficients binomiaux avec une calculatrice.
Loi binomiale
Loi binomiale
Nous venons donc de définir ce qu’était un schéma de Bernoulli. Nous allons maintenant nous intéresser à ce qui nous importe vraiment ici, c’est-à-dire à la probabilité d’avoir $k$ succès dans un schéma de Bernoulli composé de $n$ épreuves (avec donc $n$ et $k$ des entiers naturels tels que $k\leq n$).
Définition
Définition
Loi binomiale :
Soit $X$ la variable aléatoire qui compte le nombre de succès obtenus lors de $n$ épreuves d’un schéma de Bernoulli, et $p$ la probabilité de succès à chaque épreuve.
Alors la variable aléatoire $X$ suit une loi de probabilité appelée loi binomiale de paramètres $n$ et $p$, et notée généralement $\mathcal B(n,\, p)$.
Pour prouver qu’une variable aléatoire $X$ suit une loi binomiale, on justifie que les conditions suivantes sont vérifiées :
- il faut avoir $n$ expériences identiques ;
- chaque expérience a $2$ issues possibles (épreuve de Bernoulli) ;
- ces expériences sont indépendantes les unes des autres ;
- la variable aléatoire $X$ compte le nombre de succès obtenus lors des $n$ épreuves.
Reprenons notre dernier exemple pour bien comprendre cette loi binomiale.
On considère la variable aléatoire $X$, qui donne le nombre de boules vertes obtenues après $3$ tirages.
Toutes les conditions données plus haut sont vérifiées.
- $X$ suit une loi binomiale $\mathcal B\left(3,\, \frac 38\right)$.
Avec l’arbre précédent, on peut expliciter cette loi binomiale $\mathcal B\left(3,\, \frac 38\right)$ en précisant que les valeurs possibles prises par $X$ sont : $0$, $1$, $2$ et $3$ (valeurs correspondant au nombre de succès possibles lors des $3$ tirages avec remise).
Ensuite, pour calculer, par exemple, la probabilité d’avoir $2$ fois un succès, on s’intéresse aux chemins contenant exactement $2$ fois l’événement $V$.
- Il y a $3$ chemins qui correspondent à $2$ succès, à savoir $(B,\,V,\,V)$, $(V,\,B,\,V)$ et $(V,\,V,\,B)$. Donc :
$$\begin{aligned} p(X=2)&= \left( \dfrac 58\times \dfrac 38\times \dfrac 38\right)+\left(\dfrac 38\times \dfrac 58\times \dfrac 38\right)+\left(\dfrac 38\times \dfrac 38\times \dfrac 58\right) \\ &=\dfrac{45}{512}+\dfrac{45}{512}+\dfrac {45}{512} \\ &=3\times \dfrac{45}{512} \\ &=\dfrac{135}{512} \end{aligned}$$
De même, on pourra calculer $p(X=0)$, $p(X=1)$ et $p(X=3)$.
Probabilités d’une loi binomiale
Probabilités d’une loi binomiale
Dans le tout dernier exemple, nous avons pu nous servir d’un arbre pondéré pour calculer les probabilités de la loi binomiale, mais nous avions un schéma de Bernoulli avec seulement $3$ épreuves. Cela devient trop long et fastidieux dès que le nombre d’épreuves grandit.
- Nous nous servons alors de la propriété suivante.
Soit $X$ une variable aléatoire suivant une loi binomiale $\mathcal B(n,\, p)$.
Pour tout entier naturel $k$ (avec $0\leq k\leq n)$, la probabilité d’obtenir $k$ succès sur les $n$ épreuves est donnée par la formule :
$$p(X=k)=\binom nk p^k (1-p)^{n-k}$$
Reprenons notre jeu de tirage de boules, mais, cette fois, nous répétons $9$ fois l’épreuve (toujours avec remise de la boule).
Et nous cherchons à connaître la probabilité d’obtenir $5$ succès.
- Considérons la variable aléatoire $Y$ qui compte le nombre de boules vertes obtenues après $9$ tirages.
- $Y$ suit une loi binomiale de paramètres $n=9$ et $p=\frac 38$.
- Pour calculer la probabilité d’obtenir $k=5$ succès, nous utilisons la propriété précédente :
$$\begin{aligned} p(Y=5)&=\binom 95 \times \left(\dfrac 38\right)^5 \times \left(\dfrac 58\right)^{9-5} \\ &=126\times \dfrac {3^5}{8^5} \times \dfrac{5^4}{8^4} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[en nous servant du triangle de Pascal pour connaître $\binom 95$]}}} \\ &=\dfrac{126\times 3^5\times 5^4}{8^9} \\ &\approx 0,1426 \end{aligned}$$
- En $9$ tirages, la probabilité de tirer $5$ boules vertes est d’environ $0,1426$.
Nous pouvons aussi nous servir de la calculatrice pour calculer directement, grâce à leurs fonctions, les probabilités d’une loi binomiale, par exemple celle suivie par la variable aléatoire $Y$ définie dans le dernier exemple.
- Calculons $p(Y=5)$.
- Avec une TI, en utilisant la fonction $\text{binomFdp}(9,3/8,5)$.
- Avec une Casio, en utilisant la fonction $\text{BinominalePD}(5,9,3/8)$.
- Nous obtenons : $p(Y=5)\approx 0,1426$.
- Calculons aussi $p(Y\leq 4)$.
- Avec une TI, en utilisant la fonction $\text{binomFRep}(9,3/8,4)$.
- Avec une Casio, en utilisant la fonction $\text{BinominaleCD}(4,9,3/8)$.
- Nous obtenons : $p(Y\leq 4)\approx 0,7834$.
- Nous pouvons en déduire $p(Y\geq 5)$ :
$$\begin{aligned} p(Y\geq 5) &= p(Y>4) \\ &=1-p(Y\leq 4) \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[car $Y>4$ et $Y\leq 4$ sont des événements contraires]}}} \\ &\approx 0,2166 \end{aligned}$$
- La probabilité d’obtenir au moins $5$ boules vertes (soit $5$ succès) après $9$ tirages est d’environ $0,2166$.
Nous pouvons aussi donner une représentation graphique d’une loi binomiale, en utilisant par exemple un tableur et toujours en travaillant avec la variable aléatoire $Y$ ci-dessus définie.
- Dans un tableur, entrer sur une ligne le nombre de succès possibles, de $0$ à $9$ dans notre exemple (utiliser les fonctions usuelles d’un tableur si le nombre de colonnes à créer est grand).
A | B | C | D | E | F | G | H | I | J | |
1 | $$\footnotesize 0$$ | $$\footnotesize 1$$ | $$\footnotesize 2$$ | $$\footnotesize 3$$ | $$\footnotesize 4$$ | $$\footnotesize 5$$ | $$\footnotesize 6$$ | $$\footnotesize 7$$ | $$\footnotesize 8$$ | $$\footnotesize 9$$ |
- Dans notre exemple, la colonne A correspond donc à $0$ succès.
Pour calculer la probabilité d’avoir $\green k$ succès parmi $\red n$ tirages, la probabilité d’avoir un succès étant égale à $\purple p$, nous utilisons la fonction du tableur dédiée :
$$\text{LOI.BINOMIALE($\green k$\,;\,$\red n$\,;\,$\purple p$\,;\,$0$)}$$
Le dernier paramètre est une variable booléenne ($0$ ou $1$), qui indique si nous voulons la probabilité cumulative ou non.
- Nous avons mis $0$ pour le dernier paramètre, car nous voulons la valeur $p(Y=k)$.
- Nous aurions mis $1$ si nous avions souhaité la valeur $p(Y\leq k)$.
Ici, nous entrons donc dans la cellule A2 la formule :
$$\text{LOI.BINOMIALE(\green {A1}\,;\,$\red 9$\,;\,$\purple {3/8}$\,;\,$0$)}$$
Puis nous copions la formule vers la droite, de la manière habituelle.
- Nous obtenons, avec un arrondi à $10^{-4}$ près :
A | B | C | D | E | F | G | H | I | J | |
1 | $$\footnotesize 0$$ | $$\footnotesize 1$$ | $$\footnotesize 2$$ | $$\footnotesize 3$$ | $$\footnotesize 4$$ | $$\footnotesize \blue 5$$ | $$\footnotesize 6$$ | $$\footnotesize 7$$ | $$\footnotesize 8$$ | $$\footnotesize 9$$ |
2 | $$\footnotesize 0,0146$$ | $$\footnotesize 0,0786$$ | $$\footnotesize 0,1886$$ | $$\footnotesize 0,2640$$ | $$\footnotesize 0,2376$$ | $$\footnotesize \blue{0,1426}$$ | $$\footnotesize 0,0570$$ | $$\footnotesize 0,0147$$ | $$\footnotesize 0,0022$$ | $$\footnotesize 0,0001$$ |
Nous pouvons remarquer que la probabilité donnée pour $5$ succès est égale à celle que nous avons calculée plus haut : environ $0,1426$.
Nous pouvons aussi noter que la probabilité d’obtenir $9$ succès est quasi négligeable.
- Nous sélectionnons enfin la plage de données et insérons le diagramme à bâtons correspondant :
Représentation graphique d'une loi binomiale de paramètres n = 9 et p = 3/8
Indicateurs d’une variable aléatoire suivant une loi binomiale (et application)
Indicateurs d’une variable aléatoire suivant une loi binomiale (et application)
Comme nous en avons pris désormais l’habitude, pour mieux décrire une variable aléatoire, nous calculons son espérance, sa variance et son écart-type. Et nous disposons aussi de formules, que nous admettrons dans ce cours, pour une variable aléatoire suivant une loi binomiale.
Soit $X$ une variable aléatoire suivant une loi binomiale de paramètres $n$ et $p$.
L’espérance $E(X)$, la variance $V(X)$ et l’écart-type $\sigma(X)$ sont données par :
$$\begin{aligned} E(X)&=np \\ V(X)&=np(1-p) \\ \sigma(X)&=\sqrt{V(X)}=\sqrt{np(1-p)} \end{aligned}$$
Nous allons maintenant, à travers un exemple, récapituler ce que nous avons découvert sur la loi binomiale :
- nous montrerons que la variable aléatoire à laquelle nous nous intéressons suit une loi binomiale et nous déterminerons ses paramètres ;
- nous nous servirons d’un tableur pour calculer les probabilités de la loi et nous les représenterons graphiquement ;
- nous en profiterons pour donner une méthodologie pour déterminer les valeurs $a$ et $b$ telles que $p(a\leq X\leq b) \textcolor{FF4500} \geq \alpha$, où $\alpha \in [0\ ;\, 1]$ ;
- nous calculerons les indicateurs de la variable aléatoire.
Lors du premier tour des dernières élections, la participation était de $45\,\%$. $40$ personnes inscrites sur les listes électorales sont tirées au sort. Nous admettons que ces listes disposent de suffisamment de noms pour pouvoir considérer que le « tirage » se fait avec remise.
Soit $X$ la variable aléatoire qui compte le nombre de personnes, parmi les $40$, qui ont voté à ce premier tour.
- Montrons que $X$ suit une loi binomiale de paramètres $n$ et $p$, et déterminons ces derniers.
- Il s’agit donc de tirer au sort une personne et de regarder si elle a voté. Ce tirage est répété $40$ fois et, pour chaque tirage, nous avons $2$ issues :
- « La personne choisie a voté », considérée comme succès ($S$) ;
- « La personne choisie n’a pas voté », considérée comme échec ($E$).
- Nous considérons que le tirage se fait avec remise. Il y a donc $40$ expériences identiques et indépendantes.
- La variable aléatoire compte le nombre de personnes qui ont voté parmi les $40$ personnes choisies, soit le nombre de succès.
- Enfin, la proportion des votants parmi la population des inscrits est égale à $0,45$.
- $X$ suit une loi binomiale de paramètres $n=40$ et $p=0,45$.
- Représentons graphiquement la loi binomiale correspondante.
La variable aléatoire $X$ prend ses valeurs dans $\lbrace 0,\,1,\,2,\,…,\,38,\,39,\,40 \rbrace$.
- Nous nous servons d’un tableur, comme nous l’avons vu plus haut, pour entrer les valeurs et calculer les probabilités de chaque valeur possible pour $X$ ($p(X=k)$) :
$$\text{LOI.BINOMIALE(k\,;\,40\,;\,0,45\,;\,$0$)}$$
- Cette fois, nous ajoutons un champ pour donner les probabilités cumulatives ($p(X\leq k)$) :
$$\text{LOI.BINOMIALE(k\,;\,40\,;\,0,45\,;\,$1$)}$$
- Nous obtenons le diagramme suivant :
Représentation graphique d'une loi binomiale de paramètres n = 40 et p = 0,45
- Nous souhaitons déterminer $a$ et $b$ tels que $p(a\leq X\leq b) \textcolor{FF4500} \geq 0,95$.
Cela revient à chercher le plus « petit » intervalle $I$ tel que $X$ appartienne à $I$ avec une probabilité au moins égale à $0,95$.
Nous remarquons que les probabilités pour $k\leq 8$ et $k\geq 28$ sont inférieures à $10^{-3}$ et sont ainsi peu significatives, nous nous concentrons donc sur $9\leq k \leq 27$.
- Le tableur nous a donné les valeurs suivantes (arrondies à $10^{-4}$ près) :
$\footnotesize k$ | $$\footnotesize 9$$ | $$\footnotesize 10$$ | $$\footnotesize 11$$ | $$\footnotesize \red{12}$$ | $$\footnotesize 13$$ | $$\footnotesize 14$$ | $$\footnotesize 15$$ | $$\footnotesize 16$$ | $$\footnotesize 17$$ |
$$\footnotesize p(X=k)$$ | $$\footnotesize 0,0018$$ | $$\footnotesize 0,0047$$ | $$\footnotesize 0,0105$$ | $$\footnotesize 0,0207$$ | $$\footnotesize 0,0365$$ | $$\footnotesize 0,0575$$ | $$\footnotesize 0,0816$$ | $$\footnotesize 0,1043$$ | $$\footnotesize 0,1205$$ |
$$\footnotesize p(X\leq k)$$ | $$\footnotesize 0,0027$$ | $$\footnotesize 0,0074$$ | $$\footnotesize 0,0179$$ | $$\footnotesize \red{0,0386}$$ | $$\footnotesize 0,0751$$ | $$\footnotesize 0,1326$$ | $$\footnotesize 0,2142$$ | $$\footnotesize 0,3185$$ | $$\footnotesize 0,4391$$ |
$$\footnotesize 18$$ | $$\footnotesize 19$$ | $$\footnotesize 20$$ | $$\footnotesize 21$$ | $$\footnotesize 22$$ | $$\footnotesize 23$$ | $$\footnotesize \red{24}$$ | $$\footnotesize 25$$ | $$\footnotesize 26$$ | $$\footnotesize 27$$ |
$$\footnotesize 0,1260$$ | $$\footnotesize 0,1194$$ | $$\footnotesize 0,1025$$ | $$\footnotesize 0,0799$$ | $$\footnotesize 0,0565$$ | $$\footnotesize 0,0362$$ | $$\footnotesize 0,0210$$ | $$\footnotesize 0,0110$$ | $$\footnotesize 0,0052$$ | $$\footnotesize 0,0022$$ |
$$\footnotesize 0,5651$$ | $$\footnotesize 0,6844$$ | $$\footnotesize 0,7870$$ | $$\footnotesize 0,8669$$ | $$\footnotesize 0,9233$$ | $$\footnotesize 0,9595$$ | $$\footnotesize \red{0,9804}$$ | $$\footnotesize 0,9914$$ | $$\footnotesize 0,9966$$ | $$\footnotesize 0,9988$$ |
Pour déterminer $a$ et $b$ :
- nous cherchons le plus petit $k$ tel que $p(X\leq k) \textcolor{FF4500} > 0,025$ ;
- nous voyons que c’est $k=12$ et nous avons alors : $a=12$ ;
- nous cherchons le plus petit $k$ tel que $p(X\leq k) \textcolor{FF4500} \geq 0,975$ ;
- nous voyons que c’est $k=24$ et nous avons alors : $b=24$.
Nous en déduisons donc que $p(12\leq X\leq 24)\geq 0,95$.
- Cela revient à dire que, parmi les $40$ personnes, il y a au moins $95\,\%$ de chance pour qu’il y ait entre $12$ et $24$ personnes qui sont allées voter au premier tour des dernières élections.
- Ou encore, dans l’échantillon de $40$ personnes, la proportion de personnes ayant voté sera comprise entre $\frac{12}{40}=0,3=30\,\%$ et $\frac{24}{40}=0,6=60\,\%$, avec un degré de confiance au moins de $95\,\%$.
Pour aller un peu plus loin, nous pouvons noter que, si nous voulons que l’abstention dans l’échantillon soit assez représentative de la réalité, une taille d’échantillon de $40$ est loin d’être suffisante…
- Enfin, calculons l’espérance, la variance et l’écart-type de la variable aléatoire $X$.
- Nous utilisons pour cela les propriétés que nous avons données :
$$\begin{aligned} E(X)&=np \\ &=40\times 0,45 \\ &=18 \\ \\ V(X)&=np(1-p) \\ &=40\times 0,45\times 0,55 \\ &=9,9 \\ \\ \sigma(X)&=\sqrt{V(X)} \\ &=\sqrt{9,9} \\ &\approx 3,1464 \end{aligned}$$
Loi géométrique
Loi géométrique
Nous allons, à partir de la loi de Bernoulli, présenter la dernière loi de ce cours : la loi géométrique.
Définition et propriétés
Définition et propriétés
Reprenons notre exemple du tirage d’une boule dans une urne contenant $5$ boules blanches et $3$ boules vertes, où le succès est de tirer une verte.
- Nous avons vu qu’il s’agissait là d’une épreuve de Bernoulli, avec pour probabilité de succès $\frac 38$.
Nous allons cette fois nous intéresser à la variable aléatoire $X$ qui comptabilise le nombre de tirages nécessaires pour obtenir un succès.
- On dit alors que $X$ suit la loi géométrique de paramètre $\frac 38$.
Loi géométrique :
On considère une épreuve de Bernoulli où la probabilité de succès est $p$.
Si $X$ comptabilise le nombre de répétitions (identiques et indépendantes) de l’épreuve nécessaires pour obtenir le premier succès, alors on dit que $X$ suit la loi géométrique de paramètre $p$.
Imaginons, dans notre expérience, que nous voulions connaître la probabilité de tirer la première boule verte au troisième essai.
- Mettons en valeur, dans l’arbre pondéré correspondant, ce chemin, qui est unique :
Arbre pondéré et loi géométrique
Nous en déduisons la probabilité d’obtenir la première boule verte au troisième essai :
$$\begin{aligned} p(X=3)&=\dfrac 58\times \dfrac 58\times \dfrac 38 \\ &=\left(\green{\dfrac 58}\right)^{\purple 2}\times \blue{\dfrac 38}\approx 0,1465 \\ &=\blue p \times (\green{1-p})^{\purple{3-1}} \end{aligned}$$
La probabilité de tirer la première boule verte au troisième tirage est d’environ $0,1465$.
- Et nous avons au passage illustré la propriété suivante.
Soit $X$ une variable aléatoire qui suit la loi géométrique de paramètre $p$.
Nous avons alors, pour tout entier naturel $k$ non nul :
$$p(X=k)=p\times (1-p)^{k-1}$$
Comme toujours, donnons les formules qui permettent de calculer les indicateurs d’une variable aléatoire qui suit une loi géométrique.
Soit $X$ une variable aléatoire suivant une loi géométrique de paramètre $p$.
L’espérance $E(X)$, la variance $V(X)$ et l’écart-type $\sigma(X)$ sont donnés par :
$$\begin{aligned} E(X)&=\dfrac 1p \\ V(X)&=\dfrac{1-p}{p^2} \\ \sigma(X)&=\sqrt{V(X)}=\dfrac{\sqrt{1-p}}{p} \end{aligned}$$
Pour notre expérience, nous avons donc comme espérance :
$$\begin{aligned} E(X)&=\dfrac 1{\frac 38} \\ &=\dfrac 83 \\ &\approx 2,66 \end{aligned}$$
- Cela signifie qu’il faut, en moyenne, entre $2$ et $3$ tirages pour obtenir une boule verte.
Toujours dans notre exemple, ce qui peut nous intéresser, c’est de connaître la probabilité de tirer une boule verte au plus tard à un certain essai, ou celle de ne toujours pas avoir rencontré le succès au bout d’un certain nombre d’essais.
- Calculons la probabilité de tirer la première boule verte au plus tard au quatrième essai.
- Cela revient à calculer la probabilité que la boule verte ait été tirée au premier essai, ou au deuxième, ou au troisième, ou au quatrième :
$$\begin{aligned} p(X\leq 4) &= \green{p(X=1)} + \blue {p(X=2)} + \purple{p(X=3)} + \red{p(X=4)} \\ &=\green {\dfrac 38 \times \left(\dfrac 58\right)^{1-1}} + \blue{\dfrac 38\times \left(\dfrac 58\right)^{2-1}}+\purple{\dfrac 38\times \left(\dfrac 58\right)^{3-1}} + \red{\dfrac 38\times \left(\dfrac 58\right)^{4-1}} \\ &=\green {\dfrac 38 \times 1} + \blue{\dfrac 38\times \dfrac 58}+\purple{\dfrac 38\times \dfrac {5^2}{8^2}} + \red{\dfrac 38\times \dfrac {5^3}{8^3}} \\ &=\green{\dfrac 38}+\blue{\dfrac{15}{64}}+\purple{\dfrac{75}{512}}+\red{\dfrac{375}{4\,096}} \\ &=\dfrac{3\,471}{4\,096} \\ &\approx 0,8474 \end{aligned}$$
- Nous pouvons en déduire la probabilité de ne toujours pas avoir tiré une boule verte après avoir effectué $4$ tirages.
$$\begin{aligned} p(X>4)&=1-p(X\leq 4) \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[car $X>4$ et $X\leq 4$ sont des événements contraires]}}} \\ &=1-\dfrac{3\,471}{4\,096} \\ &=\dfrac{625}{4\,096} \\ &\approx 0,1526 \end{aligned}$$
- Il y a donc un risque d’environ $15\,\%$ pour que l’on n’ait toujours pas obtenu de boule verte après $4$ tirages.
- Nous allons représenter graphiquement cette loi géométrique, encore une fois grâce à un tableur, pour $k$ jusqu’à $15$.
- Nous mettons en ligne les $15$ valeurs de $k$ auxquelles nous nous intéressons.
- Nous entrons en A2 la formule qui traduit la propriété que nous avons vue :
$3/8\times (5/8)$^$(A1-1)$
- Et nous la recopions vers la droite.
- Nous mettons aussi les probabilités cumulées.
$\footnotesize k$ | $$\footnotesize 1$$ | $$\footnotesize 2$$ | $$\footnotesize \red 3$$ | $$\footnotesize \purple 4$$ | $$\footnotesize 5$$ | $$\footnotesize 6$$ | $$\footnotesize 7$$ |
$$\footnotesize p(X=k)$$ | $$\footnotesize 0,3750$$ | $$\footnotesize 0,2344$$ | $$\footnotesize \red{0,1465}$$ | $$\footnotesize 0,0916$$ | $$\footnotesize 0,0572$$ | $$\footnotesize 0,0358$$ | $$\footnotesize 0,0224$$ |
$$\footnotesize p(X\leq k)$$ | $$\footnotesize 0,3750$$ | $$\footnotesize 0,6094$$ | $$\footnotesize 0,7559$$ | $$\footnotesize \purple{0,8474}$$ | $$\footnotesize 0,9046$$ | $$\footnotesize 0,9404$$ | $$\footnotesize 0,9627$$ |
$$\footnotesize 8$$ | $$\footnotesize 9$$ | $$\footnotesize 10$$ | $$\footnotesize 11$$ | $$\footnotesize 12$$ | $$\footnotesize 13$$ | $$\footnotesize 14$$ | $$\footnotesize 15$$ |
$$\footnotesize 0,0140$$ | $$\footnotesize 0,0087$$ | $$\footnotesize 0,0055$$ | $$\footnotesize 0,0034$$ | $$\footnotesize 0,0021$$ | $$\footnotesize 0,0013$$ | $$\footnotesize 0,0008$$ | $$\footnotesize 0,0005$$ |
$$\footnotesize 0,9767$$ | $$\footnotesize 0,9854$$ | $$\footnotesize 0,9909$$ | $$\footnotesize 0,9943$$ | $$\footnotesize 0,9964$$ | $$\footnotesize 0,9978$$ | $$\footnotesize 0,9986$$ | $$\footnotesize 0,9991$$ |
Représentation graphique d'une loi géométrique de paramètre 3/8
Une loi « sans mémoire »
Une loi « sans mémoire »
Imaginons que nous soyons malchanceux et que nous n’ayons toujours pas sorti de boule verte après $6$ tirages. Nous pourrions penser que, tout de même, cela veut dire qu’il est très improbable que nous ne l’obtenions pas très rapidement.
- Nous aurions tort, car la loi géométrique est dite « sans mémoire ».
Autrement dit, la probabilité que nous tirions une boule verte après le dixième tirage, sachant que nous n’en avons pas tiré durant les six premiers, est égale à la probabilité de la tirer après le quatrième tirage.
- Ainsi, connaître le résultat des premiers tirages n’influe en rien sur les probabilités des tirages suivants.
Soit $X$ une variable aléatoire qui suit une loi géométrique.
Nous avons alors, pour tous entiers naturels non nuls $k$ et $k^{\prime}$ :
$$p_{X > k}(X>k+k^{\prime})=p(X > k^{\prime})$$
- Il s’agit donc de s’intéresser au nombre d’épreuves supplémentaires $k^{\prime}$ par rapport à $k$. La probabilité ne dépend que de $k^{\prime}$.
Nous n’avons toujours pas obtenu de boule verte après $6$ tirages, et nous voulons connaître la probabilité de l’obtenir après le dixième. Ici, nous avons : $k=6$, $k+k^{\prime}=10$, d’où : $k^{\prime}=10-6=4$.
- Cette probabilité est donc égale à la probabilité que la première boule verte soit obtenue après le quatrième tirage, que nous avons donnée dans la partie précédente :
$$\begin{aligned} p_{X>6}(X>10)&=p(X>4) \\ &=\dfrac{625}{4\,096} \\ &\approx 0,1526 \end{aligned}$$
Conclusion :
Dans ce cours, nous avons découvert nos premières lois de probabilité, relativement simples mais aux applications fondamentales dans la théorie des probabilités et la science statistique.
Nous approfondirons, dans le cours prochain, cette notion de loi de probabilité non plus en l’étudiant de manière discrète, mais sur des intervalles continus.