Succession d’épreuves indépendantes, lois de Bernoulli et binomiale
Introduction :
En classe de première, nous avons vu la notion de variable aléatoire réelle, ainsi que la loi d’une variable aléatoire réelle. Dans ce cours, nous allons voir deux nouvelles lois de probabilité, à savoir la loi de Bernoulli et la loi binomiale.
La loi binomiale est utilisée dans divers domaines d’étude : on s’en sert pour modéliser des situations simples de succès ou d’échec, un jeu de pile ou face, par exemple. Elle est également utilisée dans des tests statistiques qui permettent d’interpréter des données et de prendre des décisions dans des situations dépendant du hasard.
Dans la première partie de ce cours, nous rappellerons quelques notions vues en classe de première, notamment la formule des probabilités totales, la notion d’indépendance et le conditionnement. Ensuite, nous verrons comment définir, à partir d’une épreuve de Bernoulli, la loi de Bernoulli et la loi binomiale.
- Dans tout le chapitre, $\Omega$ désigne l’univers associé à une expérience aléatoire et $p$ une probabilité sur $\Omega$.
Succession d’épreuves indépendantes
Succession d’épreuves indépendantes
Dans cette partie, nous rappellerons quelques notions de première sur les probabilités.
Formule des probabilités totales
Formule des probabilités totales
Intuitivement, il s’agit de considérer toutes les issues d’une expérience aléatoire et d’en faire des groupes de telle sorte qu’aucun groupe ne contienne une même issue.
- Nous parlons alors de partition de l’univers.
Partition de l’univers :
Soit $A_1,\,A_2,\,…,\, A_n$ $n$ événements de $\Omega$, avec $n$ un entier naturel supérieur ou égal à $2$.
On dit que ces événements forment une partition de l’univers $\Omega$ (ou un système complet d’événements) si les $3$ conditions suivantes sont vérifiées :
- aucun des $A_i$ n’est de probabilité nulle pour $i$ allant de $1$ à $n$ ;
- les $A_i$ sont $2$ à $2$ disjoints : $A_i\cap A_j=\varnothing$ pour $i\neq j$, avec $i$ et $j$ compris entre $1$ et $n$ ;
- la réunion des $A_i$ est égale à l’univers $\Omega$ :
$$A_1\cup A_2\cup …\cup A_n=\Omega$$
Pour mieux nous représenter cette notion, illustrons la partition de $\Omega$ pour $n=6$.
Partition d’un univers
- Dans une urne contenant des boules jaunes, noires et rouges, on tire une boule.
Soit $A_1$ : « La boule tirée est jaune », $A_2$ : « La boule tirée est noire », et $A_3$ : « La boule tirée est rouge ».
- Alors $A_1$, $A_2$ et $A_3$ forment une partition de l’univers.
- Un événement $A$ et son contraire $\bar A$, de probabilités non nulles, forment toujours une partition de l’univers $\Omega$.
Nous pouvons maintenant rappeler la formule des probabilités totales.
Soit $A_1,\,A_2,\,…,\,A_n$ une partition de l’univers $\Omega$ et $B$ un événement quelconque de $\Omega$.
Alors la probabilité de $B$ est donnée par la formule :
$$p(B)=p(A_1\cap B)+p(A_2\cap B)+⋯+p(A_n\cap B)$$
Découpage d’un événement sur la partition d’un univers
Comme les événements $A_1,\,A_2,\,…,\,A_n$ forment une partition de l’univers $\Omega$, alors ils sont $2$ à $2$ incompatibles. Donc les événements $A_1\cap B,\,A_2\cap B,\,…,\,A_n\cap B$ sont également deux à deux incompatibles et leur réunion est :
$$(A_1\cap B)\cup (A_2\cap B)\cup…\cup(A_n\cap B)=B$$
- Nous avons donc bien :
$$p(B)=p(A_1\cap B)+p(A_2\cap B)+ … +p(A_n\cap B)$$
Probabilités conditionnelles
Probabilités conditionnelles
Nous allons, à présent, rappeler la notion de conditionnement et de probabilité conditionnelle.
Probabilité conditionnelle :
Soit $A$ et $B$ deux événements de l’univers $\Omega$. Supposons non nulle la probabilité de $A$.
On appelle probabilité conditionnelle de $B$ sachant $A$ le nombre, noté $p_A (B)$, défini par :
$$p_A (B)=\dfrac{p(A\cap B)}{p(A)}$$
Nous pouvons faire quelques remarques :
- $p_A (B)$ est la probabilité que l’événement $B$ se réalise sachant que l’événement $A$ s’est réalisé ;
- $p_A (B)\neq p_B (A)$ ;
- une probabilité conditionnelle a les mêmes propriétés qu’une probabilité ;
- on déduit de la définition que :
$$p(A\cap B)=p_A (B)\times p(A)\footnotesize{\textcolor{#A9A9A9}{\text{ [avec $p(A)\neq0$]}}}$$
Comme on a : $p(A\cap B)=p_A(B)\times p(A)$, alors la formule des probabilités totales peut aussi s’écrire sous la forme :
$$p(B)=p_{A_1} (B)\times p(A_1)+p_{A_2} (B)\times p(A_2)+⋯+p_{A_n} (B)\times p(A_n)$$
Voyons maintenant ce que devient cette formule lorsque l’événement $A$ ne dépend pas de l’événement $B$, c’est-à-dire qu’il n’y a pas de conditionnement.
Indépendance de deux événements
Indépendance de deux événements
Intuitivement, l’on comprend que deux événements sont indépendants si la réalisation de l’un n’a aucune influence sur la réalisation de l’autre.
- Donc, si $A$ et $B$ sont indépendants, la probabilité conditionnelle $p_A (B)$ (de $B$ sachant $A$) est la même que la probabilité $p(B)$ (de $B$).
On a ainsi la définition suivante.
Indépendance de deux événements :
Soit $A$ et $B$ deux événements associés à une expérience aléatoire.
On dit que les événements $A$ et $B$ sont indépendants si et seulement si :
$$p(A\cap B)=p(A)\times p(B)$$
Prenons un exemple simple.
Dans un lancer de dé non truqué à $6$ faces, l’événement $A$ : « Obtenir un nombre pair », et l’événement $B$ : « Obtenir un multiple de $3$ », sont indépendants.
En effet, nous avons :
$$\begin{aligned} p(A)&=\dfrac 36=\dfrac 12 \\ p(B)&=\dfrac 26=\dfrac 13 \\ \textcolor{#A9A9A9}{\text{et\ :\ }} p(A\cap B)&=\dfrac 16 \\ \\ \textcolor{#A9A9A9}{\text{D’où\ :\ }} p(A\cap B)&=p(A)\times p(B) \end{aligned}$$
- $A$ et $B$ sont indépendants.
Ne pas confondre événements indépendants et événements incompatibles.
Quand deux événements $A$ et $B$ ne peuvent se réaliser tous les deux pendant la même expérience, on dit qu’ils sont incompatibles.
- Dans ce cas, $A\cap B=\varnothing$ et donc $p(A\cap B)=0$.
Si $A$ et $B$ sont deux événements indépendants d’un univers $\Omega$, alors l’événement contraire de $A$, noté $\bar A$, et $B$ sont également indépendants.
Donnons une petite représentation, afin de mieux comprendre la démonstration qui va suivre.
Partition d’un univers en un événement et son événement contraire
On a : $B=(A\cap B)\cup(\bar A\cap B)$ et $(A\cap B)\cap(\bar A\cap B)=\varnothing$.
- Donc $p(B)=p(A\cap B)+p(\bar A\cap B)$.
Comme $A$ et $B$ sont indépendants, on a : $p(A\cap B)=p(A)\times p(B)$.
Nous obtenons ainsi :
$$\begin{aligned} p(B)&=p(A\cap B)+p(\bar A\cap B) \\ &= p(A)\times p(B)+ p(\bar A\cap B) \\ \\ \textcolor{#A9A9A9}{\text{Donc\ :\ }} p(\bar A\cap B)&= p(B)- p(A)\times p(B) \\ &=p(B)\big(1-p(A)\big) \\ &=p(B)\times p(\bar A) \footnotesize{\textcolor{#A9A9A9}{\text{ [car $p(\bar A)=1-p(A)$]}}} \end{aligned}$$
- $\bar A$ et $B$ sont donc indépendants.
Passons maintenant à la notion d’épreuves indépendantes, qui est fondée sur celle d’événements indépendants.
Indépendance de deux épreuves successives
Indépendance de deux épreuves successives
Indépendance de $2$ épreuves :
Considérons $2$ expériences aléatoires réalisées successivement.
On dit que l’on réalise une succession de deux épreuves indépendantes si les événements associés à la première expérience sont indépendants des événements associés à la seconde.
- Épreuve $1$ : on lance un dé non truqué (équiprobabilité) à $6$ faces et on note le numéro obtenu.
- Épreuve $2$ : on tire une boule au toucher dans une urne contenant $2$ boules rouges et $3$ boules noires, indiscernables, et on note la couleur de la boule tirée.
- Ces deux épreuves sont indépendantes, car le résultat de l’une n’a clairement aucune influence sur le résultat de l’autre.
La définition nous dit que :
- si l’on considère deux expériences aléatoires indépendantes dont les univers associés sont $\Omega_1$ et $\Omega_2$,
- et si l’on choisit deux événements quelconques $A$ et $B$ de ces univers respectivement,
- alors les événements $A$ et $B$ sont indépendants, c’est-à-dire qu’on a :
$$p(A\cap B)=p(A)\times p(B)$$
Reprenons le petit exemple précédent.
Considérons l’événement $A$ « Obtenir un nombre supérieur ou égal à $3$ » et $B$ l’événement « Tirer une boule noire ». $A$ et $B$ sont deux événements de l’épreuve $1$ et $2$ respectivement.
- Comme les $2$ épreuves sont indépendantes, on a :
$$\begin{aligned} p(A\cap B)&=p(B)\times p(A) \\ &=\dfrac 35\times \dfrac 23 \\ &=\dfrac 25 \end{aligned}$$
Il s’agit tout simplement de la probabilité d’obtenir un nombre supérieur ou égal à $3$ à l’épreuve $1$ et une boule noire à l’épreuve 2.
Si $A$ et $B$ ne sont pas indépendants, alors la formule $p(A\cap B)=p(A)\times p(B)$ n’est pas vraie. Dans ce cas, on utilise plutôt la formule qui découle du conditionnement à savoir : $p(A\cap B)=p_A (B)\times p(A)$.
Si les épreuves ne sont pas indépendantes, on peut s’aider d’un arbre pondéré pour calculer les probabilités.
Aussi, avec un arbre pondéré (à $2$ niveaux), on comprend mieux la formule des probabilités totales.
- Elle est donnée par la règle suivante : la probabilité d’un événement est égale à la somme des probabilités des chemins qui conduisent à cet événement.
Considérons l’arbre pondéré suivant où $A$ et $\bar A$ sont de probabilités non nulles.
Arbre pondéré
On rappelle qu’un événement $A$ et son contraire $\bar A$, de probabilités non nulles, forment une partition de l’univers $\Omega$.
Sur cet arbre, en utilisant les règles de l’addition et de la multiplication, on obtient bien la formule des probabilités totales :
$$\begin{aligned} p(B)&=p(A\cap B)+p(\bar A\cap B) \\ &=p_A (B)\times p(A)+p_{\bar A} (B)\times p(\bar A) \end{aligned}$$
Remarquons que l’arbre précédent nous a donné :
$$\begin{aligned} p(A\cap B)&=p_A (B)\times p(A) \\ \textcolor{#A9A9A9}{\text{Donc\ :\ }} p_A (B)&=\dfrac{p(A\cap B)}{p(A)} \end{aligned}$$
- On retrouve ainsi la formule de probabilité conditionnelle.
Nous allons maintenant généraliser, en passant à la notion d’indépendance de $n$ épreuves aléatoires successives.
Indépendance de $n$ épreuves successives
Indépendance de $n$ épreuves successives
Indépendance de $n$ épreuves successives :
On dit que $n$ épreuves aléatoires successives sont indépendantes lorsqu’elles sont $2$ à $2$ indépendantes (c’est-à-dire que le résultat de l’une quelconque parmi elles ne dépend pas du résultat des autres).
Nous en tirons la propriété suivante.
Considérons une succession de $n$ épreuves indépendantes dont les univers sont $\Omega_1,\,\Omega_2,\,…,\,\Omega_n$.
Pour tous événements $A_1,\,A_2,\,…,\,A_n$ de ces univers respectivement, on a :
$$p(A_1\cap A_2\cap …\cap A_n)=p(A_1)\times p(A_2)\times …\times p(A_n)$$
Après avoir redécouvert ces notions de probabilité vues en première, et essentielles pour la suite de notre chapitre (et pour bien d’autres, d’ailleurs), nous allons maintenant étudier deux nouvelles lois de probabilité : la loi de Bernoulli et la loi binomiale.
Épreuve et loi de Bernoulli
Épreuve et loi de Bernoulli
Épreuve de Bernoulli
Épreuve de Bernoulli
Commençons par définir ce type d’expérience aléatoire.
Épreuve de Bernoulli :
Une épreuve de Bernoulli est une expérience aléatoire qui ne comporte que deux issues, appelées généralement succès ($S$) et échec ($E$).
Si on note $p$ la probabilité d’obtenir $S$, alors, comme $S$ et $E$ sont deux événements complémentaires ($E=\bar S$), la probabilité d’obtenir $E$ est donc $1-p$.
Voici l’arbre correspondant à une épreuve de Bernoulli :
Arbre d’une épreuve de Bernoulli
Prenons quelques exemples.
- L’expérience qui consiste à lancer une pièce de monnaie et à regarder si la face pile est obtenue est une épreuve de Bernoulli. En effet, on n’a que deux issues : soit pile (succès), soit face (échec).
- Si la pièce n’est pas truquée, la probabilité $p$ d’obtenir un succès est égale à $\frac 12$.
- L’expérience qui consiste à tirer une carte au hasard dans un jeu de $32$ cartes et à regarder si c’est un as est aussi une épreuve de Bernoulli : les issues possibles sont tirer un as (succès) et toute autre carte (échec).
- Si le jeu de cartes n’est pas truqué, la probabilité $p$ d’obtenir un succès est égale à $\frac 4{32}=\frac 18$.
Loi de Bernoulli
Loi de Bernoulli
Dans le cas d’une épreuve de Bernoulli, nous pouvons définir une variable aléatoire $X$.
Par convention, nous choisissons d’associer $1$ à toute issue correspondant à un succès et $0$ à toute issue correspondant à un échec.
- Ainsi, si $\Omega$ est l’univers de l’épreuve de Bernoulli considérée :
$$X(\Omega)=\lbrace 0,\,1\rbrace$$
Et nous pouvons donner sa loi de probabilité, appelée loi de Bernoulli.
Loi de Bernoulli :
On considère une épreuve de Bernoulli avec une probabilité $p$ d’obtenir un succès.
Soit $X$ la variable aléatoire qui ne prend que deux valeurs :
- la valeur $1$ si l’issue est un succès ;
- la valeur $0$ si l’issue est un échec.
Alors la loi de probabilité de la variable aléatoire $X$ est appelée loi de Bernoulli de paramètre $p$.
Elle est donnée par le tableau suivant :
$x_i$ | $1$ | $0$ |
$p(X=x_i)$ | $p$ | $1-p$ |
En première, nous avions découvert les indicateurs d’une variable aléatoire : l’espérance et la variance.
Si $X$ est une variable aléatoire suivant une loi de Bernoulli de paramètre $p$, alors :
- l’espérance mathématique de $X$ vaut :
$$E(X)=p$$
- la variance de $X$ vaut :
$$V(X)=p(1-p)$$
Nous pouvons le démontrer facilement, grâce aux définitions que nous connaissons.
- Par définition, l’espérance de $X$ est :
$$\begin{aligned} E(X)&=1\times p(X=1)+0\times p(X=0) \\ &=1\times p+0\times (1-p)\\ &=p \end{aligned}$$
- Par définition de la variance, on a :
$$\begin{aligned} V(X)&=p(X=1)\times \big(1-E(X)\big)^2+p(X=0)\times \big(0-E(X)\big)^2 \\ &=p\times (1-p)^2+(1-p)\times (0-p)^2 \footnotesize{\textcolor{#A9A9A9}{\text{ [car $E(X)=p$]}}} \\ &=(1-p)\times \big(p(1-p)+p^2\big) \footnotesize{\textcolor{#A9A9A9}{\text{ [en factorisant par $(1-p)$]}}} \\ &=(1-p)\times (p-p^2+p^2) \\ &=(1-p)\times p \end{aligned}$$
Nous allons maintenant voir ce qui se passe si l’on répète une épreuve de Bernoulli plusieurs fois de suite.
Schéma de Bernoulli
Schéma de Bernoulli
Schéma de Bernoulli :
On appelle schéma de Bernoulli la répétition de $n$ épreuves de Bernoulli identiques et indépendantes.
Les conditions identiques et indépendantes sont fondamentales pour être dans le cas d’un schéma de Bernoulli. Elles doivent donc être toujours vérifiées dans chaque situation.
Pour cela, nous vérifions :
- si les issues des épreuves sont les mêmes ;
- et si ces issues ont les mêmes probabilités d’une épreuve à l’autre.
On peut représenter un schéma de Bernoulli par un arbre pondéré, mais qui devient compliqué à tracer pour $n$ assez grand.
Donnons celui correspondant à un schéma de Bernoulli pour $n=3$ (épreuve de Bernoulli répétée $3$ fois) :
Arbre d’un schéma de Bernoulli pour trois épreuves de Bernoulli
Dans une urne contenant $5$ boules blanches et $3$ boules vertes, indiscernables au toucher, on tire une boule au hasard.
On regarde si elle est verte, on a alors un succès, et on la remet.
On effectue au total $3$ tirages.
- Nous voyons bien ici que les issues sont les mêmes : « La boule tirée est verte » et « La boule tirée est blanche ».
- Et, comme, il y a remise après tirage, les probabilités sont identiques pour chaque expérience.
- La répétition de cette expérience $3$ fois de suite est un schéma de Bernoulli, avec les paramètres $n=3$ et $p=\frac 38$.
$p$ est la probabilité d’obtenir un succès : « La boule tirée est verte ». La probabilité d’obtenir un échec : « La boule tirée est blanche », est alors égale à $1-p$.
Ce schéma de Bernoulli est représenté par l’arbre pondéré suivant, dans lequel $V$ est l’événement « La boule tirée est verte » (succès) et $B$ « La boule tirée est blanche » (échec).
Arbre du schéma de Bernoulli de l’exemple
Dans l’exemple que nous venons de voir, nous l’avons sous-entendu, mais insistons tout de même : s’il n’y avait pas eu remise après tirage, alors les probabilités n’auraient pas été identiques d’un tirage à l’autre.
En effet, si par exemple on tire au premier tirage une boule verte et qu’on ne la remet pas, alors la probabilité lors du deuxième tirage d’obtenir une boule verte sera moindre, tandis que celle d’obtenir une boule blanche sera plus grande.
- Nous n’aurions alors pas été dans le cas d’une épreuve de Bernoulli.
Loi binomiale
Loi binomiale
Nous venons donc de définir ce qu’était un schéma de Bernoulli. Nous allons maintenant nous intéresser à ce qui nous importe vraiment ici, c’est-à-dire à la probabilité d’avoir $k$ succès dans un schéma de Bernoulli composé de $n$ épreuves (avec donc $n$ et $k$ des entiers naturels tels que $k\leq n$).
Définition
Définition
Loi binomiale :
Soit $X$ la variable aléatoire qui compte le nombre de succès obtenus lors de $n$ épreuves d’un schéma de Bernoulli, et $p$ la probabilité de succès à chaque épreuve.
Alors la variable aléatoire $X$ suit une loi de probabilité appelée loi binomiale de paramètres $n$ et $p$, et notée généralement $\mathcal B(n,\, p)$.
Pour prouver qu’une variable aléatoire $X$ suit une loi binomiale, on justifie que les conditions suivantes sont vérifiées :
- il faut avoir $n$ expériences identiques ;
- chaque expérience a $2$ issues possibles (épreuve de Bernoulli) ;
- ces expériences sont indépendantes les unes des autres ;
- la variable aléatoire $X$ compte le nombre de succès obtenus lors des $n$ épreuves.
Reprenons notre dernier exemple pour bien comprendre cette loi binomiale.
On considère la variable aléatoire $X$, qui donne le nombre de boules vertes obtenues après $3$ tirages.
Toutes les conditions données plus haut sont vérifiées.
- $X$ suit une loi binomiale $\mathcal B\left(3,\, \frac 38\right)$.
Avec l’arbre précédent, on peut expliciter cette loi binomiale $\mathcal B\left(3,\, \frac 38\right)$.
- D’abord, les valeurs possibles prises par $X$ sont : $0$, $1$, $2$ et $3$ (valeurs correspondant au nombre de succès possibles lors des $3$ tirages avec remise).
- Ensuite, pour calculer, par exemple, la probabilité d’avoir $2$ fois un succès, on s’intéresse aux chemins contenant exactement $2$ fois l’événement $V$.
- Il y a $3$ chemins qui correspondent à $2$ succès, à savoir $(B,\,V,\,V)$, $(V,\,B,\,V)$ et $(V,\,V,\,B)$. Donc :
$$\begin{aligned} p(X=2)&= \left( \dfrac 58\times \dfrac 38\times \dfrac 38\right)+\left(\dfrac 38\times \dfrac 58\times \dfrac 38\right)+\left(\dfrac 38\times \dfrac 38\times \dfrac 58\right) \\ &=\dfrac{45}{512}+\dfrac{45}{512}+\dfrac {45}{512} \\ &=3\times \dfrac{45}{512} \\ &=\dfrac{135}{512} \end{aligned}$$
De même, on pourra calculer $p(X=0)$, $p(X=1)$ et $p(X=3)$.
Coefficient binomial
Coefficient binomial
Nous avons découvert le coefficient binomial dans le cours sur le nombre de combinaisons de $k$ éléments dans un ensemble à $n$ éléments ($n$ et $k$ des entiers naturels tels que $k\leq n$).
Dans ce même cours, nous avions aussi pris un exemple pour montrer que le nombre de chemins menant à un événement considéré comme un succès est donné par le coefficient binomial.
- Nous allons ici rappeler certaines propriétés et préciser la notion dans notre contexte.
Coefficient binomial :
Considérons un arbre pondéré représentant un schéma de Bernoulli de paramètres $n$ et $p$. Soit $k$ un entier naturel tel que $0\leq k\leq n$.
On appelle coefficient binomial, noté $\binom nk$, le nombre de chemins correspondant à $k$ succès.
- La notation $\binom nk$ se lit « k parmi n ».
Considérons l’arbre pondéré suivant correspondant au schéma de Bernoulli pour $n=3$, avec $p$ la probabilité d’obtenir un succès ($S$) et $1-p$ la probabilité d’obtenir un échec ($E$).
Arbre d’un schéma de Bernoulli pour trois épreuves de Bernoulli
Nous cherchons à savoir combien de chemins mènent à $2$ succès. Autrement dit, le nombre de combinaisons de $2$ parmi $3$.
- Ces chemins sont : $(S,\,S,\,E)$, $(S,\,E,\,S)$ et $(E,\,S,\,S)$. On a donc :
$$\binom 32=3$$
De même, on a :
$$\displaystyle \binom 30=1$$ | Il y a $1$ seul chemin contenant $0$ succès | $$(E,\,E,\,E)$$ |
$$\displaystyle \binom 31=3$$ | Il y a $3$ chemins contenant $1$ succès | $$\begin{aligned} (S,\,E,\,E) \\ (E,\,S,\,E) \\ (E,\,E,\,S) \end{aligned}$$ |
$$\displaystyle \binom 33=1$$ | Il y a $1$ seul chemin contenant $3$ succès | $$(S,\,S,\,S)$$ |
Nous remarquons les égalités suivantes :
$$\begin{aligned} \binom 30&=\binom 33=1 \\ \binom 31&=\binom 32=3 \end{aligned}$$
Nous retrouvons les propriétés suivantes.
Soit $n$ un entier naturel.
Nous avons :
$$\begin{aligned} \binom n0&=\binom nn=1 \\ \binom n k&=\binom n {n-k} \footnotesize{\textcolor{#A9A9A9}{\text{ [où $0\leq k\leq n$]}}} \end{aligned}$$
Nous pouvons aussi donner la formule de Pascal, que nous avons démontrée dans le cours sur la combinatoire.
Si $n\geq 2$ et $1\leq k\leq n-1$, nous avons :
$$\binom nk =\binom {n-1}k+\binom{n-1}{k-1}$$
Avec ces formules, on peut calculer de proche en proche les coefficients binomiaux.
- Pour cela, nous pouvons nous servir du triangle de Pascal, que nous redonnons jusqu’à $n=9$ :
$^{k\,\rightarrow}_{n\,\downarrow}$ | $0$ | $1$ | $2$ | $3$ | $4$ | $5$ | $6$ | $7$ | $8$ | $9$ |
$0$ | $1$ | |||||||||
$1$ | $1$ | $1$ | ||||||||
$2$ | $1$ | $2$ | $1$ | |||||||
$3$ | $1$ | $3$ | $3$ | $1$ | ||||||
$4$ | $1$ | $4$ | $6$ | $4$ | $1$ | |||||
$5$ | $1$ | $5$ | $10$ | $10$ | $5$ | $1$ | ||||
$6$ | $1$ | $6$ | $15$ | $20$ | $15$ | $6$ | $1$ | |||
$7$ | $1$ | $7$ | $21$ | $35$ | $35$ | $21$ | $7$ | $1$ | ||
$8$ | $1$ | $8$ | $28$ | $56$ | $70$ | $56$ | $28$ | $8$ | $1$ | |
$9$ | $1$ | $9$ | $36$ | $84$ | $126$ | $126$ | $84$ | $36$ | $9$ | $1$ |
On peut aussi calculer ces coefficients binomiaux avec une calculatrice.
Probabilités pour une loi binomiale
Probabilités pour une loi binomiale
Soit $X$ une variable aléatoire suivant une loi binomiale $\mathcal B(n,\, p)$.
Pour tout entier naturel $k$ (avec $0\leq k\leq n)$, la probabilité d’obtenir $k$ succès sur les $n$ épreuves est donnée par la formule :
$$p(X=k)=\binom nk p^k (1-p)^{n-k}$$
Considérons l’arbre correspondant à la loi binomiale $\mathcal B(n,\,p)$.
Si un chemin contient $k$ succès, alors il contient $n-k$ échecs.
- Donc la probabilité de réaliser ce chemin est :
$$\underbrace{p \times …\times p}_{k \text{ fois}}\times \underbrace{(1-p)\times …(1-p)}_{n-k \text{ fois}}=p^k\times (1-p)^{n-k}$$
Or le nombre de chemins correspondant à $k$ succès est égal à $\binom nk$, donc la probabilité d’obtenir $k$ succès est :
$$p(X=k)=\binom nk p^k (1-p)^{n-k}$$
- C’est $\binom nk$ fois la probabilité d’un chemin avec $k$ succès.
On peut retrouver le résultat de l’exemple précédent avec cette formule.
- En effet, avec $n=3$ et $p=\frac 38$, on a :
$$\begin{aligned} p(X=2)&=\binom 3 2\times \left(\dfrac 38\right)^2\times \left(\dfrac 58\right)^{3-2}\\ &=3\times \dfrac{45}{512} \\ &=\dfrac{135}{512} \end{aligned}$$
Conclusion :
Dans ce cours, nous avons vu comment définir les lois de Bernoulli et binomiale : ces lois sont respectivement associées à une épreuve et un schéma de Bernoulli.
On peut noter également que la loi de Bernoulli est un cas particulier de la loi binomiale (elle est la loi binomiale pour $n=1$).
uu