Lois discrètes
Rappels
Rappels
- Soit $A_1,\,A_2,\,…,\,A_n$ une partition de l’univers $\Omega$ et $B$ un événement quelconque de $\Omega$.
- Alors la probabilité de $B$ est donnée par la formule :
$$p(B)=p(A_1\cap B)+p(A_2\cap B)+⋯+p(A_n\cap B)$$
- Soit $A$ et $B$ deux événements de l’univers $\Omega$. Supposons non nulle la probabilité de $A$.
- On appelle probabilité conditionnelle de $B$ sachant $A$ le nombre, noté $p_A (B)$, défini par :
$$p_A (B)=\dfrac{p(A\cap B)}{p(A)}$$
- Soit $A$ et $B$ deux événements associés à une expérience aléatoire.
- $A$ et $B$ sont indépendants :
- si et seulement si : $p(A\cap B)=p(A)\times p(B)$ ;
- si et seulement si : $p_A(B)=p(B)$, avec $p(A)\neq 0$ ;
- si et seulement si : $p_B(A)=p(A)$, avec $p(B)\neq 0$.
- On considère une expérience aléatoire dont l’univers est un ensemble fini $\Omega$.
- Définir une variable aléatoire consiste à associer un réel à chaque issue de l’expérience aléatoire.
- Soit $X$ une variable aléatoire définie sur un univers $\Omega$ et qui prend les valeurs $x_1$, $x_2$, …, $x_n$.
- Définir la loi de probabilité de $X$ consiste à donner les probabilités $p(X=x_i)$, pour tout entier $i$ compris entre $1$ et $n$.
- Soit $X$ une variable aléatoire qui prend les valeurs $x_1$, $x_2$, …, $x_n$ , avec respectivement les probabilités $p_1$, $p_2$, …, $p_n$.
Espérance | $$E(X)=\sum_{i=1}^n x_ip_i$$ |
L’espérance s’interprète comme la valeur moyenne prise par $X$ lorsqu’on répète un grand nombre de fois l’expérience aléatoire. |
Variance | $$V(X)=\sum_{i=1}^n p_i\big(x_i-E(X)\big)^2$$ |
La variance et l’écart-type mesurent la dispersion des valeurs prises par $X$ autour de l’espérance. Plus ils sont grands, plus les valeurs sont dispersées. |
Écart-type | $$\sigma(X)=\sqrt{V(X)}$$ |
Loi uniforme discrète
Loi uniforme discrète
- Soit $X$ une variable aléatoire définie sur $\Omega$ et qui prend ses valeurs dans $\lbrace 1,\,2,\,…,\,n\rbrace$.
- On dit que $X$ suit une loi uniforme sur $\lbrace 1,\,2,\,…,\,n\rbrace$ si, pour tout entier $i\in \lbrace 1,\,2,\,…,\,n\rbrace$ :
$$p(X=i)=\dfrac 1n$$
- Et les indicateurs se calculent avec les formules suivantes :
Loi uniforme | |
Espérance | $$E(X)=\dfrac{n+1}2$$ |
Variance | $$V(X)=\dfrac{n^2-1}{12}$$ |
Écart-type | $$\sigma(X)=\sqrt{\frac{n^2-1}{12}}$$ |
Épreuve, loi et schéma de Bernoulli
Épreuve, loi et schéma de Bernoulli
- Une épreuve de Bernoulli est une expérience aléatoire qui ne comporte que deux issues, appelées généralement succès ($S$) et échec ($E$).
- Si on note $p$ la probabilité d’obtenir $S$, alors, comme $S$ et $E$ sont deux événements contraires ($E=\bar S$), la probabilité d’obtenir $E$ est donc $1-p$.
Image temporaire
- On considère une épreuve de Bernoulli avec une probabilité $p$ d’obtenir un succès.
Soit $X$ la variable aléatoire qui ne prend que deux valeurs : - la valeur $1$ si l’issue est un succès ;
- la valeur $0$ si l’issue est un échec.
- Alors la loi de probabilité de la variable aléatoire $X$ est appelée loi de Bernoulli de paramètre $p$.
$x_i$ | $1$ | $0$ |
$p(X=x_i)$ | $p$ | $1-p$ |
- Les indicateurs se calculent avec les formules suivantes :
Loi de Bernoulli | |
Espérance | $$E(X)=p$$ |
Variance | $$V(X)=p(1-p)$$ |
Écart-type | $$\sigma(X)=\sqrt{p(1-p)}$$ |
- On appelle schéma de Bernoulli la répétition de $n$ épreuves de Bernoulli identiques et indépendantes.
- Pour s’assurer que les conditions « identiques » et « indépendantes » sont vérifiées :
- les issues des épreuves doivent être les mêmes ;
- ces issues doivent avoir les mêmes probabilités d’une épreuve à l’autre.
- Considérons un arbre pondéré représentant un schéma de Bernoulli de paramètres $n$ et $p$. Soit $k$ un entier naturel tel que $0\leq k\leq n$.
- On appelle coefficient binomial, noté $\binom nk$, le nombre de chemins correspondant à $k$ succès.
Propriétés du coefficient binomial | |
Symétrie | $$\begin{aligned} \binom n0&=\binom nn=1 \\ \binom n k&=\binom n {n-k} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $n\in \mathbb N$}}} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{et $0\leq k\leq n$]}}} \end{aligned}$$ |
Formule de Pascal | $$\begin{aligned} \binom nk &=\binom {n-1}k+\binom{n-1}{k-1} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $n\geq 2$}}} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{et $1\leq k\leq n-1$]}}} \end{aligned}$$ |
Loi binomiale
Loi binomiale
- Soit $X$ la variable aléatoire qui compte le nombre de succès obtenus lors de $n$ épreuves d’un schéma de Bernoulli, et $p$ la probabilité de succès à chaque épreuve.
- La variable aléatoire $X$ suit une loi de probabilité appelée loi binomiale de paramètres $n$ et $p$, et notée généralement $\mathcal B(n,\, p)$.
- Pour tout entier naturel $k$ (avec $0\leq k\leq n)$, la probabilité d’obtenir $k$ succès sur les $n$ épreuves est donnée par la formule :
$$p(X=k)=\binom nk p^k (1-p)^{n-k}$$
- Représentation graphique de la loi binomiale ($n=40$ et $p=0,45$) :
Image temporaire
- Les indicateurs sont donnés par les formules suivantes :
Loi binomiale | |
Espérance | $$E(X)=np$$ |
Variance | $$V(X)=np(1-p)$$ |
Écart-type | $$\sigma(X)=\sqrt{np(1-p)}$$ |
- Pour prouver qu’une variable aléatoire $X$ suit une loi binomiale, on justifie que les conditions suivantes sont vérifiées :
- il faut avoir $n$ expériences identiques ;
- chaque expérience a $2$ issues possibles (épreuve de Bernoulli) ;
- ces expériences sont indépendantes les unes des autres ;
- la variable aléatoire $X$ compte le nombre de succès obtenus lors des $n$ épreuves.
Loi géométrique
Loi géométrique
- On considère une épreuve de Bernoulli où la probabilité de succès est $p$.
- Si $X$ comptabilise le nombre de répétitions (identiques et indépendantes) de l’épreuve nécessaires pour obtenir le premier succès, alors on dit que $X$ suit la loi géométrique de paramètre $p$.
- Nous avons alors, pour tout entier naturel $k$ non nul :
$$p(X=k)=p\times (1-p)^{k-1}$$
- Les indicateurs sont donnés par les formules suivantes :
Loi géométrique | |
Espérance | $$E(X)=\dfrac 1p$$ |
Variance | $$V(X)=\dfrac{1-p}{p^2}$$ |
Écart-type | $$\sigma(X)=\dfrac{\sqrt{1-p}}p$$ |
- La loi géométrique est dite « sans mémoire » et nous avons, pour tous entiers naturels non nuls $k$ et $k^{\prime}$ :
$$p_{X > k}(X>k+k^{\prime})=p(X > k^{\prime})$$
- Il s’agit donc de s’intéresser au nombre d’épreuves supplémentaires $k^{\prime}$ par rapport à $k$. La probabilité ne dépend que de $k^{\prime}$.