Sommes de variables aléatoires
- $\Omega$ désigne l’univers associé à une expérience aléatoire et $p$ une probabilité sur $\Omega$.
Transformation de variables aléatoires
Transformation de variables aléatoires
- Une variable aléatoire réelle définie sur l’univers $\Omega$ est une fonction, notée $X$, qui associe un réel à chaque éventualité de l’univers $\Omega$.
- Soit $X$ une variable aléatoire discrète sur $\Omega$ qui prend les valeurs $x_1$, $x_2$, …, $x_n$.
- Définir la loi de probabilité de $X$, c’est donner les valeurs de probabilités $p(X=x_i)$ pour tout entier $i$, avec $1\leq i\leq n$.
- On appelle espérance de $X$ le nombre réel :
$$E(X)= \sum_{i=1}^{n}x_ip_i$$
- La variance de la variable aléatoire $X$ est le réel positif :
$$V(X)= \sum_{i=1}^n p_i\big(x_i-E(X)\big)^2$$
- L’écart-type de la variable aléatoire $X$ est le réel positif :
$$\sigma(X)=\sqrt{V(X)}$$
- Soit deux variables aléatoires $X$ et $Y$ respectivement définies sur les univers $\Omega_1$ et $\Omega_2$.
- $X$ et $Y$ sont dites indépendantes si tout événement lié à la variable aléatoire $X$ est indépendant de tout événement lié à la variable aléatoire $Y$. Pour tout $x\in X(\Omega_1)$ et pour tout $y\in Y(\Omega_2)$ :
$$p\big((X=x)\cap (Y=y)\big)=p(X=x)\times p(Y=y)$$
- $n$ variables aléatoires $X_1$, …, $X_n$, respectivement définies sur les univers $\Omega_1$, …, $\Omega_n$, sont indépendantes si, pour tous $x_1\in X_1(\Omega_1)$, …, $x_n\in X_n(\Omega_n)$ :
$$p\big((X_1=x_1)\cap…\cap (X_n=x_n)\big)=p(X_1=x_1) \times …\times p(X_n=x_n)$$
- Soit $X$ une variable aléatoire définie sur un univers $\Omega$, qui prend les valeurs $x_1$, $x_2$, …, $x_n$.
Et soit $a$ et $b$ deux réels. - La variable aléatoire $Y$ définie par $Y=aX+b$ est aussi une variable aléatoire, qui prend, pour tout $i$ allant de $1$ à $n$, les valeurs $y_i=ax_i+b$.
- $E(Y)=aE(X)+b$.
- $V(Y)=a^2 V(X)$.
- Soit $X$ et $Y$ deux variables aléatoires.
- La variable aléatoire $Z$ définie par $Z=X+Y$ prend pour valeurs les sommes possibles des valeurs prises par $X$ et $Y$.
- $E(Z)=E(X)+E(Y)$.
- Si de plus $X$ et $Y$ sont indépendantes : $V(Z)=V(X)+V(Y)$.
Espérance, variance et écart-type de la loi binomiale
Espérance, variance et écart-type de la loi binomiale
- Soit $X_1$, $X_2$, …, $X_n$ des variables aléatoires indépendantes définies sur le même univers et suivant toutes la même loi de Bernoulli de paramètre $p$, notée $\mathcal B(p)$.
- Leur somme $X_1+X_2+…+X_n$ suit une loi binomiale de paramètres $n$ et $p$, notée $\mathcal B(n,\,p)$.
- Soit $X$ une variable aléatoire suivant une loi binomiale $\mathcal B(n,p)$.
- $X$ peut s’écrire comme une somme de variables aléatoires indépendantes suivant la même loi de Bernoulli :
$$\begin{aligned} &X=X_1+X_2+…+X_n \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $X_1$, $X_2$, …, $X_n$ des variables aléatoires}}} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{ suivant la loi $\mathcal B(p)$]}}} \end{aligned}$$
- $E(X)=np$.
- $V(X)=np(1-p)$.
- $\sigma(X)=\sqrt{V(X)}=\sqrt{np(1-p)}$.
- Il est plus pratique d’utiliser ces dernières propriétés pour calculer l’espérance, la variance et l’écart-type d’une variable aléatoire suivant une loi binomiale.
Somme de variables aléatoires identiques
Somme de variables aléatoires identiques
- Soit $n$ un entier naturel non nul.
- On appelle échantillon de taille $n$ d’une loi de probabilité une liste $(X_1,\,X_2,\,…,\,X_n)$ de variables aléatoires indépendantes suivant toutes cette loi.
- Soit $(X_1,\,X_2,\,…,\,X_n)$ un échantillon de taille $n$ d’une loi de probabilité.
Soit $E$, $V$ et $\sigma$ respectivement l’espérance, la variance et l’écart-type de la variable suivant celle loi. - On note $S_n$ la somme de ces variables aléatoires :
$$S_n=X_1+X_2+ …+X_n$$
- On note $M_n$ la moyenne de ces variables aléatoires :
$$M_n=\dfrac {X_1+X_2+ …+X_n}n =\dfrac{S_n}n $$
Espérance | $E(S_n)=nE$ | $E(M_n)=E$ |
Variance | $V(S_n)=nV$ | $V(M_n)=\dfrac Vn$ |
Écart-type | $\sigma(S_n)=\sqrt n\,\sigma$ | $\sigma(M_n)=\dfrac{\sigma}{\sqrt n}$ |