Lois usuelles
Généralités
Fonction de répartition d’une loi discrète
Si X est une variable aléatoire telle que \(\mathrm{X}(\Omega)=\) \(\left\{x_{1}, \ldots, x_{n}\right\}\), sa fonction de répartition est égale à
\[ \mathrm{F}_{\mathrm{X}}(x)=\mathrm{P}(\mathrm{X} \leqslant x)=\sum_{\substack{1 \leqslant i \leqslant n \\ x_{i} \leqslant x}} \mathrm{P}\left(\mathrm{X}=x_{i}\right) \]
Fonction de répartition d’une loi continue
Si X est une variable aléatoire de densité \(f\), sa fonction de répartition est égale à
\[ \mathrm{F}_{\mathrm{X}}(x)=\mathrm{P}(\mathrm{X} \leqslant x)=\int_{-\infty}^{x} f(t) \mathrm{d} t \]
On a alors
\[ \mathrm{P}(\mathrm{X}>x)=1-\mathrm{F}_{\mathrm{X}}(x) \]
et sa densité vaut \(f(x)=\mathrm{F}_{\mathrm{X}}^{\prime}(x)\)
Probabilités du min et du max
Si les variables \(\mathrm{T}_{i}\) sont indépendantes,
\[ \begin{aligned} & \mathrm{P}\left(\max \mathrm{~T}_{i} \leqslant x\right)=\prod_{i=1}^{n} \mathrm{P}\left(\mathrm{~T}_{i} \leqslant x\right) \\ & \mathrm{P}\left(\min \mathrm{~T}_{i} \leqslant x\right)=1-\prod_{i=1}^{n}\left[1-\mathrm{P}\left(\mathrm{~T}_{i} \leqslant x\right)\right] \end{aligned} \]
Espérance et variance dans le cas discret Si X est une variable aléatoire discrète,
\[ \begin{aligned} \mathrm{E}(\mathrm{X}) & =\sum_{k=0}^{+\infty} k \mathrm{P}(\mathrm{X}=k) \\ \mathrm{E}\left(\mathrm{X}^{2}\right) & =\sum_{k=0}^{+\infty} k^{2} \mathrm{P}(\mathrm{X}=k) \\ \mathrm{V}(\mathrm{X}) & =\mathrm{E}\left(\mathrm{X}^{2}\right)-\mathrm{E}(\mathrm{X})^{2} \end{aligned} \]
Espérance et variance dans le cas continu
Si X est une variable aléatoire continue de densité \(f\),
\[ \begin{aligned} \mathrm{E}(\mathrm{X}) & =\int_{-\infty}^{+\infty} x f(x) \mathrm{d} x \\ \mathrm{E}\left(\mathrm{X}^{2}\right) & =\int_{-\infty}^{+\infty} x^{2} f(x) \mathrm{d} x \\ \mathrm{~V}(\mathrm{X}) & =\mathrm{E}\left(\mathrm{X}^{2}\right)-\mathrm{E}(\mathrm{X})^{2} \end{aligned} \]
Propriétés de l’espérance et de la variance
Si X et Y sont deux variables aléatoires et \(a\) un réel,
\[ \begin{aligned} \mathrm{E}(a \mathrm{X}) & =a \mathrm{E}(\mathrm{X}) \\ \mathrm{E}(\mathrm{X}+\mathrm{Y}) & =\mathrm{E}(\mathrm{X})+\mathrm{E}(\mathrm{Y}) \end{aligned} \]
Important : toujours calculer à l’intérieur de l’espérance avant de séparer les termes. Par exemple, \(\mathrm{E}\left((\mathrm{X}-a)^{2}\right)=\mathrm{E}\left(\mathrm{X}^{2}-2 a \mathrm{X}+a^{2}\right)=\mathrm{E}\left(\mathrm{X}^{2}\right)-2 a \mathrm{E}(\mathrm{X})+a^{2}\) Si les \(\mathrm{X}_{i}\) sont des variables aléatoires,
\[ \mathrm{E}\left(\frac{1}{n} \sum_{i=1}^{n} \mathrm{X}_{i}\right)=\frac{1}{n} \sum_{i=1}^{n} \mathrm{E}\left(\mathrm{X}_{i}\right) \]
et si elles sont indépendantes,
\[ \mathrm{V}\left(\frac{1}{n} \sum_{i=1}^{n} \mathrm{X}_{i}\right)=\frac{1}{n^{2}} \sum_{i=1}^{n} \mathrm{~V}\left(\mathrm{X}_{i}\right) \]
Principales lois discrètes
Loi uniforme
\(\mathrm{X}(\Omega)=\left\{x_{1}, \ldots, x_{n}\right\}\) \(\mathrm{P}\left(\mathrm{X}=x_{i}\right)=1 / n\)
Loi de Bernoulli
Loi de Bernoulli \(\mathcal{B}(p)\)
\(\mathrm{X}(\Omega)=\{0,1\}\), paramètre \(p\) \(\mathrm{P}(\mathrm{X}=1)=p, \mathrm{P}(\mathrm{X}=0)=1-p\) \(\mathrm{E}(\mathrm{X})=p, \mathrm{~V}(\mathrm{X})=p(1-p)\)
Loi binomiale
Loi binomiale \(\mathcal{B}(n, p)\)
\(\mathrm{X}(\Omega)=\{0, \ldots, n\}\), paramètre \(p\) \(\mathrm{P}(\mathrm{X}=k)=\binom{n}{k} p^{k}(1-p)^{n-k}\) \(\mathrm{E}(\mathrm{X})=n p, \mathrm{~V}(\mathrm{X})=n p(1-p)\)
Loi hypergéométrique
Loi hypergéométrique \(\mathcal{H}\left(\mathrm{N}, n, \mathrm{~N}_{\mathrm{A}}\right)\)
On effectue \(n\) tirages sans remise dans une urne contenant N objets dont \(\mathrm{N}_{\mathrm{A}} \geqslant n\) objets de type A . X est le nombre d’objets de type A obtenus. \(\mathrm{X}(\Omega)=\{1, \ldots, n\}\), paramètres \(\mathrm{N}, n\) et \(\mathrm{N}_{\mathrm{A}}\left(p=\mathrm{N}_{\mathrm{A}} / \mathrm{N}\right)\) \(\mathrm{P}(\mathrm{X}=k)=\frac{\binom{\mathrm{N}_{\mathrm{A}}}{k}\binom{\mathrm{~N}-\mathrm{N}_{\mathrm{A}}}{n-k}}{\binom{\mathrm{~N}}{k}}\) \(\mathrm{E}(\mathrm{X})=n p, \mathrm{~V}(\mathrm{X})=n p(1-p)(\mathrm{N}-n) /(\mathrm{N}-1)\)
Loi de Poisson
Loi de Poisson \(\mathcal{P}(\lambda)\)
\(\mathrm{X}(\Omega)=\mathbb{N}\), paramètre \(\lambda\) \(\mathrm{P}(\mathrm{X}=k)=\mathrm{e}^{-\lambda} \frac{\lambda^{k}}{k!}\) \(\mathrm{E}(\mathrm{X})=\lambda, \mathrm{V}(\mathrm{X})=\lambda\)
Loi Géométrique
\(\mathrm{X}(\Omega)=\mathbb{N}^{*}\), paramètre \(p\) \(\mathrm{P}(\mathrm{X}=k)=(1-p)^{k-1} p\) \(\mathrm{E}(\mathrm{X})=1 / p, \mathrm{~V}(\mathrm{X})=(1-p) / p^{2}\)
Principales lois continues
Loi uniforme
Loi uniforme \(\mathcal{U}(a, b)\)
\(\mathrm{X}(\Omega)=[a ; b]\), paramètres \(a\) et \(b\) \(f(x)= \begin{cases}1 /(b-a) & \text { si } x \in[a ; b] \\ 0 & \text { sinon }\end{cases}\) \(\mathrm{E}(\mathrm{X})=(a+b) / 2, \mathrm{~V}(\mathrm{X})=(b-a)^{2} / 12\)
Loi exponentielle
Loi exponentielle \(\mathcal{E}(\lambda)\)
\(\mathrm{X}(\Omega)=\mathbb{R}^{+}\), paramètre \(\lambda\) \(f(x)= \begin{cases}1 / \lambda \mathrm{e}^{-x / \lambda} & \text { si } x \geqslant 0 \\ 0 & \text { sinon }\end{cases}\) \(\mathrm{E}(\mathrm{X})=1 / \lambda, \mathrm{V}(\mathrm{X})=1 / \lambda^{2}\)
Loi normale
Loi normale \(\mathcal{N}(m, \sigma)\)
\(\mathrm{X}(\Omega)=\mathbb{R}\), paramètres \(m\) (moyenne) et \(\sigma\) (écart-type) \(f(x)=\frac{1}{\sigma \sqrt{2 \pi}} \exp \left(-\frac{(x-m)^{2}}{2 \sigma^{2}}\right) \quad\) si \(x \in \mathbb{R}\) \(\mathrm{E}(\mathrm{X})=m, \mathrm{~V}(\mathrm{X})=\sigma^{2}\)
Loi du khi-deux
Loi du khi-deux \(\chi_{n}^{2}\)
\(\mathrm{X}(\Omega)=\mathbb{R}^{+}\), paramètre \(n\) (degré de liberté) \(\mathrm{E}(\mathrm{X})=n, \mathrm{~V}(\mathrm{X})=2 n\)
Loi de Student
Loi de Student \(\mathrm{T}_{n}\)
\(\mathrm{X}(\Omega)=\mathbb{R}\), paramètre \(n\) (degré de liberté) \(\mathrm{E}(\mathrm{X})=0\) pour \(n>1, \mathrm{~V}(\mathrm{X})=n /(n-2)\) pour \(n>2\)
Relations entre les principales lois
Propriétés
Si les variables \(\mathrm{X}_{i}\) suivent une loi \(\mathcal{B}(p)\) et sont indépendantes, alors la variable \(\sum_{i=1}^{n} \mathrm{X}_{i}\) suit une loi \(\mathcal{B}(n, p)\).
Si les variables \(\mathrm{X}_{i}\) suivent une loi \(\mathcal{P}\left(\lambda_{i}\right)\) et sont indépendantes, alors la variable \(\sum_{i=1}^{n} \mathrm{X}_{i}\) suit une loi \(\mathcal{P}\left(\sum \lambda_{i}\right)\).
Si la variable X suit une loi \(\mathcal{N}\left(m, \sigma^{2}\right)\), la variable \(\mathrm{Y}=a \mathrm{X}+b\) suit une loi \(\mathcal{N}\left(a m+b, a^{2} \sigma^{2}\right)\).
Si la variable X suit une loi \(\mathcal{N}\left(m, \sigma^{2}\right)\), alors la variable \(\mathrm{Y}=(\mathrm{X}-m) / \sigma\) suit une loi \(\mathcal{N}(0,1)\). En particulier, \(\mathrm{P}(\mathrm{X} \leqslant u)=\mathrm{P}(\mathrm{Y} \leqslant(u-m) / \sigma)\).
Approximations
Si \(n \geqslant 30\) et \(n p<5\), on peut approcher une loi \(\mathcal{B}(n, p)\) par une loi \(\mathcal{P}(n p)\).
Si \(n \geqslant 30, n p \geqslant 5\) et \(n(1-p) \geqslant 5\), alors on peut approcher une loi \(\mathcal{B}(n, p)\) par une loi \(\mathcal{N}(n p, n p(1-p))\).
Si \(\mathrm{N} \geqslant 10 n\), on peut approcher une loi \(\mathcal{H}(\mathrm{N}, n, p \mathrm{~N})\) par une loi \(\mathcal{B}(n, p)\).
Si \(\lambda\) est assez grand, on peut approcher une loi \(\mathcal{P}(\lambda)\) par une \(\mathcal{N}(\lambda, \sqrt{\lambda})\).
Si \(n\) est assez grand, on peut approcher une loi \(\chi_{n}^{2}\) par une loi \(\mathcal{N}(n, \sqrt{2 n})\).
Si \(n\) est assez grand, on peut approcher une loi \(\mathrm{T}_{n}\) par une loi \(\mathcal{N}(0, \sqrt{1})\).
Lois normale, du \(\chi^{2}\) et de Student
Si \(\mathrm{X}_{1}, \ldots, \mathrm{X}_{n}\) sont indépendantes et \(\mathrm{X}_{i} \rightsquigarrow \mathcal{N}(0,1)\) pour tout \(i \in\{1, \ldots, n\}\), alors \(\mathrm{X}_{1}{ }^{2}+\cdots+\mathrm{X}_{n}{ }^{2} \rightsquigarrow \chi_{n}^{2}\). Si \(\mathrm{X} \rightsquigarrow \mathcal{N}(0,1)\), Y suit une loi de \(\chi^{2}\) à \(n\) degrés de liberté et X et Y sont indépendantes, alors \(\mathrm{Z}=\sqrt{n} \mathrm{X} / \sqrt{\mathrm{Y}}\) suit une loi de Student à \(n\) degrés de liberté.
Cas particuliers importants (moments empiriques):
Moyenne empirique
\[ \overline{\mathrm{X}}_{n}=\frac{1}{n} \sum_{i=1}^{n} \mathrm{X}_{i} \]
Variance empirique
\[ \mathrm{S}_{n}^{2}=\frac{1}{n-1} \sum_{i=1}^{n}\left(\mathrm{X}_{i}-\overline{\mathrm{X}}_{n}\right)^{2} \]
Si \(\mathrm{X}_{1}, \ldots, \mathrm{X}_{n}\) sont indépendantes et \(\mathrm{X}_{i} \rightsquigarrow \mathcal{N}(0,1)\) pour tout \(i \in\{1, \ldots, n\}\), alors \(\mathrm{Y}_{n}=\sum_{i=1}^{n} \mathrm{X}_{i}{ }^{2} \rightsquigarrow \chi_{n}^{2}\).
Si \(\mathrm{X}_{1}, \ldots, \mathrm{X}_{n}\) sont indépendantes et \(\mathrm{X}_{i} \rightsquigarrow \mathcal{N}(m, \sigma)\) pour tout \(i \in\{1, \ldots, n\}\), alors \(\mathrm{Z}_{n}=\sum_{i=1}^{n}\left(\mathrm{X}_{i}-m\right)^{2} / \sigma^{2} \rightsquigarrow \chi_{n}^{2}\). Si \(\mathrm{X}_{1}, \ldots, \mathrm{X}_{n}\) sont indépendantes et \(\mathrm{X}_{i} \rightsquigarrow \mathcal{N}(m, \sigma)\) pour tout \(i \in\{1, \ldots, n\}\), alors
\[ (n-1) \mathrm{S}_{n}^{2} / \sigma^{2} \rightsquigarrow \chi_{n-1}^{2} \]
(car les \(\mathrm{X}_{i}-\overline{\mathrm{X}_{n}}\) sont liées par une relation : leur somme vaut 0 puisque \(\left.\overline{\mathrm{X}_{n}}=\sum \mathrm{X}_{i} / n\right)\). Si \(\mathrm{X}_{1}, \ldots, \mathrm{X}_{n}\) sont indépendantes et \(\mathrm{X}_{i} \rightsquigarrow \mathcal{N}(m, \sigma)\) pour tout \(i \in\{1, \ldots, n\}\), alors \(\mathrm{T}_{n}=\sqrt{n} \frac{\overline{\mathrm{X}_{n}}-m}{\mathrm{~S}_{n}} \rightsquigarrow \mathrm{~T}(n-1)\).
Utiliser les tables statistiques
Loi normale centrée réduite
La table de la fonction de répartition de la loi normale centrée réduite donne les valeurs de \(\mathrm{P}(\mathrm{X} \leqslant u)\) pour \(u\) positif donné. Pour déterminer d’autres valeurs, on utilise les formules suivantes:
\[ \begin{aligned} \mathrm{P}(\mathrm{X}>u) & =1-\mathrm{P}(\mathrm{X} \leqslant u) \\ \mathrm{P}(u<\mathrm{X}<v) & =\mathrm{P}(\mathrm{X}<v)-\mathrm{P}(\mathrm{X} \leqslant u) \\ \mathrm{P}(|\mathrm{X}| \leqslant u) & =\mathrm{P}(-u \leqslant \mathrm{X} \leqslant u) \\ \mathrm{P}(|\mathrm{X}| \geqslant u) & =2 \mathrm{P}(\mathrm{X} \geqslant u) \\ \mathrm{P}\left(\mathrm{X}^{2} \leqslant u\right) & =\mathrm{P}(|\mathrm{X}| \leqslant \sqrt{u}) \end{aligned} \]
Pour \(u\) négatif, on utilise
\[ \mathrm{P}(\mathrm{X} \leqslant u)=\mathrm{P}(\mathrm{X}>-u)=1-\mathrm{P}(\mathrm{X} \leqslant-u) \]
On peut également utiliser la table «à l’envers », pour déterminer \(u\) tel que \(\mathrm{P}(\mathrm{X} \leqslant u)=p\) pour \(p\) donné.
Loi de \(\chi^{2}\)
La table de la loi de \(\chi^{2}\) donne la valeur \(u\) telle que \(\mathrm{P}(\mathrm{X} \geqslant u)=p\) pour \(p\) donné. Pour déterminer \(u\) telle que \(\mathrm{P}(\mathrm{X} \leqslant u)=p\) pour \(p\) donné, on utilise la formule
\[ \mathrm{P}(\mathrm{X}>u)=1-\mathrm{P}(\mathrm{X} \leqslant u)=1-p \]
et on cherche dans la table la valeur \(u\) correspondant à \(1-p\).
Lorsque l’on cherche deux valeurs \(u_{1}\) et \(u_{2}\) telles que \(\mathrm{P}\left(u_{1} \leqslant \mathrm{X} \leqslant u_{2}\right)=p\), on considère un intervalle symétrique et on cherche \(u_{1}\) et \(u_{2}\) tels que \(\mathrm{P}\left(\mathrm{X} \geqslant u_{2}\right)=p / 2\) et \(\mathrm{P}\left(\mathrm{X} \geqslant u_{1}\right)=1-\mathrm{P}\left(\mathrm{X}<u_{1}\right)=1-p / 2\).
Loi de Student
La table de la loi de Student donne la valeur de \(u\) telle que \(\mathrm{P}(|\mathrm{X}|>u)=p\) pour \(p\) donné. Pour trouver la valeur de \(u\) telle que \(\mathrm{P}(-u \leqslant \mathrm{X} \leqslant u)=p\) pour \(p\) donné, on cherche la valeur de \(u\) telle que \(\mathrm{P}(|\mathrm{X}|>u)=1-p\).