I. Variable aléatoire discrète — rappels et cadre général
Tout au long de ce module, nous avons rencontré des situations où un résultat numérique dépend du hasard : le nombre de graines qui germent, le score obtenu à un test, le bénéfice d'une vente au marché. Ces quantités sont des variables aléatoires discrètes.
Une variable aléatoire discrète \(X\) est une fonction qui associe à chaque issue de l'espace probabilisé \(\Omega\) un nombre réel. On dit que \(X\) prend les valeurs \(x_1, x_2, \ldots, x_n\) avec les probabilités \(p_1, p_2, \ldots, p_n\) où :
\[\sum_{i=1}^{n} p_i = 1 \quad \text{et} \quad p_i = P(X = x_i) \geq 0\]Le tableau \((x_i, p_i)\) s'appelle la loi de probabilité (ou distribution) de \(X\).
II. L'espérance mathématique
L'espérance d'une variable aléatoire est sa valeur moyenne pondérée par les probabilités. Elle représente ce qu'on obtiendrait "en moyenne" si on répétait l'expérience un très grand nombre de fois.
Soit \(X\) une variable aléatoire prenant les valeurs \(x_1, x_2, \ldots, x_n\) avec les probabilités \(p_1, p_2, \ldots, p_n\). L'espérance de \(X\) est :
\[E(X) = \sum_{i=1}^{n} x_i \cdot p_i = x_1 p_1 + x_2 p_2 + \cdots + x_n p_n\]Dans les leçons 1 à 3, on calculait la moyenne d'une série de données : \(\bar{x} = \frac{\sum n_i x_i}{N}\). L'espérance est l'analogue probabiliste de cette moyenne. Là où la moyenne statistique pondère par les fréquences observées, l'espérance pondère par les probabilités théoriques.
La loi des grands nombres (résultat fondamental hors programme) garantit que, si on répète l'expérience un très grand nombre de fois, la moyenne des résultats obtenus se rapproche de \(E(X)\). C'est pourquoi l'espérance est aussi appelée valeur moyenne.
Le gain quotidien \(X\) (en FCFA) du vendeur suit la loi :
| \(x_i\) | 500 | 1 500 | 3 000 |
|---|---|---|---|
| \(p_i\) | 0,3 | 0,5 | 0,2 |
\(E(X) = 500 \times 0{,}3 + 1\,500 \times 0{,}5 + 3\,000 \times 0{,}2\)
\(= 150 + 750 + 600 = 1\,500 \text{ FCFA}\)
III. Propriétés de l'espérance
Pour toutes variables aléatoires \(X\) et \(Y\) et tous réels \(a\), \(b\) :
- \(E(aX + b) = a \cdot E(X) + b\)
- \(E(X + Y) = E(X) + E(Y)\) (sans condition d'indépendance)
Si \(X\) prend les valeurs \(x_i\) avec probabilités \(p_i\), alors \(aX+b\) prend les valeurs \(ax_i + b\) avec les mêmes probabilités.
\(E(aX+b) = \sum_i (ax_i + b)\,p_i = a\sum_i x_i p_i + b\sum_i p_i\)
\(= a\,E(X) + b \times 1 = a\,E(X) + b \quad \square\)
Si \(g\) est une fonction réelle, alors :
\[E(g(X)) = \sum_{i=1}^{n} g(x_i) \cdot p_i\]En particulier : \(E(X^2) = \sum_i x_i^2 \cdot p_i\)
IV. La variance et l'écart-type
L'espérance dit où se situe le "centre" de la distribution. Mais deux variables peuvent avoir la même espérance tout en étant très différentes : l'une concentre ses valeurs près du centre, l'autre les disperse loin. La variance mesure cette dispersion.
Deux distributions avec la même espérance \(E(X)\) mais des variances très différentes
La variance de \(X\) est :
\[V(X) = E\!\left[(X - E(X))^2\right] = \sum_{i=1}^{n} (x_i - E(X))^2 \cdot p_i\]L'écart-type de \(X\) est \(\sigma(X) = \sqrt{V(X)}\). Il s'exprime dans la même unité que \(X\).
Les écarts \((x_i - E(X))\) peuvent être positifs ou négatifs. Si on les sommait directement pondérés par \(p_i\), ils s'annuleraient (par définition de l'espérance, \(\sum p_i(x_i - E(X)) = 0\)). En les élevant au carré, on les rend tous positifs et on amplifie les grands écarts. La variance est donc une mesure de l'écart quadratique moyen à l'espérance.
L'écart-type \(\sigma\) ramène cette mesure à l'échelle originale (en prenant la racine carrée). C'est lui qui est le plus parlant en pratique : si \(E(X) = 1\,500\) FCFA et \(\sigma(X) = 400\) FCFA, on sait que les gains varient typiquement de ±400 FCFA autour de 1 500 FCFA.
V. Formule de König-Huygens pour la variance
Calculer \(V(X)\) directement depuis la définition oblige à connaître \(E(X)\) avant de calculer chaque \((x_i - E(X))^2\). La formule de König-Huygens permet un calcul plus direct.
On développe \((X - E(X))^2\) :
\(V(X) = E\!\left[X^2 - 2X\,E(X) + (E(X))^2\right]\)
\(= E(X^2) - 2\,E(X)\cdot E(X) + (E(X))^2\) (par linéarité, \(E(X)\) est une constante)
\(= E(X^2) - 2\,(E(X))^2 + (E(X))^2\)
\(= E(X^2) - (E(X))^2 \quad \square\)
VI. Propriétés de la variance
Pour tous réels \(a\) et \(b\) :
\[V(aX + b) = a^2 \cdot V(X) \qquad \sigma(aX + b) = |a| \cdot \sigma(X)\]\(V(aX+b) = E\!\left[(aX+b - E(aX+b))^2\right] = E\!\left[(aX+b - aE(X)-b)^2\right]\)
\(= E\!\left[a^2(X-E(X))^2\right] = a^2\,E\!\left[(X-E(X))^2\right] = a^2\,V(X) \quad \square\)
Note : la constante \(b\) disparaît car elle décale toutes les valeurs sans changer leur dispersion.
VII. Exemples travaillés complets
Un jeu de hasard : on tire une bille dans une urne contenant 2 billes rouges, 3 billes bleues et 1 bille verte. On gagne 200 FCFA si rouge, on perd 100 FCFA si bleue, on gagne 500 FCFA si verte. Soit \(X\) le gain algébrique.
| Couleur | Rouge | Bleue | Verte |
|---|---|---|---|
| \(x_i\) (FCFA) | 200 | −100 | 500 |
| \(p_i\) | \(\frac{2}{6}=\frac{1}{3}\) | \(\frac{3}{6}=\frac{1}{2}\) | \(\frac{1}{6}\) |
| \(x_i^2\) | 40 000 | 10 000 | 250 000 |
Espérance :
\(E(X) = 200 \times \frac{1}{3} + (-100) \times \frac{1}{2} + 500 \times \frac{1}{6}\)
\(= \frac{200}{3} - 50 + \frac{500}{6} = \frac{400}{6} - \frac{300}{6} + \frac{500}{6} = \frac{600}{6} = 100 \text{ FCFA}\)
Variance (formule de König-Huygens) :
\(E(X^2) = 40\,000 \times \frac{1}{3} + 10\,000 \times \frac{1}{2} + 250\,000 \times \frac{1}{6}\)
\(= \frac{80\,000}{6} + \frac{30\,000}{6} + \frac{250\,000}{6} = \frac{360\,000}{6} = 60\,000\)
\(V(X) = 60\,000 - 100^2 = 60\,000 - 10\,000 = 50\,000\)
\(\sigma(X) = \sqrt{50\,000} \approx 224 \text{ FCFA}\)
Soit \(X \sim \mathcal{B}(p)\) : \(P(X=1)=p\), \(P(X=0)=1-p\).
\(E(X) = 1 \cdot p + 0 \cdot (1-p) = p\)
\(E(X^2) = 1^2 \cdot p + 0^2 \cdot (1-p) = p\)
\(V(X) = E(X^2) - (E(X))^2 = p - p^2 = p(1-p)\)
Soit \(X = X_1 + X_2 + \cdots + X_n\) où les \(X_i \sim \mathcal{B}(p)\) sont indépendantes.
Chaque \(V(X_i) = p(1-p)\) (prouvé ci-dessus).
Par indépendance : \(V(X) = V(X_1) + V(X_2) + \cdots + V(X_n)\)
\(= \underbrace{p(1-p) + p(1-p) + \cdots + p(1-p)}_{n \text{ fois}} = np(1-p)\)
VIII. Interprétation et utilisation pratique
L'espérance et la variance permettent de comparer des situations aléatoires : deux stratégies d'investissement, deux variétés de semences, deux traitements médicaux. On cherche souvent un bon rapport entre espérance élevée et variance faible.
Pour des distributions "en cloche" (approximativement normales), environ 68 % des valeurs tombent dans l'intervalle \([E(X) - \sigma, E(X) + \sigma]\), environ 95 % dans \([E(X) - 2\sigma, E(X) + 2\sigma]\), et 99,7 % dans \([E(X) - 3\sigma, E(X) + 3\sigma]\).
Même sans supposer une distribution normale, l'inégalité de Bienaymé-Tchebychev garantit que pour tout \(k > 0\) : \[P(|X - E(X)| \geq k\sigma) \leq \frac{1}{k^2}\] Autrement dit, au moins 75 % des valeurs sont dans \([E(X) - 2\sigma, E(X) + 2\sigma]\), quel que soit la distribution.
IX. Application — Rendement du coton, région des Hauts-Bassins
Un agriculteur de la région des Hauts-Bassins cultive du coton. Le rendement \(X\) (en kg/hectare) dépend des conditions climatiques et suit la loi :
| Conditions | Mauvaises | Normales | Bonnes | Excellentes |
|---|---|---|---|---|
| \(x_i\) (kg/ha) | 400 | 700 | 1 000 | 1 400 |
| \(p_i\) | 0,15 | 0,40 | 0,35 | 0,10 |
Calcul de l'espérance :
\(E(X) = 400(0{,}15) + 700(0{,}40) + 1\,000(0{,}35) + 1\,400(0{,}10)\)
\(= 60 + 280 + 350 + 140 = 830 \text{ kg/ha}\)
Calcul de \(E(X^2)\) :
\(E(X^2) = 400^2(0{,}15) + 700^2(0{,}40) + 1000^2(0{,}35) + 1400^2(0{,}10)\)
\(= 160\,000(0{,}15) + 490\,000(0{,}40) + 1\,000\,000(0{,}35) + 1\,960\,000(0{,}10)\)
\(= 24\,000 + 196\,000 + 350\,000 + 196\,000 = 766\,000\)
Variance et écart-type :
\(V(X) = 766\,000 - 830^2 = 766\,000 - 688\,900 = 77\,100\)
\(\sigma(X) = \sqrt{77\,100} \approx 278 \text{ kg/ha}\)
Une artisane de Saponé vend ses nattes au marché de Koudougou. Chaque samedi, elle vend \(X\) nattes selon la loi suivante :
| \(x_i\) | 0 | 1 | 2 | 3 | 4 |
|---|---|---|---|---|---|
| \(p_i\) | 0,05 | 0,20 | 0,35 | 0,25 | 0,15 |
Chaque natte est vendue 2 500 FCFA. Soit \(G = 2\,500\,X\) son gain hebdomadaire.
- a) Vérifier que la somme des probabilités est bien 1.
- b) Calculer \(E(X)\) et interpréter.
- c) Calculer \(V(X)\) et \(\sigma(X)\) par la formule de König-Huygens.
- d) En déduire \(E(G)\), \(V(G)\) et \(\sigma(G)\) sans recalculer depuis la définition.
- e) Sur 52 semaines, quel revenu annuel peut-elle espérer ?
✏️ Exercices d'application
Une variable aléatoire \(X\) suit la loi :
| \(x_i\) | −2 | 0 | 1 | 3 |
|---|---|---|---|---|
| \(p_i\) | 0,1 | \(a\) | 0,4 | 0,2 |
- a) Déterminer \(a\).
- b) Calculer \(E(X)\).
- c) Calculer \(V(X)\) et \(\sigma(X)\).
b) \(E(X) = (-2)(0{,}1) + 0(0{,}3) + 1(0{,}4) + 3(0{,}2)\)
\(= -0{,}2 + 0 + 0{,}4 + 0{,}6 = 0{,}8\)
c) \(E(X^2) = 4(0{,}1) + 0(0{,}3) + 1(0{,}4) + 9(0{,}2) = 0{,}4 + 0 + 0{,}4 + 1{,}8 = 2{,}6\)
\(V(X) = 2{,}6 - (0{,}8)^2 = 2{,}6 - 0{,}64 = 1{,}96\)
\(\sigma(X) = \sqrt{1{,}96} = 1{,}4\)
Une variable \(X\) a pour espérance \(E(X) = 5\) et variance \(V(X) = 4\). On pose \(Y = 3X - 2\) et \(Z = -X + 10\).
- a) Calculer \(E(Y)\), \(V(Y)\) et \(\sigma(Y)\).
- b) Calculer \(E(Z)\), \(V(Z)\) et \(\sigma(Z)\).
- c) Comparer \(\sigma(Y)\) et \(\sigma(Z)\). Que remarque-t-on ?
\(V(Y) = 3^2 \times 4 = 36\)
\(\sigma(Y) = 6\)
b) \(E(Z) = -5 + 10 = 5\)
\(V(Z) = (-1)^2 \times 4 = 4\)
\(\sigma(Z) = 2\)
c) Multiplier par 3 a amplifié l'écart-type (6 vs 2). Changer le signe (multiplier par −1) ne change pas la dispersion : \(\sigma(-X+10) = \sigma(X) = 2\). Additionner une constante n'affecte jamais la variance.
À la foire de Gorom-Gorom, un jeu consiste à lancer deux dés équilibrés. On gagne 600 FCFA si la somme est supérieure ou égale à 10, on perd 200 FCFA sinon. Soit \(G\) le gain algébrique.
- a) Calculer la probabilité d'obtenir une somme ≥ 10.
- b) Dresser la loi de \(G\) et calculer \(E(G)\).
- c) Le jeu est-il favorable au joueur ? Au tenancier ?
Résultats donnant somme ≥ 10 : (4,6),(6,4),(5,5),(5,6),(6,5),(6,6) = 6 issues sur 36.
\(P(\text{somme} \geq 10) = \frac{6}{36} = \frac{1}{6}\)
b) Loi de \(G\) :
\(P(G = 600) = \frac{1}{6}\) ; \(P(G = -200) = \frac{5}{6}\)
\(E(G) = 600 \times \frac{1}{6} + (-200) \times \frac{5}{6} = 100 - \frac{1000}{6} = 100 - 166{,}7 \approx -66{,}7 \text{ FCFA}\)
c) \(E(G) < 0\) : le jeu est défavorable au joueur (il perd en moyenne 66,7 FCFA par partie) et favorable au tenancier.
Soit \(X \sim \mathcal{B}(15 ; 0{,}4)\).
- a) Calculer \(E(X)\), \(V(X)\) et \(\sigma(X)\).
- b) Calculer \(P(X = E(X))\) — la probabilité d'obtenir exactement la valeur espérée. (Prendre \(E(X)\) entier si nécessaire.)
- c) Calculer \(P(|X - E(X)| \leq \sigma(X))\) en sommant les probabilités appropriées.
\(V(X) = 15 \times 0{,}4 \times 0{,}6 = 3{,}6\)
\(\sigma(X) = \sqrt{3{,}6} \approx 1{,}897\)
b) \(P(X=6) = \binom{15}{6}(0{,}4)^6(0{,}6)^9 = 5005 \times 0{,}004096 \times 0{,}010078 \approx 0{,}207\)
c) \([E(X) - \sigma, E(X) + \sigma] \approx [4{,}1\,;\,7{,}9]\), donc les valeurs entières sont 5, 6, 7.
\(P(5 \leq X \leq 7) = P(X=5)+P(X=6)+P(X=7)\)
\(P(X=5) = \binom{15}{5}(0{,}4)^5(0{,}6)^{10} \approx 0{,}186\)
\(P(X=6) \approx 0{,}207\)
\(P(X=7) = \binom{15}{7}(0{,}4)^7(0{,}6)^8 \approx 0{,}177\)
\(P(5 \leq X \leq 7) \approx 0{,}570\) — cohérent avec la règle empirique (≈ 68 %).
Selon des données de l'INSD, deux variétés de mil (A et B) ont les distributions de rendement suivantes (en quintaux/hectare) :
| Rendement | 4 | 6 | 8 | 10 |
|---|---|---|---|---|
| \(P(\text{variété A})\) | 0,10 | 0,30 | 0,40 | 0,20 |
| \(P(\text{variété B})\) | 0,20 | 0,20 | 0,20 | 0,40 |
- a) Calculer \(E(A)\) et \(E(B)\).
- b) Calculer \(\sigma(A)\) et \(\sigma(B)\).
- c) Un agriculteur veut maximiser son rendement espéré. L'autre veut minimiser le risque (variance). Quelle variété choisit chacun ?
\(E(B) = 4(0{,}2)+6(0{,}2)+8(0{,}2)+10(0{,}4) = 0{,}8+1{,}2+1{,}6+4{,}0 = 7{,}6\) q/ha
b) \(E(A^2) = 16(0{,}1)+36(0{,}3)+64(0{,}4)+100(0{,}2) = 1{,}6+10{,}8+25{,}6+20 = 58\)
\(V(A) = 58 - 7{,}4^2 = 58 - 54{,}76 = 3{,}24\) ; \(\sigma(A) = 1{,}8\) q/ha
\(E(B^2) = 16(0{,}2)+36(0{,}2)+64(0{,}2)+100(0{,}4) = 3{,}2+7{,}2+12{,}8+40 = 63{,}2\)
\(V(B) = 63{,}2 - 7{,}6^2 = 63{,}2 - 57{,}76 = 5{,}44\) ; \(\sigma(B) \approx 2{,}33\) q/ha
c) L'agriculteur qui maximise le rendement espéré choisit B (\(E(B) = 7{,}6 > 7{,}4\)).
L'agriculteur qui minimise le risque choisit A (\(\sigma(A) = 1{,}8 < 2{,}33\)).
Dilemme classique espérance–risque : B est plus rentable mais plus aléatoire.
Récapitulatif — Espérance et variance d'une variable aléatoire
- Espérance : \(E(X) = \sum x_i p_i\) — valeur moyenne pondérée par les probabilités. Analogue probabiliste de la moyenne statistique.
- Linéarité : \(E(aX+b) = aE(X)+b\) et \(E(X+Y) = E(X)+E(Y)\) (toujours).
- Variance : \(V(X) = E(X^2) - (E(X))^2\) — mesure la dispersion autour de l'espérance.
- Formule de König-Huygens : calculer \(E(X)\) puis \(E(X^2)\), puis \(V = E(X^2) - (E(X))^2\).
- Transformation affine : \(V(aX+b) = a^2 V(X)\) — la constante \(b\) ne change pas la variance.
- Bernoulli : \(E(X) = p\), \(V(X) = p(1-p)\). Binomiale \(\mathcal{B}(n,p)\) : \(E = np\), \(V = np(1-p)\) (démontré par décomposition en Bernoulli indépendantes).
- Interprétation : l'écart-type \(\sigma\) s'exprime dans la même unité que \(X\) et donne l'ordre de grandeur de la variation typique autour de \(E(X)\).
Module IX — Terminé !
Tu as maîtrisé les 8 leçons du module Statistiques et Probabilités.