Leçon 8 — Espérance et variance d'une variable aléatoire

Résumer en un seul nombre la valeur "centrale" d'une expérience aléatoire, et mesurer à quel point les résultats s'écartent de ce centre.

I. Variable aléatoire discrète — rappels et cadre général

Tout au long de ce module, nous avons rencontré des situations où un résultat numérique dépend du hasard : le nombre de graines qui germent, le score obtenu à un test, le bénéfice d'une vente au marché. Ces quantités sont des variables aléatoires discrètes.

Définition — Variable aléatoire discrète

Une variable aléatoire discrète \(X\) est une fonction qui associe à chaque issue de l'espace probabilisé \(\Omega\) un nombre réel. On dit que \(X\) prend les valeurs \(x_1, x_2, \ldots, x_n\) avec les probabilités \(p_1, p_2, \ldots, p_n\) où :

\[\sum_{i=1}^{n} p_i = 1 \quad \text{et} \quad p_i = P(X = x_i) \geq 0\]

Le tableau \((x_i, p_i)\) s'appelle la loi de probabilité (ou distribution) de \(X\).

mascotte Nerveux
Nerveux explique : Au marché de Pissy à Ouagadougou, un vendeur de mangues gagne soit 500 FCFA (mauvaise journée, probabilité 0,3), soit 1 500 FCFA (journée moyenne, probabilité 0,5), soit 3 000 FCFA (bonne journée, probabilité 0,2). Combien peut-il espérer gagner en moyenne sur le long terme ? Et ses gains sont-ils stables ou très variables d'un jour à l'autre ? L'espérance répond à la première question, la variance à la seconde.

II. L'espérance mathématique

L'espérance d'une variable aléatoire est sa valeur moyenne pondérée par les probabilités. Elle représente ce qu'on obtiendrait "en moyenne" si on répétait l'expérience un très grand nombre de fois.

Définition — Espérance mathématique

Soit \(X\) une variable aléatoire prenant les valeurs \(x_1, x_2, \ldots, x_n\) avec les probabilités \(p_1, p_2, \ldots, p_n\). L'espérance de \(X\) est :

\[E(X) = \sum_{i=1}^{n} x_i \cdot p_i = x_1 p_1 + x_2 p_2 + \cdots + x_n p_n\]
🔍 Lien avec la moyenne statistique

Dans les leçons 1 à 3, on calculait la moyenne d'une série de données : \(\bar{x} = \frac{\sum n_i x_i}{N}\). L'espérance est l'analogue probabiliste de cette moyenne. Là où la moyenne statistique pondère par les fréquences observées, l'espérance pondère par les probabilités théoriques.

La loi des grands nombres (résultat fondamental hors programme) garantit que, si on répète l'expérience un très grand nombre de fois, la moyenne des résultats obtenus se rapproche de \(E(X)\). C'est pourquoi l'espérance est aussi appelée valeur moyenne.

Exemple 1 — Vendeur de mangues au marché de Pissy

Le gain quotidien \(X\) (en FCFA) du vendeur suit la loi :

\(x_i\)5001 5003 000
\(p_i\)0,30,50,2

\(E(X) = 500 \times 0{,}3 + 1\,500 \times 0{,}5 + 3\,000 \times 0{,}2\)

\(= 150 + 750 + 600 = 1\,500 \text{ FCFA}\)

En moyenne, le vendeur gagne 1 500 FCFA par jour. Notons que 1 500 FCFA est aussi l'une des valeurs possibles — ce n'est pas toujours le cas.
Erreur fréquente : L'espérance n'est pas forcément une valeur que \(X\) peut prendre. Par exemple, si on lance un dé équilibré, \(E(X) = 3{,}5\), qui n'est pas une face du dé. L'espérance est une moyenne, pas une valeur réalisable.

III. Propriétés de l'espérance

📘 Théorème — Linéarité de l'espérance

Pour toutes variables aléatoires \(X\) et \(Y\) et tous réels \(a\), \(b\) :

  • \(E(aX + b) = a \cdot E(X) + b\)
  • \(E(X + Y) = E(X) + E(Y)\) (sans condition d'indépendance)
📐 Preuve de E(aX + b) = aE(X) + b

Si \(X\) prend les valeurs \(x_i\) avec probabilités \(p_i\), alors \(aX+b\) prend les valeurs \(ax_i + b\) avec les mêmes probabilités.

\(E(aX+b) = \sum_i (ax_i + b)\,p_i = a\sum_i x_i p_i + b\sum_i p_i\)

\(= a\,E(X) + b \times 1 = a\,E(X) + b \quad \square\)

📘 Théorème — Espérance d'une fonction de X

Si \(g\) est une fonction réelle, alors :

\[E(g(X)) = \sum_{i=1}^{n} g(x_i) \cdot p_i\]

En particulier : \(E(X^2) = \sum_i x_i^2 \cdot p_i\)

Remarque : En général, \(E(g(X)) \neq g(E(X))\). Par exemple, \(E(X^2) \neq (E(X))^2\). C'est précisément cette inégalité qui définira la variance.

IV. La variance et l'écart-type

L'espérance dit où se situe le "centre" de la distribution. Mais deux variables peuvent avoir la même espérance tout en étant très différentes : l'une concentre ses valeurs près du centre, l'autre les disperse loin. La variance mesure cette dispersion.

Faible variance E(X) Grande variance E(X)

Deux distributions avec la même espérance \(E(X)\) mais des variances très différentes

Définition — Variance et écart-type

La variance de \(X\) est :

\[V(X) = E\!\left[(X - E(X))^2\right] = \sum_{i=1}^{n} (x_i - E(X))^2 \cdot p_i\]

L'écart-type de \(X\) est \(\sigma(X) = \sqrt{V(X)}\). Il s'exprime dans la même unité que \(X\).

🔍 Pourquoi élever les écarts au carré ?

Les écarts \((x_i - E(X))\) peuvent être positifs ou négatifs. Si on les sommait directement pondérés par \(p_i\), ils s'annuleraient (par définition de l'espérance, \(\sum p_i(x_i - E(X)) = 0\)). En les élevant au carré, on les rend tous positifs et on amplifie les grands écarts. La variance est donc une mesure de l'écart quadratique moyen à l'espérance.

L'écart-type \(\sigma\) ramène cette mesure à l'échelle originale (en prenant la racine carrée). C'est lui qui est le plus parlant en pratique : si \(E(X) = 1\,500\) FCFA et \(\sigma(X) = 400\) FCFA, on sait que les gains varient typiquement de ±400 FCFA autour de 1 500 FCFA.

V. Formule de König-Huygens pour la variance

Calculer \(V(X)\) directement depuis la définition oblige à connaître \(E(X)\) avant de calculer chaque \((x_i - E(X))^2\). La formule de König-Huygens permet un calcul plus direct.

\[V(X) = E(X^2) - [E(X)]^2\] Variance = moyenne des carrés moins carré de la moyenne
📐 Preuve de la formule de König-Huygens

On développe \((X - E(X))^2\) :

\(V(X) = E\!\left[X^2 - 2X\,E(X) + (E(X))^2\right]\)

\(= E(X^2) - 2\,E(X)\cdot E(X) + (E(X))^2\) (par linéarité, \(E(X)\) est une constante)

\(= E(X^2) - 2\,(E(X))^2 + (E(X))^2\)

\(= E(X^2) - (E(X))^2 \quad \square\)

Ordre de calcul recommandé : (1) Calculer \(E(X) = \sum x_i p_i\). (2) Calculer \(E(X^2) = \sum x_i^2 p_i\). (3) Appliquer \(V(X) = E(X^2) - (E(X))^2\). (4) \(\sigma(X) = \sqrt{V(X)}\).

VI. Propriétés de la variance

📘 Théorème — Variance d'une transformation affine

Pour tous réels \(a\) et \(b\) :

\[V(aX + b) = a^2 \cdot V(X) \qquad \sigma(aX + b) = |a| \cdot \sigma(X)\]
📐 Preuve

\(V(aX+b) = E\!\left[(aX+b - E(aX+b))^2\right] = E\!\left[(aX+b - aE(X)-b)^2\right]\)

\(= E\!\left[a^2(X-E(X))^2\right] = a^2\,E\!\left[(X-E(X))^2\right] = a^2\,V(X) \quad \square\)

Note : la constante \(b\) disparaît car elle décale toutes les valeurs sans changer leur dispersion.

Attention : \(V(X + Y) = V(X) + V(Y)\) n'est vrai que si \(X\) et \(Y\) sont indépendantes. En général, \(V(X+Y) = V(X) + V(Y) + 2\,\text{Cov}(X,Y)\) où la covariance est hors programme.

VII. Exemples travaillés complets

Exemple 2 — Calcul complet d'espérance et variance

Un jeu de hasard : on tire une bille dans une urne contenant 2 billes rouges, 3 billes bleues et 1 bille verte. On gagne 200 FCFA si rouge, on perd 100 FCFA si bleue, on gagne 500 FCFA si verte. Soit \(X\) le gain algébrique.

CouleurRougeBleueVerte
\(x_i\) (FCFA)200−100500
\(p_i\)\(\frac{2}{6}=\frac{1}{3}\)\(\frac{3}{6}=\frac{1}{2}\)\(\frac{1}{6}\)
\(x_i^2\)40 00010 000250 000

Espérance :

\(E(X) = 200 \times \frac{1}{3} + (-100) \times \frac{1}{2} + 500 \times \frac{1}{6}\)

\(= \frac{200}{3} - 50 + \frac{500}{6} = \frac{400}{6} - \frac{300}{6} + \frac{500}{6} = \frac{600}{6} = 100 \text{ FCFA}\)

Variance (formule de König-Huygens) :

\(E(X^2) = 40\,000 \times \frac{1}{3} + 10\,000 \times \frac{1}{2} + 250\,000 \times \frac{1}{6}\)

\(= \frac{80\,000}{6} + \frac{30\,000}{6} + \frac{250\,000}{6} = \frac{360\,000}{6} = 60\,000\)

\(V(X) = 60\,000 - 100^2 = 60\,000 - 10\,000 = 50\,000\)

\(\sigma(X) = \sqrt{50\,000} \approx 224 \text{ FCFA}\)

Le jeu rapporte en moyenne 100 FCFA, avec un écart-type de 224 FCFA — forte variabilité relative à l'espérance.
Exemple 3 — Variable de Bernoulli : preuve de V(X) = p(1−p)

Soit \(X \sim \mathcal{B}(p)\) : \(P(X=1)=p\), \(P(X=0)=1-p\).

\(E(X) = 1 \cdot p + 0 \cdot (1-p) = p\)

\(E(X^2) = 1^2 \cdot p + 0^2 \cdot (1-p) = p\)

\(V(X) = E(X^2) - (E(X))^2 = p - p^2 = p(1-p)\)

On retrouve \(V(X) = p(1-p)\), ce qui prouve la variance de la loi de Bernoulli annoncée en L7.
Exemple 4 — Variance de la loi binomiale \(\mathcal{B}(n,p)\)

Soit \(X = X_1 + X_2 + \cdots + X_n\) où les \(X_i \sim \mathcal{B}(p)\) sont indépendantes.

Chaque \(V(X_i) = p(1-p)\) (prouvé ci-dessus).

Par indépendance : \(V(X) = V(X_1) + V(X_2) + \cdots + V(X_n)\)

\(= \underbrace{p(1-p) + p(1-p) + \cdots + p(1-p)}_{n \text{ fois}} = np(1-p)\)

On prouve ainsi rigoureusement que \(V(X) = np(1-p)\) pour \(X \sim \mathcal{B}(n,p)\), complétant la leçon 7.

VIII. Interprétation et utilisation pratique

L'espérance et la variance permettent de comparer des situations aléatoires : deux stratégies d'investissement, deux variétés de semences, deux traitements médicaux. On cherche souvent un bon rapport entre espérance élevée et variance faible.

🔍 La règle empirique (ou règle des 68-95-99,7)

Pour des distributions "en cloche" (approximativement normales), environ 68 % des valeurs tombent dans l'intervalle \([E(X) - \sigma, E(X) + \sigma]\), environ 95 % dans \([E(X) - 2\sigma, E(X) + 2\sigma]\), et 99,7 % dans \([E(X) - 3\sigma, E(X) + 3\sigma]\).

Même sans supposer une distribution normale, l'inégalité de Bienaymé-Tchebychev garantit que pour tout \(k > 0\) : \[P(|X - E(X)| \geq k\sigma) \leq \frac{1}{k^2}\] Autrement dit, au moins 75 % des valeurs sont dans \([E(X) - 2\sigma, E(X) + 2\sigma]\), quel que soit la distribution.

IX. Application — Rendement du coton, région des Hauts-Bassins

Exemple 5 — Rendement cotonnier, champs de la SOFITEX

Un agriculteur de la région des Hauts-Bassins cultive du coton. Le rendement \(X\) (en kg/hectare) dépend des conditions climatiques et suit la loi :

ConditionsMauvaisesNormalesBonnesExcellentes
\(x_i\) (kg/ha)4007001 0001 400
\(p_i\)0,150,400,350,10

Calcul de l'espérance :

\(E(X) = 400(0{,}15) + 700(0{,}40) + 1\,000(0{,}35) + 1\,400(0{,}10)\)

\(= 60 + 280 + 350 + 140 = 830 \text{ kg/ha}\)

Calcul de \(E(X^2)\) :

\(E(X^2) = 400^2(0{,}15) + 700^2(0{,}40) + 1000^2(0{,}35) + 1400^2(0{,}10)\)

\(= 160\,000(0{,}15) + 490\,000(0{,}40) + 1\,000\,000(0{,}35) + 1\,960\,000(0{,}10)\)

\(= 24\,000 + 196\,000 + 350\,000 + 196\,000 = 766\,000\)

Variance et écart-type :

\(V(X) = 766\,000 - 830^2 = 766\,000 - 688\,900 = 77\,100\)

\(\sigma(X) = \sqrt{77\,100} \approx 278 \text{ kg/ha}\)

Le rendement espéré est de 830 kg/ha avec un écart-type de 278 kg/ha, soit environ ±33 % autour de la moyenne. La variabilité est notable — une bonne planification (stockage, prix plancher) aide à y faire face.
⭐ Situation concrète Vente de nattes de Saponé au marché de Koudougou

Une artisane de Saponé vend ses nattes au marché de Koudougou. Chaque samedi, elle vend \(X\) nattes selon la loi suivante :

\(x_i\)01234
\(p_i\)0,050,200,350,250,15

Chaque natte est vendue 2 500 FCFA. Soit \(G = 2\,500\,X\) son gain hebdomadaire.

  • a) Vérifier que la somme des probabilités est bien 1.
  • b) Calculer \(E(X)\) et interpréter.
  • c) Calculer \(V(X)\) et \(\sigma(X)\) par la formule de König-Huygens.
  • d) En déduire \(E(G)\), \(V(G)\) et \(\sigma(G)\) sans recalculer depuis la définition.
  • e) Sur 52 semaines, quel revenu annuel peut-elle espérer ?

✏️ Exercices d'application

Exercice 1 — Loi de probabilité et espérance

Une variable aléatoire \(X\) suit la loi :

\(x_i\)−2013
\(p_i\)0,1\(a\)0,40,2
  • a) Déterminer \(a\).
  • b) Calculer \(E(X)\).
  • c) Calculer \(V(X)\) et \(\sigma(X)\).
a) \(0{,}1 + a + 0{,}4 + 0{,}2 = 1 \Rightarrow a = 0{,}3\)

b) \(E(X) = (-2)(0{,}1) + 0(0{,}3) + 1(0{,}4) + 3(0{,}2)\)
\(= -0{,}2 + 0 + 0{,}4 + 0{,}6 = 0{,}8\)

c) \(E(X^2) = 4(0{,}1) + 0(0{,}3) + 1(0{,}4) + 9(0{,}2) = 0{,}4 + 0 + 0{,}4 + 1{,}8 = 2{,}6\)
\(V(X) = 2{,}6 - (0{,}8)^2 = 2{,}6 - 0{,}64 = 1{,}96\)
\(\sigma(X) = \sqrt{1{,}96} = 1{,}4\)
Exercice 2 — Transformation affine, prix en FCFA

Une variable \(X\) a pour espérance \(E(X) = 5\) et variance \(V(X) = 4\). On pose \(Y = 3X - 2\) et \(Z = -X + 10\).

  • a) Calculer \(E(Y)\), \(V(Y)\) et \(\sigma(Y)\).
  • b) Calculer \(E(Z)\), \(V(Z)\) et \(\sigma(Z)\).
  • c) Comparer \(\sigma(Y)\) et \(\sigma(Z)\). Que remarque-t-on ?
a) \(E(Y) = 3 \times 5 - 2 = 13\)
\(V(Y) = 3^2 \times 4 = 36\)
\(\sigma(Y) = 6\)

b) \(E(Z) = -5 + 10 = 5\)
\(V(Z) = (-1)^2 \times 4 = 4\)
\(\sigma(Z) = 2\)

c) Multiplier par 3 a amplifié l'écart-type (6 vs 2). Changer le signe (multiplier par −1) ne change pas la dispersion : \(\sigma(-X+10) = \sigma(X) = 2\). Additionner une constante n'affecte jamais la variance.
Exercice 3 — Jeu de hasard, foire de Gorom-Gorom

À la foire de Gorom-Gorom, un jeu consiste à lancer deux dés équilibrés. On gagne 600 FCFA si la somme est supérieure ou égale à 10, on perd 200 FCFA sinon. Soit \(G\) le gain algébrique.

  • a) Calculer la probabilité d'obtenir une somme ≥ 10.
  • b) Dresser la loi de \(G\) et calculer \(E(G)\).
  • c) Le jeu est-il favorable au joueur ? Au tenancier ?
a) Sommes ≥ 10 : (4,6),(5,5),(5,6),(6,4),(6,5),(6,6) et symétriques.
Résultats donnant somme ≥ 10 : (4,6),(6,4),(5,5),(5,6),(6,5),(6,6) = 6 issues sur 36.
\(P(\text{somme} \geq 10) = \frac{6}{36} = \frac{1}{6}\)

b) Loi de \(G\) :
\(P(G = 600) = \frac{1}{6}\) ; \(P(G = -200) = \frac{5}{6}\)
\(E(G) = 600 \times \frac{1}{6} + (-200) \times \frac{5}{6} = 100 - \frac{1000}{6} = 100 - 166{,}7 \approx -66{,}7 \text{ FCFA}\)

c) \(E(G) < 0\) : le jeu est défavorable au joueur (il perd en moyenne 66,7 FCFA par partie) et favorable au tenancier.
Exercice 4 — Variable binomiale, espérance et variance

Soit \(X \sim \mathcal{B}(15 ; 0{,}4)\).

  • a) Calculer \(E(X)\), \(V(X)\) et \(\sigma(X)\).
  • b) Calculer \(P(X = E(X))\) — la probabilité d'obtenir exactement la valeur espérée. (Prendre \(E(X)\) entier si nécessaire.)
  • c) Calculer \(P(|X - E(X)| \leq \sigma(X))\) en sommant les probabilités appropriées.
a) \(E(X) = 15 \times 0{,}4 = 6\)
\(V(X) = 15 \times 0{,}4 \times 0{,}6 = 3{,}6\)
\(\sigma(X) = \sqrt{3{,}6} \approx 1{,}897\)

b) \(P(X=6) = \binom{15}{6}(0{,}4)^6(0{,}6)^9 = 5005 \times 0{,}004096 \times 0{,}010078 \approx 0{,}207\)

c) \([E(X) - \sigma, E(X) + \sigma] \approx [4{,}1\,;\,7{,}9]\), donc les valeurs entières sont 5, 6, 7.
\(P(5 \leq X \leq 7) = P(X=5)+P(X=6)+P(X=7)\)
\(P(X=5) = \binom{15}{5}(0{,}4)^5(0{,}6)^{10} \approx 0{,}186\)
\(P(X=6) \approx 0{,}207\)
\(P(X=7) = \binom{15}{7}(0{,}4)^7(0{,}6)^8 \approx 0{,}177\)
\(P(5 \leq X \leq 7) \approx 0{,}570\) — cohérent avec la règle empirique (≈ 68 %).
Exercice 5 — Comparaison de deux cultures, INSD Burkina

Selon des données de l'INSD, deux variétés de mil (A et B) ont les distributions de rendement suivantes (en quintaux/hectare) :

Rendement46810
\(P(\text{variété A})\)0,100,300,400,20
\(P(\text{variété B})\)0,200,200,200,40
  • a) Calculer \(E(A)\) et \(E(B)\).
  • b) Calculer \(\sigma(A)\) et \(\sigma(B)\).
  • c) Un agriculteur veut maximiser son rendement espéré. L'autre veut minimiser le risque (variance). Quelle variété choisit chacun ?
a) \(E(A) = 4(0{,}1)+6(0{,}3)+8(0{,}4)+10(0{,}2) = 0{,}4+1{,}8+3{,}2+2{,}0 = 7{,}4\) q/ha
\(E(B) = 4(0{,}2)+6(0{,}2)+8(0{,}2)+10(0{,}4) = 0{,}8+1{,}2+1{,}6+4{,}0 = 7{,}6\) q/ha

b) \(E(A^2) = 16(0{,}1)+36(0{,}3)+64(0{,}4)+100(0{,}2) = 1{,}6+10{,}8+25{,}6+20 = 58\)
\(V(A) = 58 - 7{,}4^2 = 58 - 54{,}76 = 3{,}24\) ; \(\sigma(A) = 1{,}8\) q/ha
\(E(B^2) = 16(0{,}2)+36(0{,}2)+64(0{,}2)+100(0{,}4) = 3{,}2+7{,}2+12{,}8+40 = 63{,}2\)
\(V(B) = 63{,}2 - 7{,}6^2 = 63{,}2 - 57{,}76 = 5{,}44\) ; \(\sigma(B) \approx 2{,}33\) q/ha

c) L'agriculteur qui maximise le rendement espéré choisit B (\(E(B) = 7{,}6 > 7{,}4\)).
L'agriculteur qui minimise le risque choisit A (\(\sigma(A) = 1{,}8 < 2{,}33\)).
Dilemme classique espérance–risque : B est plus rentable mais plus aléatoire.
mascotte Nerveux

Récapitulatif — Espérance et variance d'une variable aléatoire

  • Espérance : \(E(X) = \sum x_i p_i\) — valeur moyenne pondérée par les probabilités. Analogue probabiliste de la moyenne statistique.
  • Linéarité : \(E(aX+b) = aE(X)+b\) et \(E(X+Y) = E(X)+E(Y)\) (toujours).
  • Variance : \(V(X) = E(X^2) - (E(X))^2\) — mesure la dispersion autour de l'espérance.
  • Formule de König-Huygens : calculer \(E(X)\) puis \(E(X^2)\), puis \(V = E(X^2) - (E(X))^2\).
  • Transformation affine : \(V(aX+b) = a^2 V(X)\) — la constante \(b\) ne change pas la variance.
  • Bernoulli : \(E(X) = p\), \(V(X) = p(1-p)\). Binomiale \(\mathcal{B}(n,p)\) : \(E = np\), \(V = np(1-p)\) (démontré par décomposition en Bernoulli indépendantes).
  • Interprétation : l'écart-type \(\sigma\) s'exprime dans la même unité que \(X\) et donne l'ordre de grandeur de la variation typique autour de \(E(X)\).
🏆

Module IX — Terminé !

Tu as maîtrisé les 8 leçons du module Statistiques et Probabilités.

L1 — Statistiques descriptives L2 — Moyenne, médiane, mode L3 — Variance, écart-type, quartiles L4 — Calcul des probabilités L5 — Probabilités conditionnelles L6 — Événements indépendants L7 — Loi de Bernoulli et binomiale L8 — Espérance et variance ✓

Supports Vidéos