I. L'épreuve de Bernoulli
Nombreuses sont les situations où une expérience aléatoire n'admet que deux issues possibles : un test médical est positif ou négatif, une graine germe ou non, un tir au but réussit ou échoue, une pièce tombe sur pile ou face. Ce type d'expérience porte le nom d'épreuve de Bernoulli, en hommage au mathématicien suisse Jacob Bernoulli (1654–1705).
Une épreuve de Bernoulli de paramètre \(p\) est une expérience aléatoire à deux issues :
- Succès (S) avec probabilité \(p\), où \(0 \leq p \leq 1\)
- Échec (Ē) avec probabilité \(q = 1 - p\)
On associe à cette épreuve une variable aléatoire \(X\) qui vaut 1 en cas de succès et 0 en cas d'échec. Cette variable suit alors la loi de Bernoulli de paramètre \(p\).
Ce codage numérique n'est pas anodin. En notant succès = 1 et échec = 0, on peut calculer directement l'espérance de \(X\) :
\(E(X) = 1 \cdot p + 0 \cdot (1-p) = p\)
L'espérance de \(X\) est exactement \(p\), la probabilité de succès. Ce résultat simple sera crucial pour calculer l'espérance de la loi binomiale.
II. Schéma de Bernoulli
Que se passe-t-il lorsqu'on répète la même épreuve de Bernoulli plusieurs fois de manière indépendante ? C'est le schéma de Bernoulli, aussi appelé répétition d'épreuves de Bernoulli.
On réalise \(n\) épreuves de Bernoulli indépendantes, chacune ayant la même probabilité de succès \(p\). On appelle cet ensemble un schéma de Bernoulli de paramètres \(n\) et \(p\).
Chaque issue de ce schéma est une suite de \(n\) résultats, par exemple pour \(n = 3\) : (S, É, S) ou (É, É, S), etc. L'espace probabilisé comporte \(2^n\) issues au total.
L'hypothèse d'indépendance est essentielle : elle permet de multiplier les probabilités à chaque étape. Sans elle, la probabilité d'une séquence dépendrait de l'histoire des tirages précédents, rendant le calcul beaucoup plus complexe.
En pratique, on réalise un schéma de Bernoulli dès qu'on tire avec remise dans une urne, ou qu'on effectue des tests sur des individus différents (cas indépendants). Le tirage sans remise ne satisfait pas l'indépendance et donne lieu à une autre loi (loi hypergéométrique, hors programme).
III. Probabilité d'une séquence dans un schéma de Bernoulli
Avant d'introduire la loi binomiale, calculons la probabilité d'une séquence précise de succès et d'échecs.
On réalise 5 épreuves de Bernoulli avec \(p = 0{,}3\). Calculons \(P(\text{S, É, S, S, É})\).
Par indépendance :
\(P = p \times q \times p \times p \times q = p^3 q^2\)
\(= (0{,}3)^3 \times (0{,}7)^2 = 0{,}027 \times 0{,}49 = 0{,}01323\)
Remarque cruciale : toute séquence comportant exactement 3 succès et 2 échecs a la même probabilité \(p^3 q^2\), quel que soit l'ordre des succès et des échecs.
Ce résultat est la clef de voûte de la loi binomiale : pour calculer \(P(X = k)\), il suffit de compter le nombre de séquences ayant exactement \(k\) succès, et de multiplier par \(p^k q^{n-k}\).
IV. Le coefficient binomial \(\binom{n}{k}\)
Combien y a-t-il de séquences de \(n\) résultats contenant exactement \(k\) succès ? Ce nombre est le coefficient binomial, noté \(\binom{n}{k}\) et lu "k parmi n".
Rappelons que \(n! = n \times (n-1) \times \cdots \times 2 \times 1\) (factorielle de \(n\)), avec la convention \(0! = 1\).
On veut choisir \(k\) positions parmi \(n\) pour placer les succès (les \(n-k\) restantes seront des échecs).
Il y a \(n\) choix pour la première position de succès, \(n-1\) pour la deuxième, ..., \(n-k+1\) pour la \(k\)-ième.
Cela donne \(n(n-1)\cdots(n-k+1) = \dfrac{n!}{(n-k)!}\) séquences ordonnées.
Mais l'ordre des succès entre eux n'importe pas : on divise par \(k!\) (le nombre de permutations de \(k\) éléments).
Résultat : \(\dbinom{n}{k} = \dfrac{n!}{k!(n-k)!}\) \(\square\)
Chaque entrée est \(\binom{n}{k}\) — les valeurs en vert sont les coefficients intérieurs, en or les plus grands de chaque ligne.
V. La loi binomiale \(\mathcal{B}(n, p)\)
On dispose maintenant de tous les outils pour définir la loi binomiale. Dans un schéma de Bernoulli de paramètres \(n\) et \(p\), on s'intéresse au nombre total de succès. Ce nombre est une variable aléatoire que l'on note \(X\).
Soit \(X\) le nombre de succès dans un schéma de Bernoulli de paramètres \(n\) et \(p\). On dit que \(X\) suit la loi binomiale de paramètres \(n\) et \(p\), noté \(X \sim \mathcal{B}(n, p)\).
Pour tout entier \(k \in \{0, 1, 2, \ldots, n\}\) :
On cherche \(P(X = k)\) = probabilité d'obtenir exactement \(k\) succès parmi \(n\) épreuves.
Étape 1 : Toute séquence particulière avec \(k\) succès et \(n-k\) échecs a probabilité \(p^k(1-p)^{n-k}\) (par indépendance).
Étape 2 : Le nombre de telles séquences est \(\binom{n}{k}\) (choix des positions des succès).
Étape 3 : Ces séquences sont incompatibles (disjointes), donc :
\(P(X = k) = \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k}\) \(\square\)
VI. Exemples travaillés
Un agriculteur de la région de Dori sème 6 graines de mil. Chaque graine germe avec probabilité \(p = 0{,}75\), indépendamment des autres. Soit \(X\) le nombre de graines qui germent.
\(X \sim \mathcal{B}(6 ; 0{,}75)\)
a) Probabilité que exactement 4 graines germent :
\(P(X=4) = \binom{6}{4}(0{,}75)^4(0{,}25)^2\)
\(= 15 \times 0{,}3164 \times 0{,}0625 = 15 \times 0{,}01978 \approx 0{,}297\)
b) Probabilité qu'au moins 5 graines germent :
\(P(X \geq 5) = P(X=5) + P(X=6)\)
\(P(X=5) = \binom{6}{5}(0{,}75)^5(0{,}25)^1 = 6 \times 0{,}2373 \times 0{,}25 \approx 0{,}356\)
\(P(X=6) = \binom{6}{6}(0{,}75)^6(0{,}25)^0 = 1 \times 0{,}1779 \approx 0{,}178\)
\(P(X \geq 5) \approx 0{,}356 + 0{,}178 = 0{,}534\)
c) Probabilité qu'au plus 2 graines germent :
\(P(X \leq 2) = P(X=0)+P(X=1)+P(X=2)\)
\(P(X=0) = (0{,}25)^6 \approx 0{,}000244\)
\(P(X=1) = 6(0{,}75)(0{,}25)^5 \approx 0{,}00439\)
\(P(X=2) = 15(0{,}75)^2(0{,}25)^4 \approx 0{,}0330\)
\(P(X \leq 2) \approx 0{,}0377\)
Distribution de \(X \sim \mathcal{B}(6 ; 0{,}75)\) — la distribution est asymétrique vers la droite (p > 0,5)
Un centre médical à Banfora effectue des tests de dépistage du paludisme. La probabilité qu'un test soit positif (patient réellement malade) est \(p = 0{,}2\). On teste 8 patients de manière indépendante. Soit \(X\) le nombre de tests positifs.
\(X \sim \mathcal{B}(8 ; 0{,}2)\)
a) Probabilité que 3 tests soient positifs :
\(P(X=3) = \binom{8}{3}(0{,}2)^3(0{,}8)^5 = 56 \times 0{,}008 \times 0{,}32768 \approx 0{,}147\)
b) Probabilité qu'aucun ne soit positif :
\(P(X=0) = (0{,}8)^8 \approx 0{,}168\)
c) Probabilité qu'au moins un soit positif :
\(P(X \geq 1) = 1 - P(X=0) \approx 1 - 0{,}168 = 0{,}832\)
VII. Espérance de la loi binomiale
L'espérance de \(X \sim \mathcal{B}(n, p)\) représente le nombre moyen de succès attendus. Son calcul utilise un argument élégant.
Si \(X \sim \mathcal{B}(n, p)\), alors :
\[E(X) = n \cdot p\]Posons \(X_i = 1\) si l'épreuve \(i\) est un succès, \(X_i = 0\) sinon. Chaque \(X_i \sim \mathcal{B}(p)\).
Alors \(X = X_1 + X_2 + \cdots + X_n\) (le total des succès).
Par linéarité de l'espérance : \(E(X) = E(X_1) + E(X_2) + \cdots + E(X_n)\)
Or chaque \(E(X_i) = p\) (espérance de Bernoulli).
Donc : \(E(X) = \underbrace{p + p + \cdots + p}_{n \text{ fois}} = np\) \(\square\)
Si on lance une pièce 100 fois, on s'attend à obtenir 50 fois pile. Si un agriculteur plante 200 graines dont chacune germe avec probabilité 0,8, il s'attend à \(200 \times 0{,}8 = 160\) germinations. C'est exactement \(np\).
La formule \(E(X) = np\) est une des plus naturelles des mathématiques : on multiplie le nombre d'essais par la probabilité de réussite à chacun. La preuve formelle confirme ce que l'intuition disait déjà.
VIII. Variance de la loi binomiale
L'espérance dit où se situe le centre de la distribution, mais pas à quel point les valeurs sont dispersées autour. La variance complète cette information. Sa formule sera démontrée en Leçon 8 dans le cadre général des variables aléatoires, mais nous l'énonçons dès maintenant.
La fonction \(f(p) = p(1-p)\) atteint son maximum en \(p = 0{,}5\) avec \(f(0{,}5) = 0{,}25\). Quand \(p = 0{,}5\), succès et échec sont également probables : l'incertitude est maximale, donc la dispersion (variance) est maximale.
À l'inverse, quand \(p\) est proche de 0 ou de 1, le résultat est presque déterminé d'avance (presque toujours échec ou presque toujours succès), donc la variance est proche de 0.
IX. Application — Récolte de karité, province du Tuy
Soit \(X\) le nombre d'arbres productifs parmi 10 inspectés. \(X \sim \mathcal{B}(10 ; 0{,}65)\).
Espérance :
\(E(X) = 10 \times 0{,}65 = 6{,}5\) arbres en moyenne
Variance et écart-type :
\(V(X) = 10 \times 0{,}65 \times 0{,}35 = 2{,}275\)
\(\sigma(X) = \sqrt{2{,}275} \approx 1{,}508\)
Probabilité que 7 arbres ou plus soient productifs :
\(P(X \geq 7) = P(X=7)+P(X=8)+P(X=9)+P(X=10)\)
\(P(X=7) = \binom{10}{7}(0{,}65)^7(0{,}35)^3 = 120 \times 0{,}04902 \times 0{,}042875 \approx 0{,}252\)
\(P(X=8) = \binom{10}{8}(0{,}65)^8(0{,}35)^2 = 45 \times 0{,}03186 \times 0{,}1225 \approx 0{,}176\)
\(P(X=9) = \binom{10}{9}(0{,}65)^9(0{,}35)^1 = 10 \times 0{,}02071 \times 0{,}35 \approx 0{,}0725\)
\(P(X=10) = (0{,}65)^{10} \approx 0{,}01346\)
\(P(X \geq 7) \approx 0{,}252 + 0{,}176 + 0{,}0725 + 0{,}0135 \approx 0{,}514\)
Dans la zone irriguée de Bama, un maraîcher plante 12 oignons. Chaque plant prend correctement avec une probabilité de \(0{,}80\), de manière indépendante. Soit \(X\) le nombre de plants réussis.
- a) Identifier la loi suivie par \(X\) et ses paramètres.
- b) Calculer \(P(X = 10)\).
- c) Calculer \(P(X \geq 11)\).
- d) Calculer \(P(X \leq 9)\) en utilisant le complémentaire.
- e) Calculer l'espérance et l'écart-type. Interpréter.
✏️ Exercices d'application
Calculer les coefficients binomiaux suivants, en montrant les calculs :
- a) \(\binom{5}{2}\)
- b) \(\binom{7}{3}\)
- c) \(\binom{10}{0}\) et \(\binom{10}{10}\)
- d) \(\binom{6}{2}\) et \(\binom{6}{4}\). Que remarque-t-on ?
b) \(\binom{7}{3} = \dfrac{7!}{3! \cdot 4!} = \dfrac{7 \times 6 \times 5}{3 \times 2 \times 1} = \dfrac{210}{6} = 35\)
c) \(\binom{10}{0} = \dfrac{10!}{0! \cdot 10!} = 1\) et \(\binom{10}{10} = 1\). Interprétation : il n'y a qu'une façon de choisir 0 éléments (ne rien choisir) ou tous les 10.
d) \(\binom{6}{2} = \dfrac{6 \times 5}{2} = 15\) et \(\binom{6}{4} = \dfrac{6!}{4! \cdot 2!} = 15\).
On remarque \(\binom{6}{2} = \binom{6}{4}\) : c'est la symétrie \(\binom{n}{k} = \binom{n}{n-k}\).
Un paysan de Fada N'Gourma plante 5 graines de sorgho. Chaque graine germe avec probabilité \(p = 0{,}6\), indépendamment. Soit \(X\) le nombre de germinations.
- a) Quelle est la loi de \(X\) ?
- b) Dresser le tableau de distribution de \(X\) pour \(k = 0, 1, 2, 3, 4, 5\).
- c) Calculer \(E(X)\) et \(V(X)\).
b) Tableau :
\(P(X=0) = (0{,}4)^5 \approx 0{,}010\)
\(P(X=1) = 5 \times 0{,}6 \times (0{,}4)^4 \approx 0{,}077\)
\(P(X=2) = 10 \times (0{,}6)^2 \times (0{,}4)^3 \approx 0{,}230\)
\(P(X=3) = 10 \times (0{,}6)^3 \times (0{,}4)^2 \approx 0{,}346\)
\(P(X=4) = 5 \times (0{,}6)^4 \times 0{,}4 \approx 0{,}259\)
\(P(X=5) = (0{,}6)^5 \approx 0{,}078\)
Somme ≈ 1,000 ✓
c) \(E(X) = 5 \times 0{,}6 = 3\) germinations en moyenne.
\(V(X) = 5 \times 0{,}6 \times 0{,}4 = 1{,}2\)
Une machine à l'usine SOFITEX de Bobo-Dioulasso produit des bobines de fil de coton. La probabilité qu'une bobine soit défectueuse est \(p = 0{,}05\). On prélève 20 bobines au hasard. Soit \(X\) le nombre de bobines défectueuses.
- a) Quelle est la loi de \(X\) ? Calculer \(E(X)\) et \(\sigma(X)\).
- b) Calculer \(P(X = 0)\) : probabilité qu'il n'y ait aucune bobine défectueuse.
- c) Calculer \(P(X \geq 2)\).
\(E(X) = 20 \times 0{,}05 = 1\) bobine défectueuse en moyenne.
\(V(X) = 20 \times 0{,}05 \times 0{,}95 = 0{,}95\) ;
\(\sigma(X) = \sqrt{0{,}95} \approx 0{,}975\)
b) \(P(X=0) = (0{,}95)^{20} \approx 0{,}358\) (environ 36 % de lots sans défaut)
c) \(P(X \geq 2) = 1 - P(X=0) - P(X=1)\)
\(P(X=1) = 20 \times 0{,}05 \times (0{,}95)^{19} = 20 \times 0{,}05 \times 0{,}3774 \approx 0{,}377\)
\(P(X \geq 2) \approx 1 - 0{,}358 - 0{,}377 = 0{,}265\)
Dans un lycée de Ouagadougou, la probabilité qu'un élève réussisse le BAC du premier coup est \(p = 0{,}72\). On choisit 4 élèves au hasard. Soit \(X\) le nombre de réussite au premier coup.
- a) Calculer \(P(X = 4)\) (tous réussissent).
- b) Calculer \(P(X = 0)\) (aucun ne réussit).
- c) Calculer \(P(X \geq 3)\).
- d) Quelle est la valeur la plus probable de \(X\) (le mode) ?
a) \(P(X=4) = (0{,}72)^4 \approx 0{,}2687\)
b) \(P(X=0) = (0{,}28)^4 \approx 0{,}00615\)
c) \(P(X \geq 3) = P(X=3)+P(X=4)\)
\(P(X=3) = \binom{4}{3}(0{,}72)^3(0{,}28) = 4 \times 0{,}3732 \times 0{,}28 \approx 0{,}418\)
\(P(X \geq 3) \approx 0{,}418 + 0{,}269 = 0{,}687\)
d) Calculons toutes les probabilités :
\(P(X=0)\approx 0{,}006\) ; \(P(X=1)\approx 0{,}063\) ; \(P(X=2)\approx 0{,}243\) ; \(P(X=3)\approx 0{,}418\) ; \(P(X=4)\approx 0{,}269\)
Le mode est \(k = 3\) (probabilité la plus élevée : 0,418).
Lors d'une campagne de vaccination contre la méningite dans la région du Centre-Nord, la probabilité qu'un enfant contacté accepte le vaccin est \(p = 0{,}85\). Un agent de santé contacte 9 enfants dans la journée. Soit \(X\) le nombre d'enfants vaccinés.
- a) Identifier la loi de \(X\).
- b) Calculer l'espérance et la variance.
- c) Calculer \(P(X \geq 8)\).
- d) Calculer \(P(6 \leq X \leq 8)\).
b) \(E(X) = 9 \times 0{,}85 = 7{,}65\) enfants vaccinés en moyenne.
\(V(X) = 9 \times 0{,}85 \times 0{,}15 = 1{,}1475\)
c) \(P(X \geq 8) = P(X=8) + P(X=9)\)
\(P(X=8) = \binom{9}{8}(0{,}85)^8(0{,}15) = 9 \times 0{,}2725 \times 0{,}15 \approx 0{,}368\)
\(P(X=9) = (0{,}85)^9 \approx 0{,}232\)
\(P(X \geq 8) \approx 0{,}600\)
d) \(P(6 \leq X \leq 8) = P(X=6)+P(X=7)+P(X=8)\)
\(P(X=6) = \binom{9}{6}(0{,}85)^6(0{,}15)^3 = 84 \times 0{,}3771 \times 0{,}003375 \approx 0{,}107\)
\(P(X=7) = \binom{9}{7}(0{,}85)^7(0{,}15)^2 = 36 \times 0{,}3206 \times 0{,}0225 \approx 0{,}260\)
\(P(X=8) \approx 0{,}368\)
\(P(6 \leq X \leq 8) \approx 0{,}107 + 0{,}260 + 0{,}368 = 0{,}735\)
Récapitulatif — Loi de Bernoulli et loi binomiale
- Épreuve de Bernoulli : deux issues, succès (probabilité \(p\)) et échec (probabilité \(1-p\)). La variable \(X \sim \mathcal{B}(p)\) vaut 1 ou 0.
- Schéma de Bernoulli : \(n\) épreuves de Bernoulli indépendantes et identiques. Nécessite le tirage avec remise (ou populations très grandes).
- Coefficient binomial : \(\binom{n}{k} = \dfrac{n!}{k!(n-k)!}\) — nombre de façons de placer \(k\) succès en \(n\) épreuves. Se calcule avec la règle de Pascal.
- Loi binomiale : si \(X \sim \mathcal{B}(n,p)\), alors \(P(X=k) = \binom{n}{k}p^k(1-p)^{n-k}\).
- Espérance : \(E(X) = np\). La variance sera démontrée en L8 : \(V(X) = np(1-p)\).
- Technique clé : pour \(P(X \geq k)\) grand, passer par le complémentaire \(1 - P(X \leq k-1)\).
- Conditions d'application : \(n\) fixé, \(p\) fixé, épreuves indépendantes, exactement deux issues.