Leçon 7 — Loi de Bernoulli et loi binomiale

Modéliser une expérience aléatoire répétée plusieurs fois de manière identique et indépendante — et compter les succès.

I. L'épreuve de Bernoulli

Nombreuses sont les situations où une expérience aléatoire n'admet que deux issues possibles : un test médical est positif ou négatif, une graine germe ou non, un tir au but réussit ou échoue, une pièce tombe sur pile ou face. Ce type d'expérience porte le nom d'épreuve de Bernoulli, en hommage au mathématicien suisse Jacob Bernoulli (1654–1705).

Définition — Épreuve de Bernoulli

Une épreuve de Bernoulli de paramètre \(p\) est une expérience aléatoire à deux issues :

  • Succès (S) avec probabilité \(p\), où \(0 \leq p \leq 1\)
  • Échec (Ē) avec probabilité \(q = 1 - p\)

On associe à cette épreuve une variable aléatoire \(X\) qui vaut 1 en cas de succès et 0 en cas d'échec. Cette variable suit alors la loi de Bernoulli de paramètre \(p\).

\[X \sim \mathcal{B}(p) \quad \Longleftrightarrow \quad P(X=1) = p \;\text{ et }\; P(X=0) = 1-p\] \(X\) suit la loi de Bernoulli de paramètre \(p\)
🔍 Pourquoi coder succès = 1 et échec = 0 ?

Ce codage numérique n'est pas anodin. En notant succès = 1 et échec = 0, on peut calculer directement l'espérance de \(X\) :

\(E(X) = 1 \cdot p + 0 \cdot (1-p) = p\)

L'espérance de \(X\) est exactement \(p\), la probabilité de succès. Ce résultat simple sera crucial pour calculer l'espérance de la loi binomiale.

II. Schéma de Bernoulli

Que se passe-t-il lorsqu'on répète la même épreuve de Bernoulli plusieurs fois de manière indépendante ? C'est le schéma de Bernoulli, aussi appelé répétition d'épreuves de Bernoulli.

Définition — Schéma de Bernoulli

On réalise \(n\) épreuves de Bernoulli indépendantes, chacune ayant la même probabilité de succès \(p\). On appelle cet ensemble un schéma de Bernoulli de paramètres \(n\) et \(p\).

Chaque issue de ce schéma est une suite de \(n\) résultats, par exemple pour \(n = 3\) : (S, É, S) ou (É, É, S), etc. L'espace probabilisé comporte \(2^n\) issues au total.

🔍 Le rôle central de l'indépendance

L'hypothèse d'indépendance est essentielle : elle permet de multiplier les probabilités à chaque étape. Sans elle, la probabilité d'une séquence dépendrait de l'histoire des tirages précédents, rendant le calcul beaucoup plus complexe.

En pratique, on réalise un schéma de Bernoulli dès qu'on tire avec remise dans une urne, ou qu'on effectue des tests sur des individus différents (cas indépendants). Le tirage sans remise ne satisfait pas l'indépendance et donne lieu à une autre loi (loi hypergéométrique, hors programme).

mascotte Nerveux
Nerveux explique : Imagine que tu joues à un jeu de cauris au marché de Rood Woko à Ouagadougou. Tu lances 4 cauris à la fois. Chaque cauri tombe soit « ouvert » (succès, probabilité \(p\)) soit « fermé » (échec). C'est une épreuve de Bernoulli ! Maintenant si tu répètes ce lancer 10 fois de suite — c'est le schéma de Bernoulli. Et si tu veux savoir combien de fois tu obtiens exactement 3 cauris ouverts en un lancer, c'est la loi binomiale qui répond. Elle compte les succès dans une répétition d'épreuves identiques et indépendantes.

III. Probabilité d'une séquence dans un schéma de Bernoulli

Avant d'introduire la loi binomiale, calculons la probabilité d'une séquence précise de succès et d'échecs.

Exemple 1 — Probabilité de la séquence (S, É, S, S, É)

On réalise 5 épreuves de Bernoulli avec \(p = 0{,}3\). Calculons \(P(\text{S, É, S, S, É})\).

Par indépendance :

\(P = p \times q \times p \times p \times q = p^3 q^2\)

\(= (0{,}3)^3 \times (0{,}7)^2 = 0{,}027 \times 0{,}49 = 0{,}01323\)

Remarque cruciale : toute séquence comportant exactement 3 succès et 2 échecs a la même probabilité \(p^3 q^2\), quel que soit l'ordre des succès et des échecs.

Toute séquence avec \(k\) succès et \(n-k\) échecs a probabilité \(p^k q^{n-k}\).

Ce résultat est la clef de voûte de la loi binomiale : pour calculer \(P(X = k)\), il suffit de compter le nombre de séquences ayant exactement \(k\) succès, et de multiplier par \(p^k q^{n-k}\).

IV. Le coefficient binomial \(\binom{n}{k}\)

Combien y a-t-il de séquences de \(n\) résultats contenant exactement \(k\) succès ? Ce nombre est le coefficient binomial, noté \(\binom{n}{k}\) et lu "k parmi n".

\[\binom{n}{k} = \frac{n!}{k!(n-k)!}\] Nombre de façons de choisir \(k\) succès parmi \(n\) épreuves — lu "k parmi n"

Rappelons que \(n! = n \times (n-1) \times \cdots \times 2 \times 1\) (factorielle de \(n\)), avec la convention \(0! = 1\).

📐 Pourquoi cette formule ?

On veut choisir \(k\) positions parmi \(n\) pour placer les succès (les \(n-k\) restantes seront des échecs).

Il y a \(n\) choix pour la première position de succès, \(n-1\) pour la deuxième, ..., \(n-k+1\) pour la \(k\)-ième.

Cela donne \(n(n-1)\cdots(n-k+1) = \dfrac{n!}{(n-k)!}\) séquences ordonnées.

Mais l'ordre des succès entre eux n'importe pas : on divise par \(k!\) (le nombre de permutations de \(k\) éléments).

Résultat : \(\dbinom{n}{k} = \dfrac{n!}{k!(n-k)!}\) \(\square\)

Valeurs particulières à retenir : \(\binom{n}{0} = 1\) (aucun succès : une seule séquence possible) ; \(\binom{n}{1} = n\) ; \(\binom{n}{n} = 1\) ; \(\binom{n}{k} = \binom{n}{n-k}\) (symétrie).
Triangle de Pascal — coefficients binomiaux 1 1 1 1 2 1 1 3 3 1 1 4 6 4 1 1 5 10 10 5 1 n=0 n=1 n=2 n=3 n=4 n=5 Règle : chaque nombre = somme des deux au-dessus. Ex : 6 = 3 + 3, 10 = 4 + 6

Chaque entrée est \(\binom{n}{k}\) — les valeurs en vert sont les coefficients intérieurs, en or les plus grands de chaque ligne.

Règle de Pascal (astuce de calcul) : \(\dbinom{n}{k} = \dbinom{n-1}{k-1} + \dbinom{n-1}{k}\). On peut construire le triangle ligne par ligne sans jamais calculer de factorielles.

V. La loi binomiale \(\mathcal{B}(n, p)\)

On dispose maintenant de tous les outils pour définir la loi binomiale. Dans un schéma de Bernoulli de paramètres \(n\) et \(p\), on s'intéresse au nombre total de succès. Ce nombre est une variable aléatoire que l'on note \(X\).

Définition — Loi binomiale \(\mathcal{B}(n, p)\)

Soit \(X\) le nombre de succès dans un schéma de Bernoulli de paramètres \(n\) et \(p\). On dit que \(X\) suit la loi binomiale de paramètres \(n\) et \(p\), noté \(X \sim \mathcal{B}(n, p)\).

Pour tout entier \(k \in \{0, 1, 2, \ldots, n\}\) :

\[P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}\] Probabilité d'obtenir exactement \(k\) succès en \(n\) épreuves indépendantes de probabilité \(p\)
📐 Justification de la formule

On cherche \(P(X = k)\) = probabilité d'obtenir exactement \(k\) succès parmi \(n\) épreuves.

Étape 1 : Toute séquence particulière avec \(k\) succès et \(n-k\) échecs a probabilité \(p^k(1-p)^{n-k}\) (par indépendance).

Étape 2 : Le nombre de telles séquences est \(\binom{n}{k}\) (choix des positions des succès).

Étape 3 : Ces séquences sont incompatibles (disjointes), donc :

\(P(X = k) = \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k}\) \(\square\)

Vérification : La somme de toutes les probabilités vaut bien 1. En effet, par le théorème du binôme de Newton : \(\sum_{k=0}^{n} \binom{n}{k} p^k (1-p)^{n-k} = (p + (1-p))^n = 1^n = 1\) ✓

VI. Exemples travaillés

Exemple 2 — Germination de semences de mil, région du Sahel

Un agriculteur de la région de Dori sème 6 graines de mil. Chaque graine germe avec probabilité \(p = 0{,}75\), indépendamment des autres. Soit \(X\) le nombre de graines qui germent.

\(X \sim \mathcal{B}(6 ; 0{,}75)\)

a) Probabilité que exactement 4 graines germent :

\(P(X=4) = \binom{6}{4}(0{,}75)^4(0{,}25)^2\)

\(= 15 \times 0{,}3164 \times 0{,}0625 = 15 \times 0{,}01978 \approx 0{,}297\)

b) Probabilité qu'au moins 5 graines germent :

\(P(X \geq 5) = P(X=5) + P(X=6)\)

\(P(X=5) = \binom{6}{5}(0{,}75)^5(0{,}25)^1 = 6 \times 0{,}2373 \times 0{,}25 \approx 0{,}356\)

\(P(X=6) = \binom{6}{6}(0{,}75)^6(0{,}25)^0 = 1 \times 0{,}1779 \approx 0{,}178\)

\(P(X \geq 5) \approx 0{,}356 + 0{,}178 = 0{,}534\)

c) Probabilité qu'au plus 2 graines germent :

\(P(X \leq 2) = P(X=0)+P(X=1)+P(X=2)\)

\(P(X=0) = (0{,}25)^6 \approx 0{,}000244\)

\(P(X=1) = 6(0{,}75)(0{,}25)^5 \approx 0{,}00439\)

\(P(X=2) = 15(0{,}75)^2(0{,}25)^4 \approx 0{,}0330\)

\(P(X \leq 2) \approx 0{,}0377\)

Il y a plus de 53 % de chances que 5 ou 6 graines germent, et seulement 3,8 % que 2 ou moins germent.
0 0,1 0,2 0,3 0 ≈0 1 0,004 2 0,033 3 0,132 4 0,297 5 0,356 6 0,178 Nombre de graines germées \(k\) P(X = k)

Distribution de \(X \sim \mathcal{B}(6 ; 0{,}75)\) — la distribution est asymétrique vers la droite (p > 0,5)

Exemple 3 — Test de dépistage, centre médical de Banfora

Un centre médical à Banfora effectue des tests de dépistage du paludisme. La probabilité qu'un test soit positif (patient réellement malade) est \(p = 0{,}2\). On teste 8 patients de manière indépendante. Soit \(X\) le nombre de tests positifs.

\(X \sim \mathcal{B}(8 ; 0{,}2)\)

a) Probabilité que 3 tests soient positifs :

\(P(X=3) = \binom{8}{3}(0{,}2)^3(0{,}8)^5 = 56 \times 0{,}008 \times 0{,}32768 \approx 0{,}147\)

b) Probabilité qu'aucun ne soit positif :

\(P(X=0) = (0{,}8)^8 \approx 0{,}168\)

c) Probabilité qu'au moins un soit positif :

\(P(X \geq 1) = 1 - P(X=0) \approx 1 - 0{,}168 = 0{,}832\)

Il y a 83 % de chances qu'au moins un patient soit positif parmi les 8 testés.
Astuce : Pour calculer \(P(X \geq 1)\), il est presque toujours plus rapide de calculer \(1 - P(X = 0)\) que de sommer toutes les probabilités de 1 à \(n\). Cette technique du complémentaire est fondamentale.

VII. Espérance de la loi binomiale

L'espérance de \(X \sim \mathcal{B}(n, p)\) représente le nombre moyen de succès attendus. Son calcul utilise un argument élégant.

📘 Théorème — Espérance de la loi binomiale

Si \(X \sim \mathcal{B}(n, p)\), alors :

\[E(X) = n \cdot p\]
📐 Preuve par décomposition en variables de Bernoulli

Posons \(X_i = 1\) si l'épreuve \(i\) est un succès, \(X_i = 0\) sinon. Chaque \(X_i \sim \mathcal{B}(p)\).

Alors \(X = X_1 + X_2 + \cdots + X_n\) (le total des succès).

Par linéarité de l'espérance : \(E(X) = E(X_1) + E(X_2) + \cdots + E(X_n)\)

Or chaque \(E(X_i) = p\) (espérance de Bernoulli).

Donc : \(E(X) = \underbrace{p + p + \cdots + p}_{n \text{ fois}} = np\) \(\square\)

🔍 L'intuition derrière \(E(X) = np\)

Si on lance une pièce 100 fois, on s'attend à obtenir 50 fois pile. Si un agriculteur plante 200 graines dont chacune germe avec probabilité 0,8, il s'attend à \(200 \times 0{,}8 = 160\) germinations. C'est exactement \(np\).

La formule \(E(X) = np\) est une des plus naturelles des mathématiques : on multiplie le nombre d'essais par la probabilité de réussite à chacun. La preuve formelle confirme ce que l'intuition disait déjà.

VIII. Variance de la loi binomiale

L'espérance dit où se situe le centre de la distribution, mais pas à quel point les valeurs sont dispersées autour. La variance complète cette information. Sa formule sera démontrée en Leçon 8 dans le cadre général des variables aléatoires, mais nous l'énonçons dès maintenant.

📘 Théorème — Variance et écart-type de la loi binomiale
\[V(X) = n \cdot p \cdot (1-p) = npq \qquad \sigma(X) = \sqrt{npq}\]
🔍 Pourquoi la variance est maximale pour p = 0,5 ?

La fonction \(f(p) = p(1-p)\) atteint son maximum en \(p = 0{,}5\) avec \(f(0{,}5) = 0{,}25\). Quand \(p = 0{,}5\), succès et échec sont également probables : l'incertitude est maximale, donc la dispersion (variance) est maximale.

À l'inverse, quand \(p\) est proche de 0 ou de 1, le résultat est presque déterminé d'avance (presque toujours échec ou presque toujours succès), donc la variance est proche de 0.

IX. Application — Récolte de karité, province du Tuy

mascotte Nerveux
Nerveux explique : Le karité est une ressource précieuse dans la province du Tuy (Hauts-Bassins). Une coopérative de femmes collecte des noix de karité. Chaque arbre inspecté a une probabilité 0,65 de produire suffisamment pour la collecte cette saison. Si on inspecte 10 arbres, quelle est la distribution du nombre d'arbres productifs ? L'espérance et la variance donnent une image rapide de la situation !
Exemple 4 — Coopérative karité, province du Tuy

Soit \(X\) le nombre d'arbres productifs parmi 10 inspectés. \(X \sim \mathcal{B}(10 ; 0{,}65)\).

Espérance :

\(E(X) = 10 \times 0{,}65 = 6{,}5\) arbres en moyenne

Variance et écart-type :

\(V(X) = 10 \times 0{,}65 \times 0{,}35 = 2{,}275\)

\(\sigma(X) = \sqrt{2{,}275} \approx 1{,}508\)

Probabilité que 7 arbres ou plus soient productifs :

\(P(X \geq 7) = P(X=7)+P(X=8)+P(X=9)+P(X=10)\)

\(P(X=7) = \binom{10}{7}(0{,}65)^7(0{,}35)^3 = 120 \times 0{,}04902 \times 0{,}042875 \approx 0{,}252\)

\(P(X=8) = \binom{10}{8}(0{,}65)^8(0{,}35)^2 = 45 \times 0{,}03186 \times 0{,}1225 \approx 0{,}176\)

\(P(X=9) = \binom{10}{9}(0{,}65)^9(0{,}35)^1 = 10 \times 0{,}02071 \times 0{,}35 \approx 0{,}0725\)

\(P(X=10) = (0{,}65)^{10} \approx 0{,}01346\)

\(P(X \geq 7) \approx 0{,}252 + 0{,}176 + 0{,}0725 + 0{,}0135 \approx 0{,}514\)

En moyenne 6,5 arbres sont productifs, avec un écart-type d'environ 1,5. Il y a environ 51,4 % de chances que 7 arbres ou plus soient productifs.
⭐ Situation concrète Cultures maraîchères de Bama

Dans la zone irriguée de Bama, un maraîcher plante 12 oignons. Chaque plant prend correctement avec une probabilité de \(0{,}80\), de manière indépendante. Soit \(X\) le nombre de plants réussis.

  • a) Identifier la loi suivie par \(X\) et ses paramètres.
  • b) Calculer \(P(X = 10)\).
  • c) Calculer \(P(X \geq 11)\).
  • d) Calculer \(P(X \leq 9)\) en utilisant le complémentaire.
  • e) Calculer l'espérance et l'écart-type. Interpréter.

✏️ Exercices d'application

Exercice 1 — Coefficients binomiaux

Calculer les coefficients binomiaux suivants, en montrant les calculs :

  • a) \(\binom{5}{2}\)
  • b) \(\binom{7}{3}\)
  • c) \(\binom{10}{0}\) et \(\binom{10}{10}\)
  • d) \(\binom{6}{2}\) et \(\binom{6}{4}\). Que remarque-t-on ?
a) \(\binom{5}{2} = \dfrac{5!}{2! \cdot 3!} = \dfrac{5 \times 4}{2 \times 1} = 10\)

b) \(\binom{7}{3} = \dfrac{7!}{3! \cdot 4!} = \dfrac{7 \times 6 \times 5}{3 \times 2 \times 1} = \dfrac{210}{6} = 35\)

c) \(\binom{10}{0} = \dfrac{10!}{0! \cdot 10!} = 1\) et \(\binom{10}{10} = 1\). Interprétation : il n'y a qu'une façon de choisir 0 éléments (ne rien choisir) ou tous les 10.

d) \(\binom{6}{2} = \dfrac{6 \times 5}{2} = 15\) et \(\binom{6}{4} = \dfrac{6!}{4! \cdot 2!} = 15\).
On remarque \(\binom{6}{2} = \binom{6}{4}\) : c'est la symétrie \(\binom{n}{k} = \binom{n}{n-k}\).
Exercice 2 — Loi binomiale, taux de germination du sorgho

Un paysan de Fada N'Gourma plante 5 graines de sorgho. Chaque graine germe avec probabilité \(p = 0{,}6\), indépendamment. Soit \(X\) le nombre de germinations.

  • a) Quelle est la loi de \(X\) ?
  • b) Dresser le tableau de distribution de \(X\) pour \(k = 0, 1, 2, 3, 4, 5\).
  • c) Calculer \(E(X)\) et \(V(X)\).
a) \(X \sim \mathcal{B}(5 ; 0{,}6)\)

b) Tableau :
\(P(X=0) = (0{,}4)^5 \approx 0{,}010\)
\(P(X=1) = 5 \times 0{,}6 \times (0{,}4)^4 \approx 0{,}077\)
\(P(X=2) = 10 \times (0{,}6)^2 \times (0{,}4)^3 \approx 0{,}230\)
\(P(X=3) = 10 \times (0{,}6)^3 \times (0{,}4)^2 \approx 0{,}346\)
\(P(X=4) = 5 \times (0{,}6)^4 \times 0{,}4 \approx 0{,}259\)
\(P(X=5) = (0{,}6)^5 \approx 0{,}078\)
Somme ≈ 1,000 ✓

c) \(E(X) = 5 \times 0{,}6 = 3\) germinations en moyenne.
\(V(X) = 5 \times 0{,}6 \times 0{,}4 = 1{,}2\)
Exercice 3 — Contrôle qualité, usine SOFITEX

Une machine à l'usine SOFITEX de Bobo-Dioulasso produit des bobines de fil de coton. La probabilité qu'une bobine soit défectueuse est \(p = 0{,}05\). On prélève 20 bobines au hasard. Soit \(X\) le nombre de bobines défectueuses.

  • a) Quelle est la loi de \(X\) ? Calculer \(E(X)\) et \(\sigma(X)\).
  • b) Calculer \(P(X = 0)\) : probabilité qu'il n'y ait aucune bobine défectueuse.
  • c) Calculer \(P(X \geq 2)\).
a) \(X \sim \mathcal{B}(20 ; 0{,}05)\)
\(E(X) = 20 \times 0{,}05 = 1\) bobine défectueuse en moyenne.
\(V(X) = 20 \times 0{,}05 \times 0{,}95 = 0{,}95\) ;
\(\sigma(X) = \sqrt{0{,}95} \approx 0{,}975\)

b) \(P(X=0) = (0{,}95)^{20} \approx 0{,}358\) (environ 36 % de lots sans défaut)

c) \(P(X \geq 2) = 1 - P(X=0) - P(X=1)\)
\(P(X=1) = 20 \times 0{,}05 \times (0{,}95)^{19} = 20 \times 0{,}05 \times 0{,}3774 \approx 0{,}377\)
\(P(X \geq 2) \approx 1 - 0{,}358 - 0{,}377 = 0{,}265\)
Exercice 4 — Loi de Bernoulli et complémentaire

Dans un lycée de Ouagadougou, la probabilité qu'un élève réussisse le BAC du premier coup est \(p = 0{,}72\). On choisit 4 élèves au hasard. Soit \(X\) le nombre de réussite au premier coup.

  • a) Calculer \(P(X = 4)\) (tous réussissent).
  • b) Calculer \(P(X = 0)\) (aucun ne réussit).
  • c) Calculer \(P(X \geq 3)\).
  • d) Quelle est la valeur la plus probable de \(X\) (le mode) ?
\(X \sim \mathcal{B}(4 ; 0{,}72)\), \(q = 0{,}28\)

a) \(P(X=4) = (0{,}72)^4 \approx 0{,}2687\)

b) \(P(X=0) = (0{,}28)^4 \approx 0{,}00615\)

c) \(P(X \geq 3) = P(X=3)+P(X=4)\)
\(P(X=3) = \binom{4}{3}(0{,}72)^3(0{,}28) = 4 \times 0{,}3732 \times 0{,}28 \approx 0{,}418\)
\(P(X \geq 3) \approx 0{,}418 + 0{,}269 = 0{,}687\)

d) Calculons toutes les probabilités :
\(P(X=0)\approx 0{,}006\) ; \(P(X=1)\approx 0{,}063\) ; \(P(X=2)\approx 0{,}243\) ; \(P(X=3)\approx 0{,}418\) ; \(P(X=4)\approx 0{,}269\)
Le mode est \(k = 3\) (probabilité la plus élevée : 0,418).
Exercice 5 — Vaccination, campagne dans la région du Centre-Nord

Lors d'une campagne de vaccination contre la méningite dans la région du Centre-Nord, la probabilité qu'un enfant contacté accepte le vaccin est \(p = 0{,}85\). Un agent de santé contacte 9 enfants dans la journée. Soit \(X\) le nombre d'enfants vaccinés.

  • a) Identifier la loi de \(X\).
  • b) Calculer l'espérance et la variance.
  • c) Calculer \(P(X \geq 8)\).
  • d) Calculer \(P(6 \leq X \leq 8)\).
a) \(X \sim \mathcal{B}(9 ; 0{,}85)\), \(q = 0{,}15\)

b) \(E(X) = 9 \times 0{,}85 = 7{,}65\) enfants vaccinés en moyenne.
\(V(X) = 9 \times 0{,}85 \times 0{,}15 = 1{,}1475\)

c) \(P(X \geq 8) = P(X=8) + P(X=9)\)
\(P(X=8) = \binom{9}{8}(0{,}85)^8(0{,}15) = 9 \times 0{,}2725 \times 0{,}15 \approx 0{,}368\)
\(P(X=9) = (0{,}85)^9 \approx 0{,}232\)
\(P(X \geq 8) \approx 0{,}600\)

d) \(P(6 \leq X \leq 8) = P(X=6)+P(X=7)+P(X=8)\)
\(P(X=6) = \binom{9}{6}(0{,}85)^6(0{,}15)^3 = 84 \times 0{,}3771 \times 0{,}003375 \approx 0{,}107\)
\(P(X=7) = \binom{9}{7}(0{,}85)^7(0{,}15)^2 = 36 \times 0{,}3206 \times 0{,}0225 \approx 0{,}260\)
\(P(X=8) \approx 0{,}368\)
\(P(6 \leq X \leq 8) \approx 0{,}107 + 0{,}260 + 0{,}368 = 0{,}735\)
mascotte Nerveux

Récapitulatif — Loi de Bernoulli et loi binomiale

  • Épreuve de Bernoulli : deux issues, succès (probabilité \(p\)) et échec (probabilité \(1-p\)). La variable \(X \sim \mathcal{B}(p)\) vaut 1 ou 0.
  • Schéma de Bernoulli : \(n\) épreuves de Bernoulli indépendantes et identiques. Nécessite le tirage avec remise (ou populations très grandes).
  • Coefficient binomial : \(\binom{n}{k} = \dfrac{n!}{k!(n-k)!}\) — nombre de façons de placer \(k\) succès en \(n\) épreuves. Se calcule avec la règle de Pascal.
  • Loi binomiale : si \(X \sim \mathcal{B}(n,p)\), alors \(P(X=k) = \binom{n}{k}p^k(1-p)^{n-k}\).
  • Espérance : \(E(X) = np\). La variance sera démontrée en L8 : \(V(X) = np(1-p)\).
  • Technique clé : pour \(P(X \geq k)\) grand, passer par le complémentaire \(1 - P(X \leq k-1)\).
  • Conditions d'application : \(n\) fixé, \(p\) fixé, épreuves indépendantes, exactement deux issues.

Supports Video