Terminale specialite

Probabilités — Schéma de Bernoulli et loi binomiale

Pour réussir ce chapitre, vous devez bien maîtriser les fondamentaux des probabilités vus en Première. Nous allons les réviser en détail, car ils sont essentiels pour comprendre les schémas de Bernoulli.

Version HTML statique du cours. Si JavaScript est actif, MathSups affiche l’expérience interactive avec QCM, exercices guidés et assistant IA.

Rappels de Première : probabilités

Pour réussir ce chapitre, vous devez bien maîtriser les fondamentaux des probabilités vus en Première. Nous allons les réviser en détail, car ils sont essentiels pour comprendre les schémas de Bernoulli.

Expérience aléatoire, univers, événement

Une expérience aléatoire est une expérience dont le résultat ne peut pas être prédit avec certitude avant de la réaliser. L'ensemble de tous les résultats possibles s'appelle l'univers, noté Ω.

Exemple 1 : Lancer un dé à 6 faces. L'univers est Ω = {1, 2, 3, 4, 5, 6}.

Exemple 2 : Lancer une pièce de monnaie. L'univers est Ω = {Pile, Face}.

Un événement est un sous-ensemble de l'univers. Par exemple, "obtenir un nombre pair" est l'événement {2, 4, 6}.

Cas particuliers :
• L'événement certain est Ω lui-même (se réalise toujours).
• L'événement impossible est l'ensemble vide ∅ (ne se réalise jamais).
• Deux événements A et B sont incompatibles si A ∩ B = ∅ (ne peuvent pas se réaliser simultanément).

Probabilité d'un événement et probabilité conditionnelle

La probabilité d'un événement A est un nombre entre 0 et 1 qui mesure la "chance" que cet événement se produise. On la note $P(A)$.

Propriétés fondamentales :
• $P(A) + P(\bar{A}) = 1$ où $\bar{A}$ est le complémentaire de A (l'événement contraire).
• Si A et B sont incompatibles, $P(A \cup B) = P(A) + P(B)$.
• Dans le cas où tous les résultats sont équiprobables : $P(A) = \frac{\text{nombre d'issues favorables}}{\text{nombre total d'issues}}$

Exemple : Lancer un dé. $P(\text{obtenir un 3}) = \frac{1}{6}$, $P(\text{obtenir un nombre pair}) = \frac{3}{6} = \frac{1}{2}$.

La probabilité conditionnelle de B sachant A (notée $P_A(B)$ ou $P(B|A)$) est la probabilité que B se réalise sachant que A s'est déjà réalisé :

$$P_A(B) = \frac{P(A \cap B)}{P(A)} \text{ où } P(A) \neq 0$$

Exemple : Dans une classe, 60% des élèves ont une calculatrice, et parmi ceux qui ont une calculatrice, 70% sont au club math. La probabilité qu'un élève pris au hasard soit au club math ET ait une calculatrice est $P(\text{calc et club}) = P(\text{calc}) \times P_{\text{calc}}(\text{club}) = 0,6 \times 0,7 = 0,42$.

Formule des probabilités totales

Si les événements $A_1, A_2, \ldots, A_n$ forment une partition de Ω (c'est-à-dire qu'ils sont deux à deux incompatibles et que leur réunion est Ω), alors pour tout événement B :

$$P(B) = P(B \cap A_1) + P(B \cap A_2) + \cdots + P(B \cap A_n)$$

Ou de manière équivalente :

$$P(B) = P(A_1) \cdot P_{A_1}(B) + P(A_2) \cdot P_{A_2}(B) + \cdots + P(A_n) \cdot P_{A_n}(B)$$

Exemple complet : Une urne contient 3 boules rouges et 2 boules bleues. On tire une boule au hasard.
• Si elle est rouge, on la remet et on ajoute une boule rouge (4 rouges, 2 bleues).
• Si elle est bleue, on la remet et on ajoute une boule bleue (3 rouges, 3 bleues).
Puis on tire une deuxième boule. Quelle est la probabilité qu'elle soit rouge ?

Les événements $R_1$ (1ère rouge) et $B_1$ (1ère bleue) partitionnent l'univers.
$P(R_2) = P(R_1) \cdot P_{R_1}(R_2) + P(B_1) \cdot P_{B_1}(R_2)$
$P(R_2) = \frac{3}{5} \cdot \frac{4}{6} + \frac{2}{5} \cdot \frac{3}{6} = \frac{12}{30} + \frac{6}{30} = \frac{18}{30} = \frac{3}{5}$

Événements indépendants

Deux événements A et B sont indépendants si la réalisation de l'un n'affecte pas la probabilité de l'autre. Mathématiquement :

$$A \text{ et } B \text{ indépendants} \iff P(A \cap B) = P(A) \times P(B)$$

De manière équivalente : $P_A(B) = P(B)$ et $P_B(A) = P(A)$.

Exemple 1 : Lancer deux dés distincts. L'événement "le premier dé donne un 6" est indépendant de l'événement "le deuxième dé donne un 6". La probabilité que les deux donnent 6 est $\frac{1}{6} \times \frac{1}{6} = \frac{1}{36}$.

Exemple 2 : Tirer une carte dans un jeu, la noter, la remettre, puis tirer une deuxième carte. Ces deux tirages sont indépendants.

Attention ! Deux événements incompatibles (qui ne peuvent pas se réaliser simultanément) ne sont JAMAIS indépendants.

Exemple complet : tirage dans une urne avec remise

Une urne contient 4 boules blanches et 6 boules noires. On tire successivement 3 boules avec remise (on remet la boule après chaque tirage).

Question : Quelle est la probabilité d'obtenir exactement 2 boules blanches ?

Résolution :
À chaque tirage, $P(\text{Blanche}) = \frac{4}{10} = 0,4$ et $P(\text{Noire}) = \frac{6}{10} = 0,6$.

Les trois tirages sont indépendants (remise). Les configurations possibles avec exactement 2 blanches sont :
• BBN : $0,4 \times 0,4 \times 0,6 = 0,096$
• BNB : $0,4 \times 0,6 \times 0,4 = 0,096$
• NBB : $0,6 \times 0,4 \times 0,4 = 0,096$

Comme ces trois cas sont incompatibles, la probabilité totale est :
$P(\text{exactement 2 blanches}) = 0,096 + 0,096 + 0,096 = 0,288$

Diagramme en arbre : Un arbre avec 3 niveaux, où à chaque niveau on a deux branches (B avec poids 0,4 et N avec poids 0,6). On identifie les 3 chemins menant à 2 blanches et on additionne leurs probabilités.

Succession d'épreuves indépendantes

Maintenant que vous maîtrisez les probabilités simples et conditionnelles, nous abordons les expériences multiples. C'est la base pour comprendre les schémas de Bernoulli.

Répétition d'expériences identiques et indépendantes

On appelle succession d'épreuves indépendantes la répétition d'une même expérience aléatoire plusieurs fois, de manière indépendante. C'est-à-dire que le résultat d'une épreuve n'influence pas les autres.

Condition essentielle : Les épreuves doivent être identiques (même univers, mêmes probabilités) et indépendantes (le résultat d'une épreuve ne change pas la distribution des probabilités pour les épreuves suivantes).

Exemples :
• Lancer un dé 5 fois de suite.
• Tirer une boule dans une urne 10 fois avec remise (sinon, les probabilités changeraient).
• Tester 100 ampoules de la même production pour vérifier leur durée de vie (si on considère que chaque ampoule est testée indépendamment).

Probabilité d'une issue dans une succession d'épreuves

Lors d'une succession de $n$ épreuves indépendantes, la probabilité d'obtenir une issue spécifique $(x_1, x_2, \ldots, x_n)$ (c'est-à-dire le résultat $x_1$ à la 1ère épreuve, $x_2$ à la 2e, etc.) est le produit des probabilités individuelles :

$$P(x_1, x_2, \ldots, x_n) = P(x_1) \times P(x_2) \times \cdots \times P(x_n)$$

pourvu que les épreuves soient indépendantes.

Exemple : Lancer une pièce 3 fois. La probabilité d'obtenir Pile, puis Face, puis Pile est :
$P(\text{PFP}) = P(\text{P}) \times P(\text{F}) \times P(\text{P}) = \frac{1}{2} \times \frac{1}{2} \times \frac{1}{2} = \frac{1}{8}$

Représentation par un arbre — comment lire les probabilités

Pour analyser une succession d'épreuves, on construit souvent un arbre pondéré :

• Chaque nœud représente une étape de l'expérience.
• Chaque branche porte un label (le résultat) et un poids (la probabilité).
• Un chemin de la racine à une feuille représente une issue complète de l'expérience.
• La probabilité d'un chemin = produit des poids des branches qui le composent.

Exemple : Lancer un dé deux fois.

L'arbre a un premier nœud, puis 6 branches (une pour chaque face 1-6, chacune avec probabilité $\frac{1}{6}$). À l'extrémité de chaque branche, on a 6 sous-branches (pour le 2e lancer). Un chemin complet (par exemple "1 puis 3") a probabilité $\frac{1}{6} \times \frac{1}{6} = \frac{1}{36}$.

Pour compter un type de résultat : On additionne les probabilités de tous les chemins menant à ce résultat. Par exemple, pour "obtenir au moins un 6 en deux lancers", on additionne les probabilités des chemins (6,1), (6,2), ..., (6,6), (1,6), (2,6), ..., (5,6) — soit 11 chemins.

Exemple : lancer 3 fois un dé, probabilité d'exactement deux 6

Question : On lance un dé 3 fois. Quelle est la probabilité d'obtenir exactement deux 6 ?

Approche : À chaque lancer, $P(6) = \frac{1}{6}$ et $P(\text{non-6}) = \frac{5}{6}$.

Cas possibles avec exactement deux 6 :
• 6, 6, non-6 : probabilité = $\frac{1}{6} \times \frac{1}{6} \times \frac{5}{6} = \frac{5}{216}$
• 6, non-6, 6 : probabilité = $\frac{1}{6} \times \frac{5}{6} \times \frac{1}{6} = \frac{5}{216}$
• non-6, 6, 6 : probabilité = $\frac{5}{6} \times \frac{1}{6} \times \frac{1}{6} = \frac{5}{216}$

Probabilité totale : $P(\text{exactement deux 6}) = \frac{5}{216} + \frac{5}{216} + \frac{5}{216} = \frac{15}{216} = \frac{5}{72} \approx 0,0694$

Observation importante : Il y a 3 façons d'arranger deux 6 parmi 3 lancers. Chaque arrangement a la même probabilité $\left(\frac{1}{6}\right)^2 \times \left(\frac{5}{6}\right)^1 = \frac{5}{216}$. Cela nous amène naturellement au concept de schéma de Bernoulli et de coefficients binomiaux !

Épreuve de Bernoulli et schéma de Bernoulli

Nous arrivons au cœur du chapitre. Une épreuve de Bernoulli est une expérience avec deux seuls résultats possibles. Répétée plusieurs fois de manière indépendante, elle forme un schéma de Bernoulli.

Loi de Bernoulli

On appelle variable de Bernoulli de paramètre $p$ la variable aléatoire $X$ qui vaut $1$ (succès) avec probabilité $p$ et $0$ (échec) avec probabilité $1-p$.

Sa loi est : $P(X=1)=p$ et $P(X=0)=1-p$.

Espérance : $E(X) = 1 \cdot p + 0 \cdot (1-p) = p$.

Variance : $V(X) = E(X^2) - [E(X)]^2 = p - p^2 = p(1-p)$.

La loi binomiale $B(n,p)$ s'obtient comme la somme de $n$ variables de Bernoulli indépendantes de même paramètre $p$.

E(X)=p,\quad V(X)=p(1-p)

Épreuve de Bernoulli

Une épreuve de Bernoulli est une expérience aléatoire qui ne peut avoir que deux résultats possibles :

• Un résultat appelé succès, de probabilité $p$
• L'autre résultat appelé échec, de probabilité $q = 1 - p$

Exemples classiques :
• Lancer une pièce : succès = "Pile" (p = 0,5), échec = "Face" (q = 0,5)
• Un tireur au but : succès = "marquer" (p dépend du tireur), échec = "rater"
• Tirer une carte : succès = "carte rouge" (p = 0,5), échec = "carte noire"
• Répondre au hasard à une question : succès = "bonne réponse", échec = "mauvaise réponse"
• Contrôle qualité : succès = "pièce conforme", échec = "pièce défectueuse"

Attention : Les noms "succès" et "échec" sont juste des labels. Un "succès" n'est pas forcément quelque chose de positif — c'est simplement le résultat qu'on choisit d'appeler succès dans le problème.

Schéma de Bernoulli

Un schéma de Bernoulli de paramètres $n$ et $p$ est la répétition d'une même épreuve de Bernoulli (succès de probabilité $p$) $n$ fois de manière indépendante.

On note cela $B(n, p)$.

Les trois conditions essentielles sont :
1. Chaque épreuve a exactement deux résultats (succès/échec).
2. La probabilité de succès est la même à chaque épreuve (identiques).
3. Les épreuves sont indépendantes (le résultat d'une n'affecte pas les autres).

Exemples qui satisfont ces conditions :
• Lancer un dé 10 fois et compter le nombre de 6 : c'est $B(10, \frac{1}{6})$
• Tirer une boule dans une urne 5 fois AVEC REMISE : c'est un schéma de Bernoulli
• Répondre au hasard à 20 questions d'un QCM à 4 choix : c'est $B(20, \frac{1}{4})$

Exemple qui ne satisfait PAS ces conditions : Tirer des cartes dans un jeu SANS REMISE. Après avoir tiré une carte rouge, la probabilité de tirer une autre rouge change (les épreuves ne sont pas indépendantes).

Variable aléatoire X = nombre de succès

Dans un schéma de Bernoulli $B(n, p)$, on définit la variable aléatoire X comme le nombre de succès obtenu après les $n$ épreuves.

X peut prendre les valeurs $0, 1, 2, \ldots, n$.

Exemples :
• Si on lance une pièce 5 fois, X = nombre de Pile peut être 0, 1, 2, 3, 4 ou 5.
• Si on répond au hasard à 10 questions de QCM (4 choix), X = nombre de bonnes réponses peut être 0, 1, 2, ..., ou 10.
• Si un athlète fait 8 tentatives de saut, X = nombre de sauts réussis peut être entre 0 et 8.

L'objectif principal de ce chapitre est de calculer les probabilités $P(X = k)$ pour différentes valeurs de $k$, et de déterminer l'espérance (valeur moyenne) et la variance de X.

Identifier un schéma de Bernoulli dans un problème

Pour reconnaître qu'un problème suit un schéma de Bernoulli, vérifiez ces 3 conditions :

1. Deux seuls résultats possibles pour chaque épreuve ? Oui → on peut parler de succès/échec

2. Même probabilité à chaque épreuve ? Oui → les épreuves sont identiques

3. Indépendance des épreuves ? Oui → le résultat d'une n'affecte pas les autres (cela signifie AVEC REMISE pour les tirages)

Si les trois conditions sont satisfaites : c'est un schéma de Bernoulli.

Pièges courants :
• "Tirer 5 boules dans une urne sans remise" → Ce n'est PAS un schéma de Bernoulli (conditions 2 et 3 échouent).
• "Lancer un dé tant qu'on ne fait pas de 6" → Ce n'est PAS un schéma de Bernoulli (nombre d'épreuves aléatoire).
• "Deux joueurs jouent 10 parties" → C'est un schéma de Bernoulli SI la probabilité de victoire du joueur 1 reste constante.

Exemples : identification de schémas de Bernoulli

Exemple 1 : Tirage avec remise Une urne contient 7 boules blanches et 3 boules noires. On tire une boule, on note sa couleur, on la remet. On répète cela 12 fois. On compte le nombre de boules blanches obtenues.

• Deux résultats : blanc (succès, p = 0,7) ou noir (échec, q = 0,3) ✓
• Même probabilité (remise) ✓
• Indépendant (remise) ✓
→ C'est un schéma de Bernoulli $B(12, 0,7)$

Exemple 2 : Contrôle qualité Une chaîne de production fabrique des ampoules. La probabilité qu'une ampoule soit défectueuse est 2%. On teste 100 ampoules provenant de la production.

• Deux résultats : défectueuse (succès, p = 0,02) ou conforme ✓
• Même probabilité (même production) ✓
• Indépendant (100 ampoules, chacune testée indépendamment) ✓
→ C'est un schéma de Bernoulli $B(100, 0,02)$. X = nombre de défectueuses.

Exemple 3 : QCM au hasard Un étudiant répond au hasard à un QCM de 15 questions, chacune ayant 4 réponses possibles.

• Deux résultats : bonne réponse (succès, p = 0,25) ou mauvaise ✓
• Même probabilité (même nombre de choix) ✓
• Indépendant (répondre à une question n'affecte pas les autres) ✓
→ C'est un schéma de Bernoulli $B(15, 0,25)$. X = nombre de bonnes réponses.

Coefficients binomiaux

Avant de pouvoir calculer les probabilités avec une loi binomiale, nous devons comprendre les coefficients binomiaux. Ils comptent le nombre de façons de choisir succès et échecs.

Coefficient binomial

Le coefficient binomial $\binom{n}{k}$ (prononcé "n parmi k") représente le nombre de façons de choisir $k$ éléments parmi $n$ éléments distincts, sans tenir compte de l'ordre.

On l'écrit aussi $C_n^k$ ou $C(n,k)$.

Intuition : Imaginez que vous avez $n$ positions, et vous devez en choisir $k$ pour placer un "S" (succès), le reste recevant un "E" (échec). $\binom{n}{k}$ compte le nombre de configurations distinctes.

Exemple concret : Vous avez 4 pièces. Combien de façons d'en choisir 2 pour les donner à un ami ?
• {pièce 1, pièce 2}
• {pièce 1, pièce 3}
• {pièce 1, pièce 4}
• {pièce 2, pièce 3}
• {pièce 2, pièce 4}
• {pièce 3, pièce 4}
Total : 6 façons. Donc $\binom{4}{2} = 6$.

Formule des coefficients binomiaux

$$\binom{n}{k} = \frac{n!}{k!(n-k)!}$$

où $n!$ (factorielle de $n$) = $n \times (n-1) \times (n-2) \times \cdots \times 2 \times 1$, avec la convention $0! = 1$.

Calculs simples :
• $\binom{5}{2} = \frac{5!}{2! \cdot 3!} = \frac{5 \times 4}{2 \times 1} = \frac{20}{2} = 10$
• $\binom{6}{3} = \frac{6!}{3! \cdot 3!} = \frac{6 \times 5 \times 4}{3 \times 2 \times 1} = \frac{120}{6} = 20$
• $\binom{10}{1} = \frac{10!}{1! \cdot 9!} = \frac{10}{1} = 10$
• $\binom{7}{7} = \frac{7!}{7! \cdot 0!} = 1$

Méthode pratique : Pour calculer $\binom{n}{k}$, il est souvent plus facile de ne pas calculer les factorielles complètes. Au lieu de cela, utilisez :

$$\binom{n}{k} = \frac{n \times (n-1) \times \cdots \times (n-k+1)}{k \times (k-1) \times \cdots \times 1}$$

Par exemple : $\binom{10}{3} = \frac{10 \times 9 \times 8}{3 \times 2 \times 1} = \frac{720}{6} = 120$

Propriétés des coefficients binomiaux

Propriété 1 (Symétrie) : $\binom{n}{k} = \binom{n}{n-k}$

Cela a du sens : choisir $k$ objets parmi $n$ revient à laisser $n-k$ objets.

Exemple : $\binom{7}{2} = \binom{7}{5} = 21$

Propriété 2 (Cas extrêmes) : $\binom{n}{0} = \binom{n}{n} = 1$

Il y a une seule façon de ne rien choisir et une seule façon de tout choisir.

Propriété 3 (Triangle de Pascal) : $\binom{n}{k} = \binom{n-1}{k-1} + \binom{n-1}{k}$

Cela permet de construire un triangle où chaque nombre est la somme des deux nombres au-dessus :

$$\begin{array}{cccccccc}
n=0: & & & & 1 & & & \\
n=1: & & & 1 & & 1 & & \\
n=2: & & 1 & & 2 & & 1 & \\
n=3: & 1 & & 3 & & 3 & & 1 \\
n=4: 1 & & 4 & & 6 & & 4 & & 1
\end{array}$$

où chaque ligne $n$ donne les valeurs de $\binom{n}{0}, \binom{n}{1}, \ldots, \binom{n}{n}$.

Calculs de coefficients binomiaux

Calcul 1 : $\binom{5}{2}$
$$\binom{5}{2} = \frac{5!}{2! \cdot 3!} = \frac{5 \times 4 \times 3!}{2 \times 1 \times 3!} = \frac{5 \times 4}{2} = 10$$

Calcul 2 : $\binom{6}{3}$
$$\binom{6}{3} = \frac{6 \times 5 \times 4}{3 \times 2 \times 1} = \frac{120}{6} = 20$$

Calcul 3 : $\binom{10}{1}$
$$\binom{10}{1} = \frac{10!}{1! \cdot 9!} = 10$$

Calcul 4 : $\binom{8}{6}$ (utilisant la symétrie)
$$\binom{8}{6} = \binom{8}{2} = \frac{8 \times 7}{2 \times 1} = \frac{56}{2} = 28$$

Application concrète : En lançant un dé 5 fois, combien de façons d'obtenir exactement trois 6 ? Réponse : $\binom{5}{3} = \frac{5 \times 4 \times 3}{3 \times 2 \times 1} = 10$ façons différentes.

Loi binomiale

C'est le résultat central du chapitre. Nous pouvons maintenant calculer les probabilités pour un schéma de Bernoulli grâce à la loi binomiale.

Théorème : loi binomiale

Soit X le nombre de succès dans un schéma de Bernoulli $B(n, p)$ (c'est-à-dire $n$ épreuves, probabilité de succès $p$). Alors, pour tout entier $k$ avec $0 \leq k \leq n$ :

$$P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}$$

On dit que X suit une loi binomiale de paramètres $n$ et $p$, notée $X \sim B(n, p)$.

Interprétation :
• $\binom{n}{k}$ compte le nombre de façons d'obtenir $k$ succès en $n$ épreuves.
• $p^k$ est la probabilité d'avoir $k$ succès.
• $(1-p)^{n-k}$ est la probabilité d'avoir $n-k$ échecs.
• Le produit des trois donne la probabilité d'une configuration précise avec $k$ succès.

Preuve de la formule de la loi binomiale

Idée générale : Nous comptons d'abord la probabilité d'une configuration précise, puis nous multiplions par le nombre de configurations possibles.

Étape 1 : Probabilité d'une configuration avec $k$ succès et $n-k$ échecs

Supposons une configuration spécifique où les $k$ premiers essais donnent des succès et les $n-k$ derniers donnent des échecs : SSS...SÉÉ...É. Par indépendance :

$$P(\text{cette configuration}) = p^k \times (1-p)^{n-k}$$

Étape 2 : Nombre de configurations avec exactement $k$ succès

Le nombre de façons de choisir les $k$ positions (parmi $n$) où placer les succès est $\binom{n}{k}$.

Étape 3 : Toutes les configurations avec $k$ succès sont incompatibles

Deux configurations différentes ne peuvent pas se réaliser simultanément. Donc :

$$P(X = k) = \binom{n}{k} \times p^k \times (1-p)^{n-k}$$

Exemple détaillé : Lancer une pièce (p = 0,5) quatre fois. Probabilité d'obtenir exactement 2 Piles ?

Les configurations avec 2 Piles : PPFF, PFPF, PFFP, FPFP, FPPF, FFPP (au total 6 = $\binom{4}{2}$).

Chaque configuration a probabilité $(0,5)^2 \times (0,5)^2 = (0,5)^4 = \frac{1}{16}$.

Donc : $P(X = 2) = 6 \times \frac{1}{16} = \frac{6}{16} = \frac{3}{8} = 0,375$

Ou avec la formule : $P(X = 2) = \binom{4}{2} (0,5)^2 (0,5)^2 = 6 \times \frac{1}{4} \times \frac{1}{4} = \frac{6}{16}$ ✓

Calculer P(X=k), P(X≤k), P(X≥k) — méthode pas à pas

Pour calculer P(X = k) :

1. Identifiez les paramètres : $n$ (nombre d'épreuves) et $p$ (probabilité de succès).
2. Calculez le coefficient binomial : $\binom{n}{k} = \frac{n!}{k!(n-k)!}$
3. Calculez $p^k$
4. Calculez $(1-p)^{n-k}$ où $1-p$ est la probabilité d'échec
5. Multipliez les trois : $P(X=k) = \binom{n}{k} p^k (1-p)^{n-k}$

Pour calculer P(X ≤ k) : (probabilité d'au plus $k$ succès)

$$P(X \leq k) = P(X=0) + P(X=1) + \cdots + P(X=k)$$

Vous devez calculer et additionner plusieurs probabilités individuelles.

Pour calculer P(X ≥ k) : (probabilité d'au moins $k$ succès)

$$P(X \geq k) = P(X=k) + P(X=k+1) + \cdots + P(X=n)$$

Astuce : Utilisez l'événement complémentaire : $P(X \geq k) = 1 - P(X \leq k-1)$
C'est souvent plus rapide que d'additionner plusieurs termes.

Exemple : X suit $B(10, 0,3)$. Calculer $P(X \geq 2)$.

$$P(X \geq 2) = 1 - P(X < 2) = 1 - [P(X=0) + P(X=1)]$$

$P(X=0) = \binom{10}{0} (0,3)^0 (0,7)^{10} = 1 \times 1 \times (0,7)^{10} \approx 0,0282$

$P(X=1) = \binom{10}{1} (0,3)^1 (0,7)^9 = 10 \times 0,3 \times (0,7)^9 \approx 0,1211$

$P(X \geq 2) \approx 1 - 0,0282 - 0,1211 = 0,8507$

Espérance et variance d'une loi binomiale

Si X suit une loi binomiale $B(n, p)$, alors :

Espérance (valeur moyenne) :
$$E(X) = np$$

Variance :
$$V(X) = np(1-p)$$

Écart-type :
$$\sigma(X) = \sqrt{V(X)} = \sqrt{np(1-p)}$$

Interprétation :
• L'espérance $E(X) = np$ est la "valeur moyenne attendue" du nombre de succès.
• La variance mesure la "dispersion" : plus elle est grande, plus les résultats sont dispersés autour de la moyenne.
• L'écart-type a la même unité que X et est une autre mesure de dispersion.

Exemple : On lance un dé 60 fois. X = nombre de 6 obtenus. Alors :
• $n = 60$, $p = \frac{1}{6}$, $1-p = \frac{5}{6}$
• $E(X) = 60 \times \frac{1}{6} = 10$ → en moyenne, on obtient 10 six.
• $V(X) = 60 \times \frac{1}{6} \times \frac{5}{6} = \frac{300}{36} \approx 8,33$
• $\sigma(X) = \sqrt{8,33} \approx 2,89$ → l'écart-type est environ 2,89 six.

Conditions d'application de la loi binomiale

Avant d'utiliser la loi binomiale, vérifiez TOUJOURS que :

1. Les épreuves sont IDENTIQUES : la probabilité de succès $p$ est la même à chaque épreuve. Par exemple, lancer plusieurs fois le même dé ✓, mais pas augmenter la probabilité au fil du temps ✗.

2. Les épreuves sont INDÉPENDANTES : le résultat d'une épreuve ne change pas la probabilité des autres. Par exemple, tirer AVEC REMISE ✓, mais pas tirer SANS REMISE ✗ (car les probabilités changent après chaque tirage).

3. Il y a exactement DEUX RÉSULTATS possibles pour chaque épreuve (succès ou échec). Si une épreuve a trois ou plus d'issues possibles qui ne se réduisent pas à deux groupes, la loi binomiale ne s'applique pas directement.

Exemples d'erreurs courantes :
• "Tirer 5 boules dans une urne sans remise" → Les probabilités changent, ne pas utiliser la loi binomiale.
• "Jouer à un jeu jusqu'à obtenir 3 victoires" → Le nombre d'épreuves n'est pas fixe à l'avance.
• "Lancer un dé et comptabiliser 1-2-3-4-5-6 comme trois catégories" → Réduire à deux catégories (ex. pair/impair) pour appliquer la loi binomiale.

Problème complet : QCM au hasard

Énoncé : Un étudiant répond au hasard à un QCM de 10 questions. Chaque question a 4 réponses possibles, dont une seule est correcte. On note X le nombre de bonnes réponses.

Étape 1 : Identifier le schéma de Bernoulli
• Deux résultats : bonne réponse (succès) ou mauvaise (échec) ✓
• Probabilité de succès : $p = \frac{1}{4} = 0,25$ ✓
• Les 10 réponses sont indépendantes ✓
→ $X \sim B(10, 0,25)$

Étape 2 : Calculer P(X = 3)
$$P(X = 3) = \binom{10}{3} (0,25)^3 (0,75)^7$$
$$\binom{10}{3} = \frac{10 \times 9 \times 8}{3 \times 2 \times 1} = 120$$
$$(0,25)^3 = \frac{1}{64}$$
$$(0,75)^7 \approx 0,1335$$
$$P(X = 3) = 120 \times \frac{1}{64} \times 0,1335 \approx 0,2503$$

Étape 3 : Calculer P(X ≥ 2) (chance de réussir plus qu'une simple chance)
$$P(X \geq 2) = 1 - [P(X=0) + P(X=1)]$$
$$P(X=0) = \binom{10}{0} (0,25)^0 (0,75)^{10} \approx 0,0563$$
$$P(X=1) = \binom{10}{1} (0,25)^1 (0,75)^9 \approx 0,1877$$
$$P(X \geq 2) \approx 1 - 0,0563 - 0,1877 = 0,7560$$

Étape 4 : Calculer l'espérance et l'écart-type
$$E(X) = np = 10 \times 0,25 = 2,5$$
$$V(X) = np(1-p) = 10 \times 0,25 \times 0,75 = 1,875$$
$$\sigma(X) = \sqrt{1,875} \approx 1,37$$

Interprétation : En répondant complètement au hasard, l'étudiant peut espérer obtenir environ 2,5 bonnes réponses (sur 10). Avec un écart-type de 1,37, les résultats typiques s'écartent de ±1,37 bonnes réponses de cette moyenne.

Variable aléatoire générale et loi des grands nombres

La loi binomiale est un cas particulier d'une variable aléatoire. On généralise ici la notion d'espérance et de variance à toute variable aléatoire, puis on énonce la loi des grands nombres qui relie fréquence observée et probabilité.

Variable aléatoire réelle et loi de probabilité

Une variable aléatoire réelle $X$ sur un univers $\Omega$ est une fonction qui associe à chaque issue $\omega$ un nombre réel $X(\omega)$.

La loi de probabilité de $X$ est le tableau donnant, pour chaque valeur $x_i$ prise par $X$, la probabilité $p_i = P(X = x_i)$.

Ces probabilités vérifient nécessairement : $$\sum_i p_i = 1$$

Exemple : Lancer un dé ; $X$ = face obtenue. Loi : $P(X = k) = \dfrac{1}{6}$ pour $k = 1, \ldots, 6$.

\sum_i p_i = 1

Espérance d'une variable aléatoire

L'espérance de $X$, notée $E(X)$, est la moyenne pondérée par les probabilités :

$$E(X) = \sum_i x_i \cdot p_i$$

L'espérance représente la valeur moyenne obtenue si l'on répétait l'expérience un très grand nombre de fois.

Exemple : Pour un dé équilibré : $E(X) = \dfrac{1+2+3+4+5+6}{6} = 3{,}5$.

E(X) = \sum_i x_i p_i

Variance et écart-type

La variance de $X$ mesure la dispersion autour de l'espérance :

$$V(X) = \sum_i (x_i - E(X))^2 \cdot p_i$$

Formule de König-Huygens (plus pratique pour le calcul) :

$$V(X) = E(X^2) - [E(X)]^2 = \sum_i x_i^2 p_i - \left(\sum_i x_i p_i\right)^2$$

L'écart-type est $\sigma(X) = \sqrt{V(X)}$ ; il s'exprime dans la même unité que $X$.

V(X) = E(X^2) - [E(X)]^2

Linéarité de l'espérance et propriétés de la variance

Soit $X$ une variable aléatoire et $a, b$ des réels.

  • $E(aX + b) = aE(X) + b$
  • $V(aX + b) = a^2 V(X)$ (la variance est insensible aux translations)
  • $\sigma(aX + b) = |a|\,\sigma(X)$

De plus, si $X$ et $Y$ sont deux variables aléatoires, alors $E(X+Y) = E(X) + E(Y)$ (toujours).

Si $X$ et $Y$ sont indépendantes, on a en plus $V(X+Y) = V(X) + V(Y)$.

E(aX+b)=aE(X)+b,\quad V(aX+b)=a^2V(X)

Variable aléatoire moyenne $M_n$

Soit $X_1, X_2, \ldots, X_n$ des variables aléatoires indépendantes et de même loi (espérance $\mu = E(X)$, variance $\sigma^2 = V(X)$). On définit la variable moyenne :

$$M_n = \frac{X_1 + X_2 + \cdots + X_n}{n}$$

Alors :

  • $E(M_n) = \mu$ (la moyenne converge en espérance vers $\mu$)
  • $V(M_n) = \dfrac{\sigma^2}{n}$ (la dispersion diminue comme $1/n$)
  • $\sigma(M_n) = \dfrac{\sigma}{\sqrt{n}}$

Interprétation : Plus on moyenne d'observations, plus la moyenne empirique $M_n$ est concentrée autour de $\mu$.

E(M_n)=\mu,\quad V(M_n)=\frac{\sigma^2}{n}

Inégalité de Bienaymé-Tchebychev

Soit $X$ une variable aléatoire d'espérance $\mu = E(X)$ et de variance $V(X)$. Pour tout $\delta > 0$ :

$$P(|X - \mu| \geq \delta) \leq \frac{V(X)}{\delta^2}$$

Cette inégalité donne un majorant de la probabilité de s'éloigner de l'espérance de plus de $\delta$, sans aucune hypothèse sur la forme de la loi.

Application : En posant $\delta = k\sigma(X)$, on obtient $P(|X - \mu| \geq k\sigma) \leq \dfrac{1}{k^2}$.

P(|X-\mu|\ge \delta)\le \frac{V(X)}{\delta^2}

Loi des grands nombres

On répète $n$ fois, de façon indépendante, une expérience pour laquelle un événement $A$ a la probabilité $p$. On note $f_n$ la fréquence d'apparition de $A$ (nombre d'occurrences divisé par $n$).

Pour tout $\varepsilon > 0$ :

$$\lim_{n \to +\infty} P(|f_n - p| \geq \varepsilon) = 0$$

Interprétation : La fréquence observée $f_n$ converge en probabilité vers $p$ quand $n$ augmente. Plus on répète l'expérience, plus la fréquence se rapproche de la probabilité théorique.

Intervalle de fluctuation

On effectue $n$ épreuves de Bernoulli de probabilité $p$. La fréquence observée $F_n = X/n$ fluctue autour de $p$.

L'intervalle de fluctuation au seuil 95% est l'intervalle $I_n$ tel que :

$$P(F_n \in I_n) \geq 0{,}95$$

Pour $n \geq 25$ et $p$ pas trop proche de 0 ou 1, on utilise l'approximation :

$$I_n \approx \left[p - \frac{1}{\sqrt{n}},\ p + \frac{1}{\sqrt{n}}\right]$$

Utilisation : Si une fréquence observée est hors de l'intervalle de fluctuation, on remet en cause l'hypothèse $p$.

Intervalle de confiance

À partir d'une fréquence observée $f$ sur un échantillon de taille $n$, l'intervalle de confiance au seuil 95% pour la probabilité inconnue $p$ est :

$$\left[f - \frac{1}{\sqrt{n}},\ f + \frac{1}{\sqrt{n}}\right]$$

Cet intervalle contient la vraie valeur de $p$ avec une probabilité d'environ 95%.

Distinction : L'intervalle de fluctuation est centré sur le $p$ supposé connu ; l'intervalle de confiance est centré sur la fréquence observée $f$ pour estimer $p$ inconnu.

QCM du chapitre

  1. Question 1. Une urne contient 3 boules rouges et 2 boules bleues. On tire une boule, on note sa couleur, et on la remet. On répète l'opération 4 fois. Quel est le type d'expérience aléatoire ?

    • A. Un schéma de Bernoulli de paramètres (4, 0,6)
    • B. Un tirage sans remise
    • C. Une succession d'expériences indépendantes avec p=0,6 (si on compte rouge)
    • D. A et C sont corrects

    Réponse. D. A et C sont corrects

    Explication. C'est un schéma de Bernoulli parce que : (1) deux résultats (rouge/bleu), (2) même probabilité à chaque tirage (remise), (3) indépendance. $B(4, 0.6)$ où p=P(rouge)=3/5=0,6. Les réponses A et C sont équivalentes.

  2. Question 2. Calculer $\binom{6}{2}$.

    • A. 12
    • B. 15
    • C. 20
    • D. 30

    Réponse. B. 15

    Explication. $\binom{6}{2} = \frac{6!}{2!4!} = \frac{6 \times 5}{2 \times 1} = \frac{30}{2} = 15$

  3. Question 3. Soit X le nombre de 6 obtenus en lançant un dé 5 fois. Que vaut $P(X=2)$ ? (arrondir à 0,01 près)

    • A. ≈ 0,16
    • B. ≈ 0,23
    • C. ≈ 0,32
    • D. ≈ 0,40

    Réponse. B. ≈ 0,23

    Explication. $X \sim B(5, 1/6)$. $P(X=2) = \binom{5}{2} (1/6)^2 (5/6)^3 = 10 \times \frac{1}{36} \times \frac{125}{216} \approx 0,23$

  4. Question 4. Un tireur au but réussit ses tirs avec une probabilité de 0,8. Il tire 10 fois. Quelle est l'espérance du nombre de tirs réussis ?

    • A. 6
    • B. 8
    • C. 10
    • D. 4

    Réponse. B. 8

    Explication. $E(X) = np = 10 \times 0,8 = 8$. En moyenne, le tireur réussit 8 tirs.

  5. Question 5. On tire 3 fois une carte dans un jeu standard de 52 cartes. Les cartes ne sont pas remises. Est-ce un schéma de Bernoulli ?

    • A. Oui, avec p=0,5
    • B. Non, car les probabilités changent
    • C. Oui, avec p=0,25
    • D. Non, car il n'y a pas 2 résultats

    Réponse. B. Non, car les probabilités changent

    Explication. Sans remise, la probabilité change après chaque tirage (par exemple, si on compte rouge). Les épreuves ne sont pas indépendantes. Donc ce n'est pas un schéma de Bernoulli.

  6. Question 6. Un contrôle de qualité vérifie la conformité de 200 pièces. La probabilité qu'une pièce soit conforme est 0,95. Calculer la variance du nombre de pièces non-conformes.

    • A. 9,5
    • B. 10
    • C. 14,25
    • D. 19

    Réponse. A. 9,5

    Explication. Si $X$ designe le nombre de pieces non conformes, alors $X\sim B(200,0{,}05)$. Sa variance vaut $$V(X)=np(1-p)=200\times 0{,}05\times 0{,}95=9{,}5.$$

  7. Question 7. Un étudiant répond au hasard à 8 questions de vrai/faux. Quelle est la probabilité qu'il obtienne exactement 5 bonnes réponses ?

    • A. ≈ 0,22
    • B. ≈ 0,27
    • C. ≈ 0,32
    • D. ≈ 0,42

    Réponse. A. ≈ 0,22

    Explication. $X \sim B(8, 0,5)$. $P(X=5) = \binom{8}{5} (0,5)^5 (0,5)^3 = 56 \times (0,5)^8 = \frac{56}{256} ≈ 0,219 ≈ 0,22$

  8. Question 8. Une machine produit des pièces avec un taux de défaut de 2%. On prélève 50 pièces. Que vaut $P(X \geq 1)$ où X est le nombre de pièces défectueuses ?

    • A. ≈ 0,36
    • B. ≈ 0,64
    • C. ≈ 0,98
    • D. ≈ 1,00

    Réponse. B. ≈ 0,64

    Explication. $X\sim B(50,0{,}02)$. On utilisé le complementaire : $$P(X\ge 1)=1-P(X=0)=1-(0{,}98)^{50}\approx 1-0{,}364=0{,}636\approx 0{,}64.$$

Exercices guidés

Exercice 1. Contrôle qualité avec schéma de Bernoulli

Une chaîne de production fabrique des résistances électriques. On estime que 3% des résistances sont défectueuses. On préève un lot de 20 résistances pour inspection. Soit X le nombre de résistances défectueuses dans le lot. (a) Montrer que X suit une loi binomiale et identifier ses paramètres. (b) Calculer P(X=0), P(X=1) et P(X=2). (c) Calculer P(X ≤ 1). (d) Calculer l'espérance et l'écart-type de X.
  1. Étape 1. Pour montrer que X suit une loi binomiale, vérifiez les trois conditions : (1) deux résultats possibles, (2) même probabilité, (3) indépendance.

    Chaque résistance peut être soit défectueuse (succès) soit conforme (échec). La probabilité d'être défectueuse est p=0,03 pour chaque résistance (identique). Les résistances sont supposées indépendantes (défaut d'une n'affecte pas les autres). Donc X suit B(20, 0,03).
  2. Étape 2. Utilisez la formule $P(X=k) = \binom{n}{k} p^k (1-p)^{n-k}$ avec n=20 et p=0,03.

    $P(X=0) = \binom{20}{0}(0,03)^0(0,97)^{20} = 1 \times 1 \times (0,97)^{20} ≈ 0,5438$\n\n$P(X=1) = \binom{20}{1}(0,03)^1(0,97)^{19} = 20 \times 0,03 \times (0,97)^{19} ≈ 20 \times 0,03 \times 0,5606 ≈ 0,3364$\n\n$P(X=2) = \binom{20}{2}(0,03)^2(0,97)^{18} = 190 \times 0,0009 \times (0,97)^{18} ≈ 190 \times 0,0009 \times 0,5778 ≈ 0,0988$
  3. Étape 3. P(X ≤ 1) = P(X=0) + P(X=1). Additionne les résultats des calculs précédents.

    $P(X ≤ 1) = P(X=0) + P(X=1) ≈ 0,5438 + 0,3364 ≈ 0,8802 ≈ 0,88$ (soit 88% de chance qu'il y ait au maximum 1 défectueuse).
  4. Étape 4. Utilisez les formules E(X) = np et $\sigma(X) = \sqrt{np(1-p)}$.

    E(X) = np = 20 × 0,03 = 0,6 résistances défectueuses en moyenne.\n\nV(X) = np(1-p) = 20 × 0,03 × 0,97 = 0,582\n\n$\sigma(X) = \sqrt{0,582} ≈ 0,763$ résistances (écart-type).

Exercice 2. QCM au hasard — probabilités et espérance

Un étudiant répond complètement au hasard à un QCM de 15 questions. Chaque question a 4 réponses possibles, dont une seule est correcte. Soit X le nombre de bonnes réponses. (a) Montrer que X suit une loi binomiale B(15, 1/4). (b) Calculer P(X=3) (arrondir à 0,001). (c) Calculer P(X ≥ 2). (d) Quelle est la probabilité que l'étudiant réussisse au moins 8 questions ?
  1. Étape 1. Identifiez : (1) la probabilité de succès (bonne réponse au hasard parmi 4 choix), (2) le nombre d'épreuves (questions), (3) l'indépendance.

    Chaque question est une épreuve de Bernoulli : succès = bonne réponse (p=1/4), échec = mauvaise réponse (q=3/4). Les 15 réponses sont indépendantes. Donc X ∼ B(15, 1/4).
  2. Étape 2. $P(X=3) = \binom{15}{3} (1/4)^3 (3/4)^{12}$. Calculez le binomial, puis les puissances.

    $\binom{15}{3} = \frac{15 \times 14 \times 13}{3 \times 2 \times 1} = 455$\n\n$(1/4)^3 = 1/64 ≈ 0,015625$\n\n$(3/4)^{12} = (0,75)^{12} ≈ 0,0317$\n\n$P(X=3) = 455 \times 0,015625 \times 0,0317 ≈ 0,225$
  3. Étape 3. Utilisez le complémentaire : $P(X ≥ 2) = 1 - P(X < 2) = 1 - [P(X=0) + P(X=1)]$.

    $P(X=0) = (0,75)^{15} ≈ 0,0134$\n\n$P(X=1) = 15 \times (0,25) \times (0,75)^{14} ≈ 15 \times 0,25 \times 0,0179 ≈ 0,0668$\n\n$P(X ≥ 2) = 1 - (0,0134 + 0,0668) ≈ 1 - 0,0802 ≈ 0,920$
  4. Étape 4. P(X ≥ 8) = P(X=8) + P(X=9) + ... + P(X=15). Ou utilisez une calculatrice/table si disponible. Alternativement, réfléchissez à ce que cela signifie (8 bonnes réponses sur 15 en devinant).

    Cette probabilité est très faible. Avec p=0,25 et n=15, l'espérance est E(X)=15×0,25=3,75. Obtenir 8 bonnes réponses (plus du double de l'espérance) est très improbable. $P(X ≥ 8) ≈ 0,000004 ≈ 0$ (pratiquement impossible d'obtenir au moins 8 bonnes réponses en devinant). Note : Le calcul exact nécessiterait de sommer 8 termes binomiaux, ce qui est fastidieux sans calculatrice.

Exercice 3. Problème de seuil : trouver n

Un joueur lance une pièce équilibrée. Combien de fois minimales doit-il lancer la pièce pour que la probabilité d'obtenir au moins une face soit supérieure à 0,95 ? (On pose X = nombre de faces obtenues.)
  1. Étape 1. Formalisez le problème : X suit quelle loi ? Que cherchez-vous exactement ?

    X = nombre de faces en n lancers suit B(n, 0,5). On cherche le plus petit n tel que P(X ≥ 1) > 0,95.
  2. Étape 2. Utilisez le complémentaire : $P(X ≥ 1) = 1 - P(X=0)$. Écrivez l'inéquation.

    $P(X ≥ 1) = 1 - P(X=0) = 1 - (0,5)^n > 0,95$\n\nDonc : $(0,5)^n < 0,05$
  3. Étape 3. Prenez le logarithme des deux côtés pour résoudre en n.

    $(0,5)^n < 0,05$\n\n$n \log(0,5) < \log(0,05)$\n\n$n > \frac{\log(0,05)}{\log(0,5)} = \frac{\log(1/20)}{\log(1/2)} = \frac{-\log(20)}{-\log(2)} = \frac{\log(20)}{\log(2)}$\n\n$n > \frac{1,301}{0,301} ≈ 4,32$\n\nDonc n ≥ 5.
  4. Étape 4. Vérifiez : avec n=5, vérifiez que P(X ≥ 1) > 0,95. Aussi vérifiez que n=4 ne suffit pas.

    Avec n=5 : $P(X ≥ 1) = 1 - (0,5)^5 = 1 - 1/32 = 31/32 ≈ 0,969 > 0,95$ ✓\n\nAvec n=4 : $P(X ≥ 1) = 1 - (0,5)^4 = 1 - 1/16 = 15/16 = 0,9375 < 0,95$ ✗\n\n**Réponse :** Le joueur doit lancer la pièce au moins **5 fois**.

Exercice 4. Arbre pondéré et probabilités totales (révision Première + binomiale)

Un magasin reçoit des téléphones en deux modèles : 40% sont du modèle A, 60% sont du modèle B. Chaque modèle a une probabilité d'être défectueux : - Modèle A : 5% de défaut - Modèle B : 3% de défaut. (a) On prélève un téléphone au hasard. Quelle est la probabilité qu'il soit défectueux ? (b) On prélève maintenant 10 téléphones (indépendants). Quel est le nombre moyen de téléphones défectueux attendus ? (c) Calculer la probabilité d'obtenir exactement 2 défectueux parmi les 10.
  1. Étape 1. Construisez un arbre. Noeuds : Modèle (A ou B), puis Défaut (Oui/Non). Utilisez la formule des probabilités totales.

    Arbre pondéré :\n- P(A) = 0,4, P(défaut|A) = 0,05, P(pas défaut|A) = 0,95\n- P(B) = 0,6, P(défaut|B) = 0,03, P(pas défaut|B) = 0,97\n\nP(défectueux) = P(A)·P(défaut|A) + P(B)·P(défaut|B)\n= 0,4 × 0,05 + 0,6 × 0,03\n= 0,02 + 0,018\n= 0,038 (soit 3,8% de défaut moyen)
  2. Étape 2. Ici, vous devez appliquer les probabilités totales calculées à un schéma de Bernoulli répété. X = nombre de défectueux sur 10 téléphones.

    On suppose que chaque téléphone a la même probabilité de défaut : p = 0,038 (calculée ci-dessus). Les 10 sélections sont indépendantes. Donc X ∼ B(10, 0,038).\n\nE(X) = 10 × 0,038 = 0,38 téléphones défectueux en moyenne.
  3. Étape 3. Utilisez la loi binomiale B(10, 0,038). Calculez P(X=2).

    $P(X=2) = \binom{10}{2} (0,038)^2 (0,962)^8$\n\n$\binom{10}{2} = 45$\n\n$(0,038)^2 ≈ 0,001444$\n\n$(0,962)^8 ≈ 0,7217$\n\nP(X=2) = 45 × 0,001444 × 0,7217 ≈ 0,0468 ≈ 4,68%

À retenir