Dans chacune des situations, identifier si \(X\) suit une loi binomiale. Si oui, donner les paramètres \(n\) et \(p\) correspondants. Sinon, expliquer pourquoi et proposer une modélisation alternative :
Chaque jour, Dean va déjeuner et il y a 25% de chances qu’il prenne une pizza. Soit \(X\) le nombre de fois où il a pris une pizza la semaine dernière.
Jessica joue au basketball, et elle a 60% de chances de réussir un lancer franc. Soit \(X\) le nombre de lancers francs réussis pendant le dernier match.
Une boîte contient 300 bonbons, dont 100 carambars et 200 chocolats. Sam prend un échantillon de 10 bonbons dans la boîte. Soit \(X\) le nombre de carambars dans son échantillon.
Marie lit un livre de 600 pages. Sur les pages paires, il y a 1% de chances d’avoir une faute d’orthographe. Sur les pages impaires, il y a 2% de chances d’avoir une faute d’orthographe. Soit \(X\) le nombre total de fautes d’orthographe dans le livre.
John lit un livre de 600 pages. Sur chaque page, le nombre de fautes d’orthographe est distribué selon une loi de Bernouilli de paramètre \(0.01\). Soit \(X\) le nombre total de fautes d’orthographe dans le livre.
Correction Exercice 1
Dans chaque situation, on indique si \(X\) suit une loi binomiale. Si oui, on précise les paramètres \(n\) et \(p\). Sinon, on propose une modélisation alternative.
Dean et les pizzas
Chaque jour, Dean prend une pizza avec probabilité \(p = 0{,}25\), pendant une semaine (\(n = 7\) jours).
Ensuite, il faut se poser la question : la décision de prendre une pizza un jour est-elle indépendante des autres jours ? Si oui, alors :
Le nombre de jours \(X\) où il prend une pizza suit donc une loi binomiale :
\[X \sim \mathcal{B}(n = 7,\; p = 0{,}25).\]
Jessica et les lancers francs
Jessica réussit un lancer franc avec probabilité \(p = 0{,}6\), mais le nombre de lancers tentés pendant le match n’est pas fixé à l’avance.
Il ne s’agit donc pas d’une loi binomiale (condition nécessaire : nombre d’essais fixé). Dans une modélisation binomiale, le nombre d’essais \(n\) doit être fixé et connu à l’avance.
Une modélisation possible est :
On note \(N\) le nombre de lancers francs tentés pendant le dernier match. Il y a plusieurs possibilités : Soit \(N\) est une constante connue, soit \(N\) est une variable aléatoire (par exemple, on peut modéliser \(N\) par une loi de Poisson.). Ensuite, on considère le nombre de lancers réussis \(X\) conditionnellement à \(N\).
Conditionnellement à \(N\), le nombre de lancers réussis suit une loi binomiale :
\[X \mid N \sim \mathcal{B}(N,\; 0{,}6).\]
si les lancers sont indépendants.
Boîte de bonbons (carambars/chocolats)
La boîte contient \(300\) bonbons dont \(100\) carambars et \(200\) chocolats.
Sam tire un échantillon de \(n = 10\) bonbons sans remise.
Les tirages ne sont pas indépendants (sans remise), donc \(X\)ne suit pas une loi binomiale.
La loi adaptée est l’hypergéométrique :
Taille de la population : \(N = 300\).
Nombre de “succès” (carambars) : \(K = 100\).
Taille de l’échantillon : \(n = 10\).
On a alors :
\[X \sim \mathcal{H}(N = 300,\; K = 100,\; n = 10).\]
Marie et les fautes d’orthographe (1 % / 2 %)
Le livre a \(600\) pages.
Sur les pages paires (300 pages), probabilité de faute \(p_1 = 0{,}01\).
Sur les pages impaires (300 pages), probabilité de faute \(p_2 = 0{,}02\).
La probabilité de “succès” (faute) n’est pas la même sur tous les essais (pages), donc \(X\)ne suit pas une loi binomiale.
Une modélisation naturelle est de décomposer :
On suppose l’indépendance entre les pages.
\(X_{\text{paires}}\) : nombre de fautes sur les pages paires,
\(X_{\text{impaires}}\) : nombre de fautes sur les pages impaires.
\[
X = X_{\text{paires}} + X_{\text{impaires}}.
\]
John et les fautes d’orthographe (Bernoulli 0.01)
Le livre a \(600\) pages.
Sur chaque page, le nombre de fautes suit une loi de Bernoulli de paramètre \(p = 0{,}01\) (on suppose indépendance entre pages).
Cette fois, la probabilité de faute est la même pour toutes les pages, et le nombre total de pages \(n = 600\) est fixé.
Ainsi, \(X\) suit une loi binomiale :
\[X \sim \mathcal{B}(n = 600,\; p = 0{,}01).\]
Exercice 2
Soit \(X_1, \dots, X_n\) une suite de variables aléatoires indépendantes telles que, pour tout \(k = 1, \dots, n\),
\[\mathbb{P}(X = \pm 1) = \frac{1}{2}.\]
Soit \[S = \sum_{i=1}^n X_i.\] On parle de marche aléatoire symétrique, où le point de départ est \(0\) avec un déplacement aléatoire à gauche ou à droite à chaque temps.
Par linéarité de l’espérance : \[\mathbb{E}(S) = \sum_{i=1}^n \mathbb{E}(X_i) = 0,\]
Comme les \(X_i\) sont indépendantes : \[\operatorname{Var}(S) = \sum_{i=1}^n \operatorname{Var}(X_i) = n.\]
Nous supposons maintenant que \[\mathbb{P}(X = 1) = p \quad \text{et} \quad \mathbb{P}(X = -1) = 1 - p,\] avec \(p > \frac{1}{2}\) (marche aléatoire à dérive positive).
2) Montrer que l’on peut réécrire \(X = aY + b\), avec \(Y \sim B(p)\)
Il faut jouer ici avec le support des variables aléatoires. L’idée est de partir d’une variable de Bernoulli \(Y\) qui prend les valeurs \(0\) et \(1\), et de la transformer linéairement pour obtenir une variable \(X\) qui prend les valeurs \(-1\) et \(1\). Comme \(P(X = 1) = p\) et \(P(X = -1) = 1 - p\), on peut définir \(Y\) comme une variable de Bernoulli telle que \(P(Y = 1) = p\) et \(P(Y = 0) = 1 - p\).
On cherche \(a\) et \(b\) tels que : - si \(Y = 1\), alors \(X = 1\), - si \(Y = 0\), alors \(X = -1\).
On résout : \[
\begin{cases}
a \cdot 1 + b = 1,\\
a \cdot 0 + b = -1.
\end{cases}
\]
D’où \(b = -1\) et \(a = 2\).
Ainsi : \[X = 2Y - 1 \quad \text{avec} \quad Y \sim \text{Bernoulli}(p).\]
3) En déduire \(E(S)\) et \(V(S)\) dans le cas général
Comme \(S = \sum_{i=1}^n X_i\) et \(X_i = 2Y_i - 1\) avec \(Y_i \sim B(p)\) indépendantes :
On sait que pour toute variable aléatoire \(X = aY + b\), on a \(\operatorname{Var}(X) = a^2\,\operatorname{Var}(Y)\). Donc : \[
\operatorname{Var}(X_i) = \operatorname{Var}(2Y_i - 1) = 2^2\,\operatorname{Var}(Y_i) =
4\,\operatorname{Var}(Y_i) = 4\,p(1 - p).
\] Donc :
Identifier les lois des variables aléatoires suivantes, en se basant sur leur fonction génératrice des moments :
\(M_X(t) = 0.8 e^t + 0.2\)
\(M_Y(t) = \dfrac{0.1 e^t}{1 - 0.9 e^t}\)
\(M_Z(t) = (0.3 e^t + 0.7)^{14}\)
Correction — Exercice 3
Rappel : fonctions génératrices des moments
Loi de Bernoulli de paramètre \(p\)
On a \[
\mathbb{P}(X = 1) = p, \qquad \mathbb{P}(X = 0) = 1 - p.
\]
Alors la fonction génératrice des moments est : \[
M_X(t) = \mathbb{E}(e^{tX})
= (1-p) e^{t \cdot 0} + p e^{t \cdot 1}
= (1 - p) + p e^t.
\]
Loi géométrique de paramètre \(p\) sur \(\{1,2,\dots\}\)
On prend la convention \[
\mathbb{P}(Y = k) = (1 - p)^{k-1} p, \quad k \ge 1.
\]
Alors \[
M_Y(t) = \mathbb{E}(e^{tY})
= \sum_{k=1}^{\infty} e^{tk} (1-p)^{k-1} p
= p e^t \sum_{k=0}^{\infty} \big((1-p)e^t\big)^k.
\]
Pour \(| (1-p)e^t | < 1\), c’est une série géométrique : \[
\sum_{k=0}^{\infty} r^k = \frac{1}{1-r}.
\]
Donc \[
M_Y(t) = \frac{p e^t}{1 - (1-p) e^t}.
\]
Loi binomiale \(\mathcal{B}(n,p)\)
Soit \(Z \sim \mathcal{B}(n,p)\). On peut écrire \[
Z = X_1 + \cdots + X_n,
\] où les \(X_i\) sont indépendantes et suivent toutes une Bernoulli\((p)\).
On sait que, pour une Bernoulli\((p)\), \[
M_{X_i}(t) = (1-p) + p e^t.
\]
(On vérifie que la somme vaut bien \(1\): \(0.01 + 0.04 + 0.10 + 0.20 + 0.25 + 0.24 + 0.16 = 1\).)
Exercice 5
Un statisticien a modélisé le nombre de mots d’une recherche sur internet en utilisant une loi de Poisson. Supposons que la longueur moyenne est de 3 mots, et soit \(X\) le nombre de mots d’une recherche. Comme une recherche ne peut pas être vide, nous utilisons une modélisation par une loi de probabilité restreinte définie par
\[\mathbb{P}(X = k) = \mathbb{P}(Y = k \mid Y \neq 0) \quad \text{où } Y \sim \text{Pois}(\lambda).\]
Trouver la loi de \(X\).
Donner la valeur de \(\lambda\) correspondant à une longueur moyenne de 3 mots.
Quelle est la probabilité d’avoir une recherche de 6 mots ou plus ?
Correction — Exercice 5
Trouver la loi de \(X\)
Pour déterminer la loi d’une variable aléatoire \(X\) , il faut d’abord définir son support, c’est-à-dire l’ensemble des valeurs que \(X\) peut prendre avec une probabilité non nulle. Dans ce cas, le support de \(X\) est l’ensemble des entiers naturels positifs, car une recherche ne peut pas être vide.
Nous notons le support de \(X\) par \(\Omega_X = \{1, 2, 3, \ldots\}\) = \(\mathbb{N}^*\).
Une fois le support identifié, nous pouvons calculer la probabilité associée à chaque valeur du support de \(X\).
Rappelons nous que l’ensemble \({X \in A} = {w \in \Omega : X(w) \in A} = X^-1(A)\). Pour tout \(k \in \Omega_X\), nous avons :
\({X = k} = {w \in \Omega : X(w) = k} = X^{-1}(\{k\})\). où \(\Omega\) est l’ensemble des issues possibles de l’expérience aléatoire.
Donc, pour tout \(k \in \Omega_X\), nous avons :
On part de la définition de \(X\) comme loi de Poisson conditionnée à être non nulle :
Définition de \(X\) comme loi restreinte :\[
\mathbb{P}(X = k)
= \mathbb{P}(Y = k \mid Y \neq 0).
\] C’est donné dans l’énoncé : \(X\) est la loi de \(Y\) sachant que \(Y\) ne vaut pas 0.
Formule de probabilité conditionnelle :\[
\mathbb{P}(Y = k \mid Y \neq 0)
= \frac{\mathbb{P}(Y = k \cap Y \neq 0)}{\mathbb{P}(Y \neq 0)}.
\] Par définition : \(\displaystyle \mathbb{P}(A \mid B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}\).
Simplification de l’intersection :\[
\mathbb{P}(Y = k \cap Y \neq 0) = \mathbb{P}(Y = k)
\] car si \(k \ge 1\), alors l’événement « \(Y = k\) » implique automatiquement « \(Y \neq 0\) ».
Donc l’intersection ne change rien.
Et comme (X) est la loi de Poisson tronquée : \[
\mathbb{P}(X \le 5)
= \sum_{k=1}^{5} \mathbb{P}(X = k)
= \sum_{k=1}^{5}
\frac{e^{-\lambda} \lambda^k}{k!\,(1 - e^{-\lambda})}.
\]
On factorise pour simplifier : \[
\mathbb{P}(X \le 5)
= \frac{e^{-\lambda}}{1 - e^{-\lambda}}
\sum_{k=1}^{5} \frac{\lambda^k}{k!}.
\]
Le calcul numérique donne : \[
\boxed{\mathbb{P}(X \ge 6) \approx 0.07}
\]
soit environ 7%.
Exercice 6
La loi de probabilité jointe de deux variables \(X\) et \(Y\) est définie par
\[
\mathbb{P}(X = x, Y = y)
= \frac{1}{e^{2} \, y! \, (x - y)!}
\qquad \text{pour } x \in \mathbb{N} \text{ et } y = 0, \ldots, x.
\]
Trouver la loi de probabilité de \(X\).
En déduire la loi de probabilité de \(Y\) sachant que \(X = x\).
Correction — Exercice 6
Avant de résoudre l’exercice, rappelons les formules de pascal :
\[
\binom{x}{y} = \frac{x!}{y! (x-y)!},
\] et \[
(a + b)^x = \sum_{y=0}^{x} \binom{x}{y} a^y b^{x-y}.
\]
Pour a = 1 et b = 1, on obtient : \[
2^x = \sum_{y=0}^{x} \binom{x}{y}.
\]
Trouver la loi de probabilité de \(X\)
Le support de X est \(\mathbb{N}\).
Pour tout \(x \in \mathbb{N}\), on utilise la formule des probabilités totales : \[
\mathbb{P}(X = x)
= \mathbb{P}(X = x, \Omega)
= \mathbb{P}(X = x, \bigcup_{y=0}^{x} \{Y = y\})
= \sum_{y=0}^{x} \mathbb{P}(X = x, Y = y).
\]
\(\Omega\) est l’événement certain.
Les événements {Y=0}, , {Y=x} sont disjoints et forment une partition des valeurs possibles de Y quand X=x.
La formule générale de probabilité totale dit : \[
\mathbb{P}(A) = \sum_i \mathbb{P}(A \cap B_i)
\quad \text{si les } B_i \text{ forment une partition}.
\]
En théorie de probabilité, on écrit souvent \(P(A, B)\) pour \(P(A \cap B)\).
On remplace par la loi jointe donnée : \[
\mathbb{P}(X = x)
= \sum_{y=0}^{x} \frac{1}{e^{2} \, y! \, (x - y)!}.
\]
Nous reconnaissons la densité d’une loi binomiale de paramètres \(m = x\) et \(p = \frac{1}{2}\).
Donc : \[
\boxed{Y \mid X = x \sim \mathcal{B}\left(x, \frac{1}{2}\right)}.
\]
Exercice 7
Soient \(X_1, \ldots, X_n\) une suite de variables aléatoires i.i.d. suivant une loi \(\mathcal{L}\). Nous supposons que les paramètres de la loi \(\mathcal{L}\) sont entièrement caractérisés par les moments \(\mu_1 \equiv \mathbb{E}(X), \ldots, \mu_k \equiv \mathbb{E}(X^k)\). La méthode des moments consiste à estimer les paramètres de la loi \(\mathcal{L}\) en remplaçant les moments inconnus par leur estimateur empirique
À noter que ces estimateurs n’ont pas de raison particulière d’être sans biais.
Exercice 8
Soit \(X \sim \text{Pois}(\lambda)\).
Donner la fonction génératrice des moments de \(X\) et sa fonction caractéristique.
Calculer \(\mathbb{E}(X^3)\).
Calculer la probabilité que \(X\) soit impair.
Utiliser un développement en série entière de \(e^\lambda\) et \(e^{-\lambda}\).
Calculer \(\mathbb{E}(X!)\).
Correction — Exercice 8
Avant de commencer, rappelons que :
{X impair} qui s’écrit en latex \(X \text{ impair}\) est l’ensemble des issues où la variable aléatoire \(X\) prend des valeurs impaires. Cet ensemble peut être représenté comme l’union des événements disjoints {X = 1}, {X = 3}, {X = 5}, etc.
Soient (X_1, , X_n) une suite de variables aléatoires i.i.d. suivant une loi de Bernoulli de paramètre (p).
Trouver la loi de (X_1) sachant que (X_1 + + X_n = k).
Correction Exercice 9
Soit (x {0,1}). Nous avons, en utilisant la formule de Bayes :