5. Estimation par intervalle#

\[\newcommand\E{\mathbb{E}}\]

On a vu qu’une des raisons d’utiliser le formalisme des probabilités était de traiter de manière systématique les données comme aléatoires. Cela permet non seulement de faire des estimations mais aussi et surtout de quantifier l’incertitude liée à ces estimations. On va donc voir l’estimation par intervalle.

5.1. Estimation par intervalle#

L’estimation par intervalle essaye de donner une réponse plus complète que simplement un estimateur \( \hat{\theta} \).

  • définition de l’intervalle de confiance;

  • intuition: « Intervalle compatible avec les données »;

  • l’intervalle est aléatoire alors que \( \theta \) ne l’est pas;

  • niveau de confiance, niveau de signification;

  • intervalle de Wald, intervalle de Student.

La notion d’intervalle de confiance est une notion d’intervalle compatible avec les données. Attention: la définition précise n’est pas nécessairement intuitive.

Au lieu d’estimer le paramètre \(\theta\) seulement par un nombre \(\hat\theta\), on préfère donner un intervalle aléatoire qui couvre \(\theta\) avec une grande probabilité.

Définition 5.10 (Estimation par intervalle)

Mathématiquement, un intervalle de confiance est tel que dans \( (1 - \alpha) \% \) du temps, il contient la vraie valeur du paramètre inconnu \( \theta \). \(1- \alpha \) est appelé le niveau de confiance de l’intervalle.

Plus précisément, un intervalle est défini par deux statistiques \( I, S \) qui donnent les bornes de l’intervalle. \( I, S\) définissent un intervalle de confiance à \( (1-\alpha)\% \) si:

\[\begin{gather*}\mathbb{P}( I \leq \theta \leq S ) = 1 - \alpha, \end{gather*}\]

pour tout \(\theta \in \Theta\).

Considérons un estimateur \(\hat{\theta} \) de \(\theta\), et supposons qu’il existe une fonction \(T=q(\hat\theta,\theta)\) dont la loi est connue et ne dépend pas de \(\theta\) (s’appelle un pivot).

Soient \(a\) et \(b\) tels que

\[\begin{gather*} \alpha_1 = \mathbb{P}(T< a),\quad \alpha_2 = \Pr(T > b), \end{gather*}\]

avec \(\alpha_1 + \alpha_2 = \alpha\) (souvent \(\alpha_1=\alpha_2\)). On a alors

\[\begin{gather*} \mathbb{P}(a \leq T \leq b) = \mathbb{P}(T\leq b) - \mathbb{P}(T< a) = (1-\alpha_2)-\alpha_1= 1-\alpha, \end{gather*}\]

et si on peut isoler \(\theta\), on peut trouver des variables aléatoires \(I, S\) telles que

\[\begin{gather*} \mathbb{P}(I \leq \theta \leq S) = 1-\alpha. \end{gather*}\]

Exemple 5.10 (Pivot: moyenne et espérance pour une loi normale)

Soient \( X_1 \dots X_n \stackrel{idd}{\sim} \mathcal{N}(\mu,\sigma^2) \), où \(\sigma\) est supposé connu. Trouvez un pivot pour l’espérance \(\mu\) en fonction de la moyenne empirique \(\overline{X}\) et en déduire un intervalle de confiance au niveau \(1-\alpha,\) pour \(\alpha\in ]0,1[\).

  • \( [I,S] \) est un intervalle aléatoire car \( I,S \) sont des VA.

  • La probabilité dans la définition est donc par rapport à la position aléatoire des bornes de l’IC.

  • La position de \( \theta \) n’est pas aléatoire.

  • Attention Dire que \(\theta \in [I,S]\), avec une probabilité \(1-\alpha\), est incorrect car ce sont les valeurs \(I\) et \(S\) qui sont aléatoires.

../_images/tab2_stat.svg

Fig. 5.3 : Différents IC pour la même valeur de \(\theta\) (ligne rouge)#

5.2. Intervalle de confiance de Wald#

Définition 5.11 (IC de Wald)

Soit \( \hat{\theta} \) un estimateur non-biaisé de \( \theta \), et soit \( v \) sa variance (ou un estimateur de sa variance). Si, asymptotiquement, \( \hat{\theta} \) est approximativement Gaussien, c’est-à-dire si

\[\begin{gather*} \hat{\theta} \stackrel{\cdot}{\sim} \mathcal{N}(\theta, v),\end{gather*}\]

alors, on peut construire un IC \textbf{de Wald}:

\[\begin{gather*} \left[ \hat{\theta} - s_\alpha \sqrt{v} , \hat{\theta} + s_\alpha \sqrt{v} \right], \end{gather*}\]

où le seuil \( s_\alpha \) est tel que:

\[\begin{gather*} \Pr( - s_\alpha \leq \eta \leq s_\alpha ) = 1 - \alpha \end{gather*}\]

pour \( \eta \sim \mathcal{N}(0,1) \).

Dans le cas d’un intervalle de Wald, on fait implicitement l’hypothèse d’un intervalle symétrique autour de \(\hat{\theta} \). Ainsi, on a

\[\begin{gather*}s_\alpha = z_{1 - \alpha/2}, \end{gather*}\]

\(z_p\) désigne le quantile d’ordre \(p\). Par exemple, on a:

../_images/tab3_stat.svg

L’intervalle de confiance de Wald est exact dans le cas où \(\hat{\theta} \sim \mathcal{N}(\theta, v)\). En pratique, cette condition est rarement satisfaite, mais elle est parfois justifiée en vertu du TCL ou de la convergence de l’estimateur du maximum de vraisemblance. En particulier deux aspects sont à souligner:

  • la taille d’échantillon qui justifie l’usage de résultats asymptotiques est rarement atteinte;

  • sauf exception, la variance est elle-même une estimation, et la distribution n’est alors pas nécessairement normale.

Malgré ces mises en garde, l’IC de Wald peut être une approximation très raisonnable de la réalité.

Recette générale

On rappelle le résultat suivant:

Distribution asymptotique de \(\hat{\theta}_{ML} \)
Sous des hypothèses de régularité, l’estimateur \(\hat{\theta}_{ML} \)

\[\begin{gather*} \hat{\theta}_{ML} \stackrel{\cdot}{\sim} \mathcal{N} \left(\theta, \frac{1}{J(\hat{\theta}_{ML})} \right), \quad J(\theta) = - \frac{\partial^2}{\partial \theta^2} \left[ \ell(\theta) \right]. \end{gather*}\]

\(J(\theta)\) est appelé l’information observée. Donc l’IC pour \(\theta\) de niveau \(1-\alpha\) a des limites \(\hat\theta_{ML}\pm z_{1-\alpha/2}J(\hat\theta_{ML})^{-1/2}\).

Exemple 5.11 (Estimateur \(\hat{\lambda}_{ML}\) pour un modèle exponentiel)

Soient \(X_1,\ldots, X_n \stackrel{idd}{\sim}\exp(\lambda)\), trouver un intervalle de confiance à \(100(1-\alpha)\%\) pour \(\lambda\). Pour des données avec \(n=25\) et \(\overline{X}=40\), trouver un IC à 95%.

Exemple 5.12 (Estimateur \(\hat{\lambda}_{ML}\) pour un modèle Poisson)

Soient \( X_1 \dots X_n \stackrel{idd}{\sim} Poiss(\lambda) \). Construire un intervalle de confiance pour \( \hat{\lambda} \) ? Quelle est la forme de l’IC de Wald à \(95\%\) ?

5.3. Intervalle de Student#

La distribution \(t\) de « Student » a été introduite à des fins de tests statistiques pour la première fois dans une publication par William S. Gosset. Ce dernier, travaillant pour la brasserie Guinness était interdit de publier autrement que sous un pseudonyme. Il publia donc ses résultats sous le pseudonyme de Student. Il finit sa carrière comme brasseur en chef de Guinness mais décéda 1 mois après, à l’âge de 61 ans. référence: Ziliak, S. T. (2008), Guinnessometrics: The Economic Foundation of “Student’s”t, Journal of Economic Perspectives.

Définition 5.12 (Statistique de Student)

Soient \( X_1 \dots X_n \stackrel{idd}{\sim} \mathcal{N}(\mu, \sigma^2) \) avec variance inconnue.

On peut estimer \( \mu, \sigma^2 \) avec:

\[\begin{equation*} \begin{array}{cccl} \mu & \approx \hat{\mu} &= \overline{X} & = \displaystyle{ \frac{1}{n} \sum_{i=1}^n X_i }, \\ \sigma^2 & \approx \hat{v} &= S^2 & = \displaystyle{ \frac{1}{n-1} \sum_{i=1}^n (X_i - \overline{X})^2 }. \\ \end{array} \end{equation*}\]

Soit la statistique-T de Student:

\[\begin{gather*} T = \frac{\overline{X} - \mu}{ S / \sqrt{n}} \sim t_{n-1}.\end{gather*}\]

Elle suit une loi de Student de \( n-1 \) degrés de liberté.

Définition 5.13 (Intervalle de Student)

Dans le formulaire, on trouve les seuils \(s_\alpha\) tels que:

\[\begin{gather*} \mathbb{P}( -s_\alpha \leq T \leq s_\alpha) = 1 - \alpha, \end{gather*}\]

\(s_\alpha\) est le quantile à \(1-\frac{\alpha}{2}\) de la loi \(t_{n-1}\). À l’aide de ces valeurs, on peut construire des intervalles de confiance pour \( \mu \) quand la variance est inconnue. Ces IC sont de la forme:

\[\begin{gather*} \left[ \overline{X} - s_\alpha \frac{S}{\sqrt{n}} , \overline{X} + s_\alpha \frac{S}{\sqrt{n}} \right], \end{gather*}\]

\( \alpha \) est la valeur choisie pour le niveau que le niveau de confiance soit \(1- \alpha \).

Exemple 5.13 (Intervalle de confiance pour les résistances)

On suppose que la résistance \(X\) d’un certain type d’équipements électriques est distribuée approximativement suivant une loi normale.

Un échantillon de taille \(n = 64\) a donné comme moyenne et écart-type empiriques les valeur \(\bar x = 5.34\ \Omega \) (ohm) et \(S = 0.12\ \Omega\) . Trouver un intervalle de confiance pour \(\mu = \E[X]\) au niveau de confiance de 95%.

Remarque 5.1

  • Pour augmenter la probabilité que l’intervalle contienne \( \theta \), il faut le rendre plus large. On est alors plus conservatif.

  • Pour obtenir un intervalle plus court, on peut soit être moins conservatif, soit augmenter \( n \).

  • La notion d’IC a quelques variantes:

    • IC unilatéraux de la forme \( ]-\infty, S] \) (intervalle unilatéral à gauche);

    • IC approximatifs: \( \mathbb{P}(I \leq \theta \leq S) \approx 1 - \alpha \), souvent construits avec le TCL.

../_images/tdensity_IC.svg

Fig. 5.4 : Distributions \(t_\nu\), pour \(\nu= 2,5,10\) et distribution normale standard. Les segments représentés en bas sont les « intervalles de confiance » à 95%. Les queues de la loi de Student sont plus lourdes que celles de la loi \(\mathcal{N}(0,1)\) et la loi \(t_\nu\) converge vers une \(\mathcal{N}(0,1)\) pour \(\nu\rightarrow\infty\).#