From 9a4df290e9c03a4f3c32586b010aec54b1048d27 Mon Sep 17 00:00:00 2001 From: Bertrand Date: Mon, 18 Apr 2016 22:57:53 +0200 Subject: description exemple 1 --- doc/rapport.tex | 23 +++++++++++++++++++++++ 1 file changed, 23 insertions(+) (limited to 'doc/rapport.tex') diff --git a/doc/rapport.tex b/doc/rapport.tex index 87524e9..3efc6c3 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -95,6 +95,10 @@ Alors que Tuffin trouve : -\mathcal{N}^{-1}(\frac{\alpha}{2}) + C\frac{\beta}{\sigma ^3 \sqrt{N}}\right) \geq 1- \alpha \end{equation*} ce qui me semble être une erreur. +Si on veut comparer les demi-tailles des intervalles de confiance, on voit que l'intervalle de Tuffin rajoute $\frac{C\beta}{\sigma^2N}$ à +l'intervalle habituel assymptotique tandis que je trouve un intervalle possiblement égal à $\mathbb{R}$ tout entier pour des petites valeurs de $N$. +C'est pourquoi dans les applications ultérieures j'utilise l'intervalle classique $\mathopen{[}\bar{X}_N-c_{\alpha}\frac{\sigma}{\sqrt{N}}; +\bar{X}_N+c_{\alpha}\frac{\alpha}{\sqrt{N}}\mathclose{]}$. \section{Échantillonnage stratifié} \subsection{Présentation mathématique} @@ -153,9 +157,28 @@ en choisissant une répartition déterministe, par exemple la répartition unifo surtout les premiers estimateurs de $\sigma_{i}$. Ensuite on pourra tirer un nombre $N_2 > N_1$ de $(X_{i})$ avec de nouveaux $q_i$ donnés par \eqref{eqqi} ce qui nous donnera un nouvel estimateur de $\mu$ (en utilisant les $N_1 + N_2$ premières valeurs) puis de nouveaux $q_i$ plus précis, et ainsi de suite. +\section{Exemples} +\subsection{Calcul de l'espérance d'une loi normale} +Dans ce premier exemple assez simple, on va chercher à calculer $ c = \E[X]$ où $X$ suit une loi normale centrée réduite +\subsubsection{Échantillonnage stratifié} +Pour cet exemple, les strates $A_i$ seront au nombre de $10$ et $\forall i \in{\{1,...,10\}}$ $A_i =\mathopen{]}y_{i-1}; y_i \mathclose{[}$ où $y_i$ désigne +le quantile $i/10$ d'une loi normale, en prenant pour convention $y_0 = - \infty $ et $y_1 = + \infty $. Ainsi la suite des probabilités $(p_i)_{1\leq i\leq 10}$ +est constante à $1/10$. Pour cet exemple Étoré et Jourdain ont effectuer quatre étapes de leur algorithme avec $N 1 = 300, N 2 = 1300, N3 = 11300$ +et $N 4 = 31300$, j'ai donc pris les mêmes nombres pour ma propre implémentation. +\subsubsection{Quasi Monte Carlo randomisé} +On cherche toujours à calculer $c$ mais cette fois avec la méthode de quasi Monte Carlo randomisé dont je rappelle l'estimateur : +\begin{equation*} +\frac{1}{I}\sum_{i=1}^I\frac{1}{N}\sum_{n=1}^N(\{\xi^{(n)}+X_{k}\}) +\end{equation*} +Pour ce faire, j'ai utilisé la suite de Sobol à une dimension pour la suite $(\xi)_n$ et j'ai fixé $I$ constant à 100 et calculer l'estimateur pour +différents $N \in \{3; 13; 113; 313\}$ afin que le produit $NI$ nous donne les mêmes nombres de tirages des variables que dans le cas +de l'échantillonnage stratifié. Ainsi on peut comparer les deux méthodes et obtenir le tableau suivant : \input{table.tex} +${IC}_{strat}$ et ${IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenus avec les deux méthodes. En comparant ces tailles +on peut constater la plus grande efficacité de la méthode de quasi Monte-Carlo randomisé. + \printbibliography \end{document} -- cgit v1.2.3-70-g09d2