aboutsummaryrefslogtreecommitdiffstats
path: root/doc
diff options
context:
space:
mode:
Diffstat (limited to 'doc')
-rw-r--r--doc/rapport.tex23
1 files changed, 23 insertions, 0 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index 87524e9..3efc6c3 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -95,6 +95,10 @@ Alors que Tuffin trouve :
-\mathcal{N}^{-1}(\frac{\alpha}{2}) + C\frac{\beta}{\sigma ^3 \sqrt{N}}\right) \geq 1- \alpha
\end{equation*}
ce qui me semble être une erreur.
+Si on veut comparer les demi-tailles des intervalles de confiance, on voit que l'intervalle de Tuffin rajoute $\frac{C\beta}{\sigma^2N}$ à
+l'intervalle habituel assymptotique tandis que je trouve un intervalle possiblement égal à $\mathbb{R}$ tout entier pour des petites valeurs de $N$.
+C'est pourquoi dans les applications ultérieures j'utilise l'intervalle classique $\mathopen{[}\bar{X}_N-c_{\alpha}\frac{\sigma}{\sqrt{N}};
+\bar{X}_N+c_{\alpha}\frac{\alpha}{\sqrt{N}}\mathclose{]}$.
\section{Échantillonnage stratifié}
\subsection{Présentation mathématique}
@@ -153,9 +157,28 @@ en choisissant une répartition déterministe, par exemple la répartition unifo
surtout les premiers estimateurs de $\sigma_{i}$. Ensuite on pourra tirer un nombre $N_2 > N_1$ de $(X_{i})$ avec de nouveaux $q_i$ donnés par \eqref{eqqi}
ce qui nous donnera un nouvel estimateur de $\mu$ (en utilisant les $N_1 + N_2$ premières valeurs) puis de nouveaux $q_i$ plus précis, et ainsi de suite.
+\section{Exemples}
+\subsection{Calcul de l'espérance d'une loi normale}
+Dans ce premier exemple assez simple, on va chercher à calculer $ c = \E[X]$ où $X$ suit une loi normale centrée réduite
+\subsubsection{Échantillonnage stratifié}
+Pour cet exemple, les strates $A_i$ seront au nombre de $10$ et $\forall i \in{\{1,...,10\}}$ $A_i =\mathopen{]}y_{i-1}; y_i \mathclose{[}$ où $y_i$ désigne
+le quantile $i/10$ d'une loi normale, en prenant pour convention $y_0 = - \infty $ et $y_1 = + \infty $. Ainsi la suite des probabilités $(p_i)_{1\leq i\leq 10}$
+est constante à $1/10$. Pour cet exemple Étoré et Jourdain ont effectuer quatre étapes de leur algorithme avec $N 1 = 300, N 2 = 1300, N3 = 11300$
+et $N 4 = 31300$, j'ai donc pris les mêmes nombres pour ma propre implémentation.
+\subsubsection{Quasi Monte Carlo randomisé}
+On cherche toujours à calculer $c$ mais cette fois avec la méthode de quasi Monte Carlo randomisé dont je rappelle l'estimateur :
+\begin{equation*}
+\frac{1}{I}\sum_{i=1}^I\frac{1}{N}\sum_{n=1}^N(\{\xi^{(n)}+X_{k}\})
+\end{equation*}
+Pour ce faire, j'ai utilisé la suite de Sobol à une dimension pour la suite $(\xi)_n$ et j'ai fixé $I$ constant à 100 et calculer l'estimateur pour
+différents $N \in \{3; 13; 113; 313\}$ afin que le produit $NI$ nous donne les mêmes nombres de tirages des variables que dans le cas
+de l'échantillonnage stratifié. Ainsi on peut comparer les deux méthodes et obtenir le tableau suivant :
\input{table.tex}
+${IC}_{strat}$ et ${IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenus avec les deux méthodes. En comparant ces tailles
+on peut constater la plus grande efficacité de la méthode de quasi Monte-Carlo randomisé.
+
\printbibliography
\end{document}