aboutsummaryrefslogtreecommitdiffstats
path: root/doc/rapport.tex
diff options
context:
space:
mode:
authorBertrand <bertrand.horel@gmail.com>2016-04-17 20:56:45 +0200
committerBertrand <bertrand.horel@gmail.com>2016-04-17 20:56:45 +0200
commit035b9a38db12b56ae59df64738fd0a974ec63239 (patch)
tree984e8b81ea5147036dc90dfb537e1e0ebba41773 /doc/rapport.tex
parent2de4eb353c3e94e401c1d5efd499b8c7ae880a4c (diff)
downloadprojet_C++-035b9a38db12b56ae59df64738fd0a974ec63239.tar.gz
suite rapport
Diffstat (limited to 'doc/rapport.tex')
-rw-r--r--doc/rapport.tex29
1 files changed, 21 insertions, 8 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index 9246662..1514d06 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -62,7 +62,11 @@ Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fon
Pour cette classe de fonctions on a une réduction de variance par un facteur de $N / (\log N)^{2s}$.
\subsection{Calcul de vitesse et d'intervalle de confiance}
-On s'interesse maintenant
+On s'interesse maintenant à la convergence vers la loi normale de notre estimateur. On rappelle que dans le cas d'une méthode de Monte-Carlo classique,
+si $X$ est une variable aléatoire et si on note $\mu = \E[f(X)]$ l'espérance qu'on cherche à calculer. Alors si les $(X_i)_{1\leq i\leq N}$ sont
+$N$ tirages de la variable $X$, $\bar{X}_N=\frac{1}{N}\sum_{n=1}^Nf(X_i)$ sera notre estimateur de $\mu$ et on aura l'intervalle de confiance assymptotique
+usuel pour $\mu$ de la forme : $\mathopen{]}\bar{X}_N-c_{\alpha}\frac{\alpha}{\sqrt{N}};\bar{X}_N+c_{\alpha}\frac{\alpha}{\sqrt{N}}\mathclose{]}$ avec
+$\alpha$ le niveau désiré pour l'intervalle et $c_{\alpha}$ le quantile de $1-\frac{\alpha}{2}$ d'une loi gaussienne centrée réduite.
\section{Échantillonnage stratifié}
\subsection{Présentation mathématique}
@@ -93,28 +97,37 @@ Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^
\frac{1}{N}\left(\sum_{i=1}^{I}p_{i}(\sigma_{i}^2 + \E^{2}[f(X_{i})])-(\sum_{i=1}^{I}p_{i}\E[f(X_{i})])^{2}\right)
\geq \frac{1}{N}\sum_{i=1}^{I}p_i\sigma_i^2
\end{equation*}
-On peut donc constater que si on décide de poser $q_i = p_i$, $\mathrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée pour $\mathrm{Var}(\mu_{mc})$.
+où la dernière inégalité est due au fait que par l'inégalité de Jensen appliquée à $\E[f(X_{i})]$ avec la suite des $p_i$ comme probabilité discrète(
+$\sum_{i=1}^{I}p_i = 1$) on a :
+\begin{equation*}
+\frac{1}{N}\sum_{i=1}^{I}p_i\E^{2}[f(X_{i})] \geq (\frac{1}{N}\sum_{i=1}^{I}p_i\E[f(X_{i})])^2
+\end{equation*}
+Si on pose $q_i = p_i$, $\mathrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée pour $\mathrm{Var}(\mu_{mc})$.
Mais on peut trouver un choix de $q_i$ plus optimal en terme de réduction de variance.
-En effet :
+En effet, toujours par l'inégalité de Jensen avec cette fois la suite des $q_i$ vue comme une probabilité discrète, on a :
\begin{equation*}
\mathrm{Var}(\mu_{strat})=\frac{1}{N}\sum_{i=1}^{I}\frac{p_i^2\sigma_i^2}{q_i}=\frac{1}{N}\sum_{i=1}^I(\frac{p_i\sigma_i}{q_i})^2q_i
\geq\frac{1}{N}(\sum_{i=1}^I\frac{p_i\sigma_i}{q_i}q_i)^2
\end{equation*}
-Si
+Et si
\begin{equation}
\label{eqqi}
-\forall 1\geq i \geq I, q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j}
+\forall i \in \{1,...,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j}
\end{equation}
${Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié,
et qu'on a trouvé quelle est la proportion optimale de tirages à faire par strates, intéressons nous à l'algorithme pour implémenter ce modèle.
\subsection{Description de l'algorithme}
-On a vu dans la section précédente que les $q_i$ optimaux dépendent de la suite $(\sigma_i)_{1\geq i\geq I}$ qui sont les variances conditionnelles de $X$
+On a vu dans la section précédente que les $q_i$ optimaux dépendent de la suite $(\sigma_i)_{1\leq i\leq I}$ qui sont les variances conditionnelles de $X$
sachant $X\in A_{i}$. Mais si ces variances sont inconnues il nous faut les estimer. On ne peut trouver la répartition optimale de tirages à faire par strates
-du premier coup. L'idée de l'algorithme consiste donc à faire plusieurs étapes. On commence par tirer un nombre $N_1$ assez restreint de variables $(X_{i})_{1\le i \le I}$
+du premier coup. On utilisera donc un algorithme adaptatif. On commence par tirer un nombre $N_1$ assez restreint de variables $(X_{i})_{1\leq i \leq I}$
en choisissant une répartition déterministe, par exemple la répartition uniforme $q_i=\frac{N_1}{I}$ ce qui nous donnera un premier estimateur de $\mu=\E(f(X))$ mais
-surtout les premiers estimateurs de $\sigma_{i}$. Ensuite on pourra tirer un nombre $N_2 > N_1$ de $(X_{i})$ avec une de nouveaux $q_i$ donnés par \eqref{eqqi}
+surtout les premiers estimateurs de $\sigma_{i}$. Ensuite on pourra tirer un nombre $N_2 > N_1$ de $(X_{i})$ avec de nouveaux $q_i$ donnés par \eqref{eqqi}
ce qui nous donnera un nouvel estimateur de $\mu$ (en utilisant les $N_1 + N_2$ premières valeurs) puis de nouveaux $q_i$ plus précis, et ainsi de suite.
+
+\input{table.tex}
+
\printbibliography
+
\end{document}