aboutsummaryrefslogtreecommitdiffstats
path: root/doc/rapport.tex
diff options
context:
space:
mode:
Diffstat (limited to 'doc/rapport.tex')
-rw-r--r--doc/rapport.tex23
1 files changed, 19 insertions, 4 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index 73a9c03..4e77c3b 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -7,6 +7,8 @@
\usepackage[backend=biber,style=trad-plain]{biblatex}
\addbibresource{rapport.bib}
\newcommand{\E}{\mathbb{E}}
+\newcommand{\V}{\mathbb{V}}
+
\begin{document}
\section*{Introduction}
Sujet : Comparer les performances des méthodes de stratification exposées dans \cite{etore:hal-00192540}
@@ -64,19 +66,32 @@ On s'interesse maintenant
\section{Échantillonnage stratifié}
\subsection{Présentation mathématique}
Soit $f:\mathbb{R}^{d}\rightarrow\mathbb{R}$ et $X$ un vecteur aléatoire à $d$ dimensions.
-Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\E(f(X))$.
+Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\mu=\E(f(X))$.
On suppose maintenant qu'on divise $\mathbb{R}^{d}$ en $I$ strates appelées $(A_{i})_{1\le i \le n}$ et de telle sorte que
$\forall i \in {1,...,i}$ on ait $\mathbb{P}(X\in A_{i})$ qui soit positive. On notera ces probabilités $p_{i}$.
Si on note maintenant $(X_{i})_{1\le i \le n}$ la suite de variables aléatoires suivant pour chaque $i$ la loi de $X$ sachant $X\in A_{i}$,
on a clairement $\E(f(X)) = \sum_{i=1}^{I}p_{i}\E(f(X_{i}))$.
-Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuelle
-$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient un naturellement :
+Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuel
+$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient naturellement :
\begin{equation}
-\E(f(X))\approx\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})=
+\mu\approx\mu_{strat}=\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})=
\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}}{q_{i}}\sum_{j=1}^{q_{i}N}f(X_{i}^{j})
\end{equation}
où $N$ désigne le nombre total de tirages, c'est à dire $N=\sum_{i=1}^{I}N_{i}$, et $q_{i}=\frac{{N_{i}}}{N}$ la proportion de tirages dans chacune
des strates.
+On veut maintenant regarder dans quels cas cette méthode peut être utile pour réduire la variance.
+Si on note $\sigma_{i} = \mathrm{Var}(f(X_{i})) = \mathrm{Var}(f(X)|X\in A_{i})$, la variance de notre estimateur est :
+\begin{equation}
+\mathrm{Var}(\mu_{strat})=\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{N_{i}}=
+\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{q_{i}}
+\end{equation}
+Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^{j})$, noté $\mu_{mc}$, pour le même nombre $N$ total de tirages, on aurait :
+\begin{equation}
+\mathrm{Var}(\mu_{mc}) =
+\frac{1}{N}(\sum_{i=1}^{I}p_{i}(\sigma_{i}^2 + \E^{2}(f(X_{i})))-(\sum_{i=1}^{I}p_{i}\E(f(X_{i})))^{2})
+\end{equation}
+
+
\printbibliography
\end{document}