From a6076b6b0cc7958e8b939ba6ed3ddb53d7d1ff20 Mon Sep 17 00:00:00 2001 From: Bertrand Date: Sat, 9 Apr 2016 14:32:37 +0000 Subject: début discussion réduction variance stratified sampling MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- doc/rapport.tex | 23 +++++++++++++++++++---- 1 file changed, 19 insertions(+), 4 deletions(-) diff --git a/doc/rapport.tex b/doc/rapport.tex index 73a9c03..4e77c3b 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -7,6 +7,8 @@ \usepackage[backend=biber,style=trad-plain]{biblatex} \addbibresource{rapport.bib} \newcommand{\E}{\mathbb{E}} +\newcommand{\V}{\mathbb{V}} + \begin{document} \section*{Introduction} Sujet : Comparer les performances des méthodes de stratification exposées dans \cite{etore:hal-00192540} @@ -64,19 +66,32 @@ On s'interesse maintenant \section{Échantillonnage stratifié} \subsection{Présentation mathématique} Soit $f:\mathbb{R}^{d}\rightarrow\mathbb{R}$ et $X$ un vecteur aléatoire à $d$ dimensions. -Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\E(f(X))$. +Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\mu=\E(f(X))$. On suppose maintenant qu'on divise $\mathbb{R}^{d}$ en $I$ strates appelées $(A_{i})_{1\le i \le n}$ et de telle sorte que $\forall i \in {1,...,i}$ on ait $\mathbb{P}(X\in A_{i})$ qui soit positive. On notera ces probabilités $p_{i}$. Si on note maintenant $(X_{i})_{1\le i \le n}$ la suite de variables aléatoires suivant pour chaque $i$ la loi de $X$ sachant $X\in A_{i}$, on a clairement $\E(f(X)) = \sum_{i=1}^{I}p_{i}\E(f(X_{i}))$. -Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuelle -$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient un naturellement : +Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuel +$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient naturellement : \begin{equation} -\E(f(X))\approx\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})= +\mu\approx\mu_{strat}=\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})= \frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}}{q_{i}}\sum_{j=1}^{q_{i}N}f(X_{i}^{j}) \end{equation} où $N$ désigne le nombre total de tirages, c'est à dire $N=\sum_{i=1}^{I}N_{i}$, et $q_{i}=\frac{{N_{i}}}{N}$ la proportion de tirages dans chacune des strates. +On veut maintenant regarder dans quels cas cette méthode peut être utile pour réduire la variance. +Si on note $\sigma_{i} = \mathrm{Var}(f(X_{i})) = \mathrm{Var}(f(X)|X\in A_{i})$, la variance de notre estimateur est : +\begin{equation} +\mathrm{Var}(\mu_{strat})=\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{N_{i}}= +\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{q_{i}} +\end{equation} +Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^{j})$, noté $\mu_{mc}$, pour le même nombre $N$ total de tirages, on aurait : +\begin{equation} +\mathrm{Var}(\mu_{mc}) = +\frac{1}{N}(\sum_{i=1}^{I}p_{i}(\sigma_{i}^2 + \E^{2}(f(X_{i})))-(\sum_{i=1}^{I}p_{i}\E(f(X_{i})))^{2}) +\end{equation} + + \printbibliography \end{document} -- cgit v1.2.3-70-g09d2