diff options
| author | Bertrand <bertrand.horel@gmail.com> | 2016-04-09 14:32:37 +0000 |
|---|---|---|
| committer | Bertrand <bertrand.horel@gmail.com> | 2016-04-09 14:32:37 +0000 |
| commit | a6076b6b0cc7958e8b939ba6ed3ddb53d7d1ff20 (patch) | |
| tree | 389d90fcc41270d8a1cde97d3ac5557422ac2f0f /doc | |
| parent | 41232ed13fa2238160d4dd23cfab1b00469aeee9 (diff) | |
| download | projet_C++-a6076b6b0cc7958e8b939ba6ed3ddb53d7d1ff20.tar.gz | |
début discussion réduction variance stratified sampling
Diffstat (limited to 'doc')
| -rw-r--r-- | doc/rapport.tex | 23 |
1 files changed, 19 insertions, 4 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex index 73a9c03..4e77c3b 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -7,6 +7,8 @@ \usepackage[backend=biber,style=trad-plain]{biblatex} \addbibresource{rapport.bib} \newcommand{\E}{\mathbb{E}} +\newcommand{\V}{\mathbb{V}} + \begin{document} \section*{Introduction} Sujet : Comparer les performances des méthodes de stratification exposées dans \cite{etore:hal-00192540} @@ -64,19 +66,32 @@ On s'interesse maintenant \section{Échantillonnage stratifié} \subsection{Présentation mathématique} Soit $f:\mathbb{R}^{d}\rightarrow\mathbb{R}$ et $X$ un vecteur aléatoire à $d$ dimensions. -Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\E(f(X))$. +Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\mu=\E(f(X))$. On suppose maintenant qu'on divise $\mathbb{R}^{d}$ en $I$ strates appelées $(A_{i})_{1\le i \le n}$ et de telle sorte que $\forall i \in {1,...,i}$ on ait $\mathbb{P}(X\in A_{i})$ qui soit positive. On notera ces probabilités $p_{i}$. Si on note maintenant $(X_{i})_{1\le i \le n}$ la suite de variables aléatoires suivant pour chaque $i$ la loi de $X$ sachant $X\in A_{i}$, on a clairement $\E(f(X)) = \sum_{i=1}^{I}p_{i}\E(f(X_{i}))$. -Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuelle -$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient un naturellement : +Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuel +$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient naturellement : \begin{equation} -\E(f(X))\approx\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})= +\mu\approx\mu_{strat}=\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})= \frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}}{q_{i}}\sum_{j=1}^{q_{i}N}f(X_{i}^{j}) \end{equation} où $N$ désigne le nombre total de tirages, c'est à dire $N=\sum_{i=1}^{I}N_{i}$, et $q_{i}=\frac{{N_{i}}}{N}$ la proportion de tirages dans chacune des strates. +On veut maintenant regarder dans quels cas cette méthode peut être utile pour réduire la variance. +Si on note $\sigma_{i} = \mathrm{Var}(f(X_{i})) = \mathrm{Var}(f(X)|X\in A_{i})$, la variance de notre estimateur est : +\begin{equation} +\mathrm{Var}(\mu_{strat})=\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{N_{i}}= +\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{q_{i}} +\end{equation} +Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^{j})$, noté $\mu_{mc}$, pour le même nombre $N$ total de tirages, on aurait : +\begin{equation} +\mathrm{Var}(\mu_{mc}) = +\frac{1}{N}(\sum_{i=1}^{I}p_{i}(\sigma_{i}^2 + \E^{2}(f(X_{i})))-(\sum_{i=1}^{I}p_{i}\E(f(X_{i})))^{2}) +\end{equation} + + \printbibliography \end{document} |
