aboutsummaryrefslogtreecommitdiffstats
path: root/doc/rapport.tex
diff options
context:
space:
mode:
authorBertrand <bertrand.horel@gmail.com>2016-04-08 15:32:58 +0000
committerBertrand <bertrand.horel@gmail.com>2016-04-08 15:32:58 +0000
commit41232ed13fa2238160d4dd23cfab1b00469aeee9 (patch)
tree612e2e2030cabd1ed6493be7e518d8726f9a60e3 /doc/rapport.tex
parenta6228f687b481e498ebe1104ec493b70cc439138 (diff)
downloadprojet_C++-41232ed13fa2238160d4dd23cfab1b00469aeee9.tar.gz
début stratified sampling
Diffstat (limited to 'doc/rapport.tex')
-rw-r--r--doc/rapport.tex35
1 files changed, 22 insertions, 13 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index 3b2888c..73a9c03 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -27,8 +27,8 @@ par la formule :
I\approx\frac{1}{N}\sum_{n=1}^Nf(\xi^{(n)})
\end{equation}
Le souci de cette méthode est de ne pas pouvoir obtenir d'erreur de l'estimateur facilement. En effet l'inégalité de Koksma–Hlawka nous donne une borne de
-cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction f ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit
-la méthode de quasi Monte Carlo randomisé. Elle consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire
+cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction $f$ ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit
+la méthode de quasi Monte Carlo randomisé. Elle consiste à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire
uniformément distribuée sur ${[0,1]^s}$. On s'intéresse dorénavant à la somme aléatoire :
\begin{equation}
Z=\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\})
@@ -53,21 +53,30 @@ On a donc réduction de variance si et seulement si :
\begin{equation}
\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))<\frac{1}{N}\mathrm{Var}(f(X))
\end{equation}
-\subsection{Calcul de vitesse et d'intervalle de confiance}
-On veut calculer l'espérance : $\E(f(X))=\sum_{i=1}^Ip_if(X_i)$
+Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fonction à variations bornées on a :
\begin{equation}
-\label{eqesti}\hat{c}=\sum_{i=1}^I\frac{p_i}{N_i}\sum_{j=1}^{N_i}f(X_i^j)=
-\frac{1}{N}\sum_{k=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j)
+\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))=O(N^{-2}(log N)^{2s})
\end{equation}
+\subsection{Calcul de vitesse et d'intervalle de confiance}
+On s'interesse maintenant
-\[a \leq b \]
-
-
-
-\begin{center}
-\input{table.tex}
+\section{Échantillonnage stratifié}
+\subsection{Présentation mathématique}
+Soit $f:\mathbb{R}^{d}\rightarrow\mathbb{R}$ et $X$ un vecteur aléatoire à $d$ dimensions.
+Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\E(f(X))$.
+On suppose maintenant qu'on divise $\mathbb{R}^{d}$ en $I$ strates appelées $(A_{i})_{1\le i \le n}$ et de telle sorte que
+$\forall i \in {1,...,i}$ on ait $\mathbb{P}(X\in A_{i})$ qui soit positive. On notera ces probabilités $p_{i}$.
+Si on note maintenant $(X_{i})_{1\le i \le n}$ la suite de variables aléatoires suivant pour chaque $i$ la loi de $X$ sachant $X\in A_{i}$,
+on a clairement $\E(f(X)) = \sum_{i=1}^{I}p_{i}\E(f(X_{i}))$.
+Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuelle
+$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient un naturellement :
+\begin{equation}
+\E(f(X))\approx\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})=
+\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}}{q_{i}}\sum_{j=1}^{q_{i}N}f(X_{i}^{j})
+\end{equation}
+où $N$ désigne le nombre total de tirages, c'est à dire $N=\sum_{i=1}^{I}N_{i}$, et $q_{i}=\frac{{N_{i}}}{N}$ la proportion de tirages dans chacune
+des strates.
-\end{center}
\printbibliography
\end{document}