From 41232ed13fa2238160d4dd23cfab1b00469aeee9 Mon Sep 17 00:00:00 2001 From: Bertrand Date: Fri, 8 Apr 2016 15:32:58 +0000 Subject: début stratified sampling MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- doc/rapport.tex | 35 ++++++++++++++++++++++------------- 1 file changed, 22 insertions(+), 13 deletions(-) (limited to 'doc/rapport.tex') diff --git a/doc/rapport.tex b/doc/rapport.tex index 3b2888c..73a9c03 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -27,8 +27,8 @@ par la formule : I\approx\frac{1}{N}\sum_{n=1}^Nf(\xi^{(n)}) \end{equation} Le souci de cette méthode est de ne pas pouvoir obtenir d'erreur de l'estimateur facilement. En effet l'inégalité de Koksma–Hlawka nous donne une borne de -cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction f ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit -la méthode de quasi Monte Carlo randomisé. Elle consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire +cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction $f$ ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit +la méthode de quasi Monte Carlo randomisé. Elle consiste à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire uniformément distribuée sur ${[0,1]^s}$. On s'intéresse dorénavant à la somme aléatoire : \begin{equation} Z=\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}) @@ -53,21 +53,30 @@ On a donc réduction de variance si et seulement si : \begin{equation} \mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))<\frac{1}{N}\mathrm{Var}(f(X)) \end{equation} -\subsection{Calcul de vitesse et d'intervalle de confiance} -On veut calculer l'espérance : $\E(f(X))=\sum_{i=1}^Ip_if(X_i)$ +Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fonction à variations bornées on a : \begin{equation} -\label{eqesti}\hat{c}=\sum_{i=1}^I\frac{p_i}{N_i}\sum_{j=1}^{N_i}f(X_i^j)= -\frac{1}{N}\sum_{k=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j) +\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))=O(N^{-2}(log N)^{2s}) \end{equation} +\subsection{Calcul de vitesse et d'intervalle de confiance} +On s'interesse maintenant -\[a \leq b \] - - - -\begin{center} -\input{table.tex} +\section{Échantillonnage stratifié} +\subsection{Présentation mathématique} +Soit $f:\mathbb{R}^{d}\rightarrow\mathbb{R}$ et $X$ un vecteur aléatoire à $d$ dimensions. +Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\E(f(X))$. +On suppose maintenant qu'on divise $\mathbb{R}^{d}$ en $I$ strates appelées $(A_{i})_{1\le i \le n}$ et de telle sorte que +$\forall i \in {1,...,i}$ on ait $\mathbb{P}(X\in A_{i})$ qui soit positive. On notera ces probabilités $p_{i}$. +Si on note maintenant $(X_{i})_{1\le i \le n}$ la suite de variables aléatoires suivant pour chaque $i$ la loi de $X$ sachant $X\in A_{i}$, +on a clairement $\E(f(X)) = \sum_{i=1}^{I}p_{i}\E(f(X_{i}))$. +Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuelle +$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient un naturellement : +\begin{equation} +\E(f(X))\approx\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})= +\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}}{q_{i}}\sum_{j=1}^{q_{i}N}f(X_{i}^{j}) +\end{equation} +où $N$ désigne le nombre total de tirages, c'est à dire $N=\sum_{i=1}^{I}N_{i}$, et $q_{i}=\frac{{N_{i}}}{N}$ la proportion de tirages dans chacune +des strates. -\end{center} \printbibliography \end{document} -- cgit v1.2.3-70-g09d2