aboutsummaryrefslogtreecommitdiffstats
path: root/doc/rapport.tex
diff options
context:
space:
mode:
authorBertrand <bertrand.horel@gmail.com>2016-03-15 12:34:15 +0000
committerBertrand <bertrand.horel@gmail.com>2016-03-15 12:34:15 +0000
commita6228f687b481e498ebe1104ec493b70cc439138 (patch)
tree56f3a1ca00a868b0e291e233899acc5d2cbfc5df /doc/rapport.tex
parent212dde35792685909ddc76bd88f514e8bcf91e25 (diff)
downloadprojet_C++-a6228f687b481e498ebe1104ec493b70cc439138.tar.gz
suite de rqmc latex
Diffstat (limited to 'doc/rapport.tex')
-rw-r--r--doc/rapport.tex31
1 files changed, 23 insertions, 8 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index b37624c..3b2888c 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -21,28 +21,43 @@ On suppose qu'on cherche à calculer
I=\int_{[0,1]^s}f(x)dx
\end{equation}
Soit $(\xi^{(n)})_{n\in\mathbb{N}}$ une suite à discrépance faible à valeurs dans $[0,1]^s$.
-Au bout de N tirages de cette suite, la méthode de quasi Monte Carlo usuelle nous donnerait une approximation de la valeur de $I$
+Au bout de N tirages de cette suite, la méthode de quasi Monte Carlo nous donnerait une approximation de la valeur de $I$
par la formule :
\begin{equation}
I\approx\frac{1}{N}\sum_{n=1}^Nf(\xi^{(n)})
\end{equation}
-La méthode de quasi Monte Carlo randomisé consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire
+Le souci de cette méthode est de ne pas pouvoir obtenir d'erreur de l'estimateur facilement. En effet l'inégalité de Koksma–Hlawka nous donne une borne de
+cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction f ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit
+la méthode de quasi Monte Carlo randomisé. Elle consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire
uniformément distribuée sur ${[0,1]^s}$. On s'intéresse dorénavant à la somme aléatoire :
\begin{equation}
Z=\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\})
\end{equation}
où \{$X$\} désigne la partie fractionnaire de $X$.
-L'idée consiste à faire K tirages de $Z$, ce qui consiste à faire K tirages de $X$ vu que la suite $(\xi^{(n)})$ est déterministe, puis de faire
-une méthode de Monte Carlo classique sur ces K tirages. On a donc :
+L'idée consiste à faire $K$ tirages de $Z$, ce qui consiste à faire K tirages de $X$ vu que la suite $(\xi^{(n)})$ est déterministe, puis de faire
+une méthode de Monte Carlo classique sur ces $K$ tirages. On a donc :
\begin{equation}
-I\approx\frac{1}{I}\sum_{i=1}^IZ_{i}=\frac{1}{I}\sum_{i=1}^I\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X_{i}\})
+\label{eqrqmc}I\approx\frac{1}{K}\sum_{k=1}^KZ_{k}=\frac{1}{K}\sum_{k=1}^K\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X_{k}\})
\end{equation}
-
-\subsection{Calcul de vitesse de d'intervalle de confiance}
+Il convient maintenant d'estimer l'avantage de cette méthode par rapport à une technique de Monte-Carlo usuelle, en terme de réduction de variance.
+On voit dans \eqref{eqrqmc} qu'il nous coûte $NK$ évaluations de la fonction $f$ pour calculer notre estimation de $I$.
+Donc la variance pour la méthode de Monte-Carlo de base serait :
+\begin{equation}
+\mathrm{Var}(\frac{1}{NK}\sum_{n=1}^{NK}f(X_n))=\frac{1}{NK}\mathrm{Var}(f(X))
+\end{equation}
+Il nous faut la comparer avec :
+\begin{equation}
+\mathrm{Var}(\frac{1}{K}\sum_{k=1}^K\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X_{k}\}))=\frac{1}{K}\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))
+\end{equation}
+On a donc réduction de variance si et seulement si :
+\begin{equation}
+\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))<\frac{1}{N}\mathrm{Var}(f(X))
+\end{equation}
+\subsection{Calcul de vitesse et d'intervalle de confiance}
On veut calculer l'espérance : $\E(f(X))=\sum_{i=1}^Ip_if(X_i)$
\begin{equation}
\label{eqesti}\hat{c}=\sum_{i=1}^I\frac{p_i}{N_i}\sum_{j=1}^{N_i}f(X_i^j)=
-\frac{1}{N}\sum_{i=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j)
+\frac{1}{N}\sum_{k=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j)
\end{equation}