diff options
Diffstat (limited to 'doc')
| -rw-r--r-- | doc/rapport.tex | 31 |
1 files changed, 23 insertions, 8 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex index b37624c..3b2888c 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -21,28 +21,43 @@ On suppose qu'on cherche à calculer I=\int_{[0,1]^s}f(x)dx \end{equation} Soit $(\xi^{(n)})_{n\in\mathbb{N}}$ une suite à discrépance faible à valeurs dans $[0,1]^s$. -Au bout de N tirages de cette suite, la méthode de quasi Monte Carlo usuelle nous donnerait une approximation de la valeur de $I$ +Au bout de N tirages de cette suite, la méthode de quasi Monte Carlo nous donnerait une approximation de la valeur de $I$ par la formule : \begin{equation} I\approx\frac{1}{N}\sum_{n=1}^Nf(\xi^{(n)}) \end{equation} -La méthode de quasi Monte Carlo randomisé consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire +Le souci de cette méthode est de ne pas pouvoir obtenir d'erreur de l'estimateur facilement. En effet l'inégalité de Koksma–Hlawka nous donne une borne de +cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction f ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit +la méthode de quasi Monte Carlo randomisé. Elle consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire uniformément distribuée sur ${[0,1]^s}$. On s'intéresse dorénavant à la somme aléatoire : \begin{equation} Z=\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}) \end{equation} où \{$X$\} désigne la partie fractionnaire de $X$. -L'idée consiste à faire K tirages de $Z$, ce qui consiste à faire K tirages de $X$ vu que la suite $(\xi^{(n)})$ est déterministe, puis de faire -une méthode de Monte Carlo classique sur ces K tirages. On a donc : +L'idée consiste à faire $K$ tirages de $Z$, ce qui consiste à faire K tirages de $X$ vu que la suite $(\xi^{(n)})$ est déterministe, puis de faire +une méthode de Monte Carlo classique sur ces $K$ tirages. On a donc : \begin{equation} -I\approx\frac{1}{I}\sum_{i=1}^IZ_{i}=\frac{1}{I}\sum_{i=1}^I\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X_{i}\}) +\label{eqrqmc}I\approx\frac{1}{K}\sum_{k=1}^KZ_{k}=\frac{1}{K}\sum_{k=1}^K\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X_{k}\}) \end{equation} - -\subsection{Calcul de vitesse de d'intervalle de confiance} +Il convient maintenant d'estimer l'avantage de cette méthode par rapport à une technique de Monte-Carlo usuelle, en terme de réduction de variance. +On voit dans \eqref{eqrqmc} qu'il nous coûte $NK$ évaluations de la fonction $f$ pour calculer notre estimation de $I$. +Donc la variance pour la méthode de Monte-Carlo de base serait : +\begin{equation} +\mathrm{Var}(\frac{1}{NK}\sum_{n=1}^{NK}f(X_n))=\frac{1}{NK}\mathrm{Var}(f(X)) +\end{equation} +Il nous faut la comparer avec : +\begin{equation} +\mathrm{Var}(\frac{1}{K}\sum_{k=1}^K\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X_{k}\}))=\frac{1}{K}\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\})) +\end{equation} +On a donc réduction de variance si et seulement si : +\begin{equation} +\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))<\frac{1}{N}\mathrm{Var}(f(X)) +\end{equation} +\subsection{Calcul de vitesse et d'intervalle de confiance} On veut calculer l'espérance : $\E(f(X))=\sum_{i=1}^Ip_if(X_i)$ \begin{equation} \label{eqesti}\hat{c}=\sum_{i=1}^I\frac{p_i}{N_i}\sum_{j=1}^{N_i}f(X_i^j)= -\frac{1}{N}\sum_{i=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j) +\frac{1}{N}\sum_{k=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j) \end{equation} |
