aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
-rw-r--r--doc/rapport.bib22
-rw-r--r--doc/rapport.tex35
2 files changed, 43 insertions, 14 deletions
diff --git a/doc/rapport.bib b/doc/rapport.bib
index 4f376b9..3ff0dc5 100644
--- a/doc/rapport.bib
+++ b/doc/rapport.bib
@@ -1,5 +1,5 @@
@article{tuffin2004randomization,
- title={Randomization of Quasi-Monte Carlo Methods for Error Estimation: Survey and Normal Approximation*},
+ title={Randomization of Quasi-Monte Carlo Methods for Error Estimation: Survey and Normal Approximation},
author={Tuffin, Bruno},
journal={Monte Carlo Methods and Applications mcma},
volume={10},
@@ -25,3 +25,23 @@
HAL_ID = {hal-00192540},
HAL_VERSION = {v2},
}
+
+@article{Tuffin:1997:VRA:268403.268419,
+ author = {Tuffin, Bruno},
+ title = {Variance Reduction Applied to Product Form Multiclass Queuing Networks},
+ journal = {ACM Trans. Model. Comput. Simul.},
+ issue_date = {Oct. 1997},
+ volume = {7},
+ number = {4},
+ month = oct,
+ year = {1997},
+ issn = {1049-3301},
+ pages = {478--500},
+ numpages = {23},
+ url = {http://doi.acm.org/10.1145/268403.268419},
+ doi = {10.1145/268403.268419},
+ acmid = {268419},
+ publisher = {ACM},
+ address = {New York, NY, USA},
+ keywords = {Monte Carlo, antithetic variates, low discrepancy sequences, product-form networks, variance reduction},
+}
diff --git a/doc/rapport.tex b/doc/rapport.tex
index 3b2888c..73a9c03 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -27,8 +27,8 @@ par la formule :
I\approx\frac{1}{N}\sum_{n=1}^Nf(\xi^{(n)})
\end{equation}
Le souci de cette méthode est de ne pas pouvoir obtenir d'erreur de l'estimateur facilement. En effet l'inégalité de Koksma–Hlawka nous donne une borne de
-cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction f ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit
-la méthode de quasi Monte Carlo randomisé. Elle consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire
+cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction $f$ ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit
+la méthode de quasi Monte Carlo randomisé. Elle consiste à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire
uniformément distribuée sur ${[0,1]^s}$. On s'intéresse dorénavant à la somme aléatoire :
\begin{equation}
Z=\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\})
@@ -53,21 +53,30 @@ On a donc réduction de variance si et seulement si :
\begin{equation}
\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))<\frac{1}{N}\mathrm{Var}(f(X))
\end{equation}
-\subsection{Calcul de vitesse et d'intervalle de confiance}
-On veut calculer l'espérance : $\E(f(X))=\sum_{i=1}^Ip_if(X_i)$
+Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fonction à variations bornées on a :
\begin{equation}
-\label{eqesti}\hat{c}=\sum_{i=1}^I\frac{p_i}{N_i}\sum_{j=1}^{N_i}f(X_i^j)=
-\frac{1}{N}\sum_{k=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j)
+\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))=O(N^{-2}(log N)^{2s})
\end{equation}
+\subsection{Calcul de vitesse et d'intervalle de confiance}
+On s'interesse maintenant
-\[a \leq b \]
-
-
-
-\begin{center}
-\input{table.tex}
+\section{Échantillonnage stratifié}
+\subsection{Présentation mathématique}
+Soit $f:\mathbb{R}^{d}\rightarrow\mathbb{R}$ et $X$ un vecteur aléatoire à $d$ dimensions.
+Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\E(f(X))$.
+On suppose maintenant qu'on divise $\mathbb{R}^{d}$ en $I$ strates appelées $(A_{i})_{1\le i \le n}$ et de telle sorte que
+$\forall i \in {1,...,i}$ on ait $\mathbb{P}(X\in A_{i})$ qui soit positive. On notera ces probabilités $p_{i}$.
+Si on note maintenant $(X_{i})_{1\le i \le n}$ la suite de variables aléatoires suivant pour chaque $i$ la loi de $X$ sachant $X\in A_{i}$,
+on a clairement $\E(f(X)) = \sum_{i=1}^{I}p_{i}\E(f(X_{i}))$.
+Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuelle
+$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient un naturellement :
+\begin{equation}
+\E(f(X))\approx\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})=
+\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}}{q_{i}}\sum_{j=1}^{q_{i}N}f(X_{i}^{j})
+\end{equation}
+où $N$ désigne le nombre total de tirages, c'est à dire $N=\sum_{i=1}^{I}N_{i}$, et $q_{i}=\frac{{N_{i}}}{N}$ la proportion de tirages dans chacune
+des strates.
-\end{center}
\printbibliography
\end{document}