diff options
Diffstat (limited to 'doc')
| -rw-r--r-- | doc/rapport.bib | 22 | ||||
| -rw-r--r-- | doc/rapport.tex | 35 |
2 files changed, 43 insertions, 14 deletions
diff --git a/doc/rapport.bib b/doc/rapport.bib index 4f376b9..3ff0dc5 100644 --- a/doc/rapport.bib +++ b/doc/rapport.bib @@ -1,5 +1,5 @@ @article{tuffin2004randomization, - title={Randomization of Quasi-Monte Carlo Methods for Error Estimation: Survey and Normal Approximation*}, + title={Randomization of Quasi-Monte Carlo Methods for Error Estimation: Survey and Normal Approximation}, author={Tuffin, Bruno}, journal={Monte Carlo Methods and Applications mcma}, volume={10}, @@ -25,3 +25,23 @@ HAL_ID = {hal-00192540}, HAL_VERSION = {v2}, } + +@article{Tuffin:1997:VRA:268403.268419, + author = {Tuffin, Bruno}, + title = {Variance Reduction Applied to Product Form Multiclass Queuing Networks}, + journal = {ACM Trans. Model. Comput. Simul.}, + issue_date = {Oct. 1997}, + volume = {7}, + number = {4}, + month = oct, + year = {1997}, + issn = {1049-3301}, + pages = {478--500}, + numpages = {23}, + url = {http://doi.acm.org/10.1145/268403.268419}, + doi = {10.1145/268403.268419}, + acmid = {268419}, + publisher = {ACM}, + address = {New York, NY, USA}, + keywords = {Monte Carlo, antithetic variates, low discrepancy sequences, product-form networks, variance reduction}, +} diff --git a/doc/rapport.tex b/doc/rapport.tex index 3b2888c..73a9c03 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -27,8 +27,8 @@ par la formule : I\approx\frac{1}{N}\sum_{n=1}^Nf(\xi^{(n)}) \end{equation} Le souci de cette méthode est de ne pas pouvoir obtenir d'erreur de l'estimateur facilement. En effet l'inégalité de Koksma–Hlawka nous donne une borne de -cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction f ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit -la méthode de quasi Monte Carlo randomisé. Elle consite à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire +cette erreur mais nécessite de pouvoir calculer la variation finie de la fonction $f$ ce qui n'est pas toujours possible en pratique. C'est pourquoi on introduit +la méthode de quasi Monte Carlo randomisé. Elle consiste à rajouter un décalage aléatoire à la suite $(\xi^{(n)})$. Soit $X$ une variable aléatoire uniformément distribuée sur ${[0,1]^s}$. On s'intéresse dorénavant à la somme aléatoire : \begin{equation} Z=\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}) @@ -53,21 +53,30 @@ On a donc réduction de variance si et seulement si : \begin{equation} \mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))<\frac{1}{N}\mathrm{Var}(f(X)) \end{equation} -\subsection{Calcul de vitesse et d'intervalle de confiance} -On veut calculer l'espérance : $\E(f(X))=\sum_{i=1}^Ip_if(X_i)$ +Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fonction à variations bornées on a : \begin{equation} -\label{eqesti}\hat{c}=\sum_{i=1}^I\frac{p_i}{N_i}\sum_{j=1}^{N_i}f(X_i^j)= -\frac{1}{N}\sum_{k=1}^I\frac{p_i}{q_i}\sum_{j=1}^{q_iN}f(X_i^j) +\mathrm{Var}(\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X\}))=O(N^{-2}(log N)^{2s}) \end{equation} +\subsection{Calcul de vitesse et d'intervalle de confiance} +On s'interesse maintenant -\[a \leq b \] - - - -\begin{center} -\input{table.tex} +\section{Échantillonnage stratifié} +\subsection{Présentation mathématique} +Soit $f:\mathbb{R}^{d}\rightarrow\mathbb{R}$ et $X$ un vecteur aléatoire à $d$ dimensions. +Comme pour la méthode de quasi Monte Carlo randomisé on suppose qu'on cherche à calculer $\E(f(X))$. +On suppose maintenant qu'on divise $\mathbb{R}^{d}$ en $I$ strates appelées $(A_{i})_{1\le i \le n}$ et de telle sorte que +$\forall i \in {1,...,i}$ on ait $\mathbb{P}(X\in A_{i})$ qui soit positive. On notera ces probabilités $p_{i}$. +Si on note maintenant $(X_{i})_{1\le i \le n}$ la suite de variables aléatoires suivant pour chaque $i$ la loi de $X$ sachant $X\in A_{i}$, +on a clairement $\E(f(X)) = \sum_{i=1}^{I}p_{i}\E(f(X_{i}))$. +Or si on sait simuler chacune des variables $(X_{i})$, on peut estimer chacune des espérances $\E(f(X_{i}))$ par un estimateur de Monte-Carlo usuelle +$\frac{1}{N_{i}}\sum_{j=1}^{N_{i}}f(X_{i}^{j})$ où $N_{i}$ est le nombre de tirages de la variable $X_{i}$. Et donc il vient un naturellement : +\begin{equation} +\E(f(X))\approx\sum_{i=1}^{I}p_{i}\sum_{j=1}^{N_{i}}f(X_{i}^{j})= +\frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}}{q_{i}}\sum_{j=1}^{q_{i}N}f(X_{i}^{j}) +\end{equation} +où $N$ désigne le nombre total de tirages, c'est à dire $N=\sum_{i=1}^{I}N_{i}$, et $q_{i}=\frac{{N_{i}}}{N}$ la proportion de tirages dans chacune +des strates. -\end{center} \printbibliography \end{document} |
