aboutsummaryrefslogtreecommitdiffstats
path: root/doc
diff options
context:
space:
mode:
Diffstat (limited to 'doc')
-rw-r--r--doc/rapport.tex34
1 files changed, 17 insertions, 17 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index de085c0..87524e9 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -62,38 +62,38 @@ Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fon
Pour cette classe de fonctions on a une réduction de variance par un facteur de $N / (\log N)^{2s}$.
\subsection{Calcul de vitesse et d'intervalle de confiance}
-On s'interesse maintenant à la convergence vers la loi normale de notre estimateur. On rappelle d'abord le cas d'une méthode de Monte-Carlo classique.
-Soit $X$ une variable aléatoire, on note $\mu = \E[f(X)]$ son espérance qu'on cherche à calculer et $\sigma$ son écart type. Alors si les $(X_n)_{1\leq n\leq N}$
-sont $N$ tirages de la variable $X$, $\bar{X}_N=\frac{1}{N}\sum_{n=1}^Nf(X_n)$ sera notre estimateur de $\mu$ et on aura l'intervalle de confiance
-assymptotique usuel pour $\mu$ de la forme : $\mathopen{[}\bar{X}_N-c_{\alpha}\frac{\sigma}{\sqrt{N}};\bar{X}_N+c_{\sigma}\frac{\alpha}{\sqrt{N}}\mathclose{]}$
-avec $\alpha$ le niveau désiré pour l'intervalle et $c_{\alpha}$ le quantile de $1-\frac{\alpha}{2}$ d'une loi gaussienne centrée réduite.
+On s'interesse maintenant à la convergence vers la loi normale de notre estimateur. On rappelle d'abord le cas d'une méthode de Monte-Carlo classique.
+Soit $X$ une variable aléatoire, on note $\mu = \E[f(X)]$ son espérance qu'on cherche à calculer et $\sigma$ son écart type. Alors si les $(X_n)_{1\leq n\leq N}$
+sont $N$ tirages de la variable $X$, $\bar{X}_N=\frac{1}{N}\sum_{n=1}^Nf(X_n)$ sera notre estimateur de $\mu$ et on aura l'intervalle de confiance
+asymptotique usuel pour $\mu$ de la forme : $\mathopen{[}\bar{X}_N-c_{\alpha}\frac{\sigma}{\sqrt{N}};\bar{X}_N+c_{\alpha}\frac{\alpha}{\sqrt{N}}\mathclose{]}$
+avec $\alpha$ le niveau désiré pour l'intervalle et $c_{\alpha}$ le quantile en $1-\frac{\alpha}{2}$ d'une loi gaussienne centrée réduite.
-Dans son article \cite{tuffin2004randomization} M.Tuffin suggère d'utiliser la borne de Berry-Esseen pour le cas non assymptotique. Si on introduit la variable
+Dans l'article \cite{tuffin2004randomization}, Tuffin suggère d'utiliser la borne de Berry-Esseen pour le cas non asymptotique. Si on introduit les quantités
$\beta = \E[|f(X)-\E[f(X)]|^3]$, $F_n$ la fonction de répartition de $\sqrt{N}\frac{\bar{X}_N-\mu}{\sigma}$et $\mathcal{N}$ la fonction de répartition d'une
loi normale centrée réduite, alors l'inégalité de Berry-Esseen affirme que :
\begin{equation*}
\forall x \quad |F_n(x) - \mathcal{N}(x)| \leq C\frac{\beta}{\sigma ^3 \sqrt{N}}
\end{equation*}
-Ce qui nous donne $\mathcal{N}(x) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq F_n(x) \leq \mathcal{N}(x) + C\frac{\beta}{\sigma ^3 \sqrt{N}} $ et en
+Ce qui nous donne $\mathcal{N}(x) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq F_n(x) \leq \mathcal{N}(x) + C\frac{\beta}{\sigma ^3 \sqrt{N}} $ et en
soustrayant l'encadrement équivalent de $F_n(-x)$ il vient :
\begin{equation*}
F_n(x)-F_n(-x) \geq \mathcal{N}(x) - \mathcal{N}(-x) -2C\frac{\beta}{\sigma ^3 \sqrt{N}}
\end{equation*}
On veut maintenant égaliser cette borne inférieure avec $1- \alpha$ pour trouver les bornes de l'intervalle de confiance.
-Sachant que $\mathcal{N}(x) = 1 - \mathcal{N}(-x)$ on a $1 - \alpha = 1 - 2\mathcal{N}(-x) - 2C\frac{\beta}{\sigma ^3 \sqrt{N}}$ et on trouve en fin de
+Sachant que $\mathcal{N}(x) = 1 - \mathcal{N}(-x)$ on a $1 - \alpha = 1 - 2\mathcal{N}(-x) - 2C\frac{\beta}{\sigma ^3 \sqrt{N}}$ et on trouve en fin de
compte :
$x = -\mathcal{N}^{-1}(\frac{\alpha}{2} - C\frac{\beta}{\sigma ^3 \sqrt{N}})$.
-
-On a donc l'égalité suivante :
+
+On a donc l'inégalité suivante :
\begin{equation*}
-\mathbb{P}\left(\mathcal{N}^{-1}(\frac{\alpha}{2} + C\frac{\beta}{\sigma ^3 \sqrt{N}}) \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq
--\mathcal{N}^{-1}(\frac{\alpha}{2} - C\frac{\beta}{\sigma ^3 \sqrt{N}})\right) = 1- \alpha
+\mathbb{P}\left(\mathcal{N}^{-1}(\frac{\alpha}{2} -C\frac{\beta}{\sigma ^3 \sqrt{N}}) \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq
+-\mathcal{N}^{-1}(\frac{\alpha}{2} - C\frac{\beta}{\sigma ^3 \sqrt{N}})\right) \geq 1- \alpha
\end{equation*}
-Alors que M.Tuffin trouve :
+Alors que Tuffin trouve :
\begin{equation*}
-\mathbb{P}\left(-\mathcal{N}^{-1}(\frac{\alpha}{2}) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq
-\mathcal{N}^{-1}(\frac{\alpha}{2}) + C\frac{\beta}{\sigma ^3 \sqrt{N}}\right) = 1- \alpha
-\end{equation*}
+\mathbb{P}\left(\mathcal{N}^{-1}(\frac{\alpha}{2}) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq
+-\mathcal{N}^{-1}(\frac{\alpha}{2}) + C\frac{\beta}{\sigma ^3 \sqrt{N}}\right) \geq 1- \alpha
+\end{equation*}
ce qui me semble être une erreur.
\section{Échantillonnage stratifié}
@@ -128,7 +128,7 @@ Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^
où la dernière inégalité est due au fait que par l'inégalité de Jensen appliquée à $\E[f(X_{i})]$ avec la suite des $p_i$ comme probabilité discrète(
$\sum_{i=1}^{I}p_i = 1$) on a :
\begin{equation*}
-\frac{1}{N}\sum_{i=1}^{I}p_i\E^{2}[f(X_{i})] \geq (\frac{1}{N}\sum_{i=1}^{I}p_i\E[f(X_{i})])^2
+\frac{1}{N}\sum_{i=1}^{I}p_i\E^{2}[f(X_{i})] \geq \frac{1}{N}(\sum_{i=1}^{I}p_i\E[f(X_{i})])^2
\end{equation*}
Si on pose $q_i = p_i$, $\mathrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée pour $\mathrm{Var}(\mu_{mc})$.
Mais on peut trouver un choix de $q_i$ plus optimal en terme de réduction de variance.