diff options
Diffstat (limited to 'doc')
| -rw-r--r-- | doc/rapport.tex | 34 |
1 files changed, 17 insertions, 17 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex index de085c0..87524e9 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -62,38 +62,38 @@ Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fon Pour cette classe de fonctions on a une réduction de variance par un facteur de $N / (\log N)^{2s}$. \subsection{Calcul de vitesse et d'intervalle de confiance} -On s'interesse maintenant à la convergence vers la loi normale de notre estimateur. On rappelle d'abord le cas d'une méthode de Monte-Carlo classique. -Soit $X$ une variable aléatoire, on note $\mu = \E[f(X)]$ son espérance qu'on cherche à calculer et $\sigma$ son écart type. Alors si les $(X_n)_{1\leq n\leq N}$ -sont $N$ tirages de la variable $X$, $\bar{X}_N=\frac{1}{N}\sum_{n=1}^Nf(X_n)$ sera notre estimateur de $\mu$ et on aura l'intervalle de confiance -assymptotique usuel pour $\mu$ de la forme : $\mathopen{[}\bar{X}_N-c_{\alpha}\frac{\sigma}{\sqrt{N}};\bar{X}_N+c_{\sigma}\frac{\alpha}{\sqrt{N}}\mathclose{]}$ -avec $\alpha$ le niveau désiré pour l'intervalle et $c_{\alpha}$ le quantile de $1-\frac{\alpha}{2}$ d'une loi gaussienne centrée réduite. +On s'interesse maintenant à la convergence vers la loi normale de notre estimateur. On rappelle d'abord le cas d'une méthode de Monte-Carlo classique. +Soit $X$ une variable aléatoire, on note $\mu = \E[f(X)]$ son espérance qu'on cherche à calculer et $\sigma$ son écart type. Alors si les $(X_n)_{1\leq n\leq N}$ +sont $N$ tirages de la variable $X$, $\bar{X}_N=\frac{1}{N}\sum_{n=1}^Nf(X_n)$ sera notre estimateur de $\mu$ et on aura l'intervalle de confiance +asymptotique usuel pour $\mu$ de la forme : $\mathopen{[}\bar{X}_N-c_{\alpha}\frac{\sigma}{\sqrt{N}};\bar{X}_N+c_{\alpha}\frac{\alpha}{\sqrt{N}}\mathclose{]}$ +avec $\alpha$ le niveau désiré pour l'intervalle et $c_{\alpha}$ le quantile en $1-\frac{\alpha}{2}$ d'une loi gaussienne centrée réduite. -Dans son article \cite{tuffin2004randomization} M.Tuffin suggère d'utiliser la borne de Berry-Esseen pour le cas non assymptotique. Si on introduit la variable +Dans l'article \cite{tuffin2004randomization}, Tuffin suggère d'utiliser la borne de Berry-Esseen pour le cas non asymptotique. Si on introduit les quantités $\beta = \E[|f(X)-\E[f(X)]|^3]$, $F_n$ la fonction de répartition de $\sqrt{N}\frac{\bar{X}_N-\mu}{\sigma}$et $\mathcal{N}$ la fonction de répartition d'une loi normale centrée réduite, alors l'inégalité de Berry-Esseen affirme que : \begin{equation*} \forall x \quad |F_n(x) - \mathcal{N}(x)| \leq C\frac{\beta}{\sigma ^3 \sqrt{N}} \end{equation*} -Ce qui nous donne $\mathcal{N}(x) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq F_n(x) \leq \mathcal{N}(x) + C\frac{\beta}{\sigma ^3 \sqrt{N}} $ et en +Ce qui nous donne $\mathcal{N}(x) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq F_n(x) \leq \mathcal{N}(x) + C\frac{\beta}{\sigma ^3 \sqrt{N}} $ et en soustrayant l'encadrement équivalent de $F_n(-x)$ il vient : \begin{equation*} F_n(x)-F_n(-x) \geq \mathcal{N}(x) - \mathcal{N}(-x) -2C\frac{\beta}{\sigma ^3 \sqrt{N}} \end{equation*} On veut maintenant égaliser cette borne inférieure avec $1- \alpha$ pour trouver les bornes de l'intervalle de confiance. -Sachant que $\mathcal{N}(x) = 1 - \mathcal{N}(-x)$ on a $1 - \alpha = 1 - 2\mathcal{N}(-x) - 2C\frac{\beta}{\sigma ^3 \sqrt{N}}$ et on trouve en fin de +Sachant que $\mathcal{N}(x) = 1 - \mathcal{N}(-x)$ on a $1 - \alpha = 1 - 2\mathcal{N}(-x) - 2C\frac{\beta}{\sigma ^3 \sqrt{N}}$ et on trouve en fin de compte : $x = -\mathcal{N}^{-1}(\frac{\alpha}{2} - C\frac{\beta}{\sigma ^3 \sqrt{N}})$. - -On a donc l'égalité suivante : + +On a donc l'inégalité suivante : \begin{equation*} -\mathbb{P}\left(\mathcal{N}^{-1}(\frac{\alpha}{2} + C\frac{\beta}{\sigma ^3 \sqrt{N}}) \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq --\mathcal{N}^{-1}(\frac{\alpha}{2} - C\frac{\beta}{\sigma ^3 \sqrt{N}})\right) = 1- \alpha +\mathbb{P}\left(\mathcal{N}^{-1}(\frac{\alpha}{2} -C\frac{\beta}{\sigma ^3 \sqrt{N}}) \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq +-\mathcal{N}^{-1}(\frac{\alpha}{2} - C\frac{\beta}{\sigma ^3 \sqrt{N}})\right) \geq 1- \alpha \end{equation*} -Alors que M.Tuffin trouve : +Alors que Tuffin trouve : \begin{equation*} -\mathbb{P}\left(-\mathcal{N}^{-1}(\frac{\alpha}{2}) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq -\mathcal{N}^{-1}(\frac{\alpha}{2}) + C\frac{\beta}{\sigma ^3 \sqrt{N}}\right) = 1- \alpha -\end{equation*} +\mathbb{P}\left(\mathcal{N}^{-1}(\frac{\alpha}{2}) - C\frac{\beta}{\sigma ^3 \sqrt{N}} \leq \frac{\bar{X}_N-\mu}{\sigma / \sqrt{N}} \leq +-\mathcal{N}^{-1}(\frac{\alpha}{2}) + C\frac{\beta}{\sigma ^3 \sqrt{N}}\right) \geq 1- \alpha +\end{equation*} ce qui me semble être une erreur. \section{Échantillonnage stratifié} @@ -128,7 +128,7 @@ Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^ où la dernière inégalité est due au fait que par l'inégalité de Jensen appliquée à $\E[f(X_{i})]$ avec la suite des $p_i$ comme probabilité discrète( $\sum_{i=1}^{I}p_i = 1$) on a : \begin{equation*} -\frac{1}{N}\sum_{i=1}^{I}p_i\E^{2}[f(X_{i})] \geq (\frac{1}{N}\sum_{i=1}^{I}p_i\E[f(X_{i})])^2 +\frac{1}{N}\sum_{i=1}^{I}p_i\E^{2}[f(X_{i})] \geq \frac{1}{N}(\sum_{i=1}^{I}p_i\E[f(X_{i})])^2 \end{equation*} Si on pose $q_i = p_i$, $\mathrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée pour $\mathrm{Var}(\mu_{mc})$. Mais on peut trouver un choix de $q_i$ plus optimal en terme de réduction de variance. |
