diff options
| author | Bertrand <bertrand.horel@gmail.com> | 2016-04-17 20:56:45 +0200 |
|---|---|---|
| committer | Bertrand <bertrand.horel@gmail.com> | 2016-04-17 20:56:45 +0200 |
| commit | 035b9a38db12b56ae59df64738fd0a974ec63239 (patch) | |
| tree | 984e8b81ea5147036dc90dfb537e1e0ebba41773 /doc | |
| parent | 2de4eb353c3e94e401c1d5efd499b8c7ae880a4c (diff) | |
| download | projet_C++-035b9a38db12b56ae59df64738fd0a974ec63239.tar.gz | |
suite rapport
Diffstat (limited to 'doc')
| -rw-r--r-- | doc/rapport.tex | 29 |
1 files changed, 21 insertions, 8 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex index 9246662..1514d06 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -62,7 +62,11 @@ Or dans \cite{Tuffin:1997:VRA:268403.268419} il est montré que pour $f$ une fon Pour cette classe de fonctions on a une réduction de variance par un facteur de $N / (\log N)^{2s}$. \subsection{Calcul de vitesse et d'intervalle de confiance} -On s'interesse maintenant +On s'interesse maintenant à la convergence vers la loi normale de notre estimateur. On rappelle que dans le cas d'une méthode de Monte-Carlo classique, +si $X$ est une variable aléatoire et si on note $\mu = \E[f(X)]$ l'espérance qu'on cherche à calculer. Alors si les $(X_i)_{1\leq i\leq N}$ sont +$N$ tirages de la variable $X$, $\bar{X}_N=\frac{1}{N}\sum_{n=1}^Nf(X_i)$ sera notre estimateur de $\mu$ et on aura l'intervalle de confiance assymptotique +usuel pour $\mu$ de la forme : $\mathopen{]}\bar{X}_N-c_{\alpha}\frac{\alpha}{\sqrt{N}};\bar{X}_N+c_{\alpha}\frac{\alpha}{\sqrt{N}}\mathclose{]}$ avec +$\alpha$ le niveau désiré pour l'intervalle et $c_{\alpha}$ le quantile de $1-\frac{\alpha}{2}$ d'une loi gaussienne centrée réduite. \section{Échantillonnage stratifié} \subsection{Présentation mathématique} @@ -93,28 +97,37 @@ Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^ \frac{1}{N}\left(\sum_{i=1}^{I}p_{i}(\sigma_{i}^2 + \E^{2}[f(X_{i})])-(\sum_{i=1}^{I}p_{i}\E[f(X_{i})])^{2}\right) \geq \frac{1}{N}\sum_{i=1}^{I}p_i\sigma_i^2 \end{equation*} -On peut donc constater que si on décide de poser $q_i = p_i$, $\mathrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée pour $\mathrm{Var}(\mu_{mc})$. +où la dernière inégalité est due au fait que par l'inégalité de Jensen appliquée à $\E[f(X_{i})]$ avec la suite des $p_i$ comme probabilité discrète( +$\sum_{i=1}^{I}p_i = 1$) on a : +\begin{equation*} +\frac{1}{N}\sum_{i=1}^{I}p_i\E^{2}[f(X_{i})] \geq (\frac{1}{N}\sum_{i=1}^{I}p_i\E[f(X_{i})])^2 +\end{equation*} +Si on pose $q_i = p_i$, $\mathrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée pour $\mathrm{Var}(\mu_{mc})$. Mais on peut trouver un choix de $q_i$ plus optimal en terme de réduction de variance. -En effet : +En effet, toujours par l'inégalité de Jensen avec cette fois la suite des $q_i$ vue comme une probabilité discrète, on a : \begin{equation*} \mathrm{Var}(\mu_{strat})=\frac{1}{N}\sum_{i=1}^{I}\frac{p_i^2\sigma_i^2}{q_i}=\frac{1}{N}\sum_{i=1}^I(\frac{p_i\sigma_i}{q_i})^2q_i \geq\frac{1}{N}(\sum_{i=1}^I\frac{p_i\sigma_i}{q_i}q_i)^2 \end{equation*} -Si +Et si \begin{equation} \label{eqqi} -\forall 1\geq i \geq I, q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j} +\forall i \in \{1,...,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j} \end{equation} ${Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié, et qu'on a trouvé quelle est la proportion optimale de tirages à faire par strates, intéressons nous à l'algorithme pour implémenter ce modèle. \subsection{Description de l'algorithme} -On a vu dans la section précédente que les $q_i$ optimaux dépendent de la suite $(\sigma_i)_{1\geq i\geq I}$ qui sont les variances conditionnelles de $X$ +On a vu dans la section précédente que les $q_i$ optimaux dépendent de la suite $(\sigma_i)_{1\leq i\leq I}$ qui sont les variances conditionnelles de $X$ sachant $X\in A_{i}$. Mais si ces variances sont inconnues il nous faut les estimer. On ne peut trouver la répartition optimale de tirages à faire par strates -du premier coup. L'idée de l'algorithme consiste donc à faire plusieurs étapes. On commence par tirer un nombre $N_1$ assez restreint de variables $(X_{i})_{1\le i \le I}$ +du premier coup. On utilisera donc un algorithme adaptatif. On commence par tirer un nombre $N_1$ assez restreint de variables $(X_{i})_{1\leq i \leq I}$ en choisissant une répartition déterministe, par exemple la répartition uniforme $q_i=\frac{N_1}{I}$ ce qui nous donnera un premier estimateur de $\mu=\E(f(X))$ mais -surtout les premiers estimateurs de $\sigma_{i}$. Ensuite on pourra tirer un nombre $N_2 > N_1$ de $(X_{i})$ avec une de nouveaux $q_i$ donnés par \eqref{eqqi} +surtout les premiers estimateurs de $\sigma_{i}$. Ensuite on pourra tirer un nombre $N_2 > N_1$ de $(X_{i})$ avec de nouveaux $q_i$ donnés par \eqref{eqqi} ce qui nous donnera un nouvel estimateur de $\mu$ (en utilisant les $N_1 + N_2$ premières valeurs) puis de nouveaux $q_i$ plus précis, et ainsi de suite. + +\input{table.tex} + \printbibliography + \end{document} |
