diff options
| author | Bertrand <bertrand.horel@gmail.com> | 2016-04-29 16:31:59 +0200 |
|---|---|---|
| committer | Bertrand <bertrand.horel@gmail.com> | 2016-04-29 16:31:59 +0200 |
| commit | b5c1bd18ca2e85b9edb196bc06dbab423e043493 (patch) | |
| tree | 12b0c73ff328cab5d37ad515484c3e5ef230b911 /doc/rapport.tex | |
| parent | 59c7ec5da07ec6562ef78fdc6fb50f5b1974d6e4 (diff) | |
| download | projet_C++-b5c1bd18ca2e85b9edb196bc06dbab423e043493.tar.gz | |
des corrections
Diffstat (limited to 'doc/rapport.tex')
| -rw-r--r-- | doc/rapport.tex | 11 |
1 files changed, 5 insertions, 6 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex index 73dfec7..1441fa4 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -127,14 +127,14 @@ Si on note $\sigma_{i} = \mathrm{Var}(f(X_{i})) = \mathrm{Var}(f(X)|X\in A_{i})$ \mathrm{Var}(\mu_{strat})=\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{N_{i}}= \frac{1}{N}\sum_{i=1}^{I}\frac{p_{i}^{2}\sigma_{i}^2}{q_{i}} \end{equation*} -Tandis qu'avec un estimateur usuel de Monte-Carlo $\frac{1}{N}\sum_{j=1}^{N}f(X^{j})$, noté $\mu_{mc}$, pour le même nombre $N$ total de tirages, on aurait : +Tandis qu'avec un estimateur usuel de Monte-Carlo pour le même nombre $N$ total de tirages, c'est à dire $\frac{1}{N}\sum_{j=1}^{N}f(X^{j})$ noté $\mu_{mc}$, on aurait : \begin{equation*} \mathrm{Var}(\mu_{mc}) = \frac{1}{N}\left(\sum_{i=1}^{I}p_{i}(\sigma_{i}^2 + \E^{2}[f(X_{i})])-(\sum_{i=1}^{I}p_{i}\E[f(X_{i})])^{2}\right) \geq \frac{1}{N}\sum_{i=1}^{I}p_i\sigma_i^2 \end{equation*} -où la dernière inégalité est due au fait que par l'inégalité de Jensen appliquée à $\E[f(X_{i})]$ avec la suite des $p_i$ comme probabilité discrète ( -$\sum_{i=1}^{I}p_i = 1$) on a : +Pour montrer la dernière inégalité, on applique l'inégalité de Jensen à $\E[f(X_{i})]$ avec la suite des $p_i$ comme probabilité discrète (on rappelle que +$\sum_{i=1}^{I}p_i = 1$) ce qui nous donne : \begin{equation*} \frac{1}{N}\sum_{i=1}^{I}p_i\,\E^{2}[f(X_{i})] \geq \frac{1}{N}(\sum_{i=1}^{I}p_i\,\E[f(X_{i})])^2 \end{equation*} @@ -204,7 +204,6 @@ Si $\E[f^2(X)]<\infty$ et si $k/N ^k\to0$ quand $k\to \infty$ alors : avec $\sigma_*=\sum_i^Ip_i\sigma_i$, ce qui atteint la borne inférieure de $\textrm{Var}(\mu_{strat})$ trouvée en \eqref{eq:borninf}. \section{Exemples} -Nous allons maintenant implémenter et comparer les deux techniques d'estimateur d'espérance sur deux exemples décrit dans \cite{etore:hal-00192540}. \subsection{Calcul de l'espérance d'une loi normale} Dans ce premier exemple assez simple, on va chercher à calculer $ \mu = \E[X]$ où $X$ suit une loi normale centrée réduite. \subsubsection{Échantillonnage stratifié} @@ -228,7 +227,7 @@ de l'échantillonnage stratifié. Ainsi on peut comparer les deux méthodes et o \input{table1.tex} \end{center} -$\textrm{IC}_{strat}$ et $\textrm{IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenus avec les deux méthodes. En comparant ces tailles +$\textrm{IC}_{strat}$ et $\textrm{IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenues avec les deux méthodes. En comparant ces tailles on peut constater la plus grande efficacité de la méthode de quasi Monte-Carlo randomisé. \subsection{Modélisation du prix d'une option asiatique} @@ -331,7 +330,7 @@ un tirage de la variable aléatoire $\frac{1}{N}\sum_{n=1}^Nf(\{\xi^{(n)}+X_{k}\ classe \texttt{\detokenize{monte_carlo}}. \subsubsection{Échantillonnage stratifié} -L'algorithme de l'achantillonnage stratifié adaptatif est principalement implémenté dans la méthode \texttt{update} +L'algorithme de l'échantillonnage stratifié adaptatif est principalement implémenté dans la méthode \texttt{update} de \texttt{\detokenize{stratified_sampling}} qui a un type abstrait. Pour l'exemple de l'option asiatique on doit d'abord résoudre le problème d'optimisation donné dans la formule 3.2 de l'article d'Etoré-Jourdain, l'implémentation se trouve dans \texttt{opti.cpp}, j'ai utlisé un algorithme de la librairie Nlopt appelé \texttt{COBYLA}. La classe \texttt{\detokenize{exponential_tilt}} qui est dérivée |
