aboutsummaryrefslogtreecommitdiffstats
path: root/doc/rapport.tex
diff options
context:
space:
mode:
Diffstat (limited to 'doc/rapport.tex')
-rw-r--r--doc/rapport.tex17
1 files changed, 9 insertions, 8 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index efd6343..4974eef 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -13,7 +13,8 @@
\begin{document}
\section*{Introduction}
-Sujet : Comparer les performances des méthodes de stratification exposées dans \cite{etore:hal-00192540}
+\paragraph{Sujet :\\}
+Comparer les performances des méthodes de stratification exposées dans \cite{etore:hal-00192540}
et de QMC randomisées exposées dans \cite{tuffin2004randomization} sur les exemples présentés dans \cite{etore:hal-00192540}
Références : \cite{etore:hal-00192540} \cite{tuffin2004randomization}
@@ -304,14 +305,14 @@ Regardons maintenant la table équivalente dans le cas de l'option de vente (put
Pour conclure, on peut constater que la méthode de quasi Monte-Carlo randomisé est — suivant les valeurs des paramètres — entre trois fois plus lente et plus rapide que la méthode d'échantillonnage par strates. En tout cas sur les deux exemples étudiés ici, les deux méthodes sont du même ordre de grandeur. Sachant que quasi Monte-Carlo randomisé est bien plus simple à implémenter, nous recommendons son usage en pratique comme méthode générale pour accélérer les algorithmes de Monte-Carlo.
-\printbibliography
-
\section{Choix de l'implémentation informatique}
-Dans cette dernière partie je parlerai de la façon dont j'ai implémenté les deux algorithmes présentés précedemment.
+Dans cette dernière partie je parlerai de la façon dont j'ai implémenté les deux algorithmes présentés précédemment.
-\subsection{quasi Monte-Carlo randomisé}
-Pour les deux exemples j'ai utilisé la suite de Sobol comme suites à discrépence faible. Pour les petites dimensions les suites de Sobol sont codées avec
-la GSL dans lowdiscrepancy.hpp obtenue sur la page du cours. Pour les dimensions plus importantes (supérieures à 40) j'ai utilisé une version codée avec
- la librairie NLOPT qu'on trouve dans sobolseq.c.
+\subsection{Quasi Monte-Carlo randomisé}
+Pour les deux exemples j'ai utilisé la suite de Sobol comme suites à discrépence faible. testé la méthode Halton, Pour les petites dimensions les suites de Sobol sont codées avec
+la GSL \cite{GSL} dans \texttt{lowdiscrepancy.hpp} obtenue sur la page du cours. Malheureusement, l'implémentation de la GSL est limitée à 40 dimensions. Pour les dimensions supérieures, j'ai utilisé une implémentation qui fait partie de la librairie NLopt \cite{nlopt} qui supporte jusqu'à 1111 dimensions. Cependant ces fonctions ne sont pas publiques, j'ai donc copié les fichiers directement \texttt{sobolseq.c} and \texttt{sobolseq.h}.
+
+\pagebreak
+\printbibliography
\end{document}