From 92881bbd585901a207b6fd97b64b61a0b0b396d2 Mon Sep 17 00:00:00 2001 From: Bertrand Date: Thu, 28 Apr 2016 22:53:10 +0200 Subject: début description algo MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- doc/rapport.tex | 9 ++++++++- 1 file changed, 8 insertions(+), 1 deletion(-) (limited to 'doc') diff --git a/doc/rapport.tex b/doc/rapport.tex index aae5e00..efd6343 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -304,7 +304,14 @@ Regardons maintenant la table équivalente dans le cas de l'option de vente (put Pour conclure, on peut constater que la méthode de quasi Monte-Carlo randomisé est — suivant les valeurs des paramètres — entre trois fois plus lente et plus rapide que la méthode d'échantillonnage par strates. En tout cas sur les deux exemples étudiés ici, les deux méthodes sont du même ordre de grandeur. Sachant que quasi Monte-Carlo randomisé est bien plus simple à implémenter, nous recommendons son usage en pratique comme méthode générale pour accélérer les algorithmes de Monte-Carlo. -\newpage \printbibliography +\section{Choix de l'implémentation informatique} +Dans cette dernière partie je parlerai de la façon dont j'ai implémenté les deux algorithmes présentés précedemment. + +\subsection{quasi Monte-Carlo randomisé} +Pour les deux exemples j'ai utilisé la suite de Sobol comme suites à discrépence faible. Pour les petites dimensions les suites de Sobol sont codées avec +la GSL dans lowdiscrepancy.hpp obtenue sur la page du cours. Pour les dimensions plus importantes (supérieures à 40) j'ai utilisé une version codée avec + la librairie NLOPT qu'on trouve dans sobolseq.c. + \end{document} -- cgit v1.2.3-70-g09d2