aboutsummaryrefslogtreecommitdiffstats
path: root/doc/rapport.tex
diff options
context:
space:
mode:
Diffstat (limited to 'doc/rapport.tex')
-rw-r--r--doc/rapport.tex60
1 files changed, 35 insertions, 25 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index 2ac3c72..08686c3 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -8,6 +8,7 @@
\addbibresource{rapport.bib}
\newcommand{\E}{\mathbb{E}}
\newcommand{\V}{\mathbb{V}}
+\DeclareMathOperator*{\argmax}{arg\,min}
\begin{document}
\section*{Introduction}
@@ -146,7 +147,7 @@ Et si
\label{eqqi}
\forall i \in \{1,\ldots,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j}
\end{equation}
-${Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié,
+$\textrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié,
et qu'on a trouvé quelle est la proportion optimale de tirages à faire par strates, intéressons nous à l'algorithme pour implémenter ce modèle.
\subsection{Description de l'algorithme}
@@ -161,22 +162,27 @@ ce qui nous donnera un nouvel estimateur de $\mu$ (en utilisant les $N_1 + N_2$
\subsection{Calcul de l'espérance d'une loi normale}
Dans ce premier exemple assez simple, on va chercher à calculer $ \mu = \E[X]$ où $X$ suit une loi normale centrée réduite
\subsubsection{Échantillonnage stratifié}
-Pour cet exemple, les strates $A_i$ seront au nombre de $10$ et $\forall i \in{\{1,...,10\}}$ $A_i =]y_{i-1}, y_i]$ où $y_i$ désigne
-le quantile $i/10$ d'une loi normale, en prenant pour convention $y_0 = - \infty $ et $y_{10} = + \infty $. Ainsi la suite des probabilités $(p_i)_{1\leq i\leq 10}$
-est constante à $1/10$. Pour cet exemple Étoré et Jourdain ont effectué quatre étapes de leur algorithme avec $N_1 = 300, N_2 = 1300, N_3 = 11300$
+Pour cet exemple, les strates $A_i$ seront au nombre de $10$ et
+\[\forall i \in{\{1,...,10\}}\quad A_i =]y_{i-1}, y_i]
+\]
+où $y_i$ désigne
+le quantile en $i/10$ d'une loi normale, en prenant pour convention $y_0 = - \infty $ et $y_{10} = + \infty $. Ainsi la suite des probabilités $(p_i)_{1\leq i\leq 10}$
+est constante à $1/10$. Pour cet exemple, Étoré et Jourdain ont effectué quatre étapes de leur algorithme avec $N_1 = 300, N_2 = 1300, N_3 = 11300$
et $N_4 = 31300$, j'ai donc pris les mêmes nombres pour ma propre implémentation.
\subsubsection{Quasi Monte Carlo randomisé}
On cherche toujours à calculer $\mu$ mais cette fois avec la méthode de quasi Monte Carlo randomisé dont je rappelle l'estimateur :
\begin{equation*}
\frac{1}{I}\sum_{i=1}^I\frac{1}{N}\sum_{n=1}^N(\{\xi^{(n)}+X_{k}\})
\end{equation*}
-Pour ce faire, j'ai utilisé la suite de Sobol à une dimension pour la suite $(\xi)_n$ et j'ai fixé $I$ constant à 100 et calculé l'estimateur pour
-différents $N \in \{3; 13; 113; 313\}$ afin que le produit $NI$ nous donne les mêmes nombres de tirages des variables que dans le cas
+Pour ce faire, j'ai utilisé la suite de Sobol à une dimension pour la suite $\xi^{(n)}$ et j'ai fixé $I$ constant à 100 et calculé l'estimateur pour
+différents $N \in \{3; 13; 113; 313\}$ afin que le produit $NI$ nous donne les mêmes nombres de tirages des variables que dans le cas
de l'échantillonnage stratifié. Ainsi on peut comparer les deux méthodes et obtenir le tableau suivant :
+\begin{center}
\input{table.tex}
+\end{center}
-${IC}_{strat}$ et ${IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenus avec les deux méthodes. En comparant ces tailles
+$\textrm{IC}_{strat}$ et $\textrm{IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenus avec les deux méthodes. En comparant ces tailles
on peut constater la plus grande efficacité de la méthode de quasi Monte-Carlo randomisé.
\subsection{Modélisation du prix d'une option asiatique}
@@ -185,7 +191,7 @@ On considère l'actif $S_t$ solution de l'équation différentielle stochastique
\begin{equation*}
dS_t=VS_tdW_t+rS_tdt
\end{equation*}
-où $r$ représente l'actif sans risque, $V$ la volatilité constante de $S_t$ et $W_t$ un processus de Wiener standard. Soit $ T > 0$ le temps de maturité
+où $r$ représente le rendement de l'actif sans risque, $V$ la volatilité constante de $S_t$, et $W_t$ un processus de Wiener standard. Soit $ T > 0$ la date de maturité
de l'option et $(t_m = \frac{mT}{d})_{1\leq m\leq d}$ une suite de $d$ instants entre $0$ et $T$ où le prix de $S_t$ est connu. L'option asiatique $A$ avec un
prix d'exercice $K$ a pour valeur au temps $0$ :
\begin{equation*}
@@ -195,36 +201,40 @@ qu'on va chercher à déterminer.
On peut exactement simuler la suite des $(S_{t_m})_{1\leq m\leq d}$ en posant $S_{t_0}=S_0$ et :
\begin{equation*}
-S_{t_m}=S_{t_{m-1}}exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \forall m \in \{1,\ldots,d\}
+S_{t_m}=S_{t_{m-1}}\exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \quad\forall m \in \{1,\ldots,d\}
\end{equation*}
-où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme : $p = \E[ g(X) \mathbf{1} _D(X)]$, où $g$
-est une fonction de $\mathbb{R}^d$ dans $\mathbb{R}$ et $D$ le domaine où $g$ est strictement positive. Dans leur article, Glasserman et al. proposent
-de d'abord commencer par une méthode d'échantillonage préférentiel, ou importance sampling. Cette méthode consiste à décaler les variables $X$ pour changer
-leurs moyennes, afin de donner plus de poids là où le payoff sera important et ainsi diminuer la variance de notre estimateur par rapport à une méthode
-classique de Monte-Carlo. En effet on constate que $\forall \mu \in{\mathbb{R}^d}$:
+où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme:
+\[p = \E[ g(X) \mathbf{1} _D(X)],\]
+où $g$ est une fonction de $\mathbb{R}^d$ dans $\mathbb{R}$ et $D$ le domaine où $g$ est strictement positive. Dans leur article, Glasserman et al. proposent
+de d'abord commencer par une méthode d'échantillonage préférentiel, ou importance sampling. Cette méthode consiste à décaler les variables $X$ pour changer
+leurs moyennes, afin de donner plus de poids là où le payoff sera important et ainsi diminuer la variance de notre estimateur par rapport à une méthode
+classique de Monte-Carlo. En effet, on remarque que $\forall \mu \in{\mathbb{R}^d}$:
\begin{equation*}
p = \E [g(X+\mu)e^{-\mu'X-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(X+\mu)]
\end{equation*}
-Ils affirment alors heuristiquement que la réduction de variance sera la plus importante pour $\mu^*$ tel que :
+Ils affirment alors par un argument heuristique, puis par une preuve plus rigoureuse en utilisant la théorie des grandes déviations que la réduction de variance sera la plus importante pour $\mu^\star$ tel que :
\begin{equation*}
-\mu^* = \underset{x\in D}{argmax} (G(x) - \frac{1}{2}xx')
+\mu^\star = \argmax_{x\in D} (G(x) - \frac{1}{2}xx')
\end{equation*}
-Ainsi on estimera $p$ par un estimateur de Monte-Carlo de $\E[ f_{\mu}(X) ]$ où $X\sim \mathcal{N}(0,I_d)$ et
+avec $G(x)=\log(g(x))$. Finalement, on estimera $p$ par un estimateur de Monte-Carlo de $\E[ f_{\mu}(X) ]$ où $X\sim \mathcal{N}(0,I_d)$ et
$f_{\mu}(x)=g(x+\mu)e^{-\mu'x-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(x+\mu)$ avec $\mu = \mu^*$.
-
-On peut ensuite faire une méthode d'échantillonage stratifié pour calculer cet estimateur, où les différentes strates seront des intervalles $[a,b]$ de $\mathbb{R}$.
-On projette $X$ sur $\mathbb{R}$, si $u$ un vecteur de $\mathbb{R}^d$ de norme égale à $1$, on conditionne $X$ sachant $u'X \in [a,b]$. Les auteurs de l'article
-donnent d'ailleurs la méthode pour simuler ces lois conditionnelle.
-Soit $a, b$ les bornes de notre intervalle et $u$ un vecteur de $\mathbb{R}^d$ de norme 1.
-Notons F la fonction de répartition d'une normale centrée réduite. On simule d'abord $V = F(a) +U(F(b)-F(a))$ avec $U$ une uniforme sur $[0,1]$.
+On peut ensuite utiliser une méthode d'échantillonage stratifié pour calculer cet estimateur, où les différentes strates seront données par
+\[
+A_i=\{X\in\mathbb{R}^d\textrm{ tels que }u'X\in [y_{i-1},y_i]\}
+\]
+avec $u$ un vecteur de norme 1 dans $\mathbb{R}^d$ et les $y_i$ seront les quantiles en $i/I$ d'une normale centrée réduite. Il nous faut donc pouvoir tirer la loi conditionelle de $X$ sachant $u'X\in [a, b]$. Les auteurs de l'article
+donnent d'ailleurs la méthode pour simuler ces lois conditionnelle :
+
+Soient $(a, b)$ les bornes de notre intervalle et $u$ un vecteur de $\mathbb{R}^d$ de norme 1.
+Notons $F$ la fonction de répartition d'une normale centrée réduite. On simule d'abord $V = F(a) +U(F(b)-F(a))$ avec $U$ une uniforme sur $[0,1]$.
Ensuite en calculant $Z = F^{-1}(V)$ et en simulant $Y \sim \mathcal{N}(0,I_d)$ on obtient une simulation de $X$ sachant $u'X \in [a,b]$ en posant :
\begin{equation*}
X=uZ+Y+u(u'Y)
\end{equation*}
Pour cette méthode d'échantillonage stratifié, Glasserman et ses coauteurs ont pris $u=\mu/(\mu'\mu)$ et ont choisi la répartion proportionnelle du nombre
-de tirages par strates (la répartition $q_i = p_i$ donné plus haut lors de la description de la méthode de stratified sampling). C'est à dire qu'ils ont découpé
-$\mathbb{R}$ en $I=100$ strates suivant les quantiles $1/100_{\textrm{ème}}$ de $\mathcal{N}(0,1)$ notés $y_i$ et ont alloué $N_i = N/I$ tirages par intervalles.
+de tirages par strates (la répartition $q_i = p_i$ donné plus haut lors de la description de la méthode de stratified sampling). Plus précisément, ils ont découpé
+$\mathbb{R}$ en $I=100$ strates suivant les quantiles au $1/100^{\textrm{ème}}$ de $\mathcal{N}(0,1)$ notés $y_i$ et ont alloué $N_i = N/I$ tirages par intervalles.
Étoré et Jourdain ont donc refait le même travail avec leur algorithme adaptatif qui converge vers la répartition optimale $q_i=N_i/N$ posés dans \eqref{eqqi},
technique utile dans ce cas car on ne connait pas la suite des $\sigma_i = \mathrm{Var}(f_{\mu}(X)|u'X\in [y_{i-1},y_i])$.