diff options
Diffstat (limited to 'doc')
| -rw-r--r-- | doc/rapport.tex | 60 |
1 files changed, 35 insertions, 25 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex index 2ac3c72..08686c3 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -8,6 +8,7 @@ \addbibresource{rapport.bib} \newcommand{\E}{\mathbb{E}} \newcommand{\V}{\mathbb{V}} +\DeclareMathOperator*{\argmax}{arg\,min} \begin{document} \section*{Introduction} @@ -146,7 +147,7 @@ Et si \label{eqqi} \forall i \in \{1,\ldots,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j} \end{equation} -${Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié, +$\textrm{Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié, et qu'on a trouvé quelle est la proportion optimale de tirages à faire par strates, intéressons nous à l'algorithme pour implémenter ce modèle. \subsection{Description de l'algorithme} @@ -161,22 +162,27 @@ ce qui nous donnera un nouvel estimateur de $\mu$ (en utilisant les $N_1 + N_2$ \subsection{Calcul de l'espérance d'une loi normale} Dans ce premier exemple assez simple, on va chercher à calculer $ \mu = \E[X]$ où $X$ suit une loi normale centrée réduite \subsubsection{Échantillonnage stratifié} -Pour cet exemple, les strates $A_i$ seront au nombre de $10$ et $\forall i \in{\{1,...,10\}}$ $A_i =]y_{i-1}, y_i]$ où $y_i$ désigne -le quantile $i/10$ d'une loi normale, en prenant pour convention $y_0 = - \infty $ et $y_{10} = + \infty $. Ainsi la suite des probabilités $(p_i)_{1\leq i\leq 10}$ -est constante à $1/10$. Pour cet exemple Étoré et Jourdain ont effectué quatre étapes de leur algorithme avec $N_1 = 300, N_2 = 1300, N_3 = 11300$ +Pour cet exemple, les strates $A_i$ seront au nombre de $10$ et +\[\forall i \in{\{1,...,10\}}\quad A_i =]y_{i-1}, y_i] +\] +où $y_i$ désigne +le quantile en $i/10$ d'une loi normale, en prenant pour convention $y_0 = - \infty $ et $y_{10} = + \infty $. Ainsi la suite des probabilités $(p_i)_{1\leq i\leq 10}$ +est constante à $1/10$. Pour cet exemple, Étoré et Jourdain ont effectué quatre étapes de leur algorithme avec $N_1 = 300, N_2 = 1300, N_3 = 11300$ et $N_4 = 31300$, j'ai donc pris les mêmes nombres pour ma propre implémentation. \subsubsection{Quasi Monte Carlo randomisé} On cherche toujours à calculer $\mu$ mais cette fois avec la méthode de quasi Monte Carlo randomisé dont je rappelle l'estimateur : \begin{equation*} \frac{1}{I}\sum_{i=1}^I\frac{1}{N}\sum_{n=1}^N(\{\xi^{(n)}+X_{k}\}) \end{equation*} -Pour ce faire, j'ai utilisé la suite de Sobol à une dimension pour la suite $(\xi)_n$ et j'ai fixé $I$ constant à 100 et calculé l'estimateur pour -différents $N \in \{3; 13; 113; 313\}$ afin que le produit $NI$ nous donne les mêmes nombres de tirages des variables que dans le cas +Pour ce faire, j'ai utilisé la suite de Sobol à une dimension pour la suite $\xi^{(n)}$ et j'ai fixé $I$ constant à 100 et calculé l'estimateur pour +différents $N \in \{3; 13; 113; 313\}$ afin que le produit $NI$ nous donne les mêmes nombres de tirages des variables que dans le cas de l'échantillonnage stratifié. Ainsi on peut comparer les deux méthodes et obtenir le tableau suivant : +\begin{center} \input{table.tex} +\end{center} -${IC}_{strat}$ et ${IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenus avec les deux méthodes. En comparant ces tailles +$\textrm{IC}_{strat}$ et $\textrm{IC}_{rqmc}$ désignent les demi-tailles des intervalles de confiance pour {\mu} obtenus avec les deux méthodes. En comparant ces tailles on peut constater la plus grande efficacité de la méthode de quasi Monte-Carlo randomisé. \subsection{Modélisation du prix d'une option asiatique} @@ -185,7 +191,7 @@ On considère l'actif $S_t$ solution de l'équation différentielle stochastique \begin{equation*} dS_t=VS_tdW_t+rS_tdt \end{equation*} -où $r$ représente l'actif sans risque, $V$ la volatilité constante de $S_t$ et $W_t$ un processus de Wiener standard. Soit $ T > 0$ le temps de maturité +où $r$ représente le rendement de l'actif sans risque, $V$ la volatilité constante de $S_t$, et $W_t$ un processus de Wiener standard. Soit $ T > 0$ la date de maturité de l'option et $(t_m = \frac{mT}{d})_{1\leq m\leq d}$ une suite de $d$ instants entre $0$ et $T$ où le prix de $S_t$ est connu. L'option asiatique $A$ avec un prix d'exercice $K$ a pour valeur au temps $0$ : \begin{equation*} @@ -195,36 +201,40 @@ qu'on va chercher à déterminer. On peut exactement simuler la suite des $(S_{t_m})_{1\leq m\leq d}$ en posant $S_{t_0}=S_0$ et : \begin{equation*} -S_{t_m}=S_{t_{m-1}}exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \forall m \in \{1,\ldots,d\} +S_{t_m}=S_{t_{m-1}}\exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \quad\forall m \in \{1,\ldots,d\} \end{equation*} -où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme : $p = \E[ g(X) \mathbf{1} _D(X)]$, où $g$ -est une fonction de $\mathbb{R}^d$ dans $\mathbb{R}$ et $D$ le domaine où $g$ est strictement positive. Dans leur article, Glasserman et al. proposent -de d'abord commencer par une méthode d'échantillonage préférentiel, ou importance sampling. Cette méthode consiste à décaler les variables $X$ pour changer -leurs moyennes, afin de donner plus de poids là où le payoff sera important et ainsi diminuer la variance de notre estimateur par rapport à une méthode -classique de Monte-Carlo. En effet on constate que $\forall \mu \in{\mathbb{R}^d}$: +où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme: +\[p = \E[ g(X) \mathbf{1} _D(X)],\] +où $g$ est une fonction de $\mathbb{R}^d$ dans $\mathbb{R}$ et $D$ le domaine où $g$ est strictement positive. Dans leur article, Glasserman et al. proposent +de d'abord commencer par une méthode d'échantillonage préférentiel, ou importance sampling. Cette méthode consiste à décaler les variables $X$ pour changer +leurs moyennes, afin de donner plus de poids là où le payoff sera important et ainsi diminuer la variance de notre estimateur par rapport à une méthode +classique de Monte-Carlo. En effet, on remarque que $\forall \mu \in{\mathbb{R}^d}$: \begin{equation*} p = \E [g(X+\mu)e^{-\mu'X-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(X+\mu)] \end{equation*} -Ils affirment alors heuristiquement que la réduction de variance sera la plus importante pour $\mu^*$ tel que : +Ils affirment alors par un argument heuristique, puis par une preuve plus rigoureuse en utilisant la théorie des grandes déviations que la réduction de variance sera la plus importante pour $\mu^\star$ tel que : \begin{equation*} -\mu^* = \underset{x\in D}{argmax} (G(x) - \frac{1}{2}xx') +\mu^\star = \argmax_{x\in D} (G(x) - \frac{1}{2}xx') \end{equation*} -Ainsi on estimera $p$ par un estimateur de Monte-Carlo de $\E[ f_{\mu}(X) ]$ où $X\sim \mathcal{N}(0,I_d)$ et +avec $G(x)=\log(g(x))$. Finalement, on estimera $p$ par un estimateur de Monte-Carlo de $\E[ f_{\mu}(X) ]$ où $X\sim \mathcal{N}(0,I_d)$ et $f_{\mu}(x)=g(x+\mu)e^{-\mu'x-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(x+\mu)$ avec $\mu = \mu^*$. - -On peut ensuite faire une méthode d'échantillonage stratifié pour calculer cet estimateur, où les différentes strates seront des intervalles $[a,b]$ de $\mathbb{R}$. -On projette $X$ sur $\mathbb{R}$, si $u$ un vecteur de $\mathbb{R}^d$ de norme égale à $1$, on conditionne $X$ sachant $u'X \in [a,b]$. Les auteurs de l'article -donnent d'ailleurs la méthode pour simuler ces lois conditionnelle. -Soit $a, b$ les bornes de notre intervalle et $u$ un vecteur de $\mathbb{R}^d$ de norme 1. -Notons F la fonction de répartition d'une normale centrée réduite. On simule d'abord $V = F(a) +U(F(b)-F(a))$ avec $U$ une uniforme sur $[0,1]$. +On peut ensuite utiliser une méthode d'échantillonage stratifié pour calculer cet estimateur, où les différentes strates seront données par +\[ +A_i=\{X\in\mathbb{R}^d\textrm{ tels que }u'X\in [y_{i-1},y_i]\} +\] +avec $u$ un vecteur de norme 1 dans $\mathbb{R}^d$ et les $y_i$ seront les quantiles en $i/I$ d'une normale centrée réduite. Il nous faut donc pouvoir tirer la loi conditionelle de $X$ sachant $u'X\in [a, b]$. Les auteurs de l'article +donnent d'ailleurs la méthode pour simuler ces lois conditionnelle : + +Soient $(a, b)$ les bornes de notre intervalle et $u$ un vecteur de $\mathbb{R}^d$ de norme 1. +Notons $F$ la fonction de répartition d'une normale centrée réduite. On simule d'abord $V = F(a) +U(F(b)-F(a))$ avec $U$ une uniforme sur $[0,1]$. Ensuite en calculant $Z = F^{-1}(V)$ et en simulant $Y \sim \mathcal{N}(0,I_d)$ on obtient une simulation de $X$ sachant $u'X \in [a,b]$ en posant : \begin{equation*} X=uZ+Y+u(u'Y) \end{equation*} Pour cette méthode d'échantillonage stratifié, Glasserman et ses coauteurs ont pris $u=\mu/(\mu'\mu)$ et ont choisi la répartion proportionnelle du nombre -de tirages par strates (la répartition $q_i = p_i$ donné plus haut lors de la description de la méthode de stratified sampling). C'est à dire qu'ils ont découpé -$\mathbb{R}$ en $I=100$ strates suivant les quantiles $1/100_{\textrm{ème}}$ de $\mathcal{N}(0,1)$ notés $y_i$ et ont alloué $N_i = N/I$ tirages par intervalles. +de tirages par strates (la répartition $q_i = p_i$ donné plus haut lors de la description de la méthode de stratified sampling). Plus précisément, ils ont découpé +$\mathbb{R}$ en $I=100$ strates suivant les quantiles au $1/100^{\textrm{ème}}$ de $\mathcal{N}(0,1)$ notés $y_i$ et ont alloué $N_i = N/I$ tirages par intervalles. Étoré et Jourdain ont donc refait le même travail avec leur algorithme adaptatif qui converge vers la répartition optimale $q_i=N_i/N$ posés dans \eqref{eqqi}, technique utile dans ce cas car on ne connait pas la suite des $\sigma_i = \mathrm{Var}(f_{\mu}(X)|u'X\in [y_{i-1},y_i])$. |
