From 54f074e63f7ddcf65c9d8ffa9009df2952558713 Mon Sep 17 00:00:00 2001 From: Bertrand Date: Wed, 20 Apr 2016 16:19:48 +0200 Subject: suite explicatation exemple 2 stratified sampling --- doc/rapport.tex | 44 ++++++++++++++++++++++++++++++++++---------- 1 file changed, 34 insertions(+), 10 deletions(-) diff --git a/doc/rapport.tex b/doc/rapport.tex index 1ec6f85..2ac3c72 100644 --- a/doc/rapport.tex +++ b/doc/rapport.tex @@ -144,7 +144,7 @@ En effet, toujours par l'inégalité de Jensen avec cette fois la suite des $q_i Et si \begin{equation} \label{eqqi} -\forall i \in \{1,...,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j} +\forall i \in \{1,\ldots,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j} \end{equation} ${Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié, et qu'on a trouvé quelle est la proportion optimale de tirages à faire par strates, intéressons nous à l'algorithme pour implémenter ce modèle. @@ -186,25 +186,49 @@ On considère l'actif $S_t$ solution de l'équation différentielle stochastique dS_t=VS_tdW_t+rS_tdt \end{equation*} où $r$ représente l'actif sans risque, $V$ la volatilité constante de $S_t$ et $W_t$ un processus de Wiener standard. Soit $ T > 0$ le temps de maturité -de l'option et $(t_m = \frac{mT}{d})_{1\leq m\leq d}$ une suite de $d$ instants entre $0$ et $T$ où le prix de $S_t$ est connu. L'option asiatique A avec un -prix d'exercice K a pour fonction payoff : +de l'option et $(t_m = \frac{mT}{d})_{1\leq m\leq d}$ une suite de $d$ instants entre $0$ et $T$ où le prix de $S_t$ est connu. L'option asiatique $A$ avec un +prix d'exercice $K$ a pour valeur au temps $0$ : \begin{equation*} -e^{-rT}(\frac{1}{d}\sum_{m=1}^dS_{t_m}-K)^+ +p=\E[e^{-rT}(\frac{1}{d}\sum_{m=1}^dS_{t_m}-K)^+] \end{equation*} -et le prix $p$ de cette option est l'espérance de ce payoff. +qu'on va chercher à déterminer. On peut exactement simuler la suite des $(S_{t_m})_{1\leq m\leq d}$ en posant $S_{t_0}=S_0$ et : \begin{equation*} -S_{t_m}=S_{t_{m-1}}exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \forall m \in {\{1,...,d\}} +S_{t_m}=S_{t_{m-1}}exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \forall m \in \{1,\ldots,d\} \end{equation*} -où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme : $p = \E[g(X) \mathbf{1} _D(X)]$, où $g$ +où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme : $p = \E[ g(X) \mathbf{1} _D(X)]$, où $g$ est une fonction de $\mathbb{R}^d$ dans $\mathbb{R}$ et $D$ le domaine où $g$ est strictement positive. Dans leur article, Glasserman et al. proposent de d'abord commencer par une méthode d'échantillonage préférentiel, ou importance sampling. Cette méthode consiste à décaler les variables $X$ pour changer -leurs moyennes et diminuer la variance de notre estimateur par rapport à une méthode classique de Monte-Carlo. -En effet si on constate que $\forall \mu \in{\mathbb{R}^d}$ on a : +leurs moyennes, afin de donner plus de poids là où le payoff sera important et ainsi diminuer la variance de notre estimateur par rapport à une méthode +classique de Monte-Carlo. En effet on constate que $\forall \mu \in{\mathbb{R}^d}$: \begin{equation*} -p = \E[g(X+\mu)] +p = \E [g(X+\mu)e^{-\mu'X-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(X+\mu)] \end{equation*} +Ils affirment alors heuristiquement que la réduction de variance sera la plus importante pour $\mu^*$ tel que : +\begin{equation*} +\mu^* = \underset{x\in D}{argmax} (G(x) - \frac{1}{2}xx') +\end{equation*} +Ainsi on estimera $p$ par un estimateur de Monte-Carlo de $\E[ f_{\mu}(X) ]$ où $X\sim \mathcal{N}(0,I_d)$ et +$f_{\mu}(x)=g(x+\mu)e^{-\mu'x-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(x+\mu)$ avec $\mu = \mu^*$. + +On peut ensuite faire une méthode d'échantillonage stratifié pour calculer cet estimateur, où les différentes strates seront des intervalles $[a,b]$ de $\mathbb{R}$. +On projette $X$ sur $\mathbb{R}$, si $u$ un vecteur de $\mathbb{R}^d$ de norme égale à $1$, on conditionne $X$ sachant $u'X \in [a,b]$. Les auteurs de l'article +donnent d'ailleurs la méthode pour simuler ces lois conditionnelle. + +Soit $a, b$ les bornes de notre intervalle et $u$ un vecteur de $\mathbb{R}^d$ de norme 1. +Notons F la fonction de répartition d'une normale centrée réduite. On simule d'abord $V = F(a) +U(F(b)-F(a))$ avec $U$ une uniforme sur $[0,1]$. +Ensuite en calculant $Z = F^{-1}(V)$ et en simulant $Y \sim \mathcal{N}(0,I_d)$ on obtient une simulation de $X$ sachant $u'X \in [a,b]$ en posant : +\begin{equation*} +X=uZ+Y+u(u'Y) +\end{equation*} +Pour cette méthode d'échantillonage stratifié, Glasserman et ses coauteurs ont pris $u=\mu/(\mu'\mu)$ et ont choisi la répartion proportionnelle du nombre +de tirages par strates (la répartition $q_i = p_i$ donné plus haut lors de la description de la méthode de stratified sampling). C'est à dire qu'ils ont découpé +$\mathbb{R}$ en $I=100$ strates suivant les quantiles $1/100_{\textrm{ème}}$ de $\mathcal{N}(0,1)$ notés $y_i$ et ont alloué $N_i = N/I$ tirages par intervalles. + +Étoré et Jourdain ont donc refait le même travail avec leur algorithme adaptatif qui converge vers la répartition optimale $q_i=N_i/N$ posés dans \eqref{eqqi}, +technique utile dans ce cas car on ne connait pas la suite des $\sigma_i = \mathrm{Var}(f_{\mu}(X)|u'X\in [y_{i-1},y_i])$. + \printbibliography -- cgit v1.2.3-70-g09d2