aboutsummaryrefslogtreecommitdiffstats
path: root/doc
diff options
context:
space:
mode:
authorBertrand <bertrand.horel@gmail.com>2016-04-20 16:19:48 +0200
committerBertrand <bertrand.horel@gmail.com>2016-04-20 16:19:48 +0200
commit54f074e63f7ddcf65c9d8ffa9009df2952558713 (patch)
tree8a5c581d4b15893f8ec950d7f2a1ca9ae177afa9 /doc
parent3c3152a92de663ce17131852465fe7cb0f484f77 (diff)
downloadprojet_C++-54f074e63f7ddcf65c9d8ffa9009df2952558713.tar.gz
suite explicatation exemple 2 stratified sampling
Diffstat (limited to 'doc')
-rw-r--r--doc/rapport.tex44
1 files changed, 34 insertions, 10 deletions
diff --git a/doc/rapport.tex b/doc/rapport.tex
index 1ec6f85..2ac3c72 100644
--- a/doc/rapport.tex
+++ b/doc/rapport.tex
@@ -144,7 +144,7 @@ En effet, toujours par l'inégalité de Jensen avec cette fois la suite des $q_i
Et si
\begin{equation}
\label{eqqi}
-\forall i \in \{1,...,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j}
+\forall i \in \{1,\ldots,I\} \quad q_i=\frac{p_i\sigma_i}{\sum_{j=1}^Ip_j\sigma_j}
\end{equation}
${Var}(\mu_{strat})$ atteindra la borne inférieure trouvée précédemment. Maintenant qu'on a décrit le principe de la méthode de l'échantillonnage stratifié,
et qu'on a trouvé quelle est la proportion optimale de tirages à faire par strates, intéressons nous à l'algorithme pour implémenter ce modèle.
@@ -186,25 +186,49 @@ On considère l'actif $S_t$ solution de l'équation différentielle stochastique
dS_t=VS_tdW_t+rS_tdt
\end{equation*}
où $r$ représente l'actif sans risque, $V$ la volatilité constante de $S_t$ et $W_t$ un processus de Wiener standard. Soit $ T > 0$ le temps de maturité
-de l'option et $(t_m = \frac{mT}{d})_{1\leq m\leq d}$ une suite de $d$ instants entre $0$ et $T$ où le prix de $S_t$ est connu. L'option asiatique A avec un
-prix d'exercice K a pour fonction payoff :
+de l'option et $(t_m = \frac{mT}{d})_{1\leq m\leq d}$ une suite de $d$ instants entre $0$ et $T$ où le prix de $S_t$ est connu. L'option asiatique $A$ avec un
+prix d'exercice $K$ a pour valeur au temps $0$ :
\begin{equation*}
-e^{-rT}(\frac{1}{d}\sum_{m=1}^dS_{t_m}-K)^+
+p=\E[e^{-rT}(\frac{1}{d}\sum_{m=1}^dS_{t_m}-K)^+]
\end{equation*}
-et le prix $p$ de cette option est l'espérance de ce payoff.
+qu'on va chercher à déterminer.
On peut exactement simuler la suite des $(S_{t_m})_{1\leq m\leq d}$ en posant $S_{t_0}=S_0$ et :
\begin{equation*}
-S_{t_m}=S_{t_{m-1}}exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \forall m \in {\{1,...,d\}}
+S_{t_m}=S_{t_{m-1}}exp([r-\frac{1}{2}V^2](t_m-t_{m-1}) + V\sqrt{t_m-t_{m-1}}X^m) \forall m \in \{1,\ldots,d\}
\end{equation*}
-où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme : $p = \E[g(X) \mathbf{1} _D(X)]$, où $g$
+où les $X_m$ sont des normales centrées réduites indépendantes. On cherche donc à calculer une espérance de la forme : $p = \E[ g(X) \mathbf{1} _D(X)]$, où $g$
est une fonction de $\mathbb{R}^d$ dans $\mathbb{R}$ et $D$ le domaine où $g$ est strictement positive. Dans leur article, Glasserman et al. proposent
de d'abord commencer par une méthode d'échantillonage préférentiel, ou importance sampling. Cette méthode consiste à décaler les variables $X$ pour changer
-leurs moyennes et diminuer la variance de notre estimateur par rapport à une méthode classique de Monte-Carlo.
-En effet si on constate que $\forall \mu \in{\mathbb{R}^d}$ on a :
+leurs moyennes, afin de donner plus de poids là où le payoff sera important et ainsi diminuer la variance de notre estimateur par rapport à une méthode
+classique de Monte-Carlo. En effet on constate que $\forall \mu \in{\mathbb{R}^d}$:
\begin{equation*}
-p = \E[g(X+\mu)]
+p = \E [g(X+\mu)e^{-\mu'X-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(X+\mu)]
\end{equation*}
+Ils affirment alors heuristiquement que la réduction de variance sera la plus importante pour $\mu^*$ tel que :
+\begin{equation*}
+\mu^* = \underset{x\in D}{argmax} (G(x) - \frac{1}{2}xx')
+\end{equation*}
+Ainsi on estimera $p$ par un estimateur de Monte-Carlo de $\E[ f_{\mu}(X) ]$ où $X\sim \mathcal{N}(0,I_d)$ et
+$f_{\mu}(x)=g(x+\mu)e^{-\mu'x-(\frac{1}{2})\mu'\mu}\mathbf{1} _D(x+\mu)$ avec $\mu = \mu^*$.
+
+On peut ensuite faire une méthode d'échantillonage stratifié pour calculer cet estimateur, où les différentes strates seront des intervalles $[a,b]$ de $\mathbb{R}$.
+On projette $X$ sur $\mathbb{R}$, si $u$ un vecteur de $\mathbb{R}^d$ de norme égale à $1$, on conditionne $X$ sachant $u'X \in [a,b]$. Les auteurs de l'article
+donnent d'ailleurs la méthode pour simuler ces lois conditionnelle.
+
+Soit $a, b$ les bornes de notre intervalle et $u$ un vecteur de $\mathbb{R}^d$ de norme 1.
+Notons F la fonction de répartition d'une normale centrée réduite. On simule d'abord $V = F(a) +U(F(b)-F(a))$ avec $U$ une uniforme sur $[0,1]$.
+Ensuite en calculant $Z = F^{-1}(V)$ et en simulant $Y \sim \mathcal{N}(0,I_d)$ on obtient une simulation de $X$ sachant $u'X \in [a,b]$ en posant :
+\begin{equation*}
+X=uZ+Y+u(u'Y)
+\end{equation*}
+Pour cette méthode d'échantillonage stratifié, Glasserman et ses coauteurs ont pris $u=\mu/(\mu'\mu)$ et ont choisi la répartion proportionnelle du nombre
+de tirages par strates (la répartition $q_i = p_i$ donné plus haut lors de la description de la méthode de stratified sampling). C'est à dire qu'ils ont découpé
+$\mathbb{R}$ en $I=100$ strates suivant les quantiles $1/100_{\textrm{ème}}$ de $\mathcal{N}(0,1)$ notés $y_i$ et ont alloué $N_i = N/I$ tirages par intervalles.
+
+Étoré et Jourdain ont donc refait le même travail avec leur algorithme adaptatif qui converge vers la répartition optimale $q_i=N_i/N$ posés dans \eqref{eqqi},
+technique utile dans ce cas car on ne connait pas la suite des $\sigma_i = \mathrm{Var}(f_{\mu}(X)|u'X\in [y_{i-1},y_i])$.
+
\printbibliography