[摘要] 本文借助信息理論中的相對熵的概念和意義,應用最小相對熵原理給出一種新的計算VaR的非參數方法。
[關鍵詞] 在險價值(VaR) 最小相對熵原理
一、引言
目前,金融資產市場風險(也包括信用風險和操作風險)的通用度量工具為Value at Risk(VaR,一般被稱為“風險價值”或“在險價值”),早在1994年由JP Morgan公司提出,在幾個巴塞爾協議形成后,用VaR作為金融風險度量的一種有力工具,受到普遍關注,盡管VaR在概念上有缺點(不具有次可加性),但是目前仍是業界應用最廣泛,影響最大的一種風險度量方法。
影響VaR計算的主要因素是:樣本容量、置信水平,以及風險變量的分布函數。前兩者受主觀因素的影響,因人而異,所以VaR方法的核心在于描述金融時間序列的統計分布或概率密度函數。本文將從歷史數據入手,介紹一種應用最小相對熵估計未知分布求VaR的方法。
二、準備知識
定義1:風險價值指: 在正常市場條件下和一定的置信水平a上,測算出風險變量X在給定的時間段內預期發生的最壞情況的損失大小。這里風險變量X 除了表示市場風險外,還可以表示:(1)金融資產或金融組合的收益-損失或利潤;(2)較高或較低的頻率收益;(3)操作損失;(4)重大災難的保險索賠;(5)信任損失等。
風險價值(VaR)模型在數學上的嚴格定義如下:設X 是描述證券組合損失的隨機變量,F(x)是其概率分布函數,置信水平為a,則:。
例如,某一投資公司持有的證券組合在未來一天內,置信度為95%,證券市場正常波動的情況下,VaR值為200萬元。其含義是指,該公司的證券組合在一天內,由于市場價格變化而帶來的最大損失超過200萬元的概率為5%,平均20個交易日才可能出現一次這種情況?;蛘哒f有95%的把握判斷該投資公司在下一個交易日內的損失在800萬元以內5%的幾率反映了金融資產管理者的風險厭惡程度可根據不同的投資者對風險的偏好程度和承受能力來確定。
定義2:設離散隨機變量X的概率分布律為:,,隨機變量X的熵為:,P是一個列向量。其連續形式也是人們一般稱的微分熵(differetial entropy):
,其中f(x)是概率密度函數。
定義3:叉熵(Cross entropy,也叫 Kullback-Leibler散度或相對熵(Relative entropy)):指隨機變量X的叉熵為:,其中為待求的概率分布,而為先驗概率分布(故有且)。
倘若我們希望所選的概率分布,除滿足原有的約束條件外,還應盡量靠近一個先驗概率分布,則需要依據最小叉熵原理來解決。最小叉熵原理可表達為下述數學規劃問題:
(1)
其中為待求的概率分布,是優化問題的變量;而為先驗概率分布(故有且),在優化過程中僅作為參數對待。
最小化函數,起到使這種偏離盡可能小的作用。因此,根據最小叉熵原理所求得的概率分布,是在服從已知信息(矩約束)下的最接近先驗分布的一組概率分布。1980年Shore 和Johnson證明了在矩約束下的最小相對熵可以惟一地確定一個嚴格的、不變的、一致的密度函數,說明最小相對熵原理,是在服從已知信息條件下,找最接近先驗分布的一組概率分布,這使得這種方法被廣泛應用于各個領域,幾乎在所有的學術刊物上都可看到熵的名字。
下面計算一下最小叉熵優化問題(1)的解,構造問題(1)的拉格朗日函數:
(2)
因這個問題是一個變量可分離的凸規劃,它的全局最優解可由駐值條件和概率歸一化條件得:(3)
三、模型的建立
設X是一個隨機風險變量,它的未知累積分布函數為F(X),,則,其中表示累計分布的逆函數。假設這里的是單調的、嚴格遞增、絕對連續、非負的概率測度,相應的X的密度函數為f(x),則傳統的矩條件為:,其中。假設由已知數據已經估計出先驗的VaR值,則應用最小叉熵原理有:
,其中是樣本矩的值。
四、結論
本文考慮到影響VaR計算的三個因素,提出利用已知的信息,借助最小相對熵來估計密度函數再求VaR的方法。由于投資者主要考慮最大限度的損失是多少,所以對金融風險的關注主要是極端事件,但極端事件的數據比較少,難于采集,所以考慮應用最小叉熵原理,得到最接近客觀實際的一種估計,盡量減少由于信息缺乏而導致的誤差及計算偏差。
參考文獻:
[1][美]菲利普-喬瑞:風險價值VAR(第二版).中信出版社,2005-1-1
[2]Shannon, C. E. (1948). A mathematical theory of communication. Bell System Tech.J. 27,379 423, 623 656
[3]Kullback S. Information theory and statistics . NY:Wiley,1959
[4]Shore JE, Johnson RW. Axiomatic derivation of the principle of maximum entropy and the principle of minimum cross-entropy. IEEE Trans on Information Theory 1980;26(1):26 37