非线性期望理论与基于模型不确定性的风险度量,本文主要内容关键词为:不确定性论文,度量论文,模型论文,风险论文,理论论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
自13世纪至今,全球范围内发生了为数众多、不同形式的金融危机。其中,仅就主权信用危机和银行危机而言,据不完全统计:1300~1799年,英、法、德和西班牙等主要欧洲国家外债违约情况至少出现了19次;1800~2009年,世界范围内发生了至少250次主权外债违约和68次主权内债违约;1800~2008年,欧洲、美洲、亚洲等世界各地则至少经历了359次银行危机。而在历次危机中,相应各国和地区的实体经济无一例外地遭受了不同程度的负面冲击。①一个不争的事实即为:几百近千年来,世界各经济体从未摆脱过金融风险与危机,其在持续威胁、影响着经济的平稳增长及社会发展。然而,我们对“如何审慎测度与监控金融风险,以实现对危机的有效防范”这一问题的理解、理论研究,以及监测、防控实践依然不足。 而2007~2008年全球性金融危机则不仅再度揭示了金融体系的错综复杂性及系统性风险和金融危机对实体经济的严重冲击与影响,并再一次证实了现有的风险监测方法与工具无法有效防范(系统性)金融风险的恶性衍生及危机的发生。而就在世界经济处于次贷危机后的勉力复苏之际,源于欧洲的主权债务危机再度引起了全球范围内有关各方的密切关注。相关国家和地区主权部门信用风险、继而银行风险、系统性风险的攀升切实影响了世界经济的走势。随之而来的塞浦路斯金融危机则又进一步加剧了区域性恐慌。 与此同时,随着我国经济、金融所面临的国际、国内环境日益复杂,“切实防范化解各类金融风险”、“确保不发生区域性、系统性金融风险”已成为我国政府与监管当局高度重视的问题与重要工作任务。 总之,金融风险管理技术与方法的发展与完善是我国及世界经济、金融平稳发展中务需解决的问题,也是国际相关政策界亟待实现监管理论与实践创新的领域。不仅如此,其还是一项非常有趣的理论挑战,是攻克一个持久困扰金融学界、业界与监管界的难题;而且,正如经济学大师C.Menger、I.Fisher、F.Edgeworth、F.Knight等均曾指出的:风险与不确定性问题将深刻改变整个经济学的体系与内容。而开拓对不确定性的量化分析及涵纳不确定性因素的审慎风险监测理论与技术意义深远。此即本文致力于研究的主要方向。 二、简析现行主要风险监测技术 如我们所知,风险测度通常与概率统计密不可分,如VaR(value at risk)和ES(expected shortfall)等巴塞尔银行监管委员会推荐用于交易账户市场风险最低资本要求计算的风险指标、再如穆迪公司(Moody′s)基于诺贝尔经济学奖得主R.Merton获奖成果所推出的并在国际范围内得到广泛使用的KMV方法等均基于一定的概率统计模型。然而,简言之,现行/经典的概率统计理论与方法在应用于此领域时存在大致两类问题:(1)对实际经济、金融数据分布形状刻画的精准度问题;(2)参数估计的精准度问题。②如下先以经济、金融中常用的概率统计模型——正态分布为例简要说明此问题。 不言而喻,在分布形状方面,正态分布无法体现实际经济、金融数据的“尖峰厚尾”特性,从而难以捕捉厚尾风险。此缺陷的严重危害性在2007~2008年全球性金融危机中毕露无遗。而就其一矩、二矩参数的估计而言,最为常用的方法则是:历史数据推算法,即以基于一定时域历史数据所计算的参数作为未来时点随机变量概率分布的特征值。其背后的简单逻辑假设即为:历史将在未来再度上演。仅从常识层面判断即可知此假设偏离现实情况、难以成立;从哲学理论角度来看,其是“类比原则”(principle of analogy)等逻辑的初级体现。也即,基于有限理性,我们是通过假定在过去成立的现象之间的关联也将在当前及未来成立的情况下,才得以从已有推知缺失、从现在推知未来。也就是说,我们对知识教条性的假设即是:我们所面对的世界是由这样的一些“事物”(things)所构成的,他们在同样的环境中将按同样的方式变化。从而可知,对“推断”或者“预测”而言,实质性的问题即围绕着这一假设中的前两个因素:(1)我们所考察和面对的是怎样的事物;(2)它们变化的条件性环境是怎样的。进而可知,这一假设的成立程度取决于这样一个重要的问题:宇宙在多大程度上是由具有既定变化方式的事物所构成的呢?应该讲,我们日常所见的一般事物都不具备这一属性,人和动物则确定不属于这一类“事物”。进而可知人类的社会、经济活动亦不具备此属性。③ 此外,在KMV或CCA(未定权益分析)方法中,对一矩与二矩参数的其他估计方法也不尽完善。譬如,就一矩参数而言,国际金融界时常采用零息债券收益率;在国内,对于相关数据的选用仍有争议,但不论使用Repo利率或存款利率,均可知,它们不为常数。所以,以随机变量的当前值作为其未来某一时刻取值的方法本身就是有风险的。而对于二矩参数的估计,除了前文提及的历史数据方法外,较为常用的还有隐含波动率推算法。与历史波动率相比,隐含波动率因纳入了一定的预期因素,被喻为是对未来概率分布方差的更好估计。但是,从著名的波动率微笑现象和VIX指数(股指期权隐含波动率加权平均值)的剧烈波动来看,隐含波动率也具有相当的不稳定性。 为解决如上两类问题,金融理论界、实业界与监管界已涌现出繁多的研究与大量的成果。其中,混合模型(mixture model)、隐含分布(implied distributions)等方法有效提升了对分布形状刻画的精准度,但在参数估计方面进益颇微;非参估计(nonparametric estimation)等方法虽然在两类问题的处理方面均另辟蹊径、颇见成效,但若将其应用于预估未来分布,却难免再度因循“历史重现”的逻辑;而时变波动率(time-varying volatility)、跳扩散模型(jumps-diffusion)、随机波动率(stochastic volatility)、自回归条件异方差模型(autoregressive conditional heteroskedasticity model)等方法则不仅在一定程度上兼顾了分布形状的问题,而且将波动率变化这一动态因素以不同形式纳入考量,在参数估计精准度与合理性方面实现了显著提升。 但是,2007~2008年全球性金融危机已实证如上所有模型依然不足以有效防范风险。那么,这些已在不同程度获得认可与应用的解决方案所可能存在的核心问题是什么?换言之,实际经济、金融数据的分布形状是否可能被精准刻画或究竟是否可能推知随机变量于未来时点的具体分布形状?应如何更为精准地估算概率统计模型的相关参数或其是否可能被准确估计?也即,在时刻是否能够有效地确定时刻的概率分布进而实现对风险的审慎监测? 美国次贷危机后,如上问题是国际相关理论界深度反思的焦点之一。而其在此过程中的一个显著改变即为:开始重新重视芝加哥学派鼻祖F.Knight关于不确定性及概率理论的论述。概括而言,Knight基于人类认识、行为逻辑的一般规律指出,不同于先验概率中具有确定性的概率测算,商业风险中的概率仅是一个含有不确定性的估计值。④也即,从Knight对客观世界中事物变化规律、经济商业环境中概率统计精确性、以及人类面对复杂客观经济现实的有限认知能力等方面的表述可明确推知:在经济、金融领域,基于时刻及此前数据所推算的未来时刻的概率分布仅是对时刻实际分布的一个相对粗略的“估计”。而含有预期因素的隐含波动率等则同样受到我们有限认知能力、推断能力等的制约,从而与未来真实值之间有所偏差。所以,未将不确定性纳入考量的现有/经典概率统计理论在经济、社会科学中的适用性是不完备的。⑤ 因而,本文所要研究的问题可总结为:在无法确定的预测未来(资产价值)概率分布的情况下,也即概率统计模型不确定的情况下,我们如何较为有效、更为审慎地测度风险?或者是否能够量化分析这种不确定性?为解决此问题,我们的思路是:首先厘清概率统计模型在经济、金融领域存在不确定性的根源与必然性,及此不确定性具体、全面的表现形式。而为实现此研究目标,我们拟摒弃主观假设与推断,以客观经济、金融数据为切入点,利用适当的统计分析方法呈现经济、金融数据的内在逻辑。 三、对经济/金融概率统计模型不确定性的实证与理论分析 要揭示经济、金融数据的内在逻辑性,我们需要开发、探索相应的统计分析方法与模型,目标是:尽可能避免主观臆断及构造抽象的或简化性假设,而在“弱假设”或“无假设”条件下呈现客观数据自身的规律与属性。因而,在首先简介相关统计分析方法之后,本节将通过实证分析展示离散情况下经济、金融数据的内在逻辑;继而,在理论推导的基础上,进一步阐明连续情况下可能存在的数据属性,并简要分析结论性概率统计表征的概率统计与经济学涵义。 (一)离散情况下经济、金融数据的内在逻辑性 在历经近2年时间、自行开发兼查找搜索了大量统计模型之后,我们寻觅到了最有利于辅助实现相应研究目的的自回归条件异方差过程的多变点识别方法,该方法是Fryzlewicz & Rao(2014)观察到金融危机期间市场统计结构在短期内频繁变化的现象,认为这凸显出对金融时间序列进行非静态建模的重要性,因而提出了BASTA(binary segmentation for transformed auto-regressive conditional heteroskedasticity)技术,在对原始数据不作任何假设的前提下,先后通过对时间序列的转换与二元分割两步骤实现多变点识别。其基于FTSE 100指数的实证检验表明:所估计的序列断点与金融危机时期的重要时点均形成甚佳契合。基于对BASTA技术的理论推导甄别及鉴定,并通过加入正态检验等分析插件程序,经过大规模、多样化的数据检验,我们进一步证实了该方法对于呈现经济、金融数据内在逻辑性的适用性与有效性。⑥如下仅以S&P 500指数1950年第1季度初至2015年第1季度末日交易数据、上证综指1990年第4季度至2015年第1季度日交易数据为例展示BASTA技术所揭示的金融数据的演变规律。⑦ 就S&P 500数据而言,在相应分析时域上,数据量总计16435个,自回归条件异方差过程的多变点识别方法共识别断点845个,即数据分组数为846个。其中,可通过正态检验的数组为667个;未通过正态检验的数组为179个。分段数据的估计均值值域为[-0.033802,0.014489],估计标准差值域为[0.000420,0.100492]。而对上证综指数据的分析表明,1990年12月19日至2015年3月31日期间,在数据总量为6237个的情况下,分组数为314个,其中233个通过正态检验,81个未能通过。对应的均值与标准差值域分别为:[-0.031585,0.044379];[0.000118,0.166473]。上述简要的数据分析表明,与预期所符:较为成熟的美国金融市场相对稳定,而我国市场的波动率更大、阶段性变化、系统性迁移更为显著。而且,由此可知,以正态分布作为经济、金融常用的概率统计模型不无道理,但同时也确有失严谨。因在相当比例的情况下,分段数据的具体分布形状不明。而在风险控制领域,对概率分布模型的过度简化则必将导致无法实现对风险的有效监控与防范。⑧此外,另一有趣现象是,就我国数据而言,非正态分布数组的占比更高、分布形态变化更剧烈,在一定程度上反映出:现阶段我国的金融市场与体系仍处在发展过程之中,具有不确定性较强、显性或隐性干扰因素较多等特点;同时进一步说明在我国特殊经济、金融发展现状情况下照搬国外风险管理方法的弊端与隐患更大,从而强调了探索更为适合我国国情的风管技术的必要性。⑨ 表1总结了S&P 500数据2013/01至2015/01的分析结果;表2则为同一时间窗口上证综指数据的分析结论。表中前两列标示了数据的起止时间,具体而言为时间序列数据不规则分段的起始与终止时点。第3列数据标明了对应时间段数组的正态检验状态,其中“0”为通过正态检验;“1”为未能通过。而表中最后两列则体现了对应数组的估计均值与标准差。两表均清晰表明:各组数据不仅分布形状不尽相同,其估计均值与标准差也在不断变化。就分析时域上各分段数据估计标准差的平均值而言,上证综指数据与S&P 500数据分别对应的数值为:0.011450与0.006110;估计标准差的值域则分别为[0.003294,0.050156]及[0.000593,0.016541]。 由时间序列数据的如上内在规律可知,就经济、金融数据而言,不宜简单地依照日历时间或财务时间划分时段(如:1个财务年度;1个季度;1个月等等),更不应强行假定相应时段的数据出于同一概率分布、具有确定的和/或共同的参数值。换言之,由“同一”经济现象所生成的时间序列数据并不源于同一概率分布,而是来自于各不相同的分布,具体表现为分布形状、均值与方差的频繁、持续变化。不仅如此,从此3因素及数据分组跨度来看,这种概率分布的变化规律又难以准确把握,也即具有不确定性。⑩因而,在预测未来某一具体时点概率分布时,必然难以精准推算其具体形状及参数,从而也无法基于其有效度量风险、防范危机。同理,亦难以以具有确定参数/参数变化规律、或确定分布形态的概率统计模型刻画、总结现实数据的这一客观的、不确定的属性。换言之,如要较为精准地刻画经济、金融数据的这一本质属性,实现对风险的审慎监测,我们需要能够涵纳这种不确定性的概率统计模型。 (二)对连续时间上经济、金融数据内在逻辑的推导 此前,基于离散的交易日数据,我们展示了经济/金融数据自然分组、呈现阶段性与差异化概率统计特征的特性,即概率统计模型不确定性存在的根源。如下拟简要推导论证相应数据在连续时间上具有相同性质,从而阐明概率统计模型不确定性存在的必然性。为此,我们将从高频数据分析入手,虽然高频数据亦是离散的,但其对相应的推导论证过程具有一定的过渡意义。 我们以沪深300股指期货2011/01~2015/04数据及BASTA分析方法系统性分析了高频数据的概率统计特征。如下仅以2015年第2季度第1个交易日数据为例予以说明。就2015年4月1日主力合约的5秒数据而言,总数据量为3240个。分组总数为239个,其中通过正态检验的数组为175个,未通过的为64个。表3总结了11:00am~11:30am及14:30pm—15:00pm的数据分析结果。此表说明,高频数据亦展示出不规则分组的现象,且分段数据的均值与方差呈现不规律、持续变动特征。更为重要的是,高频数据的分析结论表明:随统计间隔的缩短,单位时间(如:1年、1个季度、1个月等)内的分组数会越来越多。而极限情况下,时间变为连续值域,分组数或趋于无穷,概率分布参数或趋于在连续值域上变动。 综上所述,经济、金融数据的概率统计特征全面、具体的表现形式为:均值不确定性、方差不确定性、分布形状不确定性与分布量无穷。因而对应的概率统计模型也应涵纳如上所有不确定性。究其缘由,此不确定性源于:持续变化的“商业环境”(Knight,1921)或经济、金融宏微观基本面情况,引致现实经济社会具有系统迁移性,且应对此变化性环境的经济人具有主观不确定性等诸类行为金融学所关注的特性,体现在基于有限认知能力的概率统计中即为不同的阶段性分布规律。如我们所知,部分经典经济学论著从不同的角度、以不同的范畴分析了类似问题。但该“不确定性”的现实依据与理论探讨虽不容忽视,至关重要的问题却在于:如何设计、构造能将其纳入考量的概率统计模型,及是否能够对其进行定量分析。传统的风险测度理论与方法正是在(1)忽略了这一客观经济规律;或(2)技术、工具不充分的情况下,无法将这种不确定性因素纳入考量,从而低估了风险。 四、非线性期望理论与风险测度 正如Knight(1921)所及:应通过科学研究和数据积累增加我们关于未来的知识,以应对不确定性。非线性期望理论即为这样一类有助于我们应对不确定性的科学研究。 (一)非线性期望理论及其应用简介 1.非线性期望理论(G—期望理论)的演生与发展 自2005年起,彭实戈院士逐步创立与完善了非线性期望理论。追本溯源,Peng(1997)即通过倒向随机微分方程引入动态非线性期望——g—期望理论。虽不同于G—期望理论对概率分布不确定性及模型不确定性更为全面的诠释,g—期望理论已可有效分析、处理资产价值波动的均值不确定性问题。1999年,4位著名法国数学家Artzner et al.重新审视了线性风险概率统计模型,通过引入相容风险测度(coherent measures of risk)的概念探讨了纳入“不确定性”的风险模型,从而引入了一类特殊的非线性概率统计模型——次线性概率统计模型。此后,Peng(2004,2005)和Denis & Martini(2006)分别从期望与概率两个角度对包含波动率不确定性的次线性概率模型进行了各自独立的研究。其中,Peng(2005)引入了一类新型非线性期望——时间相容次线性期望,即:G—期望(标记为:),其可处理g—期望所不能涵纳的波动率不确定性问题。此后,G—期望理论逐步发展完善。简言之,Peng(2007b,2008)给出G—正态分布的定义,证明了概率模型不确定情况下的大数定律—中心极限定理;继而定义了新的布朗运动:G—布朗运动;推导了相应的Ito随机计算;给出了由G—布朗运动驱动的随机微分方程和倒向随机微分方程等理论结果。(11) 近年来,世界范围内此领域的学者们在不断推出重要研究成果,持续推动G—期望理论的发展,如:概率—统计分布不确定情况下的强大数定理与重对数率定理理论证明(Chen,2011;2013);G—期望框架下的停时问题研究(Li and Peng,2011);完备的G—鞅表示定理(Peng et al.,2014);G—鞅所驱动倒向随机微分方程的存在唯一性定理(Hu et al.,2014)等等。 2.非线性期望理论在经济/金融中的应用研究现状与发展动态 认识到非线性期望理论对经济、金融量化分析技术与方法的变革性意义,众多数学、金融数学与金融领域的研究人员致力于此方面研究。虽然由于金融、数学跨学科融会贯通的困难,进益颇缓,但成果多为经济、金融领域的攻坚之作,具有深远的理论与现实意义,如下简要探讨相关显著性成果。 Chen & Epstein(2002)基于G—期望理论推出连续时间动态多先验效用函数,从而有效诠释了资产回报中的模糊性溢价部分,该突破性成果在金融与金融数学领域影响重大,诺贝尔经济学奖得主Thomas Sargent与Lars Peter Hansen分别于9篇论文与一本专著中对其进行引用与评述。Epstein&Ji(2013)提出了波动率不确定条件下所适用的新型C—CAPM(基于消费的资本资产定价模型),而其更强解释力的重要体现之一即为:清晰诠释了Black-Scholes隐含波动率大于实现波动率这一长期备受关注的期权价格问题。不仅如此,受有关G—CCA方法研究(宫晓琳和杨淑振,forthcoming)的启发,Epstein & Ji(2014)在非线性期望理论基础上提出包含预期概率均值与方差不确定性的决策者效用函数,根本性的区别于此前连续时间框架下的相应效用函数,从而为资产定价理论的前沿发展奠定了无可或缺的重要基础。而相较于由两位诺贝尔经济学奖得主K.Arrow和G.Debreu所提出的经济均衡一价理论,以G—期望理论为分析工具,Madan(2012)阐发了具有重要风险管理意义的二价金融均衡理论,引起国际学术界的高度关注。宫晓琳等(2015)则首度实现了以G—期望理论直接改进风险管理技术的创新,将著名的CCA方法(莫顿模型)进益为基于非线性概率模型的新一代风险测度模型,不仅通过增强其干扰包容性而拓展了其适用范围,而且通过纳入对漂移率风险的考量,拓展了该模型的风险监控覆盖范围。同时,借鉴G—期望理论的核心原理,Gong et al.(2013)及宫晓琳等(2014)开创了一类新的模糊性概率统计模型RLND(random limit normal distribution),以优化对厚尾风险的建模,辅助银行测算、储备充足资本以应对小概率、大危害的厚尾事件;并在此基础上提出了审慎性风险监管指标R-VaR与R-ES。该文有幸成为第一次被银行业最高国际监管与法规制定组织——巴塞尔银行监管委员会所召集的、世界范围内银行监管研讨会所接受和关注的国内论文。 (二)非线性期望理论对不确定性的处理 我们将剖析非线性期望理论在理论构建与模型设计中如何处理具有一系列不同表现形式的不确定性,并基于无穷量概率分布实现对风险的审慎测度。为了更加清晰、透彻地展开相应分析,本文将以我们熟悉、常用的线性概率理论为参照,通过逐步比较的方式阐明上述问题。 继而,有异于线性概率中随机变量的分布由一个确定的分布函数决定,非线性期望空间中随机变量的分布由满足如下条件的函数所组成的线性空间来刻画:其中满足: C>0,m∈N依赖函数的选取。 也即,在非线性期望理论框架下,不再假定随机变量的概率分布是唯一的或确定的,也不再对其分布作抽象的、简化的形式表达;而是在认可其具有不确定性的前提下,通过包含大量函数的线性空间描绘真实的概率分布。 在简要界定了非线性期望空间及其随机变量的分布之后,如下我们将逐步探讨各类不确定性是如何体现在具体的模型构建之中的。 1.G—期望理论对均值不确定性的涵纳和对风险的审慎测度 如我们所知,在线性概率理论中,随机变量的均值通常为一个常数。而在非线性期望理论框架下,其表征为一个随机变量。(12)具体而言,对次线性期望空间上的d维均值不确定随机向量的描述体现为: 2.G—期望理论对波动率不确定性的涵纳 此处,我们将在非线性正态分布的基础上具体阐明G—期望模型设计对波动率不确定性的处理。首先,类似于线性概率情形,我们可以给出G—期望理论中非线性正态分布如下定义: 由此可见,非线性正态分布与一般正态分布的重要差异之一,即:其方差亦不再是一个确定的数值或具有特定变化规律的随机变量,而是界定于相应值域的不确定量。 而基于G—正态分布,对于给定置信水平1-α,G-VaR与G-ES则可定义如下: 3.G—期望理论对分布形状不确定性的涵纳 上节中关于经济、金融实际数据内在逻辑的分析表明,时间序列数据在随经济系统基本面状况不断演进的过程中,各阶段数据分布均值、方差及所呈现的形状也不尽相同:所有的正态分布存在一矩、二矩参数的差异;同时一定比例的数据组并非标准正态分布。如何将这种分布形状的不确定性体现在概率统计的模型设计之中呢?我们从如下G—正态分布的非线性热方程来看: 由式(2)可知,在均值和方差趋同时(或为凸/凹函数时),其可退化为线性概率论中的正态分布: 因而,一般线性正态分布是G—正态的一类特殊形式。而非线性期望理论正是通过此种方式将客观数据中呈现正态分布的所有组群涵纳于其中。且方程(3)表明其可一般性描述线性概率情形下正态分布的均值与方差不确定。当然,此时其无法涵纳非正态的不确定形状分布。而只有当方程(2)中的均值与方差不确定且非凸或非凹时,则可刻画大量的非正态分布形状不确定性。 4.G—期望理论对概率分布可能性为无穷这一不确定性的客观属性的涵纳 式(2)亦表明,随着的不断变化,其所对应的分布亦随之改变;因而,当在此前所界定的线性空间中存在无穷多变化时,G—期望理论框架下随机变量的分布量亦为无穷。此外,就此前论及的以值域上的不明分布形式所存在的均值与方差而言,均易推知:在非线性期望理论框架下,概率分布在一、二阶矩的连续值域上数量无穷。 5.在不确定性条件下,G—期望理论对风险的审慎测度 最后,在包含无穷量分布的情况下,如何实现对风险的审慎测度呢?在此前探讨非线性条件下均值不确定性时,我们已经展开一定的分析。从更为全面的角度而言,由G—期望下分布的定义可知,对任意给定的属于: 而式(4)表明,若为风险测度函数,非线性期望理论在将均值、方差不确定性纳入考量的基础上,基于无穷量不确定性分布,通过求取最大值实现对风险的审慎测度。 五、纳入不确定性因素的风险审慎度量 如上,通过模型解析与理论诠释说明了非线性期望理论对具有诸类表现形式的不确定性因素的涵纳与处理,本节则将以具体算例展示其对不确定性的定量分析及基于概率统计模型不确定性的审慎风险测度。 通过金融领域常用风险指标VaR与ES,表4、表5分别基于S&P 500数据和上证综指数据比较分析了一般/现有风险度量方法与将不确定性因素纳入考量的监测技术。而相关比较方法则沿用了Knight(1921)的思路:更加具体与详细的分析不确定性对一般经济活动的影响,最好的方法即是从一个没有不确定性的体系开始,逐步引入不确定性,并观察其所可能发生的变化。 假定立足于2015年第1季度末,需估算第2季度的风险继而实施准备金计提等风控措施。(14)在不考虑不确定性的情况下,即依照一般性风险测度方法,可利用历史数据估计预期分布进而测算VaR值与ES值。且如我们所知,通常的回溯期为等时间段数据。当然,出于审慎起见,亦可参考相对更长时间窗口的数据,譬如:6个月或1年。表4—A(1)、B(1)及表5—A(1)、B(1)显示了一般性风险测度值。以S&P 500数据3月回溯期为例,VaR值为-0.0153。然而,如前文所分析,一般风险计量方法是抽象性的简单假设可比时间段数据出于同一概率分布,且同于未来分布,也即概率统计模型是确定的;但经济、金融数据的内在规律表明,由于经济、商业社会的持续变化、演进,相应的系统性概率统计规律也在不断变化,即概率统计模型具有不确定性。其中,若仅考虑统计模型随时间轴的动态变化,即时间序列数据的不规则分组情况,基于较为简单理念的审慎风险评估即为:选取相应时段中期望的最小值与标准差的最大值计入风险测算模型,如表4—A(2)、B(2)及表5—A(2)、B(2)所示。延续前例,此时VaR值变为-0.0241。然而,如我们所知,此处依然未将不确定性因素纳入考量,而仅是基于数据的客观规律,更为谨慎的考虑了存在较大风险的可能性。 进而,我们首先加入均值不确定性因素,譬如:将S&P 500指标在2015/01~2015/03期间均值变化的区间[-0.003782,0.003046]纳入计算,仍令标准差不变,可知均值不确定性对风险值的影响可量化为0.0039。继而,如表4—A(4)所显示,若令均值不变,仅考量标准差不确定性,此[0.004025,0.012160]值域的不确定性引起风险的显著提高。最后,通过同时加入均值与方差不确定性实现对风险更为审慎的测度,即表4—A(5)、B(5)及表5—A(5)、B(5)的估算。且表4与表5的风险测度数值实现亦清晰表明,同时纳入均值不确定性与方差不确定性的风险计量并非对两类不确定性定量计量的简单加总,而是融合于模型不确定性中的统筹分析。且通过比较表4—A(2)与(3)、表4—A(2)与(4)以及表4—B(2)与(3)等可知,通过将不确定性纳入考量而实现的风险测度并非通过绝对性高估风险、增加风险准备计提,从而实现对其的审慎监管。也即非线性期望理论是可兼顾风险审慎防控与经济效率的良性方法。 不仅如此,如前节所示,概率分布状态的不确定性亦已通过体现于模型设计中而纳入风险测度的数值实现;而分布量无穷的问题则具体以均值与方差的连续区间方式被综合纳入考量。此外,通过跨时域简单分析显而易见的是,当不确定性越大时,所测度的审慎风险值也就越大。(15)最后,通过比较表4与5中的均值与方差阈值及其所引发的风险测度溢升,可知当前时期我国金融市场中的不确定性因素更为显著,从而强调了研究开发更为精密风管技术的重要性。 本节仅以VaR与ES为例,说明了非线性期望理论在风险测度中的实际应用及其对不确定性因素的定量分析。但其在金融风险管理领域的作用却不囿于此,而是有着广泛的应用前景。譬如,其在经典信用评级模型CCA中的应用,不仅提高了风险指标的敏感性与预警作用,而且通过纳入漂移率风险因素,拓展了其风险监控覆盖范围。(16)不仅如此,对于次贷危机后,国际金融界普遍关注的系统性风险测度与防范领域而言,G—期望理论也将产生深远影响,如:以其为基础性概率统计模型将实现Co-VaR、SCCA等技术对客观存在且无可回避的不确定性因素的考量,以有效达成审慎监管目标。 金融风险与危机存在的持续性与普遍性,以及深化相应理论研究和强化监管实践的重要性、必要性与迫切性,促使学术界不断寻找新的理论和模型,以切实实现对金融风险更为审慎、有效的监测与防范,以维护国家/地区的金融与经济安全。 而如Hey(1997)所及,对不确定性的分析不仅是技术性的,同时也是哲学性的。本文即首先通过简要的哲学—经济学分析说明现有风险监测技术的关键性不足即在于:忽略了不确定性进而概率统计模型不确定性的存在,从而低估了风险,因而无法对其进行有效防范。继而,在通过经济、金融现实数据客观揭示了模型不确定性存在的根源、必然性及其不同表现形式的基础上,文章深入剖析了非线性期望理论构建与模型设计对均值不确定性、方差不确定性、分布形状不确定性、分布量无穷等因素的有效涵纳与处理,并以实证分析与具体风险算例进一步证实了基于模型不确定性风险测度的有效性与审慎性。 因而,就理论意义而言,此研究是应对风险管理这一自13世纪以来持续困扰金融学界的理论挑战。文章通过开拓不确定性条件下的金融风险度量与分析,以期增益于相应国际学术领域的探索与研究;就现实意义而言,本文旨在:基于更为贴近经济与金融现实的概率统计理论与模型,建立具有干扰包容性、包含不确定性因素的风险度量模型,以实现动态、复杂经济、金融系统中的风险审慎测度,从而助益于相应的金融监管实践,并创新在我国特殊经济、金融发展现状情况下的审慎性风险监测技术。 此外,有关非线性期望理论的未来研究前景广阔。近年来,此理论在国际经济、金融界产生了重大影响,颇多世界知名经济学家认为:其不仅是数学领域中具有划时代意义的重大创新,还有望引起经济学中量化分析方法、金融风险管理、资产定价与行为金融等领域的深刻变革与长足发展。 由衷感谢匿名审稿人的意见和建议,以及严谨细致的评阅。当然,文责自负。 ①详见Reinhart & Rogoff(2009),Chapter 6,7 and 10。 ②为深入解析问题,我们将不同“概率分布形态”的区别具体划分为:“分布形状”差异与“分布参数”差异。其中,分布形状指对称的钟形分布、非对称的F分布或难以简单描述的其他各类形状等;参数差异指分布的一矩、二矩等量化指标的不同。由此可知,即使分布形状相同,参数不同,依然为不同的分布形态;参数相同而分布形状不同,亦为不同的分布形态。 ③详见Knight(1921)。 ④详见Knight(1921)。而经济学中对不确定性与风险的讨论亦可见Ross(2012)、Leslie(1879)及Haynes(1895)等文献。 ⑤Knight对概率论在经济学中适用性的观点与奥地利学派鼻祖Ludwig Von Mises不谋而合。 ⑥略不同于Fryzlewicz & Rao(2014),本文的分析基于资产价值的连续收益率。此数据处理方法不仅不影响BASTA方法对时间序列断点识别的有效性,而且便于在后续研究中开展连续时域上的金融数据分析及风险测度模型的应用。 ⑦利用BASTA技术对时间序列数据进行分析,具体的参数选择会在一定程度上影响分组粒度,相应的断点随之对应不同级别的经济、金融事件。但不论怎样的参数设定,数据所呈现的内在演变规律具有一致性。后文将结合实际数据详尽阐明此规律。 ⑧鉴于本文的重点在于通过时间序列自然呈现的分段现象说明模型不确定性存在的根源与必然性,进而阐明如何基于这一客观现实实现对风险更为审慎的监测。所以暂不对时间序列的这一属性与尖峰厚尾问题之间的关联做深入分析,详见后续研究。 ⑨经大规模实证检验,不论分组粒度设定如何,我国金融市场阶段性、系统性迁移显著的特征均较为明显。 ⑩从简单的数据实证分析中亦可知,即使在使用财务或日历时间对时间序列数据作硬性分组处理时,不同组的均值与方差亦不同,有些分组数据也无法通过正态检验,同样体现出无可回避的不确定性。 (11)详见Peng(2007a,2008,2010)等。 (12)然而,如下文分析所示,不同于其他同样以均值或方差为随机变量的概率统计理论与模型,试图通过刻画随机变量的变化规律以涵纳均值与方差的持续演变性质。为充分考量其变化的不确定性,G—期望理论将其作为以不确定分布在相应值域上变化的随机变量。 (13)关于G—期望理论框架下同分布的定义详见Peng(2010)第7页:定义3.1;独立性的定义参见Peng(2010)第9页:定义3.10。 (14)在开展此项基于概率统计模型不确定性的风险测度实证分析之时,其为事前分析。文稿通过审核后,修订过程中,我们本拟再度全面更新数据以更为清晰的表明其事前预防及风险管理的审慎性。然而,鉴于前面所诠释的2014/04~2015/03期间的数据特殊性及在此情况下所突出的该方法的优势,未作替换。有兴趣的读者可与我们联系以获得最新的比较分析数据。 (15)如我们所知,随着时间跨度的增加,极端事件出现的概率一般也会增大,所以较长时间窗口下数据的波动率通常比较大。这也是通过延长历史参考期以实现审慎风险监测的主要依据。然而,巧合的是,文中所列举的S&P 500与上证综指数据在2014/04~2015/03期间的数据分析均呈现出方差递减的趋势,也即可推知:相对极端事件出现在最近的考查期中,随着数据的增加,方差反而下降,所以依据其所测算的风险值也越来越小。但如表4、5所示,与此相反,基于模型不确定性的风险度量通过有效识别更长时域上不确定性的增加而更为审慎地处理了此问题,进一步体现了该方法优势所在。 (16)详见宫晓琳与杨淑振(2015)forthcoming。标签:期望理论论文; 正态分布论文; 概率分布论文; 均值-方差模型论文; 参数估计论文; 波动率论文; 方差分析论文; 线性模型论文; 概率计算论文; 经济风险论文; 经济模型论文; 非线性论文; 不确定性分析论文; 逻辑模型论文; 审慎监管论文; 线性系统论文; 风险模型论文; 线性回归模型论文; 概率统计论文; 随机变量论文;