金融计量学研究最新进展,本文主要内容关键词为:计量学论文,最新进展论文,金融论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
金融计量学(Financial Econometrics)通常就是指对金融市场的计量分析。这里的“计量分析”,从广义上看不仅包括对金融市场中各种交易变量(如价格、交易量、波动率等)进行相应的计量分析和建模,还包含实证金融(Empirical Finance)中的和连续金融(Continuous Finance)中的主要成果(Campbell et al (1997))。狭义上仅指对金融市场各个交易变量的计量分析和建模(Bollerslev(2001)、Engle(2001))(注:Bollerslev和Engle等人一直以时序建模为核心致力于对金融市场的计量分析,自然不会把实证金融和连续金融归于金融计量学范畴之内;相反以实证研究见长的Campbell等人则倾向把两者作为金融计量学重要分支。)。
本文将采用Campbell等人的分析框架,仅限于以金融市场作为研究对象,放弃有关宏观经济领域中金融研究的内容(如金融政策分析、金融中介分析等),侧重于从交易者(或称金融市场上的消费者)角度研究各种信用市场(如股票市场、外汇市场等)的内部结构和运作规律。具体而言,就是在一定的证券(如股票、外汇、期货等)价格过程和市场假设下(下文简称价格和市场假设),研究如何进行最优投资和资产定价。
一、市场假设的拓展
市场假设主要包括三个方面:交易者效用函数(如HARA型)、市场均衡与无套利假设(如完全市场)、和市场摩擦假设(如完美市场)。从Markwitz的均值-方差分析(Markwitz(1987))到Merton的连续跨期投资模型(Merton(1990))详细地给出了在不断放松的价格和市场假设下最优投资策略问题的基本分析框架。而最优的资产定价无非是不能给其他交易者有套利的机会,也即无套利定价(当然如何更宽泛地定义无套利是目前重要的研究领域)。Duffie(1996)、Karatzas and Shreve(1997)、Jia-An Yan(1998)比较理论地总结了这方面的主要研究成果。Hunt and Kennedy(2000)则侧重于总结定价方面的实证结果。这里值得特别提出的一个研究热点领域就是如何确定连续定价模型里的波动率参数问题,特别是如何将已有计量模型(如GARCH类模型)引入定价框架中。Jin-Chuan Duan(1995,1997,1999)较为成功地得到GARCH离散期权定价公式,并研究相应的模型估计问题。有关这方面的文献可参见Guo(2001)。Sundarensan(2001)、Campbell(2001)是综述了最新的整个连续金融领域研究成果。
对上述市场假设而言,对它的修正和改进产生了两个重要的研究领域:行为金融和不完全市场研究。Shiller(1984)和Summer(1986)是两篇行为金融领域开创性的文章,他们假设如果交易者是非理性的或具有怪异的效用函数,如果市场存在有限套利(limited arbitrage),——即由于市场交易费用或制度限制的存在使得交易者无法对任何套利机会都可以实施套利,然后去研究交易者在这种市场中如何进行最优资产配置和定价。Shiller(1999)和Shileifer(2000)初步系统化已有的主要行为金融方面的研究成果。不完全市场的研究可能永远都会是金融领域的研究重点,因为理论模型不可能完全与现实相吻合。Constantinides(1986)、Davis and Norman(1990)、Vayanos(1998)是研究带交易费用的最优资产配置比较有影响的文献;Cox and Huang(1989)提出了一种新的鞅表示定理替代一般随机动态规划的方法来研究不完全市场中的资产配置问题。He and Pages(1993)、Cuoco(1997)研究了在劳动收入与证券组合交易限制(如卖空)情形下的消费-投资问题。Shapirol(1998)、Verorresi(1999)和XIA(1999)是最近研究不完全市场中资产组合和定价问题的代表作,常被引用。需特别强调的是,Black(1992,1993)最早研究了在连续框架下的内部交易人(insiders)的交易策略问题,这显然要将微结构理论与不完全市场的研究结合起来。
二、价格假设的检验和拓展
价格假设中最重要的莫过于EMH(有效市场假设)(Fama(1970))。正如Samuelson所言,如果金融经济学是社会科学王冠上一个明珠的话,那EMH将占去它一半的光彩。与EMH相联系的就是对价格过程的随机游走假设(RWH)和鞅假设(注:EMH和随机游走假设是针对离散价格形态而言的,而鞅假设在离散价格形态和连续价格形态都有重要的意义,在离散情形下,其与EMH、随机游走假设都有重要的区别(Campbell et al(1997))。在连续情形下,几何Brown运动就是其一个重要的表现形式,也是Black-Scholes模型的价格假定。),这两种假设都是刻画价格过程一阶矩的不可预测性的。尽管Reloy(1973)、Lucas(1978)成功地构造了一个满足EMH的模型,但不满足RWH,在成熟市场(如美国信用市场)人们一般还是将RWH作为EMH存在的一个重要检验形式,但在中国这样的新兴市场,这两者之间存在巨大的差距(这一点在国内实证研究中很少涉及到!)。
这里我们以成熟市场而言,并且仅对弱性EMH进行讨论(三种形式的实证检验形式是截然不同的!)。如从待检的单个证券的收益率变量(注:如果价格是连续性变量,则收益率过程和原来的价格过程是完全一致的。但如果价格只能离散取值的话(后面将介绍),那两者就完全不同了。)出发,主要集中检验它是否满足RWH。RWH隐含着收益率序列的不可预测性(仅对一阶矩而言)和等间隔等方差性(注:如两周收益率的方差在RWH假设下应是一周收益率的方差的两倍。重要的实证结果可参见(Campbell et al (1997))。)。目前已有大量文献结果但一直到现在依然很活跃。Fama and French (1998a)、Poterba and Summers(1988)从滞后收益率中得到了对当前收益率的有效预测;对收益率可预测性的实证分析文章很多,如Campbell of and Shiller(1988a)、Fama and Frech (1988b)、Hodrick(1992)从D/P比(Dividend/Price);Campbell and Shiller(1988b)从E/P比(Earnings/Price);Lewellen(1999)从市场背书比率(Book-to-market ratios);Lamout(1998)从红利发放比率(Dividend payment ration);Nelson(1999)、Barker andWurgler(2000)从新的融资结构;Campbell(1987)、Hodrick(1992)还从最近的短期利率变化;Lattau and Ludvigson(1999a)从收入与财富的消费比例;Lattau and Ludvigson(1999b)、Fama and French(1989)从商业周期循环的角度等。这里不包括那些关于滞后很长时间(如2~3年)的均值回复(Mean-reverting)行为的研究。其实在对收益率序列的预测性进行检验时,RWH认为序列增量是独立的,所以一般都去检验序列增量部分的相关性。需要强调的是,上述检验文章都是依赖较低频(主要以月度数据为主)的交易数据库,而不同的数据库是完全可以得到迥然不同的结论的(Wood(2000))。Campbell(1999)也发现了收益率的预测性在较低频数据中表现的要比较高频数据显著的多,比如用D/P比来预测的话,用月度数据与用年度数据和两年度数据相比,可预测性部分由2%提高到18%和34%。所以高频数据的分析在这个领域也是必不可少的。Heaton and Lucas(1999)再次表明收益率在不同频率的数据下都存在可预测性部分。对于高频数据的实证结果我们将在下节介绍。
对收益率可预测性检验还可以从多变量角度出发,也就是收益率的横截面数据分析。对实证而言,如果能够构造一种交易策略,能比较显著地获得额外收益(与利息率相比),都将对EMH构成挑战,因为它“打败了市场”(Beat the Market)。DeBondt and Thaler(1985)发现了目前良好或极差的证券在36个月后都会有相反的表现,他们把这归因于交易者的过度反应(Overreaction)。Chopra et al(1992)在考虑市场风险和规模效应的情况下,再次证实他们的发现。由DeBondt and Thaler的发现就可以构造一个Contrarian策略——即卖出目前表现良好的证券,买进表现差的证券,那么在36个月后一定能获得超额利润(相对利息率而言)。Lakonishok et al(1994)、Frankel(1998)进一步解释这种Contrarian策略存在的原因。Jegadeech and Titman(1993)发现另外一种非常奇怪的"momentum effect"现象,就是在过去3~12个月中具有高收益的证券未来趋于表现差。相应地就可以构造一种momentum交易策略。目前对这一现象讨论得非常激烈。Rouwenhorst(1998)实证了国际金融市场上的momentum交易策略广泛存在性:Moskowitz and Grinblatt(1999)意图从公司的产业背景来解释momentum现象;Chui et al (2000)从产权结构加以诠释;Jegadeech and Titman(2000)评价了各种对momentum现象的解释理论,再次证实了momentum策略赢利性。有趣的是,Hong(1999)居然得到上述两种奇异现象的统一的理论模型。如果从横截面分析的公共因子的角度来看,Fama and French(1992,1993)建立的因子模型是这方面研究的基础,目前因子模型讨论的文章很多,最新的进展可参见Fama and French(1998)、Rouwenhorst(1999)、Titman andXie(2000)等。
对收益率的建模研究一直在计量经济学占据很重要的位置。显然对于一阶矩的刻画是没有什么意义的,所以人们将注意力都放在了对二阶矩的建模上。也就是对收益率波动率的计量建模。正如Bollerslev(2001)所言,ARCH模型和GMM估计是过去20年内金融计量学发展中最重大的创新。目前所有的波动率模型中,ARCH类模型无论从理论研究的深度还是从实证运用的广泛性来说都是独一无二的,尽管还有一些如SV模型、Switchregime模型等较为重要的波动率模型。目前对这方面的工作比较好的文献综述有Bollerslev et al (1992)、Engle(1995)、Ghyselset al(1998)和Shephard(1996)。这里特别指出两个重要的研究成果:其一是Drost and Nijman(1993)、Drostand Weker(1996)建立的基于不同频率数据上的弱GARCH模型的一致性结果,开始从理论上讨论如果数据频率改变的话,所建立GARCH模型之间的内在关系。第二是Nelson(1990)所建立的GARCH模型的随机微分方程(SDE)描述的极限形式和Nelson(1996a,1996b)证明了即使GARCH模型不是真实的数据产生模型,也会得到一致的波动率估计。Nelson的结果一方面针对GARCH的稳健性,另一方面也为研究离散计量模型与SDE刻画的连续模型之间联系提供一个研究框架。这两个结果直接和GARCH模型在高频数据中运用有着直接的关系。附带提一下,一般而言GARCH模型都是对日数据建模最为合适,Engle(1982)用的英国季度通货膨胀数据建模。
与Engle(1982)同一年在同一杂志(Econometrica)上发表的Hansen(1982)提出GMM估计,尽管最初它只是一篇理论性的文章,但到现在GMM估计已成为计量经济学(特别是金融计量学)中最重要的估计方法之一,主要原因在于GMM估计不要求变量分布函数形式同时又能给出较精确的估计。在GMM基础上,Gourierox et al (1993)提出间接推断的估计方法;Gallan and Tauchen(1996,1998)提出有效矩估计方法(EMM)。EMM估计在Singleton(1999)、Gallant et al (1999)得到了很好的估计结果,Tauchen(2001)给出了一个简短的EMM总结。Bollerslev(2001)认为这几种估计方法将是以后金融计量学(特别是高频数据建模估计)中起到支柱性的作用。
最新的波动率模型有Boudoukh et al (1998)的HYBird模型、Engleand Managaneli(1999)的CAViaR模型、和Embrechts et al(1997)、Mcniel and Frey(2000)的尾部极值理论估计等。现在还不清楚这几种模型与GARCH类模型之间在ARCH特征刻画方面到底差多少。在对波动率未来的建模研究中,有两个重要的发展方向:多元模型与高频模型的建立、估计检验以及其他性质研究。Engle(2001)也着重强调了这个发展方向。的确在过去的金融计量学中,多元GARCH模型一直没有突破性的进展,特别在处理“维数祸根”方面几乎是一筹莫展,也可以说正因于此,多元模型的研究一直处于停顿状态,但多元模型的实际经济意义是不言自明的。高频数据模型的迅速发展使一元模型找到了新的发展领域,一者是因为目前计算机的能力和数据的可获得性已为高频模型发展提供了条件,二者也的确为现实的市场参与者所需要,与之密切相关的是另一个欣欣向荣的金融研究领域:市场微结构理论——一个以研究市场价格形成过程为目的的研究领域。
三、超高频数据分析
对于象年度、月或周等较低频率的数据而言,数据的采集时刻和其在相应的在计量模型中所代表的时间可以完全一致的。但对于日数据就不太可能了,比如每周有两个星期休假日(无交易数据),所以上周五交易日的数据和下周一的数据实际是相差了两个交易日,不同于其他相邻交易日数据之间的时间间隔。如果象在中国市场上碰上“五一”、“十一”等长假,那前后交易数据之间间隔时间就相差更大了。可以把这称之为“模型时间与实际时间的不一致性”。对于日内数据而言,这种不一致性就进一步“恶化”了,即使在日内交易数据之间也会出现这种不一致性。而对于超高频数据,还会产生另外一种时间的不一致性:“数据时间和交易时间的不一致性”,也就是说,同一时刻的交易可能会因为交易系统或数据传输等原因从而在不同的时刻发布出去;而不同时刻的交易也可能在同一时刻被合并称同一数据被发布。而这些都造成超高频数据的交易不等间隔的随机性,所以也可称超高频数据是一组在随机时刻发生的不等间隔交易数据,这就构成了超高频数据的首要数据特征。它的第二大特征在于其数据的取值离散性。一般我们在处理价格过程时,都是假设其为连续变量,从而等价变换成对收益率过程进行考察。但在超高额数据中,一般每次的价格变化都是离散取值的,而且象NYSE市场都显著集中在1/8$附近(Harris(1986))。显然这就需要一种能够刻画这种价格离散状态(Price disceteness)的特别计量模型。
随机交易间隔效应是目前比较活跃的领域,Diamond and Verreahia(1987)、Easley and O'Hara (1992)是较早涉足这个领域的代表性文献。Diamond and Verreahia(1987)将交易随机间隔与市场信息传递联系起来,实证表明较长的交易间隔总会与一个坏信息的发布有关。Easleyand O'Hara(1992)进一步认为长的交易间隔还会与无信息发布有关,同时交易的频率也直接与知情交易者的数量有关。Easley et al (1993,1994,1995)讨论了随机交易间隔的经济学意义,特别从市场信息和监管者的政策制定角度出发,探讨了如何利用制造市场上的随机交易间隔特征来引导和控制市场的交易情况。Hansbrouck(1996,1999)研究随机交易间隔对买卖价差形成的长期影响和短期效应。在此基础上,Engleand Dufour(2000)进一步讨论随机交易间隔在整个价格形成过程中的效应以及在价格对交易进行影响过程中的作用。
目前对于不等间隔的高频数据建模主要就是从对随机交易间隔刻画入手,进自提出ACD模型(Autoregressive Conditional Duration Models)。Engle在ACD模型的研究中所起作用等同于他对ARCH模型发展的贡献。更确切地说,Engle(2000)可以看作是对超高频数据计量分析的宣言书,Ghysel(2000)给予了积极的回应。ACD模型的雏形形成于Engle andRusell(1994)的讨论稿,后来完善于在Econometrica上发表的Engleand Rusell(1998)。他们直接的思想是在原有的ARCH模型的框架下,用一个标记点过程(marked point process)去刻画随机交易间隔,不同的点过程假设自然就得到了不同的ACD模型。Engle and Rusell(1996),Engle and Rusell(1998)用ACD模型比较漂亮地完成对交易额率等实时交易变量的预测。Engle and Large(1997)则在测量和预测市场流动性方面采用ACD模型的思想和技术。在最近两年里对ACD模型的研究正在不断深入。Engle and Lunde(1996)提出了引入价格和交易量的二元ACD模型。Rusell and Engle(1996)将类似门限的思想引入后,提出了一种非线形的ACD模型。他们的模型后来在Zhang et al(1999)中进一步得到了拓展,其实这些ACD模型的发展极似当年ARCH模型的发展。当然没有ARCH模型当年在计量学界反应那么强烈,但已有一些知名的计量学家接受了Engle的ACD建模思想,Ghysels et al(1998)提出了一种SVDuration模型,并在Ghysels(2000)中对这种模型的经济学意义给予了进一步的阐述。Touzi(2000)将点过程的建模思想引入保险问题。
正如前面所讨论那样,现实的市场机制很难满足对交易变量的连续性假设,比如NYSE股分最小变动单位为1/16$,这是从1987年股灾后由1/8$调整后一直维持到现在,中国深沪两市的最小变动单位是0.01。显然这就使得股价变动不可能以比最小变动幅度更低的间隔进行变动。这必然会造成股价的离散取值。Harris(1986)发现NYSE中的股价变动多集中于1/8$处,也就是说,如果现在股价为501/8$处,那下一次的股价大多是50$或501/4$。Christie and Schultz(1994)、Christie et al(1994)给出了更为详尽的实证结果。如他们发现股价变动幅度是1$的倍数比1/2$的多,而1/2$的倍数又比1/4$的多;偶数的1/8$变动比奇数的1/8$变动要多等等现象。他们把这些现象归结于做市商为了保持较大的买卖价差而作的人为的市场调整。Godek(1996)、Kandel and Max(1996)等积极讨论了这些有趣的市场实证结果,所有这些都表明了价格的离散取值越来越具有其自身的经济意义。比如最小价格变动幅度的变换对市场有什么影响?这个问题极易被人们忽视但是触及到一些市场本质的价格发现和市场机制设计问题,具有很大的理论和实务价值。Peake(1995)、Conneh(1997)认为降低最小变动幅度可以增加市场流动性,从而降低市场买卖价差,促进市场竞争。向Harris(1997)则认为这只能对流动性需求者有益,但有损于流动性的提供者,因为买卖价差的缩小自然会打击那些流动性提供者(如交易商、做市商等)的供给动机,这就涉及一个市场深度问题。Bollen and Wharley(1998)、Ricker(1998)分析了NYSE的情况,认为最小价格变动幅度下降2%同时会造成38%~45%的市场深度,从而提高了那些低价位的股票的市场流动性。Van Vess et al (1999)综合分析了NYSE、AMEX和Nasdaq的市场情况。Goldstein andKarajecz(2000)进一步用NYSE的限价指令数据分析最小价格变动幅度对市场微结构各个方面的冲击影响,基本和前面的结果一致。这些只是价格离散取值经济意义的一个方面。另外在市场机制设计,价格发现等具体方面研究还有越来越大的影响。
四、金融计量学的未来发展
从上面对金融计量学基本的框架分析中,我们粗略可以感受到金融计量学的两大特点:一是其实证性,也就是要知道目前市场是什么样子以及它是如何演变成这个样子的;二是其模型化,通过计量模型的建立可以更加精确刻画目前的市场状况从而预测未来金融市场的发展变化。在微结构理论中,这两点都得到了充分的体现。如果说GARCH模型是在说明价格过程伴随的波动率是什么样子的话,那微结构理论的核心在于探索已有的价格过程是如何形成的。市场机制设计、不同类型交易者(如Insiders、informed traders、noise trader)对市场价格的影响等都是微结构理论的重要研究内容,显然高频数据分析是该领域重要的研究工具。O'Hara(1995)是第一本也是目前唯一比较系统地论述一些比较成熟理论成果的专著,Hodrick(1995)和Pagan(1996)给出了某些微结构重点研究领域的总结。微结构理论其实还是属于金融计量学的价格假设范畴,它对资产配置与定价理论有什么影响呢?O'Hara(200)认为这正是未来微结构理论发展的重要方向,她甚至还指出微结构理论与公司财务、宏观福利经济学等之间联系也是重要的研究方向。
在这个分析框架下,我们将会发现,对金融市场上(超)高频数据的研究对金融市场的计量建模、实证金融、乃至连续金融都将产生巨大的挑战和冲击,从而也加速了各个研究领域的融合(郭兴义等(2001))。