2013年诺贝尔经济学奖获得者学术贡献述评_有效市场假说论文

2013年度诺贝尔经济学奖得主学术贡献评介,本文主要内容关键词为:得主论文,贡献论文,学术论文,年度论文,诺贝尔经济学奖论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

2013年10月14日,瑞典皇家科学院宣布将本年度的诺贝尔经济学奖授予芝加哥大学教授尤金·法马(Eugene F.Fama)和拉斯·彼得·汉森(Lars Peter Hansen)以及耶鲁大学教授罗伯特·希勒(Robert J.Shiller),以表彰他们在资产价格的实证分析方面所做出的突出贡献。

法马是当代金融学界的一位巨擘,著述丰富,荣誉满身,他的获奖乃名至实归。他在现代金融学的许多方面皆有开创性成果,其中最广为人知、影响最大的应当是有效市场假说(Efficient Market Hypothesis)。瑞典皇家科学院如此评价法马在这方面的成就:他的成果不仅深深地影响了其后的学术研究,而且也改变了金融市场的实践行为。法马还和弗伦奇(Fama & French,1993)共同提出了三因子模型,该模型被认为是最有解释力的多因子资产定价实证模型。

希勒是行为金融学的一位领军人物。他对资产价格的过度波动有着独到的观察和分析,并从中捕捉到了长期上资产价格波动的可测成分,向传统的有关金融市场有效性的认识发起了极为有力的挑战。希勒的研究成果使他同时成为一位畅销书作者。他的著作《非理性繁荣》(Irrational Exuberance)因恰好在2001年美国网络股泡沫破灭前对此现象提出了尖锐的质疑,使他从此在公众世界声名鹊起。他在次贷危机爆发前对这一市场中泡沫发出的警示,使他的公众声誉日隆。在全球金融危机还没结束的背景下,他的获奖似乎比法马更加恰逢其时。希勒还是一位积极的理论践行者。他率先设计的Case-Shiller房地产价格指数,不仅已在美国芝加哥商品交易所(CME)交易,也成为研判美国经济运行状况需要参考的一个重要指标。

汉森是一位计量经济学顶尖学者,也是美国国家科学院院士和计量经济学会前会长。他创立的广义矩估计法(GMM)使得经济学的实证研究进入了一个新天地。这一方法给金融经济学尤其是有关资产定价及波动的实证研究带来了深刻的变化。他和贾根内森(Jagannathan)提出的折现因子波动率下界不仅深化了人们对资产定价理论的认识,还广泛地被应用到投资实践中。

一、法马的学术贡献

法马在投资组合、资产定价、有效市场、公司金融等方面对金融经济学皆有积极贡献。

(一)有效市场假说的创立

“有效市场假说”这一术语并非法马首创,而是源自Roberts(1967)。但是,法马却是最早对金融市场的效率展开深入研究的学者,也是有效市场假说的集大成者和最主要的创立者。在法马之前,相关的研究集结于随机行走(Random Walk)主题之下。可以说,随机行走理论就是有效市场假说的早期版。

随机行走理论研究者的初始动机多为寻找资产价格波动的规律,结果却意外地发现了其不可测性。Bachelier(1900)是这方面最早的先驱。他敏锐地指出:决定金融市场价格波动的因素数不胜数,过去、现在甚至未来的事件都会反映到价格中,但这些事件通常与价格的变化并没有表现出明显的关系,数学上的预测毫无可能。Cowles(1933)第一个通过实证研究指出:总体而言,金融分析师和机构投资者无论是在大势预测上还是个股的选择上均没有表现出过人之处,不能战胜市场。Working(1934)的分析表明:商品期货的价格变动是高度随机的,或者说是随机行走的。Kendall(1953)试图从金融市场价格时间序列中区分出长期、中期和短期趋势,结果显示:这些运动本质上可能就是随机的,那些长远看来似乎是故意的波动其实仅仅是一种经济学布朗运动而已。Roberts(1959)对道琼斯指数进行了考察,发现其历史轨迹与一个极端简单的随机模型所产生的结果非常相像;那些深受分析师们重视的价格形态,在其周变动图上便不复存在。Osborne(1959)首次明确提出:股价的对数变动而非股价本身遵循布朗运动。由此,人们对金融市场价格走势随机特性的认识迈上了新台阶。萨缪尔森(1965)进一步指出:金融合约的收益率不应该与公平赌博(fair game)的结果相同,而应高于无风险利率,遵循带漂移项的一般维纳过程,但折现后的金融合约价格过程可以是鞅(martingale)。至此,人们对证券价格走势的认识已基本定型。

法马(1965a,b)最初的研究也是从证券价格走势入手的。他以道琼斯工业股票平均价格指数所包含的30家公司大致在1957年底至1962年9月26日期间的数据为样本,对股价随机行走模型进行了实证检验(Fama,1965a)。他首先对单日、四日、九日和十六日价格变动进行了序列相关检验,发现每个期限上的序列相关性都很小,甚至完全不存在,无法借此来提高投资收益。随后,他又运用游程检验和滤子检验的方法印证了上述结论。正是在这项研究中,他首次注意到了一个以前未引起关注的问题:如果证券价格变动是随机行走的,那么,证券市场本身究竟是怎样的呢?他对此加以分析后得出的结论是:证券价格变动的序列不相关对应的是有效市场(efficient market),在这样的市场中,证券在任何时点的实际价格都是依据可获得的信息对其内在价值的良好估计,而证券的内在价值取决于公司的盈利前景,并会随着新信息的到达而发生改变。这就是法马对有效市场给出的最初定义,实际上描述的是增强版的有效市场,因为它隐含着信息必须充分到能完全反映证券内在价值的程度,只是这一点后来才被意识到。在同期的另一篇文献中,法马(1965b)对有效市场进行了更详细的讨论。他指出:这样的市场中有大量的追逐利润最大化的理性投资者,信息对每个参与者来说几乎可以免费获得,投资者之间的竞争会使得证券的价格反映过去、现在和预期将要发生的所有事件;在有效市场中,可以存在证券的实际价格和内在价值的背离,但这种背离是随机行走的,不可预测;当有关证券内在价值发生改变的新信息出现时,平均而言,它会立即反映到证券的实际价格中;“立即”的含义不排斥过度反应和反应不足的情形,但意味着两者出现的可能性差不多,且价格暂时的背离值是独立的随机变量。

在开展了一系列的研究后,法马(1970)对有效市场理论进行了全面的回顾和总结,标志着有效市场假说正式确立。法马在这里给出了更简洁、更正规的定义:有效市场指的是这样的市场,其中的证券价格在任何时候都充分地反映了所有可获得信息。所谓“充分反映”,可以规范地表述如下:

显然,这个定义比以前的解释(Fama,1965a)要宽松,它没有要求信息必须充分到能够反映证券内在价值的程度。为了便于讨论,法马(1970)还给有效市场设定了三个前提条件:(1)证券交易是无成本的;(2)所有投资者都可以免费获得所有可获得的信息;(3)投资人对当前信息的认知一致。在此基础上,法马(1970)接受了Roberts(1967)的分类方法,将有效市场分成三种类型:弱式有效(weak form)、半强式有效(semi-strong form)和强式有效(strong form),分别对其含义和实证情况加以详细探讨,从而使得这种对有效市场类型的划分成为广为接受的研究范式。

弱式有效市场与历史价格信息集相对应,即其中的证券价格反映了所有历史价格信息。显然,对弱式有效市场的检验基本上等同于对随机行走理论的检验。因此,支持随机行走理论的丰富实证研究成果也就证明了弱式有效市场的成立。如果市场是弱式有效的,那么,传统上深受投资界重视、建立于历史价格数据基础上的技术分析方法其实就毫无作用。这一点在实践上带来了极大的冲击力。技术分析方法随之日渐式微,并淡出严肃的金融分析的视野。

半强式有效市场与公开信息集相对应,即其中的证券价格反映了所有可获得的公开信息。法马及其合作者(Fama et al.,1969)—道开创了检验这种市场的事件研究法。早期此类研究多得出证券市场是半强式有效的结论。如果市场是半强式有效的,那么,利用公开信息就无法获得超额收益,这大大地削弱了基本分析方法的功效,对各种主动型投资策略也带来了很大冲击。正是在这样的背景下,被动型投资工具如指数基金等开始问世,并迅速壮大。

强式有效市场与全部信息集相对应,其中的证券价格反映了所有可获得信息,包括那些只有通过独占途径才能获得的对价格有影响的信息。这种类型的市场似乎先验地不真实,但它提供了一种参照。

通过以上一系列的研究,法马把随机行走理论带入了有效市场假说的新天地,使人们对证券市场的均衡特征获得了清晰的认识,并对证券市场的价格行为有了更深刻的了解,这些在实践上都带来了长远和重大的影响。

(二)事件研究的范式

与弱式有效市场检验有大量现存的数理工具可借用不同,半强式有效市场的检验最初却面临着缺乏可行方法的困境。检验弱式有效市场时,只要从价格历史数据中找不到有价值的可预测成分,就可以判定当前价格已反映了历史价格信息,市场达到了弱式有效的程度。但在检验半强式市场时,当前价格和公开信息集之间的纽带既不直接也不明显。那么,如何判定当前价格已充分地反映了所有可获得的公开信息呢?法马等学者(Fama et al.,1969)找到一个巧妙的切入点,即考察当某种影响证券价值的新信息出现时,市场对此是否做出了快速反应,将其吸纳到股价中。如果是,则可判定市场是半强式有效的。因为新的公开信息都已反映在股价中,逻辑上就可以推断以前的信息也已经被股价吸收,因此,股价反映了所有可获得的公开信息。

法马等学者选择的分析对象是股份拆细(split),样本为纽约交易所1927-1959年间发生的940个这类案例(拆细证券至少已上市12月,拆细比例至少为每4股可新拆5股以上)。拆细在投资实践上是一个重大事件,通常会引起股价剧烈地波动。虽然拆细本身似乎并不带来公司价值的改变,但它经常成为公司基本面改善的一个信号。许多公司在拆细之后都会出现经营业绩提升和红利水平的提高。因此,将拆细公告作为一个新信息来研究是适宜的。

这里的研究思路是:如果市场是半强式有效的,则拆细消息在公布之后就不会为投资者带来超常收益(abnormal return);反之,若能利用此消息获得超常收益,则市场就没有达到半强式有效的程度。为了计算超常收益,首先要有股价生成公式。假定其形式如下:

式中,是证券j在t期的收益率,是参数,是某种市场指数在t期的收益率,是随机残差项。很自然地,如果市场是有效的,则就是公平赌博,证券无超常收益存在。反之,如果不是公平赌博,则证券存在着超常收益或损失,市场也就不是有效的。把考察期限设定为月,则超常收益可衡量如下:为所有发生拆细事件股票第m月的平均残差,m不是自然月份的表示,而是以拆细事件发生月为0点来计算,之前的计负值,之后的计正值。把各月残差项累计起来,则有:表示的是从拆细事件发生前第29月开始到m月为止的累积平均残差值。使用累积平均残差值,可以更直观地显示出拆细发生前后的对比情况。如果拆细后累积平均残差值呈上升趋势,则表明可以利用该公开信息获得超额收益,市场不是有效的。反之,则证券的价格已充分吸收了新信息,市场是有效的。

研究结果显示,在前29个月开始到拆细事件发生月为止,累积平均残差值出现了显著上升,但在此后便不再上升,转为横向波动(其经典的图形表示参见图1)。这表明市场达到了半强式有效。上述研究确定了事件研究方法范式,也开创了实证金融的一个全新领域。此后,大量的相关研究不断涌现(Ball & Brown,1968;Scholes,1969;Waud,1970;Asquith & Mullins,1986;等等)。如今,事件研究法已成为常用的工具,广泛用于测度诸如公司政策、宏观经济政策以及监管规则改变等事件所产生价值效应(如对股价的影响),从而为相关决策提供依据。

图1 股份拆细对收益率的影响

资料来源:Fama et al.(1969)。

(三)法马—弗伦奇三因素模型

证券的价值究竟几何?金融经济学长期以来一直对此孜孜以求,试图找出其答案。Williams(1938)极有创见地提出:证券的合理价格应等于其内在价值,而其内在价值则是其未来所能获得的现金流的折现值之和。这一思想迄今在理论上仍被普遍接受。但是,在实证上,人们依然无法由此知晓证券的价值,因为证券的未来现金流是难以预测的,其折现率该怎么确定也悬而未决。Sharpe(1964)、Lintner(1965)和Mossin(1966)提出的资本资产定价模型(CAPM)是一个里程碑。在若干假定前提条件下,他们严谨地推导出了在均衡状态下任意证券的定价公式:

式中是任意证券i的期望收益率,是市场组合(market portfolio)的期望收益率,。该式使人们第一次可以有说服力地对证券的价值进行计算。早期的实证检验一般先从时间序列入手估计单个证券的β值,然后运用横截面数据和已估计出β值回归出证券定价公式,并考察它与理论模型是否相符。研究结果似乎初步证明了CAPM的成立,只是回归出的无风险利率过高,与理论模型不太相符。但是,这种方法因为忽视了横截面数据之间相关性,容易产生有偏估计,从而影响到实证结果的可靠性。

针对这一问题,法马等学者(Fama & MacBeth,1973)提出了一种实证检验CAPM的新方法。他们的具体做法如下:以纽约交易所1926-1968年间上市的股票为样本,第一步先以1926-1929年间月度数据估计出单个股票的β值,再依据这一β值的大小将全部上市股票分成20组,每组构成一个组合,包含的股票数量大致相等,每只股票在组合内所占的权重相同;第二步,根据1930-1934年间的月度数据对每只股票的β值进行重新估计,然后加总出20个组合的初始β值;第三步,逐月计算出1935-1938年间上述20个组合的加总β值,在此过程中单个股票的β值依据1930年以来的数据逐年更新,然后运用已估计的滞后一期(t-1期)β值和当期(t期)的组合收益率进行横截面回归,估计出相关回归系数,形成了回归系数的时间序列;第四步,滚动重复上述过程,即以1927-1933年间的数掘重新调整组合,以1934-1938年间数据计算出新的组合的初始β值,再逐月计算出1939-1942年间新组合的β值和收益率,进行横截面回归,以此类推;第五步,考察回归系数时间序列在不同时间段内的平均值,将其与理论模型进行对照。研究结果表明:组合的β值与其收益率之间的线性关系近似成立,但截距偏高,斜率偏低,更符合Black(1972)的0-βCAPM,而非标准的CAPM。

法马等学者采用的上述方法因为简洁、可靠,很快得到了广泛的应用,迄今仍是资产定价实证研究中的一个标准方法。不过,对CAPM的冲击很快接踵而来。首先,Roll(1977)发现,如果市场组合是有效组合,则CAPM的成立是数学上的一个必然结果。在实证检验中,市场组合常以某个指数作为代理,但这个代理未必就是有效组合。这样,如果实证检验结果与CAPM背离,则既可能是CAPM不正确所致,也可能是市场组合的代理选择不当所致。而市场组合究竟该怎么选择才不影响对CAPM检验,则是一个难以解决的问题。这也就使得单独对CAPM进行检验几乎成为不可能。其次,一系列的实证研究发现了诸多CAPM异象,即不能用β值来解释的超常收益,如盈利与股价比值(E/P)(Basu,1977,1983)、净资产值与市值比(BE/ME,即净资产值与股票市价比值)(Statman,1980;Rosenberg,Reid & Landstein,1985)以及杠杆率(负债与权益比值)(Bhandari,1988)与预期收益率存在显著的正相关,即使在控制了β值之后,也是如此。还有就是所谓“规模效应”(size effect)的存在(Banz,1981),即小市值公司的预期收益率要显著高于大市值公司的预期收益率。最后,法马(1970)很早就注意到,半强式有效市场的检验高度依赖于定价模型,只有在定价模型正确的情况下,对有效市场检验的结论才可靠。因此,有效市场和定价模型两者密不可分。如果有效市场通不过检验,则既可能是由于市场没达到有效率的状态,也可能是因为定价模型不正确。反过来,如果CAPM通不过检验,则同样既可能由于它自身不正确所致,也可能是因为市场未达到有效率的状态从而证券定价错误所致。这样,对CAPM的检验与对有效市场的检验就成了一个联合检验问题。这使得从实证上来证明CAPM的成立变得更加不可能。

为了克服上述联合检验难题以及β值解释力不够的问题,Ross(1976)提出了套利定价理论(APT)。在比CAPM更宽松的假定下,Ross推导出了一个多因子定价模型:

式中,是证券i对共同因子k的载荷,则是共同因子k的纯因子组合的风险溢价。APT可以简述如下:如果市场不存在渐进套利(asymptotic arbitrage)或极限套利的机会,则任意证券可以近似地由上式给出的多个因子来定价。它对CAPM有良好的兼容性,可以把CAPM作为它的一个特例。反过来,也可以把它视为对CAPM的一个拓展。不过,APT有一个很重要的弱点,即它没有指出来共同因子是什么,从而对λ以及因子载荷b如何确定也就没有给出任何提示。这一方面大大影响了它在实践中的应用,另一方面也给各种不同的实证探索留下了很大的空间。法马和弗伦奇(1993)提出的三因素模型就是这种探索的一个范例,也是最具解释力和影响力的多因子定价模型。

建立实证多因子定价模型的关键在于提取共同因子。法马和弗伦奇(1992)详细地分析了那些引起CAPM异象的因子(包括规模、E/P、BE/ME、杠杆率等)对证券横截面收益率的影响。结果发现,所有这些因子对截面收益率都有单独的解释力,但联合起来时,规模和BE/ME两个因子在很大程度上吸收了E/P以及杠杆率的作用。基于此,法马和弗伦奇(1993)在构建多因子模型时,着重考虑规模和BE/ME这两个因子。

具体的构建过程如下:第一步,以每年6月的市值大小将在纽约交易所、美国交易所、NASDAQ上市的股票分成两组,分别是大市值公司组(B)和小市值公司组(S),划分标准为纽约交易所上市公司市值的中位数。再以上一个财政年度末的上市公司净资产值和上一个自然年度末的市值,来计算BE/ME,按其大小将全部样本公司分成三组,分别是高BE/ME组(H)、中BE/ME组(M)和低BE/ME组(L),划分标准分别为纽约交易所上市公司BE/ME排序的前30%线和后30%线(排在中间的占40%)。综合起来,全部样本公司可被分成六组,分别是:(1)小市值、低BE/ME组(S/L);(2)小市值、中BE/ME组(S/M);(3)小市值、高BE/ME组(S/H);(4)大市值、低BE/ME组(B/L);(5)大市值、中BE/ME组(B/M);(6)大市值、高BE/ME组(B/H)。把以上6组公司看成是6个组合,逐月计算其当年7月开始到下年6月为止的加权平均收益率。然后在下一年6月时重复以上过程,调整组合,计算新组合的月度加权平均收益率。第二步,提取共同因子,以小市值公司与大市值公司的收益率差异(small minus big,SMB)来捕捉规模效应,SMB为三个小市值公司组合与三个大市值公司组合加权收益率的算术平均值的差值。以高BE/ME公司与低BE/ME公司的收益率差异(high minus low,HML)来捕捉BE/ME效应,HML为三个高BE/ME公司组合与三个低BE/ME公司组合加权收益率的算术平均值的差值。第三步,按第一步类似的方法,按市值大小将样本公司分成5个组,再按BE/ME高低将样本公司也分成5个组,综合起来形成25个组合,计算其月加权平均收益率,作为待解释变量(因变量)。第四步,构建回归方程:为市场组合收益率,以第一步中6个组合的收益率加权平均计算出,为无风险利率,以1个月国库券收益率计值。然后分别对第三步中的25个组合的时间序列进行回归,拟合出各项回归系数。

回归结果表明:市场组合风险溢价、SMB、HML三个因子有很强的解释力,25个回归方程都通过显著性检验,拟合度R[2]大多超过90%,最高的甚至高达97%。因此,可以初步判定,三因素模型成立。

从上述研究出发,可以将三因素模型正式改写如下:。不难看出,这一模型可以兼容标准的CAPM。

法马—弗伦奇三因素模型是从实证研究角度将抽象的APT模型具体化的一个成功范例,其提取共同因子的方法更被广泛运用。尽管后续的研究发现,股票市场中的规模效应逐渐消失,但HML的解释力依然存在。这使得三因素模型仍具有生命力。当然,如前所述,APT模型的内在弱点是不能从理论上指明共同因子是什么。同样地,三因子模型也不能从理论上说明:为什么SMB、HML可以成为共同因子,并要求有风险溢价。

二、希勒的学术贡献

希勒的研究横跨经典金融经济学和行为金融学,涵盖证券市场和房地产市场。但他主要的学术贡献在于对证券价格过度波动和长期收益可测性的研究,并将社会潮流等行为因素引入到资产定价模型中。

(一)股价过度波动与希勒方差不等式

20世纪80年代以前,金融经济学家普遍认为驱动股价波动的最主要因素是有关公司未来现金流的信息。也就是说,公司内在价值的变化驱动着股价的波动。这正是有效市场假说告诉人们的情形:如果市场是有效率的,股价就会充分反映可获得的信息,从而是基于当前信息集对其价值的最优估计,价格只会在新信息到达时发生调整。但是,从大众的感觉来看,股价的波动不仅过于频繁,而且过于猛烈。这种现象真能从公司的基本面因素变化得到解释吗?如果不能得到解释,则以前有关证券市场是半强式有效的实证检验结论就需要重新检视,继续坚持这一结论就会产生新的金融异象:波动率之谜(volatility puzzle)。

实际股价的数据是很详实的,接下来的问题就是如何估计证券的内在价值。由于未来的红利不可测,这个问题看起来似乎无解。但是,希勒(1981)采用了一个非常精巧的办法,即回溯法。其基本思想是:尽管未来的红利不可知,但是过去的红利却是已知的,这样,更早时点股票的内在价值就可以从已知红利数据中近似地计算出。就标准普尔指数来说,站在1979年时点上向前回溯到1900年,期间成分股支付的红利是已知的,那么在1900年时,其内在价值就是这些红利的折现值与期末价值(以1979年实际指数近似代表)折现值之和。从红利折现模型可以看出,相对于t时的内在价值,其后的现金流时点离得越近现值越大,离得越远则现值越小,至于非常远的时点,其现金流的现值几乎微不足道。因此,用上述回溯法对早期的股票内在价值进行估计,应该非常逼近真实,时点越近,误差可能越大。

图2 标准普尔指数的过度波动情况

资料来源:Shiller(1981)。

为了简化分析,希勒(1981)假定折现率是个常数。同时为了剔除时间序列数据中趋势项的影响,他通过技术处理,把内在价值转化成了消除趋势后的,把实际股价P也转化成了消除趋势后的p。据此,他计算了1871-1979年间标准普尔指数和1928-1979年间道琼斯工业指数的数据,结果证明:实际股价的波动率远远超过其内在价值的波动率。这和上述理论推导情况正好相反。图2直观地表现出了这一情形。

希勒(1981)的以上发现对市场的有效性是一个极大的挑战。尽管法马早就指出:证券价格对新信息的过度反应不必然构成市场有效性的障碍,因为过度反应与反应不足同样常见,只要不能利用新信息获取超常收益,市场就依然是有效的。但是,这不足以解释实际股价的波动率何以突破了边界。理论上,这种边界内在于市场有效性中,它不应该被突破。

不过,从对市场有效性挑战的角度看,上述分析还有可以探讨的地方,那就是关于折现率是常数的假定。假如折现率不是常数,而是时变的,则股票内在价值的波动率肯定会上升。然而,希勒进一步的分析表明,要使实际股价的波动率不超过边界,需要非常高的折现率波动率,而实际利率的波动率则低得多。因此,即使考虑到折现率的时变,也不能拒绝实际股价过度波动这一结论。

(二)均值回归与长期收益率的可测性

证券价格过度波动特性的确认具有很强的理论拓展意义,因为无论是在完全理性还是有限理性框架下,证券价格过度波动之后向内在价值回归都是很自然的结果。这就引申出了对长期收益率的均值回归(mean reverting)倾向的研究。可以将均值回归简述如下:当收益率处于平均值之上时,随后倾向于回到平均值之下,反之亦然。如果这一点成立,则意味着在较长时期证券收益率存在可测成分,这将对市场的有效性形成进一步的冲击。

希勒对此做了大量的拓展研究,他仍是从自己驾轻就熟的红利分析入手。既然市场会对红利做出过度反应,那么,红利的变化是否会成为一个在长期上有价值的预测指标呢?希勒(1984)以1872-1983年间标准普尔指数相关数据为样本,对此展开了实证研究。结果发现:滞后一期的红利股价比,以成分股上年派发的红利除以上年7月份的指数)和当期指数之间有着显著的相关关系。从回归方程来看,大体上讲,红利股价比相对于其均值每提高1%,收益率则会比其均值高出3.588%。他认为,这既揭示了证券价格对红利变化过度反应的程度,也表明了其中存在可测成分,同时还预示着资本损失会在未来出现,以摊平当前过高的收益率,从而隐含着均值回归倾向。

此后,希勒等学者运用向量自回归法(VAR)对标准普尔500指数1872-1986年间以及纽约交易所综合指数1926-1986年间相关数据进行了分析,进一步地发现红利股价比对未来单期的红利增长以及折现率的变化有很强的预示意义(Campbell & Shiller,1988a)。他们还以标准普尔500指数1871-1987年间相关数据为基础,考察了红利股价比、盈利股价比(E/P,实际盈利与指数的比值)对不同期限投资收益率的影响(Campbell & Shiller,1988b)。结果发现:红利股价比和盈利股价比对较长期收益率的预测力都大大高于对短期收益率的预测力,盈利股价比的预测力总体上更强于红利股价比。实证数据显示:红利股价比只能解释1年期实际收益率变化的3.9%(即回归方程的拟合度R[2]=0.039),但能解释3年期实际收益率变化的11%和10年期实际收益率变化的26.6%;而未做平滑处理的盈利股价比只能解释1年期实际收益率变化的1.9%、3年期实际收益率变化的9%,但能解释10年期实际收益率变化的29.6%;10年移动平滑后的盈利股价比能解释1年期实际收益率变化的4%、3年期实际收益率变化的11.1%,10年期实际收益率变化的40.1%;30年移动平滑处理后的盈利股价比则能解释1年期实际收益率变化的6.7%、3年期实际收益率变化的19.5%,10年期实际收益率变化的56.6%。显然,长期限平滑处理后的盈利股价比预测力最强,尤其是对长期限的实际收益率。

均值回归和长期收益率存在可测成分,意味着利用公开信息甚至历史信息可以获得超常收益,这似乎冲破了市场有效性最后一道防线。不过,客观地说,这些成果的最大贡献是深化了人们对证券价格行为的认识,厘清了有效市场假说的一些盲点。但如果就此宣称长期收益率是可测的,可以由此来获得超常收益,则言过其实了,也极具误导性。尽管均值回归倾向可以确认,但人们对回归会在怎样的时长上发生仍没有多少有价值的认识。利用实证研究中提取的可测成分去套利,在实践中既会面临各种技术和制度上的限制,又有成本的约束,更面临种种不确定性带来的风险。因此,即便是长期收益率,也远没到可测的程度。正如希勒在获奖后所言:在讨论资产定价时,人的因素是不能去掉的。预测资产价格走向部分地类似预测人的行为。显然,这离科学的预测还很远。更有力的事实是:在投资实践上,市场迄今仍然是难以战胜的,这也揭示了证券价格可测性的总体面貌。

(三)社会潮流与精明—普通投资者模型

股价过度波动在经典的金融经济学框架下难以解释,促使希勒转而关注人类心理因素对资产定价的影响。由此,他注意到社会潮流(social movements)在证券价格过度波动中起到了很大作用。希勒认为,股价易受社会潮流影响的关键原因在于没有一个被广泛接受的可以洞察其价值的理论。普通投资者(ordinary investor)面对的是Knight(1921)所说的“不确定”困境而不是风险,即他们对未来出现的各种情形的概率分布并不知晓。简言之,他们不知道证券的准确价值,也不知道某一事件发生后的确切后果是什么。因此,他们的观点就很容易受社会的影响。心理学的实验表明,当个体的观念与众不同时,在群体的压力(group pressures)下,他会保持沉默。这反映了人们的观点易受他人影响。

当然,社会潮流的形成需要一个过程。一个观点在引发社会潮流之前可能早已潜在于人们的心中。但它在不断从朋友们或社会权威那里听到之前,不会成为一件深信不疑的事或一种活跃的思想。也就是说,这个过程可能因相关的生动事件发生而加速,也可能因其他事件引发注意力转移而减缓。在观点扩散中,同伴、家人、朋友、邻居等之间的面对面交流或口口相传发挥的作用很大,甚至超过了媒体。

可以用流行病传染模型来描述观点扩散(diffusion of opinion)。如果某个观点携带者的“传染率”(infection rate)低于“去除率”(removal rate),则这个观点不会传播开来,形成社会潮流。当这种“传染率”高于“去除率”,且这两者数值本身较大时,则观点扩散迅速,潮流形成速度很迅猛,但消退得也很快;如果这两者数值本身都较小,则观点扩散缓慢,潮流形成过程也很长,持续的时间也很长。

希勒注意到,美国20世纪50-60年代的牛市固然有盈利和红利增长支撑,但也与养老金投资引起的个人投资潮流有关,而牛市的持续进一步地吸引了公众的注意力,使得这种潮流更加盛行。一个例证是:1954年,美国有投资俱乐部923个,到了1970年,这一数字达到了14102个。为了解释社会潮流对股价的影响,希勒(1984)构建了一个模型。他把投资者分成两类:一类是精明投资者(smart-money investor);一类是普通投资者。前者是理性投资者,完全按对未来股票收益的最佳预测行事,他们的行为可以描述如下:

普通投资者并非按对未来股票收益的最佳预测行事。他们容易对消息做出过度反应,也容易受潮流影响。将他们对股票的需求额与其全部股份比值定义为。此时,股价模型可表示如下:

φ值最小为0,代表着市场中的投资人全部是精明投资者,由此上式也退化为完全理性股价模型。φ值最大为∞,代表着市场中的投资人全部是普通投资者,由上式可得,即股价与红利无关,完全由普通投资者的偏好决定。

从上述模型出发,可以得出与事件研究文献相同的结论:当新信息到达时,股价会快速调整,此后无法获得超常收益。不过,两者的解释却是不一样的。在这里,股价的调整不仅取决于预期红利变化产生的影响,还要看普通投资者需求因此发生的变化。如果普通投资者需求变化的冲击是短暂的,则对股票价值没有实质性影响,股价仍由预期红利决定,普通投资者将给精明投资者提供套利机会。但是,如果普通投资者需求变化的冲击持续时间很长,则将对股价产生实质性影响,股价对新信息产生过度反应。这就可以和前述观点扩散不同的类型对应起来。不难看出,上述模型比红利折现模型对实际股价行为有更强的解释力。

在后续研究中,希勒(2000)进一步分析了心理因素对股价的影响。他指出,股价并没有一个由内在价值构成的明确的“锚”(anchor),人们并不知道股价正确的位置在哪里。要理解股价的实际行为,必须转向心理学。而心理学的研究显示,从人类行为模式中确实能找到一些这样的锚。如果人们的行为是完全理性的,它们本不应该存在。但是,它们的存在并不是人类无知的产物,而是人类智慧的体现。投资者总是努力地想做正确的事,然而他们的能力有限,当他们对行为后果缺乏清晰的了解时,某种自然的行为模式就会决定他们的行动。希勒就此提出了两类锚:一类是数量锚(quantitative anchor);一类是精神锚(moral anchor)。前者给出了股价合理水平,人们以此来判断当前股价过高还是过低,后者则决定了人们购买股票的理由。心理学的研究表明,当人们不知该如何估计某个数值但又必须这么做时,他们会选择此前见到过的数字。因此,数量锚通常是一些相关的历史价位(如前期高点或低点)或其他股票的估值水平等。

希勒(2000)的研究还丰富了观点扩散的机理。他强调,在社会潮流形成的过程中,口口相传起到了很关键的作用。但是,口口相传有一个很大的缺陷是容易出现信息损失和失真,这会阻碍社会潮流的形成。然而,互联网的兴起改变了人们交流的模式,使人们可以很快捷地通过电子邮件、聊天工具等实现准确的口口相传,这大大增强了社会潮流形成的力度和影响面。希勒认为,20世纪90年代网络股的泡沫正是与此相关。此外,证券市场从来不缺乏故事,而在信息传播过程中,简单而生动的故事往往最具有传播力,各类媒体大量的报道也增强了公众对证券市场的关注力,这些都会促进社会潮流的形成。

关于心理因素在证券定价中的重要作用,希勒还进行了许多研究(Shiller,1987,1988,1989;Shiller & Pound,1989),他也把同样的方法运用到对房地产市场的研究中(Case & Shiller,1987,1989,2003)。这些研究激发了大量的相关研究,并使人们最终认识到:在现实的世界里,无套利机会并不必然意味着资产定价正确;资产错误定价可能会持续很长时间,在这种情况下,精明投资者试图纠错的套利行为会面临着很大风险,因此,他们在短期上也会选择跟随潮流。这正是20世纪90年代对冲基金的行为写照,他们在互联热潮中不是选择卖空股票,而是选择“骑上泡沫”(ride the bubble)。

三、汉森的学术贡献

汉森的研究集中于不确定条件下的动态经济理论与模型。他在资产定价方面的主要贡献是,运用自己创立的广义矩估计法(Generalized Method of Moments,GMM)对消费资本资产定价模型(consumption capital-asset-pricing model,CCAPM)展开了深入的实证研究,并与贾根内森一起提出了汉森—贾根内森(Hansen-Jagannathan)边界。

(一)GMM与消费资本资产定价模型

CAPM在20世纪70年代后碰到了实证检验难题,各种CAPM异象不断被揭示。这促使人们对资产定价模型展开了更深入的研究。由于CAPM是单期的、基于投资者的均值-方差行为,经济学的理论基础不够强大。因此,一个很自然的切入点就是从投资者的消费行为出发,将CAPM动态化,从而形成了有着强大的经济学理论基础的消费资本资产定价模型。

假定跨期消费的效用互相独立,即时间上可加,则一个以消费效用最大化为目标函数的代表性当事人在消费与投资之间的选择应该满足一阶条件:

CCAPM打开了一扇全新的窗户,使人们可从消费流的角度去观察资产的定价。假如消费流的变化可测,代表性当事人的风险厌恶程度稳定,则资产价格不仅可确定,也可以预测。大量的实证研究就此围绕该主题展开,汉森和辛格尔顿(Hansen & Singleton,1983)也导出了一个非常有影响力的CCAPM具体公式:是收益率,γ是风险厌恶系数。

上式表明,资产的价格由效用的折现率、消费的预期变化率等因素决定。汉森和辛格尔顿运用最大似然法对此展开的实证研究发现,此式对综合指数适应性较好,但对单个证券则基本上不成立。这一结果对CCAPM产生了严重冲击。进一步的研究使人们开始怀疑传统计量方法在上述实证检验中的可靠性。无论是最小二乘法、最大似然法,还是工具变量法等,它们在进行参数估计时都要求必须满足某些假定条件,如随机误差项服从正态分布或某一已知分布,不存在序列相关性,模型为线性等,而实际情况与这些假定都很不相符。因此,人们转而寻求更强大的计量分析工具。汉森(1982)创立的广义矩估计法(GMM)正是这样的工具。

GMM是矩估计法的推广。它从矩条件或矩方程出发对参数进行估计或检验,不用考虑模型形式的设定以及可能由此引起的设定误差等问题,因而更具一般性,可以将最小二乘法、最大似然法、工具变量法等涵盖,作为其特例。一般地,总体矩条件的表达式如下:

但用矩估计法来估计参数会面临很多约束,特别是当矩条件数量超过待估参数的数量时,就会出现过度识别(over-identifying)问题,参数的估计值不再是唯一的。GMM提出,如果所估计出的θ能使所有样本的矩条件得到最大满足,则此类问题便可解决。这可以通过最小化如下二次型目标函数来实现:

其中W是对称正定权重矩阵。汉森(1982)证明了,在满足一定的正则条件下,由此得出参数值是真实值的一致估计。同时,在对施加一些比较宽松的限制条件(如稳定、遍历、可微的假定)后,参数估计值将服从渐进正态分布,收敛于真实值。

那么,W该如何确定呢?汉森(1982)提出,可通过如下的协方差矩阵来构建:

,带入前述目标函数中,然后求解即可。

不难看出,Ω的取值依赖于θ,而θ的估计又依赖于Ω。这似乎形成了一个难解的循环。为此,汉森(1982)提出了两步走的解决办法:第一步:先用一个任意的权重矩阵W(通常用单位阵,即W=I),来计算参数的一个一致估计值,然后根据这个参数估计值来计算协方差矩阵Ω;第二步:使用第一步中计算出的Ω,得到θ的有效估计值。在实证研究中,样本矩条件的数量r通常多于待估参数的数量k。在存在过度识别的情况下,上述估计是否可靠呢?对此,汉森(1982)提出了如下的检验方法:令,则该统计量服从自由度为r-k的分布。运用检验,即可判定GMM估计的可靠性。

GMM为处理动态经济模型中面板数据的问题提供了一个强大的统计工具。对于这些模型来说,数据之间的序列相关性是常见的,并且设定完整的模型常常是不可能的。因此,使用传统的计量分析工具存在着很大的局限性,而GMM可以很好地解决这些问题。这使得它在诸如研究消费、劳动力供给以及资产定价等运用动态面板数据的领域得到了广泛的应用,产生了巨大影响,现在已成为计量经济学中最常用的工具之一。

式中β和γ为待估计的参数。

当有n个证券和m个工具变量时,将会得到nm个矩条件。显然,这里很容易出现过度识别问题。

汉森和辛格尔顿以R的滞后值作为工具变量,对1959年2月-1978年12月期间纽约交易所综合指数(包括等权重指数和加权平均指数)收益率和1959年2月-1977年12月期间的三个行业(化工、交通运输与设备、其他零售贸易)等权重指数收益率展开了分析,对相关参数进行了估计,结果显示:所有的模型在经济上都有意义,大体上γ接近于1(尽管标准差很大),β则略小于1。但是,部分模型的Χ[2]检验结果不理想。随后的研究发现:早先的分析中存在数据错误(Hansen & Singleton,1983,1984)。在纠正错误之后,CCAPM的一般表达式和实证数据吻合得不好。这一结果导致此后有大量的研究转向CCAPM的不足。

(二)汉森-贾根内森边界

CCAPM实证效果不佳使得人们对随机折现因子的特性产生了浓厚的兴趣。随机折现因子受效用函数的形式以及风险厌恶系数设定的影响。换句话说,如果效用函数的形式选择不当,风险厌恶系数设置不当,都可能导致CCAPM实证效果不佳。那么,如何才能判定问题出在这里呢?汉森和贾根内森(1991)提出的“折现因子波动下界”为此提供了一个有用的准则。

上式就是汉森—贾根内森边界的表达式,式子的右边实际上是夏普比率(Sharpe Ratio)。其含义是:折现因子的波动率存在着下界,即相对于其期望值的比值应该在夏普比率之上。

汉森—贾根内森边界为解剖折现因子的特性提供了极大的便利。以标准普尔500指数为例,其夏普比率大致在0.5左右,则σ(M)/E(M)≥0.5。由于E(M)=,比较接近1,所以,σ(M)接近或超过50%。也就是说,折现因子有着高度的波动性。这个结果在直观上相当有震撼力。由此检视常用的幂效用函数,就会发现它与极端高的相对风险厌恶系数相对应,从而暴露出了很大的局限性。

汉森的上述成果引发了大量的CCAPM拓展工作。为了解决折现因子波动率过大的困境,人们开始寻求放宽讨论的假定前提条件,引入了效用的时间不可加性、不完备市场等方面讨论,从而大大丰富了CCAPM。汉森—贾根内森边界还被广泛地运用于动能交易、套利交易等投资实践中。

首先,法马和希勒同时获得诺贝尔经济学奖表面上看似矛盾,甚至被认为带有娱乐性,其实不然。经典的金融经济学理论都是建立在一系列完美假定(诸如理性经济人、完全竞争、无交易成本、没有信息不对称、同质预期等)的基础上。有效市场假说也是如此。现实世界中证券市场是否有效并不构成否定有效市场假说的理由,就像人们不会因为真实世界存在摩擦就否定基于真空世界形成的物理学定理及其理论与应用价值一样。有效市场假说绝不等于市场的有效性,但它深刻地揭示了证券市场的均衡特征,至今还有强大的生命力。有效市场假说所包含的市场不能被轻易战胜的论断,如今依然被普遍认为接近真实。

其次,希勒对证券市场过度波动性的分析针对的主要是有效市场假说的增强版(即要求市场在任何时候都包含着反映其内在价值的全部信息)。他的研究揭示了实际市场远不符合有效市场增强版,无套利机会可以和错误定价并行不悖。这是经典金融经济学难以解释的。于是,希勒转向行为金融学,把分析的前提从完全理性放宽到不完全理性。由此取得的成果代表着在经典金融经济学基础上的一大进步。虽然行为金融学依赖于心理学实验和实证研究,所形成的理论不像经典金融学理论那样严密而优雅,但是它更接近于真实世界,因而也代表着金融经济学未来的一个主要发展方向。

再次,试图预测证券价格一直是不少金融经济学者孜孜以求的事。不过,我们依然要指出:关于证券价格短期不可测而长期具有可测性的表述,极具误导性。实际上,包括行为金融学在内的所有金融经济学理论迄今都不能宣称证券价格在长期上是可测的,只能说从实证研究中发现了长期收益率中存在着可测成分。但这种可测成分距离精确预测以及实际套利还差得很远,实证研究同样表明了将这种可测成分用于套利并非易事。金融经济学其实在很大程度上已承认:证券价格不可测不是人类无知的结果,恰恰是人类智慧的体现。当然,这不是说金融经济学对证券价格行为一无所知。相反,这方面已形成了非常丰富和相当成熟的认知。对证券价格长期可测性的研究也深化了人们在这方面的认知。不过,证券价格可知不可测仍是更准确的表述。

最后,随着法马获奖,经典金融经济学理论创立者中只剩下套利定价理论的主要贡献者罗斯(S.A.Ross)等人尚与诺贝尔经济学奖无缘。实际上,法马—弗伦奇三因素模型只是套利定价理论的一个实证成果。罗斯不仅是套利定价理论的主要创立者,也是期权定价的二叉树模型以及风险中性定价理论的主要创立者。因此,如果罗斯在未来获得诺贝尔经济学奖,那么,这应该不会令人感到意外。

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

2013年诺贝尔经济学奖获得者学术贡献述评_有效市场假说论文
下载Doc文档

猜你喜欢