- 基本有用的计量经济学
- 赵西亮
- 1543字
- 2020-07-09 17:48:14
第二节 因果推断简史
在哲学领域很早就有关于因果的讨论,但真正可以操作的因果概念还是来自于统计学领域。统计学领域流行的观点是统计工具只能考察和识别相关关系,不能考察因果关系,相关关系不是因果关系。Neyman(1923,1990)在研究农业实验中首次提出了潜在结果的概念,但由于其论文是用波兰语写成的,并没有引起学术界的关注。[4]Fisher(1935)提出,随机化实验(randomized experiments)是因果推断的基础。20世纪70年代以来,Rubin(1974,1977,1978)的一系列论文,重新独立地提出了潜在结果的概念,并将之推广到观测研究,从而构造出适用于随机化实验和观测研究的基本分析框架,Rubin提出的潜在结果框架被称为Rubin因果模型(Holland,1986)。[5]Rubin因果模型(Rubin CausalModel, RCM)的关键是提出了“潜在结果”的基本概念,第二章会详细介绍Rubin潜在结果框架。目前,RCM已经成为因果推断的基本理论基础。[6]
在经济学文献中,因果推断可以追溯到Ashenfelter(1978)、Heckman and Robb(1985)等。关于潜在结果的概念,实际上在Haavelmo(1943)关于供求分析的联立方程理论中有所涉及,文中他区分了供给函数中“任何想像的价格π”和“实际价格p”,但是后来的计量经济学理论发展没有沿着潜在结果的方向走下去,而是开始对观测结果直接进行建模,将潜在结果和分配机制杂糅在一起,使因果效应的识别变得难以理解,并且引入的假设也越来越多(Rubin,2008;Imbens and Wooldridge,2009)。
经济学界历来存在着“计量经济学是否是科学”的争论(Hendry,1980;Sims,1980),Leamer(1983)更是指出:“计量经济学的艺术就是,研究者在计算机终端中拟合许多(甚至上千个)统计模型,从中选择一个或几个符合作者预期的估计结果在论文中进行报告。”“我们发现我们正处于一种令人沮丧和不科学的境地。没有人将数据分析看作严肃的事情,或者更准确地,没有人把别人的数据分析当回事。”Leamer(1983)提议让我们将计量经济学中的“谎言和欺骗”剔除出来,他提出的解决方案是“敏感性分析”(sensitivity analysis)。然而,“敏感性分析”并不能真正解决实证分析结果的“可信性”问题(Angrist and Pischke,2010)。传统计量经济学方法的“可信性危机”在当时逐渐显现出来,LaLonde(1986)利用美国70年代进行的一项就业培训的随机化实验数据,考察利用传统计量经济学方法是否能够模拟随机化实验的结果。他以随机化实验作为基准(benchmark),利用观测数据作为控制组,运用回归、固定效应、Heckman选择模型等计量经济学常用方法估计了培训对收入的影响,发现这些计量经济学方法都无法复制随机化实验的结果。因而得到观察研究中,计量经济学方法无法可信地估计出因果效应的悲观结论。LaLonde(1986)的研究直接推动了经济学经验研究的“可信性革命”。经济学家开始关注计量经济学方法的可信性问题,Dehejia and Wahba(1999)利用倾向指数匹配方法重新考察了LaLonde(1986)探讨的问题,他们发现,尽管LaLonde尽量通过手工方式使两组个体相似,但是,LaLonde构造的控制组个体与实验中的干预组个体仍然具有较大的特征差异。他们利用倾向指数匹配方法,获得与干预组个体更为相似的控制组个体,发现估计的因果效应与随机化实验的结果非常相似。LaLonde(1986)和Dehejia and Wahba(1999)的研究引起了很多学者的关注和讨论,从而引发了计量经济学的“可信性革命”(Angrist and Pischke,2010)。[7]随后,有很多文献考察观测研究如何才能复制随机化实验的结果,如何才能使经济学的经验研究更加可信。“可信性革命”的一个重要特点是强调设计,以随机化实验作为研究设计的基础,对潜在结果直接进行建模,而不是对观测结果进行建模,将潜在结果和分配机制分离开来,通过科学的设计,让数据自动呈现因果效应,尽量避免有关函数形式和模型设定这种假设因素,与结构计量经济学学派形成清晰的差别。引领这场经济学经验研究“可信性革命”的代表人物包括加州大学伯克利分校的David Card、普林斯顿的Alan Krueger、斯坦福大学的Guido Imbens、麻省理工学院的Joshua Angrist、哈佛大学的Alberto Abadie等人,通常称之为计量经济学的“实验学派”。