2025年7月14-15日,美国麻省理工学院Whitney Newey教授为2025亚洲计量经济学与统计学暑期学校的学员带来了四节前沿计量经济学课程。

在第一讲伊始,Newey教授指出当前经济学模型常常伴有高维参数,而很多正则化方法(如Lasso)会引入额外的偏差,从而对后续统计推断造成困难。Neyman正交和交叉拟合(Cross-fitting)的思想则可以用于解决该问题。接下来,Newey教授以带有高维控制变量的线性回归模型作为切入点,引出部分剔除(Partial Out)的概念,并在此基础上介绍Double Lasso方法:该方法对目标变量和处理变量分别关于高维控制变量做Lasso回归,提取残差,并利用残差对处理变量的参数进行估计。总结而言,Double Lasso通过正交化第一步估计的偏差影响,为高维因果推断提供可解释、可推断的解决方案。
Newey教授的第二讲围绕Lasso和神经网络展开。在介绍Lasso的过程中,Newey教授强调了标准化变换的重要性,并对调节参数的交叉验证方法、估计量的收敛速度及其对应正则条件进行讲解。Newey教授还对神经网络进行了介绍,指明了神经网络与计量经济学的非参数模型之间的相似之处。最后,Newey教授强调:Lasso和神经网络估计中经常会用到Plug-in方法,而该方法的局限性在于因正则化/模型选择产生的不可忽略偏差。因此,我们需要构造Neyman正交矩条件,使目标参数估计对辅助参数估计误差一阶不敏感,从而使偏差可以被控制在可接受的范围内。
在第三讲中,Newey教授以平均处理效应(Average Treatment Effect, ATE)为例,阐明了在对条件均值的线性函数进行建模时Riesz表示定理对于构建Neyman正交估计方程的重要性。在此基础上,Newey教授对于因果推断中常用的双重稳健(Double Robustness)性质进行了介绍,并指出基于该性质可以直接推导出Neyman正交性质。在本讲的剩余时间里,Newey教授分别对如何利用交叉拟合方法构建估计量、一致渐近方差估计量以及自动纠偏机器学习方法(Automatic Debiased Machine Learning)进行了详细讲述。
Newey教授在第四讲中着重介绍了构建Neyman正交矩条件的两种常用思路:(1)在目标函数中对未知函数进行部分剔除(例:Double Lasso);(2)对矩条件函数进行误差修正。为进一步加深理解,Newey教授简要介绍了Neyman正交性质的证明过程,强调了链式法则在证明中的重要作用。在课程最后,Newey教授展示了纠偏机器学习方法的理论性质成立所需的数个正则条件,以明确该方法的适用范围。

在授课过程中,暑期学校的学员们分别就模型的稀疏性假设、交叉拟合的必要性、样本切分的随机性对估计量理论性质的影响等问题进行提问。Newey教授对学员们提出的问题一一进行了详尽解答。Newey教授基于自己的前沿研究成果,对纠偏机器学习方法进行了全方位讲述,为学员们开拓了新的学术视野。