2025年7月16日-17日,美国爱荷华州立大学的Cindy Yu教授为“2025亚洲计量经济学与统计学暑期学校”的学员们带来了为期两天的精彩课程,授课主题为Causal Inference as a Missing Data Problem: Foundations and Extensions”。 Yu教授深入浅出的讲解,为学员们打开了因果推断前沿研究的大门。

第一讲:因果推断的核心与方法演进
Yu教授开篇点明因果推断的核心挑战,并系统介绍了常用估计方法,如结果回归模型(Outcome Regression Model) 和逆倾向值加权估计量(Inverse Propensity Weighted, IPW Estimator)。她指出,这些传统方法的效果高度依赖于模型的正确设定。随后,她引入了增强逆概率加权估计量(Augmented Inverse Probability Weighted, AIPW, Estimator)——一种融合了前两者优势的整合方法。AIPW估计量的核心优势在于其双重稳健性(Double Robustness):只要结果模型或倾向得分模型中有一个设定正确,就能保证估计量的无偏性。此外,AIPW估计量在特定函数类中具有最小方差的优良性质(最优性)。
第二讲:探索AIPW估计量的最优性理论
本讲深入探讨AIPW估计量为何能达到最优性。Yu教授首先铺垫了关键理论基础,包括影响函数(Influence Function)、渐近线性(Asymptotically Linear)、正则渐近线性(Regular Asymptotically Linear, RAL)、得分函数(Score Function)和希尔伯特空间(Hilbert Space) 等概念。核心目标锁定在寻找有效影响函数(Efficient Influence Function)——即在所有RAL估计量的影响函数中,能达到最小方差的那一个。Yu教授巧妙地从有限维参数模型入手,阐述寻找最优影响函数的思路,再将其推广到更具挑战性的无穷维(非参数)模型,利用有限维逼近无穷维的思想,证明了AIPW估计量如何达到半参数效率边界(Semiparametric Efficiency Bound)。理论讲解后,Yu教授辅以实例,生动展示了该理论的实用性。
第三讲:从效应估计到动态干预策略
在掌握AIPW估计量构造方法后,Yu教授将视野拓展至更具应用前景的领域——动态干预策略(Dynamic Treatment Regime, DTR)。DTR在个性化医疗、精准营销等场景中潜力巨大。与静态因果效应估计不同,DTR的核心在于如何根据个体特征和历史信息,动态设计最优的干预序列。Yu教授指出,该框架需解决两大关键问题:1) 如何估计个体在特定干预策略下的未来表现(常用价值函数(Value Function)度量);2) 如何找到能最大化价值函数(即期望回报) 的最优干预规则。
第四讲:价值函数估计与最优策略学习
本讲聚焦价值函数。Yu教授类比因果效应估计,介绍了三类主要方法:结果回归法、IPW法和AIPW法,并特别强调了干预规则本身与实际观察到的干预之间的差异。基于价值函数,即可定义最优干预规则。Yu教授详细讲解了三种寻找最优规则的主流方法:
1.Q-learning:基于回归模型迭代学习最优决策;
2.A-learning:基于对比函数(Contrast Function) 的半参数方法;
3.值搜索估计法(Value Search Estimation)。
最后,Yu教授展望了前沿方向:如何将最优策略搜索转化为优化问题,并巧妙结合机器学习技术(如神经网络、随机森林、支持向量机等) 进行高效求解。

课程中,学员们围绕模型假设、理论细节及DTR的应用场景等踊跃提问,Yu教授均给予了详尽、深入的解答。她结合自身丰富的研究经验,系统梳理了因果推断领域的前沿脉络,极大地拓展了学员们的学术视野和研究思路。
本次课程不仅夯实了学员们的理论基础,更激发了大家探索因果推断在实际复杂场景应用,尤其是动态决策领域应用的浓厚兴趣。