2025年7月20日,美国北卡罗来纳大学夏洛特分校的蒋建成教授为“2025亚洲计量经济学与统计学暑期学校”的学员们带来主题为“科学中的人工智能:DNN + 应用” 与“强化学习”的系列课程。

第一讲中,蒋建成教授带领大家回顾了人工智能(AI)从最初的概念萌芽到如今成为现代科学与产业关键驱动力的发展历程,并聚焦那些奠定AI发展基石的里程碑式突破,深入剖析AI如何引领科研创新,破解复杂实际问题。随后,他向学员们介绍了科学研究中的两种范式:基于数据驱动的开普勒范式和基于第一性原理驱动的牛顿范式,并讲解了这两种研究范式的基本原理。他指出,随着统计方法和机器学习的蓬勃发展,基于数据驱动的开普勒范式尽管可以有效地通过数据发现事实,但是不能很好地帮助人们找到事实背后的原因。牛顿范式基于第一性原理,虽具备解释力,但这些原理主要由数学中的偏微分方程来描述,而这些数学模型有时会非常复杂,比如量子力学中的多体问题。
第二讲中,蒋建成教授指出,之所以出现这些问题,其核心在于人们处理多元函数的能力有限,也就是通常所说的“维数灾难”问题,而处理这一问题正是机器学习比如深度神经网络(Deep Neural Networks,DNN)的强项。接着他回顾总结了近年DNN来在各领域的前沿应用,展示了DNN如何解决偏微分方程求解、图像识别、自然语言处理以及自主决策等多重难题。
第三讲中,蒋建成教授从基本概念出发,循序渐进,系统地介绍了DNN的核心原理与实践路径。在这一过程中,他从最基础的感知机模型,到卷积层、全连接层、激活函数的选型策略,详细地讲解了DNN的网络架构,并剖析了如何通过数据驱动的训练流程,让网络自动识别模式、精准预测结果。
第四讲中,蒋建成教授深入讲解了强化学习(Reinforcement Learning)的核心原理:智能体(Agent)通过与环境的互动不断学习决策。在强化学习框架下,智能体观测环境状态、执行动作,并根据奖励或惩罚信号调整策略,以期在长期累积奖励中取得最优表现。其核心挑战在于如何平衡“探索”(探索未知动作带来的潜在收益)与“利用”(利用既有经验获得稳定回报)两者关系,从而挖掘并掌握最优策略——即在任一状态下都能做出最佳决策的指导方针。最后,他重点剖析了无需环境模型的 Q‑Learning 算法,展示了它如何通过不断交互,逐步逼近最优决策。

通过这一课程学习,学员们不仅掌握了从零构建并优化深度神经网络的实战方法,还开拓了对人工智能与强化学习的全新视野,为未来的跨学科研究与创新应用打下坚实基础。