主 题:Conditional Stochastic Interpolation for Generative Learning生成学习的条件随机插值
主讲人:香港理工大学黄坚教授
主持人:统计学院林华珍教授
时间:2023年11月10日(周五)下午16:00-17:00
举办地点:柳林校区弘远楼408会议室
主办单位:统计研究中心和统计学院 科研处
主讲人简介:
黄坚,香港理工大学应用数学系数据科学与分析讲座教授。在武汉大学获得数学学士和统计学硕士学位,在华盛顿大学(西雅图)获得统计学博士学位。曾任美国爱荷华大学统计学与精算学系和生物统计学系教授。其研究兴趣包括机器学习,高维统计,计算统计,生物统计学,和生物信息学。近年来主要致力于深度学习的研究, 包括生成学习、深度神经网络逼近理论、深度学习的误差分析、以及刻画在什么条件下深度神经网络方法可以克服维数灾祸等。在包括《The Annals of Statistics》、《Journal of The American Statistical Association》,《Journal of Machine Learning Research》,《Biometrika》,《Conference on Neural Information Processing Systems》等国际统计学、机器学习杂志和会刊,和《Econometrika》,《Journal of Econometrics》等计量经济学杂志,以及《PNAS》,《American Journal of Human Genetics》, 《Bioinformatics》, 《Nucleic Acid Research》等杂志上发表学术论文150余篇。是美国统计学会(ASA)和国际数理统计研究所(IMS)Fellow。从2015年到2019年入选科睿唯安全球高被引学者榜,在数学领域里被引用最多的论文中排名前百分之一;并在2022,2023年被斯坦福大学列入全球前 2% 被引用最多的科学家名单。
内容简介:
We present a novel framework, called the Conditional Stochastic Interpolation (CSI), which learns the stochastic differential equations for transporting between two empirically observed distributions. The proposed framework provides an effective solution to conditional generative modeling. The key idea is to learn the velocity function and the conditional score function based on conditional stochastic interpolation using deep neural networks, which is then used to construct a Markov process for the purpose of conditional sampling. We establish error bounds for learning the target conditional distribution via CSI in term of the KL divergence. Numerical experiments support our theoretical findings. We also illustrate the proposed method on image generation using benchmark data and the UK Biobank brain imaging data. This is joint work with Ding Huang, Ting Li and Guohao Shen.
主讲人提出了一个新的框架,称为条件随机插值(CSI),它通过在两个观测到的经验分布之间传输学习随机微分方程。该框架为条件生成建模提供了一个有效的解决方案。其核心思想是利用深度神经网络学习基于条件随机插值的速度函数和条件得分函数,然后利用该函数构造马尔可夫过程进行条件采样。主讲人根据KL散度建立了通过CSI学习目标条件分布的误差界。数值实验支持主讲人的理论发现。主讲人还使用benchmark数据和英国生物银行脑成像数据说明了所提出的图像生成方法。该工作是与Ding Huang, Ting Li and Guohao Shen合作的。