• 统计研究中心
当前位置: 首页 > 系列讲座 > 正文

卡内基梅隆大学雷径教授:Conformal Inference, Covariate Shift, and De-biased Two-Sample U-Statistics保形推断、协变量漂移与去偏两样本U统计量



主 题Conformal Inference, Covariate Shift, and De-biased Two-Sample U-Statistics保形推断、协变量漂移与去偏两样本U统计量

主讲卡内基梅隆大学雷径教授

主持人统计学院陈雪蓉副教授

时间:202474日(周四)下午300-400

举办地点:柳林校区弘远楼408会议室

主办单位:统计研究中心和统计学院 科研处

主讲人简介:

雷径,现任卡内基梅隆大学统计与数据科学系教授。他于2010年在加利福尼亚大学伯克利分校获得统计学博士学位,并于2005年在北京大学获得概率与统计学学士学位。他的主要研究方向包括无模型预测推断、网络数据分析、高维多变量分析、功能数据分析、数据隐私等。

雷教授的职业生涯始于Google公司,担任定量分析师。此后,他加入卡内基梅隆大学,先后担任助理教授、副教授,并于2022年晋升为教授。他在学术界的贡献得到了广泛认可,获得了如NSF CAREER奖、ASA Noether青年学者奖、IMSASA的会士荣誉,以及ASA Leo Breiman青年奖等多个奖项。

雷教授现为国际统计学顶刊JASAJRSSB的副主编。他的代表论文发表在多个顶级期刊和会议上,包括《Journal of the American Statistical Association》《Annals of Applied Statistics》《Annals of Statistics》《Bioinformatics》等。他的研究不仅在理论上具有深远影响,也在实际应用中展示了巨大的潜力。

作为研究项目的负责人,雷教授主持了多个国家自然科学基金(NSF)和国家卫生研究院(NIH)项目,研究现代预测推断、大规模多模态矩阵数据理论与方法等。他在学术研究和教学方面的贡献,使他成为统计学领域备受尊敬的学者和教育家。


内容简介

We consider the problem of detecting potential deviation from the covariate shift assumption, using a test statistic obtained by combining many dependent conformal p-values. The resulting statistic becomes a weighted two-sample U-statistic and can be cast as a semiparametric inference problem with two nuisance functional parameters. We show that the use of conformal p-values can guarantee valid inference with an accurate estimate of just one nuisance parameter, and provides a natural way to avoid degeneracy. The potential bias carried in the nuisance estimate can be corrected using a general framework of de-biased two-sample U-statistic. (Based on joint works with Xiaoyu Hu and Yuchen Chen)

主讲人研究了在协变量漂移假设下检测潜在偏差的问题,使用通过结合多个依赖的保形p值(conformal p-values)获得的检验统计量。所得统计量成为一个加权的两样本U统计量,可以被视为具有两个扰动函数参数的半参数推断问题。主讲人证明了,使用保形p值可以通过对一个扰动参数的准确估计来保证有效推断,并且提供了一种自然的方式来避免退化。扰动估计中可能存在的偏差可以通过去偏两样本U统计量的一般框架进行校正。(基于与Xiaoyu HuYuchen Chen的联合工作)


上一条:加州大学尔湾分校Annie Qu教授:Individualized Dynamic Model for Multi-resolutional Data with Application to Mobile Health

下一条:肯塔基大学张嘉伟助理教授:Is a classification procedure good enough?—A goodness-of-fit assessment tool for classification learning