7月20日 黄坚:Generative learning meets Monte Carlo: a dual perspective

时间:2021-07-12浏览:505设置

讲座题目:Generative learning meets Monte Carlo: a dual perspective

主讲人:黄坚  教授

主持人:周勇  教授

开始时间:2021-07-20  08:30:00

讲座地址:Zoom会议(ID86860610732  密码:721918

主办单位:经济与管理学部

主讲人简介:

黄坚,University of Iowa教授,他的研究领域涉及高维统计、机器学习、生存分析、生物信息学和统计遗传学。他在Annals of StatisticsBioinformaticsBiometricsBiometrikaEconometrikaJournal of  the American Statistical AssociationJournal of Machine Learning ResearchPNASThe American Journal of Human Genetics等国际顶级学术期刊上发表论文100余篇。黄坚教授在1998年被美国国家卫生院(National Institute of Health)授予了Research Scientist Development Award,是数理统计学会(Institute of Mathematical Statistics)资深会员(fellow)。他曾担任Annals of StatisticsStatistica SinicaStatistics and Its Interface副主编。由于在数学领域具有很高的引用论文数,黄坚教授在20152019年间被Web of Science评为高被引学者,且在20132019年间排名高被引学者的前1%


内容简介:

基于随机样本学习总体的概率分布和从给定分布中进行抽样是统计学和机器学习中的两个基本问题。现有的文献大多把这两个问题分开进行研究。例如,对于密度函数的非参数估计已经发展出了很多方法;同样地,贝叶斯统计引入了许多类型的蒙塔卡洛算法来从(非标准)分布中进行抽样。近年来,生成学习的方法被证实可以有效地学习高维复杂数据的分布,例如GANs方法。在这个报告中,我们说明了深度生成学习也可以适用于从非标准分布中进行抽样。我们展示了一种相对熵梯度采样器(REGS)来从非标准分布中进行抽样。这是一种通过Wasserstein梯度流来实现的生成学习方法。这个方法成功的关键在于使用深度神经网络来近似高维函数的能力。我们对具有挑战性的多峰混合分布进行了大量的模拟试验,并且对实际数据进行了贝叶斯逻辑回归,这些结果表明REGS方法的表现优于本研究中所考虑的一些先进的抽样方法。


返回原图
/