校级报告 | 统计学院2018年自然科学67周年校庆学术报告

时间:2018-10-09浏览:414设置

题  目:统计思想欣赏

报告人:王静龙 教授

主持人:张日权 教授
时间:10月17日15:30-16:30

地点:闵行校区法商南楼516

报告人简介:王静龙,华东师范大学退休二级教授,从事统计理论、方法、应用与教育的研究。近年来从事统计普及读物的撰写,《魅力统计》一书2012年由中国统计出版社出版,《统计思想欣赏》一书2017年由科学出版社出版。

报告内容简介:统计思想是统计理论与方法的想法。统计思想主要体现在科学与艺术、归纳与演绎、精准与趋势,证明与推断、定量与定性、相关与因果、集合与总体、描述与建模、回顾、前瞻与随机分组双盲以及统计学意义的判断。本报告将讲述这些想法的统计所固有的本质属性。



题  目:Analysis of Stochastic Gradient Descent


报告人:王亚珍 教授

主持人:张日权 教授

时间:10月24日15:00-16:00

地点:中北校区理科大楼302

报告人简介:王亚珍,美国威斯康星大学麦迪逊分校统计学教授,统计系系主任,1987毕业于华东师范大学,先后获学士和硕士学位,1992获加州大学伯克利分校博士学位。主要从事金融统计、超高维统计推断、小波分析、长记忆过程和受限制过程的统计推断等方面的研究。现为国际数理统计学会成员、美国统计学会会士、Stat.Interface主编,曾任JASA、Ann. Statist.、Ann. Appl. Stat.、J. Bus. Econom. Statist.、Statist. Sinica、Econom. J.等杂志副主编。

报告内容简介:Gradient descent algorithms such as accelerated gradient descent and stochastic gradient descentare widely employed to solve optimization problems in statistics and machine learning. This talk will present a new asymptotic analysis of these algorithms by continuous-time ordinary or stochastic differential equations. I will illustrate that the analysis can provide a novel unified framework for a joint computational and statistical asymptotic analysis on dynamic behaviors of these algorithms with the number of iterations in the algorithms and large sample behaviors of the optimization solutions (i.e. statistical decision rules like estimators and classifiers) that the algorithms are applied to compute. I will also discuss the implication of the analysis results for deep learning. 


返回原图
/