Distinguished Lecture——Deep Learning, Curse of Dimensionality and Numerical PDEs
报告人:许进超 (KAUST)
时间:2024-03-15 10:00-11:00
地点:智华楼四元厅
摘要:In this talk, I will report several theoretical and numerical studies of deep neural networks and applications, including LLM, approximation properties of neural network functions (especially for high dimensional problems), h-p finite elements versus deep neural networks, multigrid method versus convolutional neural networks, convergence properties of training algorithms, and subspace correction method versus federated learning.
个人简介:
许进超是阿卜杜拉国王科技大学(KAUST)教授、KAUST深圳创新中心主任、美国宾州州立大学数学系Verne M. Willaman讲席教授。许教授于1995年获得首届冯康科学计算奖,于2005年获得德国“洪堡”资深科学家奖,2006年获得中国杰出青年基金(B 类), 于2007年应邀在第6届国际工业与应用数学学会大会上作特邀报告,2010年应邀在国际数学家大会上作45分钟报告,并于2011年当选美国工业与应用数学学会会士,2012年当选美国数学学会会士,2019年当选美国科学促进学会会士,2022年当选欧洲科学院院士, 2023年当选欧洲人文和自然科学院院士。
许教授主要研究方向为数值方法的设计、分析和应用,特别是求解偏微分方程以及大数据中的快速算法及其应用。他在区域分解法,多重网格方法和自适应有限元方法等领域取得的科研成果包括子空间校正算法、BPX-预条件子、HX-预条件子以及XZ-恒等式等以他名字(Xu)命名的工作。其中BPX-预条件子已经成为大规模科学计算中最基本的算法之一。用于求解Maxwell方程组的HX-算法,曾被美国能源部评为近年来计算科学领域中的十大突破之一。许教授迄今发表学术论文200余篇,其论文Google引用次数超过19000次。最近,许教授主要研究机器学习的模型和理论,研究多重网格与卷积神经网络(CNN)之间的联系,开发了MgNet,对CNN的数学理解和实际改进提供新的角度,他还为神经网络函数近似性质的几个开放问题提出了新的理论基础并提供了解决方案。许教授曾任多个重要计算数学和应用数学期刊的编辑委员会成员,如《Mathematics of Computations》,《Numerische Mathematik》和《Mathematical Models and Methods in Applied Sciences》。他是许多会议论文集和研究专著的合作编辑。他组织并/或担任了100多个会议、研讨会和夏季课程的科学委员会成员。