网上投注-网上投注站怎么开

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
香港六合彩资料大全| 百家乐官网已破解的书籍| 百家乐的最佳玩| 太阳城会员| 海淀区| 澳门百家乐官网网40125| 三公百家乐在线哪里可以玩| 皇冠网足球开户| 百家乐官网7杀6| 爱赢百家乐现金网| 百家乐发牌牌规| 百家乐官网最新庄闲投注法| 百家乐7杀6| 仕達屋娱乐城| 24山分房法| 大发888 娱乐网| 网上百家乐官网大赢家| 缅甸百家乐赌博有假吗| 澳门永利赌场| 百家乐官网如何制| 大众百家乐娱乐城| 百家乐官网15人桌子| 威尼斯人娱乐游戏| 百家乐官网真人娱乐城陈小春| 大发888娱乐游戏可以玩吗| 永利高百家乐信誉| 乐天堂娱乐城| 赌百家乐的计划跟策略| 宁南县| 天猫百家乐官网娱乐城| 宝都棋牌游戏| 做生意的门市风水| 玩百家乐官网最好方法| 视频百家乐赢钱| 甘肃省| 黄金城百家乐手机用户| 百家乐官网兑换棋牌| 足球网| 百家乐娱乐平台会员注册| 百家乐浴盆博彩通排名| 网上百家乐官网骗人吗|