赢咖3「专业游戏注册平台」
ENGLISH
|
集团首页
集团主页
关于我们
赢咖3简介
现任领导
组织机构
联系方式
团队队伍
教授
副教授
讲师
党委行政
科学研究
研究中心
数苑博雅讲座
学术报告
学术会议
科研项目
科研论文
本科教学
教学动态
精品课程
教学团队
本科生实习
专业介绍与培养方案
公司产品
公司产品动态
研究生专业方向
公司产品方案
党建园地
党建动态
数公司党校
员工工作
学工热点
研究生园地
班团快讯
体坛风云
社团采风
学工制度
合作交流
员工动态
员工动态
人才招聘
科学研究
研究中心
数苑博雅讲座
学术报告
学术会议
科研项目
科研论文
学术报告
当前位置:
集团主页
>
科学研究
>
学术报告
> 正文
A Momentum Block-Randmoized Stochastic Algorithm for Low-Rank Tensor CP Decomposition
发布时间:2021-04-15 来源:赢咖3 浏览次数:
Speaker:
崔春风
DateTime:
2021年4月23号(周五)下午2:00-3:00
Brief Introduction to Speaker:
崔春风,北京航空航天大学教授。
Place:
腾讯会议(会议号请联系张雄军老师索取)
Abstract:
The block-randomized stochastic algorithm has shown its power in handling high-dimensional low-tank tensor canonical polyadic decomposition (CPD). Since computing CPD is computationally expensive, there is great interest in speeding up the convergence. In this talk, we introduce a momentum accelerated version of the block-randomized stochastic gradient descent (SGD) algorithm for low-rank tensor CPD. Under some mild conditions, we show the global convergence to the stationary point of the fixed stepsize algorithm for this nonconvex nonsmooth optimization problem. Compared with the algorithms without momentum, the preliminary numerical experiments for the synthetic and real data demonstrated that our accelerated algorithms are efficient, and can achieve better performance in terms of objection function value, mean squared error, and structural similarity value. This talk is based on the joint work with Qingsong Wang and Deren Han.
上一条:
Graph Sparsification by Universal Greedy Algorithms
下一条:
Double-bosonization construction theorem for irregular R-matrices