论文笔记:Efficient Nonconvex Regularized Tensor Completion with Structure-aware Proximal Iterations

一、本文创新点 1、作者注意到重叠核范数对于张量补全的效果比较好,提出了一种用于张量补全的重叠核范数正则化的非凸变体。 2、该正则化自然引起损失函数的非凸,故提出了一个更有效的优化的算法 3、提出的优化算法有三点优势:一:避免了代价昂贵的张量展开和合并;二:在迭代中保持“稀疏加低秩”结构;三:融入适应的动力。 二、相关工作 1、低秩矩阵学习                            
相关文章
相关标签/搜索