机器学习时间序列之LMS和NLMS和RLS和APA

以下手稿属于Principe大佬,我是在硕士时期上的大佬的课 LMS w ⃗ k = w ⃗ k − 1 + η x ⃗ ( n ) e ( n ) \vec{w}_k = \vec {w}_{k-1} + \eta \vec x(n)e(n) w k​=w k−1​+ηx (n)e(n) 1.更新方向,梯度下降的方向。梯度和方向导数 2. 本例中, w k ⃗ \vec{w_k} wk​ ​ =
相关文章
相关标签/搜索