【李宏毅】机器学习 笔记10(RNN——循环神经网络(Recurrent Neural Network)(下))

这一节讲RNN如何learning: 下面讲如何定义loss,举一个例子: RNN同样可以用gradient descent来train: 因为同样的sequent在不同的时间点会被使用:   input(多个)-->output(一个): 多对多: 出现叠词时,用CTC区分: 一些词的顺序可以被忽略: encoder和decoder一起train: RNN vs Structured Learn
相关文章
相关标签/搜索