Keras框架 深度学习模型CNN+LSTM+Attention机制 预测黄金主力收盘价

这一篇继续对 实验2的模型 进行拓展,增加Attention机制 先写点Attention的简单介绍 attention本质: 其实就是一个加权求和。 attention处理的问题,往往面临的是这样一个场景: 你有k个d维的特征向量hi(i=1,2,...,k)。现在你想整合这k个特征向量的信息,变成一个向量h∗(一般也是d维)。 solution: 1.一个最简单粗暴的办法就是这k个向量以ele
相关文章
相关标签/搜索