[骨架动作识别]Global Context-Aware Attention LSTM

1. Introduction 本文的主要结构是一个两层的lstm,第一层生成global context memory(GCA),就是一个全局的背景信息。第二层LSTM加了注意力模型。这个注意力信息的生成有来自第一层的全局背景信息GCA的辅助,然后生成的注意力信息再用来重新调节全局背景GCA信息。是一个反复迭代的过程。最后GCA被用来分类。 为什么要这样做? 对于普通的LSTM而言,虽然后来的s
相关文章
相关标签/搜索