论文阅读--Reinforced Cross-Modal Matching and Self-Supervised Imatation Learning for VLN Navigation

写在前面  这篇关于VLN的论文在2019年CVPR评审过程中得分很高, 用到了强化学习. luffy对强化学习比较感兴趣并想进一步深入学习和研究, 就对这篇论文进行了粗浅的阅读(水平有限, 暂时无法深入理解). 主要对摘要和介绍进行了翻译. Abstract  Vision-language navigation (VLN) is the task of navigating an embodi
相关文章
相关标签/搜索