NLP笔记

本来是想要了解attention 机制的,论文看不下去;在B 站发现这个宝藏视频,讲解nlp的很清晰。 基础要从最底下开始打,不能一口气吃成胖子。 https://www.bilibili.com/video/BV17A411e7qL?p=2 用逻辑回归来进行0-1预测 sequential 模型的意思是把神经网络的层按顺序搭起来 先把one-hot 映射:embedding vocabulary
相关文章
相关标签/搜索