李宏毅nlp学习笔记04:bert和它的好朋友们

1.当下追求的模型: 输入文本,训练使得模型可以读懂文本,然后根据不同的任务微调模型! 2.bert大家庭—芝麻街: 3.预训练: 把token用嵌入的向量表示。 针对英文系的前缀后缀等,有fasttext 中文的偏旁部首也能体现一定的意义: 为了表示相同字在不同词中的意思不同,现在的model都是输入整个句子之后,再给出每个token 的embedding。 即上下文。 这样的模型可以有哪些呢?
相关文章
相关标签/搜索