文献阅读笔记:Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer(T5)

文章目录 0. 背景 0.1 摘要 1. 介绍 2. 模型 2.1 输入和输出格式 3. 实验 3.1 baseline 3.2 对比的框架 3.3 无监督目标函数 3.4 预训练数据集 3.5 训练策略 3.5.1 微调策略 3.5.2 多任务学习 3.6 规模的影响 4. 总结和展望 展望 0. 背景 机构:谷歌 作者: Colin Raffel 发布地方:arxiv 面向任务:自然语言理解
相关文章
相关标签/搜索