文章于2019年1月发表
Transformer-TTS可以看做Tacotron2+transformer的组合,作者认为优点主要为:
主要步骤和改进:
text-to-phoneme,输入为phoneme;
Encoder Pre-net: 有Embedding层和三层卷积层组成;
Scaled Positional Encoding: 增加可训练参数
,使之能够自适应地适应编码器和解码器prenets输出的大小;
Transformer Encoder和Decoder,参照[Attention Is All You Need](# 4. Attention Is All You Need);
Decoder Pre-net: 两个全连接层;
保留Stop Token;
相比Tacotron2,训练速度提高三四倍。
MOS值对比: