文章旨在利用denoising autoencoder预训练语言模型,提升包括文本生成等NLP任务的性能。作者采用类似传统NMT的transformer-based seq2seq架构,其采用对 ...
確定! 回上一頁