四、深入解剖bert(与elmo和GPT比较) 1、为什么bert采取的是双向Transformer Encoder,而不叫decoder? 2、elmo、GPT和bert在单双向语言模型处理上的不同 ...
確定! 回上一頁