作者采用Attention机制的原因是考虑到RNN(或者LSTM,GRU等)的计算限制为是顺序 ... 之处在于Decoder多了一个Encoder-Decoder Attention,两个Attention分别用于计算 ...
確定! 回上一頁