最後,我總覺得,在NMT這類seq2seq的tasks上,encoder端對long sequence的建模貌似沒必要,只要能夠對一個片段建模就好了。反正有decoder的attention來 ...
確定! 回上一頁