而將句子切成好多個詞條的過程就叫做斷詞(tokenization)或稱分詞(word segmentation)。在NLP 任務執行時,英文相對來說是較好斷詞的語言,畢竟其在書寫時字與字之間就留 ...
確定! 回上一頁