標記包含中文和英文的文本時,結果會將英文單詞拆分爲字母,這不是我想要的。考慮以下代碼: from nltk.tokenize.stanford_segmenter import StanfordSegmenter ...
確定! 回上一頁