from sklearn.feature_extraction.text import CountVectorizer #中文需要分詞,否則是 ... TfidfVectorizer import jieba def cut_word(text): #進行中文分詞 return ...
確定! 回上一頁