GPT模型的tokenizer, 英文大概是1.35 (单词比token) 中文的话, 用约34万字的三体黑暗森林做实验, text-davinci-003 比例大概是2.1 (单字~2.1 token) ...
確定! 回上一頁