GPT-2的參數數目大約是GPT-1的12倍,預訓練資料量則是8倍,訓練資料取自社交網站Reddit上的文章,約有800萬篇。該年7月,微軟宣布投資OpenAI 10億美元,至 ...
確定! 回上一頁