原本LLaMA 資料量為70 億到650 億組參數(看怎麼跟Mata 申請而定),Meta 宣稱130 億參數版本的LLaMA 可以用更低算力超過有1750 億參數GPT-3 模型的表現。
確定! 回上一頁