混合專家模型(英語:mixture of experts,簡稱MoE),或譯為多專家模型,是一種機器學習技術,通過門控(gating)模型將單一任務空間劃分為多個子任務,再由多個專家網絡 ...
確定! 回上一頁