大模型初創企業MiniMax將發佈國內首個MoE大模型

12月28日訊,中國大模型創業企業MiniMax副總裁魏偉在數字中國論壇成立大會暨數字化發展論壇的一場分論壇上透露稱,將於近期發佈國內首個基於MoE(Mixture-of-Experts)架構的大模型,對標OpenAI GPT-4。MoE全稱專家混合,是一種深度學習技術,它通過將多個模型直接結合在一起,以加快模型訓練的速度,獲得更好的預測性能。(科創板日報)