《經濟通通訊社1日專訊》美團(03690)開源大模型「龍貓」(LongCat-
Flash),這是一個擁有5600億參數的混合專家(MoE)模型,據介紹,在各項基準
測試中它與業界的DeepSeek V3﹒1、Qwen3旗鼓相當,甚至在某些特定能力上
實現了超越。
該模型創新性地採用「零計算」專家機制(Zero-computation
Experts) ,能夠極大地節省算力,在處理每個詞元(token)時,僅需動態激活
186億至313億的參數(平均約270億)。此外,模型的推理速度超過100詞元╱秒
(TPS),每處理一百萬輸出詞元的成本僅為0﹒7美元,並且支持128k的長文本上下文
。
目前,LongCat-Flash模型已經發布在Hugging Face和
Githiub社區,並遵循MIT許可協議。(wn)
【說說心理話】陳敏兒:人生有很多苦痛的經歷,但我不甘心去白受這些苦,要從中「獲利」,去學習,令苦變得有價值,再跟其他人分享► 即睇