美團在官方社交媒體帳號正式發布LongCat-Flash-Chat大模型,並同步開源。 大模型採用創新混合專家模型(MoE)架構,總參數5600億,激活參數186至313億(平均維持270億),實現計算效率與性能的雙重優化。
官方介紹,根據多項基準測試綜合評估,作為一款非思考型基礎模型,LongCat-Flash-Chat 在僅激活少量參數的前提下,性能比肩當下領先的主流模型,尤其在智能體任務中具備突出優勢。
帖文又指,因為面向推理效率的設計和創新,LongCat-Flash-Chat 具有明顯更快的推理速度,更適合耗時較長的複雜智能體應用。 在通用領域知識、智能體工具使用、編程、指令遵循等方面,模型的測試成績,與DeepSeek V3.1、GPT-4.1、Kimi K2、Qwen3 MoE-2507等模型比較,表現出色。