美团发布并开源LongCat-Flash-Chat,动态计算开启高效AI时代
创始人
2025-09-01 14:14:04

9月1日,美团宣布LongCat-Flash-Chat正式发布,在Github、Hugging Face平台开源,并同步上线官网https://longcat.ai/。

美团发布并开源LongCat-Flash-Chat。图源 美团

据悉,LongCat-Flash采用创新性混合专家模型(Mixture-of-Experts,MoE)架构,总参数560B,激活参数18.6B-31.3B(平均27B),实现了计算效率与性能的双重优化。根据多项基准测试综合评估,作为一款非思考型基础模型,LongCat-Flash-Chat在仅激活少量参数的前提下,性能比肩当下领先的主流模型,尤其在智能体任务中具备突出优势。此外,因为面向推理效率的设计和创新,LongCat-Flash-Chat具有明显更快的推理速度,更适合于耗时较长的复杂智能体应用。

LongCat-Flash的基础测试性能。图源 美团

今年以来,美团AI进展频传,发布了AICodingAgent工具NoCode、AI经营决策助手袋鼠参谋、酒店经营的垂类AIAgent美团既白等多款AI应用。公司方面曾表示,其AI战略会建立在三个层面:AIatwork、AIinproducts以及BuildingLLM,此次模型开源是其BuildingLLM进展的首度曝光。

具体来看,LongCat-Flash模型在架构层面引入“零计算专家(Zero-ComputationExperts)”机制,总参数量560B,每个token依据上下文需求仅激活18.6B-31.3B参数,实现算力按需分配和高效利用。为控制总算力消耗,训练过程采用PID控制器实时微调专家偏置,将单token平均激活量稳定在约27B。

此外,LongCat-Flash在层间铺设跨层通道,使MoE的通信和计算能很大程度上并行,极大提高了训练和推理效率。配合定制化的底层优化,LongCat-Flash在30天内完成高效训练,并在H800上实现单用户100+tokens/s的推理速度。LongCat-Flash还对常用大模型组件和训练方式进行了改进,使用了超参迁移和模型层叠加的方式进行训练,并结合了多项策略保证训练稳定性,使得训练全程高效且顺利。

LongCat-Flash架构图。图源 美团

针对智能体(Agentic)能力,LongCat-Flash自建了Agentic评测集指导数据策略,并在训练全流程进行了全面的优化,包括使用多智能体方法生成多样化高质量的轨迹数据等,实现了优异的智能体能力。

通过算法和工程层面的联合设计,LongCat-Flash在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,LongCat-Flash在H800上达成了100token/s的生成速度,在保持极致生成速度的同时,输出成本低至5元/百万token。

上游新闻 涂源

相关内容

热门资讯

寒假开启,学生交通安全“划重点... 寒假来临 交通安全不能掉以轻心 为确保孩子们能够 度过一个安全愉快的假期 小编帮你 给寒假交通安全“...
佛山好来居金属结构房屋有限公司... 在旅游住宿行业快速迭代的当下,消费者对住宿场景的多元化需求日益增长。从景区深度体验到野奢度假,从草原...
深圳人露营后遗症:装备“安家”... 深圳人露营后遗症:装备“安家”比露营还难? 马峦山营地回来,天幕、帐篷、折叠桌椅、卡式炉还带着海风与...
2026安徽留香阁食品推荐:预... 随着生活节奏加快与消费习惯变迁,预制菜与调理半成品行业迎来了爆发式增长。然而,在市场规模迅速扩张的背...
江西新余:梅开俏枝头 梅香绕古... 央视网消息近日,江西省新余市仙女湖区白梅村的梅花林迎来盛花期,朵朵梅花俏立枝头,勾勒出一幅唯美画卷,...