小米昨日(12 月 16 日)发布 Xiaomi MiMo-V2-Flash 开源 MoE 模型,总参数量 309B,活跃参数量 15B,专为智能体 AI 设计,专注于快。
小米官方介绍称,这是一个专为极致推理效率自研的总参数 309B(激活 15B)的 MoE 模型,通过 Hybrid 注意力架构创新及多层 MTP 推理加速,在多个 Agent 测评基准上保持进入全球开源模型 Top 2;代码能力超过所有开源模型,比肩标杆闭源模型 Claude 4.5 Sonnet,但推理成本仅为其 2.5%,生成速度提升 2 倍。
Xiaomi MiMo-V2-Flash 采用 1:5 的 Global Attention 与 Sliding Window Attention (SWA) 混合结构,128 窗口大小,原生 32K 外扩 256K 训练。
IT之家注意到,小米推出了一个在线 AI 聊天服务Xiaomi MiMO Studio,用户可以在其中体验 Xiaomi MiMo-V2-Flash。该服务支持深度思考和联网搜索。
Xiaomi MiMo-V2-Flash 的模型权重和推理代码均采用 MIT 协议全面开源。MiMo-V2-Flash 的 API 定价为输入 $0.1/M tokens,输出 $0.3/M tokens,API 限时免费。
值得一提的是,在今日(12 月 17 日)举行的 2025 小米人车家全生态合作伙伴大会中,Xiaomi MiMo 大模型负责人罗福莉迎来入职后首秀。
罗福莉解释称,MiMo-V2-Flash 围绕极致推理效率设计了模型结构,通过 3 层 MTP 推理加速并行 Token 验证,实现了 2.0~2.6 倍的推理速度提升。
MiMo-V2-Flash 凭借总参数 309B(激活 15B),实现了代码和 Agent 评测基准上全球开源模型 Top2,且初步具备模拟世界的能力,可通过 HTML 写操作系统、模拟太阳系、画一棵圣诞树等。
罗福莉还谈到了下一代智能体系统,认为下一代智能体系统不是一个“语言模拟器”,而是一个真正能够理解世界、并与之共存的“智能体”。
罗福莉本科就读于北京师范大学计算机专业,硕士毕业于北京大学计算语言学研究所计算语言学专业。随后罗福莉曾在阿里巴巴达摩院主导开发了多语言预训练模型 VECO,并推动了 AliceMind 的开源工作,2022 年入职 DeepSeek,参与了 MoE 大模型 DeepSeek-V2 的研发。去年年底,小米被曝以千万年薪挖角 DeepSeek-V2 核心开发者之一罗福莉,使其冲上热搜。
今年 11 月,罗福莉在朋友圈官宣加入小米 Xiaomi MiMo 大模型团队:
智能终将从语言迈向物理世界。我正在 Xiaomi MiMo,和一群富有创造力、才华横溢且真诚热爱的研究员,致力于构建这样的未来,全力奔赴我们心目中的 AGI!
来源:IT之家