首页 财经 理财 产业 商业 证券 消费 图片 视频 全国

科技

旗下栏目: 科技 汽车 房产 工农

小米开源 Xiaomi MiMo-V2-Flash:高效推理、代码与 Agent 基座模

来源: 作者:碧海醫心 人气: 发布时间:2025-12-17
摘要:小米正式开源XiaomiMiMo-V2-Flash——一款由小米自主研发、专为极致推理性能优化的MoE大模型,总参数量达309B(激活参数仅15B)。该模型创新性融合Hybrid注意力机制与多层级MTP推理加速技术,在多项Agent能力评测中稳居全球开源模型前两名;其代码生成能力超

小米正式开源 xiaomi mimo-v2-flash——一款由小米自主研发、专为极致推理性能优化的 moe 大模型,总参数量达 309b(激活参数仅 15b)。该模型创新性融合 hybrid 注意力机制与多层级 mtp 推理加速技术,在多项 agent 能力评测中稳居全球开源模型前两名;其代码生成能力超越所有现有开源模型,与顶级闭源模型 claude 4.5 sonnet 持平,而推理成本仅为后者的 2.5%,生成速度更提升至 2 倍,真正实现了大模型效果与效率的双重突破。

MiMo-V2-Flash 模型整体架构如下:

MiMo-V2-Flash 核心设计亮点:

  • 混合注意力机制

采用比例为 5:1 的 Sliding Window Attention(SWA)与 Global Attention(GA)协同结构,滑动窗口大小设为 128,原生支持 32K 上下文,并在训练中扩展至 256K。大量前期实验表明,SWA 在通用性、长文本建模及推理稳定性方面全面优于主流 Linear Attention,同时具备固定尺寸的 KV Cache,极大简化了与现有训练与推理基础设施(Infra)的集成适配流程。

  • MTP 推理加速技术

通过 Multi-Token Prediction(MTP)方式强化基座模型能力,并在推理阶段实现多 Token 并行验证,有效缓解传统自回归解码在大 Batch 场景下的显存带宽瓶颈。实测数据显示:启用 3 层 MTP 后,接收长度提升 2.8~3.6 倍,端到端推理加速比达 2.0~2.6 倍。

综上,MiMo-V2-Flash 凭借模型结构与训推系统深度协同的创新设计,可在不同硬件平台上灵活调节 Batch Size 与 MTP 层数,充分释放 GPU 算力,兼顾高吞吐、低延迟与极致推理性能。

Andi

智能搜索助手,可以帮助解决详细的问题

下载

Xiaomi MiMo-V2-Flash 全量模型权重与推理代码均已开源。配套 API 当前限时免费开放,Web 版 Demo 已正式上线。

访问 platform.xiaomimimo.com,即可无缝接入 Claude Code、Cursor、Cline、Kilo Code 等主流开发框架。

立即前往 MiMo Studio Web 端:aistudio.xiaomimimo.com,免费体验模型能力。

源码地址:点击下载

责任编辑:碧海醫心
首页 | 财经 | 理财 | 产业 | 商业 | 证券 | 消费 | 图片 | 视频 | 全国

Copyright 2025 九掌金融版权所有  技术支持:政产学研(海南)投资有限公司 备案号:琼ICP备2025065810号-1

电脑版 | 移动版