project
星火X2-Flash - 科大讯飞推出的MoE架构大语言模型
星火X2-Flash是科大讯飞发布的MoE架构大语言模型,总参数30B,支持256K超长上下文,基于华为昇腾910B国产算力集群训练。
星火X2-Flash是什么
星火X2-Flash是科大讯飞发布的MoE架构大语言模型,总参数30B,支持256K超长上下文,基于华为昇腾910B国产算力集群训练。模型专为Agent时代设计,在智能体任务执行、代码生成、深度研究等场景表现接近万亿级参数模型,Token消耗成本不到主流大模型的三分之一。模型通过DSA稀疏注意力与MTP多token预测等技术实现高效训练与推理,已开放API并接入AstronClaw、Loomy等平台。
星火X2-Flash的主要功能
-
智能体任务执行:支持深度研究报告生成、Skill管理与调用、系统控制与执行等复杂Agent工作流,效果接近万亿级参数模型。
-
代码生成:可快速生成复杂Skill(如AI视频生成Skill),包含技能结构、核心功能、使用案例等完整说明。
-
超长上下文处理:最大支持256K上下文窗口,满足长链路Agent任务中数十万甚至上百万Token的消耗需求。
-
多平台接入:已接入AstronClaw、Loomy等产品,兼容OpenClaw、Claude Code等主流Agent框架。
-
API服务:通过讯飞开放平台、星辰MaaS平台提供API调用,星辰Coding Plan已全面支持该模型。
星火X2-Flash的技术原理
-
MoE架构:模型采用混合专家架构,总参数30B,在保持性能的同时实现更高效率。
-
国产算力训练:基于华为昇腾910B集群完成训练,通过亲和国产芯片的算子和分布式训练策略深度优化。
-
智能体数据闭环:构建可验证的大规模智能体数据自动合成平台,由Agent自主搭建环境、检测结果准确性,实现数据高效合成与闭环。
-
长文本高效训练:率先在国产算力上实现DSA(稀疏注意力)与MTP(多token预测)结合,上下文拓展至256K,训练效率相比同规模A800集群从20%提升至90%。
-
采样解码效率优化:在强化学习训练场景中,通过算法与工程创新,采样解码效率最高提升2倍以上,缓解长交互场景下RL训练的算力障碍。
星火X2-Flash的关键信息和使用要求
-
模型名称:星火X2-Flash
-
发布方:科大讯飞 / 讯飞开放平台
-
模型架构:MoE(混合专家),总参数30B
-
上下文窗口:最大支持256K
-
训练算力:华为昇腾910B国产集群
-
已接入平台:AstronClaw、Loomy
-
API入口:讯飞开放平台、星辰MaaS平台
-
兼容框架:OpenClaw、Claude Code等主流Agent框架
- 使用要求:
-
开发者可通过讯飞开放平台或星辰MaaS平台调用API
-
星辰Coding Plan已全面支持该模型,新老用户均可自主切换使用
-
星火X2-Flash的核心优势
-
性价比极高:复杂Agent任务效果接近万亿级参数模型,Token消耗不到主流大模型的三分之一
-
国产算力自主可控:基于华为昇腾910B集群训练,在本土算力架构上高效运行
-
超长上下文:256K上下文窗口,满足复杂智能体工作流的长链路需求
-
训练效率突破:通过DSA+MTP技术,国产算力训练效率从20%提升至90%
-
推理速度快:采样解码效率最高提升2倍以上,强化学习训练耗时大幅降低
-
Agent原生优化:深度兼容OpenClaw等主流Agent框架,支持智能体数据自动合成闭环
-
生态快速接入:已接入AstronClaw、Loomy等应用,开发者可即开即用
星火X2-Flash的同类竞品对比
| 对比维度 | 星火X2-Flash | DeepSeek-V3 | Qwen2.5-72B |
|---|---|---|---|
| 参数规模 | 30B(MoE) | 671B MoE(每次激活37B) | 72B(Dense) |
| 上下文窗口 | 256K | 128K | 128K |
| 模型架构 | MoE | MoE | Dense(密集架构) |
| 训练算力 | 华为昇腾910B(国产) | 英伟达H800集群 | 英伟达/AMD等多类GPU |
| 开源情况 | 闭源(API服务) | 开源(可本地部署) | 开源(可本地部署) |
| Agent适配 | 原生优化,深度兼容OpenClaw、Claude Code | 通用能力强,Agent生态依赖社区/第三方 | 通用能力强,Agent生态依赖社区/第三方 |
| 任务效果 | 接近万亿级参数模型 | 接近GPT-4o水平,数学/代码突出 | 综合能力优秀,多语言支持好 |
| Token成本 | 不到主流大尺寸模型1/3 | API定价较低(约GPT-4o的1/10) | API定价较低(约GPT-4o的1/20) |
| 核心定位 | Agent时代的性价比引擎 | 高性能开源基座模型 | 开源生态旗舰模型 |
星火X2-Flash的应用场景
-
复杂Agent工作流:深度研究报告生成、多步骤任务拆解与执行、多轮上下文读取与修正。
-
Skill/工具开发:自动生成和管理复杂Skill(如AI视频生成Skill),包含结构定义、核心功能、使用案例。
-
代码生成与系统控制:编写脚本、系统命令执行、自动化运维等需要代码能力的场景。
-
长文档分析:基于256K上下文处理超长文档、论文、报告,进行摘要、提取与问答。
-
多模态任务编排:作为Agent大脑,调度文生视频、图生视频等多平台工具链(如可灵、Runway、Pika等)。