科大讯飞发布星火X2-Flash模型:基于国产昇腾算力支持256K长文本

4月29日,科大讯飞推出全新星火X2-Flash大语言模型,并同步开放API接口。该模型采用MoE(混合专家)架构,总参数量30B,支持256K上下文,全面基于华为昇腾910B集群训练,展示了国产软硬件协同的算力能力。X2-Flash在智能体和代码生成方面性能显著提升,第三方测试显示,其在复杂任务中的表现接近万亿级模型。成本方面,模型Token消耗约为主流大模型的三分之一,支持高效智能体开发。技术层面,X2-Flash首次在国产芯片上结合DSA稀疏注意力与MTP多Token预测技术,使训练效率提升4.5倍,并在智能体场景中实现推理效率提升两倍。当前,AstronClaw、Loomy等应用已接入,该模型兼容OpenClaw、Claude Code等框架,面向全球开发者开放。

上一篇:

下一篇:

发表回复

登录后才能评论