Mistral AI开源Mistral Small 4:加入英伟达Nemotron联盟,集成三大核心能力

Mistral AI宣布在Apache 2.0许可下正式开源大型语言模型Mistral Small 4,并成为英伟达新成立的Nemotron联盟创始成员。该模型被定位为首款“三位一体”架构,融合Magistral逻辑推理、Pixtral原生多模态处理与Devstral代码生成三大能力。Mistral Small 4采用128专家混合(MoE)架构,总参数量达1190亿,每个Token仅激活约60亿个参数,在性能与算力成本间取得平衡。模型支持256k上下文窗口,并提供可配置推理强度模式:在延迟优化下端到端时间减少40%,吞吐量优化下请求处理能力提升3倍。该开源发布为全球开发者提供统一、高效的多模态基础模型。

上一篇:

下一篇:

发表回复

登录后才能评论