当地时间3月16日,欧洲 AI 企业 Mistral AI 正式推出新一代开源大模型 Mistral Small 4。该模型采用混合专家(MoE)架构,总参数量119B,激活参数为6B,支持多模态、推理及编程等多项任务。Mistral Small 4 拥有256k上下文窗口,可处理超长文本与代码库,并以 Apache 2.0 协议开源。性能方面,Small 4 在延迟优化模式下端到端时间缩短40%,吞吐量为上一代 Small 3 的3倍,在多项测试中与 GPT-OSS120B 表现相当。Mistral AI 推荐的硬件配置为最低4× HGX H100或1× DGX B200,最佳方案为4× HGX H200或2× DGX B200。该发布进一步强化了 Mistral AI 在开源大模型领域的领先优势。