AI 大模型的名字看起来像一串密码,其实每个字母、数字都有讲究。本文拆解主流厂商的命名逻辑,帮你一次看懂。
一、OpenAI —— GPT 系列
代表型号:GPT-4o、GPT-4.5、o1、o3
GPT 是 Generative Pre-trained Transformer(生成式预训练变换器)的缩写。名字里的数字表示代际版本,数字越大代表越新一代;字母后缀则点明能力特点:
- o(omni,全能):如 GPT-4o,意指同时处理文字、图像、语音,”全模态”通吃。
- o1 / o3 系列:另起炉灶的推理专项系列,o 代表 reasoning(推理),数字是内部迭代序号。注意 o2 被跳过,据说是因为英国一家同名电信公司抢先注册了商标。
一句话记忆:GPT = 品牌,数字 = 代际,字母后缀 = 能力方向。
二、Anthropic —— Claude 系列
代表型号:Claude 3.5 Sonnet、Claude 4 Opus
Claude 的命名最有文艺气息:用诗歌体裁区分高低档位,从轻到重依次是:
- Haiku(俳句):最轻量、响应最快,适合简单任务。
- Sonnet(十四行诗):均衡实用,日常首选。
- Opus(乐章 / 杰作):最强旗舰,处理复杂任务。
版本号方面,3.5 中的 .5 表示对同代模型的中期升级,而非全新一代——类似手机的”小改款”。
一句话记忆:诗歌越长越复杂,模型越强越”贵”。
三、Google —— Gemini 系列
代表型号:Gemini 2.5 Pro、Gemini 2.5 Flash、Flash-8B
品牌名 Gemini 来自星座”双子座”,暗示多模态能力(文字 + 图像双管齐下)。档位从小到大:
- Flash-8B:最小最快,8B 指 80 亿参数的精简版。
- Flash:快速均衡版。
- Pro:专业旗舰版,能力最强。
其中 B = Billion(十亿),是参数量单位——参数越多,模型通常越”聪明”,但运行也越慢、越耗资源。
一句话记忆:Flash = 快,Pro = 强,数字 B = 参数规模。
四、Meta —— Llama 系列
代表型号:Llama 3.3 70B Instruct
Llama 取自动物羊驼,寓意轻盈好用,也是目前最主流的开源大模型系列。开源模型命名的核心是参数量,因为用户往往自己部署,需要知道硬件门槛:
- 70B:700 亿参数,能力强,需要高端显卡。
- 8B:80 亿参数,普通电脑也能跑。
- Instruct:经过指令微调,可以直接对话使用;对应的 Base 版本则是原始预训练权重,需要开发者进一步加工。
一句话记忆:B 越大越强越重,Instruct 表示可以直接聊天。
五、DeepSeek —— R 与 V 系列
代表型号:DeepSeek-R1、DeepSeek-V3
来自中国的 DeepSeek 用字母区分两条产品线:
- V 系列(Versatile / Vision):通用对话模型,综合能力突出。
- R 系列(Reasoning):专注复杂推理,对标 OpenAI 的 o1 系列。
数字为迭代序号,越大越新。DeepSeek-R1 以极低成本实现了与国际顶尖模型相当的推理能力,2025 年初引发全球广泛关注。
一句话记忆:V = 通用对话,R = 深度推理,数字越大越新。
六、命名背后的通用规律
读懂了以上几家,其实大多数模型名字都遵循同一套逻辑:
| 命名元素 | 含义 | 常见写法 |
|---|---|---|
| 数字越大 | 版本越新 | GPT-4 → GPT-4.5 |
| B(Billion) | 参数规模 | 7B、70B、405B |
| Pro / Max / Opus | 高配旗舰 | Gemini Pro、Claude Opus |
| Mini / Flash / Lite / Haiku | 轻量快速 | GPT-4o mini、Gemini Flash |
| Instruct / Chat | 已做对话微调,可直接使用 | Llama-3-70B-Instruct |
| 字母后缀(o、R、T…) | 能力方向 | o = 全能/推理,R = 推理 |
写在最后
有趣的是,几乎所有厂商都用”诗意化”的词汇区分高低档位——Claude 用诗歌体裁,Gemini 用职业词汇,OpenAI 的早期版本甚至用了 davinci、curie 等科学家名字。相比冷冰冰的”Model A / B / C”,这些名字更有记忆点,也悄悄暗示了模型的”气质”。
下次看到一个陌生的模型名字,不妨拆开来读:品牌 + 系列字母 + 版本号 + 规格后缀,信息量其实相当丰富。