DeepSeek-V3 是一款基于 Mixture of Experts(MoE)和多头潜在注意力(MLA)架构的开源大语言模型,拥有 6710 亿参数规模,但每个 token 仅激活 370 亿参数,显著降低训练与推理成本,且在数学推理和代码生成等复杂任务中表现优异 。项目采用 MIT 许可证,基于 Python 实现,社区活跃,21 位贡献者持续迭代更新。
官网:https://www.deepseek.com/
源码:https://github.com/deepseek-ai/DeepSeek-V3
架构:创新负载平衡策略和培训目标
- 在 DeepSeek-V2 的高效架构之上,我们率先提出了一种无辅助损失的负载平衡策略,最大限度地减少了因鼓励负载平衡而导致的性能下降。
- 我们研究了多标记预测 (MTP) 目标,并证明其有助于提升模型性能。它还可以用于推测解码,从而加速推理。
预训练:迈向极致训练效率
- 我们设计了FP8混合精度训练框架,并首次在超大规模模型上验证了FP8训练的可行性和有效性。
- 通过算法、框架和硬件的协同设计,我们克服了跨节点 MoE 训练中的通信瓶颈,几乎实现了计算和通信的完全重叠。
这显著提升了训练效率,并降低了训练成本,使我们能够在不增加额外开销的情况下进一步扩展模型规模。 - 我们以仅 2.664M H800 GPU 小时的经济成本,在 14.8T 代币上完成了 DeepSeek-V3 的预训练,并构建了目前最强的开源基础模型。预训练后的后续训练阶段仅需 0.1M GPU 小时。
训练后:DeepSeek-R1 的知识提炼
- 我们引入了一种创新方法,将长思维链 (CoT) 模型(特别是 DeepSeek R1 系列模型之一)中的推理能力提炼到标准 LLM(尤其是 DeepSeek-V3)中。我们的流程巧妙地将 R1 的验证和反射模式融入 DeepSeek-V3,显著提升了其推理性能。同时,我们还控制了 DeepSeek-V3 的输出样式和长度。
模型 | #总参数 | #已激活的参数 | 上下文长度 | 下载 |
---|---|---|---|---|
DeepSeek-V3-基础版 | 671B | 37B | 128千 | 🤗 Hugging Face |
DeepSeek-V3 | 671B | 37B | 128千 | 🤗 Hugging Face |
Hugging Face 上的 DeepSeek-V3 模型总大小为 685B,其中包括 671B 的主模型权重和 14B 的多令牌预测(MTP)模块权重。
为了确保最佳性能和灵活性,我们与开源社区和硬件供应商合作,提供多种本地运行模型的方法。有关分步指导,请参阅第 6 节:如何在本地运行。
对于希望深入了解的开发者,我们建议您浏览README_WEIGHTS.md 文件,了解有关主模型权重和多标记预测 (MTP) 模块的详细信息。请注意,MTP 支持目前正在社区内积极开发中,我们欢迎您的贡献和反馈。
基准(公制) | # 镜头 | DeepSeek-V2 | Qwen2.5 72B | LLaMA3.1 405B | DeepSeek-V3 | |
---|---|---|---|---|---|---|
建筑学 | – | 教育部 | 稠密 | 稠密 | 教育部 | |
# 激活参数 | – | 21B | 72B | 405B | 37B | |
# 总参数 | – | 236B | 72B | 405B | 671B | |
英语 | 桩基测试(BPB) | – | 0.606 | 0.638 | 0.542 | 0.548 |
BBH(东印度公司) | 三杆 | 78.8 | 79.8 | 82.9 | 87.5 | |
MMLU(会计) | 5发 | 78.4 | 85.0 | 84.4 | 87.1 | |
MMLU-Redux(Acc.) | 5发 | 75.6 | 83.2 | 81.3 | 86.2 | |
MMLU-Pro(Acc.) | 5发 | 51.4 | 58.3 | 52.8 | 64.4 | |
放下 (F1) | 三杆 | 80.4 | 80.6 | 86.0 | 89.0 | |
ARC-Easy(配件) | 25发 | 97.6 | 98.4 | 98.4 | 98.9 | |
ARC 挑战赛 (Acc.) | 25发 | 92.2 | 94.5 | 95.3 | 95.3 | |
HellaSwag(配件) | 10发 | 87.1 | 84.8 | 89.2 | 88.9 | |
PIQA(认证) | 0次射击 | 83.9 | 82.6 | 85.9 | 84.7 | |
WinoGrande (Acc.) | 5发 | 86.3 | 82.3 | 85.2 | 84.9 | |
RACE-中段 (Acc.) | 5发 | 73.1 | 68.1 | 74.2 | 67.1 | |
RACE-High(Acc.) | 5发 | 52.6 | 50.3 | 56.8 | 51.3 | |
TriviaQA(EM) | 5发 | 80.0 | 71.9 | 82.7 | 82.9 | |
自然问题(EM) | 5发 | 38.6 | 33.2 | 41.5 | 40.0 | |
AGIEval(累积) | 0次射击 | 57.5 | 75.8 | 60.6 | 79.6 | |
代码 | 人体评估(Pass@1) | 0次射击 | 43.3 | 53.0 | 54.9 | 65.2 |
MBPP(通过@1) | 三杆 | 65.0 | 72.6 | 68.4 | 75.4 | |
LiveCodeBench-Base(Pass@1) | 三杆 | 11.6 | 12.9 | 15.5 | 19.4 | |
CRUXEval-I(累积) | 2次射击 | 52.5 | 59.1 | 58.5 | 67.3 | |
CRUXEval-O(累积) | 2次射击 | 49.8 | 59.9 | 59.9 | 69.8 | |
数学 | GSM8K(EM) | 8发 | 81.6 | 88.3 | 83.5 | 89.3 |
数学(EM) | 4发 | 43.4 | 54.4 | 49.0 | 61.6 | |
MGSM(新兴市场) | 8发 | 63.6 | 76.2 | 69.9 | 79.8 | |
数学与数学(EM) | 三杆 | 78.7 | 84.5 | 77.3 | 90.7 | |
中国人 | CLUEWSC(EM) | 5发 | 82.0 | 82.5 | 83.0 | 82.7 |
C-Eval(Acc.) | 5发 | 81.4 | 89.2 | 72.5 | 90.1 | |
CMMLU(会计学) | 5发 | 84.0 | 89.5 | 73.7 | 88.8 | |
CMRC(EM) | 1次射击 | 77.4 | 75.8 | 76.0 | 76.3 | |
C3(ACC) | 0次射击 | 77.4 | 76.7 | 79.7 | 78.6 | |
CCPM(会计) | 0次射击 | 93.0 | 88.5 | 78.6 | 92.0 | |
多种语言 | MMMLU-非英语(Acc.) | 5发 | 64.0 | 74.8 | 73.8 | 79.4 |
最佳结果以粗体显示。分数差距不超过 0.3 的分数被认为处于同一水平。DeepSeek-V3 在大多数基准测试中均取得了最佳性能,尤其是在数学和代码任务上。更多评估详情,请参阅我们的论文。
(NIAH) 测试的评估结果Needle In A Haystack
。DeepSeek-V3 在高达128K 的所有上下文窗口长度上均表现良好。
基准(公制) | DeepSeek V2-0506 | DeepSeek V2.5-0905 | Qwen2.5 72B-Inst. | Llama3.1 405B-Inst. | 克劳德-3.5-十四行诗-1022 | GPT-4o 0513 | DeepSeek V3 | |
---|---|---|---|---|---|---|---|---|
建筑学 | 教育部 | 教育部 | 稠密 | 稠密 | – | – | 教育部 | |
# 激活参数 | 21B | 21B | 72B | 405B | – | – | 37B | |
# 总参数 | 236B | 236B | 72B | 405B | – | – | 671B | |
英语 | 莫里斯-麦迪逊大学(EM) | 78.2 | 80.6 | 85.3 | 88.6 | 88.3 | 87.2 | 88.5 |
MMLU-Redux(EM) | 77.9 | 80.3 | 85.6 | 86.2 | 88.9 | 88.0 | 89.1 | |
MMLU-Pro(EM) | 58.5 | 66.2 | 71.6 | 73.3 | 78.0 | 72.6 | 75.9 | |
DROP(3发F1) | 83.0 | 87.8 | 76.7 | 88.7 | 88.3 | 83.7 | 91.6 | |
IF-Eval(提示严格) | 57.7 | 80.6 | 84.1 | 86.0 | 86.5 | 84.3 | 86.1 | |
GPQA-钻石级 (Pass@1) | 35.3 | 41.3 | 49.0 | 51.1 | 65.0 | 49.9 | 59.1 | |
SimpleQA(正确) | 9.0 | 10.2 | 9.1 | 17.1 | 28.4 | 38.2 | 24.9 | |
框架(配件) | 66.9 | 65.4 | 69.8 | 70.0 | 72.5 | 80.5 | 73.3 | |
LongBench v2(累积) | 31.6 | 35.4 | 39.4 | 36.1 | 41.0 | 48.1 | 48.7 | |
代码 | HumanEval-Mul(Pass@1) | 69.3 | 77.4 | 77.3 | 77.2 | 81.7 | 80.5 | 82.6 |
LiveCodeBench(Pass@1-COT) | 18.8 | 29.2 | 31.1 | 28.4 | 36.3 | 33.4 | 40.5 | |
LiveCodeBench(通过@1) | 20.3 | 28.4 | 28.7 | 30.1 | 32.8 | 34.2 | 37.6 | |
Codeforces(百分位数) | 17.5 | 35.6 | 24.8 | 25.3 | 20.3 | 23.6 | 51.6 | |
SWE 已验证(已解决) | – | 22.6 | 23.8 | 24.5 | 50.8 | 38.8 | 42.0 | |
Aider-Edit(Acc.) | 60.3 | 71.6 | 65.4 | 63.9 | 84.2 | 72.9 | 79.7 | |
Aider-Polyglot (Acc.) | – | 18.2 | 7.6 | 5.8 | 45.3 | 16.0 | 49.6 | |
数学 | AIME 2024(通过@1) | 4.6 | 16.7 | 23.3 | 23.3 | 16.0 | 9.3 | 39.2 |
数学-500(EM) | 56.3 | 74.7 | 80.0 | 73.8 | 78.3 | 74.6 | 90.2 | |
CNMO 2024(通过@1) | 2.8 | 10.8 | 15.9 | 6.8 | 13.1 | 10.8 | 43.2 | |
中国人 | CLUEWSC(EM) | 89.9 | 90.4 | 91.4 | 84.7 | 85.4 | 87.9 | 90.9 |
C-评估(EM) | 78.6 | 79.5 | 86.1 | 61.5 | 76.7 | 76.0 | 86.5 | |
C-SimpleQA(正确) | 48.5 | 54.1 | 48.4 | 50.4 | 51.3 | 59.3 | 64.8 |
所有模型均在输出长度限制为 8K 的配置下进行评估。包含少于 1000 个样本的基准测试会使用不同的温度设置进行多次测试,以得出稳健的最终结果。DeepSeek-V3 是性能最佳的开源模型,并且与前沿闭源模型相比也表现出了竞争力。
模型 | 竞技场困难 | AlpacaEval 2.0 |
---|---|---|
DeepSeek-V2.5-0905 | 76.2 | 50.5 |
Qwen2.5-72B-指令 | 81.2 | 49.1 |
LLaMA-3.1 405B | 69.3 | 40.5 |
GPT-4o-0513 | 80.4 | 51.1 |
克劳德-十四行诗-3.5-1022 | 85.2 | 52.0 |
DeepSeek-V3 | 85.5 | 70.0 |
英语开放式对话评估。对于 AlpacaEval 2.0,我们使用长度控制的胜率作为衡量标准。
Libre Depot(自由仓库)原创文章、发布者:Libre Depot = 转载请注明出处:https://www.libredepot.top/zh/5593.html