DeepSeek-V3 Technical Report

本文是LLM系列文章,针对《DeepSeek-V3 Technical Report》的翻译。

DeepSeek-V3 技术报告

  • 摘要
  • 1 引言
  • 2 架构
    • 2.1 基本架构
    • 2.2 多token预测
  • 3 基础设施
    • 3.1 计算集群
    • 3.2 训练框架
      • 3.2.1 双管和计算通信重叠
      • 3.2.2 跨节点全对全通信的高效实现
      • 3.2.3 以最小的开销节省大量内存
    • 3.3 FP8训练
    • 3.4 推理和部署
    • 3.5 硬件设计建议
  • 4 预训练
  • 5 后训练
    • 5.3 评估
      • 5.3.1 评估设置
      • 5.3.2 标准评估
  • 6 结论

摘要

我们提出了DeepSeek-V3,这是一个强大的混合专家(MoE)语言模型,总参数为671B,每个token激活37B。为了实现高效的推理和经济高效的训练,DeepSeek-V3采用了多头潜在注意力(MLA)和DeepSeekMoE架构,这些架构在DeepSeek-V2中得到了充分的验证。此外,DeepSeek-V3开创了一种用于负载平衡的辅助无损耗策略,并设定了多token预测训练目标以提高性能。我们在14.8万亿个多样化和高质量的token上对DeepSeek-V3进行预训练,然后进行监督微调和强化学习阶段,以充分利用其功能。综合评估显示,DeepSeek-V3的表现优于其他开源模型,其性能可与领先的闭源模型相媲美。尽管性能卓越,DeepSeek-V3只需要2.788M H800 GPU小时即可进行全面训练。此外,它的训练过程非常稳定。在整个训练过程中,我们没有遇到任何不可挽回的损失高峰或任何倒退。模型检查点位于https://github.com/deepseek-ai/DeepSeek-V3.

你可能感兴趣的:(LLM,Daily,Technical,Report,人工智能,语言模型,自然语言处理)