Qwen2.5-Coder Technical Report

本文是LLM系列文章,针对《Qwen2.5-Coder Technical Report》的翻译。

Qwen2.5-Coder 技术报告

  • 摘要
  • 1 引言
  • 2 模型架构
  • 3 预训练
    • 3.1 预训练数据
      • 3.1.1 数据组成
      • 3.1.2 数据混合
    • 3.2 训练策略
      • 3.2.1 文件级预训练
      • 3.2.2 仓库级预训练
  • 4 后训练
    • 4.1 指令数据的配方
    • 4.2 训练策略
  • 5 去污
  • 6 在基础模型上的评估
    • 6.1 代码生成
    • 6.2 代码补全
    • 6.3 代码推理
    • 6.4 数学推理
    • 6.5 通用自然语言
    • 6.6 长文本评估
  • 7 在指令模型上的评估
    • 7.1 代码生成
    • 7.2 代码推理
    • 7.3 代码编辑
    • 7.4 Text-to-SQL
    • 7.5 数学推理和通用自然语言
    • 7.6 表格理解
  • 8 讨论:扩展就是您所需要的
  • 9 结论

摘要

在本报告中,我们介绍了 Qwen2.5-Coder 系列,这是其前身 CodeQwen1.5 的重大升级。该系列包括六款模型:Qwen2.5-Coder-(0.5B/1.5B/3B/7B/14B/32B)。作为特定于代码的模型,Qwen2.5-Coder 基于 Qwen2.5 架构构建,并在超过 5.5 万亿个token的庞大语料库上继续进行预训练。通过细致的数据清理、可扩展的合成数据生成和平衡的数据混合,Qwen2.5-Coder 展示了令人印象深刻的代码生成能力,同时保留了一般和数学技能。这些模型已经在各种与代码相关的任务上进行了评估,在 10 多个基准测试中实现了最先进的 (SOTA) 性能,包括代码生成、完成、推理和修复,性能始终优于相同模型大小的较大模型。我们相信,Qwen2.5-Coder 系列的发布将推进代码智能的研究,并通过其宽松的许可支持开发人员在实际应用程序中更广泛地采用。
Qwen2.5-Coder Technical Report_第1张图片

1 引言

随着大语言模型(LLM)

你可能感兴趣的:(LLM,Daily,LLM,for,code,Technical,Report,语言模型,人工智能,自然语言处理)