2025-08-1302ai门户网
编辑:编辑部HYZ
【本站导读】全网首发!DeepSeekV3/R1满血版低成本监督微调秘籍来了,让高达6710亿参数AI巨兽释放最强性能。
DeepSeekV3/R1火爆全网,基于原始模型的解决方案和API服务已随处可见,陷入低价和免费内卷。
如何站在巨人肩膀上,通过后训练(post-training)结合专业领域数据,低成本打造高质量私有模型,提升业务竞争力与价值?
已收获近4万GitHubStar的Colossal-AI,发布开源大模型后训练工具箱,包含:
DeepSeekV3/R1满血671BLoRA低成本SFT微调
完整的强化学习工具链PPO,GRPO,DPO,SimPO等
无缝适配DeepSeek系列蒸馏模型在内的HuggingFace开源模型
兼容支持英伟达GPU、华为昇腾NPU等多种硬件
支持混合精度训练,gradientcheckpoint等训练加速降低成本
灵活的训练配置接口,支持自定义奖励函数、损失函数等
提供灵活的并行策略配置接口,包括数据并行、模型并行、专家并行、ZeRO和Offload等,以适应不同硬件规模
开源地址:https://github.com/hpcaitech/ColossalAI
低成本监督微调满血版DeepSeekV3/R1671B
DeepSeekV3/R1满血版参数高达6710亿,如何低成本进行低成本微调呢?仅需以下几个步骤,即可快速完成。
该脚本接收JSONL格式的文件作为输入数据集,例如:
https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/examples/training_scripts/lora_sft_data.jsonl数据集的每一行应为一个聊天对话列表。例如:
[{"role":"user","content":"你好,最近怎么样?"},{"role":"assistant","content":"我很好。今天有什么可以帮你的吗?"}][{"role":"user","content":"火烧赤壁曹操为何不拨打119求救?"},{"role":"assistant","content":"因为在三国时期,还没有电话和现代的消防系统,所以曹操无法拨打119求救。"}]该数据格式,兼容Huggingfacechattemplate,支持自定义systemprompt,因此可灵活按需配置。
为保证更好的微调效果,使用BF16权重进行微调。
如果已下载了FP8的DeepSeekV3/R1权重,可以使用DeepSeek官方脚本https://github.com/deepseek-ai/DeepSeek-V3/blob/main/inference/fp8_cast_bf16.py通过GPU将权重转换为BF16。
对于使用国产华为昇腾算力,可以下载https://gitee.com/ascend/ModelZoo-PyTorch/blob/master/MindIE/LLM/DeepSeek/DeepSeek-V2/NPU_inference/fp8_cast_bf16.py脚本转换权重。
在准备好数据集和模型权重后,可使用Colossal-AI提供的一键启动脚本:
https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/examples/training_scripts/lora_finetune.py该脚本与常见SFT脚本类似,且完全兼容HuggingFacePEFT,启动命令:
colossalairun--hostfilepath-to-host-file--nproc_per_node8lora_finetune.py--pretrainedpath-to-DeepSeek-R1-bf16--datasetpath-to-dataset.jsonl--pluginmoe--lr2e-5--max_length256-g--ep8--pp3--batch_size24--lora_rank8--lora_alpha16--num_epochs2--warmup_steps8--tensorboard_dirlogs--save_dirDeepSeek-R1-bf16-lora有关每个参数的更多详细信息,可以运行pythonlora_finetune.py–help查看。
该脚本可通过tensorboard记录学习率、loss、gradnorm信息,方便对训练进行监控。
通过使用LoRA等优化,示例命令已将SFTDeepSeekV3/R1671B最低硬件要求降低近10倍,可使用32个Ascend910BNPU64GB(使用ep=8,pp=4)或24个H100/H800GPU(使用ep=8,pp=3)。
如果你通过–zero_cpu_offload启用CPUoffload,硬件要求可以进一步降低,但会损失一定的训练速度。
如下图验证,在SFTDeepSeekV3/R1671B时,Loss可以顺利降低。
对于资金充裕的开发团队,也可以使用上述脚本,将并行度高效扩展至数百及数千卡,快速完成DeepSeekV3/R1671B全参微调或并行加速。
对于预算有限,又想借助强化学习构建自己的类DeepSeekR1模型,Colossal-AI也提供了解决方案,并利用小模型对算法进行了验证。
Colossal-AI团队验证并实现了DeepSeek论文中的GRPO算法及verifiablereward,使用Qwen2.5-3B-Base模型进行了实验。其中,奖励的设计如下:
奖励=0,如果格式是正确的;
奖励=1,如果格式是正确的但是结果是错误的;
奖励=10,如果格式与结果都是正确的。
Colossal-AI团队以Qwen2.5-3B-Base模型为例,提供了用于验证GRPO的对话模板及设定:
https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/conversation_template/Qwen_Qwen2.5-3B.json通过配置以下bash文件,即可一键启动:
https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/examples/training_scripts/train_grpo.sh同时,在GRPO章节,Colossal-AI团队还提供了验证过程中的部分发现及各种参数的详细描述,可供参考。
代码中设计了可灵活配置奖励函数的模板,因此,用户可根据自己的具体情况设计自己的奖励函数体系。
由下图可以看到,即使是3B的模型,平均奖励与模型回复长度随着时间逐步增长。
随着训练的进行,我们可以看到一些有意思的例子。例如随着训练迭代,模型开始了自我纠正:
Colossal-AI:最佳后训练工具箱
Colossal-AI在深耕大模型预训练降本增效的基础上,致力于进一步成为开发者开箱即用的最佳后训练工具,帮助用户基于开源模型,低成本快速构建私有模型。
开源地址:https://github.com/hpcaitech/ColossalAI
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表本站立场。文章及其配图仅供学习分享之
新品榜/热门榜