课程培训
大模型训练与微调培训课程

大模型训练与微调培训课程大纲

  •  

  • 培训对象

  • 适合具备Python编程基础和深度学习基本概念,希望系统掌握大模型训练与微调核心技术、实现从通用模型到垂直领域专属模型迁移的算法工程师、AI应用开发者、科研人员及计算机相关专业研究生。

  •  

  • 培训目标

  • 完成本课程后,学员将能够深入理解大模型训练全流程(预训练、微调、对齐)的核心原理与技术体系,熟练掌握LoRA、QLoRA、P-Tuning等参数高效微调方法,掌握持续预训练(CPT)实现领域知识注入、RLHF/DPO实现模型对齐的实战技能,熟练使用HuggingFace Transformers、DeepSpeed、LlamaFactory等主流框架,具备独立完成从数据准备、模型训练、性能评估到推理部署的完整项目能力。

  •  

  • 培训内容


  • (1)大模型训练基础与演进脉络:了解大语言模型的发展历程(从统计语言模型到Transformer架构)。掌握预训练、微调、对齐的三阶段训练范式及其各自目标。学习主流大模型架构(GPT系列、LLaMA、Qwen、DeepSeek)的设计特点与选型策略。理解模型规模(7B、13B、70B)与训练资源、性能表现的关系。

    (2)Transformer架构与核心组件深度解析:深入理解Transformer架构的核心技术逻辑,掌握自注意力机制(Self-Attention)的数学原理、多头注意力(Multi-Head Attention)的并行计算机制。学习位置编码的设计思想(正弦编码、RoPE旋转位置编码)。通过代码实现验证对各模块的理解,为后续微调奠定理论基础。

    (3)数据准备与处理技术:掌握大模型微调数据准备的核心技术,理解数据质量对模型性能的决定性影响。学习数据集类型与格式规范:指令微调格式(Alpaca格式)、对话格式(ShareGPT格式)、问答格式(QA Pairs)。掌握数据清洗、分块、标注与存储的完整流程。学习使用NVIDIA NeMo Curator等工具筛选高质量数据集并生成合成数据。

    (4)全参数微调技术:深入理解全参数微调(Full Fine-tuning)的原理与适用场景,掌握其在大规模计算资源下的精度优势。学习使用HuggingFace Transformers库的Trainer API和自定义训练循环实现全参数微调。了解全参数微调面临的显存挑战与解决方案(梯度累积、混合精度训练)。实践微调DistilBERT进行情感分类的完整流程。

    (5)参数高效微调(PEFT)技术:掌握LoRA(低秩适配)的核心原理:低秩矩阵分解、适配器矩阵设计、缩放系数配置。学习QLoRA的量化权重与梯度更新机制,实现在单GPU(8GB显存)上微调百亿参数模型。掌握P-Tuning、Adapter、Prefix Tuning等其他PEFT方法的特点。实践使用PEFT库和LlamaFactory对开源模型进行垂直领域微调。

    (6)持续预训练(CPT)技术:理解持续预训练(Continual Pre-training)的必要性与应用场景(领域适应、知识更新)。学习CPT的数据准备策略:高质量数据筛选、去重、领域语料构建。掌握使用Transformers框架进行CPT的代码实现,为模型注入特定领域的新知识。了解CPT基模评测与选择策略。

    (7)监督微调(SFT)与指令微调:掌握监督微调(Supervised Fine-tuning)的核心方法,学习构建高质量的指令数据集。理解指令微调在让模型学习新技能和完成特定任务中的作用。实践使用英文数据集微调LLaMA模型,实现文本生成等任务。

    (8)RLHF与模型对齐技术:深入理解RLHF(基于人类反馈的强化学习)的三阶段流程:监督微调(SFT)、奖励模型训练(RM)、近端策略优化(PPO)。学习DPO(直接偏好优化)的简化实现原理。掌握使模型在风格、语气和安全性方面更贴近人类偏好的对齐技术。

    (9)分布式训练框架与优化:掌握分布式训练的核心技术:数据并行、张量并行、流水线并行的原理与适用场景。学习使用DeepSpeed的ZeRO优化器(Stage1/2/3)大幅降低显存占用。了解Megatron-LM在多节点大规模训练中的应用。实践使用DeepSpeed在单机多卡环境下微调大模型。

    (10)模型评估与性能分析:掌握大模型的多维度评估体系:传统指标(Perplexity、BLEU、ROUGE)、指令遵循准确率、模型质量评估(MMLU、HumanEval、CEval)。学习LLM-as-a-judge评估方法和NeMo Evaluator工具的使用。通过评估识别模型微调后的性能变化,避免灾难性遗忘。

    (11)模型量化与推理优化:掌握模型量化的核心原理,理解不同量化精度(FP16、INT8、INT4、NF4)对模型性能和推理速度的影响。学习使用AutoGPTQ、AutoAWQ等工具进行模型量化。掌握vLLM的核心优化技术:PagedAttention、连续批处理。实践使用TensorRT-LLM和NeMo进行量化、剪枝与知识蒸馏,实现高效部署。

    (12)综合项目实战:垂直领域模型微调与部署:结合所学知识,完成一个完整的企业级大模型微调项目(如医疗问答模型微调、法律文书生成模型、金融研报分析助手)。涵盖需求分析、数据准备、模型选型、LoRA/QLoRA微调、性能评估、量化优化、推理部署的全流程,形成规范的模型微调项目报告。





如果您想学习本课程,请预约报名
如果没找到合适的课程或有特殊培训需求,请订制培训
除培训外,同时提供相关技术咨询与技术支持服务,有需求请发需求表到邮箱soft@info-soft.cn,或致电4007991916
技术服务需求表点击在线申请

服务特点:
海量专家资源,精准匹配相关行业,相关项目专家,针对实际需求,顾问式咨询,互动式授课,案例教学,小班授课,实际项目演示,快捷高效,省时省力省钱。

专家力量:
中国科学院软件研究所,计算研究所高级研究人员
oracle,微软,vmware,MSC,Ansys,candence,Altium,达索等大型公司高级工程师,项目经理,技术支持专家
中科信软培训中心,资深专家或讲师
大多名牌大学,硕士以上学历,相关技术专业,理论素养丰富
多年实际项目经历,大型项目实战案例,热情,乐于技术分享
针对客户实际需求,案例教学,互动式沟通,学有所获
报名表下载
联系我们 更多>>

咨询电话010-62883247

                4007991916

咨询邮箱:soft@info-soft.cn  

 

  微信咨询

随时听讲课

聚焦技术实践

订制培训 更多>>