大模型(LLM)微调与应用开发培训课程(如ChatGLM/Llama 2本地化部署)
-
-
【培训对象】
AI算法工程师、应用开发工程师、技术负责人,希望利用开源大模型构建企业专属应用的相关人员。
-
-
【培训目标】
一、 理解大型语言模型(LLM)的基本原理、架构特点和主流开源模型(如Llama 2, ChatGLM, Qwen)的差异。
二、 掌握在本地或私有云环境部署开源LLM的方法,解决数据安全和隐私顾虑。
三、 学会使用高效微调技术(如LoRA, P-Tuning)在自有数据上微调LLM,使其适应特定领域任务。
四、 掌握提示工程(Prompt Engineering)核心技术,并能够基于微调后的模型开发AI应用(如聊天机器人、文档问答)。
-
-
【培训内容介绍】
一、 大语言模型(LLM)基础与发展:从Transformer到GPT、BERT,LLM的涌现能力,主流开源LLM介绍与对比。
二、 LLM本地化部署(一):环境准备、硬件要求(GPU/内存)、模型下载、使用Transformers库加载和运行LLM。
三、 LLM本地化部署(二):使用量化技术(如GPTQ, AWQ, GGUF)降低显存占用,加速推理,实现消费级GPU运行LLM。
四、 提示工程(Prompt Engineering):设计有效提示的原则、零样本/少样本学习、思维链(CoT)提示、提示模板管理。
五、 检索增强生成(RAG)原理与实战:解决LLM知识有限和幻觉问题,结合向量数据库(如Chroma, FAISS)构建外部知识库,实现文档问答系统。
六、 高效微调(PEFT)技术概述:全量微调与高效微调的对比,Adapter Tuning, Prefix Tuning, P-Tuning, LoRA原理。
七、 LoRA微调实战(一):准备特定领域的数据集(指令-回答对),数据预处理与格式化。
八、 LoRA微调实战(二):使用PEFT库对基座LLM(如Llama 2-Chat或ChatGLM3)进行LoRA微调,调整关键超参数。
九、 模型评估与对比:评估微调后模型在特定任务上的表现,与基座模型和商业模型进行对比。
十、 模型推理服务化:将微调后的LLM封装成高性能API服务(使用FastAPI, vLLM, TGI等框架),支持并发请求。
十一、 LLM应用开发实践:结合微调模型和RAG,开发一个完整的智能问答应用,包含前端交互界面。
十二、 实战演练:使用开源LLM,结合企业自有文档数据,搭建并微调一个具备领域知识的私有化智能问答机器人。
如果您想学习本课程,请
预约报名
如果没找到合适的课程或有特殊培训需求,请
订制培训
除培训外,同时提供相关技术咨询与技术支持服务,有需求请发需求表到邮箱soft@info-soft.cn,或致电4007991916
技术服务需求表点击在线申请
服务特点:
海量专家资源,精准匹配相关行业,相关项目专家,针对实际需求,顾问式咨询,互动式授课,案例教学,小班授课,实际项目演示,快捷高效,省时省力省钱。
专家力量:
中国科学院软件研究所,计算研究所高级研究人员
oracle,微软,vmware,MSC,Ansys,candence,Altium,达索等大型公司高级工程师,项目经理,技术支持专家
中科信软培训中心,资深专家或讲师
大多名牌大学,硕士以上学历,相关技术专业,理论素养丰富
多年实际项目经历,大型项目实战案例,热情,乐于技术分享
针对客户实际需求,案例教学,互动式沟通,学有所获