课程培训
大模型(LLM)微调与应用开发培训课程(如ChatGLM/Lla

大模型(LLM)微调与应用开发培训课程(如ChatGLM/Llama 2本地化部署)

  •  

  • 【培训对象】
    AI算法工程师、应用开发工程师、技术负责人,希望利用开源大模型构建企业专属应用的相关人员。

  •  

  • 【培训目标】
    一、 理解大型语言模型(LLM)的基本原理、架构特点和主流开源模型(如Llama 2, ChatGLM, Qwen)的差异。
    二、 掌握在本地或私有云环境部署开源LLM的方法,解决数据安全和隐私顾虑。
    三、 学会使用高效微调技术(如LoRA, P-Tuning)在自有数据上微调LLM,使其适应特定领域任务。
    四、 掌握提示工程(Prompt Engineering)核心技术,并能够基于微调后的模型开发AI应用(如聊天机器人、文档问答)。

  •  

  • 【培训内容介绍】
    一、 大语言模型(LLM)基础与发展:从Transformer到GPT、BERT,LLM的涌现能力,主流开源LLM介绍与对比。
    二、 LLM本地化部署(一):环境准备、硬件要求(GPU/内存)、模型下载、使用Transformers库加载和运行LLM。
    三、 LLM本地化部署(二):使用量化技术(如GPTQ, AWQ, GGUF)降低显存占用,加速推理,实现消费级GPU运行LLM。
    四、 提示工程(Prompt Engineering):设计有效提示的原则、零样本/少样本学习、思维链(CoT)提示、提示模板管理。
    五、 检索增强生成(RAG)原理与实战:解决LLM知识有限和幻觉问题,结合向量数据库(如Chroma, FAISS)构建外部知识库,实现文档问答系统。
    六、 高效微调(PEFT)技术概述:全量微调与高效微调的对比,Adapter Tuning, Prefix Tuning, P-Tuning, LoRA原理。
    七、 LoRA微调实战(一):准备特定领域的数据集(指令-回答对),数据预处理与格式化。
    八、 LoRA微调实战(二):使用PEFT库对基座LLM(如Llama 2-Chat或ChatGLM3)进行LoRA微调,调整关键超参数。
    九、 模型评估与对比:评估微调后模型在特定任务上的表现,与基座模型和商业模型进行对比。
    十、 模型推理服务化:将微调后的LLM封装成高性能API服务(使用FastAPI, vLLM, TGI等框架),支持并发请求。
    十一、 LLM应用开发实践:结合微调模型和RAG,开发一个完整的智能问答应用,包含前端交互界面。
    十二、 实战演练:使用开源LLM,结合企业自有文档数据,搭建并微调一个具备领域知识的私有化智能问答机器人。





如果您想学习本课程,请预约报名
如果没找到合适的课程或有特殊培训需求,请订制培训
除培训外,同时提供相关技术咨询与技术支持服务,有需求请发需求表到邮箱soft@info-soft.cn,或致电4007991916
技术服务需求表点击在线申请

服务特点:
海量专家资源,精准匹配相关行业,相关项目专家,针对实际需求,顾问式咨询,互动式授课,案例教学,小班授课,实际项目演示,快捷高效,省时省力省钱。

专家力量:
中国科学院软件研究所,计算研究所高级研究人员
oracle,微软,vmware,MSC,Ansys,candence,Altium,达索等大型公司高级工程师,项目经理,技术支持专家
中科信软培训中心,资深专家或讲师
大多名牌大学,硕士以上学历,相关技术专业,理论素养丰富
多年实际项目经历,大型项目实战案例,热情,乐于技术分享
针对客户实际需求,案例教学,互动式沟通,学有所获
报名表下载
联系我们 更多>>

咨询电话010-62883247

                4007991916

咨询邮箱:soft@info-soft.cn  

 

  微信咨询

随时听讲课

聚焦技术实践

订制培训 更多>>