课程介绍
【培训背景】
据《2025企业AI落地调研报告》显示,大模型幻觉引发的业务失误、知识时效性不足、规则合规性缺失,已成为制约企业AI规模化落地的核心痛点。这些问题不仅影响业务决策的准确性,更增加了企业数字化转型的风险与成本,亟需高效可行的技术方案破解。
RAG(检索增强生成)技术凭借实时联动外部知识库、实现模型定向生成的核心优势,成为解决上述困境的关键路径,目前已在各行业完成规模化应用。而DeepSeek模型依托成熟的技术生态、高效的API能力与灵活的适配性,为企业搭建高性能RAG系统提供了可靠底座,成为众多企业落地RAG技术的优选方案。
【培训收益】
1.掌握RAG系统全链路设计与开发能力
2.具备构建复杂知识增强系统的实战经验
3.具备大模型微调与定制化部署能力
4.掌握低代码与可视化RAG系统构建方法
5.获得从开发到部署的完整项目经验
【适合人群】
技术开发人员:如AI工程师、数据分析师、前后端开发工程师等人员
企业业务相关人员:产品经理、售前人员等需要结合大模型相关技术为业务赋能的人员
高校学生及研究人员:计算机相关专业且Python基础较好,有机器学习等AI基础的大学生,以及对大模型技术感兴趣,希望在AI算法领域开展研究的人员
技术爱好者:对智能问答系统、RAG技术等感兴趣的技术爱好者
【授课专家】
刘老师 国内顶尖AI专家、大数据技术专家
西安邮电大学计算机科学与技术专业。拥有着20多年软件研发与企业培训经验,对Java、Python、区块链等技术领域有独特的研究,精通机器学习、深度学习、大模型技术。他的专业素养和教学能力备受学员赞誉,是众多技术爱好者心中的楷模。
AI深度学习方法:Scikit-Learn,Tensorflow、Keras、DNN、CNN、RNN、YOLO、OpenCV熟悉主流机器学习算法、各种神经网络结构和图形图像识别技术。
LLM大模型方向:DeepSeek、ChatGLM、ChatGPT4、Llama3、Agent、React、Ollama、Dify、Llamafactory微调、DeepSeek分布式训练、MindFormers生态、MoE混合专家模型。能根据客户的需求实现定制化的模型私有化部署、微调、对齐、量化。并对LangChain、LlamaIndex、Dify等大模型框架有源码级的理解。
邹老师 某工业大学人工智能研究院院长
博士学历,毕业于中国地质科学院,兼任天津大学创业导师、山东交通学院客座教授、硕士生导师。主持研发50多个人工智能领域工业级项目,广泛应用于能源、医疗、交通、气象、银行等多个领域。硕博期间主持研发大型行业建模软件,代码量100万行(从底层开发是考虑后期维护和产权)。创立的睿客邦与国内十多所高校建立了AI联合实验室或实训基地广泛应用于医疗、交通、农业、气象、银行、电信等多个领域。成立中国科学院邹博人工智能研究中心,在翔创、天识等公司担任技术顾问,曾在多个在线平台授课,广受网友好评,累计学习人数超过百万。公开出版《强化学习》、《Python深度学习实践》、《自然语言处理》等11部专著和译著。在国内外期刊会议发表论文10余篇,获得国家发明专利1项,著书1本,译书6本。2017年主持科研项目荣获国土资源科学技术一等奖。为众多知名企业进行过上百场讲座和内部培训,其中包括中国移动、CSDN、中国建设银行、花旗银行、中信集团、中航信、烽火科技、京东方、中科曙光、京东、大唐、完美世界等。
【结业证书】
参加培训并通过考试的学员,将获得由工业和信息化部教育与考试中心统一颁发的《AI大模型全栈技术(高级)》职业能力证书。证书长期有效,相关信息可随时登录中心官网查询。

证书样本
开班计划
| 开课时间 | 授课形式 | 培训类型 | 上课城市 | 在线报名 |
|---|---|---|---|---|
| 2026-03-29 | 面授+直播 | 精品班 | 北京 | 在线报名 |
| 2026-05-25 | 面授+直播 | 精品班 | 昆明 | 在线报名 |
| 2026-07-25 | 面授+直播 | 精品班 | 北京 | 在线报名 |
| 2026-09-22 | 面授+直播 | 精品班 | 广州 | 在线报名 |
| 2026-12-27 | 面授+直播 | 精品班 | 上海 | 在线报名 |
| 随报随学 | 录播 | 特惠班 | IT云课 | 在线报名 |
课程大纲
DeepSeek RAG应用实战-从知识增强到微调培训班,标准公开课为3天,每天6小时,企业内训可按需求定制。
课程安排如下:
日程 | 主题 | 内容 |
第一天 上午 | 第一部分: LLM大模型核心原理 | 1.大模型基础:理论与技术的演进 2.LLMs大语言模型的概念定义 3.LLMs大语言模型的发展演进 4.LLMs大语言模型的生态体系 5.大语言模型技术发展与演进 6.基于统计机器学习的语言模型 7.基于深度神经网络的语言模型 8.基于Transformer的大语言模型 9.LLMs大语言模型的关键技术 10.LLMs大语言模型的核心框架:商业&开源LLMs大语言模型的行业应用 |
第二部分:DeepSeek大模型与Prompt提示工程 | 1.Prompt如何使用和进阶 2.什么是提示与提示工程 3.提示工程的巨大威力:从Let’s think step by step说起 4.拆解、标准化、流程化:如何用AI改造工作 5.使用BROKE框架设计ChatGPT提示 通过案例分析,展示如何使用大模型prompt技术辅助开发 | |
第一天 下午 | 第三部分: DeepSeek大模型API应用开发 | 1.DeepSeek-V3大模型API 2.DeepSeek-R1推理大模型API 3.DeepSeek模型&价格 4.DeepSeek模型参数Temperature设置 5.DeepSeek模型Token用量计算 6.DeepSeek模型错误码 7.DeepSeek大模型多轮对话 8.DeepSeek大模型对话前缀续写(Beta) 9.DeepSeek大模型FIM补全(Beta) 10.DeepSeek大模型JSON Output 11.DeepSeek大模型Function Calling 12.DeepSeek大模型上下文硬盘缓存 13.文本内容补全初探(Text Completion) 14. 聊天机器人初探(Chat Completion) 15.基于DeepSeek开发智能翻译助手 案例分析与实战 |
第四部分: 大模型应用开发框架 LangChain | 1.大模型应用开发框架LangChain 2.LangChain是什么 3.为什么需要LangChain 4.LangChain典型使用场景 5.LangChain基础概念与模块化设计 6.LangChain核心模块入门与实战 7.LangChain的3个场景 8.LangChain的6大模块 9.LangChain的开发流程 10.创建基于LangChain聊天机器人 | |
第二天 上午 | 第五部分: 基于DeepSeek和LangChain构建文档问答系统 | 1.构建复杂LangChain应用 2.LangChain模型(Models):从不同的LLM和嵌入模型中进行选择 3.LangChain提示(Prompts):管理LLM输入 4.LangChain链(Chains):将LLM与其他组件相结合 5.LangChain索引(Indexs):访问外部数据 6.LangChain记忆(Memory):记住以前的对话 7.LangChain代理(Agents):访问其他工具 8.使用大模型构建文档问答系统 |
第六部分: DeepSeek大模型企业RAG应用 | 1.RAG技术概述 2.加载器和分割器 3.文本嵌入和向量存储 4.检索器和多文档联合检索 5.RAG技术的关键挑战 6.检索增强生成实践 7.RAG技术文档预处理过程 8.RAG技术文档检索过程 | |
第二天 下午 | 第七部分: 基于DeepSeek构建知识图谱增强 | 1.Neo4j基础概念:Node、Property、Relationship 2.使用Cypher查询语言进行数据建模、插入和查询。 3.网络配置文件(config)的基本结构和参数分析 4.基于config指定数据清洗与标准化格式 5.基于本地大模型的结构化分析实现 6.LangChain自动生成并优化Cypher查询 7.LangServe发布图谱服务器 |
第八部分: 融合知识库与多链路召回实现智能检索 | 1.何谓多链路召回与单路召回的区别 2.多源数据整合:知识库、知识图谱与结构化数据库 3.向量召回与语义检索的融合策略 4.并行召回与串行召回机制分析 5.LangChain多路召回Pipeline设计 6.基于Embedding相似度的召回融合方法 7.构建多链路召回的索引与缓存机制 8.通过LangChain实现多数据源统一检索 9.实战案例:企业知识库+业务数据库的混合召回 10.多链路召回性能优化与准确率提升策略 | |
第三天 上午 | 第九部分: 过滤与二次重排构建高精度智能检索 | 1.何谓ReRank与传统召回的关系 2.检索前过滤与检索后重排整体流程 3.LangChain中Retriever与Reranker组件机制 4.基于Embedding相似度与LLM语义打分的双阶段排序 5.Rerank模型(bge-reranker、cross-encoder)介绍 6.LangChain构建二次重排Pipeline的实现路径 7.结合BM25 +向量检索+ReRank的混合策略 8.检索重排性能对比与评估指标设计 9.实战案例:构建高精度企业知识库问答系统 10.结合RAG与ReRank的智能知识检索系统部署与优化 |
第十部分: LangFlow:构建低代码RAG知识检索系统 | 1.LangFlow平台简介:可视化LangChain 的低代码工具 2.RAG(检索增强生成)整体架构与核心流程 3.LangFlow 节点介绍:LLM、Retriever、Memory、Tool 4.加载并解析企业文档数据(PDF/CSV/Markdown) 5.构建向量索引与 Embedding 存储(FAISS/Chroma) 6.可视化搭建 RAG 流程:从输入到响应的链路设计 7.添加上下文记忆与多轮对话逻辑 8.调试与参数优化:Prompt模板与上下文窗口配置 9.部署LangFlow应用并接入API调用 10.实战案例:构建企业知识文档智能问答系统 | |
第三天 下午 | 第十一部分: 数据工程与大模型微调 | 1.大模型微调基础原理与常见应用场景 2.微调数据格式解析:ShareGPT与Alpaca格式规范 3.使用EasyData从文档自动生成 ShareGPT 格式数据集 4.摩搭社区(ModelScope)平台介绍与模型下载流程 5.LlamaFactory微调框架概览与环境配置 6.LoRA/QLoRA微调参数设置与模型训练实战 7.模型验证与性能评估:Loss、F1、Perplexity 8.微调模型导出与转换:从 HuggingFace到Safetensors 9.将微调模型上传至摩搭平台并发布推理服务 10.实战案例:针对企业内部知识问答场景的微调实现 |
第十二部分: 微调后模型评测、效果对比与可视化评测报告 | 1.OpenCompass框架原理与安装配置 2.Benchmark 测试体系介绍:通用任务与垂直任务集 3.微调模型的加载与评测准备(SFT/LoRA模型) 4.通过OpenCompass执行模型评测流程(命令行+配置文件) 5.常用评测指标讲解:BERTScore、BLEU、ROUGE、困惑度(Perplexity) 6.不同类型任务的评价策略:生成类vs分类类 7.微调前后模型性能对比与结果分析 8.结果可视化与报告生成(Precision/ Recall/F1对比) 9.实战演示:评测DeepSeek微调版与原版输出效果 10.基于评测结果优化微调与业务落地建议 |