返回课程
AI010 Professional

面向开发者的大型语言模型入门

本课程是吴恩达与OpenAI联合推出的三门大语言模型系列课程的中文适配版本。内容涵盖提示工程、使用ChatGPT API构建系统、LangChain应用开发,以及利用LangChain访问私有数据。课程清晰易懂地介绍了如何利用大语言模型的能力,构建具备摘要、推理、转换、扩展和聊天功能的应用。

4.8
24h
916 名学生
8 点赞
人工智能

课程概述

📚 内容概要

本课程是吴恩达(Andrew Ng)与 OpenAI 联合开发的三部分大型语言模型(LLM)系列课程的中文版。课程涵盖提示工程、基于 ChatGPT API 构建系统、LangChain 应用开发,以及利用 LangChain 访问私有数据等内容。课程深入浅出地介绍了如何利用大模型能力,开发具备摘要、推理、转换、扩展和聊天功能的应用程序。

掌握提示工程与 LangChain 框架,成为大模型时代的 AI 应用开发者。

🎯 学习目标

  1. 区分基础大模型(Base LLMs)与指令微调大模型(Instruction Tuned LLMs)。
  2. 运用四种具体策略编写清晰且明确的指令(使用分隔符、结构化输出、条件检查、少样本提示)。
  3. 通过指定任务步骤并要求独立解决问题,实现让模型“有时间思考”的策略。
  4. 实现结构化文本处理:从单个或多个文档中总结并提取特定信息,同时控制输出长度与重点。
  5. 执行自动化文本分析:通过提示实现情感分类、识别特定情绪,并完成零样本主题分类。
  6. 实现多模态转换:在不同语言间翻译、转换数据格式(如 JSON 到 HTML),并程序化修正语法与拼写错误。
  7. 区分基础大模型与指令微调大模型,理解分词对模型行为的影响。
  8. 使用 System、User 和 Assistant 消息角色构建结构化系统架构,定义模型人格。
  9. 应用分类与内容审核技术,评估用户输入的安全性并进行路由处理。
  10. 实现提示链(Prompt Chaining):将复杂任务分解为可管理的子任务,以提升可靠性并降低成本。

🔹 第1课:提示原则与迭代开发

概述: 本课介绍面向开发者的提示工程基本原理,从基础的“基础大模型”过渡到“指令微调大模型”。课程提出有效交互的两大核心支柱:撰写清晰、具体的指令,以及给予模型充分的“思考时间”。此外,还建立了一套迭代工作流程,用于根据具体业务需求(如长度限制、格式要求)不断优化提示。

学习成果:

  • 区分基础大模型与指令微调大模型。
  • 运用四种具体策略编写清晰且明确的指令(使用分隔符、结构化输出、条件检查、少样本提示)。
  • 通过指定任务步骤并要求独立解决问题,实现让模型“有时间思考”的策略。

🔹 第2课:核心提示能力与聊天机器人

概述: 本课探讨大型语言模型(LLMs)在五个关键功能领域的实际应用:摘要生成、推理、转换、扩展,以及构建交互式聊天机器人。课程为开发者提供一份实战指南,使用 Python 与 OpenAI API 处理文本、提取结构化数据、调整语言风格,并保持对话上下文,适用于客户服务机器人等真实场景。

学习成果:

  • 实现结构化文本处理:从单个或多个文档中总结并提取特定信息,同时控制输出长度与重点。
  • 执行自动化文本分析:通过提示实现情感分类、识别特定情绪,并完成零样本主题分类。
  • 执行多模态转换:在不同语言间翻译、转换数据格式(如 JSON 到 HTML),并程序化修正语法与拼写错误。

🔹 第3课:系统逻辑:输入分类与推理

概述: 本课深入探讨大型语言模型(LLMs)的基本机制,从基础的分词与消息角色,进阶到高级输入处理策略。学生将学习如何通过分类用户意图、进行内容安全审核,以及实施思维链(Chain of Thought, CoT)推理来提升准确性,通过“内心独白”方式控制用户体验。

学习成果:

  • 区分基础大模型与指令微调大模型,理解分词对模型行为的影响。
  • 使用 System、User 与 Assistant 消息角色构建结构化系统架构,定义模型人格。
  • 应用分类与内容审核技术,评估用户输入的安全性并进行路由处理。

🔹 第4课:复杂工作流与系统评估

概述: 本课讲述从简单提示向复杂、多步骤的 LLM 工作流的演进。重点聚焦于“提示链”(Prompt Chaining)以分解任务,通过 Moderation API 实现安全层,以及建立严格的评估框架——包括单一正确答案的情况,以及需要主观评分的场景。

学习成果:

  • 实现提示链:将复杂任务分解为可管理的子任务,以提升可靠性和降低使用成本。
  • 构建安全的端到端系统:将输入/输出审核与事实核查机制集成到生产就绪的流水线中。
  • 制定评估策略:创建验证集,通过与“理想答案”对比及使用 LLM 辅助评分标准来衡量 LLM 性能。

🔹 第5课:LangChain 基础:模型、提示与记忆

概述: 本课介绍 LangChain 框架的核心组件,重点讲解如何抽象大型语言模型(LLM)的交互方式。课程涵盖从直接调用 API 向使用 LangChain 模块化组件(模型、提示模板、输出解析器)的转变,并深入探讨四种不同的记忆策略,以维持对话状态。

学习成果:

  • 使用 LangChain 的 ChatOpenAI 及模块化组件实现基础的 LLM 调用。
  • 构建可复用的 ChatPromptTemplate 结构,以管理复杂的提示逻辑与变量。
  • 使用 StructuredOutputParser 从非结构化的 LLM 响应中提取结构化数据(如 JSON/Python 字典)。

🔹 第6课:LangChain 链、问答系统与自主代理

概述: 本课介绍 LangChain 的核心架构构建模块,从简单的线性提示-完成序列过渡到复杂的逻辑驱动系统。学生将学习如何通过链(Chains)协调多个 LLM 调用,使用向量存储在私有文档上实现检索增强生成(Q&A),并部署能够通过推理选择并执行工具的自主代理。内容强调超越单次提示交互,迈向自动化、可扩展的 LLM 应用。

学习成果:

  • 使用 SequentialChain 与 RouterChain 构建线性与复杂多步工作流。
  • 使用嵌入、向量存储与 RetrievalQA 链构建基于文档的问答系统。
  • 使用 QAGenerateChain 与 QAEvalChain 实现 LLM 应用的自动化评估。

🔹 第7课:私有数据准备:加载与向量化

概述: 本课介绍使用 LangChain 构建检索增强生成(RAG)系统的初始阶段。课程指导开发者从多种来源(PDF、YouTube、网页、Notion)加载非结构化数据,将数据分割为语义上有意义的片段,并将这些片段转化为数值嵌入(embeddings),以便在向量数据库中存储与进行相似度搜索。

学习成果:

  • 实现多种 LangChain 文档加载器,从 PDF、YouTube 音频、网页链接和 Notion 数据库导入数据。
  • 配置并比较不同的文本分割器(字符分割、递归分割、按标记分割、Markdown 分割),使用 chunk_size 与 chunk_overlap 等参数进行调整。
  • 执行向量化过程:创建嵌入并将其存储在 Chroma 向量存储中,以支持语义相似度搜索。

🔹 第8课:检索增强生成(RAG)与交互

概述: 本材料探讨从基础语义搜索向高级检索与对话交互的演进。课程涵盖先进的检索技术——如最大边际相关性(MMR)、元数据过滤与上下文压缩——之后演示如何使用 LangChain 的记忆与图形界面组件构建带状态的问答链与功能完整的聊天机器人。

学习成果:

  • 实现高级检索策略(MMR、自查询、压缩),以提升检索文档的多样性和相关性。
  • 对比并部署不同链类型(stuff、MapReduce、Refine),用于在问答任务中处理检索到的上下文。
  • 使用 ConversationalRetrievalChain 与 ConversationBufferMemory 构建带状态的聊天机器人界面,以维护对话上下文。