返回课程
AI011 Professional

初学者的生成式 AI

一门全面的课程,深入探讨生成式人工智能的基础知识、大型语言模型、提示工程,以及使用 Azure OpenAI 和 Power Platform 等工具开发人工智能应用。

5.0
21h
615 名学生
0 点赞
人工智能

课程概述

📚 内容概要

一个全面的课程体系,深入探讨生成式人工智能的基础知识、大型语言模型、提示工程,以及使用 Azure OpenAI 和 Power Platform 等工具开发 AI 驱动应用的方法。

掌握生成式 AI 的基础知识,并从零开始构建智能应用。

致谢: 微软、Azure 与 OpenAI。

🎯 学习目标

  1. 解释大型语言模型(LLM)的机械内部工作原理,包括分词、注意力机制和非确定性输出。
  2. 比较各类大型语言模型(基础模型、开源与专有模型,以及编码器/解码器架构),以选择适合业务场景的合适工具。
  3. 评估提升模型效果的策略,特别是决定在提示工程、检索增强生成(RAG)与微调之间如何取舍。
  4. 定义提示工程,并解释其作为生成式 AI 主要编程接口的作用。
  5. 区分基础 LLM 与指令微调型 LLM,理解它们对分词的处理方式。
  6. 使用指令、主要内容、提示线索和模板构建复杂提示。
  7. 使用 openai 库构建并配置文本生成应用,管理环境变量,并通过调整温度参数控制输出多样性。
  8. 区分基于规则的聊天机器人与上下文感知的生成式 AI 应用,并实现微软的六大负责任 AI 原则。
  9. 通过将文本转换为嵌入向量(embeddings)并应用余弦相似度,执行语义搜索,从而在超越简单关键词匹配的基础上查找相关内容。
  10. 构建并配置图像生成应用,同时实施“元提示”以定义内容边界和安全性。

🔹 第1课:生成式 AI 的基础与伦理

概述: 本课程提供生成式 AI 的全面入门介绍,追溯其从统计机器学习发展到现代基于 Transformer 的大型语言模型(LLMs)的演进历程。学习者将探索这些模型如何通过分词和概率机制运作,如何选择和优化不同类型的模型(开源与专有),以及如何运用负责任 AI 的关键框架来降低幻觉和偏见等风险。

学习成果:

  • 解释大型语言模型(LLM)的机械内部工作原理,包括分词、注意力机制和非确定性输出。
  • 比较各类大型语言模型(基础模型、开源与专有模型,以及编码器/解码器架构),以选择适合业务场景的合适工具。
  • 评估提升模型结果的策略,特别是决定在提示工程、检索增强生成(RAG)与微调之间的选择。

🔹 第2课:提示工程的艺术与科学

概述: 本课程探讨提示工程(PE)作为设计和优化文本输入(提示)的过程,旨在引导大型语言模型(LLMs)生成高质量且一致的响应。学生将从理解分词和模型类型的基础机制出发,逐步掌握链式思维和苏格拉底式提示等高级技术,以缓解模型固有的随机性和虚构问题。

学习成果:

  • 定义提示工程,并解释其作为生成式 AI 主要编程接口的角色。
  • 区分基础 LLM 与指令微调型 LLM,理解它们对分词的处理方式。
  • 使用指令、主要内容、提示线索和模板构建复杂提示。

🔹 第3课:核心 AI 应用的开发

概述: 本课程探讨基于 AI 的工具的实际开发,重点聚焦于文本生成、上下文感知的聊天界面以及语义搜索应用。学习者将从基本的 API 集成和参数调优(温度与令牌数)过渡到实现高级功能,如文本嵌入、余弦相似度计算以及负责任 AI 框架的应用。

学习成果:

  • 使用 openai 库构建并配置文本生成应用,管理环境变量,并通过调整温度参数控制输出多样性。
  • 区分基于规则的聊天机器人与上下文感知的生成式 AI 应用,并实现微软的六大负责任 AI 原则。
  • 通过将文本转换为嵌入向量(embeddings)并应用余弦相似度,执行语义搜索,从而在超越简单关键词匹配的基础上查找相关内容。

🔹 第4课:低代码与集成式 AI 解决方案

概述: 本部分内容涵盖人工智能实施的三大高级支柱:使用 DALL-E、Midjourney 等模型构建图像生成应用;通过 Microsoft Power Platform 开发低代码解决方案;以及通过“函数调用”增强大型语言模型的能力。内容聚焦于实际部署,从基于 Python 的 API 集成,到自然语言驱动的应用开发,再到将 AI 连接到外部数据源。

学习成果:

  • 构建并配置图像生成应用,同时实施“元提示”以定义内容边界和安全性。
  • 利用 Copilot、Dataverse 与 AI Builder 在 Power Platform 中设计低代码 AI 应用和自动化工作流。
  • 实现函数调用以确保结构化数据输出(如 JSON)的一致性,并将大型语言模型与外部 API 集成。

🔹 第5课:用户体验、安全与应用生命周期

概述: 本课程探讨用户体验(UX)、安全协议以及生成式 AI 应用运营生命周期的关键交汇点。它探讨如何通过可解释性建立信任,识别生成式 AI 特有的安全威胁,如数据污染和提示注入,并阐述从传统 MLOps 向 LLMOps 的转变,以管理应用生命周期。

学习成果:

  • 设计促进信任与透明度的 AI 界面,通过可解释性和用户控制增强可用性。
  • 识别并缓解生成式 AI 特有的安全风险,包括数据污染、提示注入及供应链漏洞。
  • 区分 MLOps 与 LLMOps,解释生成式 AI 应用生命周期的各个阶段(构思、构建、运营化)。

🔹 第6课:高级检索与代理系统

概述: 本课程探讨从基础的 LLM 交互过渡到利用检索增强生成(RAG)和自主 AI 代理的复杂系统。学习者将探索如何使用向量数据库将模型与私有数据结合,以及如何通过代理框架扩展 LLM 能力,使其具备规划、使用工具和与其他代理交互的能力。

学习成果:

  • 解释 RAG 的技术流程,包括文本切块、嵌入生成和语义检索。
  • 根据成本、可定制性和性能比较并选择合适的开源模型(Llama 2、Mistral、Falcon)。
  • 区分主要 AI 代理框架(LangChain、AutoGen、TaskWeaver、JARVIS)及其具体应用场景。

🔹 第7课:模型微调与专用架构

概述: 本课程探讨从通用提示工程转向通过监督微调和专用小型语言模型(SLMs)优化模型的转变。课程对微软 Phi、Mistral 与 Meta Llama 模型家族进行对比分析,详细说明其在规模、计算需求和多模态能力方面的架构权衡,适用于云与边缘环境的部署。

学习成果:

  • 定义微调,并判断在何种情况下应使用微调而非提示工程或检索增强生成(RAG)。
  • 对比大型语言模型(LLMs)与小型语言模型(SLMs)在规模、理解能力和推理速度方面的特性。
  • 识别 Phi-3.5、Mistral(大型/小型/NeMo)以及 Llama(3.1/3.2)模型家族的独特功能与适用场景。