返回课程
AI012 Professional

深入探究大型语言模型

本课程全面深入地介绍了大型语言模型(LLMs)的发展历程、核心技术架构、训练范式(预训练、微调和对齐)、多模态扩展、提示工程、思维链推理、智能体,以及模型安全与隐私保护等前沿话题。

4.9
24h
1067 名学生
1 点赞
人工智能

课程概述

📚 内容概要

本课程全面深入地介绍了大语言模型(LLMs)的演进历程、核心技术架构、训练范式(预训练、微调与对齐)、多模态扩展、提示工程、思维链(CoT)、智能体,以及模型安全与隐私保护等前沿议题。

从预训练到通用智能体,深度剖析全栈大模型的技术演进与安全对齐。

🎯 学习目标

  1. 区分模型架构:识别仅编码器(Encoder-only)、仅解码器(Decoder-only)和编码器-解码器(Encoder-Decoder)模型在结构上的差异及其应用场景。
  2. 解释大语言模型训练流程:描述从自监督预训练到有监督微调(SFT)及基于人类反馈的强化学习(RLHF)的转变过程。
  3. 分析模型缩放与行为:解释缩放定律、涌现能力(上下文学习、思维链)以及幻觉现象的概念。
  4. 分析仅编码器(BERT)、仅解码器(GPT)和编码器-解码器(T5)架构之间的结构差异。
  5. 解释三阶段训练过程:预训练(基础模型)、指令微调(SFT)与对齐(RLHF/PPO)。
  6. 比较主流大语言模型(如 GPT、Llama、Qwen、DeepSeek)在性能、缩放定律和架构创新方面的表现。
  7. 实现零样本与少样本提示策略,用于结构化数据提取与分类任务。
  8. 调整模型超参数(温度、Top P、惩罚项),以平衡创造性输出与确定性输出。
  9. 使用手动、自动以及零样本(“让我们一步步思考”)方法构建有效的思维链(CoT)提示。
  10. 分析并比较不同思维链变体:区分自一致性(Self-Consistency)、思维程序(PoT)、思维树(ToT)与思维图(GoT)架构。

🔹 第一课:大语言模型与预训练技术导论

概述: 本课探讨人工智能从专用小型模型向通用大语言模型(LLMs)演进的过程。内容涵盖从基于编码器的“BERT范式”向仅解码器生成范式的架构转变,详细讲解预训练、指令微调与对齐(RLHF)这一关键技术流程。此外,还将分析行业领先模型家族,包括 GPT、Llama 以及国内创新成果如 Qwen 与 DeepSeek。

学习成果:

  • 区分模型架构:识别仅编码器、仅解码器和编码器-解码器模型在结构上的差异及其典型应用场景。
  • 解释大语言模型训练流程:描述从自监督预训练到有监督微调(SFT)及基于人类反馈的强化学习(RLHF)的演变过程。
  • 分析模型缩放与行为:解释缩放定律、涌现能力(上下文学习、思维链)以及幻觉现象的核心概念。

🔹 第二课:主流大语言模型案例研究与部署策略

概述: 本课全面介绍大语言模型(LLMs)的技术演进,追溯其从基础编码器-解码器架构发展为现代多模态与智能体系统的过程。课程详述核心训练流程——包含预训练、指令微调与对齐——并评估 GPT-4、Llama 3 与 DeepSeek 等主流案例。模块最后提供实用部署策略(API 与本地部署对比)以及高级提示工程框架,如 RAG 与 ReAct。

学习成果:

  • 分析仅编码器(BERT)、仅解码器(GPT)与编码器-解码器(T5)架构之间的结构差异。
  • 解释三阶段训练流程:预训练(基础模型)、指令微调(SFT)与对齐(RLHF/PPO)。
  • 比较主流大语言模型(如 GPT、Llama、Qwen、DeepSeek)在性能、缩放定律与架构创新方面的表现。

🔹 第三课:提示工程与思维链基础

概述: 本课深入探讨从基础零样本提示到结构化少样本学习的进阶转变,以及思维链(CoT)所展现出的推理能力。学生将学习如何通过技术超参数与结构化示范控制模型行为,以解决复杂的逻辑、数学与语言任务。课程结尾还将探索过程监督学习与自动化思维链构建方法。

学习成果:

  • 实现用于结构化数据提取与分类的零样本与少样本提示策略。
  • 调整模型超参数(温度、Top P、惩罚项),以平衡创造性与确定性输出。
  • 使用手动、自动及零样本(“让我们一步步思考”)方法构建高效的思维链(CoT)提示。

🔹 第四课:高级推理、知识编辑与数学逻辑

概述: 本课深入探讨思维链(CoT)的高级结构变体、大语言模型(LLMs)中知识编辑的技术框架,以及数学推理这一专门领域。内容涵盖模型如何从简单的线性推理过渡到复杂的图结构,如何通过内部与外部编辑修正“不希望存在的”知识,以及最先进的数学模型在训练与评估中的流程设计。

学习成果:

  • 分析并比较不同思维链变体:区分自一致性、思维程序(PoT)、思维树(ToT)与思维图(GoT)架构。
  • 评估知识编辑技术:理解可靠性、局部性与可移植性的度量标准,并区分内部编辑(ROME)与外部编辑(SERAC)解决方案。
  • 评估数学逻辑训练与评估流程:识别用于提升长文本数学推理能力的训练数据集(GSM8K、MATH、AIME)与知识蒸馏过程,应用于 DeepSeek-Math 与 o1 等模型。

🔹 第五课:内容安全、水印技术与越狱攻击分析

概述: 本课探讨识别大语言模型生成内容的技术机制,以及对抗性攻击带来的安全挑战。内容涵盖可在翻译与重写中保持稳定的统计水印技术(KGW、SIR、X-SIR),同时分析用于绕过安全防护的“越狱”提示(DAN、STAN)。课程结尾将讨论防御策略,以及模型“有用性”与“无害性”之间的根本矛盾。

学习成果:

  • 分析 KGW 与 SIR 水印的数学基础,包括词表划分与语义不变性调整机制。
  • 识别并分类越狱攻击策略,如“假装”、“权限提升”与“基于密码”的攻击方式。
  • 评估防御措施,包括上下文防御(ICD)、警示警告防御(CWD)与红队测试。

🔹 第六课:大语言模型隐写术与隐私保护研究

概述: 本课聚焦大语言模型(LLM)实用性与安全性之间的关键平衡,重点分析“越狱”攻击的机理与隐写术的技术实现。内容涵盖攻击者如何利用复杂的提示工程技术(如 DAN、STAN)绕过安全过滤,以及如何通过在令牌生成过程中嵌入数据实现隐蔽通信。此外,还将介绍多模态大语言模型(MLLMs)的架构与能力,涵盖图像、音频与视频等多样化数据类型的处理与生成。

学习成果:

  • 识别并分析常见的越狱攻击模式,包括角色扮演(DAN)、认知胁迫(PUA)与侧信道方法(密码/代码)。
  • 解释大语言模型隐写术的技术机制,特别是比特流如何映射至下一个词预测的概率分布(logits)。
  • 根据跨模态感知与生成能力,对多模态大语言模型(MLLM)架构进行分类(文本、图像、音频、3D)。

🔹 第七课:高级多模态大语言模型架构与设计

概述: 本课深入探讨多模态大语言模型(MLLMs)的技术基础设施,重点关注编码、投影与解码机制,这些机制使跨模态智能成为可能。内容详细阐述从特定模态编码器到统一表示空间的演进过程,并分析用于弥合非文本信号与大语言模型语义空间之间差距的多种方法。

学习成果:

  • 识别非视觉模态的专用编码器与分词方法,包括音频(HuBERT、Whisper)与三维点云(Point-BERT)。
  • 评估用于对齐多模态表示与大语言模型语义空间的不同输入端投影技术(线性、多层MLP、重采样器)。
  • 对比三种主要解码端连接策略:离散标记、连续嵌入与用于多模态生成的码本。

🔹 第八课:自主智能体、RLHF与安全对齐

概述: 本课探讨图形用户界面(GUI)智能体从静态任务执行向动态环境中自主决策演进的过程。内容详述开源与闭源智能体的技术架构,以及强化学习从人类反馈(RLHF)与近端策略优化(PPO)在策略对齐中的集成应用。同时,强调关键的安全挑战——从环境提示注入到模型后门——要求建立强大的防御框架,如 GuardAgent 与 R-Judge。

学习成果:

  • 分析 GUI 智能体的架构组件,包括多智能体系统中的规划、决策与反思模块。
  • 解释强化学习(RL)与 RLHF 的机制,特别是奖励模型与 PPO 在使智能体行为与人类价值观对齐中的作用。
  • 评估自主智能体中的安全风险与可靠性问题,包括分布外(OOD)错误、越狱攻击与环境干扰。