课程概述
--- SOURCE TEXT ---
📚 内容摘要
本综合课程为研究生和专业人士提供人工智能的严谨且易于理解的入门介绍。课程内容从符号主义人工智能和搜索算法,循序渐进到现代深度学习和生成式人工智能,弥合了历史基础与前沿创新之间的鸿沟。学生将探索知识表示、概率推理和经典机器学习等核心主题,然后深入研究神经网络、Transformer 和大型语言模型(LLM)。课程强调理论与实践,利用 Python 和 PyTorch 等行业标准框架来实现算法、与现代 API 交互,并解决人工智能伦理和安全等关键问题。
本课程弥合了经典符号主义人工智能与现代生成式人工智能之间的差距,为学生提供了理论深度和 Python 实践技能,以构建、实现和合乎伦理地评估智能系统。
🎯 学习目标
- 掌握 AI 基础: 分析并实现基本问题解决方法,包括启发式搜索、基于逻辑的推理和概率建模。
- 实现深度学习架构: 使用 PyTorch 设计和训练先进的神经网络,涵盖多层感知机、卷积神经网络和 Transformer。
- 部署生成式 AI 解决方案: 利用大型语言模型(LLM)构建应用,运用微调、提示工程和检索增强生成(RAG)等技术。
- 确保 AI 伦理开发: 批判性地评估 AI 系统的偏见、安全性和对齐性,并在实际场景中应用可解释性和鲁棒性策略。
🔹 第 1 课:AI 的历史与基础
概述: 探索人工智能的起源,涵盖图灵测试、达特茅斯会议以及被称为“AI 寒冬”的人工智能发展周期性。
学习成果:
- 追溯人工智能从 1956 年至今的历史演变。
- 比较和对比符号主义 AI(GOFAI)和联结主义范式。
- 讨论深度学习革命和近期生成式突破的影响。
🔹 第 2 课:搜索策略:无信息和有信息搜索
概述: 介绍使用搜索算法的基本问题解决方法代理,区分盲目搜索和基于启发式的方法。
学习成果:
- 实现无信息搜索方法,包括 BFS、DFS 和 Uniform Cost 搜索。
- 应用启发式搜索技术,如 A* 和 Greedy Best-First 搜索。
- 分析不同搜索策略的复杂性和最优性。
🔹 第 3 课:对抗搜索与约束满足
概述: 深入研究竞争环境(游戏)中的决策制定以及解决由约束定义的问题。
学习成果:
- 掌握用于游戏对弈的 Minimax 算法和 Alpha-Beta 剪枝。
- 理解用于 AlphaGo 等先进系统的蒙特卡洛树搜索(MCTS)。
- 使用回溯法和局部搜索解决约束满足问题(CSP)。
🔹 第 4 课:知识表示与推理
概述: 研究 AI 系统如何以逻辑方式表示信息以进行推理,从经典逻辑转向现代知识结构。
学习成果:
- 利用命题逻辑和一阶逻辑进行表示和推理。
- 比较遗留的专家系统与现代知识图谱和本体。
- 探索神经符号 AI 作为逻辑与神经网络之间的桥梁。
🔹 第 5 课:生成式 AI 时代的不确定性
概述: 超越经典的概率计算,理解不确定性如何驱动现代 AI。本课探讨 LLM 为何会产生幻觉(为何这是个特性而非 bug),扩散模型如何从纯噪声中创造艺术,以及自主代理如何在不可预测的开放世界中做出决策。
学习成果:
- 从贝叶斯到“感觉”:直观理解置信度和校准,学习“99% 概率”为何仍可能出错,而无需陷入复杂的数学。
- 创意的引擎:分析概率采样机制(Temperature、Top-P)如何实现生成式 AI 的创造力并导致幻觉。
- 代理决策:理解不确定性下的决策策略,重点关注强化学习和多代理系统中的“探索与利用”困境。
🔹 第 6 课:经典机器学习
概述: 使用 Python 对监督和无监督学习的数据驱动算法进行实践入门。
学习成果:
- 实现包括决策树和 SVM 在内的监督学习模型。
- 应用 K-means 聚类和 PCA 等无监督技术。
- 使用 Scikit-learn 解决基本数据分析问题。
🔹 第 7 课:神经网络基础
概述: 转向受生物启发的计算,涵盖人工神经网络的架构和训练机制。
学习成果:
- 解释人工神经元和多层感知机(MLP)的结构。
- 掌握反向传播算法和各种激活函数(ReLU、GELU)。
- 使用 PyTorch 构建基本神经网络。
🔹 第 8 课:计算机视觉与 CNN
概述: 专注于通过专门的深度学习架构处理视觉数据。
学习成果:
- 理解卷积神经网络(CNN)的机制。
- 分析 ResNet 和 Vision Transformer(ViT)等先进架构。
- 实现基本的图像分类模型。
🔹 第 9 课:序列建模与 Transformer
概述: 探索从循环神经网络到革命性的注意力机制的序列处理演变。
学习成果:
- 区分 RNN、LSTM 和 Transformer 架构。
- 解释“Attention Is All You Need”论文和自注意力机制。
- 理解 BERT 和 GPT 等模型中编码器和解码器的作用。
🔹 第 10 课:大型语言模型(LLM)
概述: 深入研究最先进的生成式 AI,重点关注文本生成和模型适配。
学习成果:
- 描述 LLM 的预训练和微调生命周期。
- 探索人类反馈强化学习(RLHF)。
- 实践提示工程和参数高效微调方法(PEFT/LoRA)。
🔹 第 11 课:高级生成式 AI 应用
概述: 从文本扩展到检索系统和使用现代 API 的生成式媒体。
学习成果:
- 实现检索增强生成(RAG)以减少幻觉。
- 理解扩散模型(如 Stable Diffusion)和 VAE 背后的数学原理。
- 与现代 AI API 交互以构建生成式应用程序。
🔹 第 12 课:AI 伦理、安全与对齐
概述: 批判性分析 AI 的社会影响,重点关注责任和安全协议。
学习成果:
- 识别偏见来源并确保 AI 模型公平。
- 讨论 AI 安全性、鲁棒性和对齐问题。
- 评估可解释性(XAI)和 LLM 幻觉的缓解策略。
--- END SOURCE TEXT ---