返回课程
COMP5511 Postgraduate

PolyU | 人工智能概念

本课程全面且易于理解地介绍了人工智能,专为研究生和专业人士设计。课程从历史基础出发,跨越到前沿创新,内容涵盖符号化人工智能与搜索算法,逐步深入现代深度学习与生成式人工智能。学生将探索知识表示、概率推理以及经典机器学习等核心主题,随后深入神经网络、Transformer模型及大型语言模型(LLMs)的学习。课程强调理论与实践相结合,使用Python和业界标准框架如PyTorch实现算法,与现代API进行交互,并探讨人工智能伦理与安全等关键问题。

5.0
64h
100 名学生
0 点赞
人工智能

课程概述

📚 内容概要

本课程为研究生及专业人士提供了一套严谨而易懂的人工智能(AI)入门内容,旨在连接历史基础与前沿创新。课程从符号化人工智能和搜索算法,逐步过渡到现代深度学习与生成式AI。学生将探索知识表示、概率推理以及经典机器学习等核心主题,随后深入神经网络、Transformer架构和大语言模型(LLMs)。课程强调理论与实践并重,使用Python和业界标准框架如PyTorch来实现算法、调用现代API,并探讨人工智能伦理与安全中的关键问题。

本课程弥合了经典符号化AI与现代生成式AI之间的鸿沟,帮助学生掌握必要的理论深度与实用的Python技能,以设计、实现并伦理评估智能系统。

🎯 学习目标

  1. 掌握人工智能基础:分析并实现基本的问题求解范式,包括启发式搜索、基于逻辑的推理和概率建模。
  2. 实现深度学习架构:使用PyTorch设计并训练先进的神经网络,涵盖多层感知机、卷积神经网络到Transformer模型。
  3. 部署生成式AI解决方案:构建利用大语言模型(LLMs)的应用程序,运用微调、提示工程和检索增强生成(RAG)等技术。
  4. 确保伦理导向的AI开发:批判性评估AI系统的偏见、安全性与对齐性,在真实场景中应用可解释性和鲁棒性策略。

🔹 第1课:人工智能的历史与基础

概述:探讨人工智能的起源,涵盖图灵测试、达特茅斯会议,以及被称为“人工智能寒冬”的周期性发展现象。

学习成果

  • 追溯自1956年以来人工智能的历史演变历程。
  • 比较符号化人工智能(GOFAI)与联结主义范式的异同。
  • 讨论深度学习革命及近期生成式突破的影响。

🔹 第2课:搜索策略:无信息与有信息搜索

概述:介绍使用搜索算法解决基本问题的智能体,区分盲目搜索与基于启发式的方法。

学习成果

  • 实现无信息搜索方法,包括广度优先搜索(BFS)、深度优先搜索(DFS)和统一成本搜索。
  • 应用启发式搜索技术,如A*算法和贪心最佳优先搜索。
  • 分析不同搜索策略的时间复杂度与最优性。

🔹 第3课:对抗搜索与约束满足

概述:深入研究竞争环境中的决策机制(如博弈)以及由约束定义的问题求解。

学习成果

  • 掌握用于博弈的极小极大算法与α-β剪枝技术。
  • 理解蒙特卡洛树搜索(MCTS)在AlphaGo等先进系统中的应用。
  • 使用回溯法与局部搜索求解约束满足问题(CSP)。

🔹 第4课:知识表示与推理

概述:研究人工智能系统如何以逻辑方式表示信息以进行推理,从经典逻辑走向现代知识结构。

学习成果

  • 利用命题逻辑与一阶逻辑进行知识表示与推理。
  • 对比传统专家系统与现代知识图谱及本体论的差异。
  • 探索神经符号融合人工智能,作为逻辑与神经网络之间的桥梁。

🔹 第5课:生成式AI时代下的不确定性

概述:超越传统的概率计算,理解不确定性如何驱动现代人工智能。本课探讨为何大语言模型会产生幻觉(且这其实是功能而非缺陷),扩散模型如何从纯粹噪声生成艺术作品,以及自主代理如何在不可预测的开放世界中做出决策。

学习成果

  • 从贝叶斯到“感觉”:直观理解置信度与校准机制,明白为何“99%概率”仍可能出错,无需陷入复杂的数学推导。
  • 创造力的引擎:分析概率采样机制(如温度、Top-P)如何赋予生成式AI创造力,同时也导致幻觉现象。
  • 代理决策机制:理解在不确定性下的决策策略,重点关注强化学习与多智能体系统中的“探索与利用”权衡。

🔹 第6课:经典机器学习

概述:通过Python实践介绍监督与无监督学习的数据驱动算法。

学习成果

  • 实现监督学习模型,包括决策树与支持向量机(SVM)。
  • 应用无监督技术,如K均值聚类与主成分分析(PCA)。
  • 使用Scikit-learn解决基础数据分析问题。

🔹 第7课:神经网络基础

概述:转向仿生计算,讲解人工神经网络的架构与训练机制。

学习成果

  • 解释人工神经元与多层感知机(MLP)的结构。
  • 掌握反向传播算法及各类激活函数(ReLU、GELU)。
  • 使用PyTorch构建一个基础神经网络。

🔹 第8课:计算机视觉与卷积神经网络(CNN)

概述:聚焦于通过专用深度学习架构处理视觉数据。

学习成果

  • 理解卷积神经网络(CNN)的工作原理。
  • 分析ResNet与视觉变换器(ViT)等先进架构。
  • 实现一个基础的图像分类模型。

🔹 第9课:序列建模与Transformer

概述:从循环神经网络(RNN)演进到革命性的注意力机制。

学习成果

  • 区分RNN、LSTM与Transformer架构的差异。
  • 解释《注意力便是全部》(Attention Is All You Need)论文及其自注意力机制。
  • 理解编码器与解码器在BERT、GPT等模型中的作用。

🔹 第10课:大语言模型(LLMs)

概述:深入研究前沿生成式人工智能,聚焦文本生成与模型适应能力。

学习成果

  • 描述大语言模型的预训练与微调生命周期。
  • 探索基于人类反馈的强化学习(RLHF)。
  • 练习提示工程与参数高效微调方法(如PEFT/LoRA)。

🔹 第11课:高级生成式AI应用

概述:超越文本生成,拓展至检索系统与基于现代API的生成媒体应用。

学习成果

  • 实现检索增强生成(RAG)以减少幻觉现象。
  • 理解扩散模型(如Stable Diffusion)与变分自编码器(VAE)背后的数学原理。
  • 调用现代AI API,构建一个生成式应用程序。

🔹 第12课:人工智能伦理、安全与对齐

概述:对人工智能的社会影响进行批判性分析,重点关注责任与安全规范。

学习成果

  • 识别模型偏见来源,确保人工智能的公平性。
  • 讨论人工智能安全、鲁棒性与对齐问题。
  • 评估可解释性(XAI)方法,并制定应对大语言模型幻觉的缓解策略。