PolyU | 人工智能概念
本課程全面介紹人工智能,內容嚴謹但易於理解,專為研究生及專業人士設計。課程從歷史基礎出發,銜接前沿創新,由符號式人工智能與搜尋演算法逐步過渡至現代深度學習與生成式人工智能。學生將探討知識表示、概率推理及經典機器學習等重要主題,並深入研究神經網絡、Transformer 及大型語言模型(LLM)。課程強調理論與實踐並重,使用 Python 及業界標準框架如 PyTorch 實現演算法,對接現代 API,並探討人工智能倫理與安全等關鍵議題。
課程總覽
📚 內容摘要
本課程提供一門嚴謹且易於理解的人工智慧(AI)入門課程,專為研究所學生與專業人士設計。課程跨越歷史基礎與尖端創新之間的鴻溝,從符號式人工智慧與搜尋演算法,逐步推進至現代深度學習與生成式人工智慧。學生將探討知識表示、機率推理以及傳統機器學習等關鍵主題,並深入研究神經網絡、變換器(Transformers)與大型語言模型(LLMs)。課程強調理論與實務並重,使用 Python 及業界標準框架如 PyTorch 來實現演算法、與現代 API 互動,並處理人工智慧倫理與安全等重要議題。
連結古典符號式人工智慧與現代生成式人工智慧之間的差距,本課程賦予學生必要的理論深度與實用的 Python 技能,以架構、實作並道德地評估智能系統。
🎯 學習目標
- 掌握人工智慧基礎:分析並實作基本問題解決範式,包括啟發式搜尋、基於邏輯的推理與機率建模。
- 實作深度學習架構:利用 PyTorch 設計並訓練先進的神經網絡,涵蓋多層感知機至卷積神經網絡與變換器。
- 部署生成式人工智慧解決方案:設計應用程式,運用大型語言模型(LLMs),採用微調、提示工程與檢索增強生成(RAG)等技術。
- 確保人工智慧的倫理發展:批判性評估人工智慧系統中的偏見、安全性與對齊性,並在真實情境中應用可解釋性與穩健性策略。
🔹 第一課:人工智慧的歷史與基礎
概述:探索人工智慧的起源,涵蓋圖靈測試、達特茅斯會議,以及被稱為「人工智慧寒冬」的週期性發展現象。
學習成果:
- 追溯人工智慧自 1956 年至今的歷史演進。
- 比較與對照符號式人工智慧(GOFAI)與連接主義范式的異同。
- 討論深度學習革命與近期生成式突破的影響。
🔹 第二課:搜尋策略:無資訊與有資訊搜尋
概述:介紹使用搜尋演算法的基本問題解決代理,區分盲目搜尋與啟發式方法。
學習成果:
- 實作無資訊搜尋方法,包括廣度優先搜尋(BFS)、深度優先搜尋(DFS)與均勻成本搜尋。
- 應用啟發式搜尋技術,如 A* 演算法與貪婪最佳優先搜尋。
- 分析不同搜尋策略的複雜度與最優性。
🔹 第三課:對抗搜尋與約束滿足
概述:深入探討競爭環境(遊戲)中的決策制定,以及由約束定義的問題求解。
學習成果:
- 熟練掌握用於遊戲的極小化極大演算法(Minimax)與剪枝法(Alpha-Beta Pruning)。
- 理解蒙特卡洛樹搜尋(MCTS)在如 AlphaGo 等先進系統中的應用。
- 使用回溯法與局部搜尋解決約束滿足問題(CSP)。
🔹 第四課:知識表示與推理
概述:研究人工智慧系統如何以邏輯方式表示資訊以進行推論,從古典邏輯過渡至現代知識結構。
學習成果:
- 利用命題邏輯與一階邏輯進行表示與推論。
- 比較傳統專家系統與現代知識圖譜與本體論的差異。
- 探索神經符號人工智慧作為邏輯與神經網絡之間的橋樑。
🔹 第五課:生成式人工智慧時代的不確定性
概述:超越傳統機率計算,理解不確定性如何驅動現代人工智慧。本課探討為何大型語言模型會「幻覺」(而這其實是功能而非缺陷),如何讓擴散模型從純噪音中創造藝術,以及自主代理如何在不可預測的開放世界中做決策。
學習成果:
- 從貝葉斯到「直覺」:建立對信心與校準的直觀理解,學習為什麼「99% 的機率」仍可能出錯,而不必陷入複雜數學。
- 創造力的引擎:分析機率取樣機制(溫度、Top-P)如何促成生成式人工智慧的創造力,並導致幻覺。
- 代理決策制定:理解在不確定性下的決策策略,聚焦於強化學習與多代理系統中的「探索與利用」困境。
🔹 第六課:傳統機器學習
概述:以 Python 實務導入資料驅動的監督式與非監督式學習演算法。
學習成果:
- 實作監督式學習模型,包括決策樹與支援向量機(SVM)。
- 應用非監督技術,如 K-means 聚類與主成分分析(PCA)。
- 使用 Scikit-learn 解決基本的資料分析問題。
🔹 第七課:神經網絡基礎
概述:轉向生物啟發的計算,探討人工神經網絡的架構與訓練機制。
學習成果:
- 解釋人工神經元與多層感知機(MLP)的結構。
- 熟練掌握反向傳播演算法與各種激活函數(ReLU、GELU)。
- 使用 PyTorch 建立基本神經網絡。
🔹 第八課:電腦視覺與卷積神經網絡
概述:專注於透過專門的深度學習架構處理視覺資料。
學習成果:
- 理解卷積神經網絡(CNN)的運作機制。
- 分析如 ResNet 與視覺變換器(ViT)等進階架構。
- 實作一個基本的影像分類模型。
🔹 第九課:序列建模與變換器
概述:從循環神經網絡到革命性的注意力機制,序列處理的演進。
學習成果:
- 区分 RNN、LSTM 與變換器架構的差異。
- 解釋「注意力機制就是一切」(Attention Is All You Need)論文與自我注意機制。
- 理解編碼器與解碼器在 BERT 與 GPT 等模型中的角色。
🔹 第十課:大型語言模型(LLMs)
概述:深入研究前沿的生成式人工智慧,專注於文字生成與模型適應。
學習成果:
- 描述大型語言模型的預訓練與微調生命周期。
- 探索人類反饋強化學習(RLHF)。
- 練習提示工程與參數高效微調方法(PEFT/LoRA)。
🔹 第十一課:高階生成式人工智慧應用
概述:超越文字,拓展至檢索系統與生成式媒體,使用現代 API。
學習成果:
- 實作檢索增強生成(RAG)以減少幻覺。
- 理解擴散模型(如 Stable Diffusion)與變分自動編碼器(VAE)的數學原理。
- 與現代人工智慧 API 互動,建立生成式應用程式。
🔹 第十二課:人工智慧倫理、安全與對齊
概述:批判性分析人工智慧對社會的影響,聚焦責任與安全協議。
學習成果:
- 識別偏見來源,確保人工智慧模型的公平性。
- 討論人工智慧安全、穩健性與對齊問題。
- 評估可解釋性(XAI)與大型語言模型幻覺的緩解策略。