課程總覽
--- 繁體中文翻譯 ---
📚 內容摘要
本綜合課程為研究生和專業人士提供嚴謹且易於入門的人工智能介紹。課程內容橫跨早期基礎到最新創新,從符號 AI 和搜尋演算法,進展到現代的深度學習和生成式 AI。學生將探討知識表示、機率推理和古典機器學習等核心主題,然後深入研究神經網路、Transformer 和大型語言模型 (LLMs)。本課程強調理論與實踐並重,運用 Python 和業界標準框架(如 PyTorch)來實作演算法、與現代 API 互動,並處理 AI 倫理和安全等關鍵議題。
本課程連結古典符號 AI 與現代生成式 AI,使學生具備所需的理論深度和 Python 實作技能,以建構、實作和合乎倫理地評估智慧系統。
🎯 學習目標
- 掌握 AI 基礎: 分析並實作基本的解題範式,包括啟發式搜尋、基於邏輯的推理和機率模型。
- 實作深度學習架構: 使用 PyTorch 設計並訓練進階神經網路,涵蓋多層感知器、卷積神經網路和 Transformer。
- 部署生成式 AI 解決方案: 利用大型語言模型 (LLMs) 建構應用程式,採用微調、提示工程和檢索增強生成 (RAG) 等技術。
- 確保 AI 倫理開發: 批判性地評估 AI 系統的偏見、安全性和對齊性,並在實際應用中採取可解釋性和穩健性策略。
🔹 課程 1:AI 的歷史與基礎
概述: 探索人工智能的起源,涵蓋圖靈測試、達特茅斯會議,以及被稱為「AI 寒冬」的人工智能發展週期性。
學習成果:
- 追溯 AI 從 1956 年至今的歷史演進。
- 比較和對比符號 AI (GOFAI) 和連接主義範式。
- 討論深度學習革命和近期生成式突破的影響。
🔹 課程 2:搜尋策略:無資訊與有資訊
概述: 介紹使用搜尋演算法的基本問題解決代理,區分盲目搜尋和基於啟發式的演算法。
學習成果:
- 實作無資訊搜尋方法,包括 BFS、DFS 和 Uniform Cost 搜尋。
- 應用啟發式搜尋技術,如 A* 和 Greedy Best-First 搜尋。
- 分析不同搜尋策略的複雜度和最佳化程度。
🔹 課程 3:對抗性搜尋與約束滿足
概述: 深入探討競爭環境(遊戲)中的決策制定以及如何解決由約束條件定義的問題。
學習成果:
- 掌握用於遊戲的 Minimax 演算法和 Alpha-Beta 剪枝。
- 理解用於 AlphaGo 等進階系統的蒙地卡羅樹搜尋 (MCTS)。
- 使用回溯法和局部搜尋解決約束滿足問題 (CSP)。
🔹 課程 4:知識表示與推理
概述: 研究 AI 系統如何以邏輯方式表示資訊以執行推理,從古典邏輯轉向現代知識結構。
學習成果:
- 利用命題邏輯和一階邏輯進行表示和推理。
- 比較傳統專家系統與現代知識圖譜和本體論。
- 探索神經符號 AI 作為邏輯與神經網路之間的橋樑。
🔹 課程 5:生成式 AI 時代的不確定性
概述: 超越古典機率計算,理解不確定性如何驅動現代 AI。本課程探討 LLM 為何會產生幻覺(以及為何這是一種特性而非錯誤),Diffusion 模型如何從純粹的雜訊中創造藝術,以及自主代理如何在不可預測的開放世界中做出決策。
學習成果:
- 從貝氏定理到「氛圍感」:直觀理解信心和校準,了解「99% 機率」為何仍可能出錯,而無需陷入複雜的數學計算。
- 創意的引擎:分析機率取樣機制(Temperature, Top-P)如何賦予生成式 AI 創意,並導致幻覺的產生。
- 代理決策:理解在不確定情況下的決策策略,重點關注強化學習和多代理系統中的「探索 vs. 利用」困境。
🔹 課程 6:古典機器學習
概述: 使用 Python 進行監督式和非監督式學習的資料驅動演算法的實用入門。
學習成果:
- 實作監督式學習模型,包括決策樹和 SVM。
- 套用非監督式技術,如 K-means 聚類和 PCA。
- 使用 Scikit-learn 解決基本資料分析問題。
🔹 課程 7:神經網路基礎
概述: 轉向受生物啟發的計算,涵蓋人工神經網路的架構和訓練機制。
學習成果:
- 解釋人工神經元和多層感知器 (MLP) 的結構。
- 掌握反向傳播演算法和各種啟動函數(ReLU, GELU)。
- 使用 PyTorch 建構基本神經網路。
🔹 課程 8:電腦視覺與 CNN
概述: 透過專門的深度學習架構專注於處理視覺資料。
學習成果:
- 理解卷積神經網路 (CNN) 的機制。
- 分析 ResNet 和 Vision Transformer (ViT) 等進階架構。
- 實作基本的圖像分類模型。
🔹 課程 9:序列建模與 Transformer
概述: 從循環神經網路到革命性的 Attention 機制,探討序列處理的演進。
學習成果:
- 區分 RNN、LSTM 和 Transformer 架構。
- 解釋「Attention Is All You Need」論文和自注意力機制。
- 理解 BERT 和 GPT 等模型中 Encoder 和 Decoder 的作用。
🔹 課程 10:大型語言模型 (LLMs)
概述: 深入研究最先進的生成式 AI,重點關注文本生成和模型適應。
學習成果:
- 描述 LLM 的預訓練和微調生命週期。
- 探索來自人類回饋的強化學習 (RLHF)。
- 練習提示工程和參數高效微調方法 (PEFT/LoRA)。
🔹 課程 11:進階生成式 AI 應用
概述: 超越文本,運用現代 API 探索檢索系統和生成式媒體。
學習成果:
- 實作檢索增強生成 (RAG) 以減少幻覺。
- 理解 Diffusion 模型(例如 Stable Diffusion)和 VAE 背後的數學原理。
- 與現代 AI API 互動,建構生成式應用程式。
🔹 課程 12:AI 倫理、安全與對齊
概述: 批判性地分析 AI 的社會影響,重點關注責任和安全協定。
學習成果:
- 識別 AI 模型中的偏見來源並確保公平性。
- 討論 AI 安全、穩健性和對齊問題。
- 評估可解釋性 (XAI) 和 LLM 幻覺的緩解策略。
--- 結束繁體中文翻譯 ---