返回課程
AI008 Professional

人人都能懂的大語言模型:從基礎到實用應用(2026 年版)

本課程是針對初學者設計的實用入門課程,介紹大型語言模型(LLM)如 ChatGPT 與 Gemini。無論您來自何種背景,本課程將以高階方式說明 LLM 的運作原理、其能與不能之事,以及如何在學習、工作和日常生活中有效運用。透過實際演示與導引練習,您將學習提示技巧、如何批判性評估輸出結果、處理幻覺與偏見,並安全且負責任地使用常見工具(例如文件處理、摘要、翻譯、資料任務)。完成課程後,您將能夠建立個人化的「LLM 工作流程」,用於實際任務——寫作、研究、規劃與效率提升——無需具備進階程式設計技能。

4.9
21h
671 學習者
0 讚好
人工智能

課程總覽

📚 內容摘要

本課程是針對初學者設計的實用性入門課程,介紹大型語言模型(LLM)如 ChatGPT 與 Gemini。無論您來自何種背景,此課程將以高階方式解釋 LLM 的運作原理、其能與不能之事,以及如何在學習、工作與日常生活中有效運用它們。透過實際示範與引導式練習,您將學習提示技術、如何批判性評估輸出結果、處理幻覺與偏見,並安全且負責地使用常見工具(例如文件、摘要、翻譯、資料任務)。完成課程後,您將能夠建立個人化的「LLM 工作流程」,用於實際任務——撰寫、研究、規劃與生產力提升——而無需具備進階程式設計技能。

從基礎數學邏輯到分散式代理協調:塑造大模型時代頂尖系統架構師。

🎯 學習目標

  1. 認知層面:理解機器學習的數學基石(線性代數、微積分、機率),並追溯神經架構從感知機到 LSTM 的歷史脈絡。
  2. 技能層面:使用 Unix shell 命令導航遠端伺服器,並利用自動微分引擎實現基本的計算圖。
  3. 情感層面:重視「理論根基」勝過「過早抽象化」,尤其在除錯複雜系統(如梯度爆炸)時尤為重要。
  4. 已生成
  5. 認知層面:說明後訓練管道的機制,包括監督微調(SFT)與強化學習(RL)框架(如 GRPO)之間的差異。
  6. 技能層面:設計多階段訓練流程——從冷啟動到最終對齊——並運用參數效率型微調(PEFT)技術,如 LoRA。
  7. 情感層面:重視從將 AI 視為「神奇黑箱」轉變為一個由機械層次與刻意內部推理構成的工程系統。
  8. 認知層面:比較線性整合架構與循環式、圖形化協調,區分垂直整合(MCP)與水平整合(A2A)協議。
  9. 技能層面:使用圖論原則定義特殊節點與條件邊界,並利用 FastMCP 實現 MCP 伺服器,連接代理至外部資料。
  10. 情感層面:重視「循環執行」與狀態管理在模擬複雜人類認知流程中的重要性。

🔹 第一課:大型語言模型簡介:從概念到現實

概要:## 1. 環境設定
核心問題:大型語言模型工程僅是「提示工程」這門藝術,還是需要對導致其誕生的數學與架構演進有嚴謹、完整的全棧理解?

學習目標(SWBAT)

  • 認知層面:理解機器學習的數學基石(線性代數、微積分、機率),並追溯神經架構從感知機到 LSTM 的歷史脈絡。
  • 技能層面:使用 Unix shell 命令導航遠端伺服器,並利用自動微分引擎實現基本的計算圖。
  • 情感層面:重視「理論根基」勝過「過早抽象化」,尤其在除錯複雜系統(如梯度爆炸)時尤為重要。

2. 核心知識元件(關鍵成分)

A. 關鍵概念(名詞)

  • 自主工作流程
  • 子架構張量力學
  • 後訓練對齊
  • 分散式自主協調協議
  • 高維向量空間
  • 特徵值分解
  • 反向傳播
  • 多維張量(PyTorch)
  • 計算圖
  • 通用逼近定理
  • 梯度消失問題
  • 注意力機制

B. 核心原則(規則)

  • 不可妥協的基礎:僅靠 API 無法掌握 LLM 工程;必須具備底層微積分與線性代數知識,才能進行硬體優化與除錯。
  • 通用逼近定理:單一隱藏層的前饋網路可近似任何連續函數(受限於隱藏單元數量與泛化風險)。
  • RNN 局限性:遞歸神經網絡受限於梯度消失問題,且天生無法平行處理序列資料。

C. 必備技能(動詞)

  • 除錯梯度爆炸。
  • 優化硬體使用率。
  • 實現自訂損失函數。
  • 進行向量化操作(NumPy)。
  • 管理深度學習環境(Unix shell)。
  • 將輸入-輸出模式進行映射(一一、多對一、一對多、多對多等)。

3. 教學模組(流程)

模組 1:激活(API 的誤解) 活動:案例研究討論現代人工智慧教育的「失效點」。分析「高階封裝」的風險,並探討在何種情境下僅懂 API 知識已不夠(例如從單體架構轉向本地化微服務)。

模組 2:獲取(數學與歷史根基) 內容:講座詳述四個支柱(線性代數、機率、統計、多元微積分)。追溯架構演變:從 1958 年的感知機,到前饋網路,再到 RNN/LSTM 的限制。

模組 3:實踐(程式流暢度) 活動:實作編碼實驗室。超越 Python 語法,專注於 NumPy 中的向量化操作。使用 Andrej Karpathy 的「micrograd」建構基本的多層感知機(MLP),並視覺化梯度如何在優化過程中流動。

模組 4:應用(模式映射) 活動:結構化資料映射分析。學生需將各種真實世界任務(如二元分類與機器翻譯)歸類至輸入/輸出模式:一一、多對一、一對多、多對多。

4. 回顧與延伸

迷思

  • 「神奇突破」神話:認為 LLM 是孤立的發現,而非數十年研究的總結。
  • API 速成路徑:錯誤假設可不深入理解矩陣乘法與偏微分,仍能成為系統工程師。

差異化

  • 支援:運用視覺學習輔助工具(如 3Blue1Brown 的神經網路系列)及幾何直觀工具來理解高維空間。
  • 挑戰:從標準陣列過渡至 PyTorch 中的多維張量,從零開始實作早期模型。

學習成果

  • 認知層面:理解機器學習的數學基石(線性代數、微積分、機率),並追溯神經架構從感知機到 LSTM 的歷史脈絡。
  • 技能層面:使用 Unix shell 命令導航遠端伺服器,並利用自動微分引擎實現基本的計算圖。
  • 情感層面:重視「理論根基」勝過「過早抽象化」,尤其在除錯複雜系統(如梯度爆炸)時尤為重要。

🔹 第二課:深入剖析:大型語言模型如何處理與預測文字

概要:# 深入剖析:大型語言模型如何處理與預測文字

1. 環境設定

核心問題:我們如何跨越「被動閱讀」學術論文與真正理解變壓器(Transformer)數學核心之間的鴻溝?

學習目標(SWBAT)

  • 認知層面:理解縮放點積注意力的數學依據,包括使用縮放因子穩定梯度、防止 softmax 函數中「無限小梯度」問題。
  • 技能層面:使用 Python 與 PyTorch 從零開始實作生成式預訓練變壓器(GPT),從迴圈機制轉向高度平行化的矩陣乘法。
  • 情感層面:重視「逐行實作」而非僅理論閱讀,以破解高維潛在空間的「本質模糊性」。

2. 核心知識元件(關鍵成分)

A. 關鍵概念(名詞)

  • 架構:變壓器(Vaswani 等)、BERT(來自變壓器的雙向編碼表示)、僅編碼器架構、生成式預訓練變壓器(GPT)、專家混合(MoE)。
  • 機制:自我注意、縮放點積注意、多頭自我注意、自回歸生成。
  • 資料結構:查詢(Q)、鍵(K)、值(V)矩陣;密集向量;嵌入向量;潛在空間。
  • 元件:字節對編碼(BPE)分詞器、位置編碼(正弦/餘弦函數)、前饋神經網絡、殘差連接、層歸一化(LayerNorm)。
  • 進階功能:鍵值(KV)快取、群組查詢注意。

B. 核心原則(規則)

  • 縮放規則:原始注意力分數必須除以鍵維度大小的平方根,以防止點積過度增長。
  • 序列注入:必須手動編碼正弦與餘弦函數,以將序列順序注入模型。
  • 穩定性規則:殘差連接與 LayerNorm 必須應用,以抵禦內部協方差偏移,確保訓練穩定。
  • 最佳化:從天真的迴圈轉向矩陣乘法,是實現平行化的關鍵。

C. 必備技能(動詞)

  • 拆解:將變壓器架構拆解為其核心機制。
  • 實作:從零開始編碼分詞器、QKV 矩陣與前饋網絡。
  • 制定:以數學與程式方式定義注意力分數。
  • 追蹤:使用互動工具,視覺化從原始文字到詞元再到嵌入向量的路徑。
  • 加速:利用 KV 快取加快推論速度。

3. 教學模組(流程)

模組 1:激活(可視化模糊性) 活動:互動探索。學生使用「Transformer Explainer」或「AnimatedLLM」等工具輸入文字提示,觀察內部元件的即時互動。這解決了潛在空間模糊性的「教學挑戰」。

模組 2:獲取(數學基礎) 內容:深入參與「Attention Is All You Need」的算法。專注於 Q、K、V 矩陣的公式化,以及用於穩定梯度的縮放因子(\sqrt{d_k})的特定數學原理。

模組 3:實踐(程式化拆解) 活動:「從零開始」建構。根據 Andrej Karpathy 的「讓我們建構 GPT」資源,學生執行資料攝取(如《綠野仙蹤》資料集),並手動實作 BPE 分詞器與位置編碼。

模組 4:應用(擴展與最佳化) 活動:進階架構對齊。學生將程式從迴圈式注意力轉為平行化的矩陣乘法,再整合先進修改技術,如群組查詢注意與專家混合(MoE)路由,以符合 2026 年模型設計。

4. 回顧與延伸

迷思

  • 理論與實務:認為閱讀學術文獻足以掌握工程實力(文本明確要求逐行實作)。
  • 效率:使用天真的迴圈進行注意力運算,而非平行化的矩陣乘法。
  • 梯度問題:忽略縮放因子,導致 softmax 函數中出現無限小梯度。

差異化

  • 支援:使用 Jay Alammar 的「圖解變壓器」或哈佛 NLP 的「註解變壓器」進行視覺化/註解數學走讀。
  • 挑戰:要求進階學習者實作 KV 快取以加速推論,或編碼複雜的 MoE 路由機制。

學習成果

  • 已生成

🔹 第三課:對齊與推理:如何使人工智慧成為得力助手

概要:# 對齊與推理:如何使人工智慧成為得力助手

1. 環境設定

核心問題:當大規模預訓練成為「商品化」工具時,工程師如何將一個原始、不可預測的基礎模型轉化為高可靠性的推理引擎,能遵循複雜的人類意圖?

學習目標(SWBAT)

  • 認知層面:說明後訓練管道的機制,包括監督微調(SFT)與強化學習(RL)框架(如 GRPO)之間的差異。
  • 技能層面:設計多階段訓練流程——從冷啟動到最終對齊——並運用參數效率型微調(PEFT)技術,如 LoRA。
  • 情感層面:重視從將 AI 視為「神奇黑箱」轉變為一個由機械層次與刻意內部推理構成的工程系統。

2. 核心知識元件(關鍵成分)

A. 關鍵概念(名詞)

  • 後訓練管道:模型行為被塑造與對齊的階段。
  • 監督微調(SFT):在精心策劃的指令-回應對上進行訓練。
  • 參數效率型微調(PEFT):如 LoRAQLoRA 等方法,在凍結原始權重的同時插入可訓練的秩分解矩陣。
  • 思考鏈(CoT):在產生最終輸出前的內部審思階段。
  • 群體相對策略優化(GRPO):一種框架,透過對比群體平均分數消除「評估模型」。
  • 演化策略(ES):一種替代反向傳播的方法,透過突變與重組參數。

B. 核心原則(規則)

  • 硬體限制規則:完整參數更新在計算上極其昂貴;消費級硬體必須依賴 PEFT。
  • GRPO 效率規則:現代強化學習可透過自動化、規則式的獎勵系統,消除記憶體密集型評估模型。
  • 推理管道規則:建構推理模型需遵循特定的四階段流程:冷啟動、純強化學習、合成資料生成、二次 SFT。

C. 必備技能(動詞)

  • 微調:適應模型至特定領域(如醫療或法律)。
  • 注入:在變壓器層中插入分解矩陣。
  • 評分:透過自動系統評估邏輯一致性與數學正確性。
  • 突變:迭代更改模型參數,以優化長程任務表現。

3. 教學模組(流程)

模組 1:激活(打破黑箱)

  • 活動:數位實驗室探索。使用視覺化工具(如 Transformer Explainer3D LLM Walkthrough)觀察即時注意力分數計算與機率分佈。
  • 目標:彌補「矩陣代數」與「人工智慧助手魔幻界面」之間的差距。

模組 2:獲取(後訓練架構)

  • 內容:深入探討 SFT 與 PEFT。對比完整參數更新的高昂成本與 LoRA/QLoRA 的高效性。
  • 關鍵模型:檢視 Llama 3.2、Qwen3 與 Gemma 的架構,作為客製化助手創建的目標。

模組 3:實踐(推理革命)

  • 活動:繪製 DeepSeek-R1 管道。小組合作,繪製四階段訓練流程:
    1. 冷啟動:防止可讀性退化。
    2. 純強化學習:透過 GRPO 發展 CoT 技能。
    3. 拒絕採樣:從高品質輸出中創造合成標註資料集。
    4. 最終對齊:合併合成資料與事實/創意資料集。

模組 4:應用(擴展與穩健性)

  • 活動:最佳化辯論。比較強化學習(PPO/GRPO)與演化策略(ES)。
  • 任務:基於 Cognizant AI 實驗室 2026 年的研究,判斷哪種方法在「稀疏、長程獎勵任務」中更優,並抵抗「獎勵操弄」。

4. 回顧與延伸

迷思

  • 「全參數更新」誤解:認為高品質微調必須更新所有十億個參數(修正:LoRA/QLoRA 透過秩分解達成)。
  • 「評估模型」必要性:假設強化學習總是需要獨立的 LLM 作為評估者(修正:GRPO 使用群體基準分數與規則系統)。

差異化

  • 支援:使用 AnimatedLLM 來非技術性地概念化下一字預測訓練。
  • 挑戰:要求進階學習者在特定領域資料集(如法律合約審查)上使用 QLoRA 建立文字分類管道,展示「客製化助手」的創建。

學習成果

  • 認知層面:說明後訓練管道的機制,包括監督微調(SFT)與強化學習(RL)框架(如 GRPO)之間的差異。
  • 技能層面:設計多階段訓練流程——從冷啟動到最終對齊——並運用參數效率型微調(PEFT)技術,如 LoRA。
  • 情感層面:重視從將 AI 視為「神奇黑箱」轉變為一個由機械層次與刻意內部推理構成的工程系統。

🔹 第四課:提示工程與以 RAG 為基礎的接地

概要:# 提示工程與以 RAG 為基礎的接地

1. 環境設定

核心問題:我們如何從研究導向的「技巧」轉向建立可靠、生產級的人工智慧協調系統,使模型扎根於現實資料與韌性基礎設施?

學習目標(SWBAT)

  • 認知層面:理解檢索增強生成(RAG)管道的生命周期,以及多提供者 LLM 協調對於生產可靠性的重要性。
  • 技能層面:實作進階解析(語意與自主分塊)、使用程式化指標(MRR、NDCG)評估檢索準確率,並設計適用於多模型系統的韌性流量路由器。
  • 情感層面:重視從鬆散定義的提示「技巧」轉向嚴謹的工程學科,包含版本控制與資安意識。

2. 核心知識元件(關鍵成分)

A. 關鍵概念(名詞)

  • RAG 基礎設施:密集嵌入模型、高維向量表示、專用向量資料庫(Pinecone、Deep Lake、Milvus)、FAISS、HNSW 圖。
  • 分塊方法:語意分塊、重疊分塊、自主分塊。
  • 評估指標:召回率@K、精確率@K、平均倒數排名(MRR)、歸一化折扣累積收益(NDCG)。
  • 進階架構:快取增強生成(CAG)、多查詢路由、階層式 RAG、多模態 RAG。
  • 協調與提示:LLMOps、流量控制器(路由器)、統一網關層、推理支架、對抗性漏洞、提示版本控制。

B. 核心原則(規則)

  • 接地必要性:LLM 天然存在幻覺與時間知識斷層;必須透過 RAG 與外部知識庫橋接。
  • 架構韌性:依賴單一第三方 API 提供者是重大弱點;系統必須實施多提供者協調與自動故障轉移邏輯。
  • 工程嚴謹性:提示工程必須從「技巧」轉向正式學科,包含嚴格輸出規格(如有效 JSON)與明確的步驟序列。

C. 必備技能(動詞)

  • 吸入:透過密集嵌入模型將非結構化文字轉換為向量表示。
  • 解析:根據語意(語意)或 AI 決定的斷點(自主)分割文字,而非字符數。
  • 量化:嚴謹地使用程式化測試套件衡量檢索準確率。
  • 路由:根據成本、延遲與推理深度,動態將提示導向模型(如 Claude 3.5 Sonnet 或開源模型)。
  • 防護:識別並緩解格式邏輯被用來繞過守衛的對抗性漏洞。

3. 教學模組(流程)

模組 1:激活(生產現實) 活動:「2026 年稽核」。參與者審查一個簡單的 API 式 LLM 程式因知識斷層或提供者停機而失敗的情境。討論:為何「原始模型」不足以應付生產級軟體?

模組 2:獲取(進階 RAG 與 LLMOps) 內容:講座介紹 RAG 生命周期:從資料吸入到向量資料庫(FAISS/HNSW)。對比天真的固定大小分塊與語意及自主分塊。引入高度優化的架構,如快取增強生成(CAG)。

模組 3:實踐(指標與路由) 活動:「評估者實驗室」。給定資料集,參與者選擇並說明使用特定指標(MRR 對比 NDCG)來量化檢索成功。然後設計「路由邏輯」圖,決定是否將查詢送至進階推理模型(如 OpenAI o3-mini)或成本效益高的開源模型。

模組 4:應用(韌性系統設計) 活動:「工程管道」。參與者草擬高風險環境的系統架構。設計必須包含: 1. 使用自主分塊的 RAG 管道。 2. 具備自動故障轉移邏輯的統一網關層。 3. 利用推理支架與嚴格 JSON 輸出規格的提示工程指南。

4. 回顧與延伸

迷思

  • 固定大小分塊「已足夠」: 現實需求語意或自主分塊以保留跨邊界的上下文。
  • 提示工程只是創意寫作: 現實要求它成為正式學科,包含版本控制與明確工作流程。
  • RAG 僅關於尋找文字: 現代 RAG 涉及多模態整合(影像與文字)與優化快取(CAG)。

差異化

  • 支援:專注於從「技巧」轉向基本格式模式與簡單檢索指標。
  • 挑戰:要求進階學習者結合提示工程與人工智慧資安,設計系統以偵測/防止對抗性格式攻擊。

學習成果

  • 已生成

🔹 第五課:隱私、倫理與導航開源模型

概要:# 隱私、倫理與導航開源模型

1. 環境設定

核心問題:在高性能雲端 LLM 時代,為什麼向本地部署與「開放權重」轉移成為企業級人工智慧的非選項要求?

學習目標(SWBAT)

  • 認知層面:區分「開源」(OSI 定義)與「開放權重」模型,並識別本地部署的三大主要驅動因素(隱私、成本、離線能力)。
  • 技能層面:將生產需求(如知識增強或提示可靠性)對應至特定協調解決方案,如向量資料庫、故障轉移路由器與紅隊測試。
  • 情感層面:重視資料隱私限制與專業人工智慧開發中的道德安全測試。

2. 核心知識元件(關鍵成分)

A. 關鍵概念(名詞)

  • 向量資料庫:Pinecone、Deep Lake。
  • 基礎設施元件:嵌入模型、故障轉移路由器、閘道。
  • 評估指標:MRR(平均倒數排名)、Precision@K、LLM 作為裁判。
  • 授權類別:開源(OSI 定義)、開放權重。
  • 安全工具:紅隊測試、版本控制、輸出格式規格。

B. 核心原則(規則)

  • 接地原則:系統必須將答案扎根於特定私人資料,以大幅降低幻覺率。
  • 部署必要性:嚴格的企業隱私、累積令牌成本與離線需求使本地部署不可或缺。
  • 授權細微差異:只有包含訓練程式碼與無限制權利的模型才是「開源」;否則僅為「開放權重」。
  • 韌性規則:企業系統必須動態路由提示,以優化成本與可用性。

C. 必備技能(動詞)

  • 協調:管理多提供者系統與閘道。
  • 評估:實作自動化流程以監控檢索準確率與生成品質。
  • 區分:釐清不同模型類型間的授權細微差異。
  • 防護:執行對抗性漏洞測試(紅隊測試)。

3. 教學模組(流程)

模組 1:激活(本地人工智慧的緣由) 活動:「成本-隱私稽核」。學生分析一個假設情境,其中公司面臨驚人的令牌費用與資料外洩。討論本地部署如何解決這些「第五階段」挑戰。

模組 2:獲取(架構解決方案) 內容:剖析生產需求表。 * 知識增強:使用向量資料庫減少幻覺。 * 可用性:使用故障轉移路由器確保正常運作。 * 安全性:使用紅隊測試與版本控制。 * 評估:理解 MRR 與 Precision@K 指標。

模組 3:實踐(授權與邏輯) 活動:「開源對比開放權重排序」。給定一組模型特徵(如「公開權重」、「包含訓練程式碼」、「商業限制」),學生必須根據所提供文字的定義正確分類。

模組 4:應用(系統設計) 活動:「韌性管道藍圖」。學生設計高階系統架構,包含用於私人資料接地的嵌入模型與用於持續監控的 LLM 作為裁判管道。

4. 回顧與延伸

迷思

  • 「開放」神話:假設任何擁有公開權重的模型都是「開源」。(修正:若訓練程式碼或權利受限制,可能僅為「開放權重」。)
  • 雲端優勢:假設雲端模型永遠更佳。(修正:本地模型對規模、成本控制與隱私至關重要。)

差異化

  • 支援:為數據科學新手提供評估指標(MRR、Precision@K)的詞彙表。
  • 挑戰:要求資深開發者設計「多提供者協調」邏輯,根據「Precision@K」表現與「令牌成本」切換本地與雲端模型。

學習成果

  • 已生成

🔹 第六課:自主工作流程:自動化複雜任務

概要:# 自主工作流程:自動化複雜任務

1. 環境設定

核心問題:我們如何從僅能單次產生文字的人工智慧系統,轉向能推理、使用工具並跨分散式微服務協作的自主代理?

學習目標(SWBAT)

  • 認知層面:比較線性整合架構與循環式、圖形化協調,區分垂直(MCP)與水平(A2A)整合協議。
  • 技能層面:使用圖論原則定義特殊節點與條件邊界,並利用 FastMCP 實作 MCP 伺服器,連接代理至外部資料。
  • 情感層面:重視「循環執行」與狀態管理在模擬複雜人類認知流程中的重要性。

2. 核心知識元件(關鍵成分)

A. 關鍵概念(名詞)

  • 人工智慧代理特性:自主性、工具使用、記憶、推理。
  • 協調框架:LangGraph、CrewAI(對比早期 LangChain)。
  • 圖形架構:節點(任務/工具呼叫)、條件邊界(決策路徑)、狀態架構(Python TypedDict)。
  • 互操作協議:模型上下文協議(MCP)、代理對代理(A2A)協議。
  • 部署工具:Ollama(命令列)、LM Studio(圖形介面)、FastMCP、LocalAI。
  • 模型:Llama 3、Qwen2.5、DeepSeek-R1(量化版)。

B. 核心原則(規則)

  • 范式轉變:從靜態、單次生成轉向高度自主、目標導向的工作流程。
  • 循環執行:代理必須執行動作、評估結果,並迴圈修正錯誤或蒐集資訊。
  • 垂直與水平整合:MCP 如同「USB-C」,用於連接模型與資料(垂直);A2A 則如同跨生態系統的代理間通訊共通語言(水平)。
  • 微服務架構:MCP 與 A2A 是互補,而非競爭。

C. 必備技能(動詞)

  • 協調:管理複雜邏輯鏈與狀態式決策迴圈。
  • 部署:在消費級硬體上執行本地模型,實現零延遲。
  • 暴露:透過 MCP 伺服器提供工具(API)、資源(唯讀資料)與提示。
  • 協商:允許獨立代理主動發現能力並以結構化方式共享結果。

3. 教學模組(流程)

模組 1:激活(從靜態到自主) 活動:比較標準提示-回應互動與多步任務(如「研究主題並撰寫報告」)。學生識別自動化後者所需的四項核心自主特性(自主性、工具使用、記憶、推理)。

模組 2:獲取(框架演進與圖論) 內容:講座指出線性序列(早期 LangChain)在處理決策迴圈上的限制。介紹 LangGraph 原則:定義任務節點與條件邊界以控制流程。解釋 Python 的 TypedDict 如何在這些步驟中維持狀態,確保「決策歷史」得以保存。

模組 3:實踐(垂直整合之 MCP) 活動:使用 FastMCP 的實作模組。學生在 Python 中建構本地 MCP 伺服器,暴露三個功能(工具、資源、提示)。他們將代理連接到本地 PostgreSQL 資料庫或即時 API(如 Hacker News),以示範擴展能力超越靜態訓練資料。

模組 4:應用(水平協調之 A2A) 活動:設計微服務架構,其中「研究代理」(基於 LangGraph)使用 MCP 接取資料,再透過 A2A 協議 將發現結果傳遞給「決策代理」(位於獨立伺服器)。練習使用伺服器推送事件(SSE)在代理間串流更新。

4. 回顧與延伸

迷思

  • 線性化:學生常以為簡單的提示序列就是「代理」。教學必須強調代理需具備「循環執行」與條件邏輯。
  • 協議競爭:澄清 MCP 與 A2A 並非對手;前者處理內部工具存取(MCP),後者處理外部代理協作(A2A)。

差異化

  • 支援:使用 LM Studio 的圖形介面,協助不熟悉命令列環境的學生發現與調整模型。
  • 挑戰:進階開發者應實作 LocalAI 作為即插即用的 OpenAI API 替代品,或使用 text-generation-webui 結合大量外掛擴展,以整合其自主工作流程。

學習成果

  • 認知層面:比較線性整合架構與循環式、圖形化協調,區分垂直(MCP)與水平(A2A)整合協議。
  • 技能層面:使用圖論原則定義特殊節點與條件邊界,並利用 FastMCP 實作 MCP 伺服器,連接代理至外部資料。
  • 情感層面:重視「循環執行」與狀態管理在模擬複雜人類認知流程中的重要性。

🔹 第七課:專案結業:打造您的個人 LLM 生產力系統

概要:# 專案結業:打造您的個人 LLM 生產力系統

1. 環境設定

核心問題:您如何從被動的人工智慧消費者,轉變為能建立穩健、韌性且自主的人工智慧系統的主要架構師?

學習目標(SWBAT)

  • 認知層面:理解自主通訊協議(LangGraph、MCP、A2A)的架構複雜性,以及後訓練對齊的數學基礎(群體相對策略優化)。
  • 技能層面:建立全面的作品集,涵蓋本地自然語言處理管道、安全的 RAG 應用,直至分散式多代理企業系統。
  • 情感層面:發展「工程直覺」,不再停留在表面的雲端 API,而是深入探討張量操作與分散式協調的底層機制。

2. 核心知識元件(關鍵成分)

A. 關鍵概念(名詞)

  • 協議:模型上下文協議(MCP)、代理對代理(A2A)通訊總線。
  • 架構:基礎自然語言處理管道、進階 RAG 架構、自主代理工作流程、分散式系統結業專案。
  • 工具:Hugging Face(transformers/datasets)、Ollama、LM Studio、Pinecone(向量資料庫)、LangGraph。
  • 指標:MRR(平均倒數排名)、Precision@K。
  • 模型:量化開源模型、DeepSeek V3/R1、視覺語言行動模型。

B. 核心原則(規則)

  • 經驗應用:理論知識若無嚴謹的經驗應用於公開可驗證的程式碼庫中,將迅速退化。
  • 幻覺減量:本地 RAG 系統必須使用自動化評估套件,實證證明其幻覺減量效果。
  • 複雜性演進:技能必須逐步建立,銜接線性代數與張量操作至高階系統協調。
  • 持續學習:工程熟練度需持續跟進頂尖論文(ICLR/ICML)與技術報告。

C. 必備技能(動詞)

  • 分詞:將自訂文字資料集轉換為模型可消費的形式。
  • 分塊:為大型語料庫實作進階的重疊分塊策略。
  • 委派:使用 A2A 協議將任務交由專門代理(如分診代理至資料代理)處理。
  • 查詢:透過專用 MCP 伺服器安全存取模擬 SQL 資料庫。
  • 推理:建構自主迴圈,執行內部檢查直到報告達到發布標準。

3. 教學模組(流程)

模組 1:激活(專家工程師的轉變) 活動:「超越提示」討論。對比基本提示工程與專有雲端 API 的局限性,與「專家級」工程的要求(數學理論、張量操作、分散式系統)。

模組 2:獲取(文獻與技術基礎) 內容:深入探討頂尖論文與技術報告。學生檢閱 ICLR/ICML 的突破性成果與 DeepSeek V3/R1 的技術報告,以理解模型架構與對齊技術(如群體相對策略優化)的「最前沿」。

模組 3:實踐(逐步專案建構) 活動 1:自然語言處理管道:本地載入預訓練模型,執行文字生成與分類(如客戶流失預測)。 活動 2:RAG 架構:使用 Ollama/LM Studio 與 Pinecone 建構本地 RAG。學生必須實作重疊分塊,並使用 MRR/Precision@K 測量效能。

模組 4:應用(分散式系統結業專案) 活動:部署「分診-資料代理」系統。建立多代理環境,其中主「分診代理」接收請求,並透過 A2A 協議將安全資料庫查詢委派給運行在獨立流程中的「資料代理」,透過 MCP 伺服器進行。

4. 回顧與延伸

迷思

  • 「API 陷阱」:認為呼叫專有雲端 API 等同於人工智慧工程。
  • 靜態問答:認為人工智慧系統僅限於靜態問答,而非自主、多步的代理工作流程。
  • 理論與實務:假設閱讀論文已足夠,卻未發展「公開可驗證的程式碼庫」。

差異化

  • 支援:使用「LLM 變壓器模型視覺化解釋」等視覺學習資源,以及互動視覺化(AnimatedLLM),理解張量流與分詞等機械操作。
  • 挑戰:從基本代理過渡至建構專屬的「自主代理工作流程」,能動態決定是否使用網路搜尋或 Python 執行工具以滿足廣泛目標(如美國證券交易委員會財務報告分析)。