人人都能懂的大語言模型:從基礎到實用應用(2026 年版)
本課程是針對初學者設計的實用入門課程,介紹大型語言模型(LLM)如 ChatGPT 與 Gemini。無論您來自何種背景,本課程將以高階方式說明 LLM 的運作原理、其能與不能之事,以及如何在學習、工作和日常生活中有效運用。透過實際演示與導引練習,您將學習提示技巧、如何批判性評估輸出結果、處理幻覺與偏見,並安全且負責任地使用常見工具(例如文件處理、摘要、翻譯、資料任務)。完成課程後,您將能夠建立個人化的「LLM 工作流程」,用於實際任務——寫作、研究、規劃與效率提升——無需具備進階程式設計技能。
課程總覽
📚 內容摘要
本課程是針對初學者設計的實用性入門課程,介紹大型語言模型(LLM)如 ChatGPT 與 Gemini。無論您來自何種背景,此課程將以高階方式解釋 LLM 的運作原理、其能與不能之事,以及如何在學習、工作與日常生活中有效運用它們。透過實際示範與引導式練習,您將學習提示技術、如何批判性評估輸出結果、處理幻覺與偏見,並安全且負責地使用常見工具(例如文件、摘要、翻譯、資料任務)。完成課程後,您將能夠建立個人化的「LLM 工作流程」,用於實際任務——撰寫、研究、規劃與生產力提升——而無需具備進階程式設計技能。
從基礎數學邏輯到分散式代理協調:塑造大模型時代頂尖系統架構師。
🎯 學習目標
- 認知層面:理解機器學習的數學基石(線性代數、微積分、機率),並追溯神經架構從感知機到 LSTM 的歷史脈絡。
- 技能層面:使用 Unix shell 命令導航遠端伺服器,並利用自動微分引擎實現基本的計算圖。
- 情感層面:重視「理論根基」勝過「過早抽象化」,尤其在除錯複雜系統(如梯度爆炸)時尤為重要。
- 已生成
- 認知層面:說明後訓練管道的機制,包括監督微調(SFT)與強化學習(RL)框架(如 GRPO)之間的差異。
- 技能層面:設計多階段訓練流程——從冷啟動到最終對齊——並運用參數效率型微調(PEFT)技術,如 LoRA。
- 情感層面:重視從將 AI 視為「神奇黑箱」轉變為一個由機械層次與刻意內部推理構成的工程系統。
- 認知層面:比較線性整合架構與循環式、圖形化協調,區分垂直整合(MCP)與水平整合(A2A)協議。
- 技能層面:使用圖論原則定義特殊節點與條件邊界,並利用 FastMCP 實現 MCP 伺服器,連接代理至外部資料。
- 情感層面:重視「循環執行」與狀態管理在模擬複雜人類認知流程中的重要性。
🔹 第一課:大型語言模型簡介:從概念到現實
概要:## 1. 環境設定
核心問題:大型語言模型工程僅是「提示工程」這門藝術,還是需要對導致其誕生的數學與架構演進有嚴謹、完整的全棧理解?
學習目標(SWBAT):
- 認知層面:理解機器學習的數學基石(線性代數、微積分、機率),並追溯神經架構從感知機到 LSTM 的歷史脈絡。
- 技能層面:使用 Unix shell 命令導航遠端伺服器,並利用自動微分引擎實現基本的計算圖。
- 情感層面:重視「理論根基」勝過「過早抽象化」,尤其在除錯複雜系統(如梯度爆炸)時尤為重要。
2. 核心知識元件(關鍵成分)
A. 關鍵概念(名詞):
- 自主工作流程
- 子架構張量力學
- 後訓練對齊
- 分散式自主協調協議
- 高維向量空間
- 特徵值分解
- 反向傳播
- 多維張量(PyTorch)
- 計算圖
- 通用逼近定理
- 梯度消失問題
- 注意力機制
B. 核心原則(規則):
- 不可妥協的基礎:僅靠 API 無法掌握 LLM 工程;必須具備底層微積分與線性代數知識,才能進行硬體優化與除錯。
- 通用逼近定理:單一隱藏層的前饋網路可近似任何連續函數(受限於隱藏單元數量與泛化風險)。
- RNN 局限性:遞歸神經網絡受限於梯度消失問題,且天生無法平行處理序列資料。
C. 必備技能(動詞):
- 除錯梯度爆炸。
- 優化硬體使用率。
- 實現自訂損失函數。
- 進行向量化操作(NumPy)。
- 管理深度學習環境(Unix shell)。
- 將輸入-輸出模式進行映射(一一、多對一、一對多、多對多等)。
3. 教學模組(流程)
模組 1:激活(API 的誤解) 活動:案例研究討論現代人工智慧教育的「失效點」。分析「高階封裝」的風險,並探討在何種情境下僅懂 API 知識已不夠(例如從單體架構轉向本地化微服務)。
模組 2:獲取(數學與歷史根基) 內容:講座詳述四個支柱(線性代數、機率、統計、多元微積分)。追溯架構演變:從 1958 年的感知機,到前饋網路,再到 RNN/LSTM 的限制。
模組 3:實踐(程式流暢度) 活動:實作編碼實驗室。超越 Python 語法,專注於 NumPy 中的向量化操作。使用 Andrej Karpathy 的「micrograd」建構基本的多層感知機(MLP),並視覺化梯度如何在優化過程中流動。
模組 4:應用(模式映射) 活動:結構化資料映射分析。學生需將各種真實世界任務(如二元分類與機器翻譯)歸類至輸入/輸出模式:一一、多對一、一對多、多對多。
4. 回顧與延伸
迷思:
- 「神奇突破」神話:認為 LLM 是孤立的發現,而非數十年研究的總結。
- API 速成路徑:錯誤假設可不深入理解矩陣乘法與偏微分,仍能成為系統工程師。
差異化:
- 支援:運用視覺學習輔助工具(如 3Blue1Brown 的神經網路系列)及幾何直觀工具來理解高維空間。
- 挑戰:從標準陣列過渡至 PyTorch 中的多維張量,從零開始實作早期模型。
學習成果:
- 認知層面:理解機器學習的數學基石(線性代數、微積分、機率),並追溯神經架構從感知機到 LSTM 的歷史脈絡。
- 技能層面:使用 Unix shell 命令導航遠端伺服器,並利用自動微分引擎實現基本的計算圖。
- 情感層面:重視「理論根基」勝過「過早抽象化」,尤其在除錯複雜系統(如梯度爆炸)時尤為重要。
🔹 第二課:深入剖析:大型語言模型如何處理與預測文字
概要:# 深入剖析:大型語言模型如何處理與預測文字
1. 環境設定
核心問題:我們如何跨越「被動閱讀」學術論文與真正理解變壓器(Transformer)數學核心之間的鴻溝?
學習目標(SWBAT):
- 認知層面:理解縮放點積注意力的數學依據,包括使用縮放因子穩定梯度、防止 softmax 函數中「無限小梯度」問題。
- 技能層面:使用 Python 與 PyTorch 從零開始實作生成式預訓練變壓器(GPT),從迴圈機制轉向高度平行化的矩陣乘法。
- 情感層面:重視「逐行實作」而非僅理論閱讀,以破解高維潛在空間的「本質模糊性」。
2. 核心知識元件(關鍵成分)
A. 關鍵概念(名詞):
- 架構:變壓器(Vaswani 等)、BERT(來自變壓器的雙向編碼表示)、僅編碼器架構、生成式預訓練變壓器(GPT)、專家混合(MoE)。
- 機制:自我注意、縮放點積注意、多頭自我注意、自回歸生成。
- 資料結構:查詢(Q)、鍵(K)、值(V)矩陣;密集向量;嵌入向量;潛在空間。
- 元件:字節對編碼(BPE)分詞器、位置編碼(正弦/餘弦函數)、前饋神經網絡、殘差連接、層歸一化(LayerNorm)。
- 進階功能:鍵值(KV)快取、群組查詢注意。
B. 核心原則(規則):
- 縮放規則:原始注意力分數必須除以鍵維度大小的平方根,以防止點積過度增長。
- 序列注入:必須手動編碼正弦與餘弦函數,以將序列順序注入模型。
- 穩定性規則:殘差連接與 LayerNorm 必須應用,以抵禦內部協方差偏移,確保訓練穩定。
- 最佳化:從天真的迴圈轉向矩陣乘法,是實現平行化的關鍵。
C. 必備技能(動詞):
- 拆解:將變壓器架構拆解為其核心機制。
- 實作:從零開始編碼分詞器、QKV 矩陣與前饋網絡。
- 制定:以數學與程式方式定義注意力分數。
- 追蹤:使用互動工具,視覺化從原始文字到詞元再到嵌入向量的路徑。
- 加速:利用 KV 快取加快推論速度。
3. 教學模組(流程)
模組 1:激活(可視化模糊性) 活動:互動探索。學生使用「Transformer Explainer」或「AnimatedLLM」等工具輸入文字提示,觀察內部元件的即時互動。這解決了潛在空間模糊性的「教學挑戰」。
模組 2:獲取(數學基礎) 內容:深入參與「Attention Is All You Need」的算法。專注於 Q、K、V 矩陣的公式化,以及用於穩定梯度的縮放因子(\sqrt{d_k})的特定數學原理。
模組 3:實踐(程式化拆解) 活動:「從零開始」建構。根據 Andrej Karpathy 的「讓我們建構 GPT」資源,學生執行資料攝取(如《綠野仙蹤》資料集),並手動實作 BPE 分詞器與位置編碼。
模組 4:應用(擴展與最佳化) 活動:進階架構對齊。學生將程式從迴圈式注意力轉為平行化的矩陣乘法,再整合先進修改技術,如群組查詢注意與專家混合(MoE)路由,以符合 2026 年模型設計。
4. 回顧與延伸
迷思:
- 理論與實務:認為閱讀學術文獻足以掌握工程實力(文本明確要求逐行實作)。
- 效率:使用天真的迴圈進行注意力運算,而非平行化的矩陣乘法。
- 梯度問題:忽略縮放因子,導致 softmax 函數中出現無限小梯度。
差異化:
- 支援:使用 Jay Alammar 的「圖解變壓器」或哈佛 NLP 的「註解變壓器」進行視覺化/註解數學走讀。
- 挑戰:要求進階學習者實作 KV 快取以加速推論,或編碼複雜的 MoE 路由機制。
學習成果:
- 已生成
🔹 第三課:對齊與推理:如何使人工智慧成為得力助手
概要:# 對齊與推理:如何使人工智慧成為得力助手
1. 環境設定
核心問題:當大規模預訓練成為「商品化」工具時,工程師如何將一個原始、不可預測的基礎模型轉化為高可靠性的推理引擎,能遵循複雜的人類意圖?
學習目標(SWBAT):
- 認知層面:說明後訓練管道的機制,包括監督微調(SFT)與強化學習(RL)框架(如 GRPO)之間的差異。
- 技能層面:設計多階段訓練流程——從冷啟動到最終對齊——並運用參數效率型微調(PEFT)技術,如 LoRA。
- 情感層面:重視從將 AI 視為「神奇黑箱」轉變為一個由機械層次與刻意內部推理構成的工程系統。
2. 核心知識元件(關鍵成分)
A. 關鍵概念(名詞):
- 後訓練管道:模型行為被塑造與對齊的階段。
- 監督微調(SFT):在精心策劃的指令-回應對上進行訓練。
- 參數效率型微調(PEFT):如 LoRA 和 QLoRA 等方法,在凍結原始權重的同時插入可訓練的秩分解矩陣。
- 思考鏈(CoT):在產生最終輸出前的內部審思階段。
- 群體相對策略優化(GRPO):一種框架,透過對比群體平均分數消除「評估模型」。
- 演化策略(ES):一種替代反向傳播的方法,透過突變與重組參數。
B. 核心原則(規則):
- 硬體限制規則:完整參數更新在計算上極其昂貴;消費級硬體必須依賴 PEFT。
- GRPO 效率規則:現代強化學習可透過自動化、規則式的獎勵系統,消除記憶體密集型評估模型。
- 推理管道規則:建構推理模型需遵循特定的四階段流程:冷啟動、純強化學習、合成資料生成、二次 SFT。
C. 必備技能(動詞):
- 微調:適應模型至特定領域(如醫療或法律)。
- 注入:在變壓器層中插入分解矩陣。
- 評分:透過自動系統評估邏輯一致性與數學正確性。
- 突變:迭代更改模型參數,以優化長程任務表現。
3. 教學模組(流程)
模組 1:激活(打破黑箱)
- 活動:數位實驗室探索。使用視覺化工具(如 Transformer Explainer、3D LLM Walkthrough)觀察即時注意力分數計算與機率分佈。
- 目標:彌補「矩陣代數」與「人工智慧助手魔幻界面」之間的差距。
模組 2:獲取(後訓練架構)
- 內容:深入探討 SFT 與 PEFT。對比完整參數更新的高昂成本與 LoRA/QLoRA 的高效性。
- 關鍵模型:檢視 Llama 3.2、Qwen3 與 Gemma 的架構,作為客製化助手創建的目標。
模組 3:實踐(推理革命)
- 活動:繪製 DeepSeek-R1 管道。小組合作,繪製四階段訓練流程:
- 冷啟動:防止可讀性退化。
- 純強化學習:透過 GRPO 發展 CoT 技能。
- 拒絕採樣:從高品質輸出中創造合成標註資料集。
- 最終對齊:合併合成資料與事實/創意資料集。
模組 4:應用(擴展與穩健性)
- 活動:最佳化辯論。比較強化學習(PPO/GRPO)與演化策略(ES)。
- 任務:基於 Cognizant AI 實驗室 2026 年的研究,判斷哪種方法在「稀疏、長程獎勵任務」中更優,並抵抗「獎勵操弄」。
4. 回顧與延伸
迷思:
- 「全參數更新」誤解:認為高品質微調必須更新所有十億個參數(修正:LoRA/QLoRA 透過秩分解達成)。
- 「評估模型」必要性:假設強化學習總是需要獨立的 LLM 作為評估者(修正:GRPO 使用群體基準分數與規則系統)。
差異化:
- 支援:使用 AnimatedLLM 來非技術性地概念化下一字預測訓練。
- 挑戰:要求進階學習者在特定領域資料集(如法律合約審查)上使用 QLoRA 建立文字分類管道,展示「客製化助手」的創建。
學習成果:
- 認知層面:說明後訓練管道的機制,包括監督微調(SFT)與強化學習(RL)框架(如 GRPO)之間的差異。
- 技能層面:設計多階段訓練流程——從冷啟動到最終對齊——並運用參數效率型微調(PEFT)技術,如 LoRA。
- 情感層面:重視從將 AI 視為「神奇黑箱」轉變為一個由機械層次與刻意內部推理構成的工程系統。
🔹 第四課:提示工程與以 RAG 為基礎的接地
概要:# 提示工程與以 RAG 為基礎的接地
1. 環境設定
核心問題:我們如何從研究導向的「技巧」轉向建立可靠、生產級的人工智慧協調系統,使模型扎根於現實資料與韌性基礎設施?
學習目標(SWBAT):
- 認知層面:理解檢索增強生成(RAG)管道的生命周期,以及多提供者 LLM 協調對於生產可靠性的重要性。
- 技能層面:實作進階解析(語意與自主分塊)、使用程式化指標(MRR、NDCG)評估檢索準確率,並設計適用於多模型系統的韌性流量路由器。
- 情感層面:重視從鬆散定義的提示「技巧」轉向嚴謹的工程學科,包含版本控制與資安意識。
2. 核心知識元件(關鍵成分)
A. 關鍵概念(名詞):
- RAG 基礎設施:密集嵌入模型、高維向量表示、專用向量資料庫(Pinecone、Deep Lake、Milvus)、FAISS、HNSW 圖。
- 分塊方法:語意分塊、重疊分塊、自主分塊。
- 評估指標:召回率@K、精確率@K、平均倒數排名(MRR)、歸一化折扣累積收益(NDCG)。
- 進階架構:快取增強生成(CAG)、多查詢路由、階層式 RAG、多模態 RAG。
- 協調與提示:LLMOps、流量控制器(路由器)、統一網關層、推理支架、對抗性漏洞、提示版本控制。
B. 核心原則(規則):
- 接地必要性:LLM 天然存在幻覺與時間知識斷層;必須透過 RAG 與外部知識庫橋接。
- 架構韌性:依賴單一第三方 API 提供者是重大弱點;系統必須實施多提供者協調與自動故障轉移邏輯。
- 工程嚴謹性:提示工程必須從「技巧」轉向正式學科,包含嚴格輸出規格(如有效 JSON)與明確的步驟序列。
C. 必備技能(動詞):
- 吸入:透過密集嵌入模型將非結構化文字轉換為向量表示。
- 解析:根據語意(語意)或 AI 決定的斷點(自主)分割文字,而非字符數。
- 量化:嚴謹地使用程式化測試套件衡量檢索準確率。
- 路由:根據成本、延遲與推理深度,動態將提示導向模型(如 Claude 3.5 Sonnet 或開源模型)。
- 防護:識別並緩解格式邏輯被用來繞過守衛的對抗性漏洞。
3. 教學模組(流程)
模組 1:激活(生產現實) 活動:「2026 年稽核」。參與者審查一個簡單的 API 式 LLM 程式因知識斷層或提供者停機而失敗的情境。討論:為何「原始模型」不足以應付生產級軟體?
模組 2:獲取(進階 RAG 與 LLMOps) 內容:講座介紹 RAG 生命周期:從資料吸入到向量資料庫(FAISS/HNSW)。對比天真的固定大小分塊與語意及自主分塊。引入高度優化的架構,如快取增強生成(CAG)。
模組 3:實踐(指標與路由) 活動:「評估者實驗室」。給定資料集,參與者選擇並說明使用特定指標(MRR 對比 NDCG)來量化檢索成功。然後設計「路由邏輯」圖,決定是否將查詢送至進階推理模型(如 OpenAI o3-mini)或成本效益高的開源模型。
模組 4:應用(韌性系統設計) 活動:「工程管道」。參與者草擬高風險環境的系統架構。設計必須包含: 1. 使用自主分塊的 RAG 管道。 2. 具備自動故障轉移邏輯的統一網關層。 3. 利用推理支架與嚴格 JSON 輸出規格的提示工程指南。
4. 回顧與延伸
迷思:
- 固定大小分塊「已足夠」: 現實需求語意或自主分塊以保留跨邊界的上下文。
- 提示工程只是創意寫作: 現實要求它成為正式學科,包含版本控制與明確工作流程。
- RAG 僅關於尋找文字: 現代 RAG 涉及多模態整合(影像與文字)與優化快取(CAG)。
差異化:
- 支援:專注於從「技巧」轉向基本格式模式與簡單檢索指標。
- 挑戰:要求進階學習者結合提示工程與人工智慧資安,設計系統以偵測/防止對抗性格式攻擊。
學習成果:
- 已生成
🔹 第五課:隱私、倫理與導航開源模型
概要:# 隱私、倫理與導航開源模型
1. 環境設定
核心問題:在高性能雲端 LLM 時代,為什麼向本地部署與「開放權重」轉移成為企業級人工智慧的非選項要求?
學習目標(SWBAT):
- 認知層面:區分「開源」(OSI 定義)與「開放權重」模型,並識別本地部署的三大主要驅動因素(隱私、成本、離線能力)。
- 技能層面:將生產需求(如知識增強或提示可靠性)對應至特定協調解決方案,如向量資料庫、故障轉移路由器與紅隊測試。
- 情感層面:重視資料隱私限制與專業人工智慧開發中的道德安全測試。
2. 核心知識元件(關鍵成分)
A. 關鍵概念(名詞):
- 向量資料庫:Pinecone、Deep Lake。
- 基礎設施元件:嵌入模型、故障轉移路由器、閘道。
- 評估指標:MRR(平均倒數排名)、Precision@K、LLM 作為裁判。
- 授權類別:開源(OSI 定義)、開放權重。
- 安全工具:紅隊測試、版本控制、輸出格式規格。
B. 核心原則(規則):
- 接地原則:系統必須將答案扎根於特定私人資料,以大幅降低幻覺率。
- 部署必要性:嚴格的企業隱私、累積令牌成本與離線需求使本地部署不可或缺。
- 授權細微差異:只有包含訓練程式碼與無限制權利的模型才是「開源」;否則僅為「開放權重」。
- 韌性規則:企業系統必須動態路由提示,以優化成本與可用性。
C. 必備技能(動詞):
- 協調:管理多提供者系統與閘道。
- 評估:實作自動化流程以監控檢索準確率與生成品質。
- 區分:釐清不同模型類型間的授權細微差異。
- 防護:執行對抗性漏洞測試(紅隊測試)。
3. 教學模組(流程)
模組 1:激活(本地人工智慧的緣由) 活動:「成本-隱私稽核」。學生分析一個假設情境,其中公司面臨驚人的令牌費用與資料外洩。討論本地部署如何解決這些「第五階段」挑戰。
模組 2:獲取(架構解決方案) 內容:剖析生產需求表。 * 知識增強:使用向量資料庫減少幻覺。 * 可用性:使用故障轉移路由器確保正常運作。 * 安全性:使用紅隊測試與版本控制。 * 評估:理解 MRR 與 Precision@K 指標。
模組 3:實踐(授權與邏輯) 活動:「開源對比開放權重排序」。給定一組模型特徵(如「公開權重」、「包含訓練程式碼」、「商業限制」),學生必須根據所提供文字的定義正確分類。
模組 4:應用(系統設計) 活動:「韌性管道藍圖」。學生設計高階系統架構,包含用於私人資料接地的嵌入模型與用於持續監控的 LLM 作為裁判管道。
4. 回顧與延伸
迷思:
- 「開放」神話:假設任何擁有公開權重的模型都是「開源」。(修正:若訓練程式碼或權利受限制,可能僅為「開放權重」。)
- 雲端優勢:假設雲端模型永遠更佳。(修正:本地模型對規模、成本控制與隱私至關重要。)
差異化:
- 支援:為數據科學新手提供評估指標(MRR、Precision@K)的詞彙表。
- 挑戰:要求資深開發者設計「多提供者協調」邏輯,根據「Precision@K」表現與「令牌成本」切換本地與雲端模型。
學習成果:
- 已生成
🔹 第六課:自主工作流程:自動化複雜任務
概要:# 自主工作流程:自動化複雜任務
1. 環境設定
核心問題:我們如何從僅能單次產生文字的人工智慧系統,轉向能推理、使用工具並跨分散式微服務協作的自主代理?
學習目標(SWBAT):
- 認知層面:比較線性整合架構與循環式、圖形化協調,區分垂直(MCP)與水平(A2A)整合協議。
- 技能層面:使用圖論原則定義特殊節點與條件邊界,並利用 FastMCP 實作 MCP 伺服器,連接代理至外部資料。
- 情感層面:重視「循環執行」與狀態管理在模擬複雜人類認知流程中的重要性。
2. 核心知識元件(關鍵成分)
A. 關鍵概念(名詞):
- 人工智慧代理特性:自主性、工具使用、記憶、推理。
- 協調框架:LangGraph、CrewAI(對比早期 LangChain)。
- 圖形架構:節點(任務/工具呼叫)、條件邊界(決策路徑)、狀態架構(Python TypedDict)。
- 互操作協議:模型上下文協議(MCP)、代理對代理(A2A)協議。
- 部署工具:Ollama(命令列)、LM Studio(圖形介面)、FastMCP、LocalAI。
- 模型:Llama 3、Qwen2.5、DeepSeek-R1(量化版)。
B. 核心原則(規則):
- 范式轉變:從靜態、單次生成轉向高度自主、目標導向的工作流程。
- 循環執行:代理必須執行動作、評估結果,並迴圈修正錯誤或蒐集資訊。
- 垂直與水平整合:MCP 如同「USB-C」,用於連接模型與資料(垂直);A2A 則如同跨生態系統的代理間通訊共通語言(水平)。
- 微服務架構:MCP 與 A2A 是互補,而非競爭。
C. 必備技能(動詞):
- 協調:管理複雜邏輯鏈與狀態式決策迴圈。
- 部署:在消費級硬體上執行本地模型,實現零延遲。
- 暴露:透過 MCP 伺服器提供工具(API)、資源(唯讀資料)與提示。
- 協商:允許獨立代理主動發現能力並以結構化方式共享結果。
3. 教學模組(流程)
模組 1:激活(從靜態到自主) 活動:比較標準提示-回應互動與多步任務(如「研究主題並撰寫報告」)。學生識別自動化後者所需的四項核心自主特性(自主性、工具使用、記憶、推理)。
模組 2:獲取(框架演進與圖論) 內容:講座指出線性序列(早期 LangChain)在處理決策迴圈上的限制。介紹 LangGraph 原則:定義任務節點與條件邊界以控制流程。解釋 Python 的 TypedDict 如何在這些步驟中維持狀態,確保「決策歷史」得以保存。
模組 3:實踐(垂直整合之 MCP) 活動:使用 FastMCP 的實作模組。學生在 Python 中建構本地 MCP 伺服器,暴露三個功能(工具、資源、提示)。他們將代理連接到本地 PostgreSQL 資料庫或即時 API(如 Hacker News),以示範擴展能力超越靜態訓練資料。
模組 4:應用(水平協調之 A2A) 活動:設計微服務架構,其中「研究代理」(基於 LangGraph)使用 MCP 接取資料,再透過 A2A 協議 將發現結果傳遞給「決策代理」(位於獨立伺服器)。練習使用伺服器推送事件(SSE)在代理間串流更新。
4. 回顧與延伸
迷思:
- 線性化:學生常以為簡單的提示序列就是「代理」。教學必須強調代理需具備「循環執行」與條件邏輯。
- 協議競爭:澄清 MCP 與 A2A 並非對手;前者處理內部工具存取(MCP),後者處理外部代理協作(A2A)。
差異化:
- 支援:使用 LM Studio 的圖形介面,協助不熟悉命令列環境的學生發現與調整模型。
- 挑戰:進階開發者應實作 LocalAI 作為即插即用的 OpenAI API 替代品,或使用 text-generation-webui 結合大量外掛擴展,以整合其自主工作流程。
學習成果:
- 認知層面:比較線性整合架構與循環式、圖形化協調,區分垂直(MCP)與水平(A2A)整合協議。
- 技能層面:使用圖論原則定義特殊節點與條件邊界,並利用 FastMCP 實作 MCP 伺服器,連接代理至外部資料。
- 情感層面:重視「循環執行」與狀態管理在模擬複雜人類認知流程中的重要性。
🔹 第七課:專案結業:打造您的個人 LLM 生產力系統
概要:# 專案結業:打造您的個人 LLM 生產力系統
1. 環境設定
核心問題:您如何從被動的人工智慧消費者,轉變為能建立穩健、韌性且自主的人工智慧系統的主要架構師?
學習目標(SWBAT):
- 認知層面:理解自主通訊協議(LangGraph、MCP、A2A)的架構複雜性,以及後訓練對齊的數學基礎(群體相對策略優化)。
- 技能層面:建立全面的作品集,涵蓋本地自然語言處理管道、安全的 RAG 應用,直至分散式多代理企業系統。
- 情感層面:發展「工程直覺」,不再停留在表面的雲端 API,而是深入探討張量操作與分散式協調的底層機制。
2. 核心知識元件(關鍵成分)
A. 關鍵概念(名詞):
- 協議:模型上下文協議(MCP)、代理對代理(A2A)通訊總線。
- 架構:基礎自然語言處理管道、進階 RAG 架構、自主代理工作流程、分散式系統結業專案。
- 工具:Hugging Face(transformers/datasets)、Ollama、LM Studio、Pinecone(向量資料庫)、LangGraph。
- 指標:MRR(平均倒數排名)、Precision@K。
- 模型:量化開源模型、DeepSeek V3/R1、視覺語言行動模型。
B. 核心原則(規則):
- 經驗應用:理論知識若無嚴謹的經驗應用於公開可驗證的程式碼庫中,將迅速退化。
- 幻覺減量:本地 RAG 系統必須使用自動化評估套件,實證證明其幻覺減量效果。
- 複雜性演進:技能必須逐步建立,銜接線性代數與張量操作至高階系統協調。
- 持續學習:工程熟練度需持續跟進頂尖論文(ICLR/ICML)與技術報告。
C. 必備技能(動詞):
- 分詞:將自訂文字資料集轉換為模型可消費的形式。
- 分塊:為大型語料庫實作進階的重疊分塊策略。
- 委派:使用 A2A 協議將任務交由專門代理(如分診代理至資料代理)處理。
- 查詢:透過專用 MCP 伺服器安全存取模擬 SQL 資料庫。
- 推理:建構自主迴圈,執行內部檢查直到報告達到發布標準。
3. 教學模組(流程)
模組 1:激活(專家工程師的轉變) 活動:「超越提示」討論。對比基本提示工程與專有雲端 API 的局限性,與「專家級」工程的要求(數學理論、張量操作、分散式系統)。
模組 2:獲取(文獻與技術基礎) 內容:深入探討頂尖論文與技術報告。學生檢閱 ICLR/ICML 的突破性成果與 DeepSeek V3/R1 的技術報告,以理解模型架構與對齊技術(如群體相對策略優化)的「最前沿」。
模組 3:實踐(逐步專案建構) 活動 1:自然語言處理管道:本地載入預訓練模型,執行文字生成與分類(如客戶流失預測)。 活動 2:RAG 架構:使用 Ollama/LM Studio 與 Pinecone 建構本地 RAG。學生必須實作重疊分塊,並使用 MRR/Precision@K 測量效能。
模組 4:應用(分散式系統結業專案) 活動:部署「分診-資料代理」系統。建立多代理環境,其中主「分診代理」接收請求,並透過 A2A 協議將安全資料庫查詢委派給運行在獨立流程中的「資料代理」,透過 MCP 伺服器進行。
4. 回顧與延伸
迷思:
- 「API 陷阱」:認為呼叫專有雲端 API 等同於人工智慧工程。
- 靜態問答:認為人工智慧系統僅限於靜態問答,而非自主、多步的代理工作流程。
- 理論與實務:假設閱讀論文已足夠,卻未發展「公開可驗證的程式碼庫」。
差異化:
- 支援:使用「LLM 變壓器模型視覺化解釋」等視覺學習資源,以及互動視覺化(AnimatedLLM),理解張量流與分詞等機械操作。
- 挑戰:從基本代理過渡至建構專屬的「自主代理工作流程」,能動態決定是否使用網路搜尋或 Python 執行工具以滿足廣泛目標(如美國證券交易委員會財務報告分析)。