กลับสู่คอร์สเรียน
AI008 Professional

โมเดลภาษาขนาดใหญ่สำหรับทุกคน: จากพื้นฐานสู่การใช้งานจริง (ฉบับปี 2026)

หลักสูตรนี้เป็นการแนะนำแบบใช้งานได้จริงสำหรับผู้เริ่มต้นเกี่ยวกับโมเดลภาษาขนาดใหญ่ (LLMs) เช่น ChatGPT และ Gemini ออกแบบมาสำหรับผู้เรียนทุกสายงาน ช่วยอธิบายว่า LLMs ทำงานอย่างไรในระดับพื้นฐาน ความสามารถและข้อจำกัดของมัน รวมถึงวิธีใช้งานอย่างมีประสิทธิภาพในด้านการเรียน การทำงาน และชีวิตประจำวัน โดยผ่านการสาธิตแบบปฏิบัติจริงและการฝึกฝนที่มีคำแนะนำ คุณจะได้เรียนรู้เทคนิคการเขียนคำสั่ง (prompt) วิธีประเมินผลอย่างวิเคราะห์อย่างรอบคอบ วิธีจัดการกับข้อมูลที่คลาดเคลื่อนหรืออคติ และวิธีใช้เครื่องมือทั่วไป (เช่น สรุปเอกสาร แปลภาษา งานข้อมูล) อย่างปลอดภัยและรับผิดชอบ เมื่อจบหลักสูตร คุณจะสามารถสร้างระบบการทำงานส่วนตัวโดยใช้ LLM สำหรับงานจริง เช่น การเขียน การวิจัย การวางแผน และเพิ่มประสิทธิภาพในการทำงาน โดยไม่จำเป็นต้องมีทักษะการเขียนโปรแกรมขั้นสูง

4.9
21h
671 ผู้เรียน
0 การถูกใจ
ปัญญาประดิษฐ์

ภาพรวมคอร์สเรียน

📚 สรุปเนื้อหา

หลักสูตรนี้เป็นการแนะนำแบบเข้าใจง่ายและใช้งานได้จริงสำหรับโมเดลภาษาขนาดใหญ่ (LLM) เช่น ChatGPT และ Gemini ออกแบบมาสำหรับผู้เรียนทุกพื้นฐาน ช่วยอธิบายว่า LLM ทำงานอย่างไรในระดับสูง ความสามารถและข้อจำกัดของมัน รวมถึงวิธีใช้งานอย่างมีประสิทธิภาพในการเรียน การทำงาน และชีวิตประจำวัน ผ่านการสาธิตแบบปฏิบัติจริงและแบบฝึกหัดที่มีคำแนะนำ คุณจะได้เรียนรู้เทคนิคการเขียนคำสั่ง (prompt techniques) การประเมินผลอย่างมีวิจารณญาณ การจัดการกับความคลาดเคลื่อน (hallucinations) และอคติ (bias) และการใช้เครื่องมือทั่วไป เช่น เอกสาร สรุป แปลภาษา งานข้อมูล อย่างปลอดภัยและมีความรับผิดชอบ โดยสิ้นสุดหลักสูตร คุณจะสามารถสร้าง "กระบวนการการทำงานส่วนตัว" ด้วย LLM สำหรับงานจริง เช่น การเขียน การวิจัย การวางแผน และการเพิ่มประสิทธิภาพ ซึ่งไม่จำเป็นต้องมีทักษะการเขียนโปรแกรมขั้นสูง

จากตรรกะทางคณิตศาสตร์พื้นฐานไปจนถึงการจัดลำดับระบบเอเจนต์แบบกระจาย: สร้างสถาปนิกระบบระดับแนวหน้าสำหรับยุคของโมเดลขนาดใหญ่

🎯 เป้าหมายการเรียนรู้

  1. เชิงความรู้: เข้าใจโครงสร้างพื้นฐานทางคณิตศาสตร์ของเครื่องเรียนรู้ (ML) (พีชคณิตเชิงเส้น แคลคูลัส ความน่าจะเป็น) และเส้นทางประวัติศาสตร์ของโครงสร้างประสาทเทียมตั้งแต่เพอร์เซปตรอน (Perceptrons) ไปจนถึง LSTMs
  2. เชิงทักษะ: ดำเนินการบนเซิร์ฟเวอร์ระยะไกลโดยใช้คำสั่งชัลล์ยูนิกซ์ (Unix shell commands) และสร้างกราฟคำนวณพื้นฐานโดยใช้เครื่องมืออัตโนมัติในการคำนวณอนุพันธ์ (automatic differentiation engines)
  3. เชิงอารมณ์: ให้คุณค่ากับ "พื้นฐานทางทฤษฎี" มากกว่า "การสรุปที่เร็วเกินไป" เมื่อแก้ไขระบบที่ซับซ้อน เช่น การระเบิดของเกรเดียนต์ (gradient explosions)
  4. สร้างขึ้นโดยอัตโนมัติ
  5. เชิงความรู้: อธิบายกลไกของกระบวนการปรับแต่งหลังการฝึก (post-training pipeline) รวมถึงความแตกต่างระหว่างการปรับแต่งแบบควบคุม (Supervised Fine-Tuning - SFT) กับกรอบการเรียนรู้แบบเสริมแรง (Reinforcement Learning - RL) เช่น GRPO
  6. เชิงทักษะ: ออกแบบกระบวนการฝึกอบรมหลายขั้นตอน — จากการเริ่มต้น (Cold Start) ไปจนถึงการจัดสมดุลสุดท้าย (Final Alignment) — โดยใช้เทคนิคการปรับแต่งที่มีประสิทธิภาพต่อพารามิเตอร์ (Parameter-Efficient Fine-Tuning - PEFT) เช่น LoRA
  7. เชิงอารมณ์: ให้คุณค่ากับการเปลี่ยนแปลงจากการมองเห็นปัญญาประดิษฐ์เป็น "กล่องดำเวทมนตร์" ไปเป็นระบบที่ออกแบบมาอย่างเป็นขั้นตอน มีชั้นกลไกและเหตุผลภายในอย่างตั้งใจ
  8. เชิงความรู้: วิเคราะห์ความแตกต่างระหว่างกรอบการรวมแบบเชิงเส้นกับการจัดลำดับแบบวนรอบ (cyclic, graph-based) และแยกแยะโปรโตคอลการรวมแนวดิ่ง (MCP) กับแนวกว้าง (A2A)
  9. เชิงทักษะ: กำหนดโหนดเฉพาะและเส้นเชื่อมเงื่อนไขโดยใช้หลักการทฤษฎีกราฟ และนำเอาเซิร์ฟเวอร์ MCP มาใช้โดยใช้ FastMCP เพื่อเชื่อมต่อเอเจนต์กับข้อมูลภายนอก
  10. เชิงอารมณ์: ให้คุณค่ากับความสำคัญของการดำเนินการแบบวนรอบ (cyclic execution) และการจัดการสถานะ (state management) ในการเลียนแบบกระบวนการทำงานทางปัญญาที่ซับซ้อนของมนุษย์

🔹 บทเรียนที่ 1: การแนะนำเบื้องต้นเกี่ยวกับ LLM: จากแนวคิดสู่ความเป็นจริง

บทนำ: ## 1. การเตรียมการ คำถามใหญ่: วิศวกรรมโมเดลภาษาขนาดใหญ่ (LLM) คือเพียงศิลปะของการเขียนคำสั่ง (prompt engineering) หรือต้องอาศัยความเข้าใจอย่างเข้มข้นในด้านคณิตศาสตร์และวิวัฒนาการทางสถาปัตยกรรมที่นำไปสู่การสร้างมัน?

เป้าหมายการเรียนรู้ (SWBAT):

  • เชิงความรู้: เข้าใจโครงสร้างพื้นฐานทางคณิตศาสตร์ของเครื่องเรียนรู้ (พีชคณิตเชิงเส้น แคลคูลัส ความน่าจะเป็น) และเส้นทางประวัติศาสตร์ของโครงสร้างประสาทเทียมตั้งแต่เพอร์เซปตรอน (Perceptrons) ไปจนถึง LSTMs
  • เชิงทักษะ: ดำเนินการบนเซิร์ฟเวอร์ระยะไกลโดยใช้คำสั่งชัลล์ยูนิกซ์ (Unix shell commands) และสร้างกราฟคำนวณพื้นฐานโดยใช้เครื่องมืออัตโนมัติในการคำนวณอนุพันธ์ (automatic differentiation engines)
  • เชิงอารมณ์: ให้คุณค่ากับ "พื้นฐานทางทฤษฎี" มากกว่า "การสรุปที่เร็วเกินไป" เมื่อแก้ไขระบบที่ซับซ้อน เช่น การระเบิดของเกรเดียนต์ (gradient explosions)

2. ส่วนประกอบความรู้หลัก (ส่วนผสม)

ก. แนวคิดสำคัญ (คำนาม):

  • กระบวนการทำงานแบบเอเจนต์ (Agentic workflows)
  • กลไกของเทนเซอร์ย่อย (Sub-architectural tensor mechanics)
  • การจัดสมดุลหลังการฝึก (Post-training alignment)
  • โปรโตคอลการจัดลำดับเอเจนต์แบบกระจาย (Distributed agentic orchestration protocols)
  • พื้นที่เวกเตอร์มิติสูง (High-dimensional vector spaces)
  • การแยกค่าอีเจน (Eigenvalue decomposition)
  • การถ่ายทอดกลับ (Backpropagation)
  • เทนเซอร์หลายมิติ (PyTorch)
  • กราฟคำนวณ (Computational graphs)
  • ทฤษฎีการประมาณแบบทั่วไป (Universal Approximation Theorem)
  • ปัญหาเกรเดียนต์หายไป (Vanishing gradient problem)
  • กลไกการสนใจ (Attention mechanism)

ข. หลักการสำคัญ (กฎ):

  • พื้นฐานที่ไม่สามารถละเลยได้: วิศวกรรม LLM ไม่สามารถเข้าใจได้เพียงแค่ผ่าน API เท่านั้น ต้องมีพื้นฐานคณิตศาสตร์และพีชคณิตเชิงเส้นไว้เพื่อการปรับแต่งฮาร์ดแวร์และการแก้ไขปัญหา
  • ทฤษฎีการประมาณแบบทั่วไป (Universal Approximation Theorem): โครงข่ายแบบฟีดฟอร์เวิร์ดที่มีชั้นซ่อนเดียวสามารถประมาณฟังก์ชันต่อเนื่องใด ๆ ได้ (ภายใต้ขนาดของจำนวนหน่วยซ่อนและความเสี่ยงในการทั่วไป)
  • ข้อจำกัดของ RNN: โครงข่ายประสาทเทียมแบบวนรอบ (RNN) ถูกจำกัดด้วยปัญหาเกรเดียนต์หายไป และมีข้อจำกัดในด้านการประมวลผลข้อมูลแบบลำดับที่ไม่สามารถทำขนานกันได้

ค. ทักษะจำเป็น (กริยา):

  • แก้ไขปัญหาการระเบิดของเกรเดียนต์ (Debug gradient explosions)
  • ปรับปรุงการใช้ทรัพยากรฮาร์ดแวร์ (Optimize hardware utilization)
  • สร้างฟังก์ชันความผิดพลาดเฉพาะ (Implement custom loss functions)
  • ดำเนินการตามเวกเตอร์ (Perform vectorized operations - ใช้ NumPy)
  • จัดการสภาพแวดล้อมการเรียนรู้เชิงลึก (ใช้ชัลล์ยูนิกซ์ - Unix shell)
  • จับคู่รูปแบบการเข้า-ออก (Map input-to-output paradigms: แบบหนึ่งต่อหนึ่ง หลายต่อหนึ่ง หนึ่งต่อหลาย หลายต่อหลาย)

3. ช่วงการสอน (ลำดับการเรียนรู้)

ช่วงที่ 1: การกระตุ้น (ความเข้าใจผิดของ API) กิจกรรม: การอภิปรายกรณีศึกษาเกี่ยวกับ "จุดล้มเหลว" ของการศึกษาปัญญาประดิษฐ์สมัยใหม่ วิเคราะห์ความเสี่ยงจากการใช้ "การห่อหุ้มระดับสูง" (high-level wrappers) และอภิปรายสถานการณ์ที่ความรู้เกี่ยวกับ API ไม่เพียงพอ (เช่น การเปลี่ยนจากโครงสร้างแบบรวมเป็นบริการไมโครเซอร์วิสที่แยกกัน)

ช่วงที่ 2: การรับรู้ (รากฐานทางคณิตศาสตร์และประวัติศาสตร์) เนื้อหา: บรรยายเรื่องสี่เสาหลัก (พีชคณิตเชิงเส้น ความน่าจะเป็น สถิติ แคลคูลัสหลายตัวแปร) ติดตามเส้นทางการพัฒนาสถาปัตยกรรมตั้งแต่เพอร์เซปตรอนปี 1958 ไปจนถึงโครงข่ายฟีดฟอร์เวิร์ด แล้วถึงข้อจำกัดของ RNN/LSTM

ช่วงที่ 3: การฝึกฝน (ความคล่องตัวเชิงโปรแกรม) กิจกรรม: ห้องปฏิบัติการเขียนโปรแกรมแบบมืออาชีพ ข้ามพิมพ์รูปแบบภาษา Python เพื่อเน้นการดำเนินการตามเวกเตอร์ใน NumPy ใช้ "micrograd" ของแอนดรีจ์ คาร์พาธี (Andrej Karpathy) เพื่อสร้างโมเดลเพอร์เซปตรอนหลายชั้น (MLP) พื้นฐาน และแสดงการไหลของเกรเดียนต์ผ่านเครือข่ายขณะทำการปรับค่า

ช่วงที่ 4: การประยุกต์ใช้ (การจับคู่รูปแบบ) กิจกรรม: การวิเคราะห์โครงสร้างการจับคู่ข้อมูล นักเรียนต้องจัดประเภทงานจริงต่างๆ (เช่น การจำแนกประเภทที่สอง หรือการแปลภาษา) ลงในรูปแบบการเข้า-ออก เช่น หนึ่งต่อหนึ่ง หลายต่อหนึ่ง หนึ่งต่อหลาย หลายต่อหลาย

4. ตรวจสอบและขยายความ

ความเข้าใจผิด:

  • ตำนาน "ความก้าวหน้าเชิงเวทมนตร์": ความเชื่อว่าโมเดลภาษาขนาดใหญ่เป็นการค้นพบเฉพาะตัว แทนที่จะเป็นผลรวมของงานวิจัยหลายทศวรรษ
  • ทางลัดของ API: ความเชื่อผิดที่ว่าสามารถกลายเป็นวิศวกรระบบโดยไม่ต้องเข้าใจพื้นฐานการคูณเมทริกซ์และอนุพันธ์บางส่วน

การแยกแยะ:

  • สนับสนุน: ใช้เครื่องมือการเรียนรู้ด้วยภาพ (เช่น ชุดวิดีโอ 3Blue1Brown เรื่องเครือข่ายประสาทเทียม) และเครื่องมือความเข้าใจทางเรขาคณิตสำหรับพื้นที่มิติสูง
  • ท้าทาย: ย้ายจากอาร์เรย์มาตรฐานไปเป็นเทนเซอร์หลายมิติใน PyTorch เพื่อสร้างโมเดลระยะแรกจากศูนย์

ผลการเรียนรู้:

  • เชิงความรู้: เข้าใจโครงสร้างพื้นฐานทางคณิตศาสตร์ของเครื่องเรียนรู้ (พีชคณิตเชิงเส้น แคลคูลัส ความน่าจะเป็น) และเส้นทางประวัติศาสตร์ของโครงสร้างประสาทเทียมตั้งแต่เพอร์เซปตรอน (Perceptrons) ไปจนถึง LSTMs
  • เชิงทักษะ: ดำเนินการบนเซิร์ฟเวอร์ระยะไกลโดยใช้คำสั่งชัลล์ยูนิกซ์ (Unix shell commands) และสร้างกราฟคำนวณพื้นฐานโดยใช้เครื่องมืออัตโนมัติในการคำนวณอนุพันธ์ (automatic differentiation engines)
  • เชิงอารมณ์: ให้คุณค่ากับ "พื้นฐานทางทฤษฎี" มากกว่า "การสรุปที่เร็วเกินไป" เมื่อแก้ไขระบบที่ซับซ้อน เช่น การระเบิดของเกรเดียนต์ (gradient explosions)

🔹 บทเรียนที่ 2: ภายในหัวใจ: วิธีที่ LLM ประมวลผลและคาดการณ์ข้อความ

บทนำ: # ภายในหัวใจ: วิธีที่ LLM ประมวลผลและคาดการณ์ข้อความ

1. การเตรียมการ

คำถามใหญ่: เราจะปิดช่องว่างระหว่าง "การอ่านเอกสารทางวิชาการอย่างเฉยๆ" กับการเข้าใจความเข้าใจเชิงวิศวกรรมที่แท้จริงของหัวใจทางคณิตศาสตร์ของโมเดลแปลง (Transformer) ได้อย่างไร?

เป้าหมายการเรียนรู้ (SWBAT):

  • เชิงความรู้: เข้าใจเหตุผลทางคณิตศาสตร์ของการใช้กลไกการสนใจแบบผลคูณที่ปรับขนาด (scaled dot-product attention) รวมถึงการใช้ตัวคูณปรับขนาดเพื่อคงเสถียรภาพของเกรเดียนต์ และป้องกันปัญหาเกรเดียนต์เป็นศูนย์ในฟังก์ชันซอฟต์แม็กซ์ (softmax)
  • เชิงทักษะ: สร้างโมเดลแปลงที่ฝึกไว้ล่วงหน้า (Generatively Pretrained Transformer - GPT) จากศูนย์โดยใช้ภาษา Python และ PyTorch ย้ายจากกลไกแบบวนลูปไปเป็นการคูณเมทริกซ์แบบขนานสูง
  • เชิงอารมณ์: ให้คุณค่ากับการเขียนโค้ดทีละบรรทัดมากกว่าการอ่านทฤษฎี เพื่อคลายความลึกลับของพื้นที่ลาตท์ที่มิติสูง

2. ส่วนประกอบความรู้หลัก (ส่วนผสม)

ก. แนวคิดสำคัญ (คำนาม):

  • สถาปัตยกรรม: โมเดลแปลง (Vaswani et al.) โมเดล BERT (การแทนค่าแบบสองทิศทางจากโมเดลแปลง), สถาปัตยกรรมแบบแค่เข้ารหัส (Encoder-only), โมเดลแปลงที่ฝึกไว้ล่วงหน้า (GPT), โมเดลผสมผสานผู้เชี่ยวชาญ (Mixture-of-Experts - MoE)
  • กลไก: การสนใจตนเอง (Self-attention), การสนใจแบบผลคูณที่ปรับขนาด (Scaled Dot-Product Attention), การสนใจหลายหัว (Multi-headed self-attention), การสร้างแบบเรียงลำดับ (Autoregressive generation)
  • โครงสร้างข้อมูล: เมทริกซ์คำถาม (Q), คีย์ (K), และค่า (V); เวกเตอร์หนาแน่น; เวกเตอร์การฝัง (Embedding vectors); พื้นที่ลาตท์ (Latent spaces)
  • ส่วนประกอบ: ตัวแยกตัวอักษรแบบบีตพอยร์ (Byte Pair Encoding - BPE) ตัวแยกตัวอักษร, การเข้ารหัสตำแหน่ง (ฟังก์ชันไซน์/คอส) วงจรฟีดฟอร์เวิร์ด วงจรการรวม (Residual connections), การปรับมาตรฐานระดับชั้น (Layer Normalization - LayerNorm)
  • คุณสมบัติขั้นสูง: การเก็บข้อมูลคีย์-ค่า (KV) ค่าการสนใจแบบกลุ่ม (Grouped-Query Attention)

ข. หลักการสำคัญ (กฎ):

  • กฎการปรับขนาด: คะแนนความสนใจดิบต้องหารด้วยรากที่สองของขนาดมิติคีย์ (ค่า K) เพื่อป้องกันไม่ให้ผลคูณใหญ่เกินไป
  • กฎการแทรกข้อมูลลำดับ: ต้องเขียนโค้ดฟังก์ชันไซน์และคอสเองเพื่อใส่ลำดับข้อมูลเข้าไปในโมเดล
  • กฎความเสถียร: ต้องใช้การรวมแบบหมุนเวียน (Residual connections) และการปรับมาตรฐานระดับชั้น (LayerNorm) เพื่อต่อต้านการเปลี่ยนแปลงของตัวแปรภายในและรักษาเสถียรภาพการฝึก
  • การปรับปรุงประสิทธิภาพ: การเปลี่ยนจากลูปแบบง่ายไปเป็นการคูณเมทริกซ์เป็นสิ่งจำเป็นสำหรับการประมวลผลขนาน

ค. ทักษะจำเป็น (กริยา):

  • แยกส่วน: แยกสถาปัตยกรรมของโมเดลแปลงออกเป็นกลไกหลัก
  • สร้างโค้ด: เขียนตัวแยกตัวอักษร เมทริกซ์ QKV และวงจรฟีดฟอร์เวิร์ดจากศูนย์
  • วางแบบ: กำหนดคะแนนความสนใจทางคณิตศาสตร์และโปรแกรม
  • ติดตาม: ดูเส้นทางจากคำธรรมดาไปเป็นตัวอักษร แล้วเป็นเวกเตอร์ฝังด้วยเครื่องมือแบบโต้ตอบ
  • เร่งความเร็ว: ใช้การเก็บข้อมูลคีย์-ค่า (KV caching) เพื่อเร่งการคาดการณ์

3. ช่วงการสอน (ลำดับการเรียนรู้)

ช่วงที่ 1: การกระตุ้น (การมองเห็นความลึกลับ) กิจกรรม: การสำรวจแบบโต้ตอบ นักเรียนใช้เครื่องมือเช่น "Transformer Explainer" หรือ "AnimatedLLM" ป้อนข้อความและสังเกตการมีปฏิสัมพันธ์แบบเรียลไทม์ของส่วนประกอบภายใน แก้ปัญหา "ความท้าทายทางการสอน" ที่เกิดจากความลึกลับของพื้นที่ลาตท์

ช่วงที่ 2: การรับรู้ (พื้นฐานทางคณิตศาสตร์) เนื้อหา: การมีส่วนร่วมเชิงอัลกอริธึมอย่างลึกซึ้งกับงานวิจัย "Attention Is All You Need" เน้นการตั้งค่าเมทริกซ์ Q, K, V และคณิตศาสตร์เฉพาะที่ใช้ตัวคูณปรับขนาด (\sqrt{d_k}) เพื่อคงเสถียรภาพของเกรเดียนต์

ช่วงที่ 3: การฝึกฝน (การแยกส่วนเชิงโปรแกรม) กิจกรรม: การสร้างจากศูนย์ (From-Scratch Build) โดยใช้แนวทางจากบทความของแอนดรีจ์ คาร์พาธี "Let’s build GPT" นักเรียนทำการดึงข้อมูล (เช่น ชุดข้อมูล "The Wizard of Oz") และสร้างตัวแยกตัวอักษรแบบ BPE และการเข้ารหัสตำแหน่งด้วยมือ

ช่วงที่ 4: การประยุกต์ใช้ (การขยายและปรับปรุงประสิทธิภาพ) กิจกรรม: การจัดลำดับสถาปัตยกรรมขั้นสูง นักเรียนเปลี่ยนโค้ดจากแบบลูปการสนใจไปเป็นการคูณเมทริกซ์แบบขนาน แล้วรวมฟีเจอร์ขั้นสูง เช่น การสนใจแบบกลุ่ม (Grouped-Query Attention) และการส่งต่อแบบมิกซ์ของผู้เชี่ยวชาญ (MoE routing) เพื่อให้สอดคล้องกับการออกแบบโมเดลปี 2026

4. ตรวจสอบและขยายความ

ความเข้าใจผิด:

  • ทฤษฎีกับการปฏิบัติ: เชื่อว่าการอ่านงานวิจัยทางวิชาการเพียงอย่างเดียวเพียงพอสำหรับการเข้าใจเชิงวิศวกรรม (ข้อความชี้ชัดว่าต้องมีการเขียนโค้ดทีละบรรทัด)
  • ประสิทธิภาพ: ใช้ลูปแบบง่ายสำหรับการสนใจแทนที่จะใช้การคูณเมทริกซ์แบบขนาน
  • ปัญหาเกรเดียนต์: มองข้ามตัวคูณปรับขนาด ซึ่งนำไปสู่เกรเดียนต์เป็นศูนย์ในฟังก์ชันซอฟต์แม็กซ์

การแยกแยะ:

  • สนับสนุน: ใช้ "The Illustrated Transformer" ของเจย์ อาลัมมาร์ หรือ "The Annotated Transformer" ของมหาวิทยาลัยฮาร์วาร์ด สำหรับการวิเคราะห์คณิตศาสตร์แบบมีภาพและคำอธิบาย
  • ท้าทาย: มอบหมายให้ผู้เรียนขั้นสูงทดลองใช้การเก็บข้อมูลคีย์-ค่า (KV caching) เพื่อเร่งการคาดการณ์ หรือเขียนกลไกการส่งต่อแบบซับซ้อนของโมเดลผสมผสานผู้เชี่ยวชาญ (MoE)

ผลการเรียนรู้:

  • สร้างขึ้นโดยอัตโนมัติ

🔹 บทเรียนที่ 3: การจัดสมดุลและความคิดเห็น: วิธีที่ปัญญาประดิษฐ์กลายเป็นผู้ช่วยที่มีประโยชน์

บทนำ: # การจัดสมดุลและความคิดเห็น: วิธีที่ปัญญาประดิษฐ์กลายเป็นผู้ช่วยที่มีประโยชน์

1. การเตรียมการ

คำถามใหญ่: เมื่อการฝึกแบบขนาดใหญ่กลายเป็น "สินค้าทั่วไป" วิศวกรจะเปลี่ยนโมเดลเบื้องต้นที่ไม่แน่นอนให้กลายเป็นเครื่องมือคิดเห็นที่มีความน่าเชื่อถือสูง พร้อมติดตามความต้องการของมนุษย์อย่างซับซ้อนได้อย่างไร?

เป้าหมายการเรียนรู้ (SWBAT):

  • เชิงความรู้: อธิบายกลไกของกระบวนการปรับแต่งหลังการฝึก รวมถึงความแตกต่างระหว่างการปรับแต่งแบบควบคุม (SFT) และกรอบการเรียนรู้แบบเสริมแรง (RL) เช่น GRPO
  • เชิงทักษะ: ออกแบบกระบวนการฝึกอบรมหลายขั้นตอน — จากการเริ่มต้น (Cold Start) ไปจนถึงการจัดสมดุลสุดท้าย (Final Alignment) — โดยใช้เทคนิคการปรับแต่งที่มีประสิทธิภาพต่อพารามิเตอร์ (PEFT) เช่น LoRA
  • เชิงอารมณ์: ให้คุณค่ากับการเปลี่ยนแปลงจากการมองเห็นปัญญาประดิษฐ์เป็น "กล่องดำเวทมนตร์" ไปเป็นระบบที่ออกแบบมาอย่างเป็นขั้นตอน มีชั้นกลไกและเหตุผลภายในอย่างตั้งใจ

2. ส่วนประกอบความรู้หลัก (ส่วนผสม)

ก. แนวคิดสำคัญ (คำนาม):

  • กระบวนการปรับแต่งหลังการฝึก: ขั้นตอนที่พฤติกรรมของโมเดลถูกสร้างและจัดสมดุล
  • การปรับแต่งแบบควบคุม (SFT): การฝึกด้วยคู่ข้อมูลคำสั่ง-คำตอบที่คัดสรรมา
  • การปรับแต่งที่มีประสิทธิภาพต่อพารามิเตอร์ (PEFT): เทคนิคเช่น LoRA และ QLoRA ที่แทรกเมทริกซ์การปรับค่าที่มีลำดับ (rank decomposition) ไว้ในชั้นของโมเดลแปลง ขณะที่ยังคงปล่อยให้พารามิเตอร์เดิมไม่เปลี่ยนแปลง
  • สายการคิด (Chain-of-Thought - CoT): ขั้นตอนการตัดสินใจภายในก่อนสร้างผลลัพธ์สุดท้าย
  • การปรับปรุงนโยบายแบบเปรียบเทียบกลุ่ม (GRPO): กรอบการทำงานที่กำจัด "โมเดลผู้ประเมิน" โดยการให้คะแนนผลลัพธ์เปรียบเทียบกับค่าเฉลี่ยของกลุ่ม
  • กลยุทธ์วิวัฒนาการ (Evolution Strategies - ES): ทางเลือกหนึ่งแทนการถ่ายทอดกลับ (backpropagation) ที่เปลี่ยนแปลงและผสมผสานพารามิเตอร์

ข. หลักการสำคัญ (กฎ):

  • กฎข้อจำกัดด้านฮาร์ดแวร์: การอัปเดตพารามิเตอร์ทั้งหมดเป็นเรื่องที่ใช้ทรัพยากรสูงเกินไป จึงต้องใช้เทคนิค PEFT สำหรับฮาร์ดแวร์ระดับผู้บริโภค
  • กฎประสิทธิภาพของ GRPO: การเรียนรู้แบบเสริมแรงสมัยใหม่สามารถกำจัดโมเดลผู้ประเมินที่ใช้หน่วยความจำมาก โดยใช้ระบบรางวัลอัตโนมัติที่ใช้กฎ
  • กฎลำดับการสร้างระบบคิดเห็น: การสร้างโมเดลคิดเห็นต้องมีลำดับขั้นตอนเฉพาะสี่ขั้นตอน: การเริ่มต้น (Cold Start), การเรียนรู้แบบเสริมแรงบริสุทธิ์ (Pure RL), การสร้างข้อมูลจำลอง, และการปรับแต่งซ้ำ

ค. ทักษะจำเป็น (กริยา):

  • ปรับแต่ง: ปรับโมเดลให้เหมาะกับโดเมนเฉพาะ (เช่น การแพทย์ หรือกฎหมาย)
  • แทรก: แทรกเมทริกซ์การแยกลำดับเข้าไปในชั้นของโมเดลแปลง
  • ให้คะแนน: ประเมินความสอดคล้องทางตรรกะและความถูกต้องทางคณิตศาสตร์ผ่านระบบอัตโนมัติ
  • เปลี่ยนแปลง: เปลี่ยนพารามิเตอร์ของโมเดลอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพในการทำงานระยะยาว

3. ช่วงการสอน (ลำดับการเรียนรู้)

ช่วงที่ 1: การกระตุ้น (ทำลายความลึกลับของกล่องดำ)

  • กิจกรรม: การสำรวจห้องแล็บดิจิทัล ใช้เครื่องมือแสดงผล (เช่น Transformer Explainer, 3D LLM Walkthrough) เพื่อสังเกตการคำนวณคะแนนความสนใจและการแจกแจงลอจิต (logit) ในเวลาจริง
  • เป้าหมาย: ปิดช่องว่างระหว่าง "พีชคณิตเมทริกซ์" กับ "อินเทอร์เฟซเวทมนตร์" ของผู้ช่วยปัญญาประดิษฐ์

ช่วงที่ 2: การรับรู้ (สถาปัตยกรรมหลังการฝึก)

  • เนื้อหา: วิเคราะห์ลึกในด้าน SFT และ PEFT เปรียบเทียบต้นทุนที่สูงเกินไปของการอัปเดตพารามิเตอร์ทั้งหมด กับประสิทธิภาพของ LoRA/QLoRA
  • โมเดลหลัก: ศึกษาสถาปัตยกรรมของ Llama 3.2, Qwen3, และ Gemma ซึ่งเป็นเป้าหมายของการสร้างผู้ช่วยเฉพาะทาง

ช่วงที่ 3: การฝึกฝน (ปฏิวัติการคิดเห็น)

  • กิจกรรม: แผนภาพกระบวนการ DeepSeek-R1 แบ่งกลุ่มเล็กๆ นักเรียนต้องวาดแผนผังกระบวนการฝึกอบรม 4 ขั้นตอน:
    1. การเริ่มต้น (Cold Start): ป้องกันการลดคุณภาพการอ่าน
    2. การเรียนรู้แบบเสริมแรงบริสุทธิ์ (Pure RL): พัฒนาทักษะการคิดเห็นผ่าน GRPO
    3. การคัดเลือกปฏิเสธ (Rejection Sampling): สร้างชุดข้อมูลที่มีฉลากจากผลลัพธ์คุณภาพสูง
    4. การจัดสมดุลสุดท้าย (Final Alignment): รวมข้อมูลจำลองกับชุดข้อมูลที่มีความจริงและสร้างสรรค์

ช่วงที่ 4: การประยุกต์ใช้ (การขยายและความทนทาน)

  • กิจกรรม: การอภิปรายเรื่องการปรับปรุงประสิทธิภาพ เปรียบเทียบการเรียนรู้แบบเสริมแรง (PPO/GRPO) กับกลยุทธ์วิวัฒนาการ (ES)
  • งาน: กำหนดว่าเทคนิคใดดีกว่าสำหรับ "งานที่ได้รับรางวัลแบบเบาบางและระยะยาว" และต้านทาน "การโจมตีรางวัล" (reward hacking) ตามงานวิจัยปี 2026 จากห้องปฏิบัติการ Cognizant AI

4. ตรวจสอบและขยายความ

ความเข้าใจผิด:

  • ความเชื่อผิดเรื่อง "การอัปเดตทั้งหมด": เชื่อว่าการปรับแต่งคุณภาพสูงต้องอัปเดตพารามิเตอร์ทั้งหมดหลายพันล้านตัว (แก้ไข: LoRA/QLoRA ทำได้ผ่านการแยกลำดับ)
  • ความจำเป็นของ "โมเดลผู้ประเมิน": คิดว่าการเรียนรู้แบบเสริมแรงต้องมีโมเดลที่แยกออกมาเพื่อประเมิน (แก้ไข: GRPO ใช้การให้คะแนนแบบกลุ่มและระบบตามกฎ)

การแยกแยะ:

  • สนับสนุน: ใช้ AnimatedLLM เพื่อเข้าใจแนวคิดเชิงไม่เทคนิคเกี่ยวกับการฝึกการคาดการณ์คำถัดไป
  • ท้าทาย: นำระบบการจัดหมวดหมู่ข้อความมาใช้กับข้อมูลเฉพาะด้านโดยใช้ QLoRA (เช่น การตรวจสอบสัญญาทางกฎหมาย) เพื่อแสดงการสร้างผู้ช่วยเฉพาะทาง

ผลการเรียนรู้:

  • เชิงความรู้: อธิบายกลไกของกระบวนการปรับแต่งหลังการฝึก รวมถึงความแตกต่างระหว่างการปรับแต่งแบบควบคุม (SFT) และกรอบการเรียนรู้แบบเสริมแรง (RL) เช่น GRPO
  • เชิงทักษะ: ออกแบบกระบวนการฝึกอบรมหลายขั้นตอน — จากการเริ่มต้น (Cold Start) ไปจนถึงการจัดสมดุลสุดท้าย (Final Alignment) — โดยใช้เทคนิคการปรับแต่งที่มีประสิทธิภาพต่อพารามิเตอร์ (PEFT) เช่น LoRA
  • เชิงอารมณ์: ให้คุณค่ากับการเปลี่ยนแปลงจากการมองเห็นปัญญาประดิษฐ์เป็น "กล่องดำเวทมนตร์" ไปเป็นระบบที่ออกแบบมาอย่างเป็นขั้นตอน มีชั้นกลไกและเหตุผลภายในอย่างตั้งใจ

🔹 บทเรียนที่ 4: การเขียนคำสั่ง (Prompt Engineering) และการยึดมั่นด้วย RAG

บทนำ: # การเขียนคำสั่ง (Prompt Engineering) และการยึดมั่นด้วย RAG

1. การเตรียมการ

คำถามใหญ่: เราจะเปลี่ยนจาก "วิธีการทดลอง" ที่เน้นการวิจัย ไปสู่การสร้างระบบปัญญาประดิษฐ์ที่น่าเชื่อถือและพร้อมใช้งานจริง ที่ยึดมั่นกับข้อมูลโลกความจริงและโครงสร้างพื้นฐานที่ทนทานได้อย่างไร?

เป้าหมายการเรียนรู้ (SWBAT):

  • เชิงความรู้: เข้าใจวงจรชีวิตของระบบการดึงข้อมูลเพิ่มเติม (Retrieval-Augmented Generation - RAG) และความจำเป็นในการจัดลำดับโมเดลหลายผู้ให้บริการเพื่อความน่าเชื่อถือในระบบผลิต
  • เชิงทักษะ: ใช้การแยกข้อมูลขั้นสูง (การแยกแบบความหมายและแบบเอเจนต์), ประเมินความแม่นยำของการดึงข้อมูลด้วยเมตริกเชิงโปรแกรม (MRR, NDCG), และออกแบบระบบควบคุมการจัดเส้นทางที่ทนทานสำหรับระบบหลายโมเดล
  • เชิงอารมณ์: ให้คุณค่ากับการเปลี่ยนจาก "วิธีการทดลอง" ที่ไม่ชัดเจน ไปสู่วิชาชีพวิศวกรรมที่มีความเข้มงวด รวมถึงการควบคุมเวอร์ชันและความตระหนักด้านความปลอดภัยไซเบอร์

2. ส่วนประกอบความรู้หลัก (ส่วนผสม)

ก. แนวคิดสำคัญ (คำนาม):

  • โครงสร้างพื้นฐาน RAG: โมเดลการฝังแบบหนาแน่น (dense embedding models), การแทนค่าเวกเตอร์มิติสูง, ฐานข้อมูลเวกเตอร์เฉพาะ (Pinecone, Deep Lake, Milvus), FAISS, กราฟ HNSW
  • วิธีการแบ่งข้อความ: การแบ่งตามความหมาย (semantic chunking), การแบ่งทับซ้อน (overlapping chunking), การแบ่งแบบเอเจนต์ (agentic chunking)
  • เมตริกการประเมิน: ความจำได้@K (Recall@K), ความแม่นยำ@K (Precision@K), ค่าเฉลี่ยของอันดับกลับ (Mean Reciprocal Rank - MRR), ค่าการสะสมลดค่าที่ปรับแล้ว (Normalized Discounted Cumulative Gain - NDCG)
  • สถาปัตยกรรมขั้นสูง: การสร้างแบบเพิ่มเติมด้วยแคช (Cache-Augmented Generation - CAG), การส่งต่อแบบหลายคำถาม (multi-query routing), การจัดลำดับแบบลำดับชั้น (hierarchical RAG), การจัดลำดับแบบหลายสื่อ (multimodal RAG)
  • การจัดลำดับและคำสั่ง: LLMOps, ตัวควบคุมการจัดเส้นทาง (Routers), ชั้นประตูรวม (unified gateway layers), โครงสร้างรองรับการคิดเห็น (reasoning scaffolds), ความเสี่ยงจากผู้โจมตี (adversarial vulnerabilities), การควบคุมเวอร์ชันคำสั่ง (prompt version control)

ข. หลักการสำคัญ (กฎ):

  • กฎการยึดมั่น: โมเดลภาษาขนาดใหญ่โดยธรรมชาติมีแนวโน้มเกิดความคลาดเคลื่อน (hallucinations) และขาดข้อมูลที่ทันสมัย ดังนั้นต้องใช้ RAG เพื่อเชื่อมโยงกับแหล่งข้อมูลภายนอก
  • กฎความทนทานของสถาปัตยกรรม: ขึ้นอยู่กับผู้ให้บริการ API รายเดียวเป็นความเสี่ยงร้ายแรง ระบบต้องมีการจัดลำดับหลายผู้ให้บริการและกลไกการสลับอัตโนมัติ
  • กฎความเข้มงวดทางวิศวกรรม: การเขียนคำสั่งต้องย้ายจาก "วิธีการทดลอง" ไปสู่วิชาชีพที่มีรูปแบบ รวมถึงข้อกำหนดผลลัพธ์ที่ชัดเจน (เช่น รูปแบบ JSON ที่ถูกต้อง) และขั้นตอนที่ชัดเจน

ค. ทักษะจำเป็น (กริยา):

  • ดึงข้อมูล: แปลงข้อความไม่เป็นระเบียบให้เป็นตัวแทนเวกเตอร์โดยใช้โมเดลการฝังแบบหนาแน่น
  • แยก: แบ่งข้อความตามความหมาย (เชิงความหมาย) หรือจุดหยุดที่กำหนดโดยปัญญาประดิษฐ์ (เชิงเอเจนต์) ไม่ใช่จำนวนตัวอักษร
  • วัดผล: วัดความแม่นยำของการดึงข้อมูลอย่างเข้มงวดด้วยชุดทดสอบเชิงโปรแกรม
  • จัดเส้นทาง: กำหนดการส่งคำสั่งไปยังโมเดล (เช่น คลาวด์ 3.5 ซอนเน็ต หรือโมเดลโอเพนซอร์ส) ตามต้นทุน ความหน่วง และความลึกของการคิดเห็น
  • ป้องกัน: ระบุและลดความเสี่ยงจากความเสียหายจากผู้โจมตีที่ใช้ตรรกะรูปแบบเพื่อหลีกเลี่ยงมาตรการป้องกัน

3. ช่วงการสอน (ลำดับการเรียนรู้)

ช่วงที่ 1: การกระตุ้น (ความจริงของระบบผลิต)

  • กิจกรรม: "การตรวจสอบปี 2026" ผู้เข้าร่วมทบทวนสถานการณ์ที่สคริปต์โมเดลภาษาขนาดใหญ่ที่ใช้ API ล้มเหลวเพราะข้อมูลขาดการอัปเดตหรือเซิร์ฟเวอร์ล่ม ถกเถียง: ทำไมโมเดลแบบดิบจึงไม่เพียงพอสำหรับซอฟต์แวร์ระดับผลิต?

ช่วงที่ 2: การรับรู้ (RAG ขั้นสูงและ LLMOps)

  • เนื้อหา: บรรยายเรื่องวงจรชีวิตของ RAG: จากการดึงข้อมูลไปยังฐานข้อมูลเวกเตอร์ (FAISS/HNSW) เปรียบเทียบการแบ่งข้อความแบบขนาดคงที่กับการแบ่งแบบความหมายและแบบเอเจนต์ แนะนำสถาปัตยกรรมที่มีประสิทธิภาพสูงเช่น Cache-Augmented Generation (CAG)

ช่วงที่ 3: การฝึกฝน (เมตริกและการจัดเส้นทาง)

  • กิจกรรม: "ห้องปฏิบัติการผู้ประเมิน" ให้ผู้เข้าร่วมเลือกและอธิบายเหตุผลในการใช้เมตริกเฉพาะ (MRR เทียบกับ NDCG) เพื่อวัดความสำเร็จของการดึงข้อมูล จากนั้นออกแบบแผนผัง "ตรรกะการจัดเส้นทาง" ที่ตัดสินว่าควรส่งคำขอไปยังโมเดลที่มีความคิดเห็นขั้นสูง (เช่น OpenAI o3-mini) หรือโมเดลโอเพนซอร์สที่ประหยัดต้นทุน

ช่วงที่ 4: การประยุกต์ใช้ (การออกแบบระบบที่ทนทาน)

  • กิจกรรม: "วิศวกรรมพื้นที่ท่อ" ผู้เข้าร่วมออกแบบสถาปัตยกรรมระบบสำหรับสภาพแวดล้อมที่มีความเสี่ยงสูง ออกแบบต้องรวม:
    1. ระบบ RAG ที่มีการแบ่งแบบเอเจนต์
    2. ชั้นประตูรวมแบบรวมที่มีกลไกการสลับอัตโนมัติ
    3. คู่มือการเขียนคำสั่งที่ใช้โครงสร้างรองรับการคิดเห็นและข้อกำหนดรูปแบบ JSON ที่ชัดเจน

4. ตรวจสอบและขยายความ

ความเข้าใจผิด:

  • การแบ่งข้อความแบบขนาดคงที่ "เพียงพอ": ความจริงต้องใช้การแบ่งแบบความหมายหรือแบบเอเจนต์เพื่อรักษาบริบทข้ามขอบเขต
  • การเขียนคำสั่งเป็นเพียงการเขียนสร้างสรรค์: ความจริงต้องเป็นวิชาชีพที่มีรูปแบบ รวมถึงการควบคุมเวอร์ชันและกระบวนการที่ชัดเจน
  • RAG เป็นแค่การหาข้อความ: ปัจจุบัน RAG รวมถึงการรวมแบบหลายสื่อ (ภาพและข้อความ) และการแคชที่เหมาะสม (CAG)

การแยกแยะ:

  • สนับสนุน: เน้นการเปลี่ยนจาก "วิธีการทดลอง" ไปสู่รูปแบบการจัดรูปแบบพื้นฐานและเมตริกการดึงข้อมูลพื้นฐาน
  • ท้าทาย: มอบหมายให้ผู้เรียนขั้นสูงเชื่อมโยงการเขียนคำสั่งกับความปลอดภัยทางไซเบอร์ของปัญญาประดิษฐ์ โดยออกแบบระบบที่ตรวจจับหรือป้องกันการโจมตีที่ใช้รูปแบบการจัดรูปแบบ

ผลการเรียนรู้:

  • สร้างขึ้นโดยอัตโนมัติ

🔹 บทเรียนที่ 5: ความเป็นส่วนตัว จริยธรรม และการเดินทางผ่านโมเดลโอเพนซอร์ส

บทนำ: # ความเป็นส่วนตัว จริยธรรม และการเดินทางผ่านโมเดลโอเพนซอร์ส

1. การเตรียมการ

คำถามใหญ่: ในยุคที่โมเดลภาษาขนาดใหญ่บนคลาวด์มีประสิทธิภาพสูง ทำไมการเปลี่ยนไปใช้การติดตั้งท้องถิ่น ("Open Weights") จึงกลายเป็นข้อกำหนดที่จำเป็นสำหรับระบบปัญญาประดิษฐ์ระดับองค์กร?

เป้าหมายการเรียนรู้ (SWBAT):

  • เชิงความรู้: แยกแยะระหว่าง "โอเพนซอร์ส" (ตามเกณฑ์ OSI) และโมเดล "เปิดค่าพารามิเตอร์" (Open Weights) และระบุปัจจัยหลักสามประการที่ส่งผลให้ต้องติดตั้งท้องถิ่น (ความเป็นส่วนตัว ต้นทุน การใช้งานแบบออฟไลน์)
  • เชิงทักษะ: จับคู่ความต้องการผลิต (เช่น การเสริมความรู้ หรือความน่าเชื่อถือของคำสั่ง) กับโซลูชันการจัดลำดับเฉพาะ เช่น ฐานข้อมูลเวกเตอร์ ตัวควบคุมการสลับ และการทดสอบเชิงความปลอดภัย (Red Teaming)
  • เชิงอารมณ์: ให้คุณค่ากับข้อจำกัดด้านความเป็นส่วนตัวของข้อมูล และการทดสอบความปลอดภัยทางจริยธรรมในงานพัฒนาปัญญาประดิษฐ์ระดับมืออาชีพ

2. ส่วนประกอบความรู้หลัก (ส่วนผสม)

ก. แนวคิดสำคัญ (คำนาม):

  • ฐานข้อมูลเวกเตอร์: Pinecone, Deep Lake
  • ส่วนประกอบโครงสร้างพื้นฐาน: โมเดลการฝัง, ตัวควบคุมการสลับ, ประตูทางเข้า
  • เมตริกการประเมิน: MRR (ค่าเฉลี่ยของอันดับกลับ), Precision@K, ปัญญาประดิษฐ์เป็นผู้ประเมิน (LLM-as-a-Judge)
  • หมวดหมู่ใบอนุญาต: โอเพนซอร์ส (ตามเกณฑ์ OSI), เปิดค่าพารามิเตอร์ (Open Weights)
  • เครื่องมือด้านความปลอดภัย: การทดสอบเชิงความปลอดภัย (Red Teaming), การควบคุมเวอร์ชัน, ข้อกำหนดรูปแบบผลลัพธ์

ข. หลักการสำคัญ (กฎ):

  • หลักการยึดมั่น: ระบบต้องยึดคำตอบไว้กับข้อมูลเฉพาะของผู้ใช้เพื่อลดอัตราการเกิดความคลาดเคลื่อน (hallucination) อย่างมาก
  • กฎการติดตั้ง: ความต้องการด้านความเป็นส่วนตัวขององค์กร ต้นทุนการใช้โทเคนสะสม และความต้องการใช้งานแบบออฟไลน์ ทำให้การติดตั้งท้องถิ่นเป็นสิ่งจำเป็น
  • ความละเอียดของใบอนุญาต: โมเดลถือว่า "โอเพนซอร์ส" ก็ต่อเมื่อรวมโค้ดการฝึกและสิทธิ์ที่ไม่จำกัด ถ้าไม่ใช่ ก็ถือว่าเป็น "เปิดค่าพารามิเตอร์"
  • กฎความทนทาน: ระบบองค์กรต้องส่งคำสั่งไปยังโมเดลต่างๆ อย่างไดนามิกเพื่อเพิ่มประสิทธิภาพด้านต้นทุนและเวลาทำงาน

ค. ทักษะจำเป็น (กริยา):

  • จัดลำดับ: จัดการระบบหลายผู้ให้บริการและประตูทางเข้า
  • ประเมิน: ตั้งระบบอัตโนมัติเพื่อตรวจสอบความแม่นยำในการดึงข้อมูลและคุณภาพของผลลัพธ์
  • แยกแยะ: ชี้แจงความแตกต่างของใบอนุญาตระหว่างโมเดลประเภทต่างๆ
  • ป้องกัน: ทดสอบความเสี่ยงจากผู้โจมตี (Red Teaming)

3. ช่วงการสอน (ลำดับการเรียนรู้)

ช่วงที่ 1: การกระตุ้น (เหตุผลของการใช้ปัญญาประดิษฐ์ท้องถิ่น)

  • กิจกรรม: "การตรวจสอบต้นทุน-ความเป็นส่วนตัว" นักเรียนวิเคราะห์สถานการณ์สมมุติที่บริษัทเผชิญค่าใช้จ่ายโทเคนสูงมากและเกิดการรั่วไหลของข้อมูล หารือว่าการติดตั้งท้องถิ่นช่วยแก้ปัญหา "ขั้นตอนที่ 5" ได้อย่างไร

ช่วงที่ 2: การรับรู้ (การสร้างวิธีแก้ปัญหา)

  • เนื้อหา: วิเคราะห์ตารางความต้องการผลิต
    • การเสริมความรู้: ใช้ฐานข้อมูลเวกเตอร์เพื่อลดการเกิดความคลาดเคลื่อน
    • ความพร้อมใช้งาน: ใช้ตัวควบคุมการสลับเพื่อความต่อเนื่อง
    • ความปลอดภัย: ใช้การทดสอบเชิงความปลอดภัย (Red Teaming) และการควบคุมเวอร์ชัน
    • การประเมิน: เข้าใจเมตริกอย่าง MRR และ Precision@K

ช่วงที่ 3: การฝึกฝน (ใบอนุญาตและตรรกะ)

  • กิจกรรม: "การจัดหมวดหมู่โอเพนซอร์สกับเปิดค่าพารามิเตอร์" ให้รายการลักษณะโมเดล (เช่น "พารามิเตอร์สาธารณะ", "มีโค้ดการฝึก", "มีข้อจำกัดทางการค้า") นักเรียนต้องจัดหมวดหมู่ให้ถูกต้องตามนิยามในข้อความ

ช่วงที่ 4: การประยุกต์ใช้ (การออกแบบระบบ)

  • กิจกรรม: "แผนผังระบบทนทาน" นักเรียนออกแบบสถาปัตยกรรมระบบระดับสูงที่รวมโมเดลการฝังข้อมูลสำหรับการยึดมั่นกับข้อมูลส่วนตัว และระบบที่ใช้ปัญญาประดิษฐ์เป็นผู้ประเมินเพื่อตรวจสอบอย่างต่อเนื่อง

4. ตรวจสอบและขยายความ

ความเข้าใจผิด:

  • ตำนาน "โอเพน": คิดว่าโมเดลที่มีพารามิเตอร์เปิดเผยทุกอย่างเป็น "โอเพนซอร์ส" (แก้ไข: อาจเป็นเพียง "เปิดค่าพารามิเตอร์" หากโค้ดการฝึกหรือสิทธิ์ถูกจำกัด)
  • ความเหนือกว่าของคลาวด์: คิดว่าโมเดลคลาวด์ดีกว่าเสมอ (แก้ไข: โมเดลท้องถิ่นจำเป็นสำหรับการขยายขนาด การควบคุมต้นทุน และความเป็นส่วนตัว)

การแยกแยะ:

  • สนับสนุน: ให้คำอธิบายคำศัพท์เมตริกการประเมิน (MRR, Precision@K) สำหรับนักเรียนใหม่ในด้านวิทยาศาสตร์ข้อมูล
  • ท้าทาย: ให้วิศวกรขั้นสูงออกแบบตรรกะ "การจัดลำดับหลายผู้ให้บริการ" ที่สลับระหว่างโมเดลท้องถิ่นและคลาวด์ตามประสิทธิภาพ "Precision@K" เทียบกับ "ต้นทุนโทเคน"

ผลการเรียนรู้:

  • สร้างขึ้นโดยอัตโนมัติ

🔹 บทเรียนที่ 6: กระบวนการทำงานแบบเอเจนต์: ทำให้งานซับซ้อนอัตโนมัติ

บทนำ: # กระบวนการทำงานแบบเอเจนต์: ทำให้งานซับซ้อนอัตโนมัติ

1. การเตรียมการ

คำถามใหญ่: เราจะเปลี่ยนจากระบบปัญญาประดิษฐ์ที่สร้างข้อความเพียงครั้งเดียว ไปสู่เอเจนต์อัตโนมัติที่สามารถคิดเห็น ใช้เครื่องมือ และทำงานร่วมกันผ่านบริการไมโครเซอร์วิสที่กระจายได้อย่างไร?

เป้าหมายการเรียนรู้ (SWBAT):

  • เชิงความรู้: วิเคราะห์ความแตกต่างระหว่างกรอบการรวมแบบเชิงเส้นกับการจัดลำดับแบบวนรอบและกราฟ และแยกแยะโปรโตคอลการรวมแนวตั้ง (MCP) กับแนวนอน (A2A)
  • เชิงทักษะ: กำหนดโหนดเฉพาะและเส้นเชื่อมเงื่อนไขโดยใช้หลักการทฤษฎีกราฟ และสร้างเซิร์ฟเวอร์ MCP โดยใช้ FastMCP เพื่อเชื่อมต่อเอเจนต์กับข้อมูลภายนอก
  • เชิงอารมณ์: ให้คุณค่ากับความสำคัญของการดำเนินการแบบวนรอบ (cyclic execution) และการจัดการสถานะ (state management) ในการเลียนแบบกระบวนการทำงานทางปัญญาที่ซับซ้อนของมนุษย์

2. ส่วนประกอบความรู้หลัก (ส่วนผสม)

ก. แนวคิดสำคัญ (คำนาม):

  • ลักษณะของเอเจนต์ปัญญาประดิษฐ์: อิสระภาพ การใช้เครื่องมือ ความจำ การคิดเห็น
  • กรอบการจัดลำดับ: LangGraph, CrewAI (เปรียบเทียบกับ LangChain ยุคแรก)
  • สถาปัตยกรรมกราฟ: โหนด (งาน/การเรียกเครื่องมือ), เส้นเชื่อมเงื่อนไข (เส้นทางตัดสินใจ), โครงสร้างสถานะ (Python TypedDict)
  • โปรโตคอลการเชื่อมต่อ: โปรโตคอลบริบทโมเดล (MCP), โปรโตคอลเอเจนต์ต่อเอเจนต์ (A2A)
  • เครื่องมือการติดตั้ง: Ollama (CLI), LM Studio (GUI), FastMCP, LocalAI
  • โมเดล: Llama 3, Qwen2.5, DeepSeek-R1 (ควอนไทซ์)

ข. หลักการสำคัญ (กฎ):

  • กฎการเปลี่ยนแปลงรูปแบบ: เปลี่ยนจากกระบวนการทำงานแบบคงที่และขั้นตอนเดียว ไปสู่กระบวนการทำงานที่มีอิสระภาพสูงและมุ่งเน้นเป้าหมาย
  • การดำเนินการแบบวนรอบ: เอเจนต์ต้องดำเนินการ ประเมินผล และวนกลับมาแก้ไขข้อผิดพลาดหรือเก็บข้อมูล
  • การรวมแนวตั้งกับแนวนอน: MCP ทำหน้าที่เหมือน "พอร์ต USB-C" สำหรับการเชื่อมโมเดลกับข้อมูล (แนวตั้ง); A2A ทำหน้าที่เป็นภาษาทั่วไปสำหรับการสื่อสารระหว่างเอเจนต์ทั่วทั้งระบบนิเวศ (แนวนอน)
  • สถาปัตยกรรมไมโครเซอร์วิส: MCP และ A2A เป็นสิ่งที่เสริมกัน ไม่ใช่คู่แข่งกัน

ค. ทักษะจำเป็น (กริยา):

  • จัดลำดับ: จัดการตรรกะซับซ้อนและวงจรการตัดสินใจที่มีสถานะ
  • ติดตั้ง: ใช้โมเดลท้องถิ่นบนฮาร์ดแวร์ระดับผู้บริโภคโดยไม่มีความหน่วง
  • เปิดเผย: นำเสนอเครื่องมือ (API) ทรัพยากร (ข้อมูลอ่านได้อย่างเดียว) และคำสั่งผ่านเซิร์ฟเวอร์ MCP
  • เจรจา: ให้เอเจนต์อิสระสามารถค้นพบความสามารถและแชร์ผลลัพธ์ที่มีโครงสร้างได้โดยโปรแกรม

3. ช่วงการสอน (ลำดับการเรียนรู้)

ช่วงที่ 1: การกระตุ้น (จากแบบคงที่ไปสู่แบบเอเจนต์) กิจกรรม: เปรียบเทียบการโต้ตอบคำสั่ง-คำตอบปกติกับงานหลายขั้นตอน (เช่น "ค้นคว้าหัวข้อแล้วเขียนรายงาน") นักเรียนระบุลักษณะหลัก 4 ประการของเอเจนต์ (อิสระภาพ การใช้เครื่องมือ ความจำ การคิดเห็น) ที่จำเป็นต่อการอัตโนมัติงานหลัง

ช่วงที่ 2: การรับรู้ (วิวัฒนาการของกรอบและทฤษฎีกราฟ) เนื้อหา: บรรยายเรื่องข้อจำกัดของลำดับเชิงเส้น (ยุคแรกของ LangChain) ในการจัดการวงจรการตัดสินใจ แนะนำหลักการของ LangGraph: กำหนดโหนดสำหรับงานและเส้นเชื่อมเงื่อนไขสำหรับการควบคุมการไหล ชี้แจงว่า TypedDict ของภาษาพีทีโฮน ช่วยรักษาสถานะตลอดขั้นตอนเพื่อให้ "ประวัติการตัดสินใจ" ถูกเก็บไว้

ช่วงที่ 3: การฝึกฝน (การรวมแนวตั้งด้วย MCP) กิจกรรม: โมดูลปฏิบัติการใช้ FastMCP ในภาษาพีทีโฮน นักเรียนสร้างเซิร์ฟเวอร์ MCP ท้องถิ่นที่เปิดเผยความสามารถ 3 ประการ (เครื่องมือ ทรัพยากร คำสั่ง) พวกเขาจะเชื่อมเอเจนต์กับฐานข้อมูล PostgreSQL ท้องถิ่นหรืออินเทอร์เฟซออนไลน์ (เช่น Hacker News) เพื่อแสดงการขยายความสามารถนอกเหนือจากข้อมูลฝึกอบรมที่คงที่

ช่วงที่ 4: การประยุกต์ใช้ (การจัดลำดับแนวนอนด้วย A2A) กิจกรรม: ออกแบบสถาปัตยกรรมไมโครเซอร์วิสที่เอเจนต์ "ค้นคว้า" (สร้างจาก LangGraph) ใช้ MCP เพื่อเข้าถึงข้อมูล แล้วใช้ โปรโตคอล A2A สื่อสารผลการค้นคว้าไปยังเอเจนต์ "ตัดสินใจ" (บนเซิร์ฟเวอร์อื่น) ฝึกใช้การส่งข้อมูลแบบสตรีม (Server-Sent Events - SSE) ระหว่างเอเจนต์เหล่านี้

4. ตรวจสอบและขยายความ

ความเข้าใจผิด:

  • ความเชื่อผิดเรื่อง "เชิงเส้น": นักเรียนมักคิดว่าลำดับคำสั่งง่ายๆ เป็น "เอเจนต์" ต้องเน้นย้ำว่าเอเจนต์ต้องมี "การดำเนินการแบบวนรอบ" และตรรกะเงื่อนไข
  • การแข่งขันระหว่างโปรโตคอล: ชี้แจงว่า MCP และ A2A ไม่ใช่คู่แข่ง หนึ่งจัดการการเข้าถึงเครื่องมือภายใน (MCP) อีกอันจัดการการสื่อสารระหว่างเอเจนต์ภายนอก (A2A)

การแยกแยะ:

  • สนับสนุน: ใช้ LM Studio ด้วยอินเทอร์เฟซกราฟิก (GUI) สำหรับนักเรียนที่มีปัญหากับสภาพแวดล้อมคำสั่ง
  • ท้าทาย: นักพัฒนาขั้นสูงควรนำ LocalAI มาใช้เป็นตัวแทนแทน API แบบโอเพนไอ หรือใช้ text-generation-webui เพื่อรวมส่วนขยายที่หลากหลายเข้ากับงานเอเจนต์ของตน

ผลการเรียนรู้:

  • เชิงความรู้: วิเคราะห์ความแตกต่างระหว่างกรอบการรวมแบบเชิงเส้นกับการจัดลำดับแบบวนรอบและกราฟ และแยกแยะโปรโตคอลการรวมแนวตั้ง (MCP) กับแนวนอน (A2A)
  • เชิงทักษะ: กำหนดโหนดเฉพาะและเส้นเชื่อมเงื่อนไขโดยใช้หลักการทฤษฎีกราฟ และสร้างเซิร์ฟเวอร์ MCP โดยใช้ FastMCP เพื่อเชื่อมต่อเอเจนต์กับข้อมูลภายนอก
  • เชิงอารมณ์: ให้คุณค่ากับความสำคัญของการดำเนินการแบบวนรอบ (cyclic execution) และการจัดการสถานะ (state management) ในการเลียนแบบกระบวนการทำงานทางปัญญาที่ซับซ้อนของมนุษย์

🔹 บทเรียนที่ 7: ผลงานสุดท้าย: การสร้างระบบผลิตภาพส่วนตัวด้วย LLM

บทนำ: # ผลงานสุดท้าย: การสร้างระบบผลิตภาพส่วนตัวด้วย LLM

1. การเตรียมการ

คำถามใหญ่: คุณจะเปลี่ยนจากผู้บริโภคปัญญาประดิษฐ์แบบผู้รับผลกระทบ ไปสู่ผู้สร้างหลักที่สามารถสร้างระบบที่มีความทนทาน แข็งแรง และอัตโนมัติได้อย่างไร?

เป้าหมายการเรียนรู้ (SWBAT):

  • เชิงความรู้: เข้าใจความซับซ้อนของโปรโตคอลการสื่อสารแบบเอเจนต์ (LangGraph, MCP, A2A) และรากฐานทางคณิตศาสตร์ของการจัดสมดุลหลังการฝึก (การปรับปรุงนโยบายแบบเปรียบเทียบกลุ่ม)
  • เชิงทักษะ: สร้างพอร์ตโฟลิโอครอบคลุม ตั้งแต่ระบบประมวลผลภาษาธรรมชาติท้องถิ่น แอปพลิเคชัน RAG ที่ปลอดภัย ไปจนถึงระบบหลายเอเจนต์แบบกระจาย
  • เชิงอารมณ์: พัฒนา "สติปัญญาด้านวิศวกรรม" โดยก้าวข้ามอินเทอร์เฟซคลาวด์ที่ผิวเผิน ไปสู่การจัดการกลไกระดับล่างของเทนเซอร์และการจัดลำดับแบบกระจาย

2. ส่วนประกอบความรู้หลัก (ส่วนผสม)

ก. แนวคิดสำคัญ (คำนาม):

  • โปรโตคอล: โปรโตคอลบริบทโมเดล (MCP), บัสการสื่อสารเอเจนต์ต่อเอเจนต์ (A2A)
  • สถาปัตยกรรม: ระบบพื้นฐานการประมวลผลภาษาธรรมชาติ (NLP), สถาปัตยกรรม RAG ขั้นสูง, กระบวนการทำงานแบบเอเจนต์อัตโนมัติ, ผลงานสุดท้ายด้านระบบกระจาย
  • เครื่องมือ: Hugging Face (transformers/datasets), Ollama, LM Studio, Pinecone (ฐานข้อมูลเวกเตอร์), LangGraph
  • เมตริก: MRR (ค่าเฉลี่ยของอันดับกลับ), Precision@K
  • โมเดล: โมเดลโอเพนซอร์สที่ควอนไทซ์, DeepSeek V3/R1, โมเดลภาษา-ภาพ-การกระทำ

ข. หลักการสำคัญ (กฎ):

  • การประยุกต์ใช้เชิงพิสูจน์: ความรู้ทางทฤษฎีจะเสื่อมคุณค่าหากไม่มีการประยุกต์ใช้จริงอย่างเข้มงวดในโค้ดที่สามารถตรวจสอบได้โดยสาธารณะ
  • การลดการเกิดความคลาดเคลื่อน: ระบบ RAG ท้องถิ่นต้องใช้ชุดทดสอบอัตโนมัติเพื่อพิสูจน์อย่างเป็นรูปธรรมว่าลดการเกิดความคลาดเคลื่อนเมื่อเทียบกับโมเดลพื้นฐาน
  • เส้นทางความซับซ้อน: ทักษะต้องพัฒนาทีละขั้น สะท้อนจากพีชคณิตเชิงเส้นและเทนเซอร์ไปสู่การจัดลำดับระบบระดับสูง
  • การเรียนรู้อย่างต่อเนื่อง: ความสามารถด้านวิศวกรรมต้องอัปเดตตามงานวิจัยสำคัญ (ICLR/ICML) และรายงานทางเทคนิค

ค. ทักษะจำเป็น (กริยา):

  • แยกตัวอักษร: แปลงชุดข้อมูลข้อความเฉพาะให้เหมาะกับการใช้งานของโมเดล
  • แบ่งข้อความ: ใช้กลยุทธ์การแบ่งข้อความที่ทันสมัยสำหรับข้อมูลจำนวนมาก
  • มอบหมายงาน: ใช้โปรโตคอล A2A เพื่อส่งงานไปยังเอเจนต์เฉพาะ (เช่น จาก "เอเจนต์รีดี้" ไปยัง "เอเจนต์ข้อมูล")
  • สอบถาม: เข้าถึงฐานข้อมูล SQL จำลองอย่างปลอดภัยผ่านเซิร์ฟเวอร์ MCP เฉพาะ
  • คิดเห็น: สร้างวงจรอัตโนมัติที่ตรวจสอบภายในจนกระทั่งรายงานพร้อมเผยแพร่

3. ช่วงการสอน (ลำดับการเรียนรู้)

ช่วงที่ 1: การกระตุ้น (การเปลี่ยนสู่วิศวกรรมระดับผู้เชี่ยวชาญ)

  • กิจกรรม: "เหนือกว่าคำสั่ง" การอภิปราย เปรียบเทียบข้อจำกัดของการเขียนคำสั่งพื้นฐานและอินเทอร์เฟซคลาวด์แบบปิด ต่อความต้องการด้าน "วิศวกรรมระดับผู้เชี่ยวชาญ" (ทฤษฎีทางคณิตศาสตร์ การจัดการเทนเซอร์ และระบบกระจาย)

ช่วงที่ 2: การรับรู้ (วรรณกรรมและรากฐานทางเทคนิค)

  • เนื้อหา: วิเคราะห์ลึกในงานวิจัยสำคัญและรายงานทางเทคนิค นักเรียนทบทวนการบรรลุผลจาก ICLR/ICML และรายงานทางเทคนิคของ DeepSeek V3/R1 เพื่อเข้าใจ "ขอบเขตล้ำสมัย" ของสถาปัตยกรรมโมเดลและการจัดสมดุล เช่น การปรับปรุงนโยบายแบบเปรียบเทียบกลุ่ม

ช่วงที่ 3: การฝึกฝน (การสร้างโครงการทีละขั้น)

  • กิจกรรม 1: ระบบประมวลผลภาษาธรรมชาติ: โหลดโมเดลที่ฝึกไว้ล่วงหน้าท้องถิ่นเพื่อใช้ในการสร้างข้อความและการจำแนกประเภท (เช่น การคาดการณ์ลูกค้าที่เลิกใช้บริการ)
  • กิจกรรม 2: สถาปัตยกรรม RAG: สร้าง RAG ท้องถิ่นโดยใช้ Ollama/LM Studio และ Pinecone นักเรียนต้องใช้การแบ่งข้อความที่ทับซ้อน และใช้ MRR/Precision@K เพื่อวัดประสิทธิภาพ

ช่วงที่ 4: การประยุกต์ใช้ (ผลงานสุดท้ายด้านระบบกระจาย)

  • กิจกรรม: การใช้งานระบบ "เอเจนต์จัดลำดับ-ข้อมูล" สร้างสภาพแวดล้อมหลายเอเจนต์ที่เอเจนต์หลัก "จัดลำดับ" รับคำขอ และใช้โปรโตคอล A2A มอบหมายการสอบถามฐานข้อมูลอย่างปลอดภัยให้กับ "เอเจนต์ข้อมูล" ที่ทำงานในกระบวนการอื่นผ่านเซิร์ฟเวอร์ MCP

4. ตรวจสอบและขยายความ

ความเข้าใจผิด:

  • กับดัก "API": ความเชื่อว่าการเรียกใช้ API คลาวด์แบบปิดเท่ากับวิศวกรรมปัญญาประดิษฐ์
  • คำถาม-คำตอบแบบคงที่: คิดว่าระบบปัญญาประดิษฐ์จำกัดอยู่แค่การตอบคำถามแบบคงที่ แทนที่จะเป็นกระบวนการทำงานแบบเอเจนต์ที่มีหลายขั้นตอนและอัตโนมัติ
  • ทฤษฎีกับการปฏิบัติ: คิดว่าการอ่านงานวิจัยเพียงอย่างเดียวเพียงพอ แต่ไม่ได้พัฒนา "พอร์ตโฟลิโอที่สามารถตรวจสอบได้"

การแยกแยะ:

  • สนับสนุน: ใช้ทรัพยากรการเรียนรู้ด้วยภาพ เช่น "อธิบายโมเดลแปลงของปัญญาประดิษฐ์ด้วยภาพ" และการจำลองแบบโต้ตอบ (AnimatedLLM) เพื่อเข้าใจกลไกการทำงานเช่นการไหลของเทนเซอร์และการแยกตัวอักษร
  • ท้าทาย: ย้ายจากเอเจนต์พื้นฐานไปสู่การสร้าง "กระบวนการทำงานแบบเอเจนต์อัตโนมัติเฉพาะ" ที่ตัดสินใจอย่างไดนามิกว่าจะใช้เครื่องมือค้นหาเว็บหรือการประมวลผลพีทีโฮนเพื่อตอบโจทย์ที่กว้าง (เช่น การวิเคราะห์รายงานทางการเงินของ SEC)