COMP5511

PolyU | แนวคิดปัญญาประดิษฐ์

หลักสูตรนี้นำเสนอการแนะนำอย่างละเอียดและเข้าใจง่ายเกี่ยวกับปัญญาประดิษฐ์ ซึ่งออกแบบมาสำหรับนักศึกษาปริญญาโทและผู้เชี่ยวชาญในสายงาน โดยสะท้อนความก้าวหน้าจากพื้นฐานทางประวัติศาสตร์ไปจนถึงนวัตกรรมล่าสุด หลักสูตรจะเริ่มต้นจากการเรียนรู้เกี่ยวกับปัญญาประดิษฐ์แบบสัญลักษณ์และอัลกอริธึมการค้นหา แล้วดำเนินไปสู่แนวทางใหม่ ๆ เช่น การเรียนรู้เชิงลึก (Deep Learning) และปัญญาประดิษฐ์ที่สร้างเนื้อหา (Generative AI) นักเรียนจะได้ศึกษาหัวข้อสำคัญต่าง ๆ เช่น การแทนความรู้ การให้เหตุผลแบบความน่าจะเป็น และการเรียนรู้ของเครื่องแบบคลาสสิก ก่อนจะลงลึกสู่โครงข่ายประสาทเทียม โมเดล Transformers และโมเดลภาษาขนาดใหญ่ (LLMs) หลักสูตรเน้นทั้งด้านทฤษฎีและปฏิบัติ โดยใช้ภาษา Python และเฟรมเวิร์กมาตรฐานในอุตสาหกรรมอย่าง PyTorch เพื่อประยุกต์ใช้อัลกอริธึม โต้ตอบกับ API สมัยใหม่ และจัดการประเด็นสำคัญด้านจริยธรรมและความปลอดภัยของปัญญาประดิษฐ์

5.0 คะแนน
100 นักเรียน

ภาพรวมคอร์สเรียน

📚 สรุปเนื้อหา

หลักสูตรที่ครอบคลุมนี้เป็นการแนะนำสู่ปัญญาประดิษฐ์ (AI) ที่เข้มข้นแต่เข้าถึงได้ง่าย ออกแบบมาสำหรับนักศึกษาระดับบัณฑิตศึกษาและผู้ประกอบวิชาชีพ โดยเชื่อมโยงระหว่างรากฐานทางประวัติศาสตร์กับนวัตกรรมล้ำสมัย หลักสูตรจะค่อยๆ พัฒนาจาก AI เชิงสัญลักษณ์และอัลกอริทึมการค้นหา ไปสู่ Deep Learning และ Generative AI ที่ทันสมัย นักเรียนจะได้สำรวจหัวข้อที่จำเป็น เช่น การแทนความรู้ การให้เหตุผลเชิงความน่าจะเป็น และ Machine Learning แบบคลาสสิก ก่อนที่จะเจาะลึกโครงข่ายประสาทเทียม (Neural Networks), Transformers และ Large Language Models (LLMs) หลักสูตรนี้เน้นทั้งทฤษฎีและการปฏิบัติ โดยใช้ Python และเฟรมเวิร์กมาตรฐานอุตสาหกรรม เช่น PyTorch เพื่อนำอัลกอริทึมไปใช้ โต้ตอบกับ API สมัยใหม่ และจัดการกับประเด็นสำคัญด้านจริยธรรมและความปลอดภัยของ AI

หลักสูตรนี้เชื่อมโยงระหว่าง AI เชิงสัญลักษณ์แบบคลาสสิกและ Generative AI ที่ทันสมัย โดยมอบความรู้เชิงทฤษฎีเชิงลึกและทักษะ Python เชิงปฏิบัติแก่นักศึกษา เพื่อออกแบบ สร้าง และประเมินผลระบบอัจฉริยะอย่างมีจริยธรรม

🎯 วัตถุประสงค์การเรียนรู้

  1. เชี่ยวชาญรากฐาน AI: วิเคราะห์และนำกระบวนทัศน์พื้นฐานในการแก้ปัญหาไปใช้ รวมถึงการค้นหาแบบฮิวริสติก การให้เหตุผลแบบอิงตรรกะ และการสร้างแบบจำลองเชิงความน่าจะเป็น
  2. สร้างสถาปัตยกรรม Deep Learning: ออกแบบและฝึกฝนโครงข่ายประสาทเทียมขั้นสูงโดยใช้ PyTorch ตั้งแต่ Multi-layer Perceptrons ไปจนถึง Convolutional Neural Networks และ Transformers
  3. นำโซลูชัน Generative AI ไปใช้งาน: สร้างแอปพลิเคชันโดยใช้ Large Language Models (LLMs) โดยใช้เทคนิคต่างๆ เช่น การปรับแต่ง (fine-tuning) การสร้าง Prompt (prompt engineering) และ Retrieval-Augmented Generation (RAG)
  4. สร้าง AI อย่างมีจริยธรรม: ประเมินระบบ AI อย่างมีวิจารณญาณเกี่ยวกับอคติ ความปลอดภัย และการปรับแนว (alignment) โดยใช้กลยุทธ์เพื่อความสามารถในการอธิบาย (explainability) และความทนทาน (robustness) ในสถานการณ์จริง

🔹 บทที่ 1: ประวัติศาสตร์และรากฐานของ AI

ภาพรวม: การสำรวจต้นกำเนิดของปัญญาประดิษฐ์ ครอบคลุม Turing Test, การประชุม Dartmouth และธรรมชาติที่เป็นวัฏจักรของการพัฒนา AI ที่เรียกว่า 'AI Winters'

ผลการเรียนรู้:

  • ติดตามวิวัฒนาการทางประวัติศาสตร์ของ AI ตั้งแต่ปี 1956 จนถึงปัจจุบัน
  • เปรียบเทียบและแย้งกระบวนทัศน์ Symbolic AI (GOFAI) และ Connectionism
  • อภิปรายถึงผลกระทบของการปฏิวัติ Deep Learning และความก้าวหน้าล่าสุดในการสร้างสรรค์ (generative breakthroughs)

🔹 บทที่ 2: กลยุทธ์การค้นหา: แบบไม่รู้และแบบรู้

ภาพรวม: การแนะนำตัวแทนแก้ปัญหาพื้นฐานโดยใช้อัลกอริทึมการค้นหา โดยแยกระหว่างการค้นหาแบบตาบอด (blind search) และแนวทางที่อาศัยฮิวริสติก (heuristic-based)

ผลการเรียนรู้:

  • นำวิธีการค้นหาแบบไม่รู้ไปใช้ รวมถึง BFS, DFS และ Uniform Cost search
  • ใช้เทคนิคการค้นหาแบบฮิวริสติก เช่น A* และ Greedy Best-First search
  • วิเคราะห์ความซับซ้อนและประสิทธิภาพที่เหมาะสมของกลยุทธ์การค้นหาต่างๆ

🔹 บทที่ 3: การค้นหาแบบปฏิปักษ์และการแก้ปัญหาแบบมีเงื่อนไข

ภาพรวม: การเจาะลึกการตัดสินใจในสภาพแวดล้อมที่มีการแข่งขัน (เกม) และการแก้ปัญหาที่กำหนดโดยเงื่อนไข

ผลการเรียนรู้:

  • เชี่ยวชาญอัลกอริทึม Minimax และการตัดกิ่ง Alpha-Beta สำหรับการเล่นเกม
  • ทำความเข้าใจ Monte Carlo Tree Search (MCTS) ที่ใช้ในระบบขั้นสูง เช่น AlphaGo
  • แก้ปัญหา Constraint Satisfaction Problems (CSP) โดยใช้ backtracking และ local search

🔹 บทที่ 4: การแทนความรู้และการให้เหตุผล

ภาพรวม: การศึกษาว่าระบบ AI แทนข้อมูลในเชิงตรรกะเพื่อทำการอนุมานได้อย่างไร โดยย้ายจากตรรกะคลาสสิกไปสู่โครงสร้างความรู้สมัยใหม่

ผลการเรียนรู้:

  • ใช้ Propositional Logic และ First-Order Logic สำหรับการแทนความรู้และการอนุมาน
  • เปรียบเทียบ Expert Systems แบบเก่ากับ Knowledge Graphs และ Ontologies สมัยใหม่
  • สำรวจ Neuro-Symbolic AI ในฐานะสะพานเชื่อมระหว่างตรรกะและโครงข่ายประสาทเทียม

🔹 บทที่ 5: ความไม่แน่นอนในยุค GenAI

ภาพรวม: การก้าวข้ามการคำนวณความน่าจะเป็นแบบคลาสสิก เพื่อทำความเข้าใจว่าความไม่แน่นอนขับเคลื่อน AI สมัยใหม่ได้อย่างไร บทเรียนนี้สำรวจว่าทำไม LLMs จึงเกิดภาพหลอน (hallucinate) (และทำไมจึงเป็นคุณสมบัติ ไม่ใช่ข้อบกพร่อง) โมเดล Diffusion สร้างงานศิลปะจากความว่างเปล่าได้อย่างไร และ Autonomous Agents ตัดสินใจในโลกที่เปิดกว้างและคาดเดาไม่ได้ได้อย่างไร

ผลการเรียนรู้:

  • จาก Bayes สู่ "Vibes": ทำความเข้าใจความมั่นใจและการปรับเทียบ (calibration) เรียนรู้ว่าทำไม "ความน่าจะเป็น 99%" ถึงยังผิดพลาดได้ โดยไม่ต้องจมอยู่กับคณิตศาสตร์ที่ซับซ้อน
  • กลไกแห่งความคิดสร้างสรรค์: วิเคราะห์ว่ากลไกการสุ่มตัวอย่างเชิงความน่าจะเป็น (Temperature, Top-P) ช่วยส่งเสริมความคิดสร้างสรรค์ของ Generative AI และนำไปสู่ภาพหลอนได้อย่างไร
  • การตัดสินใจของ Agent: ทำความเข้าใจกลยุทธ์การตัดสินใจภายใต้ความไม่แน่นอน โดยเน้นที่ภาวะ "Exploration vs. Exploitation" ใน Reinforcement Learning และ Multi-Agent Systems

🔹 บทที่ 6: Classical Machine Learning

ภาพรวม: การแนะนำเชิงปฏิบัติเกี่ยวกับอัลกอริทึมที่ขับเคลื่อนด้วยข้อมูลสำหรับการเรียนรู้แบบมีผู้สอน (supervised) และไม่มีผู้สอน (unsupervised) โดยใช้ Python

ผลการเรียนรู้:

  • นำโมเดล supervised learning ไปใช้ รวมถึง Decision Trees และ SVMs
  • ใช้เทคนิค unsupervised เช่น K-means clustering และ PCA
  • ใช้ Scikit-learn เพื่อแก้ปัญหาการวิเคราะห์ข้อมูลเบื้องต้น

🔹 บทที่ 7: รากฐานของโครงข่ายประสาทเทียม

ภาพรวม: การเปลี่ยนผ่านสู่การคำนวณที่ได้รับแรงบันดาลใจจากชีววิทยา ครอบคลุมสถาปัตยกรรมและกลไกการฝึกฝนของโครงข่ายประสาทเทียม

ผลการเรียนรู้:

  • อธิบายโครงสร้างของเซลล์ประสาทเทียม (artificial neurons) และ Multi-layer Perceptrons (MLP)
  • เชี่ยวชาญอัลกอริทึม Backpropagation และฟังก์ชันกระตุ้น (activation functions) ต่างๆ (ReLU, GELU)
  • สร้างโครงข่ายประสาทเทียมพื้นฐานโดยใช้ PyTorch

🔹 บทที่ 8: Computer Vision และ CNNs

ภาพรวม: เน้นการประมวลผลข้อมูลภาพผ่านสถาปัตยกรรม Deep Learning ที่มีความเชี่ยวชาญเฉพาะทาง

ผลการเรียนรู้:

  • ทำความเข้าใจกลไกของ Convolutional Neural Networks (CNNs)
  • วิเคราะห์สถาปัตยกรรมขั้นสูง เช่น ResNet และ Vision Transformers (ViT)
  • สร้างโมเดลจำแนกประเภทรูปภาพพื้นฐาน

🔹 บทที่ 9: การสร้างแบบจำลองลำดับและ Transformer

ภาพรวม: วิวัฒนาการของการประมวลผลลำดับจาก Recurrent Neural Networks ไปสู่กลไก Attention ที่ปฏิวัติวงการ

ผลการเรียนรู้:

  • แยกแยะระหว่าง RNNs, LSTMs และสถาปัตยกรรม Transformer
  • อธิบายเปเปอร์ 'Attention Is All You Need' และกลไก self-attention
  • ทำความเข้าใจบทบาทของ Encoders และ Decoders ในโมเดล เช่น BERT และ GPT

🔹 บทที่ 10: Large Language Models (LLMs)

ภาพรวม: การศึกษาเชิงลึกเกี่ยวกับ Generative AI ที่ทันสมัย โดยมุ่งเน้นที่การสร้างข้อความและการปรับโมเดล

ผลการเรียนรู้:

  • อธิบายวงจรชีวิต Pre-training และ Fine-tuning ของ LLMs
  • สำรวจ Reinforcement Learning from Human Feedback (RLHF)
  • ฝึกฝนเทคนิค Prompt Engineering และ parameter-efficient fine-tuning methods (PEFT/LoRA)

🔹 บทที่ 11: การประยุกต์ใช้ Generative AI ขั้นสูง

ภาพรวม: การขยายขอบเขตจากการสร้างข้อความไปสู่ระบบการดึงข้อมูล (retrieval systems) และสื่อสร้างสรรค์ (generative media) โดยใช้ API สมัยใหม่

ผลการเรียนรู้:

  • นำ Retrieval-Augmented Generation (RAG) ไปใช้เพื่อลดภาพหลอน
  • ทำความเข้าใจคณิตศาสตร์เบื้องหลัง Diffusion Models (เช่น Stable Diffusion) และ VAEs
  • โต้ตอบกับ AI API สมัยใหม่เพื่อสร้างแอปพลิเคชันสร้างสรรค์

🔹 บทที่ 12: จริยธรรม ความปลอดภัย และการปรับแนว AI

ภาพรวม: การวิเคราะห์เชิงวิพากษ์ถึงผลกระทบของ AI ต่อสังคม โดยมุ่งเน้นที่ความรับผิดชอบและโปรโตคอลความปลอดภัย

ผลการเรียนรู้:

  • ระบุแหล่งที่มาของอคติและสร้างความยุติธรรมในโมเดล AI
  • อภิปรายเกี่ยวกับ AI Safety, Robustness และปัญหา Alignment
  • ประเมิน Explainability (XAI) และกลยุทธ์การลดผลกระทบจากภาพหลอนของ LLM