กลับสู่คอร์สเรียน
AI011 Professional

ปัญญาประดิษฐ์สร้างสรรค์สำหรับผู้เริ่มต้น

หลักสูตรที่ครอบคลุมซึ่งสำรวจพื้นฐานของระบบปัญญาประดิษฐ์สร้างสรรค์ โมเดลภาษาขนาดใหญ่ การเขียนคำสั่ง (prompt engineering) และการพัฒนาแอปพลิเคชันที่ใช้ปัญญาประดิษฐ์ โดยใช้เครื่องมือต่าง ๆ เช่น Azure OpenAI และ Power Platform

5.0
21h
615 ผู้เรียน
0 การถูกใจ
ปัญญาประดิษฐ์

ภาพรวมคอร์สเรียน

📚 สรุปเนื้อหา

หลักสูตรที่ครอบคลุม สำรวจพื้นฐานของปัญญาประดิษฐ์สร้างสรรค์ (Generative AI) โมเดลภาษาขนาดใหญ่ (Large Language Models) การออกแบบคำสั่ง (Prompt Engineering) และการพัฒนาแอปพลิเคชันที่ใช้ปัญญาประดิษฐ์ โดยใช้เครื่องมืออย่าง Azure OpenAI และ Power Platform

เรียนรู้พื้นฐานของปัญญาประดิษฐ์สร้างสรรค์ และสร้างแอปพลิเคชันอัจฉริยะตั้งแต่ศูนย์

ข้อขอบคุณ: Microsoft, Azure, และ OpenAI

🎯 เป้าหมายการเรียนรู้

  1. อธิบายกลไกการทำงานภายในของโมเดลภาษาขนาดใหญ่ (LLMs) รวมถึงกระบวนการแบ่งข้อความ (tokenization) กลไกการจดจำความสำคัญ (attention mechanism) และผลลัพธ์ที่ไม่แน่นอน (non-deterministic output)
  2. เปรียบเทียบประเภทต่าง ๆ ของโมเดลภาษาขนาดใหญ่ (โมเดลพื้นฐาน, เปิดแหล่งที่มาเทียบกับแบบเฉพาะเจาะจง, และสถาปัตยกรรม Encoder/Decoder) เพื่อเลือกเครื่องมือที่เหมาะสมกับสถานการณ์ทางธุรกิจ
  3. ประเมินกลยุทธ์ในการปรับปรุงผลลัพธ์ของโมเดล โดยเฉพาะการเลือกระหว่างการเขียนคำสั่ง (Prompt Engineering), การเพิ่มเติมข้อมูลจากแหล่งข้อมูล (Retrieval Augmented Generation - RAG) และการปรับแต่งแบบเฉพาะ (Fine-tuning)
  4. นิยามการเขียนคำสั่ง (Prompt Engineering) และอธิบายบทบาทของมันในฐานะอินเทอร์เฟซการเขียนโปรแกรมหลักสำหรับปัญญาประดิษฐ์สร้างสรรค์
  5. แยกแยะระหว่างโมเดลภาษาขนาดใหญ่พื้นฐาน (Base LLMs) กับโมเดลที่ได้รับการปรับให้เข้าใจคำสั่ง (Instruction-Tuned LLMs) และวิธีการประมวลผลข้อความของแต่ละแบบ
  6. สร้างคำสั่งที่ซับซ้อนโดยใช้คำสั่ง ข้อมูลหลัก สัญญาณชี้นำ และแม่แบบ
  7. สร้างและตั้งค่าแอปพลิเคชันสร้างข้อความโดยใช้ไลบรารี openai จัดการตัวแปรสภาพแวดล้อม และปรับเปลี่ยนความหลากหลายของผลลัพธ์ผ่านอุณหภูมิ (temperature)
  8. แยกแยะระหว่างแชทบอทที่ทำงานตามกฎกับแอปพลิเคชันปัญญาประดิษฐ์สร้างสรรค์ที่รับรู้บริบท พร้อมดำเนินการตามหลักการหกประการของปัญญาประดิษฐ์ที่รับผิดชอบของไมโครซอฟต์
  9. ดำเนินการค้นหาเชิงความหมายโดยแปลงข้อความเป็นเวกเตอร์ (embeddings) และใช้ความคล้ายคลึงแบบโคซายน์ (cosine similarity) เพื่อค้นหาเนื้อหาที่เกี่ยวข้องนอกเหนือจากการค้นหาด้วยคำหลัก
  10. สร้างและตั้งค่าแอปพลิเคชันสร้างภาพ พร้อมใช้ "คำสั่งเมตา" (meta prompts) เพื่อกำหนดขอบเขตเนื้อหาและความปลอดภัย

🔹 บทที่ 1: พื้นฐานและจริยธรรมของปัญญาประดิษฐ์สร้างสรรค์

ภาพรวม: บทนี้ให้บทแนะนำอย่างละเอียดเกี่ยวกับปัญญาประดิษฐ์สร้างสรรค์ โดยย้อนรอยเส้นทางการพัฒนาตั้งแต่การเรียนรู้ของเครื่องเชิงสถิติ ไปสู่โมเดลภาษาขนาดใหญ่ (LLMs) แบบทรานสฟอร์เมอร์ในยุคปัจจุบัน ผู้เรียนจะสำรวจวิธีการทำงานของโมเดลเหล่านี้ผ่านกระบวนการแบ่งข้อความ (tokenization) และความน่าจะเป็น วิธีการเลือกและปรับปรุงประเภทโมเดลต่าง ๆ (เปิดแหล่งที่มาเทียบกับแบบเฉพาะเจาะจง) และกรอบแนวทางสำคัญในการนำหลักการปัญญาประดิษฐ์ที่รับผิดชอบ (Responsible AI) มาใช้เพื่อลดความเสี่ยง เช่น ข้อความปลอม (hallucinations) และอคติ (bias)

ผลลัพธ์การเรียนรู้:

  • อธิบายกลไกการทำงานภายในของโมเดลภาษาขนาดใหญ่ (LLMs) รวมถึงกระบวนการแบ่งข้อความ (tokenization) กลไกการจดจำความสำคัญ (attention mechanism) และผลลัพธ์ที่ไม่แน่นอน (non-deterministic output)
  • เปรียบเทียบประเภทต่าง ๆ ของโมเดลภาษาขนาดใหญ่ (โมเดลพื้นฐาน, เปิดแหล่งที่มาเทียบกับแบบเฉพาะเจาะจง, และสถาปัตยกรรม Encoder/Decoder) เพื่อเลือกเครื่องมือที่เหมาะสมกับสถานการณ์ทางธุรกิจ
  • ประเมินกลยุทธ์ในการปรับปรุงผลลัพธ์ของโมเดล โดยเฉพาะการเลือกระหว่างการเขียนคำสั่ง (Prompt Engineering), การเพิ่มเติมข้อมูลจากแหล่งข้อมูล (Retrieval Augmented Generation - RAG) และการปรับแต่งแบบเฉพาะ (Fine-tuning)

🔹 บทที่ 2: ศิลปะและวิทยาศาสตร์ของการเขียนคำสั่ง (Prompt Engineering)

ภาพรวม: บทนี้สำรวจการเขียนคำสั่ง (PE) ว่าเป็นกระบวนการออกแบบและปรับปรุงข้อมูลขาเข้าในรูปแบบข้อความ (คำสั่ง) เพื่อช่วยให้โมเดลภาษาขนาดใหญ่ (LLMs) สร้างคำตอบที่มีคุณภาพสูงและสม่ำเสมอ นักเรียนจะก้าวจากความเข้าใจกลไกพื้นฐานของแบ่งข้อความ (tokenization) และประเภทโมเดล ไปสู่การใช้เทคนิคขั้นสูง เช่น การคิดเป็นลำดับ (Chain-of-thought) และการกระตุ้นคำถามเพื่อค้นพบความรู้ (Maieutic prompting) เพื่อแก้ไขข้อจำกัดของโมเดล เช่น ความสุ่ม (stochasticity) และการสร้างข้อมูลปลอม

ผลลัพธ์การเรียนรู้:

  • นิยามการเขียนคำสั่ง (Prompt Engineering) และอธิบายบทบาทของมันในฐานะอินเทอร์เฟซการเขียนโปรแกรมหลักสำหรับปัญญาประดิษฐ์สร้างสรรค์
  • แยกแยะระหว่างโมเดลภาษาขนาดใหญ่พื้นฐาน (Base LLMs) กับโมเดลที่ได้รับการปรับให้เข้าใจคำสั่ง (Instruction-Tuned LLMs) และวิธีการประมวลผลข้อความของแต่ละแบบ
  • สร้างคำสั่งที่ซับซ้อนโดยใช้คำสั่ง ข้อมูลหลัก สัญญาณชี้นำ และแม่แบบ

🔹 บทที่ 3: การพัฒนาแอปพลิเคชันปัญญาประดิษฐ์หลัก

ภาพรวม: บทนี้สำรวจการพัฒนาเครื่องมือที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ในเชิงปฏิบัติ โดยเน้นที่การสร้างข้อความ ระบบแชทที่รับรู้บริบท และแอปพลิเคชันการค้นหาเชิงความหมาย ผู้เรียนจะก้าวจากพื้นฐานการเชื่อมต่อ API และการปรับพารามิเตอร์ (อุณหภูมิและจำนวนโทเคน) ไปสู่การใช้งานฟีเจอร์ขั้นสูง เช่น การสร้างเวกเตอร์ข้อความ (text embeddings) ความคล้ายคลึงแบบโคซายน์ (cosine similarity) และกรอบแนวคิดปัญญาประดิษฐ์ที่รับผิดชอบ

ผลลัพธ์การเรียนรู้:

  • สร้างและตั้งค่าแอปพลิเคชันสร้างข้อความโดยใช้ไลบรารี openai จัดการตัวแปรสภาพแวดล้อม และปรับเปลี่ยนความหลากหลายของผลลัพธ์ผ่านอุณหภูมิ (temperature)
  • แยกแยะระหว่างแชทบอทที่ทำงานตามกฎกับแอปพลิเคชันปัญญาประดิษฐ์สร้างสรรค์ที่รับรู้บริบท พร้อมดำเนินการตามหลักการหกประการของปัญญาประดิษฐ์ที่รับผิดชอบของไมโครซอฟต์
  • ดำเนินการค้นหาเชิงความหมายโดยแปลงข้อความเป็นเวกเตอร์ (embeddings) และใช้ความคล้ายคลึงแบบโคซายน์ (cosine similarity) เพื่อค้นหาเนื้อหาที่เกี่ยวข้องนอกเหนือจากการค้นหาด้วยคำหลัก

🔹 บทที่ 4: โซลูชันปัญญาประดิษฐ์แบบต่ำโค้ดและรวมศูนย์

ภาพรวม: เนื้อหานี้ครอบคลุมสามเสาหลักขั้นสูงของการนำไปใช้ปัญญาประดิษฐ์: การสร้างแอปพลิเคชันสร้างภาพโดยใช้โมเดลเช่น DALL-E และ Midjourney การพัฒนาโซลูชันแบบต่ำโค้ดผ่านแพลตฟอร์มไมโครซอฟต์ Power Platform และการเสริมประสิทธิภาพของโมเดลภาษาขนาดใหญ่ผ่าน "การเรียกใช้ฟังก์ชัน" (function calling) เนื้อหาเน้นการใช้งานจริง ตั้งแต่การเชื่อมต่อ API บนพื้นฐานภาษา Python ไปจนถึงการพัฒนาแอปพลิเคชันผ่านภาษาธรรมชาติ และการเชื่อมต่อปัญญาประดิษฐ์กับแหล่งข้อมูลภายนอก

ผลลัพธ์การเรียนรู้:

  • สร้างและตั้งค่าแอปพลิเคชันสร้างภาพ พร้อมใช้ "คำสั่งเมตา" (meta prompts) เพื่อกำหนดขอบเขตเนื้อหาและความปลอดภัย
  • ออกแบบแอปพลิเคชันปัญญาประดิษฐ์แบบต่ำโค้ดและงานอัตโนมัติโดยใช้ Copilot, Dataverse และ AI Builder ภายในแพลตฟอร์ม Power Platform
  • ใช้การเรียกใช้ฟังก์ชันเพื่อให้ผลลัพธ์ข้อมูลโครงสร้างที่สม่ำเสมอ (เช่น รูปแบบ JSON) และเชื่อมโยงโมเดลภาษาขนาดใหญ่กับ API ภายนอก

🔹 บทที่ 5: ประสบการณ์ผู้ใช้ ความปลอดภัย และวงจรชีวิตแอปพลิเคชัน

ภาพรวม: บทนี้ครอบคลุมจุดตัดสำคัญระหว่างประสบการณ์ผู้ใช้ (UX) นโยบายความปลอดภัย และวงจรชีวิตการดำเนินงานโดยเฉพาะสำหรับแอปพลิเคชันปัญญาประดิษฐ์สร้างสรรค์ สำรวจวิธีสร้างความไว้วางใจผ่านความสามารถในการอธิบายผลลัพธ์ (explainability) ระบุภัยคุกคามเฉพาะด้านปัญญาประดิษฐ์ เช่น การปนเปื้อนข้อมูล (data poisoning) และการโจมตีผ่านคำสั่ง (prompt injection) และอธิบายการเปลี่ยนแปลงจากแนวทาง MLOps แบบดั้งเดิม ไปสู่ LLMOps เพื่อจัดการวงจรชีวิตแอปพลิเคชัน

ผลลัพธ์การเรียนรู้:

  • ออกแบบอินเทอร์เฟซปัญญาประดิษฐ์ที่ส่งเสริมความไว้วางใจและโปร่งใสผ่านความสามารถในการอธิบายผลลัพธ์และการควบคุมของผู้ใช้
  • ระบุและลดความเสี่ยงเฉพาะด้านปัญญาประดิษฐ์ ได้แก่ การปนเปื้อนข้อมูล (data poisoning) การโจมตีผ่านคำสั่ง (prompt injection) และความเสี่ยงจากห่วงโซ่อุปทาน
  • แยกแยะระหว่าง MLOps และ LLMOps และอธิบายขั้นตอนของวงจรชีวิตแอปพลิเคชันปัญญาประดิษฐ์สร้างสรรค์ (เริ่มต้นไอเดีย, สร้าง, ดำเนินการ)

🔹 บทที่ 6: ระบบการดึงข้อมูลขั้นสูงและระบบเอเจนต์อัตโนมัติ

ภาพรวม: บทนี้ครอบคลุมการเปลี่ยนผ่านจากปฏิสัมพันธ์เบื้องต้นกับโมเดลภาษาขนาดใหญ่ ไปสู่ระบบขั้นสูงที่ใช้การเพิ่มเติมข้อมูลจากแหล่งข้อมูล (Retrieval Augmented Generation - RAG) และเอเจนต์ปัญญาประดิษฐ์อัตโนมัติ ผู้เรียนจะสำรวจวิธีการยึดโมเดลให้พึ่งพาข้อมูลส่วนตัวโดยใช้ฐานข้อมูลเวกเตอร์ และวิธีขยายความสามารถของโมเดลภาษาขนาดใหญ่ผ่านเฟรมเวิร์กเอเจนต์ที่สามารถวางแผน ใช้เครื่องมือ และโต้ตอบกับเอเจนต์อื่น ๆ ได้

ผลลัพธ์การเรียนรู้:

  • อธิบายกระบวนการทำงานทางเทคนิคของ RAG รวมถึงการแบ่งข้อมูล (chunking) การแปลงเป็นเวกเตอร์ (embedding) และการดึงข้อมูลเชิงความหมาย (semantic retrieval)
  • เปรียบเทียบและเลือกโมเดลเปิดแหล่งที่มาที่เหมาะสม (Llama 2, Mistral, Falcon) ตามต้นทุน ความยืดหยุ่นในการปรับแต่ง และประสิทธิภาพ
  • แยกแยะระหว่างเฟรมเวิร์กหลักของเอเจนต์ปัญญาประดิษฐ์ (LangChain, AutoGen, TaskWeaver, JARVIS) และกรณีการใช้งานเฉพาะของแต่ละแบบ

🔹 บทที่ 7: การปรับแต่งโมเดลและสถาปัตยกรรมเฉพาะทาง

ภาพรวม: บทนี้ครอบคลุมการเปลี่ยนผ่านจากเทคนิคการเขียนคำสั่งทั่วไป ไปสู่การปรับปรุงโมเดลผ่านการปรับแต่งแบบมีผู้สอน (supervised fine-tuning) และการใช้โมเดลภาษาขนาดเล็กเฉพาะทาง (Small Language Models - SLMs) บทนี้นำเสนอการวิเคราะห์เปรียบเทียบระหว่างครอบครัวโมเดลของไมโครซอฟต์ Phi, Mistral และ Meta Llama โดยอธิบายข้อแลกเปลี่ยนด้านสถาปัตยกรรม เช่น ขนาด ความต้องการทรัพยากรคอมพิวเตอร์ และความสามารถรองรับหลายรูปแบบ (multimodality) สำหรับการนำไปใช้ในสภาพแวดล้อมคลาวด์และขอบ (edge)

ผลลัพธ์การเรียนรู้:

  • นิยามการปรับแต่ง (fine-tuning) และกำหนดเวลาที่ควรใช้มันแทนการเขียนคำสั่งหรือ Retrieval-Augmented Generation (RAG)
  • เปรียบเทียบลักษณะของโมเดลภาษาขนาดใหญ่ (LLMs) กับโมเดลภาษาขนาดเล็ก (SLMs) ทั้งในด้านขนาด ความเข้าใจ และความเร็วในการประมวลผล
  • ระบุคุณลักษณะเฉพาะและกรณีการใช้งานของครอบครัวโมเดล Phi-3.5, Mistral (ขนาดใหญ่/ขนาดเล็ก/NeMo) และ Llama (3.1/3.2)