SCI1005

การปรับแต่งอัจฉริยะ

หลักสูตรขั้นสูงที่ครอบคลุมทฤษฎีและประยุกต์ใช้เทคนิคการปรับแต่งอัจฉริยะ ตั้งแต่วิธีการเชิงเส้นแบบดั้งเดิมไปจนถึงเทคนิคเมตาฮิวริสติกสมัยใหม่ การปรับแต่งหลายวัตถุประสงค์ โมเดลที่ช่วยแทน (surrogate-assisted) และการประยุกต์ใช้การเรียนรู้ของเครื่องแบบเฟดราเลท

5.0 คะแนน
300 นักเรียน

ภาพรวมคอร์สเรียน

📚 สรุปเนื้อหา

หลักสูตรขั้นสูงที่ครอบคลุมทฤษฎีและประยุกต์ใช้เทคนิคการปรับแต่งอัจฉริยะ ตั้งแต่วิธีการเชิงอนุพันธ์แบบดั้งเดิม ไปจนถึงสมัยใหม่ เช่น วิธีการผสมผสานแบบวิวัฒนาการ (meta-heuristics) การปรับแต่งหลายเป้าหมาย โมเดลช่วยแทน (surrogate-assisted) และการประยุกต์ใช้การเรียนรู้ของเครือข่ายกระจายศูนย์ (federated machine learning)

เรียนรู้วิธีการผสมผสานแบบวิวัฒนาการขั้นสูงและวิธีการปรับแต่งอัจฉริยะตามข้อมูล เพื่อแก้ปัญหาในระบบวิศวกรรมที่ซับซ้อน

🎯 เป้าหมายการเรียนรู้

  1. เข้าใจรากฐานทางคณิตศาสตร์และหมวดหมู่ของปัญหาการปรับแต่ง ตั้งแต่แบบต่อเนื่องและโค้งเว้า ไปจนถึงกรอบการจัดการที่ซับซ้อนแบบเชิงคอมบิเนชัน
  2. พัฒนาทักษะในการนำวิธีการคำนวณวิวัฒนาการ การปรับแต่งหลายเป้าหมาย และโมเดลช่วยแทนมาประยุกต์ใช้กับปัญหาวิศวกรรมและปัญญาประดิษฐ์จริง

🔹 บทเรียนที่ 1: พื้นฐานการปรับแต่ง (ตอนที่ 1)

ภาพรวม: บทเรียนนี้แนะนำโครงสร้างพื้นฐานทางคณิตศาสตร์และระบบจำแนกประเภทของการปรับแต่ง โดยเน้นการระบุตัวแปรตัดสินใจ ฟังก์ชันเป้าหมาย และข้อจำกัด สำรวจการจำแนกประเภทของปัญหาการปรับแต่ง และความท้าทายทางปฏิบัติในการตั้งรูปปัญหาในระบบที่ซับซ้อน เช่น การออกแบบวิศวกรรมและการเรียนรู้ของเครือข่าย

ผลลัพธ์การเรียนรู้:

  • กำหนดองค์ประกอบทางคณิตศาสตร์ของปัญหาการปรับแต่ง ได้แก่ ตัวแปรตัดสินใจ ฟังก์ชันเป้าหมาย และข้อจำกัด
  • จัดกลุ่มปัญหาการปรับแต่งโดยใช้ระบบจำแนกประเภทหลายมิติ ตามประเภทตัวแปร ข้อจำกัด และเป้าหมาย
  • แยกแยะระหว่างจุดต่ำสุด/สูงสุดเฉพาะเจาะจง (local optimum) กับจุดต่ำสุด/สูงสุดสูงสุด (global optimum) และระบุคุณสมบัติเฉพาะของปัญหาการปรับแต่งโค้งเว้า
  • แปลงสถานการณ์จริงให้อยู่ในกรอบการปรับแต่งอย่างเป็นทางการ

🔹 บทเรียนที่ 2: วิธีนิวตัน-ราฟสันและเมธอดการลดอนุพันธ์

ภาพรวม: บทเรียนนี้ครอบคลุมการเปลี่ยนจากวิธีการปรับแต่งเชิงวิเคราะห์ไปสู่วิธีการเชิงตัวเลขแบบวนซ้ำเพื่อหาค่าต่ำสุดของฟังก์ชันไม่เป็นเชิงเส้น รายละเอียดกลไก ข้อดี และข้อจำกัดของวิธีนิวตัน-ราฟสัน วิธีประมาณค่าควอซี-นิวตัน (Quasi-Newton) และวิธีการลดอนุพันธ์ต่างๆ เช่น RPROP

ผลลัพธ์การเรียนรู้:

  • ระบุจุดสูงสุดหรือต่ำสุดเฉพาะเจาะจงโดยการหาจุดที่อนุพันธ์ของฟังก์ชันเท่ากับศูนย์
  • เปรียบเทียบประสิทธิภาพและความต้องการของวิธีนิวตัน-ราฟสันกับการลดอนุพันธ์ (Gradient Descent) ในพื้นที่หนึ่งตัวแปรและหลายตัวแปร
  • อธิบายปัญหา "อนุพันธ์หาย" (vanishing gradient) และ "อนุพันธ์ระเบิด" (exploding gradient) และผลกระทบต่อการเบี่ยงเบนของการปรับแต่ง
  • อธิบายวัตถุประสงค์ของวิธีควอซี-นิวตันและ RPROP ในการลดภาระการคำนวณและเพิ่มความมั่นคงของการปรับแต่ง

🔹 บทเรียนที่ 3: อัลกอริธึมพันธุกรรมและวิธีจัดการข้อจำกัด

ภาพรวม: บทเรียนนี้สำรวจเทคนิคการค้นหาเชิงสุ่มแบบประชากร (population-based stochastic search heuristics) ที่รู้จักกันในชื่ออัลกอริธึมวิวัฒนาการ (Evolutionary Algorithms: EAs) รายละเอียดพื้นฐานทางชีววิทยาของอัลกอริธึมพันธุกรรม (GAs) รูปแบบการแทนค่าต่างๆ กลไกการเลือก แลกเปลี่ยนพันธุกรรม และการกลายพันธุ์ พร้อมทั้งการจัดการกับข้อจำกัดเฉพาะด้าน

ผลลัพธ์การเรียนรู้:

  • เปรียบเทียบวิธีการลดอนุพันธ์กับเทคนิคการค้นหาแบบประชากรเพื่อระบุว่าเมื่อใดควรใช้ EAs
  • อธิบายการจับคู่ระหว่างกระบวนการวิวัฒนาการทางชีววิทยากับศัพท์ทางคณิตศาสตร์ของการปรับแต่ง
  • นำไปใช้ตัวดำเนินการอัลกอริธึมพันธุกรรม เช่น การแลกเปลี่ยนแบบหลายจุด (n-point crossover), การสลับบิต (bit-flip mutation), และการเลือกแบบทัวร์นาเมนต์ (tournament selection)
  • ใช้วิธีการจัดการข้อจำกัด เช่น ฟังก์ชันผลตอบแทนที่ลงโทษ (penalized fitness functions) และวิธีการซ่อมแซมที่อาศัยอนุพันธ์

🔹 บทเรียนที่ 4: กลยุทธ์วิวัฒนาการและโปรแกรมพันธุกรรม

ภาพรวม: บทเรียนนี้ครอบคลุมเทคนิคการคำนวณวิวัฒนาการขั้นสูง ตั้งแต่การใช้อัลกอริธึมพันธุกรรมแบบตัวเลขจริง (Real-Coded Genetic Algorithms) สู่กลยุทธ์วิวัฒนาการ (Evolution Strategies: ES) และโปรแกรมพันธุกรรม (Genetic Programming: GP) รายละเอียดตัวดำเนินการเฉพาะ เช่น การแลกเปลี่ยนแบบจำลองไบนารี (Simulated Binary Crossover) การปรับขนาดก้าว (step-size adaptation) ใน ES และการแทนค่าแบบต้นไม้เพื่อพัฒนาฟังก์ชันคณิตศาสตร์

ผลลัพธ์การเรียนรู้:

  • วิเคราะห์กลไกของอัลกอริธึมพันธุกรรมแบบตัวเลขจริง โดยเฉพาะการแลกเปลี่ยนแบบจำลองไบนารี (Simulated Binary Crossover) และการกลายพันธุ์พหุนาม (Polynomial Mutation)
  • ประเมินรูปแบบของกลยุทธ์วิวัฒนาการ ได้แก่ (1+1)-ES, (\mu, \lambda) และ (\mu + \lambda) วิธีการเลือก
  • สร้างโมเดลโปรแกรมพันธุกรรมโดยใช้โครงสร้างแบบต้นไม้ รวมถึงชุดฟังก์ชันพื้นฐานและชุดจุดสิ้นสุด
  • กำหนดวิธีเริ่มต้นที่เหมาะสมสำหรับ GP เช่น วิธี Full, Grow, และ Ramped-half-and-half

🔹 บทเรียนที่ 5: การปรับแต่งแบบเชิงต่าง (Differential Evolution) และการเคลื่อนที่ฝูงอนุภาค (Particle Swarm Optimization)

ภาพรวม: บทเรียนนี้ครอบคลุมเทคนิคการปรับแต่งแบบเมตาฮีริสติกขั้นสูง โดยเน้นการปรับแต่งแบบเชิงต่าง (DE) และการเคลื่อนที่ฝูงอนุภาค (PSO) รายละเอียดพื้นฐานทางคณิตศาสตร์ของการเปลี่ยนแปลงแบบเวกเตอร์ใน DE และพฤติกรรมทางสังคมของสัตว์ที่กระตุ้นการเคลื่อนที่ของอนุภาคใน PSO

ผลลัพธ์การเรียนรู้:

  • วิเคราะห์วิธีการจัดการข้อจำกัด เช่น ฟังก์ชันผลตอบแทนที่ลงโทษ วิธีซ่อมแซม และการจัดอันดับแบบสุ่ม
  • วางรูปแบบขั้นตอนการเปลี่ยนแปลง แลกเปลี่ยน และเลือกในอัลกอริธึมการปรับแต่งแบบเชิงต่าง (DE)
  • อธิบายกลไกของการปรับแต่งแบบพื้นฐาน (Canonical Particle Swarm Optimization) โดยเฉพาะบทบาทของค่าต่ำสุดส่วนตัว (personal best) ค่าต่ำสุดรวม (global best) และน้ำหนักความเฉื่อย (inertia weight)
  • ประเมินรูปแบบต่างๆ ของ PSO เช่น Local PSO, PSO with Constriction และอัลกอริธึมฝูงอนุภาคที่พึ่งพาการแข่งขัน (Competition Based Swarm Algorithms: CSO)

🔹 บทเรียนที่ 6: การปรับแต่งหลายเป้าหมาย: แนวทางการแบ่งแยก

ภาพรวม: บทเรียนนี้สำรวจแนวคิดพื้นฐานของความเหมาะสมแบบแพเรโต (Pareto optimality) และความเป็นใหญ่ (dominance) วิธีการรวมแบบดั้งเดิม และอัลกอริธึมวิวัฒนาการขั้นสูงที่ใช้การแบ่งแยก รายละเอียดวิธีการแปลงปัญหาหลายเป้าหมายให้เป็นปัญหาเป้าหมายเดียวโดยใช้วิธีเช่น MOEA/D

ผลลัพธ์การเรียนรู้:

  • กำหนดและระบุความเป็นใหญ่แบบแพเรโต (Pareto Dominance) เซตของค่าที่เหมาะสมแบบแพเรโต (Pareto Optimal Sets) และพื้นผิวแพเรโต (Pareto Fronts) ในพื้นที่ตัดสินใจและพื้นที่เป้าหมาย
  • เปรียบเทียบและแยกแยะแนวทางการปรับแต่งหลายเป้าหมายแบบ A priori, A posteriori และ Interactive
  • อธิบายกลไกการแบ่งแยก (Decomposition) ในการปรับแต่งหลายเป้าหมาย (MOO) เพื่อแปลงปัญหาหลายเป้าหมายให้กลายเป็นปัญหาเป้าหมายเดียว
  • วิเคราะห์ข้อได้เปรียบของวิธีการรวมน้ำหนักแบบไดนามิก (Dynamic Weighted Aggregation: DWA) และ MOEA/D ในการจัดการกับพื้นผิวแพเรโตที่โค้งเว้าและโค้งกลับ

🔹 บทเรียนที่ 7: การปรับแต่งหลายเป้าหมาย: แนวทางการพึ่งพาความเป็นใหญ่

ภาพรวม: บทเรียนนี้เน้นเทคนิคขั้นสูงสำหรับอัลกอริธึมวิวัฒนาการหลายเป้าหมาย (MOEAs) โดยอธิบายกระบวนการของอัลกอริธึมการปรับแต่งหลายเป้าหมายที่นำโดยเวกเตอร์อ้างอิง (RVEA) และการมอบหมายคะแนนผลตอบแทนแบบพึ่งพาความเป็นใหญ่ สำรวจการรักษาความหลากหลายผ่านการแยกกลุ่ม (niching) และวิเคราะห์เปรียบเทียบอัลกอริธึมการจัดลำดับแบบไม่เป็นใหญ่ เช่น NSGA-II

ผลลัพธ์การเรียนรู้:

  • นำกระบวนการ RVEA มาใช้ รวมถึงการสร้างเวกเตอร์อ้างอิงและการคำนวณระยะทางที่ลงโทษมุม (Angle-Penalized Distance: APD)
  • คำนวณคะแนนผลตอบแทนแบบพึ่งพาความเป็นใหญ่และดัชนีความหลากหลาย โดยใช้การจัดอันดับและฟังก์ชันการแบ่งปัน (sharing functions)
  • วิเคราะห์ขั้นตอนการทำงานและความซับซ้อนในการคำนวณของอัลกอริธึมการจัดลำดับแบบไม่เป็นใหญ่พื้นฐาน รวดเร็ว และมีประสิทธิภาพ
  • สรุปกระบวนการทำงานของอัลกอริธึมพันธุกรรมการจัดลำดับแบบไม่เป็นใหญ่ รุ่นที่สอง (NSGA-II)

🔹 บทเรียนที่ 8: ตัวชี้วัดประสิทธิภาพและวิธีการเลือกขั้นสูง

ภาพรวม: บทเรียนนี้ครอบคลุมกลไกของอัลกอริธึม NSGA-II รวมถึงระยะห่างความหนาแน่น (crowding distance) และการเลือกสภาพแวดล้อม พร้อมทั้งสำรวจตัวชี้วัดประสิทธิภาพการประเมิน ขยายไปสู่วิธีการเลือกขั้นสูงผ่านอัลกอริธึมการประมาณการการแจกแจง (Estimation of Distribution Algorithms: EDAs) และการจำลองรูปแบบสม่ำเสมอในปัญหาต่อเนื่อง

ผลลัพธ์การเรียนรู้:

  • คำนวณและประยุกต์ใช้ระยะห่างความหนาแน่น (crowding distance) และการเลือกตามลำดับ (rank-based selection) ภายใต้กรอบงานของ NSGA-II
  • ประเมินประสิทธิภาพของตัวชี้วัดประสิทธิภาพต่างๆ เช่น GD, IGD, Hyper-volume และ Spacing
  • แยกแยะระหว่างตัวดำเนินการพันธุกรรมแบบดั้งเดิมกับแนวทางแบบโมเดล เช่น อัลกอริธึมการประมาณการการแจกแจง (EDAs)
  • อธิบายวิธีการจำลองรูปแบบสม่ำเสมอในเซตแพเรโต โดยใช้การแมปพื้นที่แฝง (latent space mapping) และการวิเคราะห์เชิงมิติย่อย (local PCA)

🔹 บทเรียนที่ 9: อัลกอริธึมการประมาณการการแจกแจงและเครือข่ายประสาทเทียม

ภาพรวม: เนื้อหานี้สำรวจกลยุทธ์เพื่อเอาชนะการสูญเสียแรงกดดันการเลือกในปัญหาการปรับแต่งมิติสูง และจัดหมวดหมู่แบบครบถ้วนของโมเดลการเรียนรู้ของเครือข่าย รายละเอียดพื้นฐานทางคณิตศาสตร์ของการฝึกอบรมเครือข่ายประสาทเทียม รวมถึงการถ่ายโอนแบบย้อนกลับ (backpropagation) และรูปแบบต่างๆ ของการลดอนุพันธ์

ผลลัพธ์การเรียนรู้:

  • ระบุและนำไปใช้แนวทางแก้ไขการสูญเสียแรงกดดันการเลือกในปัญหาการปรับแต่งหลายเป้าหมาย (Many-Objective Optimization)
  • จัดประเภทโมเดลการเรียนรู้ของเครือข่ายเป็นประเภทสร้างสรรค์ (Generative) และจำแนกประเภท (Discriminative) และแยกแยะแนวทางการเรียนรู้ต่างๆ
  • อธิบายพื้นฐานทางคณิตศาสตร์ของการฝึกอบรมเครือข่ายประสาทเทียม รวมถึงกฎเดลต้า (Delta rule) และการถ่ายโอนแบบย้อนกลับ
  • ประเมินรูปแบบต่างๆ ของการลดอนุพันธ์และกลยุทธ์ที่ใช้เพื่อลดปัญหาการตั้งค่าการเรียนรู้

🔹 บทเรียนที่ 10: การเลือกโมเดลและการปรับโครงสร้างวิวัฒนาการ

ภาพรวม: บทเรียนนี้สำรวจความท้าทายในการฝึกอบรมเครือข่ายประสาทเทียมลึก โดยเฉพาะปัญหาอนุพันธ์หาย และการเลือกโมเดลเพื่อป้องกันการเกิดการเรียนรู้มากเกินไป (overfitting) รายละเอียดวิธีการตรวจสอบ กลยุทธ์การเรียนรู้แบบรวม (ensemble learning) และการผสานการคำนวณวิวัฒนาการเข้ากับการเรียนรู้แบบท้องถิ่น

ผลลัพธ์การเรียนรู้:

  • ระบุและบรรเทาปัญหาการเรียนรู้มากเกินไปโดยใช้การสมดุลระหว่างความเอนเอียงและค่าเบี่ยงเบน (bias-variance trade-offs) วิธีหยุดเร็ว (early stopping) และเทคนิคการตรวจสอบแบบข้าม (cross-validation)
  • แยกแยะวิธีการรวมแบบ Bagging, Boosting และ Stacking
  • เปรียบเทียบกลไกการถ่ายทอดลักษณะทางพันธุกรรมแบบลาเมอร์ก (Lamarckian) และแบบบาลด์วิน (Baldwinian) ในกรอบการเรียนรู้วิวัฒนาการ
  • ออกแบบกรอบการปรับโครงสร้างสำหรับเมทริกซ์เชื่อมโยงและสถาปัตยกรรมของเครือข่ายประสาทเทียม

🔹 บทเรียนที่ 11: การเรียนรู้ของเครือข่ายหลายเป้าหมายและการปรับแต่งตามข้อมูล

ภาพรวม: บทเรียนนี้สำรวจการผสานอัลกอริธึมวิวัฒนาการหลายเป้าหมายเข้ากับการเรียนรู้ของเครือข่ายและการปรับแต่งตามข้อมูล รายละเอียดวิธีการใช้แนวทางแพเรโตเพื่อปรับแต่งโครงสร้างเครือข่ายประสาทเทียมและการจัดกลุ่ม พร้อมทั้งแนะนำกลยุทธ์การจัดการโมเดลช่วยแทน (surrogate-assisted) สำหรับการประเมินที่ใช้เวลาสูง

ผลลัพธ์การเรียนรู้:

  • วิเคราะห์การแลกเปลี่ยนระหว่างความแม่นยำของโมเดลกับความซับซ้อนโดยใช้การปรับแต่งแบบแพเรโต
  • ประเมินกรอบการปรับแต่งหลายเป้าหมายสำหรับการจัดกลุ่มและการดึงลักษณะสำคัญ
  • กำหนดกลยุทธ์การจัดการโมเดลที่เหมาะสม (แบบบุคคล, แบบประชากร หรือ แบบรุ่น) สำหรับการปรับแต่งแบบช่วยแทน

🔹 บทเรียนที่ 12: การจัดการโมเดลเบื้องต้นและการปรับแต่งแบบเบย์เซียน

ภาพรวม: บทเรียนนี้สำรวจการผสานโมเดลระดับสูง (ซูร์รอจ) เข้ากับการปรับแต่งวิวัฒนาการตามข้อมูลเพื่อจัดการกับการประเมินที่ใช้พลังงานสูง รายละเอียดกลยุทธ์การจัดการโมเดล และลงลึกในเทคนิคการปรับแต่งแบบเบย์เซียน (Bayesian Optimization: BO) โดยใช้กระบวนการปกติแบบเกาส์ (Gaussian Processes)

ผลลัพธ์การเรียนรู้:

  • กำหนดความหมายของการจัดการโมเดลและอธิบายเหตุผลที่จำเป็นต้องทำเพื่อป้องกันการตกอยู่ในจุดต่ำสุดเทียม
  • เปรียบเทียบกลยุทธ์การจัดการโมเดลแบบบุคคล แบบรุ่น และแบบประชากร
  • ดำเนินการตามขั้นตอนการปรับแต่งแบบเบย์เซียน ตั้งแต่การเลือกความน่าจะเป็นเริ่มต้น (priors) ไปจนถึงการใช้ฟังก์ชันการเลือก (acquisition functions)
  • วิเคราะห์กรอบทางคณิตศาสตร์ของกระบวนการปกติแบบเกาส์และเงื่อนไขของฟังก์ชันเคอร์เนล
  • ระบุความท้าทายด้านการคำนวณใน BO และเสนอแนวทางบรรเทา เช่น การลดมิติ

🔹 บทเรียนที่ 13: การปรับแต่งหลายเป้าหมายแบบช่วยแทนและถ่ายโอนความรู้

ภาพรวม: บทเรียนนี้สำรวจกลยุทธ์ขั้นสูงสำหรับการปรับแต่งหลายเป้าหมายแบบช่วยแทน (SA-MOO) โดยเน้นที่ RVEA และเวอร์ชันที่ช่วยด้วยการคาดการณ์แบบคริกิง (Kriging-assisted) รายละเอียดวิธีการจัดการกับปัญหาหลายเป้าหมายที่มีต้นทุนสูงแบบไม่สมมาตร (HE-MOPs) และแนะนำกรอบถ่ายโอนความรู้สามแบบหลัก

ผลลัพธ์การเรียนรู้:

  • วิเคราะห์กลไกของอัลกอริธึมวิวัฒนาการที่นำโดยเวกเตอร์อ้างอิง และการใช้ระยะทางที่ลงโทษมุม (Angle Penalized Distance)
  • ประเมินกลยุทธ์การจัดการโมเดลช่วยแทน รวมถึงการใช้ชุดโมเดล (ensembles) และโมเดลคริกิง
  • แยกแยะวิธีการถ่ายโอนความรู้แบบอิงพารามิเตอร์ แบบอิงตัวอย่าง และแบบไฮบริด
  • ประยุกต์หลักการปรับแต่งหลายเป้าหมายกับกรณีศึกษาจริงในระบบวิศวกรรม

🔹 บทเรียนที่ 14: การเรียนรู้ของเครือข่ายวิวัฒนาการและการค้นหาสถาปัตยกรรมประสาทเทียม

ภาพรวม: บทเรียนนี้สำรวจจุดตัดระหว่างการคำนวณวิวัฒนาการและการเรียนรู้ของเครือข่าย โดยเน้นที่การเรียนรู้อัตโนมัติ (AutoML) และการค้นหาสถาปัตยกรรมประสาทเทียม (Neural Architecture Search: NAS) ครอบคลุมการปรับแต่งพารามิเตอร์อัตโนมัติ และการคัดเลือกควบคุมระบบและรูปร่างร่างกายในหุ่นยนต์ที่ได้แรงบันดาลใจจากธรรมชาติ

ผลลัพธ์การเรียนรู้:

  • กำหนดขั้นตอนหลัก 5 ขั้นตอนของอัลกอริธึมการค้นหาสถาปัตยกรรมประสาทเทียมแบบวิวัฒนาการ (E-NAS)
  • แยกแยะพื้นที่ค้นหาแบบมหภาค (Macro) และแบบย่อย (Micro) และบทบาทของ “ซูเปอร์เน็ต” (Supernets) ในการลดต้นทุนการคำนวณ
  • ระบุกลยุทธ์เพื่อเพิ่มประสิทธิภาพการคำนวณใน NAS รวมถึงการสืบทอดโหนดและการใช้โมเดลช่วยแทน
  • อธิบายหลักการของการคัดเลือกแบบสมอง-ร่างกายร่วมกัน (brain-body co-evolution) และบทบาทของเครือข่ายควบคุมยีน (Gene Regulatory Networks) ในการพัฒนา

🔹 บทเรียนที่ 15: การเรียนรู้ของเครือข่ายที่รักษาความเป็นส่วนตัวและระบบเรียนรู้แบบกระจายศูนย์

ภาพรวม: บทเรียนนี้สำรวจการเปลี่ยนจากแนวทางการเรียนรู้แบบศูนย์กลางบนคลาวด์ไปสู่เฟรมเวิร์กที่กระจายและรักษาความเป็นส่วนตัว รายละเอียดกลไกของระบบเรียนรู้แบบกระจายศูนย์ (Federated Learning) และวิเคราะห์โซลูชันทางเทคนิคเพื่อเพิ่มประสิทธิภาพการสื่อสารและความเป็นส่วนตัว เช่น การเข้ารหัสแบบความแตกต่าง (Differential Privacy) และการเข้ารหัสแบบโฮโมมอร์ฟิก (Homomorphic Encryption)

ผลลัพธ์การเรียนรู้:

  • แยกแยะระหว่างการเรียนรู้แบบศูนย์กลางบนคลาวด์กับการเรียนรู้แบบกระจายบนอุปกรณ์
  • อธิบายกลไกหลักของเทคนิคการคำนวณที่รักษาความเป็นส่วนตัว ได้แก่ การเข้ารหัสแบบความแตกต่าง (Differential Privacy) และการเข้ารหัสแบบโฮโมมอร์ฟิก (Homomorphic Encryption)
  • วิเคราะห์ลำดับการทำงานของระบบเรียนรู้แบบกระจายแนวนอน (Horizontal Federated Learning) และแนวตั้ง (Vertical Federated Learning) และความท้าทายจากการจัดการข้อมูลที่ไม่สมดุล (Non-IID data)
  • ประเมินกลยุทธ์เพื่อเพิ่มประสิทธิภาพการสื่อสาร เช่น การอัปเดตแบบไม่ซิงโครนัสระดับชั้น (Layerwise Asynchronous Updating)
  • อธิบายการติดตั้งอัลกอริธึมวิวัฒนาการแบบเบย์เซียนที่ปลอดภัยในระบบเรียนรู้แบบกระจาย