การปรับแต่งอัจฉริยะ
หลักสูตรขั้นสูงที่ครอบคลุมทฤษฎีและประยุกต์ใช้เทคนิคการปรับแต่งอัจฉริยะ ตั้งแต่วิธีการเชิงเส้นแบบดั้งเดิมไปจนถึงเทคนิคเมตาฮิวริสติกสมัยใหม่ การปรับแต่งหลายวัตถุประสงค์ โมเดลที่ช่วยแทน (surrogate-assisted) และการประยุกต์ใช้การเรียนรู้ของเครื่องแบบเฟดราเลท
ภาพรวมคอร์สเรียน
📚 สรุปเนื้อหา
หลักสูตรขั้นสูงที่ครอบคลุมทฤษฎีและประยุกต์ใช้เทคนิคการปรับแต่งอัจฉริยะ ตั้งแต่วิธีการเชิงอนุพันธ์แบบดั้งเดิม ไปจนถึงสมัยใหม่ เช่น วิธีการผสมผสานแบบวิวัฒนาการ (meta-heuristics) การปรับแต่งหลายเป้าหมาย โมเดลช่วยแทน (surrogate-assisted) และการประยุกต์ใช้การเรียนรู้ของเครือข่ายกระจายศูนย์ (federated machine learning)
เรียนรู้วิธีการผสมผสานแบบวิวัฒนาการขั้นสูงและวิธีการปรับแต่งอัจฉริยะตามข้อมูล เพื่อแก้ปัญหาในระบบวิศวกรรมที่ซับซ้อน
🎯 เป้าหมายการเรียนรู้
- เข้าใจรากฐานทางคณิตศาสตร์และหมวดหมู่ของปัญหาการปรับแต่ง ตั้งแต่แบบต่อเนื่องและโค้งเว้า ไปจนถึงกรอบการจัดการที่ซับซ้อนแบบเชิงคอมบิเนชัน
- พัฒนาทักษะในการนำวิธีการคำนวณวิวัฒนาการ การปรับแต่งหลายเป้าหมาย และโมเดลช่วยแทนมาประยุกต์ใช้กับปัญหาวิศวกรรมและปัญญาประดิษฐ์จริง
🔹 บทเรียนที่ 1: พื้นฐานการปรับแต่ง (ตอนที่ 1)
ภาพรวม: บทเรียนนี้แนะนำโครงสร้างพื้นฐานทางคณิตศาสตร์และระบบจำแนกประเภทของการปรับแต่ง โดยเน้นการระบุตัวแปรตัดสินใจ ฟังก์ชันเป้าหมาย และข้อจำกัด สำรวจการจำแนกประเภทของปัญหาการปรับแต่ง และความท้าทายทางปฏิบัติในการตั้งรูปปัญหาในระบบที่ซับซ้อน เช่น การออกแบบวิศวกรรมและการเรียนรู้ของเครือข่าย
ผลลัพธ์การเรียนรู้:
- กำหนดองค์ประกอบทางคณิตศาสตร์ของปัญหาการปรับแต่ง ได้แก่ ตัวแปรตัดสินใจ ฟังก์ชันเป้าหมาย และข้อจำกัด
- จัดกลุ่มปัญหาการปรับแต่งโดยใช้ระบบจำแนกประเภทหลายมิติ ตามประเภทตัวแปร ข้อจำกัด และเป้าหมาย
- แยกแยะระหว่างจุดต่ำสุด/สูงสุดเฉพาะเจาะจง (local optimum) กับจุดต่ำสุด/สูงสุดสูงสุด (global optimum) และระบุคุณสมบัติเฉพาะของปัญหาการปรับแต่งโค้งเว้า
- แปลงสถานการณ์จริงให้อยู่ในกรอบการปรับแต่งอย่างเป็นทางการ
🔹 บทเรียนที่ 2: วิธีนิวตัน-ราฟสันและเมธอดการลดอนุพันธ์
ภาพรวม: บทเรียนนี้ครอบคลุมการเปลี่ยนจากวิธีการปรับแต่งเชิงวิเคราะห์ไปสู่วิธีการเชิงตัวเลขแบบวนซ้ำเพื่อหาค่าต่ำสุดของฟังก์ชันไม่เป็นเชิงเส้น รายละเอียดกลไก ข้อดี และข้อจำกัดของวิธีนิวตัน-ราฟสัน วิธีประมาณค่าควอซี-นิวตัน (Quasi-Newton) และวิธีการลดอนุพันธ์ต่างๆ เช่น RPROP
ผลลัพธ์การเรียนรู้:
- ระบุจุดสูงสุดหรือต่ำสุดเฉพาะเจาะจงโดยการหาจุดที่อนุพันธ์ของฟังก์ชันเท่ากับศูนย์
- เปรียบเทียบประสิทธิภาพและความต้องการของวิธีนิวตัน-ราฟสันกับการลดอนุพันธ์ (Gradient Descent) ในพื้นที่หนึ่งตัวแปรและหลายตัวแปร
- อธิบายปัญหา "อนุพันธ์หาย" (vanishing gradient) และ "อนุพันธ์ระเบิด" (exploding gradient) และผลกระทบต่อการเบี่ยงเบนของการปรับแต่ง
- อธิบายวัตถุประสงค์ของวิธีควอซี-นิวตันและ RPROP ในการลดภาระการคำนวณและเพิ่มความมั่นคงของการปรับแต่ง
🔹 บทเรียนที่ 3: อัลกอริธึมพันธุกรรมและวิธีจัดการข้อจำกัด
ภาพรวม: บทเรียนนี้สำรวจเทคนิคการค้นหาเชิงสุ่มแบบประชากร (population-based stochastic search heuristics) ที่รู้จักกันในชื่ออัลกอริธึมวิวัฒนาการ (Evolutionary Algorithms: EAs) รายละเอียดพื้นฐานทางชีววิทยาของอัลกอริธึมพันธุกรรม (GAs) รูปแบบการแทนค่าต่างๆ กลไกการเลือก แลกเปลี่ยนพันธุกรรม และการกลายพันธุ์ พร้อมทั้งการจัดการกับข้อจำกัดเฉพาะด้าน
ผลลัพธ์การเรียนรู้:
- เปรียบเทียบวิธีการลดอนุพันธ์กับเทคนิคการค้นหาแบบประชากรเพื่อระบุว่าเมื่อใดควรใช้ EAs
- อธิบายการจับคู่ระหว่างกระบวนการวิวัฒนาการทางชีววิทยากับศัพท์ทางคณิตศาสตร์ของการปรับแต่ง
- นำไปใช้ตัวดำเนินการอัลกอริธึมพันธุกรรม เช่น การแลกเปลี่ยนแบบหลายจุด (n-point crossover), การสลับบิต (bit-flip mutation), และการเลือกแบบทัวร์นาเมนต์ (tournament selection)
- ใช้วิธีการจัดการข้อจำกัด เช่น ฟังก์ชันผลตอบแทนที่ลงโทษ (penalized fitness functions) และวิธีการซ่อมแซมที่อาศัยอนุพันธ์
🔹 บทเรียนที่ 4: กลยุทธ์วิวัฒนาการและโปรแกรมพันธุกรรม
ภาพรวม: บทเรียนนี้ครอบคลุมเทคนิคการคำนวณวิวัฒนาการขั้นสูง ตั้งแต่การใช้อัลกอริธึมพันธุกรรมแบบตัวเลขจริง (Real-Coded Genetic Algorithms) สู่กลยุทธ์วิวัฒนาการ (Evolution Strategies: ES) และโปรแกรมพันธุกรรม (Genetic Programming: GP) รายละเอียดตัวดำเนินการเฉพาะ เช่น การแลกเปลี่ยนแบบจำลองไบนารี (Simulated Binary Crossover) การปรับขนาดก้าว (step-size adaptation) ใน ES และการแทนค่าแบบต้นไม้เพื่อพัฒนาฟังก์ชันคณิตศาสตร์
ผลลัพธ์การเรียนรู้:
- วิเคราะห์กลไกของอัลกอริธึมพันธุกรรมแบบตัวเลขจริง โดยเฉพาะการแลกเปลี่ยนแบบจำลองไบนารี (Simulated Binary Crossover) และการกลายพันธุ์พหุนาม (Polynomial Mutation)
- ประเมินรูปแบบของกลยุทธ์วิวัฒนาการ ได้แก่ (1+1)-ES, (\mu, \lambda) และ (\mu + \lambda) วิธีการเลือก
- สร้างโมเดลโปรแกรมพันธุกรรมโดยใช้โครงสร้างแบบต้นไม้ รวมถึงชุดฟังก์ชันพื้นฐานและชุดจุดสิ้นสุด
- กำหนดวิธีเริ่มต้นที่เหมาะสมสำหรับ GP เช่น วิธี Full, Grow, และ Ramped-half-and-half
🔹 บทเรียนที่ 5: การปรับแต่งแบบเชิงต่าง (Differential Evolution) และการเคลื่อนที่ฝูงอนุภาค (Particle Swarm Optimization)
ภาพรวม: บทเรียนนี้ครอบคลุมเทคนิคการปรับแต่งแบบเมตาฮีริสติกขั้นสูง โดยเน้นการปรับแต่งแบบเชิงต่าง (DE) และการเคลื่อนที่ฝูงอนุภาค (PSO) รายละเอียดพื้นฐานทางคณิตศาสตร์ของการเปลี่ยนแปลงแบบเวกเตอร์ใน DE และพฤติกรรมทางสังคมของสัตว์ที่กระตุ้นการเคลื่อนที่ของอนุภาคใน PSO
ผลลัพธ์การเรียนรู้:
- วิเคราะห์วิธีการจัดการข้อจำกัด เช่น ฟังก์ชันผลตอบแทนที่ลงโทษ วิธีซ่อมแซม และการจัดอันดับแบบสุ่ม
- วางรูปแบบขั้นตอนการเปลี่ยนแปลง แลกเปลี่ยน และเลือกในอัลกอริธึมการปรับแต่งแบบเชิงต่าง (DE)
- อธิบายกลไกของการปรับแต่งแบบพื้นฐาน (Canonical Particle Swarm Optimization) โดยเฉพาะบทบาทของค่าต่ำสุดส่วนตัว (personal best) ค่าต่ำสุดรวม (global best) และน้ำหนักความเฉื่อย (inertia weight)
- ประเมินรูปแบบต่างๆ ของ PSO เช่น Local PSO, PSO with Constriction และอัลกอริธึมฝูงอนุภาคที่พึ่งพาการแข่งขัน (Competition Based Swarm Algorithms: CSO)
🔹 บทเรียนที่ 6: การปรับแต่งหลายเป้าหมาย: แนวทางการแบ่งแยก
ภาพรวม: บทเรียนนี้สำรวจแนวคิดพื้นฐานของความเหมาะสมแบบแพเรโต (Pareto optimality) และความเป็นใหญ่ (dominance) วิธีการรวมแบบดั้งเดิม และอัลกอริธึมวิวัฒนาการขั้นสูงที่ใช้การแบ่งแยก รายละเอียดวิธีการแปลงปัญหาหลายเป้าหมายให้เป็นปัญหาเป้าหมายเดียวโดยใช้วิธีเช่น MOEA/D
ผลลัพธ์การเรียนรู้:
- กำหนดและระบุความเป็นใหญ่แบบแพเรโต (Pareto Dominance) เซตของค่าที่เหมาะสมแบบแพเรโต (Pareto Optimal Sets) และพื้นผิวแพเรโต (Pareto Fronts) ในพื้นที่ตัดสินใจและพื้นที่เป้าหมาย
- เปรียบเทียบและแยกแยะแนวทางการปรับแต่งหลายเป้าหมายแบบ A priori, A posteriori และ Interactive
- อธิบายกลไกการแบ่งแยก (Decomposition) ในการปรับแต่งหลายเป้าหมาย (MOO) เพื่อแปลงปัญหาหลายเป้าหมายให้กลายเป็นปัญหาเป้าหมายเดียว
- วิเคราะห์ข้อได้เปรียบของวิธีการรวมน้ำหนักแบบไดนามิก (Dynamic Weighted Aggregation: DWA) และ MOEA/D ในการจัดการกับพื้นผิวแพเรโตที่โค้งเว้าและโค้งกลับ
🔹 บทเรียนที่ 7: การปรับแต่งหลายเป้าหมาย: แนวทางการพึ่งพาความเป็นใหญ่
ภาพรวม: บทเรียนนี้เน้นเทคนิคขั้นสูงสำหรับอัลกอริธึมวิวัฒนาการหลายเป้าหมาย (MOEAs) โดยอธิบายกระบวนการของอัลกอริธึมการปรับแต่งหลายเป้าหมายที่นำโดยเวกเตอร์อ้างอิง (RVEA) และการมอบหมายคะแนนผลตอบแทนแบบพึ่งพาความเป็นใหญ่ สำรวจการรักษาความหลากหลายผ่านการแยกกลุ่ม (niching) และวิเคราะห์เปรียบเทียบอัลกอริธึมการจัดลำดับแบบไม่เป็นใหญ่ เช่น NSGA-II
ผลลัพธ์การเรียนรู้:
- นำกระบวนการ RVEA มาใช้ รวมถึงการสร้างเวกเตอร์อ้างอิงและการคำนวณระยะทางที่ลงโทษมุม (Angle-Penalized Distance: APD)
- คำนวณคะแนนผลตอบแทนแบบพึ่งพาความเป็นใหญ่และดัชนีความหลากหลาย โดยใช้การจัดอันดับและฟังก์ชันการแบ่งปัน (sharing functions)
- วิเคราะห์ขั้นตอนการทำงานและความซับซ้อนในการคำนวณของอัลกอริธึมการจัดลำดับแบบไม่เป็นใหญ่พื้นฐาน รวดเร็ว และมีประสิทธิภาพ
- สรุปกระบวนการทำงานของอัลกอริธึมพันธุกรรมการจัดลำดับแบบไม่เป็นใหญ่ รุ่นที่สอง (NSGA-II)
🔹 บทเรียนที่ 8: ตัวชี้วัดประสิทธิภาพและวิธีการเลือกขั้นสูง
ภาพรวม: บทเรียนนี้ครอบคลุมกลไกของอัลกอริธึม NSGA-II รวมถึงระยะห่างความหนาแน่น (crowding distance) และการเลือกสภาพแวดล้อม พร้อมทั้งสำรวจตัวชี้วัดประสิทธิภาพการประเมิน ขยายไปสู่วิธีการเลือกขั้นสูงผ่านอัลกอริธึมการประมาณการการแจกแจง (Estimation of Distribution Algorithms: EDAs) และการจำลองรูปแบบสม่ำเสมอในปัญหาต่อเนื่อง
ผลลัพธ์การเรียนรู้:
- คำนวณและประยุกต์ใช้ระยะห่างความหนาแน่น (crowding distance) และการเลือกตามลำดับ (rank-based selection) ภายใต้กรอบงานของ NSGA-II
- ประเมินประสิทธิภาพของตัวชี้วัดประสิทธิภาพต่างๆ เช่น GD, IGD, Hyper-volume และ Spacing
- แยกแยะระหว่างตัวดำเนินการพันธุกรรมแบบดั้งเดิมกับแนวทางแบบโมเดล เช่น อัลกอริธึมการประมาณการการแจกแจง (EDAs)
- อธิบายวิธีการจำลองรูปแบบสม่ำเสมอในเซตแพเรโต โดยใช้การแมปพื้นที่แฝง (latent space mapping) และการวิเคราะห์เชิงมิติย่อย (local PCA)
🔹 บทเรียนที่ 9: อัลกอริธึมการประมาณการการแจกแจงและเครือข่ายประสาทเทียม
ภาพรวม: เนื้อหานี้สำรวจกลยุทธ์เพื่อเอาชนะการสูญเสียแรงกดดันการเลือกในปัญหาการปรับแต่งมิติสูง และจัดหมวดหมู่แบบครบถ้วนของโมเดลการเรียนรู้ของเครือข่าย รายละเอียดพื้นฐานทางคณิตศาสตร์ของการฝึกอบรมเครือข่ายประสาทเทียม รวมถึงการถ่ายโอนแบบย้อนกลับ (backpropagation) และรูปแบบต่างๆ ของการลดอนุพันธ์
ผลลัพธ์การเรียนรู้:
- ระบุและนำไปใช้แนวทางแก้ไขการสูญเสียแรงกดดันการเลือกในปัญหาการปรับแต่งหลายเป้าหมาย (Many-Objective Optimization)
- จัดประเภทโมเดลการเรียนรู้ของเครือข่ายเป็นประเภทสร้างสรรค์ (Generative) และจำแนกประเภท (Discriminative) และแยกแยะแนวทางการเรียนรู้ต่างๆ
- อธิบายพื้นฐานทางคณิตศาสตร์ของการฝึกอบรมเครือข่ายประสาทเทียม รวมถึงกฎเดลต้า (Delta rule) และการถ่ายโอนแบบย้อนกลับ
- ประเมินรูปแบบต่างๆ ของการลดอนุพันธ์และกลยุทธ์ที่ใช้เพื่อลดปัญหาการตั้งค่าการเรียนรู้
🔹 บทเรียนที่ 10: การเลือกโมเดลและการปรับโครงสร้างวิวัฒนาการ
ภาพรวม: บทเรียนนี้สำรวจความท้าทายในการฝึกอบรมเครือข่ายประสาทเทียมลึก โดยเฉพาะปัญหาอนุพันธ์หาย และการเลือกโมเดลเพื่อป้องกันการเกิดการเรียนรู้มากเกินไป (overfitting) รายละเอียดวิธีการตรวจสอบ กลยุทธ์การเรียนรู้แบบรวม (ensemble learning) และการผสานการคำนวณวิวัฒนาการเข้ากับการเรียนรู้แบบท้องถิ่น
ผลลัพธ์การเรียนรู้:
- ระบุและบรรเทาปัญหาการเรียนรู้มากเกินไปโดยใช้การสมดุลระหว่างความเอนเอียงและค่าเบี่ยงเบน (bias-variance trade-offs) วิธีหยุดเร็ว (early stopping) และเทคนิคการตรวจสอบแบบข้าม (cross-validation)
- แยกแยะวิธีการรวมแบบ Bagging, Boosting และ Stacking
- เปรียบเทียบกลไกการถ่ายทอดลักษณะทางพันธุกรรมแบบลาเมอร์ก (Lamarckian) และแบบบาลด์วิน (Baldwinian) ในกรอบการเรียนรู้วิวัฒนาการ
- ออกแบบกรอบการปรับโครงสร้างสำหรับเมทริกซ์เชื่อมโยงและสถาปัตยกรรมของเครือข่ายประสาทเทียม
🔹 บทเรียนที่ 11: การเรียนรู้ของเครือข่ายหลายเป้าหมายและการปรับแต่งตามข้อมูล
ภาพรวม: บทเรียนนี้สำรวจการผสานอัลกอริธึมวิวัฒนาการหลายเป้าหมายเข้ากับการเรียนรู้ของเครือข่ายและการปรับแต่งตามข้อมูล รายละเอียดวิธีการใช้แนวทางแพเรโตเพื่อปรับแต่งโครงสร้างเครือข่ายประสาทเทียมและการจัดกลุ่ม พร้อมทั้งแนะนำกลยุทธ์การจัดการโมเดลช่วยแทน (surrogate-assisted) สำหรับการประเมินที่ใช้เวลาสูง
ผลลัพธ์การเรียนรู้:
- วิเคราะห์การแลกเปลี่ยนระหว่างความแม่นยำของโมเดลกับความซับซ้อนโดยใช้การปรับแต่งแบบแพเรโต
- ประเมินกรอบการปรับแต่งหลายเป้าหมายสำหรับการจัดกลุ่มและการดึงลักษณะสำคัญ
- กำหนดกลยุทธ์การจัดการโมเดลที่เหมาะสม (แบบบุคคล, แบบประชากร หรือ แบบรุ่น) สำหรับการปรับแต่งแบบช่วยแทน
🔹 บทเรียนที่ 12: การจัดการโมเดลเบื้องต้นและการปรับแต่งแบบเบย์เซียน
ภาพรวม: บทเรียนนี้สำรวจการผสานโมเดลระดับสูง (ซูร์รอจ) เข้ากับการปรับแต่งวิวัฒนาการตามข้อมูลเพื่อจัดการกับการประเมินที่ใช้พลังงานสูง รายละเอียดกลยุทธ์การจัดการโมเดล และลงลึกในเทคนิคการปรับแต่งแบบเบย์เซียน (Bayesian Optimization: BO) โดยใช้กระบวนการปกติแบบเกาส์ (Gaussian Processes)
ผลลัพธ์การเรียนรู้:
- กำหนดความหมายของการจัดการโมเดลและอธิบายเหตุผลที่จำเป็นต้องทำเพื่อป้องกันการตกอยู่ในจุดต่ำสุดเทียม
- เปรียบเทียบกลยุทธ์การจัดการโมเดลแบบบุคคล แบบรุ่น และแบบประชากร
- ดำเนินการตามขั้นตอนการปรับแต่งแบบเบย์เซียน ตั้งแต่การเลือกความน่าจะเป็นเริ่มต้น (priors) ไปจนถึงการใช้ฟังก์ชันการเลือก (acquisition functions)
- วิเคราะห์กรอบทางคณิตศาสตร์ของกระบวนการปกติแบบเกาส์และเงื่อนไขของฟังก์ชันเคอร์เนล
- ระบุความท้าทายด้านการคำนวณใน BO และเสนอแนวทางบรรเทา เช่น การลดมิติ
🔹 บทเรียนที่ 13: การปรับแต่งหลายเป้าหมายแบบช่วยแทนและถ่ายโอนความรู้
ภาพรวม: บทเรียนนี้สำรวจกลยุทธ์ขั้นสูงสำหรับการปรับแต่งหลายเป้าหมายแบบช่วยแทน (SA-MOO) โดยเน้นที่ RVEA และเวอร์ชันที่ช่วยด้วยการคาดการณ์แบบคริกิง (Kriging-assisted) รายละเอียดวิธีการจัดการกับปัญหาหลายเป้าหมายที่มีต้นทุนสูงแบบไม่สมมาตร (HE-MOPs) และแนะนำกรอบถ่ายโอนความรู้สามแบบหลัก
ผลลัพธ์การเรียนรู้:
- วิเคราะห์กลไกของอัลกอริธึมวิวัฒนาการที่นำโดยเวกเตอร์อ้างอิง และการใช้ระยะทางที่ลงโทษมุม (Angle Penalized Distance)
- ประเมินกลยุทธ์การจัดการโมเดลช่วยแทน รวมถึงการใช้ชุดโมเดล (ensembles) และโมเดลคริกิง
- แยกแยะวิธีการถ่ายโอนความรู้แบบอิงพารามิเตอร์ แบบอิงตัวอย่าง และแบบไฮบริด
- ประยุกต์หลักการปรับแต่งหลายเป้าหมายกับกรณีศึกษาจริงในระบบวิศวกรรม
🔹 บทเรียนที่ 14: การเรียนรู้ของเครือข่ายวิวัฒนาการและการค้นหาสถาปัตยกรรมประสาทเทียม
ภาพรวม: บทเรียนนี้สำรวจจุดตัดระหว่างการคำนวณวิวัฒนาการและการเรียนรู้ของเครือข่าย โดยเน้นที่การเรียนรู้อัตโนมัติ (AutoML) และการค้นหาสถาปัตยกรรมประสาทเทียม (Neural Architecture Search: NAS) ครอบคลุมการปรับแต่งพารามิเตอร์อัตโนมัติ และการคัดเลือกควบคุมระบบและรูปร่างร่างกายในหุ่นยนต์ที่ได้แรงบันดาลใจจากธรรมชาติ
ผลลัพธ์การเรียนรู้:
- กำหนดขั้นตอนหลัก 5 ขั้นตอนของอัลกอริธึมการค้นหาสถาปัตยกรรมประสาทเทียมแบบวิวัฒนาการ (E-NAS)
- แยกแยะพื้นที่ค้นหาแบบมหภาค (Macro) และแบบย่อย (Micro) และบทบาทของ “ซูเปอร์เน็ต” (Supernets) ในการลดต้นทุนการคำนวณ
- ระบุกลยุทธ์เพื่อเพิ่มประสิทธิภาพการคำนวณใน NAS รวมถึงการสืบทอดโหนดและการใช้โมเดลช่วยแทน
- อธิบายหลักการของการคัดเลือกแบบสมอง-ร่างกายร่วมกัน (brain-body co-evolution) และบทบาทของเครือข่ายควบคุมยีน (Gene Regulatory Networks) ในการพัฒนา
🔹 บทเรียนที่ 15: การเรียนรู้ของเครือข่ายที่รักษาความเป็นส่วนตัวและระบบเรียนรู้แบบกระจายศูนย์
ภาพรวม: บทเรียนนี้สำรวจการเปลี่ยนจากแนวทางการเรียนรู้แบบศูนย์กลางบนคลาวด์ไปสู่เฟรมเวิร์กที่กระจายและรักษาความเป็นส่วนตัว รายละเอียดกลไกของระบบเรียนรู้แบบกระจายศูนย์ (Federated Learning) และวิเคราะห์โซลูชันทางเทคนิคเพื่อเพิ่มประสิทธิภาพการสื่อสารและความเป็นส่วนตัว เช่น การเข้ารหัสแบบความแตกต่าง (Differential Privacy) และการเข้ารหัสแบบโฮโมมอร์ฟิก (Homomorphic Encryption)
ผลลัพธ์การเรียนรู้:
- แยกแยะระหว่างการเรียนรู้แบบศูนย์กลางบนคลาวด์กับการเรียนรู้แบบกระจายบนอุปกรณ์
- อธิบายกลไกหลักของเทคนิคการคำนวณที่รักษาความเป็นส่วนตัว ได้แก่ การเข้ารหัสแบบความแตกต่าง (Differential Privacy) และการเข้ารหัสแบบโฮโมมอร์ฟิก (Homomorphic Encryption)
- วิเคราะห์ลำดับการทำงานของระบบเรียนรู้แบบกระจายแนวนอน (Horizontal Federated Learning) และแนวตั้ง (Vertical Federated Learning) และความท้าทายจากการจัดการข้อมูลที่ไม่สมดุล (Non-IID data)
- ประเมินกลยุทธ์เพื่อเพิ่มประสิทธิภาพการสื่อสาร เช่น การอัปเดตแบบไม่ซิงโครนัสระดับชั้น (Layerwise Asynchronous Updating)
- อธิบายการติดตั้งอัลกอริธึมวิวัฒนาการแบบเบย์เซียนที่ปลอดภัยในระบบเรียนรู้แบบกระจาย