Optimasi Cerdas
Kursus lanjutan yang membahas teori dan aplikasi teknik optimasi cerdas, mulai dari metode gradien klasik hingga metaheuristik evolusioner modern, optimasi multi-objektif, model bantuan pendekatan (surrogate-assisted), serta aplikasi pembelajaran mesin terdistribusi (federated machine learning).
Gambaran Umum Kursus
📚 Ringkasan Konten
Kursus lanjutan yang membahas teori dan penerapan teknik optimasi cerdas, mulai dari metode gradien klasik hingga meta-heuristik evolusioner modern, optimasi multi-objektif, model berbasis pendekatan pengganti (surrogate-assisted), serta aplikasi pembelajaran mesin terdistribusi (federated machine learning).
Menguasai meta-heuristik evolusioner lanjutan dan optimasi cerdas berbasis data untuk sistem rekayasa kompleks.
🎯 Tujuan Pembelajaran
- Memahami dasar-dasar matematis dan taksonomi masalah optimasi, mulai dari kontinu dan cembung hingga kerangka kombinatorial yang kompleks.
- Mengembangkan keahlian dalam menerapkan komputasi evolusioner, optimasi multi-objektif, dan model berbasis pendekatan pengganti pada tantangan rekayasa dan pembelajaran mesin dunia nyata.
🔹 Pelajaran 1: Dasar-Dasar Optimasi (I)
Ringkasan: Pelajaran ini memperkenalkan fondasi matematis dan taksonomi optimasi, dengan fokus pada identifikasi variabel keputusan, fungsi tujuan, dan kendala. Pelajaran ini mengeksplorasi klasifikasi masalah optimasi serta tantangan praktis formulasi masalah dalam sistem kompleks seperti desain rekayasa dan pembelajaran mesin.
Hasil Pembelajaran:
- Mendefinisikan komponen matematis suatu masalah optimasi, termasuk variabel keputusan, fungsi tujuan, dan kendala.
- Mengklasifikasikan masalah optimasi menggunakan taksonomi multi-dimensi berdasarkan jenis variabel, kendala, dan tujuan.
- Membedakan antara optimum lokal dan global, serta mengidentifikasi sifat-sifat khusus dari optimasi cembung.
- Mengformulasikan skenario dunia nyata ke dalam kerangka optimasi formal.
🔹 Pelajaran 2: Metode Newton-Raphson dan Gradient Descent
Ringkasan: Pelajaran ini membahas transisi dari optimasi analitik ke metode numerik iteratif untuk menemukan optimum fungsi non-linear. Pelajaran ini menjelaskan mekanisme, kelebihan, dan keterbatasan metode Newton-Raphson, aproksimasi Quasi-Newton, serta berbagai pendekatan berbasis gradien seperti RPROP.
Hasil Pembelajaran:
- Mengidentifikasi maksimum dan minimum lokal dengan menentukan titik di mana gradien fungsi sama dengan nol.
- Membandingkan efisiensi dan persyaratan metode Newton-Raphson dibandingkan Gradient Descent dalam ruang univariat dan multivariat.
- Menjelaskan masalah "hilangnya" dan "meledaknya" gradien serta dampaknya terhadap divergensi optimasi.
- Menjelaskan tujuan metode Quasi-Newton dan RPROP dalam mengurangi beban komputasi dan meningkatkan stabilitas optimasi.
🔹 Pelajaran 3: Algoritma Genetika dan Penanganan Kendala
Ringkasan: Pelajaran ini mengeksplorasi heuristik pencarian stokastik berbasis populasi yang dikenal sebagai Algoritma Evolusioner (EAs). Pelajaran ini mendetailkan dasar biologis Algoritma Genetika (GAs), berbagai skema representasi, serta mekanisme seleksi, crossover, dan mutasi, sekaligus membahas teknik khusus penanganan kendala.
Hasil Pembelajaran:
- Membedakan metode berbasis gradien dengan heuristik pencarian berbasis populasi untuk mengidentifikasi kapan EAs lebih disukai.
- Menjelaskan pemetaan antara evolusi biologis dan terminologi optimasi komputasi.
- Melaksanakan berbagai operator Algoritma Genetika, termasuk crossover n-point, mutasi bit-flip, dan seleksi turnamen.
- Menerapkan teknik penanganan kendala seperti fungsi fitness terhukum dan metode perbaikan berbasis gradien.
🔹 Pelajaran 4: Strategi Evolusi dan Pemrograman Genetika
Ringkasan: Pelajaran ini membahas teknik komputasi evolusioner lanjutan, beralih dari Algoritma Genetika Berbasis Real ke Strategi Evolusi (ES) dan Pemrograman Genetika (GP). Pelajaran ini mendetailkan operator-operator tertentu seperti Simulated Binary Crossover, adaptasi ukuran langkah dalam ES, serta representasi berbasis pohon untuk mengembangkan fungsi matematis.
Hasil Pembelajaran:
- Menganalisis mekanisme Algoritma Genetika Berbasis Real, khususnya Simulated Binary Crossover dan Mutasi Polinomial.
- Menilai varian Strategi Evolusi, termasuk (1+1)-ES, (\mu, \lambda), dan skema seleksi (\mu + \lambda).
- Membangun model Pemrograman Genetika menggunakan representasi berbasis pohon, termasuk himpunan fungsi primitif dan himpunan terminal.
- Menentukan metode inisialisasi yang tepat untuk GP, seperti metode Full, Grow, dan Ramped-half-and-half.
🔹 Pelajaran 5: Evolusi Diferensial dan Optimasi Swarm Partikel
Ringkasan: Pelajaran ini membahas teknik optimasi meta-heuristik lanjutan, dengan fokus pada Evolusi Diferensial (DE) dan Optimasi Swarm Partikel (PSO). Pelajaran ini mendetailkan fondasi matematis mutasi berbasis vektor dalam DE dan perilaku sosial biologis yang mendorong pergerakan partikel dalam PSO.
Hasil Pembelajaran:
- Menganalisis teknik penanganan kendala, termasuk fungsi fitness terhukum, metode perbaikan, dan ranking stokastik.
- Merumuskan langkah mutasi, crossover, dan seleksi algoritma Evolusi Diferensial.
- Menjelaskan mekanisme Optimasi Swarm Partikel Kanonik, khususnya peran best pribadi, best global, dan bobot inersia.
- Menilai varian PSO seperti Local PSO, PSO dengan Kontraksi, dan Algoritma Swarm Berbasis Kompetisi (CSO).
🔹 Pelajaran 6: Optimasi Multi-Objektif: Pendekatan Berbasis Dekomposisi
Ringkasan: Pelajaran ini mengeksplorasi definisi dasar Pareto optimal dan dominasi, metode agregasi klasik, serta algoritma evolusioner berbasis dekomposisi lanjutan. Pelajaran ini mendetailkan bagaimana masalah multi-objektif dikonversi menjadi sub-masalah satu-objektif menggunakan metode seperti MOEA/D.
Hasil Pembelajaran:
- Mendefinisikan dan mengidentifikasi Dominasi Pareto, Himpunan Optimal Pareto, dan Front Pareto dalam ruang keputusan dan ruang objektif.
- Membandingkan dan kontras pendekatan A priori, A posteriori, dan Interaktif dalam optimasi multi-objektif.
- Menjelaskan mekanisme Dekomposisi dalam OOEM untuk mengubah masalah multi-objektif menjadi sub-masalah satu-objektif.
- Menganalisis keunggulan Agregasi Berbobot Dinamis (DWA) dan MOEA/D dalam menangani front Pareto cembung dan cekung.
🔹 Pelajaran 7: Optimasi Multi-Objektif: Pendekatan Berbasis Dominasi
Ringkasan: Pelajaran ini berfokus pada teknik lanjutan untuk algoritma evolusioner multi-objektif (MOEAs), mendetailkan MOEA yang dipandu vektor referensi (RVEA) dan penugasan fitness berbasis dominasi. Pelajaran ini mengeksplorasi pemeliharaan keragaman melalui niching serta memberikan analisis komparatif algoritma sorting tanpa dominasi seperti NSGA-II.
Hasil Pembelajaran:
- Melaksanakan proses RVEA, termasuk generasi vektor referensi dan perhitungan Jarak yang Dihukum Sudut (APD).
- Menghitung fitness berbasis dominasi dan keragaman menggunakan penugasan rank dan fungsi sharing.
- Menganalisis langkah-langkah prosedural dan kompleksitas komputasi algoritma sorting tanpa dominasi Dasar, Cepat, dan Efisien.
- Menguraikan alur kerja Non-dominated Sorting Genetic Algorithm II (NSGA-II).
🔹 Pelajaran 8: Indikator Kinerja dan Seleksi Lanjutan
Ringkasan: Pelajaran ini membahas mekanisme algoritma NSGA-II, termasuk jarak kemacetan dan seleksi lingkungan, serta mengeksplorasi indikator evaluasi kinerja. Pelajaran ini juga mendetailkan metode seleksi lanjutan melalui Algoritma Estimasi Distribusi (EDAs) dan pemodelan reguleritas dalam masalah kontinu.
Hasil Pembelajaran:
- Menghitung dan menerapkan jarak kemacetan dan seleksi berbasis rank dalam kerangka NSGA-II.
- Menilai efektivitas indikator kinerja berbeda seperti GD, IGD, Hyper-volume, dan Spacing.
- Membedakan antara operator genetika tradisional dan pendekatan berbasis model seperti Algoritma Estimasi Distribusi (EDAs).
- Menjelaskan bagaimana reguleritas dalam himpunan Pareto dapat dimodelkan menggunakan pemetaan ruang laten dan PCA lokal.
🔹 Pelajaran 9: Algoritma Estimasi Distribusi dan Jaringan Saraf
Ringkasan: Materi ini mengeksplorasi strategi untuk mengatasi kehilangan tekanan seleksi dalam optimasi berdimensi tinggi serta menyediakan taksonomi komprehensif model pembelajaran mesin. Pelajaran ini mendetailkan fondasi matematis pelatihan jaringan saraf, termasuk backpropagation dan variasi gradient descent.
Hasil Pembelajaran:
- Mengidentifikasi dan menerapkan solusi atas hilangnya tekanan seleksi dalam Optimasi Banyak-Objektif.
- Mengkategorikan model pembelajaran mesin menjadi tipe Generatif dan Discriminatif serta membedakan berbagai paradigma pembelajaran.
- Menjelaskan fondasi matematis pelatihan jaringan saraf, termasuk Aturan Delta dan backpropagation.
- Menilai variasi gradient descent dan heuristik yang digunakan untuk mengatasi masalah konvergensi.
🔹 Pelajaran 10: Pemilihan Model dan Optimasi Struktur Evolusioner
Ringkasan: Pelajaran ini mengeksplorasi tantangan dalam melatih jaringan saraf dalam (deep neural networks), khususnya menangani masalah gradien yang hilang dan pemilihan model untuk mencegah overfitting. Pelajaran ini mendetailkan teknik validasi, strategi pembelajaran ensemble, serta integrasi komputasi evolusioner dengan pembelajaran lokal.
Hasil Pembelajaran:
- Mengidentifikasi dan mengurangi overfitting menggunakan trade-off bias-variance, stop dini, dan teknik validasi silang.
- Membedakan antara metode ensemble Bagging, Boosting, dan Stacking.
- Membedakan mekanisme warisan Lamarckian dan Baldwinian dalam paradigma pembelajaran-evolusioner.
- Merancang kerangka optimasi struktural untuk matriks koneksi dan arsitektur jaringan saraf.
🔹 Pelajaran 11: Pembelajaran Mesin Multi-Objektif dan Optimasi Berbasis Data
Ringkasan: Pelajaran ini mengeksplorasi integrasi Algoritma Evolusioner Multi-Objektif ke dalam pembelajaran mesin dan optimasi berbasis data. Pelajaran ini mendetailkan bagaimana pendekatan berbasis Pareto mengoptimalkan struktur jaringan saraf dan klastering, serta memperkenalkan strategi manajemen model berbasis pendekatan pengganti untuk evaluasi mahal.
Hasil Pembelajaran:
- Menganalisis trade-off antara akurasi model dan kompleksitas menggunakan regularisasi berbasis Pareto.
- Menilai kerangka kerja multi-objektif untuk klastering dan ekstraksi fitur.
- Menentukan strategi manajemen model yang sesuai (Individu, Populasi, atau Generasi-based) untuk optimasi berbasis pendekatan pengganti.
🔹 Pelajaran 12: Manajemen Model Dasar dan Optimasi Bayesian
Ringkasan: Pelajaran ini mengeksplorasi integrasi meta-model (pendekatan pengganti) ke dalam optimasi evolusioner berbasis data untuk menangani evaluasi yang mahal secara komputasi. Pelajaran ini mendetailkan strategi manajemen model dan memberikan tinjauan mendalam tentang Optimasi Bayesian (BO) menggunakan Proses Gaussian.
Hasil Pembelajaran:
- Mendefinisikan manajemen model dan menjelaskan pentingnya untuk mencegah minimum palsu selama optimasi.
- Membandingkan strategi manajemen model berbasis individu, generasi, dan populasi.
- Melaksanakan alur kerja Optimasi Bayesian, dari pemilihan prior hingga penggunaan fungsi akses.
- Menganalisis kerangka matematis Proses Gaussian dan persyaratan kernel.
- Mengidentifikasi tantangan komputasi dalam BO dan mengusulkan strategi mitigasi seperti reduksi dimensi.
🔹 Pelajaran 13: Optimasi Multi-Objektif Berbasis Pendekatan Pengganti dan Transfer Pengetahuan
Ringkasan: Pelajaran ini mengeksplorasi strategi lanjutan untuk optimasi multi-objektif berbasis pendekatan pengganti (SA-MOO), dengan fokus pada RVEA dan versi yang didukung Kriging. Pelajaran ini mendetailkan metode penanganan Masalah Multi-Objektif Mahal Secara Heterogen (HE-MOPs) dan memperkenalkan tiga kerangka utama transfer pengetahuan.
Hasil Pembelajaran:
- Menganalisis mekanisme Algoritma Evolusioner Dipandu Vektor Referensi dan penggunaan Jarak yang Dihukum Sudut.
- Menilai strategi manajemen pendekatan pengganti, termasuk penggunaan ensemble dan model Kriging.
- Membedakan metode adaptasi domain berbasis parameter, berbasis instans, dan hibrida untuk transfer pengetahuan.
- Menerapkan prinsip optimasi multi-objektif pada kasus nyata dalam rekayasa.
🔹 Pelajaran 14: Pembelajaran Mesin Evolusioner dan Pencarian Arsitektur Neural
Ringkasan: Pelajaran ini mengeksplorasi persimpangan komputasi evolusioner dan pembelajaran mesin, dengan fokus pada Pembelajaran Otomatis (AutoML) dan Pencarian Arsitektur Neural (NAS). Pelajaran ini mencakup otomatisasi optimasi hiperparameter dan ko-evolusi sistem kontrol serta morfologi dalam robotika berbasis biologi.
Hasil Pembelajaran:
- Mendefinisikan lima langkah utama Pencarian Arsitektur Neural Evolusioner (E-NAS).
- Membedakan antara ruang pencarian Makro dan Mikro serta peran Supernets dalam mengurangi biaya komputasi.
- Mengidentifikasi strategi untuk meningkatkan efisiensi komputasi dalam NAS, termasuk pewarisan simpul dan model pendekatan pengganti.
- Menjelaskan prinsip ko-evolusi otak-tubuh dan peran Jaringan Regulasi Gen dalam perkembangan.
🔹 Pelajaran 15: Pembelajaran Mesin yang Menjaga Privasi dan Pembelajaran Terdistribusi
Ringkasan: Pelajaran ini mengeksplorasi transisi dari pembelajaran berbasis cloud sentral ke kerangka terdistribusi yang menjaga privasi. Pelajaran ini mendetailkan mekanisme Pembelajaran Terdistribusi dan meninjau solusi teknis untuk efisiensi komunikasi serta privasi, seperti Privasi Diferensial dan Enkripsi Homomorfik.
Hasil Pembelajaran:
- Membedakan antara pembelajaran berbasis cloud sentral dan pembelajaran terdistribusi di perangkat lokal.
- Menjelaskan mekanisme inti teknik komputasi yang menjaga privasi, termasuk Privasi Diferensial dan Enkripsi Homomorfik.
- Menganalisis alur operasional Pembelajaran Terdistribusi Horizontal dan Vertikal serta tantangan data Non-IID.
- Menilai strategi efisiensi komunikasi, seperti Pembaruan Asinkron Layer-by-Layer.
- Menggambarkan implementasi Algoritma Evolusioner Bayesian Terdistribusi yang Aman.