WU | Optimisasi Cerdas
Kursus lanjutan yang membahas teori dan aplikasi teknik optimasi cerdas, mulai dari metode gradien klasik hingga metaheuristik evolusioner modern, optimasi multi-objektif, model bantuan surrogat, dan aplikasi pembelajaran mesin terdistribusi.
Pelajaran
Lesson
Gambaran Umum Kursus
📚 Ringkasan Konten
Kursus lanjutan yang mengeksplorasi persimpangan antara optimisasi matematis klasik, komputasi evolusioner, dan pembelajaran mesin kontemporer. Menyentuh optimisasi tunggal dan multi-objektif, strategi berbasis data, serta topik canggih seperti Pencarian Arsitektur Neural dan Pembelajaran Terdistribusi.
Kelola evolusi kecerdasan melalui optimisasi data-driven dan multi-objektif tingkat lanjut.
🎯 Tujuan Pembelajaran
- [Terapkan teknik optimisasi tingkat lanjut pada masalah matematis kompleks berbasis data.]
- [Rancang dan evaluasi arsitektur evolusioner dan pembelajaran mesin untuk skenario multi-objektif.]
🔹 Pelajaran 1: Dasar-Dasar Optimisasi
Ringkasan: Pelajaran ini memberikan pengantar komprehensif tentang fondasi matematis optimisasi, mulai dari teknik berbasis gradien klasik hingga strategi evolusioner yang terinspirasi biologis. Menetapkan definisi ketat variabel keputusan, fungsi objektif, dan kendala sambil mengeksplorasi taksonomi masalah optimisasi. Materi beralih dari metode pencarian lokal seperti Newton-Raphson dan Gradient Descent menuju prinsip evolusi alamiah dan mekanisme Algoritma Genetik.
Hasil Pembelajaran:
- Definisikan dan Klasifikasikan Masalah Optimisasi: Bedakan antara optimisasi kontinu, diskret, kombinatorial, dan konveks berdasarkan properti matematis dan kendala.
- Jalankan Metode Berbasis Gradien Klasik: Terapkan metode Newton-Raphson dan Gradient Descent (termasuk variasinya seperti RPROP dan Momentum) untuk menemukan optimum lokal fungsi diferensiabel.
- Terjemahkan Evolusi Biologis ke Logika Komputasi: Jelaskan hubungan antara genotipe/fenotipe, seleksi alam, dan struktur Algoritma Evolusioner (EA).
- Tangani Tantangan Algoritmik: Identifikasi dan kurangi masalah umum dalam optimisasi, seperti "tebing Hamming" dalam kode biner, "masalah gradien menghilang," dan biaya komputasi inversi Hessian.
🔹 Pelajaran 2: Algoritma Genetik: Pengkodean, Seleksi, dan Operator Genetik
Ringkasan: Pelajaran ini membahas mekanisme dasar Algoritma Genetik Kanonik dan Real-Coded (RCGA). Menjelajahi representasi variabel termasuk kode Binari, Gray, dan Real, serta mekanisme reproduksi seperti crossover dan mutasi. Materi juga memperkenalkan teknik penyelesaian masalah kompleks untuk optimisasi kombinatorial dan penanganan kendala melalui fungsi hukuman dan metode perbaikan.
Hasil Pembelajaran:
- Analisis berbagai skema representasi (Binari vs. Gray coding) dan dampaknya terhadap kausalitas pencarian dan "tebing Hamming."
- Hitung probabilitas seleksi dan dekode string biner menjadi variabel keputusan bilangan bulat atau real.
- Bedakan antara berbagai operator crossover untuk algoritma genetik biner (n-point, uniform) dan real-coded (BLX, SBX, linear).
- Rumuskan strategi penanganan kendala dan optimisasi kombinatorial pada masalah NP-hard seperti Masalah Penjual Keliling (TSP).
🔹 Pelajaran 3: Strategi Evolusi dan Adaptasi Ukuran Langkah
Ringkasan: Pelajaran ini mengeksplorasi teknik komputasi evolusioner tingkat lanjut, khususnya fokus pada mekanisme penanganan kendala dan mekanisme Strategi Evolusi (ES). Menjelaskan transisi dari optimisasi biner ke kontinu, menekankan pentingnya adaptasi ukuran langkah. Metode utama yang dibahas meliputi aturan 1/5 sukses dan Adaptasi Matriks Kovariansi (CMA-ES).
Hasil Pembelajaran:
- Evaluasi teknik penanganan kendala, termasuk metode perbaikan berbasis gradien untuk masalah kontinu dan perankingan stokastik untuk solusi tidak layak.
- Terapkan operator Algoritma Genetik Berbasis Real, khususnya Crossover Biner Simulasi (SBX) dan Mutasi Polinomial.
- Analisis struktur algoritmik Strategi Evolusi (ES), termasuk (1+1)-ES dan varian berbasis populasi menggunakan seleksi (μ, λ) dan (μ + λ).
- Jelaskan logika matematis di balik adaptasi ukuran langkah, membandingkan aturan 1/5 sukses, ukuran langkah global, dan strategi ukuran langkah individu.
🔹 Pelajaran 4: Pemrograman Genetik dan Representasi Berbasis Pohon
Ringkasan: Pelajaran ini membahas Pemrograman Genetik (GP) sebagai metode untuk menyelesaikan masalah optimisasi dan pembelajaran mesin dengan merepresentasikan fungsi matematis dan kode sebagai struktur pohon. Siswa mengeksplorasi bagaimana GP mengembangkan struktur-struktur ini melalui metode inisialisasi tertentu dan operator genetik. Pelajaran juga menyentuh teknik penanganan kendala seperti fungsi fitness denda dalam regresi simbolik.
Hasil Pembelajaran:
- Bedakan antara himpunan fungsi primitif dan himpunan terminal dalam representasi berbasis pohon.
- Jalankan strategi inisialisasi, termasuk metode Full, Grow, dan Ramped-half-and-half.
- Analisis mekanisme rekombinasi dan mutasi berbasis pohon, termasuk dampaknya terhadap ukuran dan struktur populasi.
- Evaluasi teknik penanganan kendala dalam optimisasi evolusioner, khususnya hukuman keras, dinamis, dan adaptif.
🔹 Pelajaran 5: Differential Evolution dan Variasi Particle Swarm Optimization
Ringkasan: Pelajaran ini mengeksplorasi teknik optimisasi meta-heuristik tingkat lanjut, dimulai dari penanganan kendala berbasis perbaikan untuk masalah kombinatorial dan kontinu. Memberikan pemahaman mendalam tentang mekanisme Differential Evolution (DE) dan Canonical Particle Swarm Optimization (PSO). Konten diperluas ke varian khusus seperti Competition-Based PSO (CSO) dan Social Learning PSO (SL-PSO) untuk optimisasi skala besar.
Hasil Pembelajaran:
- Analisis teknik penanganan kendala, khususnya metode perbaikan untuk optimisasi kombinatorial (penggantian gen) dan kontinu (berbasis gradien).
- Jalankan operator matematis Differential Evolution, termasuk mutasi selisih vektor, crossover, dan seleksi.
- Rumuskan persamaan update kecepatan dan posisi untuk PSO Kanonik dan varian-varian (PSO Lokal, Faktor Kontraksi, dan CSO).
- Bedakan antara berbagai model kecerdasan swarm berdasarkan strategi pembelajarannya (misalnya best global vs. pembelajaran sosial dari demonstrator).
🔹 Pelajaran 6: Optimisasi Multi-Objektif: Dominansi Pareto dan Metode Klasik
Ringkasan: Pelajaran ini membahas transisi dasar dari Optimisasi Tunggal-Objektif (SOO) ke Optimisasi Multi-Objektif (MOO). Menekankan bahwa MOO menghasilkan sekumpulan solusi tawar-menawar daripada satu optimum tunggal. Pelajaran mengevaluasi metode klasik seperti Agregasi Berbobot terhadap pendekatan dekomposisi evolusioner modern seperti MOEA/D dan RVEA.
Hasil Pembelajaran:
- Definisikan dominansi Pareto, himpunan optimal Pareto, dan front Pareto secara matematis.
- Bedakan antara pendekatan A priori, A posteriori, dan Interaktif dalam optimisasi multi-objektif.
- Evaluasi keterbatasan agregasi berbobot klasik, terutama terkait front Pareto konkaf.
- Jelaskan mekanisme algoritma berbasis dekomposisi, termasuk adaptasi bobot dan panduan vektor referensi.
🔹 Pelajaran 7: Pendekatan MOO Berbasis Dominansi dan Indikator Kinerja
Ringkasan: Pelajaran ini mengeksplorasi pendekatan berbasis dominansi dalam Optimisasi Multi-Objektif (MOO), dengan fokus pada strategi seleksi yang beralih dari metode tunggal-objektif ke seleksi berbasis dominansi dan diversitas. Menjabarkan teknik penugasan fitness spesifik, termasuk pemetaan peringkat dan niching untuk menjaga keragaman. Pelajaran juga mengevaluasi langkah prosedural dan kompleksitas komputasi algoritma sorting non-dominan utama yang diterapkan dalam kerangka NSGA-II.
Hasil Pembelajaran:
- Analisis transisi dari seleksi tunggal-objektif ke penugasan fitness berbasis dominansi dan diversitas.
- Hitung peringkat solusi, pemetaan fitness, dan jumlah niche menggunakan fungsi sharing.
- Bandingkan logika prosedural dan kompleksitas komputasi antara algoritma Sorting Non-Dominan Dasar, Cepat, dan Efisien.
- Gambarkan alur eksekusi Algoritma Genetik Sortir Non-Dominan (NSGA-II).
🔹 Pelajaran 8: Algoritma Estimasi Distribusi dan Pemodelan Reguleritas
Ringkasan: Pelajaran ini mengeksplorasi mekanisme seleksi lanjutan dalam Optimisasi Multi-Objektif, khususnya fokus pada jarak kemacetan NSGA-II dan indikator kinerja seperti IGD dan Hyper-volume. Transisi dilakukan ke Algoritma Estimasi Distribusi (EDAs), yang menggantikan operator genetik tradisional dengan model probabilistik. Akhirnya, materi memperkenalkan "Pemodelan Reguleritas" (MR-MOO), memanfaatkan sifat geometris set Pareto untuk meningkatkan efisiensi pencarian.
Hasil Pembelajaran:
- Hitung dan Implementasikan Seleksi NSGA-II: Definisikan dan hitung jarak kemacetan serta terapkan aturan seleksi turnamen ramai.
- Evaluasi Kinerja MOO: Bedakan antara indikator kinerja seperti Jarak Generasi (GD), Jarak Generasi Terbalik (IGD), dan Hyper-volume.
- Analisis Mekanisme EDA: Jelaskan pergeseran dari operator pencarian acak ke pembangunan dan sampling dari model probabilistik (UMDA, UGM, MGM).
- Pemodelan Reguleritas dalam MOPs: Jelaskan sifat manifold berdimensi (m-1) dari set Pareto dan bagaimana PCA lokal serta pemetaan ruang laten digunakan dalam MR-MOO.
🔹 Pelajaran 9: Pembelajaran Mesin: Jaringan Saraf, Backpropagation, dan Pemilihan Model
Ringkasan: Pelajaran ini membahas transisi dari optimisasi banyak-objektif ke arsitektur pembelajaran mesin tingkat lanjut dan evaluasi model. Menjelaskan mekanisme Multi-Layer Perceptrons (MLPs), fondasi matematis backpropagation, dan berbagai teknik optimisasi gradient descent. Selain itu, membahas isu-isu kritis dalam pemilihan model, seperti trade-off bias-variansi dan metode ensemble.
Hasil Pembelajaran:
- Identifikasi solusi untuk kehilangan tekanan seleksi dalam Optimisasi Banyak-Objektif, termasuk metode berbasis hipervolume dan dekomposisi.
- Bedakan antara model Generatif dan Diskriminatif serta peran masing-masing dalam pembelajaran mesin.
- Terapkan aturan pelatihan Delta dan backpropagation menggunakan aturan diferensiasi untuk memperbarui bobot jaringan saraf.
- Evaluasi strategi mengurangi overfitting, khususnya regularisasi, stopping dini, dan berbagai teknik validasi silang.
- Analisis metode pembelajaran ensemble (Bagging, Boosting, Stacking) untuk mengelola trade-off bias-variansi dan meningkatkan keragaman model.
🔹 Pelajaran 10: Algoritma Memetik dan Dampak Pembelajaran Seumur Hidup
Ringkasan: Pelajaran ini mengeksplorasi Algoritma Memetik (MA), yang mengintegrasikan eksplorasi genetik global dengan penyempurnaan fenotip lokal melalui pembelajaran seumur hidup. Mengeksplorasi perbedaan mekanis antara evolusi Lamarckian dan Baldwinian serta penerapan pencarian lokal dalam optimisasi multi-objektif. Materi juga mencakup penggunaan strategi evolusioner untuk mengoptimalkan struktur dan parameter jaringan saraf.
Hasil Pembelajaran:
- Bedakan antara Algoritma Evolusioner standar dan Algoritma Memetik berdasarkan inklusi pembelajaran seumur hidup dan pencarian lokal.
- Bandingkan paradigma Lamarckian dan Baldwinian terkait pewarisan perubahan fenotip yang diperoleh kepada keturunan.
- Evaluasi pengaruh Efek Baldwin versus Efek Persembunyian terhadap laju evolusi dan tekanan seleksi.
- Deskripsikan metodologi untuk mengoptimalkan matriks koneksi dan parameter bobot Jaringan Saraf (NN) melalui pelatihan evolusioner dan berbasis gradien.
🔹 Pelajaran 11: Pembelajaran Mesin Evolusioner dan MOML
Ringkasan: Pelajaran ini mengeksplorasi Pembelajaran Mesin Multi-Objektif (MOML) sebagai kerangka untuk menyeimbangkan tujuan bersaing dalam desain jaringan saraf, seperti akurasi versus kompleksitas. Menggunakan algoritma seperti NSGA-II, materi menunjukkan bagaimana mengoptimalkan struktur dan parameter jaringan untuk mendapatkan model Pareto-optimal. Konten diperluas ke aplikasi praktis termasuk ekstraksi aturan, klasterisasi multi-objektif, dan ekstraksi fitur tahan gangguan.
Hasil Pembelajaran:
- Definisikan dasar matematis regularisasi berbasis Pareto dalam MOML, khususnya trade-off antara kesalahan dan kompleksitas model.
- Jelaskan mekanisme representasi jaringan dan mutasi dalam kerangka evolusioner.
- Analisis front Pareto-optimal untuk mengekstrak aturan keputusan yang dapat diinterpretasi dari jaringan saraf.
- Jelaskan bagaimana optimisasi multi-objektif diterapkan pada klasterisasi dan ekstraksi fitur.
🔹 Pelajaran 12: Optimisasi Evolusioner Berbasis Data dan Manajemen Model
Ringkasan: Pelajaran ini membahas motivasi dan metodologi Optimisasi Evolusioner Berbasis Data (DDEO), dengan fokus pada skenario di mana fungsi objektif sangat mahal secara komputasi. Menjelaskan peran krusial Manajemen Model dan mengeksplorasi strategi lanjutan seperti pendekatan berbasis individu dan generasi. Pendekatan optimisasi Bayesian menggunakan model surrogat dieksplorasi untuk menyeimbangkan eksplorasi dan eksploitasi.
Hasil Pembelajaran:
- Identifikasi motivasi inti dari optimisasi berbasis data, termasuk intensitas komputasi dan biaya simulasi fisik.
- Kategorikan strategi manajemen model (berbasis individu, berbasis generasi, dan berbasis populasi) dan teknik implementasi khususnya.
- Jelaskan alur kerja Optimisasi Bayesian dan peran Proses Gaussian (GP) sebagai model surrogat non-parametrik.
🔹 Pelajaran 13: Optimisasi Bayesian dan Fungsi Akuisisi
Ringkasan: Pelajaran ini membahas aplikasi lanjutan Optimisasi Bayesian (BO) dalam kerangka evolusioner, dengan fokus pada optimisasi berbasis surrogat. Menjelaskan transisi dari model Gaussian Process (GP) standar ke ensembel untuk mengatasi "Kutukan Dimensi." Materi lebih lanjut mengeksplorasi strategi khusus untuk Masalah Multi-Objektif Mahal Secara Heterogen (HE-MOPs) dan transfer pengetahuan.
Hasil Pembelajaran:
- Definisikan dan bandingkan fungsi akuisisi umum (LCB, EI, Thompson Sampling) yang digunakan untuk menyeimbangkan eksplorasi dan eksploitasi.
- Identifikasi keterbatasan komputasi Proses Gaussian dan jelaskan strategi reduksi dimensi serta penggantian model surrogat.
- Analisis metode penanganan tujuan mahal secara heterogen melalui transfer pengetahuan berbasis parameter dan berbasis instance.
🔹 Pelajaran 14: Pencarian Arsitektur Neural Evolusioner (E-NAS)
Ringkasan: Pelajaran ini mengeksplorasi otomatisasi desain jaringan saraf melalui algoritma evolusioner, dengan fokus pada transisi dari arsitektur buatan tangan ke ruang pencarian otomatis. Menyentuh pipa E-NAS, pembagian bobot dalam super-jaringan, dan teknik lanjutan seperti evaluasi berbasis surrogat. Materi juga meluas ke model terinspirasi biologis, termasuk plastisitas yang berevolusi dan ko-evolusi morfologi.
Hasil Pembelajaran:
- Definisikan proses E-NAS lima langkah dan perbedaan antara ruang pencarian makro dan mikro.
- Jelaskan konsep pembagian bobot dalam super-jaringan dan identifikasi tantangan utama dari metode one-shot.
- Deskripsikan mekanisme pewarisan node, termasuk bagaimana operator crossover dan mutasi diterapkan pada Graf Berarah Tanpa Siklus (DAG).
- Evaluasi strategi mengurangi biaya komputasi, seperti metrik proxy, model surrogat, dan pelatihan sampel.
🔹 Pelajaran 15: Pembelajaran Mesin yang Menjaga Privasi dan Federasi
Ringkasan: Pelajaran ini mengeksplorasi transisi dari pembelajaran mesin berbasis cloud terpusat ke kerangka distribusi yang menjaga privasi. Menjelaskan arsitektur dasar Pembelajaran Federasi (Horizontal dan Vertical) serta teknik untuk meningkatkan efisiensi komunikasi. Pelajaran juga membahas integrasi algoritma evolusioner untuk Pencarian Arsitektur Neural Federasi (NAS) dan Algoritma Evolusioner Federasi Aman.
Hasil Pembelajaran:
- Bedakan antara pembelajaran berbasis cloud terpusat dan pembelajaran distribusi di perangkat lokal dalam hal privasi, keamanan, dan akurasi model.
- Jelaskan mekanisme teknik menjaga privasi utama, termasuk Privasi Diferensial, Enkripsi Homomorfik, dan Komputasi Multi-Pihak Aman.
- Analisis alur operasional Pembelajaran Federasi Horizontal dan Vertikal serta tantangan mereka terhadap data non-IID.
- Evaluasi metode efisiensi komunikasi, seperti Update Asinkron Berlapis dan Kuantisasi Ternary.
- Jelaskan implementasi Optimisasi Bayesian Federasi dan Algoritma Evolusioner Federasi Aman menggunakan masking Diffie-Hellman.