コース一覧へ戻る
SCI1005 Undergraduate

WU | 知能最適化

高度なコースで、勾配法から現代の進化的メタヒューリスティック、多目的最適化、サロゲート支援モデル、フェデレーテッド機械学習アプリケーションまでをカバーする知能最適化技術の理論と応用について学びます。

5.0
45h
300 受講者
0 いいね
人工知能

レッスン

コース概要

📚 コンテンツ概要

古典的な数学的最適化、進化的計算、現代の機械学習の交差点を探索する高度なコース。単一目的および多目的最適化、データ駆動型戦略、ニューラルアーキテクチャサーチやフェデレーテッドラーニングなどの先端トピックをカバー。

データ駆動型かつ多目的最適化を通じて、知能の進化をマスターせよ。

🎯 学習目標

  1. [複雑なデータ駆動型数学的問題に高度な最適化手法を適用する。]
  2. [多目的シナリオ用の進化的および機械学習アーキテクチャを設計・評価する。]

🔹 レッスン1:最適化の基礎

概要: このレッスンでは、最適化の数学的基盤について包括的な導入を行う。古典的な勾配ベース手法から生物学的にインスピレーションを得た進化的戦略までを網羅する。意思決定変数、目的関数、制約の厳密な定義を確立し、最適化問題の分類法を検討する。ニュートン・ラプソン法や勾配降下法といった局所探索法から自然進化の原理と遺伝的アルゴリズム(GA)のメカニズムへと段階的に移行する。

学習成果:

  • 最適化問題を定義・分類する:連続的、離散的、組合せ的、凸最適化の違いを数学的性質と制約に基づいて区別する。
  • 古典的勾配ベース手法を実行する:ニュートン・ラプソン法と勾配降下法(RPROPやモーメントなど変種を含む)を用いて、微分可能な関数の局所最適解を求める。
  • 生物学的進化を計算論理に翻訳する:ゲノタイプ/フェノタイプ、自然選択と進化的アルゴリズム(EA)の構造との関係を説明する。
  • アルゴリズム的課題に対処する:バイナリ符号化における「ハミング崖」、勾配消失問題、ヘッシアン逆行列の計算コストといった一般的な問題を特定し、緩和策を講じる。

🔹 レッスン2:遺伝的アルゴリズム:符号化、選択、遺伝子演算子

概要: このレッスンでは、標準的遺伝的アルゴリズム(Canonical GA)および実数符号化遺伝的アルゴリズム(RCGA)の基本的なメカニズムを扱う。バイナリ、グレイ、実数符号化などの変数表現を検討し、クロスオーバーと突然変異といった繁殖メカニズムも紹介する。さらに、ペナルティ関数や修復手法による制約処理や組合せ最適化のための複雑な問題解決技術も取り上げる。

学習成果:

  • バイナリ符号化とグレイ符号化の違いを分析し、探索因果性や「ハミング崖」への影響を評価する。
  • 選択確率を計算し、バイナリ文字列を整数または実数の意思決定変数に復号する。
  • バイナリ(n点、均一)および実数符号化(BLX、SBX、線形)の遺伝的アルゴリズムにおける各種クロスオーバー演算子の違いを区別する。
  • 旅行者巡回問題(TSP)などNP困難問題における制約処理と組合せ最適化の戦略を策定する。

🔹 レッスン3:進化的戦略とステップサイズの適応

概要: このレッスンでは、進化的計算の高度な技術、特に制約処理機構と進化的戦略(ES)のメカニズムに焦点を当てる。バイナリから連続最適化への移行を詳細に説明し、ステップサイズの適応の重要性を強調する。主な方法として、1/5成功則と共分散行列適応(CMA-ES)が議論される。

学習成果:

  • 制約処理技術を評価する:連続問題における勾配ベースの修復法、非妥当解に対する確率的ランク付け。
  • 実数符号化遺伝的アルゴリズムの演算子を適用する:特にシミュレーテッドバイナリクロスオーバー(SBX)と多項式突然変異。
  • 進化的戦略(ES)のアルゴリズム構造を分析する:(1+1)-ESと(μ, λ)、(μ + λ)選択を用いた集団ベースのバリエーション。
  • ステップサイズ適応の数学的論理を説明する:1/5成功則、グローバルステップサイズ、個体ごとのステップサイズ戦略を比較する。

🔹 レッスン4:遺伝プログラミングと木構造表現

概要: このレッスンでは、数学的関数やコードを木構造として表現することで最適化および機械学習問題を解決する遺伝プログラミング(GP)について学ぶ。学生は、特定の初期化方法と遺伝子演算子を通じてこれらの構造がどのように進化するかを探索する。また、記号回帰における罰則付きフィットネス関数などを通じた制約処理技術も扱う。

学習成果:

  • 木構造表現における原始関数集合と終端集合の違いを区別する。
  • 初期化戦略(フル法、成長法、ラムプド・ハーフ・アンド・ハーフ法)を実行する。
  • 木構造の再結合と突然変異のメカニズムを分析し、集団サイズおよび構造への影響を評価する。
  • 進化的最適化における制約処理技術を評価する:ハード、動的、適応的ペナルティ。

🔹 レッスン5:差分進化と粒子群最適化の変種

概要: このレッスンでは、高度なメタヒューリスティック最適化技術を扱う。組合せ的および連続的問題に対して、修復ベースの制約処理から始まり、差分進化(DE)と標準的な粒子群最適化(PSO)のメカニズムに深く入り込む。さらに、大規模最適化に向けた特別な変種(競争ベースPSO(CSO)、社会学習PSO(SL-PSO))にも言及する。

学習成果:

  • 制約処理技術を分析する:組合せ的問題における遺伝子置換、連続的問題における勾配ベースの最適化。
  • 差分進化の数学的演算子を実行する:ベクトル差分突然変異、クロスオーバー、選択。
  • 標準的PSOおよびその変種(ローカルPSO、収束係数、CSO)の速度と位置更新方程式を定式化する。
  • 学習戦略(例:グローバルベスト対デモンストレーターからの社会学習)に基づいた様々な群知能モデルの違いを区別する。

🔹 レッスン6:多目的最適化:パレート支配と古典的手法

概要: このレッスンでは、単目的最適化(SOO)から多目的最適化(MOO)への根本的な転換を扱う。MOOは単一の最適解ではなく、トレードオフ解の集合をもたらすことに注目する。このレッスンでは、重み付き加重法のような古典的手法と、現代の進化的分解アプローチ(MOEA/D、RVEA)を比較評価する。

学習成果:

  • パレート支配、パレート最適集合、パレートフロントを数学的に定義する。
  • 事前、事後、インタラクティブな多目的最適化アプローチの違いを区別する。
  • 古典的重み付き加重法の限界(特に凹型パレートフロントにおける問題)を評価する。
  • 分解ベースアルゴリズムのメカニズムを説明する:重みの適応と参照ベクトルのガイドランス。

🔹 レッスン7:支配ベースの多目的最適化アプローチと性能指標

概要: このレッスンでは、多目的最適化(MOO)における支配ベースアプローチに焦点を当てる。単目的手法から支配と多様性に基づく選択戦略への移行を考察する。具体的なフィットネス割り当て技術(順位マッピング、ニッチングによる多様性維持)を詳述する。また、NSGA-IIフレームワークで使用される主要な非支配ソートアルゴリズムの手順と計算複雑性も評価する。

学習成果:

  • 単目的選択から支配ベース・多様性ベースのフィットネス割り当てへの移行を分析する。
  • シェアリング関数を用いた解の順位、フィットネスマッピング、ニッチ数を計算する。
  • 基本的、高速、効率的な非支配ソートアルゴリズムの手順論理と計算複雑性を比較する。
  • 非支配ソート遺伝的アルゴリズム(NSGA-II)の実行フローを概説する。

🔹 レッスン8:分布推定アルゴリズムと規則性モデリング

概要: このレッスンでは、多目的最適化における高度な選択メカニズムに焦点を当てる。特に、NSGA-IIのクラウディング距離と性能指標(IGD、ハイパーボリューム)を扱う。次に、従来の遺伝子演算子を確率モデルに置き換える分布推定アルゴリズム(EDAs)に移行する。最後に、「規則性モデリング」(MR-MOO)を紹介し、パレート集合の幾何学的性質を利用して探索効率を向上させる。

学習成果:

  • NSGA-II選択を計算・実装する:クラウディング距離を定義・計算し、クラウドトーナメント選択ルールを適用する。
  • MOO性能を評価する:生成距離(GD)、逆生成距離(IGD)、ハイパーボリュームといった性能指標の違いを区別する。
  • EDAメカニズムを分析する:ランダム探索演算子から確率モデルの構築とサンプリングへの移行(UMDA、UGM、MGM)を説明する。
  • MOPにおける規則性モデリングを記述する:パレート集合の(m-1)次元多様体特性と、局所PCAおよび潜在空間マッピングがMR-MOOでどのように利用されるかを説明する。

🔹 レッスン9:機械学習:ニューラルネットワーク、バックプロパゲーション、モデル選択

概要: このレッスンでは、多数目的最適化から高度な機械学習アーキテクチャとモデル評価へと移行する。マルチレイヤパーセプトロン(MLP)のメカニズム、バックプロパゲーションの数学的基盤、さまざまな勾配降下最適化手法を詳述する。さらに、バイアス・バリアンストレードオフやアンサンブル手法といったモデル選択の重要な課題にも触れられる。

学習成果:

  • 多数目的最適化における選択圧力の低下に対処する修正策(ハイパーボリュームベース、分解法)を識別する。
  • 生成モデルと判別モデルの違いを区別し、それぞれの機械学習における役割を説明する。
  • 微小訓練ルールと微分ルールを用いたバックプロパゲーションにより、ニューラルネットワークの重みを更新する。
  • 正則化、早期停止、さまざまな交差検証手法を用いた過剰適合の緩和戦略を評価する。
  • バギング、ブースティング、スタッキングなどのアンサンブル学習法を分析し、バイアス・バリアンストレードオフの管理とモデル多様性の向上を図る。

🔹 レッスン10:メマイックアルゴリズムと生涯学習の影響

概要: このレッスンでは、生涯学習による局所的表型の精錬とグローバルな遺伝的探索を統合したメマイックアルゴリズム(MA)を扱う。ラマルキズムとバルドウィン主義の機械的違いを検討し、多目的最適化における局所探索の応用も考察する。また、進化的戦略を用いたニューラルネットワーク構造とパラメータの最適化も取り上げる。

学習成果:

  • 時間内学習と局所探索の導入によって、標準的な進化的アルゴリズムとメマイックアルゴリズムの違いを区別する。
  • ラマルキズムとバルドウィン主義の違い(獲得表型変化の子孫への伝達)を対比する。
  • バルドウィン効果と隠蔽効果が進化速度と選択圧力に与える影響を評価する。
  • 進化的および勾配ベースの訓練を用いたニューラルネットワーク(NN)の接続行列と重みパラメータの最適化手法を説明する。

🔹 レッスン11:進化的機械学習と多目的機械学習(MOML)

概要: このレッスンでは、ニューラルネットワーク設計における競合する目的(精度対複雑さ)をバランスするフレームワークである多目的機械学習(MOML)を扱う。NSGA-IIなどのアルゴリズムを使用して、ネットワーク構造とパラメータを最適化し、パレート最適モデルを導出する。この原則は、ルール抽出、多目的クラスタリング、ノイズ耐性のある特徴抽出などの実用的応用にも拡張される。

学習成果:

  • MOMLにおけるパレートベース正則化の数学的基盤を定義する:誤差とモデル複雑さのトレードオフ。
  • 進化的枠組みにおけるネットワーク表現と突然変異のメカニズムを説明する。
  • パレート最適フロントを分析し、ニューラルネットワークから解釈可能な意思決定ルールを抽出する。
  • 多目的最適化がクラスタリングと特徴抽出にどのように応用されるかを説明する。

🔹 レッスン12:データ駆動型進化的最適化とモデル管理

概要: このレッスンでは、計算コストが高い目的関数を持つ状況でのデータ駆動型進化的最適化(DDEO)の動機と手法を扱う。モデル管理の重要な役割を詳細に説明し、個体ベースおよび世代ベースの戦略といった高度な戦略も検討する。サロゲートモデルを用いたベイズ最適化アプローチは、探索と活用のバランスを取るために検討される。

学習成果:

  • データ駆動型最適化の核心的動機(計算負荷、物理シミュレーションの高コスト)を特定する。
  • モデル管理戦略(個体ベース、世代ベース、集団ベース)をカテゴリ化し、それぞれの実装技術を説明する。
  • ベイズ最適化のワークフローと、ガウス過程(GP)が非パラメトリックサロゲートモデルとして果たす役割を説明する。

🔹 レッスン13:ベイズ最適化と獲得関数

概要: このレッスンでは、進化的枠組み内でのベイズ最適化(BO)の高度な応用を扱う。サロゲート支援最適化に焦点を当てる。標準的なガウス過程(GP)モデルからアンサンブルへの移行を詳細に説明し、「次元の呪い」に対処する。さらに、異種高コスト多目的問題(HE-MOPs)に対する特殊戦略と知識転送も探求する。

学習成果:

  • 探索と活用のバランスに用いられる代表的な獲得関数(LCB、EI、トンプソンサンプリング)を定義・比較する。
  • ガウス過程の計算的限界を特定し、次元削減およびサロゲート代替の戦略を説明する。
  • パラメータベースおよびインスタンスベースの知識転送を通じて、異種高コスト目的の処理方法を分析する。

🔹 レッスン14:進化的ニューラルアーキテクチャサーチ(E-NAS)

概要: このレッスンでは、進化的アルゴリズムを用いたニューラルネットワーク設計の自動化に焦点を当てる。手作業のアーキテクチャから自動化された探索空間への移行を扱う。E-NASパイプライン、スーパネットにおける重み共有、そしてサロゲート支援評価などの高度な技術も紹介する。さらに、生物的インスピレーションモデル(進化する可塑性、形態の共進化)にも言及する。

学習成果:

  • 5段階のE-NASプロセスを定義し、マクロ探索空間とマイクロ探索空間の違いを説明する。
  • スーパネットにおける重み共有の概念を説明し、ワンショット法の主な課題を特定する。
  • ノード継承のメカニズムを説明する:クロスオーバーと突然変異演算子が有向無閉路グラフ(DAG)にどのように適用されるか。
  • プロキシ指標、サロゲートモデル、サンプリング訓練などを通じて計算コストを削減する戦略を評価する。

🔹 レッスン15:プライバシー保護型およびフェデレーテッド機械学習

概要: このレッスンでは、中央集権型クラウドベースの機械学習から分散型、プライバシー保護型フレームワークへの移行を扱う。水平的および垂直的フェデレーテッドラーニングの基本的アーキテクチャと通信効率の向上技術を紹介する。また、フェデレーテッドニューラルアーキテクチャサーチ(NAS)やセキュアフェデレーテッド進化的アルゴリズムへの進化的アルゴリズムの統合も議論する。

学習成果:

  • プライバシー、セキュリティ、モデル精度の観点から、中央集権クラウド学習と分散型端末学習の違いを区別する。
  • ディファレンシャルプライバシー、ホモモルフィック暗号、安全なマルチパーティ計算といった主要なプライバシー保護技術のメカニズムを説明する。
  • 水平的および垂直的フェデレーテッドラーニングの運用フローを分析し、非IIDデータに関するそれぞれの課題を評価する。
  • 層ごとの非同期更新や三値量子化などの通信効率向上方法を評価する。
  • ディフィー・ヘルマンマスクを用いたフェデレーテッドベイズ最適化とセキュアフェデレーテッド進化的アルゴリズムの実装を説明する。