PolyU | 人工知能の基礎概念
この包括的なコースは、修士課程の学生および専門家を対象に、人工知能(AI)について厳密でありながら理解しやすい導入を提供します。歴史的基盤と最新の革新の間の橋渡しを図り、シンボリックAIや探索アルゴリズムから始まり、現代の深層学習および生成AIへと進みます。知識表現、確率的推論、古典的な機械学習といった重要なトピックを学び、その後ニューラルネットワーク、Transformer、大規模言語モデル(LLM)について深く探求します。理論と実践の両方を重視し、Pythonおよび業界標準のフレームワーク(例:PyTorch)を用いてアルゴリズムの実装や現代のAPIとの連携を行い、AI倫理や安全性に関する重要な課題にも取り組みます。
コース概要
📚 コンテンツ概要
この包括的なコースは、修士課程の学生および専門家を対象に、人工知能(AI)の厳密ながらもアクセスしやすい入門を提供します。歴史的基盤と最先端の革新の間のギャップを埋め、シンボリックAIや探索アルゴリズムから始まり、現代のディープラーニングおよび生成型AIへと進んでいきます。学生は知識表現、確率的推論、古典的機械学習といった重要なトピックを学び、その後ニューラルネットワーク、Transformer、大規模言語モデル(LLM)に深く入り込みます。理論と実践の両方を重視し、Pythonと業界標準フレームワークであるPyTorchを活用してアルゴリズムの実装、現代のAPIとの連携、そしてAI倫理と安全性に関する重要な課題に取り組みます。
古典的なシンボリックAIと現代の生成型AIの間に架け橋をかけ、本コースは学生にインテリジェントシステムの設計・実装・倫理的評価に必要な理論的深度と実践的なPythonスキルを提供します。
🎯 学習目標
- AIの基礎を習得する:ヒューリスティック探索、論理ベースの推論、確率モデルといった基本的な問題解決パラダイムを分析・実装する。
- ディープラーニングアーキテクチャを実装する:PyTorchを用いて、マルチレイヤーパーセプトロンから畳み込みニューラルネットワーク(CNN)、Transformerまで、高度なニューラルネットワークを設計・訓練する。
- 生成型AIソリューションを展開する:大規模言語モデル(LLM)を活用したアプリケーションを設計し、ファインチューニング、プロンプト工学、検索拡張生成(RAG)などの技術を用いる。
- 倫理的なAI開発を確保する:バイアス、安全性、整合性についての批判的評価を行い、現実世界での説明可能性と耐障害性を高める戦略を適用する。
🔹 レッスン1:AIの歴史と基盤
概要:人工知能の起源を探る。タービングテスト、ダートマス会議、そして「AIの冬」として知られる、人工知能の発展における周期的な変動について学ぶ。
学習成果:
- 1956年から現在までの人工知能の歴史的進化をたどる。
- シンボリックAI(GOFAI)とコンネクショニズムのパラダイムを比較・対比する。
- ディープラーニング革命および最近の生成型技術のブレークスルーがもたらした影響を議論する。
🔹 レッスン2:探索戦略:無情報探索と情報探索
概要:探索アルゴリズムを用いた基本的な問題解決エージェントの紹介。盲目探索とヒューリスティックに基づくアプローチの違いを理解する。
学習成果:
- BFS、DFS、均等コスト探索といった無情報探索法を実装する。
- A*やグリーディベストファースト探索といったヒューリスティック探索技術を適用する。
- 異なる探索戦略の複雑さと最適性を分析する。
🔹 レッスン3:敵対的探索と制約充足問題
概要:競合環境(ゲーム)における意思決定と、制約によって定義された問題の解決に焦点を当てる。
学習成果:
- ゲームプレイに使用されるミニマックスアルゴリズムとアルファベータ枝刈りを習得する。
- AlphaGoなど先進システムで使われるモンテカルロ木探索(MCTS)の仕組みを理解する。
- バックトラッキングや局所探索を用いて制約充足問題(CSP)を解決する。
🔹 レッスン4:知識表現と推論
概要:AIシステムが情報を論理的に表現し、推論を行う方法を学ぶ。古典的な論理から現代の知識構造へと移行する。
学習成果:
- 命題論理と第一階述語論理を用いて表現と推論を行う。
- 古典的なエキスパートシステムと現代の知識グラフ、オントロジーを比較する。
- ニューロシンボリックAIが論理とニューラルネットワークの橋渡しとして果たす役割を探求する。
🔹 レッスン5:生成型AI時代の不確実性
概要:古典的な確率計算を超えて、不確実性が現代のAIを動かす理由を理解する。ここでは、なぜLLMが幻覚(ハリューシネーション)を起こすのか(そしてそれがバグではなく機能である理由)、純粋なノイズから芸術を生成する拡散モデルの仕組み、そして予測不可能なオープンワールドで意思決定を行う自律エージェントの動作を解説する。
学習成果:
- ベイズから「感覚」へ:信頼度とキャリブレーションの直感的理解を得る。数学的詳細に溺れず、「99%の確率」でも誤っている可能性がある理由を学ぶ。
- 創造の原動力:温度、Top-Pなどの確率的サンプリング機構が生成型AIの創造性を生み出し、幻覚を引き起こす仕組みを分析する。
- エージェントの意思決定:不確実性下での意思決定戦略を理解し、強化学習およびマルチエージェントシステムにおける「探索 vs. 利用」のジレンマに焦点を当てる。
🔹 レッスン6:古典的機械学習
概要:Pythonを用いたデータ駆動型アルゴリズムによる教師あり学習と非教師あり学習の実践的入門。
学習成果:
- 決定木やサポートベクターマシン(SVM)などの教師あり学習モデルを実装する。
- K-meansクラスタリングや主成分分析(PCA)といった非教師あり手法を適用する。
- Scikit-learnを用いて基本的なデータ解析問題を解決する。
🔹 レッスン7:ニューラルネットワークの基盤
概要:生物由来の計算へと移行する過程。人工ニューラルネットワークのアーキテクチャと学習メカニズムについて学ぶ。
学習成果:
- 人工ニューロンとマルチレイヤーパーセプトロン(MLP)の構造を説明する。
- バックプロパゲーションアルゴリズムと各種活性化関数(ReLU、GELU)をマスターする。
- PyTorchを用いて基本的なニューラルネットワークを構築する。
🔹 レッスン8:コンピュータビジョンとCNN
概要:画像データを処理するための特別なディープラーニングアーキテクチャに焦点を当てる。
学習成果:
- 畳み込みニューラルネットワーク(CNN)の仕組みを理解する。
- ResNetやビジョントランスフォーマー(ViT)といった高度なアーキテクチャを分析する。
- 基本的な画像分類モデルを実装する。
🔹 レッスン9:シーケンスモデリングとトランスフォーマー
概要:再帰型ニューラルネットワーク(RNN)から始まるシーケンス処理の進化と、革命的な「アテンション」メカニズムの登場。
学習成果:
- RNN、LSTM、トランスフォーマーのアーキテクチャの違いを区別する。
- 「アテンションはすべてだ」(Attention Is All You Need)という論文と自己アテンションメカニズムを説明する。
- BERTやGPTのようなモデルにおけるエンコーダーとデコーダーの役割を理解する。
🔹 レッスン10:大規模言語モデル(LLM)
概要:最新の生成型AIに焦点を当てた、テキスト生成とモデルの適応に関する詳細な研究。
学習成果:
- LLMの事前学習とファインチューニングのライフサイクルを説明する。
- ユーザーからのフィードバックによる強化学習(RLHF)を調査する。
- プロンプト工学とパラメータ効率的なファインチューニング手法(PEFT/LoRA)を実践する。
🔹 レッスン11:高度な生成型AIアプリケーション
概要:テキストを超えた検索システムや生成メディアへの拡張。現代のAPIを活用して実装する。
学習成果:
- ハリューシネーションを抑えるために検索拡張生成(RAG)を実装する。
- 拡散モデル(例:Stable Diffusion)や変分自己符号化器(VAE)の数学的裏付けを理解する。
- 現代のAI APIと連携し、生成型アプリケーションを構築する。
🔹 レッスン12:AI倫理、安全、整合性
概要:社会的影響を考慮した、AIの責任と安全プロトコルに関する批判的分析。
学習成果:
- モデル内のバイアスの源を特定し、公平性を確保する。
- AIの安全性、耐障害性、および整合性の問題について議論する。
- 説明可能性(XAI)を評価し、LLMのハリューシネーションに対する緩和戦略を検討する。