PolyU | 人工知能の概念
この包括的なコースは、大学院生および専門家を対象に、人工知能(AI)の厳密ながらも理解しやすい入門を提供します。歴史的基盤と最先端の革新の間のギャップを埋め、記号論的AIや探索アルゴリズムから始まり、現代のディープラーニングや生成型AIへと進んでいきます。知識表現、確率的推論、古典的な機械学習などの重要なトピックを学びながら、ニューラルネットワーク、Transformer、大規模言語モデル(LLM)について深く探求します。理論と実践の両方を重視し、Pythonおよび業界標準のフレームワーク(例:PyTorch)を使用してアルゴリズムの実装、最新のAPIとの連携、そしてAI倫理と安全性に関する重要な課題に対処します。
コース概要
--- SOURCE TEXT ---
📚 Content Summary
This comprehensive course provides a rigorous yet accessible introduction to Artificial Intelligence, designed for postgraduate students and professionals. Bridging the gap between historical foundations and cutting-edge innovations, the curriculum progresses from symbolic AI and search algorithms to modern Deep Learning and Generative AI. Students will explore essential topics such as knowledge representation, probabilistic reasoning, and classical machine learning before diving deep into neural networks, Transformers, and Large Language Models (LLMs). Emphasizing both theory and practice, the course utilizes Python and industry-standard frameworks like PyTorch to implement algorithms, interact with modern APIs, and address critical issues in AI ethics and safety.
Bridging the gap between classical Symbolic AI and modern Generative AI, this course equips students with the theoretical depth and practical Python skills to architect, implement, and ethically evaluate intelligent systems.
🎯 Learning Objectives
- Master AI Foundations: Analyze and implement fundamental problem-solving paradigms, including heuristic search, logic-based reasoning, and probabilistic modeling.
- Implement Deep Learning Architectures: Design and train advanced neural networks using PyTorch, ranging from Multi-layer Perceptrons to Convolutional Neural Networks and Transformers.
- Deploy Generative AI Solutions: Engineer applications utilizing Large Language Models (LLMs), employing techniques such as fine-tuning, prompt engineering, and Retrieval-Augmented Generation (RAG).
- Ensure Ethical AI Development: Critically evaluate AI systems for bias, safety, and alignment, applying strategies for explainability and robustness in real-world scenarios.
🔹 Lesson 1: History and Foundations of AI
Overview: An exploration of the origins of Artificial Intelligence, covering the Turing Test, the Dartmouth Conference, and the cyclical nature of AI development known as 'AI Winters'.
Learning Outcomes:
- Trace the historical evolution of AI from 1956 to the present day.
- Compare and contrast Symbolic AI (GOFAI) and Connectionism paradigms.
- Discuss the impact of the Deep Learning Revolution and recent generative breakthroughs.
🔹 Lesson 2: Search Strategies: Uninformed and Informed
Overview: Introduction to fundamental problem-solving agents using search algorithms, distinguishing between blind search and heuristic-based approaches.
Learning Outcomes:
- Implement uninformed search methods including BFS, DFS, and Uniform Cost search.
- Apply heuristic search techniques such as A* and Greedy Best-First search.
- Analyze the complexity and optimality of different search strategies.
🔹 Lesson 3: Adversarial Search and Constraint Satisfaction
Overview: A deep dive into decision-making in competitive environments (games) and solving problems defined by constraints.
Learning Outcomes:
- Master the Minimax algorithm and Alpha-Beta pruning for game playing.
- Understand Monte Carlo Tree Search (MCTS) used in advanced systems like AlphaGo.
- Solve Constraint Satisfaction Problems (CSP) using backtracking and local search.
🔹 Lesson 4: Knowledge Representation and Reasoning
Overview: Study of how AI systems represent information logically to perform inference, moving from classical logic to modern knowledge structures.
Learning Outcomes:
- Utilize Propositional and First-Order Logic for representation and inference.
- Compare legacy Expert Systems with modern Knowledge Graphs and Ontologies.
- Explore Neuro-Symbolic AI as a bridge between logic and neural networks.
🔹 Lesson 5: Uncertainty in the Age of GenAI
Overview: Moving beyond classical probability calculations to understand how uncertainty drives modern AI. This lesson explores why LLMs hallucinate (and why that is a feature, not a bug), how Diffusion models create art from pure noise, and how Autonomous Agents make decisions in unpredictable open worlds.
Learning Outcomes:
- From Bayes to "Vibes": Gain an intuitive understanding of confidence and calibration, learning why "99% probability" can still be wrong without getting lost in complex math.
- The Engine of Creativity: Analyze how probabilistic sampling mechanisms (Temperature, Top-P) enable Generative AI creativity and lead to hallucinations.
- Agent Decision Making: Understand decision-making strategies under uncertainty, focusing on the "Exploration vs. Exploitation" dilemma in Reinforcement Learning and Multi-Agent Systems.
🔹 Lesson 6: Classical Machine Learning
Overview: A practical introduction to data-driven algorithms for supervised and unsupervised learning using Python.
Learning Outcomes:
- Implement supervised learning models including Decision Trees and SVMs.
- Apply unsupervised techniques like K-means clustering and PCA.
- Use Scikit-learn to solve basic data analytic problems.
🔹 Lesson 7: Neural Network Foundations
Overview: The transition to biological-inspired computing, covering the architecture and training mechanisms of artificial neural networks.
Learning Outcomes:
- Explain the structure of artificial neurons and Multi-layer Perceptrons (MLP).
- Master the Backpropagation algorithm and various activation functions (ReLU, GELU).
- Build a basic neural network using PyTorch.
🔹 Lesson 8: Computer Vision and CNNs
Overview: Focus on processing visual data through specialized deep learning architectures.
Learning Outcomes:
- Understand the mechanics of Convolutional Neural Networks (CNNs).
- Analyze advanced architectures like ResNet and Vision Transformers (ViT).
- Implement a basic image classification model.
🔹 Lesson 9: Sequence Modeling and The Transformer
Overview: Evolution of sequence processing from Recurrent Neural Networks to the revolutionary Attention mechanism.
Learning Outcomes:
- Differentiate between RNNs, LSTMs, and the Transformer architecture.
- Explain the 'Attention Is All You Need' paper and self-attention mechanisms.
- Understand the role of Encoders and Decoders in models like BERT and GPT.
🔹 Lesson 10: Large Language Models (LLMs)
Overview: In-depth study of state-of-the-art Generative AI focusing on text generation and model adaptation.
Learning Outcomes:
- Describe the Pre-training and Fine-tuning lifecycle of LLMs.
- Explore Reinforcement Learning from Human Feedback (RLHF).
- Practice Prompt Engineering and parameter-efficient fine-tuning methods (PEFT/LoRA).
🔹 Lesson 11: Advanced Generative AI Applications
Overview: Expanding beyond text to retrieval systems and generative media using modern APIs.
Learning Outcomes:
- Implement Retrieval-Augmented Generation (RAG) to reduce hallucinations.
- Understand the math behind Diffusion Models (e.g., Stable Diffusion) and VAEs.
- Interact with modern AI APIs to build a generative application.
🔹 Lesson 12: AI Ethics, Safety, and Alignment
Overview: Critical analysis of the societal impact of AI, focusing on responsibility and safety protocols.
Learning Outcomes:
- Identify sources of bias and ensure fairness in AI models.
- Discuss AI Safety, Robustness, and the Alignment problem.
- Evaluate Explainability (XAI) and mitigation strategies for LLM hallucinations.
--- END SOURCE TEXT ---
📚 Content Summary
この包括的なコースは、大学院生と専門家を対象に、人工知能への厳格かつアクセスしやすい入門を提供します。歴史的基盤と最先端のイノベーションの間のギャップを埋め、カリキュラムは記号AIと探索アルゴリズムから、最新のディープラーニングと生成AIへと進みます。学生は、知識表現、確率的推論、古典的機械学習などの重要なトピックを、ニューラルネットワーク、Transformer、大規模言語モデル(LLM)へと深く掘り下げる前に探求します。理論と実践の両方を重視し、コースではPythonとPyTorchのような業界標準のフレームワークを使用して、アルゴリズムを実装し、最新のAPIと対話し、AI倫理と安全性における重要な問題に対処します。
古典的な記号AIと最新の生成AIの間のギャップを埋めるこのコースは、知的システムを設計、実装、倫理的に評価するための理論的深さと実践的なPythonスキルを学生に提供します。
🎯 Learning Objectives
- AIの基礎をマスターする: ヒューリスティック探索、論理ベースの推論、確率的モデリングを含む、基本的な問題解決パラダイムを分析および実装する。
- ディープラーニングアーキテクチャを実装する: マルチレイヤーパーセプトロンから畳み込みニューラルネットワーク、Transformerに至るまで、PyTorchを使用して高度なニューラルネットワークを設計およびトレーニングする。
- 生成AIソリューションを展開する: ファインチューニング、プロンプトエンジニアリング、Retrieval-Augmented Generation(RAG)などの技術を採用して、大規模言語モデル(LLM)を利用したアプリケーションをエンジニアリングする。
- 倫理的なAI開発を保証する: バイアス、安全性、アラインメントについてAIシステムを批判的に評価し、現実世界のシナリオでの説明可能性と堅牢性のための戦略を適用する。
🔹 Lesson 1: AIの歴史と基礎
概要: チューリングテスト、ダートマス会議、そして「AIの冬」として知られるAI開発の周期的な性質をカバーし、人工知能の起源を探求します。
学習成果:
- 1956年から現在までのAIの歴史的進化をたどる。
- 記号AI(GOFAI)とコネクショニズムのパラダイムを比較対照する。
- ディープラーニング革命と最近の生成的ブレークスルーの影響について議論する。
🔹 Lesson 2: 探索戦略:非情報探索と情報探索
概要: 探索アルゴリズムを使用した基本的な問題解決エージェントの紹介。ブラインドサーチとヒューリスティックベースのアプローチを区別します。
学習成果:
- BFS、DFS、Uniform Cost Searchを含む非情報探索手法を実装する。
- A*やGreedy Best-First Searchなどのヒューリスティック探索技術を適用する。
- さまざまな探索戦略の複雑さと最適性を分析する。
🔹 Lesson 3: 敵対的探索と制約充足
概要: 競争環境(ゲーム)での意思決定と、制約によって定義された問題の解決を深く掘り下げます。
学習成果:
- ゲームプレイのためのMinimaxアルゴリズムとAlpha-Betaプルーニングをマスターする。
- AlphaGoのような高度なシステムで使用されるMonte Carlo Tree Search(MCTS)を理解する。
- バックトラッキングとローカルサーチを使用して制約充足問題(CSP)を解決する。
🔹 Lesson 4: 知識表現と推論
概要: AIシステムが推論を実行するために情報を論理的に表現する方法を研究し、古典的論理から最新の知識構造へ移行します。
学習成果:
- 命題論理と一階述語論理を表現と推論に利用する。
- レガシーエキスパートシステムと最新のナレッジグラフおよびオントロジーを比較する。
- 論理とニューラルネットワークの架け橋としてNeuro-Symbolic AIを探求する。
🔹 Lesson 5: 生成AI時代の不確実性
概要: 古典的な確率計算を超えて、不確実性が最新のAIをどのように推進するかを理解します。このレッスンでは、LLMがなぜ幻覚を見るのか(そしてなぜそれがバグではなく機能なのか)、拡散モデルが純粋なノイズからどのようにアートを作成するのか、そして自律エージェントが予測不可能なオープンワールドでどのように意思決定を行うのかを探ります。
学習成果:
- ベイズから「雰囲気」まで:自信とキャリブレーションの直感的な理解を得て、複雑な数学に迷うことなく「確率99%」がなぜ間違っている可能性があるのかを学ぶ。
- 創造性のエンジン:確率的サンプリングメカニズム(Temperature、Top-P)が生成AIの創造性をどのように可能にし、幻覚につながるかを分析する。
- エージェントの意思決定:強化学習とマルチエージェントシステムにおける「探索対活用」のジレンマに焦点を当て、不確実性下での意思決定戦略を理解する。
🔹 Lesson 6: 古典的機械学習
概要: Pythonを使用した教師あり学習と教師なし学習のためのデータ駆動型アルゴリズムの実践的な紹介。
学習成果:
- 決定木やSVMを含む教師あり学習モデルを実装する。
- K-meansクラスタリングやPCAなどの教師なし技術を適用する。
- Scikit-learnを使用して基本的なデータ分析問題を解決する。
🔹 Lesson 7: ニューラルネットワークの基礎
概要: 人工ニューラルネットワークのアーキテクチャとトレーニングメカニズムをカバーし、生物学的インスピレーションを受けたコンピューティングへの移行。
学習成果:
- 人工ニューロンとマルチレイヤーパーセプトロン(MLP)の構造を説明する。
- バックプロパゲーションアルゴリズムとさまざまな活性化関数(ReLU、GELU)をマスターする。
- PyTorchを使用して基本的なニューラルネットワークを構築する。
🔹 Lesson 8: コンピュータビジョンとCNN
概要: 特殊なディープラーニングアーキテクチャを介した視覚データの処理に焦点を当てます。
学習成果:
- 畳み込みニューラルネットワーク(CNN)の仕組みを理解する。
- ResNetやVision Transformer(ViT)などの高度なアーキテクチャを分析する。
- 基本的な画像分類モデルを実装する。
🔹 Lesson 9: シーケンスモデリングとTransformer
概要: 再帰型ニューラルネットワークから革新的なAttentionメカニズムへのシーケンス処理の進化。
学習成果:
- RNN、LSTM、Transformerアーキテクチャの違いを説明する。
- 「Attention Is All You Need」論文と自己注意メカニズムを説明する。
- BERTやGPTなどのモデルにおけるエンコーダーとデコーダーの役割を理解する。
🔹 Lesson 10: 大規模言語モデル(LLM)
概要: テキスト生成とモデル適応に焦点を当てた最先端の生成AIの詳細な研究。
学習成果:
- LLMの事前トレーニングとファインチューニングのライフサイクルを説明する。
- 人間からのフィードバックによる強化学習(RLHF)を探求する。
- プロンプトエンジニアリングとパラメータ効率の良いファインチューニング方法(PEFT/LoRA)を実践する。
🔹 Lesson 11: 高度な生成AIアプリケーション
概要: テキストから、最新APIを使用した検索システムや生成メディアへと拡張します。
学習成果:
- 幻覚を減らすためにRetrieval-Augmented Generation(RAG)を実装する。
- 拡散モデル(例:Stable Diffusion)とVAEの背後にある数学を理解する。
- 最新のAI APIと対話して生成アプリケーションを構築する。
🔹 Lesson 12: AI倫理、安全性、アラインメント
概要: 責任と安全プロトコルに焦点を当て、AIの社会的影響を批判的に分析します。
学習成果:
- バイアスの原因を特定し、AIモデルの公平性を確保する。
- AIの安全性、堅牢性、アラインメント問題について議論する。
- LLMの幻覚に対する説明可能性(XAI)と緩和戦略を評価する。
--- END SOURCE TEXT ---