初心者向けジェネレーティブAI
Generative AI、大規模言語モデル、プロンプトエンジニアリング、およびAzure OpenAIやPower Platformなどのツールを活用したAIアプリケーション開発の基礎を網羅的に学ぶカリキュラム。
レッスン
コース概要
📚 コンテンツ概要
ジェネレーティブAI、大規模言語モデル(LLM)、プロンプト工学、およびAzure OpenAIやPower Platformなどのツールを活用したAI駆動型アプリケーションの開発に関する包括的なカリキュラム。
ジェネレーティブAIの基本をマスターし、スクラッチからインテリジェントなアプリケーションを構築する。
謝辞: Microsoft、Azure、OpenAI。
🎯 学習目標
- モデルの内部メカニズム(トークナイゼーション、アテンション機構、非決定論的出力など)を説明できる。
- ベースモデル、オープンソースとプロプライエタリ、エンコーダー/デコーダー構造といったさまざまなLLMのカテゴリを比較し、ビジネスシーンに適したツールを選択できる。
- モデルの成果を向上させるための戦略を評価し、プロンプト工学、検索拡張生成(RAG)、ファインチューニングのいずれを選ぶべきか判断できる。
- プロンプト工学の定義を述べ、ジェネレーティブAIにおける主要なプログラミングインターフェースとしての役割を説明できる。
- ベースLLMとインストラクションチューニング済みLLMの違いを理解し、トークン処理の仕組みを説明できる。
- 指示、主コンテンツ、ヒント、テンプレートを用いて複雑なプロンプトを構築できる。
openaiライブラリを使用してテキスト生成アプリケーションを構築・設定し、環境変数を管理し、温度パラメータで出力の多様性を調整できる。- ルールベースチャットボットと文脈認識型ジェネレーティブAIアプリケーションの違いを区別し、マイクロソフトの「責任あるAIの6原則」を実装できる。
- テキストを埋め込み表現(ベクトル)に変換し、コサイン類似度を適用することで、単純なキーワードマッチを超えた関連コンテンツを検索する意味的検索を実行できる。
- 画像生成アプリケーションを構築・設定し、「メタプロンプト」を導入してコンテンツの範囲や安全性を定義できる。
🔹 レッスン1:ジェネレーティブAIの基礎と倫理
概要: このレッスンでは、統計的機械学習から現代のトランスフォーマー基盤の大規模言語モデル(LLM)への進化をたどり、ジェネレーティブAIの基本を総合的に紹介します。モデルがトークン化と確率に基づいて動作する仕組み、オープンソースとプロプライエタリモデルの選択・最適化方法、および幻覚やバイアスといったリスクを軽減するための責任あるAIのフレームワークについて学びます。
学習成果:
- モデルの内部メカニズム(トークナイゼーション、アテンション機構、非決定論的出力など)を説明できる。
- ベースモデル、オープンソースとプロプライエタリ、エンコーダー/デコーダー構造といった異なるLLMのカテゴリを比較し、ビジネスシーンに適したツールを選択できる。
- モデルの結果を改善するための戦略を評価し、プロンプト工学、検索拡張生成(RAG)、ファインチューニングのうちどれを選ぶべきか判断できる。
🔹 レッスン2:プロンプト工学の芸術と科学
概要: このレッスンでは、大規模言語モデル(LLM)が高品質かつ一貫性のある応答を生成するように導くために、テキスト入力を設計・最適化するプロンプト工学(PE)のプロセスを扱います。トークナイゼーションやモデルタイプの基礎知識から始まり、思考の流れ(Chain-of-thought)やマエイウティックプロンプティングといった高度な技術を活用し、モデルの不確実性や虚偽情報生成といった限界を緩和します。
学習成果:
- プロンプト工学の定義を述べ、ジェネレーティブAIにおける主要なプログラミングインターフェースとしての役割を説明できる。
- ベースLLMとインストラクションチューニング済みLLMの違いを理解し、トークン処理の仕組みを説明できる。
- 指示、主コンテンツ、ヒント、テンプレートを用いて複雑なプロンプトを構築できる。
🔹 レッスン3:核心的なAIアプリケーションの開発
概要: このレッスンでは、テキスト生成、文脈認識チャットインターフェース、意味的検索アプリケーションといったAI駆動ツールの実践的な開発に焦点を当てます。基本的なAPI統合やパラメータ調整(温度、トークン数)から始まり、テキスト埋め込み、コサイン類似度、責任あるAIフレームワークといった高度な機能の実装へとステップアップします。
学習成果:
openaiライブラリを使用してテキスト生成アプリケーションを構築・設定し、環境変数を管理し、温度パラメータで出力の多様性を調整できる。- ルールベースチャットボットと文脈認識型ジェネレーティブAIアプリケーションの違いを区別し、マイクロソフトの「責任あるAIの6原則」を実装できる。
- テキストを埋め込み表現(ベクトル)に変換し、コサイン類似度を適用することで、単純なキーワードマッチを超えた関連コンテンツを検索する意味的検索を実行できる。
🔹 レッスン4:ローコードおよび統合型AIソリューション
概要: この教材では、AI実装の3つの高度な柱について解説します:DALL-EやMidjourneyといったモデルを使った画像生成アプリケーションの構築、マイクロソフトPower Platformによるローコードソリューションの開発、および「ファンクションコール」を通じたLLM機能の強化です。具体的な展開に焦点を当て、PythonベースのAPI統合から自然言語駆動のアプリ開発、外部データソースとの接続までをカバーします。
学習成果:
- 画像生成アプリケーションを構築・設定し、「メタプロンプト」を導入してコンテンツの境界線や安全性を定義できる。
- Copilot、Dataverse、AI Builderを活用して、Power Platform内でのローコードAIアプリと自動化ワークフローを設計できる。
- ファンクションコールを実装し、一貫した構造化された出力(JSON形式)を確保し、LLMを外部APIと統合できる。
🔹 レッスン5:ユーザー体験(UX)、セキュリティ、アプリケーションライフサイクル
概要: このレッスンでは、ジェネレーティブAIアプリケーションに特有のユーザーエクスペリエンス(UX)、セキュリティプロトコル、運用ライフサイクルの重要な交差点を扱います。説明可能性とユーザー制御を通じて信頼を構築する方法、データ汚染やプロンプトインジェクションといった特有のAIセキュリティ脅威の特定、そして従来のMLOpsからLLMOpsへの移行によりアプリケーションライフサイクルを管理する方法について学びます。
学習成果:
- 説明可能性とユーザー制御を通じて信頼と透明性を促進するAIインターフェースを設計できる。
- データ汚染、プロンプトインジェクション、サプライチェーン脆弱性といった特有のAIセキュリティリスクを特定し、対策を講じられる。
- MLOpsとLLMOpsの違いを区別し、ジェネレーティブAIアプリケーションライフサイクル(アイデーション、構築、運用化)の各段階を説明できる。
🔹 レッスン6:高度な検索とエージェントシステム
概要: このレッスンでは、基本的なLLMインタラクションから、検索拡張生成(RAG)や自律型AIエージェントを利用した高度なシステムへの移行について学びます。ベクトルデータベースを活用してプライベートデータでモデルを接地する方法、プランニング、ツール使用、他のエージェントとの相互作用が可能なエージェントフレームワークによってLLMの能力を拡張する方法を探索します。
学習成果:
- RAGの技術的ワークフロー(チャンク分割、埋め込み、意味的検索)を説明できる。
- コスト、カスタマイズ性、パフォーマンスに基づいて、適切なオープンソースモデル(Llama 2、Mistral、Falcon)を選定・比較できる。
- 主要なAIエージェントフレームワーク(LangChain、AutoGen、TaskWeaver、JARVIS)の違いを理解し、それぞれの具体的なユースケースを把握できる。
🔹 レッスン7:モデルのファインチューニングと専門的アーキテクチャ
概要: このレッスンでは、一般的なプロンプト工学から、教師ありファインチューニングによるモデル最適化、および専門的用途向けの小規模言語モデル(SLM)の活用へと移行します。マイクロソフトのPhi、Mistral、Meta Llamaモデル群の比較分析を行い、サイズ、計算資源要件、マルチモーダル性といった面でのアーキテクチャ上のトレードオフを、クラウドおよびエッジ環境での展開に応じて詳細に説明します。
学習成果:
- ファインチューニングの定義を述べ、プロンプト工学や検索拡張生成(RAG)との使い分けのタイミングを判断できる。
- 大規模言語モデル(LLM)と小規模言語モデル(SLM)のサイズ、理解力、推論速度に関する特徴を比較できる。
- Phi-3.5、Mistral(Large/Small/NeMo)、Llama(3.1/3.2)モデル群の独自の特徴とユースケースを識別できる。