IA générative pour débutants
Un programme complet explorant les fondamentaux de l'IA générative, des grands modèles linguistiques, de l'ingénierie des prompts et du développement d'applications alimentées par l'IA à l'aide d'outils comme Azure OpenAI et la Power Platform.
Leçons
Aperçu du cours
📚 Résumé du contenu
Un programme complet explorant les fondamentaux de l'IA générative, des grands modèles linguistiques (LLM), de l'ingénierie de prompts et du développement d'applications alimentées par l'IA à l'aide d'outils comme Azure OpenAI et la Power Platform.
Maîtrisez les bases de l'IA générative et créez des applications intelligentes dès le départ.
Remerciements : Microsoft, Azure et OpenAI.
🎯 Objectifs d'apprentissage
- Expliquer le fonctionnement interne des LLM, y compris la tokenisation, le mécanisme d'attention et la sortie non déterministe.
- Comparer diverses catégories de LLM (modèles fondamentaux, open-source vs propriétaires, architectures Encoder/Decoder) afin de choisir l'outil adapté à une situation métier.
- Évaluer des stratégies d'amélioration des résultats du modèle, notamment en choisissant entre l'ingénierie de prompts, la génération augmentée par recherche (RAG) et le fine-tuning.
- Définir l'ingénierie de prompts et expliquer son rôle en tant qu'interface de programmation principale pour l'IA générative.
- Différencier les LLM de base et les LLM ajustés aux instructions, ainsi que leur traitement des tokens.
- Créer des prompts complexes en utilisant des instructions, du contenu principal, des indices et des modèles.
- Construire et configurer des applications de génération de texte à l'aide de la bibliothèque
openai, gérer les variables d'environnement et ajuster la variété des sorties via la température. - Différencier les chatbots basés sur des règles et les applications d'IA générative contextuelles tout en mettant en œuvre les Six Principes de l'IA responsable de Microsoft.
- Exécuter une recherche sémantique en convertissant le texte en embeddings (vecteurs) et en appliquant la similarité cosinus pour retrouver du contenu pertinent au-delà des simples correspondances de mots-clés.
- Créer et configurer des applications de génération d’images tout en implémentant des « meta-prompts » pour définir des limites de contenu et garantir la sécurité.
🔹 Leçon 1 : Fondements et éthique de l'IA générative
Aperçu : Cette leçon offre une introduction complète à l'IA générative, remontant de l'apprentissage automatique statistique jusqu'aux grands modèles linguistiques modernes basés sur les Transformers. Les apprenants exploreront comment ces modèles fonctionnent via la tokenisation et la probabilité, comment sélectionner et optimiser différents types de modèles (open-source vs propriétaires), et le cadre critique d'application des principes d'IA responsable afin de réduire les risques tels que les hallucinations et les biais.
Objectifs d'apprentissage :
- Expliquer le fonctionnement interne des LLM, incluant la tokenisation, le mécanisme d'attention et la sortie non déterministe.
- Comparer diverses catégories de LLM (modèles fondamentaux, open-source vs propriétaires, architectures Encoder/Decoder) afin de choisir l'outil adapté à une situation métier.
- Évaluer des stratégies d'amélioration des résultats du modèle, notamment en choisissant entre l'ingénierie de prompts, la génération augmentée par recherche (RAG) et le fine-tuning.
🔹 Leçon 2 : L'art et la science de l'ingénierie de prompts
Aperçu : Cette leçon explore l'ingénierie de prompts (PE) comme le processus de conception et d'optimisation des entrées textuelles (prompts) afin d'orienter les grands modèles linguistiques (LLM) vers des réponses de haute qualité et cohérentes. Les étudiants passeront de la compréhension des mécanismes fondamentaux de la tokenisation et des types de modèles à l'application de techniques avancées comme le raisonnement en chaîne (Chain-of-thought) et le promptage maïeutique pour atténuer les limitations des modèles telles que la stochasticité et la fabrication d'informations.
Objectifs d'apprentissage :
- Définir l'ingénierie de prompts et expliquer son rôle en tant qu'interface de programmation principale pour l'IA générative.
- Différencier les LLM de base et les LLM ajustés aux instructions, ainsi que leur traitement des tokens.
- Créer des prompts complexes en utilisant des instructions, du contenu principal, des indices et des modèles.
🔹 Leçon 3 : Développement d'applications AI centrales
Aperçu : Cette leçon explore le développement pratique d'outils pilotés par l'IA, en se concentrant sur la génération de texte, les interfaces de chat contextuelles et les applications de recherche sémantique. Les apprenants passent de l'intégration de base des API et de l'ajustement des paramètres (température et tokens) à la mise en œuvre de fonctionnalités avancées telles que les embeddings textuels, la similarité cosinus et les cadres d'IA responsable.
Objectifs d'apprentissage :
- Construire et configurer des applications de génération de texte à l'aide de la bibliothèque
openai, gérer les variables d'environnement et ajuster la variété des sorties via la température. - Différencier les chatbots basés sur des règles et les applications d'IA générative contextuelles tout en mettant en œuvre les Six Principes de l'IA responsable de Microsoft.
- Exécuter une recherche sémantique en convertissant le texte en embeddings (vecteurs) et en appliquant la similarité cosinus pour retrouver du contenu pertinent au-delà des simples correspondances de mots-clés.
🔹 Leçon 4 : Solutions IA à faible codage et intégrées
Aperçu : Ce matériel couvre trois piliers avancés de la mise en œuvre de l'IA : la création d'applications de génération d'images à l'aide de modèles comme DALL-E et Midjourney, le développement de solutions à faible codage via la Power Platform Microsoft, et l'amélioration des capacités des LLM grâce à l'appel de fonctions ("function calling"). Le contenu se concentre sur le déploiement pratique, allant des intégrations API basées sur Python jusqu'à la création d'applications guidées par le langage naturel et la connexion de l'IA à des sources de données externes.
Objectifs d'apprentissage :
- Créer et configurer des applications de génération d’images tout en implémentant des « meta-prompts » pour définir des limites de contenu et garantir la sécurité.
- Concevoir des applications IA à faible codage et des workflows automatisés à l’aide de Copilot, Dataverse et AI Builder dans la Power Platform.
- Implémenter l’appel de fonctions pour assurer une sortie structurée cohérente (JSON) et intégrer les LLM à des API externes.
🔹 Leçon 5 : UX, sécurité et cycle de vie des applications
Aperçu : Cette leçon traite de l'intersection critique entre l'expérience utilisateur (UX), les protocoles de sécurité et le cycle opérationnel spécifique aux applications d'IA générative. Elle explore comment instaurer la confiance grâce à la transparence, identifie les menaces spécifiques à l'IA comme le poisoning de données et les injections de prompts, et décrit la transition du MLOps traditionnel vers le LLMOps pour gérer le cycle de vie de l'application.
Objectifs d'apprentissage :
- Concevoir des interfaces IA favorisant la confiance et la transparence grâce à la explicabilité et au contrôle utilisateur.
- Identifier et atténuer les risques de sécurité propres à l'IA, notamment le poisoning de données, les injections de prompts et les vulnérabilités de la chaîne d'approvisionnement.
- Différencier le MLOps et le LLMOps, et expliquer les étapes du cycle de vie des applications d'IA générative (Idéation, Construction, Opérationnalisation).
🔹 Leçon 6 : Récupération avancée et systèmes agents
Aperçu : Cette leçon aborde la transition des interactions basiques avec les LLM vers des systèmes sophistiqués qui utilisent la génération augmentée par recherche (RAG) et des agents autonomes d'IA. Les apprenants exploreront comment ancrer les modèles dans des données privées à l’aide de bases de données vectorielles et comment étendre les capacités des LLM via des cadres agences capables de planifier, d'utiliser des outils et d'interagir avec d'autres agents.
Objectifs d'apprentissage :
- Expliquer le flux technique du RAG, incluant le découpage (chunking), l'embedding et la récupération sémantique.
- Comparer et sélectionner des modèles open-source appropriés (Llama 2, Mistral, Falcon) en fonction du coût, de la personnalisation et des performances.
- Différencier les principaux cadres d'agents d'IA (LangChain, AutoGen, TaskWeaver, JARVIS) et leurs cas d'utilisation spécifiques.
🔹 Leçon 7 : Fine-tuning des modèles et architectures spécialisées
Aperçu : Cette leçon traite de la transition de l'ingénierie de prompts générale vers l'optimisation des modèles par fine-tuning supervisé et l'utilisation de petits modèles linguistiques (SLMs) spécialisés. Elle propose une analyse comparative des familles de modèles Microsoft Phi, Mistral et Meta Llama, détaillant leurs compromis architecturaux en termes de taille, de besoins en calcul et de multimodalité pour un déploiement dans des environnements cloud et edge.
Objectifs d'apprentissage :
- Définir le fine-tuning et déterminer quand l'utiliser plutôt que l'ingénierie de prompts ou la génération augmentée par recherche (RAG).
- Contraire les caractéristiques des grands modèles linguistiques (LLM) et des petits modèles linguistiques (SLM) en matière de taille, de compréhension et de vitesse d'inférence.
- Identifier les caractéristiques uniques et les cas d'utilisation des familles de modèles Phi-3.5, Mistral (Large/Small/NeMo) et Llama (3.1/3.2).