PolyU | Concepts d'intelligence artificielle
Ce cours complet offre une introduction rigoureuse mais accessible à l'intelligence artificielle, conçu pour les étudiants diplômés et les professionnels. Il comble le fossé entre les fondements historiques et les innovations de pointe, en progressant du raisonnement symbolique et des algorithmes de recherche jusqu'aux réseaux de neurones profonds et à l'intelligence artificielle générative. Les étudiants exploreront des sujets essentiels tels que la représentation des connaissances, le raisonnement probabiliste et l'apprentissage automatique classique, avant de plonger profondément dans les réseaux de neurones, les Transformers et les grands modèles linguistiques (LLM). En mettant l'accent à la fois sur la théorie et la pratique, le cours utilise Python et des cadres standards de l'industrie comme PyTorch pour implémenter des algorithmes, interagir avec des API modernes et aborder des questions cruciales liées à l'éthique et à la sécurité de l'intelligence artificielle.
Aperçu du cours
📚 Résumé du contenu
Ce cours complet offre une introduction rigoureuse mais accessible à l'intelligence artificielle (IA), conçu pour les étudiants de niveau master et les professionnels. Il comble le fossé entre les fondements historiques et les innovations de pointe, en progressant des systèmes symboliques et des algorithmes de recherche jusqu'à l'apprentissage profond moderne et à l'IA générative. Les étudiants exploreront des sujets essentiels tels que la représentation des connaissances, le raisonnement probabiliste et l'apprentissage automatique classique avant de plonger profondément dans les réseaux neuronaux, les Transformers et les grands modèles linguistiques (LLM). En mettant l'accent sur la théorie et la pratique, le cours utilise Python ainsi que des frameworks industriels standards comme PyTorch pour implémenter des algorithmes, interagir avec des API modernes et aborder des questions critiques relatives à l'éthique et à la sécurité de l'IA.
En comblant le fossé entre l'IA symbolique classique et l'IA générative moderne, ce cours forme les étudiants aux fondements théoriques et aux compétences pratiques en Python nécessaires pour concevoir, mettre en œuvre et évaluer éthiquement des systèmes intelligents.
🎯 Objectifs d'apprentissage
- Maîtriser les fondamentaux de l'IA : Analyser et implémenter des paradigmes fondamentaux de résolution de problèmes, incluant la recherche heuristique, le raisonnement basé sur la logique et la modélisation probabiliste.
- Implémenter des architectures d'apprentissage profond : Concevoir et entraîner des réseaux neuronaux avancés avec PyTorch, allant des perceptrons multicouches aux réseaux convolutifs et aux Transformers.
- Déployer des solutions d'IA générative : Concevoir des applications utilisant des grands modèles linguistiques (LLM), en appliquant des techniques telles que le fine-tuning, l'ingénierie de prompts et la génération augmentée par récupération (RAG).
- Assurer un développement éthique de l'IA : Évaluer critiquement les systèmes d'IA en matière de biais, de sécurité et d'alignement, en appliquant des stratégies d'explicabilité et de robustesse dans des scénarios du monde réel.
🔹 Leçon 1 : Histoire et fondements de l'IA
Aperçu : Exploration des origines de l'intelligence artificielle, couvrant le test de Turing, la conférence de Dartmouth et la nature cyclique du développement de l'IA, connue sous le nom de « périodes de froid ».
Objectifs d'apprentissage :
- Suivre l'évolution historique de l'IA depuis 1956 jusqu'à nos jours.
- Comparer et contraster les paradigmes de l'IA symbolique (GOFAI) et du connectionnisme.
- Discuter de l'impact de la révolution de l'apprentissage profond et des progrès récents en IA générative.
🔹 Leçon 2 : Stratégies de recherche : non informées et informées
Aperçu : Introduction aux agents de résolution de problèmes fondamentaux utilisant des algorithmes de recherche, distinguant les approches aveugles des méthodes heuristiques.
Objectifs d'apprentissage :
- Implémenter des méthodes de recherche non informées telles que BFS, DFS et la recherche à coût uniforme.
- Appliquer des techniques de recherche heuristique comme A* et la recherche Best-First gloutonne.
- Analyser la complexité et l'optimalité des différentes stratégies de recherche.
🔹 Leçon 3 : Recherche adversaire et satisfaction de contraintes
Aperçu : Approfondissement du processus décisionnel dans des environnements concurrentiels (jeux) et de la résolution de problèmes définis par des contraintes.
Objectifs d'apprentissage :
- Maîtriser l'algorithme Minimax et la coupe Alpha-Bêta pour les jeux.
- Comprendre la recherche arborescente Monte Carlo (MCTS) utilisée dans des systèmes avancés comme AlphaGo.
- Résoudre des problèmes de satisfaction de contraintes (CSP) grâce au backtracking et aux recherches locales.
🔹 Leçon 4 : Représentation des connaissances et raisonnement
Aperçu : Étude de la manière dont les systèmes d'IA représentent l'information de façon logique pour effectuer des inférences, passant de la logique classique aux structures de connaissances modernes.
Objectifs d'apprentissage :
- Utiliser la logique propositionnelle et la logique du premier ordre pour la représentation et l'inférence.
- Comparer les anciens systèmes experts aux graphes de connaissances et ontologies modernes.
- Explorer l'IA neuro-symbolique comme pont entre la logique et les réseaux neuronaux.
🔹 Leçon 5 : Incertitude à l'ère de l'IA générative
Aperçu : Aller au-delà des calculs classiques de probabilités pour comprendre comment l'incertitude alimente l'IA moderne. Cette leçon explore pourquoi les LLM hallucinent (et pourquoi c'est une caractéristique, pas un défaut), comment les modèles de diffusion créent de l'art à partir de bruit pur, et comment les agents autonomes prennent des décisions dans des mondes ouverts imprévisibles.
Objectifs d'apprentissage :
- Du Bayes aux « vibes » : acquérir une compréhension intuitive de la confiance et du calibrage, apprendre pourquoi une probabilité de « 99 % » peut encore être fausse sans se perdre dans des mathématiques complexes.
- Le moteur de la créativité : analyser comment les mécanismes d'échantillonnage probabiliste (température, Top-P) permettent la créativité de l'IA générative et entraînent des hallucinations.
- Prise de décision par les agents : comprendre les stratégies de décision face à l'incertitude, en se concentrant sur le dilemme « exploration vs exploitation » en apprentissage par renforcement et systèmes multi-agents.
🔹 Leçon 6 : Apprentissage automatique classique
Aperçu : Introduction pratique aux algorithmes fondés sur les données pour l'apprentissage supervisé et non supervisé, en utilisant Python.
Objectifs d'apprentissage :
- Implémenter des modèles d'apprentissage supervisé tels que les arbres de décision et les SVM.
- Appliquer des techniques non supervisées comme le clustering K-moyennes et l'analyse en composantes principales (PCA).
- Utiliser Scikit-learn pour résoudre des problèmes fondamentaux d'analyse de données.
🔹 Leçon 7 : Fondements des réseaux neuronaux
Aperçu : Transition vers un calcul inspiré de la biologie, couvrant l'architecture et les mécanismes d'entraînement des réseaux neuronaux artificiels.
Objectifs d'apprentissage :
- Expliquer la structure des neurones artificiels et des perceptrons multicouches (MLP).
- Maîtriser l'algorithme de rétropropagation et diverses fonctions d'activation (ReLU, GELU).
- Construire un réseau neuronal de base en utilisant PyTorch.
🔹 Leçon 8 : Vision par ordinateur et CNN
Aperçu : Focus sur le traitement des données visuelles à travers des architectures spécialisées d'apprentissage profond.
Objectifs d'apprentissage :
- Comprendre le fonctionnement des réseaux neuronaux convolutifs (CNN).
- Analyser des architectures avancées telles que ResNet et les Transformers pour la vision (ViT).
- Mettre en œuvre un modèle de classification d'images de base.
🔹 Leçon 9 : Modélisation de séquences et le Transformer
Aperçu : Évolution du traitement des séquences des réseaux récurrents vers le mécanisme révolutionnaire de l'attention.
Objectifs d'apprentissage :
- Différencier les RNN, LSTM et l'architecture Transformer.
- Expliquer le papier « Attention Is All You Need » et les mécanismes d'attention auto.
- Comprendre le rôle des encodeurs et décodeurs dans des modèles comme BERT et GPT.
🔹 Leçon 10 : Grands modèles linguistiques (LLM)
Aperçu : Étude approfondie des technologies d'IA générative de pointe centrées sur la génération de texte et l'adaptation des modèles.
Objectifs d'apprentissage :
- Décrire le cycle de pré-formation et de fine-tuning des LLM.
- Explorer l'apprentissage par renforcement à partir du feedback humain (RLHF).
- Pratiquer l'ingénierie de prompts et les méthodes de fine-tuning efficaces en paramètres (PEFT/LoRA).
🔹 Leçon 11 : Applications avancées de l'IA générative
Aperçu : Extension au-delà du texte vers les systèmes de récupération et les médias génératifs en utilisant des APIs modernes.
Objectifs d'apprentissage :
- Mettre en œuvre la génération augmentée par récupération (RAG) pour réduire les hallucinations.
- Comprendre les mathématiques derrière les modèles de diffusion (ex. Stable Diffusion) et les VAE.
- Interagir avec des APIs d'IA modernes pour construire une application générative.
🔹 Leçon 12 : Éthique de l'IA, sécurité et alignement
Aperçu : Analyse critique de l'impact sociétal de l'IA, en se concentrant sur la responsabilité et les protocoles de sécurité.
Objectifs d'apprentissage :
- Identifier les sources de biais et garantir l'équité dans les modèles d'IA.
- Discuter de la sécurité de l'IA, de la robustesse et du problème d'alignement.
- Évaluer l'explicabilité (XAI) et les stratégies de mitigation des hallucinations des LLM.