PolyU | Concepts d'intelligence artificielle
Ce cours complet offre une introduction rigoureuse mais accessible à l'intelligence artificielle, conçu pour les étudiants de troisième cycle et les professionnels. Il comble le fossé entre les fondements historiques et les innovations de pointe, en parcourant des sujets allant de l'IA symbolique et des algorithmes de recherche aux techniques modernes telles que le Deep Learning et l'IA générative. Les étudiants exploreront des sujets essentiels comme la représentation du savoir, le raisonnement probabiliste et l'apprentissage automatique classique, avant de plonger profondément dans les réseaux neuronaux, les Transformers et les grands modèles linguistiques (LLM). Le cours met l'accent sur la fois la théorie et la pratique, en utilisant Python et des frameworks standard de l'industrie comme PyTorch pour implémenter des algorithmes, interagir avec des API modernes et aborder des questions cruciales liées à l'éthique et à la sécurité de l'IA.
Aperçu du cours
📚 Résumé du contenu
Ce cours complet offre une introduction rigoureuse mais accessible à l'Intelligence Artificielle, conçu pour les étudiants de troisième cycle et les professionnels. Faisant le lien entre les fondements historiques et les innovations de pointe, le programme progresse de l'IA symbolique et des algorithmes de recherche à l'apprentissage profond moderne et à l'IA générative. Les étudiants exploreront des sujets essentiels tels que la représentation des connaissances, le raisonnement probabiliste et l'apprentissage automatique classique avant de plonger dans les réseaux neuronaux, les Transformers et les grands modèles linguistiques (LLM). En mettant l'accent sur la théorie et la pratique, le cours utilise Python et des frameworks standard de l'industrie tels que PyTorch pour implémenter des algorithmes, interagir avec des API modernes et aborder des problèmes critiques en matière d'éthique et de sécurité de l'IA.
Faisant le lien entre l'IA symbolique classique et l'IA générative moderne, ce cours dote les étudiants de la profondeur théorique et des compétences pratiques en Python nécessaires pour concevoir, implémenter et évaluer éthiquement des systèmes intelligents.
🎯 Objectifs d'apprentissage
- Maîtriser les fondements de l'IA : Analyser et implémenter des paradigmes fondamentaux de résolution de problèmes, y compris la recherche heuristique, le raisonnement basé sur la logique et la modélisation probabiliste.
- Implémenter des architectures d'apprentissage profond : Concevoir et entraîner des réseaux neuronaux avancés à l'aide de PyTorch, allant des perceptrons multicouches aux réseaux neuronaux convolutifs et aux Transformers.
- Déployer des solutions d'IA générative : Concevoir des applications utilisant de grands modèles linguistiques (LLM), en employant des techniques telles que le fine-tuning, l'ingénierie de prompts et la génération augmentée par récupération (RAG).
- Assurer un développement éthique de l'IA : Évaluer de manière critique les systèmes d'IA pour détecter les biais, assurer la sécurité et l'alignement, en appliquant des stratégies d'explicabilité et de robustesse dans des scénarios réels.
🔹 Leçon 1 : Histoire et fondements de l'IA
Aperçu : Une exploration des origines de l'Intelligence Artificielle, couvrant le test de Turing, la conférence de Dartmouth et la nature cyclique du développement de l'IA connue sous le nom de « hivers de l'IA ».
Résultats d'apprentissage :
- Tracer l'évolution historique de l'IA de 1956 à nos jours.
- Comparer et contraster les paradigmes de l'IA symbolique (GOFAI) et du connexionnisme.
- Discuter de l'impact de la révolution de l'apprentissage profond et des récentes avancées génératives.
🔹 Leçon 2 : Stratégies de recherche : non informée et informée
Aperçu : Introduction aux agents fondamentaux de résolution de problèmes utilisant des algorithmes de recherche, en distinguant les approches de recherche aveugle des approches basées sur des heuristiques.
Résultats d'apprentissage :
- Implémenter des méthodes de recherche non informée, y compris la recherche en largeur (BFS), la recherche en profondeur (DFS) et la recherche à coût uniforme.
- Appliquer des techniques de recherche heuristique telles que la recherche A* et la recherche gloutonne par premier meilleur.
- Analyser la complexité et l'optimalité de différentes stratégies de recherche.
🔹 Leçon 3 : Recherche adversariale et satisfaction de contraintes
Aperçu : Une plongée profonde dans la prise de décision dans des environnements compétitifs (jeux) et la résolution de problèmes définis par des contraintes.
Résultats d'apprentissage :
- Maîtriser l'algorithme Minimax et l'élagage Alpha-Bêta pour les jeux.
- Comprendre la recherche arborescente Monte Carlo (MCTS) utilisée dans des systèmes avancés comme AlphaGo.
- Résoudre des problèmes de satisfaction de contraintes (CSP) en utilisant la recherche par retour arrière et la recherche locale.
🔹 Leçon 4 : Représentation des connaissances et raisonnement
Aperçu : Étude de la manière dont les systèmes d'IA représentent l'information logiquement pour effectuer des inférences, passant de la logique classique aux structures de connaissances modernes.
Résultats d'apprentissage :
- Utiliser la logique propositionnelle et la logique du premier ordre pour la représentation et l'inférence.
- Comparer les systèmes experts hérités aux graphes de connaissances et aux ontologies modernes.
- Explorer l'IA neuro-symbolique comme un pont entre la logique et les réseaux neuronaux.
🔹 Leçon 5 : Incertitude à l'ère du GenAI
Aperçu : Au-delà des calculs de probabilité classiques pour comprendre comment l'incertitude motive l'IA moderne. Cette leçon explore pourquoi les LLM hallucinent (et pourquoi c'est une caractéristique, pas un bug), comment les modèles de diffusion créent de l'art à partir du bruit pur, et comment les agents autonomes prennent des décisions dans des mondes ouverts imprévisibles.
Résultats d'apprentissage :
- De Bayes aux "Vibes" : Acquérir une compréhension intuitive de la confiance et de la calibration, apprendre pourquoi une "probabilité de 99 %" peut toujours être fausse sans se perdre dans des mathématiques complexes.
- Le moteur de la créativité : Analyser comment les mécanismes d'échantillonnage probabiliste (Température, Top-P) permettent la créativité de l'IA générative et mènent aux hallucinations.
- Prise de décision par les agents : Comprendre les stratégies de prise de décision sous incertitude, en se concentrant sur le dilemme "Exploration vs Exploitation" dans l'apprentissage par renforcement et les systèmes multi-agents.
🔹 Leçon 6 : Apprentissage automatique classique
Aperçu : Une introduction pratique aux algorithmes basés sur les données pour l'apprentissage supervisé et non supervisé en utilisant Python.
Résultats d'apprentissage :
- Implémenter des modèles d'apprentissage supervisé, y compris les arbres de décision et les SVM.
- Appliquer des techniques non supervisées comme le clustering K-means et l'ACP.
- Utiliser Scikit-learn pour résoudre des problèmes d'analyse de données de base.
🔹 Leçon 7 : Fondements des réseaux neuronaux
Aperçu : La transition vers le calcul inspiré de la biologie, couvrant l'architecture et les mécanismes d'entraînement des réseaux neuronaux artificiels.
Résultats d'apprentissage :
- Expliquer la structure des neurones artificiels et des perceptrons multicouches (MLP).
- Maîtriser l'algorithme de rétropropagation et diverses fonctions d'activation (ReLU, GELU).
- Construire un réseau neuronal de base en utilisant PyTorch.
🔹 Leçon 8 : Vision par ordinateur et CNN
Aperçu : Concentration sur le traitement des données visuelles grâce à des architectures spécialisées d'apprentissage profond.
Résultats d'apprentissage :
- Comprendre les mécanismes des réseaux neuronaux convolutifs (CNN).
- Analyser des architectures avancées comme ResNet et les Vision Transformers (ViT).
- Implémenter un modèle de classification d'images de base.
🔹 Leçon 9 : Modélisation de séquences et le Transformer
Aperçu : Évolution du traitement des séquences des réseaux neuronaux récurrents (RNN) au mécanisme révolutionnaire d'Attention.
Résultats d'apprentissage :
- Différencier les RNN, les LSTM et l'architecture Transformer.
- Expliquer l'article "Attention Is All You Need" et les mécanismes d'auto-attention.
- Comprendre le rôle des encodeurs et des décodeurs dans des modèles comme BERT et GPT.
🔹 Leçon 10 : Grands modèles linguistiques (LLM)
Aperçu : Étude approfondie de l'IA générative de pointe axée sur la génération de texte et l'adaptation de modèles.
Résultats d'apprentissage :
- Décrire le cycle de vie du pré-entraînement et du fine-tuning des LLM.
- Explorer l'apprentissage par renforcement à partir des retours humains (RLHF).
- S'exercer à l'ingénierie de prompts et aux méthodes de fine-tuning économes en paramètres (PEFT/LoRA).
🔹 Leçon 11 : Applications avancées d'IA générative
Aperçu : Extension au-delà du texte vers les systèmes de récupération et les médias génératifs à l'aide d'API modernes.
Résultats d'apprentissage :
- Implémenter la génération augmentée par récupération (RAG) pour réduire les hallucinations.
- Comprendre les mathématiques derrière les modèles de diffusion (par exemple, Stable Diffusion) et les VAE.
- Interagir avec des API d'IA modernes pour construire une application générative.
🔹 Leçon 12 : Éthique, sécurité et alignement de l'IA
Aperçu : Analyse critique de l'impact sociétal de l'IA, axée sur la responsabilité et les protocoles de sécurité.
Résultats d'apprentissage :
- Identifier les sources de biais et assurer l'équité dans les modèles d'IA.
- Discuter de la sécurité, de la robustesse et du problème d'alignement de l'IA.
- Évaluer l'explicabilité (XAI) et les stratégies d'atténuation pour les hallucinations des LLM.