AI004

Lab Magie de l'IA

Une structure de cours rigoureuse intégrant quatre grandes sections : les fondamentaux de l'IA, la génération de grands modèles (GenAI et LLM), les agents et la computation évolutionnaire (mis en avant comme une caractéristique de PolyU), et l'éthique. La logique du cours progresse séquentiellement à travers la Perception et les données (Leçons 1-3), la Cognition et la génération (Leçons 4-6), les Agents et l'évolution (Leçons 7-9), pour se terminer par l'éthique et l'avenir (Leçon 10).

5.0 Évaluation
512 Étudiants

Aperçu du cours

📚 Résumé du contenu

Le "Laboratoire de Magie de l'IA" est un cours rigoureux et intégré conçu pour offrir une compréhension approfondie et séquentielle de l'Intelligence Artificielle moderne. Le programme est structuré en quatre modules progressifs : concepts fondamentaux (Perception & Données), capacités génératives avancées (Cognition & Génération via les LLM et les modèles de diffusion), systèmes autonomes (Agents & Calcul évolutionnaire) et gouvernance éthique (Éthique & Avenir). Les étudiants passeront d'une compréhension de la représentation numérique brute des données à maîtriser la conception de systèmes complexes, aboutissant à une vision globale de la création et du déploiement responsables de l'IA.

Ce cours fournit une compréhension rigoureuse et intégrée de l'IA moderne, couvrant les fondamentaux des données, les techniques de génération par Modèles de Langage Énormes (LLM), l'architecture des agents autonomes, et les considérations éthiques critiques nécessaires pour un déploiement responsable.

🎯 Objectifs d'apprentissage

  1. Maîtriser les fondamentaux de la perception par l'IA, de la représentation des données (Tenseurs) et des tâches fondamentales d'apprentissage supervisé comme la Classification.
  2. Comprendre et contrôler les Modèles de Langage Énormes (LLM) et l'IA générative en appliquant les concepts de prédiction de séquence, du mécanisme d'Attention et des techniques avancées d'ingénierie de prompts.
  3. Concevoir et analyser des Agents Intelligents, en intégrant la boucle Perception-Décision-Action avec des méthodes d'optimisation avancées basées sur des populations, telles que le Calcul Évolutionnaire.
  4. Différencier entre l'IA générative et discriminative, et expliquer le processus mécanique des modèles de diffusion pour la génération d'images à partir de texte.
  5. Évaluer les défis éthiques inhérents à l'IA contemporaine (biais des données, hallucinations des modèles, deepfakes) et proposer des stratégies pour une symbiose humain-IA responsable.

🔹 Leçon 1 : L’œil numérique de la machine

Aperçu : Cette leçon fondamentale explore la perception par la machine, en commençant par le Pixel et le modèle couleur RGB. Les étudiants apprendront comment les données visuelles brutes sont quantifiées et comment la Vision par Ordinateur (CV) utilise l'extraction de caractéristiques. Le mécanisme central introduit est la convolution, un filtre numérique utilisé pour détecter des caractéristiques de bas niveau comme les contours, transformant les images visibles en matrices numériques structurées destinées au traitement ultérieur par l'IA. Objectifs d'apprentissage :

  • Définir les rôles des pixels, des valeurs RGB et de la résolution dans la construction d'une image numérique.
  • Expliquer la nécessité de la Vision par Ordinateur (CV) et de l'extraction de caractéristiques dans la perception par la machine.
  • Concevoir la convolution comme un « filtre numérique » utilisé pour détecter des caractéristiques de bas niveau comme les contours et les coins.
  • Comprendre que toutes les données visuelles sont finalement représentées sous forme de matrices numériques structurées pour le traitement par l'IA.

🔹 Leçon 2 : Blocs de construction des données (Tenseurs)

Aperçu : Cette leçon essentielle passe de la perception brute à une représentation mathématique structurée. Nous catégorisons les données non structurées (texte, audio, images) et introduisons le tenseur — le conteneur multidimensionnel servant de langage universel à toutes les opérations d'IA. Nous visualisons comment différents types de données sont représentés sous forme de tenseurs et définissons la relation Entrée/Sortie (I/O). De façon cruciale, le processus de prétraitement (nettoyage, normalisation, mise à l'échelle) est abordé comme préalable indispensable à une formation efficace des modèles. Objectifs d'apprentissage :

  • Définir les caractéristiques principales des données non structurées (texte, images, audio) et expliquer pourquoi leur conversion est nécessaire.
  • Différencier mathématiquement un vecteur (1D) d’un tenseur (conteneur multidimensionnel).
  • Expliquer comment les tenseurs servent de structure d’entrée/sortie universelle à tous les réseaux neuronaux.
  • Présenter les étapes critiques et objectifs du prétraitement des données (nettoyage et normalisation) avant l’entraînement du modèle.

🔹 Leçon 3 : Le maître de la classification

Aperçu : En se concentrant sur l’apprentissage supervisé, cette leçon explique comment l’IA utilise des données structurées et étiquetées pour accomplir des tâches complexes. La tâche centrale est la classification, où le modèle apprend à trier les entrées en traçant une frontière décisionnelle imaginaire. Nous évaluons l’efficacité du modèle à l’aide de la précision et explorons le principal piège de l’surajustement, où le modèle échoue à généraliser ses connaissances à de nouvelles données inconnues. Objectifs d'apprentissage :

  • Définir l’apprentissage supervisé et identifier les rôles des données d’entraînement et des étiquettes.
  • Expliquer l’objectif de la classification et visualiser comment un modèle établit une frontière décisionnelle.
  • Calculer ou interpréter les performances du modèle à l’aide du critère de précision.
  • Analyser et décrire le concept d’overfitting et son impact négatif sur la généralisation de l’IA.

🔹 Leçon 4 : Prédiction du langage et attention

Aperçu : Cette leçon change de focus vers la génération dynamique de séquences, expliquant le mécanisme central des grands modèles de langage (LLM). Nous définissons les tokens et les limites de la fenêtre contextuelle (la mémoire à court terme de l’LLM). Le processus repose sur la prédiction de séquence (calcul de la probabilité du token suivant) et le mécanisme d'attention, qui ajuste dynamiquement l'importance des tokens. Enfin, les étudiants apprennent comment le paramètre température contrôle le hasard et la créativité de la sortie générée. Objectifs d'apprentissage :

  • Définir un token et expliquer comment le texte est converti en séquences pour le traitement par les LLM.
  • Illustrer la fonction de la fenêtre contextuelle et expliquer sa limitation en tant que mémoire à court terme de l’IA.
  • Décrire le rôle du mécanisme d’attention dans l’aide du LLM à se concentrer sur les informations pertinentes lors de la prédiction.
  • Expliquer la prédiction de séquence comme un processus probabiliste et analyser comment le paramètre de température contrôle la créativité et le hasard de la sortie du modèle.

🔹 Leçon 5 : Le pouvoir de l'ingénierie de prompts

Aperçu : S'appuyant sur la base technique de la prédiction par les LLM, cette leçon se concentre sur le contrôle actif de la sortie à l'aide d'entrées structurées — traitant le langage comme un code de haut niveau. Nous établissons l'architecture de base du prompt (Instructions, Contexte, Format). Les techniques abordées incluent le positionnement de rôle (Persona), l’apprentissage par quelques exemples (Few-Shot Learning) (fournir des exemples) et le chaînage de raisonnement (CoT), qui améliore la précision logique en exigeant un raisonnement étape par étape. Objectifs d'apprentissage :

  • Définir l'ingénierie de prompts et reconnaître le langage naturel comme un nouveau paradigme de programmation pour guider les LLM.
  • Mettre en œuvre les techniques de positionnement de rôle (Persona) et d’apprentissage par quelques exemples pour modifier le ton, le focus et l’adhésion du LLM à un format de sortie spécifique.
  • Appliquer la technique de chaînage de raisonnement (CoT) pour résoudre des problèmes de raisonnement à plusieurs étapes et améliorer la précision logique.
  • Pratiquer l'optimisation itérative des prompts afin de perfectionner et restreindre systématiquement la sortie générée selon les objectifs souhaités.

🔹 Leçon 6 : Art généré et diffusion

Aperçu : Cette leçon passe du contrôle d'entrée textuelle (L5) au processus mécanique de création. Nous distinguons l'IA générative de l'IA discriminative. L'accent principal est mis sur le modèle de diffusion, où chaque image commence par un bruit aléatoire. Le processus implique un débruitage itératif sur des centaines d'étapes, contrôlé précisément par le prompt détaillé afin d'assurer une alignement Texte-Image dans l'espace latent. Objectifs d'apprentissage :

  • Différencier les modèles d'IA générative et discriminative.
  • Expliquer le principe fondamental des modèles de diffusion comme un processus itératif de débruitage partant d'un bruit aléatoire.
  • Décrire le rôle du prompt textuel dans l'obtention de l'alignement Texte-Image.
  • Identifier des applications clés des modèles de diffusion, telles que le transfert de style.

🔹 Leçon 7 : La boucle centrale de l'agent

Aperçu : Cette leçon introduit l'agent intelligent — un système autonome défini par la boucle fermée Perception-Décision-Action (PDA). Nous décomposons les composants : Perception (via Capteurs), Décision (le cerveau interne) et Action (via Actionneurs). Une extension critique est le recours à des outils, où l'agent appelle des utilités externes (comme des moteurs de recherche) pour étendre ses capacités au-delà de son modèle central. Objectifs d'apprentissage :

  • Définir un agent intelligent et le différencier des modèles statiques d'IA générative en fonction de sa capacité à interagir avec un environnement.
  • Schématiser et expliquer le rôle de chaque composant dans la boucle fermée Perception-Décision-Action (PDA).
  • Identifier et donner des exemples de capteurs (perception) et d'actionneurs (action) dans les agents du monde réel et purement numériques.
  • Comprendre la fonction et l'importance du « recours à des outils » pour étendre les capacités effectives d'un agent au-delà de son modèle central.

🔹 Leçon 8 : La puissance de l’évolution (Fonctionnalité PolyU)

Aperçu : Cette leçon présente le calcul évolutionnaire (EC), un paradigme d'optimisation inspiré de la sélection naturelle, utilisé pour trouver des décisions optimales pour les agents. Nous définissons le génome (instructions codées) et le phénotype (comportement exprimé). L’analyse approfondie se concentre sur les trois piliers : Mutation (changement aléatoire), Croisement (combinaison de traits) et Sélection, guidée par la fonction d’adaptation — la règle objective mesurant la qualité de la solution à travers les générations. Objectifs d'apprentissage :

  • Définir le calcul évolutionnaire (EC) et expliquer son inspiration tirée de la sélection naturelle biologique.
  • Différencier entre le génome (paramètres) et le phénotype (comportement) d’une solution en évolution.
  • Illustrer les fonctions de la Mutation, du Croisement et de la Sélection basée sur l’adaptation dans un algorithme évolutionnaire.
  • Décrire le cycle itératif par lequel le EC optimise une population de solutions à travers les générations.
  • Identifier les problèmes d’optimisation où les algorithmes évolutionnaires offrent un avantage viable par rapport aux méthodes traditionnelles.

🔹 Leçon 9 : Collaboration multi-agents et essaims

Aperçu : Passant de l’optimisation individuelle (L8), cette leçon explore la dynamique de l’intelligence collective. Nous analysons des scénarios nécessitant collaboration et concurrence, en nous concentrant sur l’intelligence d’essaim. Les étudiants apprendront le principe de l’émergence, où des comportements globaux sophistiqués (comme les traces d’ants) émergent uniquement à partir de protocoles simples de communication locale, soulignant la complexité qui apparaît lors du dimensionnement des systèmes autonomes. Objectifs d'apprentissage :

  • Différencier les objectifs et mécanismes des systèmes mono-agent et des systèmes multi-agents (MAS).
  • Expliquer le rôle de la communication dans la coordination de la collaboration et de la concurrence entre plusieurs agents.
  • Définir l’« émergence » et identifier des exemples réels et computationnels d’intelligence d’essaim (ex. : optimisation par colonie d’ants).
  • Analyser comment des règles locales simples peuvent générer des comportements groupés complexes et globaux.
  • Discuter pourquoi la complexité des systèmes multi-agents nécessite une réflexion éthique attentive et un contrôle rigoureux.

🔹 Leçon 10 : Éthique, biais et symbiose humain-IA

Aperçu : Cette dernière leçon aborde la responsabilité éthique nécessaire pour l’autonomie avancée. Nous examinons des défauts systémiques comme le biais des données et les limitations intrinsèques des modèles, notamment les hallucinations des modèles. Les risques liés à la génération avancée (deepfakes) sont explorés, conduisant à l’introduction de solutions : le rôle essentiel de la surveillance humaine en boucle (HITL). Le cours se termine par la définition de l’état futur souhaité : la symbiose humain-IA, où l’IA agit comme un puissant copilote, augmentant la capacité humaine. Objectifs d'apprentissage :

  • Identifier les sources et conséquences du biais des données et des hallucinations des modèles dans les systèmes d’IA contemporains.
  • Analyser les risques de sécurité posés par la technologie des deepfakes et l’importance de la vérification du contenu.
  • Expliquer le concept et la nécessité de la surveillance humaine en boucle (HITL) dans les processus décisionnels autonomes.
  • Évaluer le potentiel de la symbiose humain-IA, en voyant l’IA principalement comme un outil de type « copilote » plutôt qu’un remplacement.
  • Formuler une perspective initiale sur les responsabilités éthiques des créateurs futurs d’IA.