AI004

Laboratorio Magico dell'IA

Una struttura didattica rigorosa che integra quattro sezioni principali: Fondamenti dell'Intelligenza Artificiale, Generazione con Modelli di Grande Dimensione (GenAI e LLM), Agenti e Calcolo Evoluzionistico (presentato come caratteristica distintiva di PolyU) ed Etica. La logica del corso procede in modo sequenziale attraverso Percezione e Dati (Lez. 1-3), Cognizione e Generazione (Lez. 4-6), Agenti ed Evoluzione (Lez. 7-9) e si conclude con Etica e Futuro (Lez. 10).

5.0 Valutazione
512 Studenti

Panoramica del corso

📚 Riepilogo del Contenuto

Il "Laboratorio Magico dell'Intelligenza Artificiale" è un corso rigoroso e integrato progettato per fornire una comprensione approfondita e progressiva dell'Intelligenza Artificiale moderna. Il curriculum è strutturato in quattro moduli progressivi: concetti fondamentali (Percezione & Dati), capacità generative avanzate (Cognizione & Generazione tramite LLM e Modelli di Diffusione), sistemi autonomi (Agenti & Calcolo Evolutivo) e governance etica (Etica & Futuro). Gli studenti passeranno dalla comprensione della rappresentazione numerica grezza dei dati al dominio della progettazione di sistemi complessi, arrivando a una visione completa della creazione e del deploy responsabile dell'IA.

Questo corso offre una comprensione rigorosa e integrata dell'IA moderna, coprendo i fondamenti dei dati, le tecniche di generazione basate su Large Language Model (LLM), l'architettura degli Agenti autonomi e le considerazioni etiche critiche necessarie per un deployment responsabile.

🎯 Obiettivi di Apprendimento

  1. Padroneggiare i fondamenti della percezione AI, della rappresentazione dei dati (Tensor) e delle attività fondamentali di apprendimento supervisionato come la Classificazione.
  2. Comprendere e controllare i Large Language Models (LLM) e l'AI generativa applicando concetti di predizione sequenziale, il meccanismo di Attenzione e tecniche avanzate di Prompt Engineering.
  3. Progettare e analizzare Agenti Intelligenti, integrando il ciclo Percezione-Decisione-Azione con metodi di ottimizzazione avanzati basati sulla popolazione come il Calcolo Evolutivo.
  4. Distinguere tra IA Generativa e Discriminativa e spiegare il processo meccanico dei Modelli di Diffusione per la generazione da testo a immagine.
  5. Valutare le sfide etiche intrinseche all'IA contemporanea (bias nei dati, allucinazioni nei modelli, deepfake) e proporre strategie per una Simbiosi Umano-AI responsabile.

🔹 Lezione 1: L’occhio digitale della macchina

Panoramica: Questa lezione fondamentale esplora la percezione macchina, partendo dal Pixel e dal Modello Colore RGB. Gli studenti impareranno come i dati visivi grezzi vengano quantificati e come la Visione Computazionale (CV) impieghi l’Estrazione di Caratteristiche. Il meccanismo centrale introdotto è la Convolutione, un filtro digitale usato per rilevare caratteristiche di basso livello come bordi, trasformando immagini visibili in matrici numeriche strutturate per successive elaborazioni AI. Risultati dell’apprendimento:

  • Definire i ruoli di Pixel, valori RGB e Risoluzione nella costruzione di un’immagine digitale.
  • Spiegare la necessità della Visione Computazionale (CV) e dell’Estrazione di Caratteristiche nella percezione macchina.
  • Concepire la convoluzione come un “filtro digitale” utilizzato per rilevare caratteristiche di basso livello come bordi e angoli.
  • Comprendere che tutti i dati visivi sono infine rappresentati come matrici numeriche strutturate per l’elaborazione AI.

🔹 Lezione 2: Blocchi di base dei dati (Tensor)

Panoramica: Questa lezione essenziale passa dalla percezione grezza alla rappresentazione matematica strutturata. Classifichiamo i dati non strutturati (testo, audio, immagini) e introduciamo il Tensor—il contenitore multidimensionale che funge da lingua universale per tutte le computazioni AI. Visualizziamo come vari tipi di dati vengano rappresentati come Tensor e definiamo la relazione Input/Output (I/O). In modo cruciale, viene trattato il processo di Pre-elaborazione (pulizia, scaling e normalizzazione) come prerequisito per un addestramento efficace del modello. Risultati dell’apprendimento:

  • Definire le caratteristiche principali dei dati non strutturati (testo, immagini, audio) e spiegare perché è necessario il loro conversione.
  • Differenziare matematicamente un vettore (1D) da un tensore (contenitore multidimensionale).
  • Spiegare come i Tensor servano da struttura universale di input/output per tutti i reti neurali.
  • Illustrare i passaggi critici e gli obiettivi della pre-elaborazione dei dati (pulizia e normalizzazione) prima dell’addestramento del modello.

🔹 Lezione 3: Il Maestro della Classificazione

Panoramica: Concentrandosi sull’Apprendimento Supervisionato, questa lezione spiega come l’IA utilizzi dati strutturati e contrassegnati per svolgere compiti complessi. L’attività centrale è la Classificazione, dove il modello impara a ordinare gli input tracciando un confine decisionale metaforico. Valutiamo l’efficacia del modello usando l’Accuracy e esploriamo il principale rischio dell’Overfitting, quando il modello non riesce a generalizzare le proprie conoscenze a nuovi dati non visti. Risultati dell’apprendimento:

  • Definire l’Apprendimento Supervisionato e identificare i ruoli dei Dati di Addestramento e delle Etichette.
  • Spiegare lo scopo della Classificazione e visualizzare come un modello stabilisca un Confine Decisionale.
  • Calcolare o interpretare le prestazioni del modello usando il metrica di Accuracy.
  • Analizzare e descrivere il concetto di Overfitting e il suo impatto negativo sulla generalizzazione dell’IA.

🔹 Lezione 4: Predizione del Linguaggio e Attenzione

Panoramica: Questa lezione sposta il focus sulla generazione dinamica di sequenze, spiegando il meccanismo centrale dei Large Language Models (LLM). Definiamo i Token e i limiti della Finestra di Contesto (la memoria a breve termine dell’LLM). Il processo si basa sulla Predizione Sequenziale (calcolare la probabilità del token successivo) e sul Meccanismo di Attenzione, che pesa dinamicamente l’importanza dei token. Infine, gli studenti imparano come il parametro Temperature controlli la casualità e la creatività dell’output generato. Risultati dell’apprendimento:

  • Definire un token e spiegare come il testo venga convertito in sequenze per l’elaborazione LLM.
  • Illustrare la funzione della Finestra di Contesto e spiegare il suo limite come memoria a breve termine dell’AI.
  • Descrivere il ruolo del Meccanismo di Attenzione nel aiutare l’LLM a concentrarsi sulle informazioni pertinenti durante la previsione.
  • Spiegare la predizione sequenziale come processo probabilistico e analizzare come il parametro Temperature controlli la creatività e la casualità dell’output del modello.

🔹 Lezione 5: Magia dell'Ingegneria dei Prompt

Panoramica: Costruendo sulla base tecnica della predizione LLM, questa lezione si concentra sul controllo attivo dell’output attraverso input strutturati — trattando il linguaggio come codice di alto livello. Stabiliamo l’architettura di base del prompt (Istruzioni, Contesto, Formato). Le tecniche trattate includono il Settaggio del Ruolo (Persona), l’Apprendimento a Basso Numero di Esempi (Few-Shot Learning) (fornendo esempi) e il Chain of Thought (CoT), che migliora l’accuratezza logica richiedendo ragionamento passo dopo passo. Risultati dell’apprendimento:

  • Definire l’ingegneria dei prompt e riconoscere il linguaggio naturale come nuova paradigma di programmazione per guidare gli LLM.
  • Implementare tecniche di Settaggio del Ruolo (Persona) e di Few-Shot Learning per modificare tono, focalizzazione e conformità a formati specifici dell’output LLM.
  • Applicare la tecnica Chain of Thought (CoT) per risolvere problemi di ragionamento a più fasi e migliorare l’accuratezza logica.
  • Praticare l’ottimizzazione iterativa dei prompt per affinare e limitare sistematicamente l’output generato in base agli obiettivi desiderati.

🔹 Lezione 6: Arte Generativa e Diffusione

Panoramica: Questa lezione passa dal controllo dell’input testuale (L5) al processo meccanico della creazione. Distinguiamo l’IA Generativa dall’IA Discriminativa. Il focus centrale è il Modello di Diffusione, dove ogni immagine parte da rumore casuale. Il processo comporta un’iterativa rimozione del rumore su centinaia di passi, controllata con precisione dal prompt dettagliato per garantire l’Allineamento Testo-Immagine all’interno dello Spazio Latente. Risultati dell’apprendimento:

  • Differenziare tra modelli di IA Generativa e Discriminativa.
  • Spiegare il principio fondamentale dei Modelli di Diffusione come un processo iterativo di rimozione del rumore che parte da rumore casuale.
  • Descrivere il ruolo del prompt testuale nell’ottenere l’allineamento Testo-Immagine.
  • Identificare applicazioni chiave dei modelli di diffusione, come il trasferimento di stile.

🔹 Lezione 7: Il Ciclo Fondamentale dell’Agente

Panoramica: Questa lezione introduce l’Agente Intelligente — un sistema autonomo definito dal ciclo chiuso Percezione-Decisione-Azione (PDA). Scomponiamo i componenti: Percezione (attraverso Sensori), Decisione (il cervello interno) e Azione (attraverso Attuatori). Un’espansione cruciale è il Utilizzo degli Strumenti, dove l’agente chiama utilità esterne (come motori di ricerca) per espandere le proprie capacità oltre il proprio modello di base. Risultati dell’apprendimento:

  • Definire un agente intelligente e differenziarlo dai modelli statici di IA generativa sulla base della sua capacità di interagire con un ambiente.
  • Diagrammare e spiegare il ruolo di ciascun componente all’interno del ciclo chiuso Percezione-Decisione-Azione (PDA).
  • Identificare ed esemplificare sensori (percezione) e attuatori (azione) sia in agenti reali che puramente digitali.
  • Comprendere la funzione e l’importanza dell’“Utilizzo degli Strumenti” nel estendere le capacità effettive di un agente al di là del suo modello di base.

🔹 Lezione 8: Il Potere dell’Evolution (Funzionalità PolyU)

Panoramica: Questa lezione introduce il Calcolo Evolutivo (EC), un paradigma di ottimizzazione ispirato alla selezione naturale, usato per trovare decisioni ottimali degli agenti. Definiamo il Genotipo (istruzioni codificate) e il Fenotipo (comportamento espresso). L’approfondimento si concentra sui tre pilastri: Mutazione (cambiamento casuale), Crossover (combinazione di tratti) e Selezione, guidata dalla Funzione di Adattamento — la regola oggettiva che misura la qualità della soluzione attraverso le generazioni. Risultati dell’apprendimento:

  • Definire il Calcolo Evolutivo (EC) e spiegare la sua ispirazione dalla selezione naturale biologica.
  • Differenziare tra Genotipo (parametri) e Fenotipo (comportamento) di una soluzione in evoluzione.
  • Illustrare le funzioni di Mutazione, Crossover e Selezione basata sulle prestazioni all’interno di un Algoritmo Evolutivo.
  • Descrivere il ciclo iterativo attraverso cui l’EC ottimizza una popolazione di soluzioni attraverso le generazioni.
  • Identificare problemi di ottimizzazione dove gli Algoritmi Evolutivi offrono un vantaggio praticabile rispetto ai metodi tradizionali.

🔹 Lezione 9: Collaborazione tra Agenti e Sciame

Panoramica: Passando dall’ottimizzazione individuale (L8), questa lezione esplora la dinamica dell’intelligenza collettiva. Analizziamo scenari che richiedono collaborazione e competizione, concentrandoci sull’Intelligenza di Sciame. Gli studenti impareranno il principio dell’Emergenza, dove comportamenti globali sofisticati (come i percorsi delle formiche) emergono puramente da protocolli semplici di comunicazione locale, evidenziando la complessità che nasce quando si scala l’autonomia dei sistemi. Risultati dell’apprendimento:

  • Differenziare obiettivi e meccanismi dei sistemi a singolo agente rispetto ai Sistemi Multi-Agente (MAS).
  • Spiegare il ruolo della comunicazione nel coordinare collaborazione e competizione tra diversi agenti.
  • Definire l’“Emergenza” e identificare esempi reali e computazionali di Intelligenza di Sciame (es. ottimizzazione del colonia di formiche).
  • Analizzare come regole semplici e locali possano generare comportamenti complessi e globali di gruppo.
  • Discutere perché la complessità dei sistemi multi-agente richiede una considerazione etica accurata e un controllo adeguato.

🔹 Lezione 10: Etica, Bias e Simbiosi Uomo-AI

Panoramica: Questa lezione finale affronta la necessaria responsabilità etica richiesta per l’autonomia avanzata. Esaminiamo difetti sistemici come il Bias nei Dati e le limitazioni intrinseche dei modelli, in particolare le Allucinazioni nei Modelli. Vengono esplorati i rischi della generazione avanzata (Deepfake), portando all’introduzione di soluzioni: il ruolo essenziale del controllo Uomo-in-Ciclo (HITL). Il corso conclude definendo lo stato futuro desiderato: la Simbiosi Uomo-AI, dove l’IA agisce come un potente Copilota, potenziando le capacità umane. Risultati dell’apprendimento:

  • Identificare fonti e conseguenze del bias nei dati e delle allucinazioni nei modelli nelle attuali sistemi AI.
  • Analizzare i rischi di sicurezza posti dalla tecnologia dei deepfake e l’importanza della verifica del contenuto.
  • Spiegare il concetto e la necessità del controllo Uomo-in-Ciclo (HITL) nei processi decisionali autonomi.
  • Valutare il potenziale della Simbiosi Uomo-AI, vedendo l’IA principalmente come strumento di tipo “Copilota” piuttosto che come sostituto.
  • Formulare una prima visione delle responsabilità etiche dei futuri creatori di IA.