Torna ai corsi
AI011 Professional

Intelligenza Artificiale Generativa per Principianti

Un percorso completo che esplora i fondamenti dell'Intelligenza Artificiale Generativa, dei Modelli Linguistici di Grande Dimensione, dell'ingegneria delle istruzioni e dello sviluppo di applicazioni alimentate dall'IA utilizzando strumenti come Azure OpenAI e il Power Platform.

5.0
21h
615 studenti
0 mi piace
Intelligenza Artificiale

Panoramica del corso

📚 Riepilogo del Contenuto

Un curriculum completo che esplora i fondamenti dell'Intelligenza Artificiale Generativa, dei Modelli Linguistici di Grande Dimensione (LLM), dell'ingegneria delle istruzioni e dello sviluppo di applicazioni basate sull'IA utilizzando strumenti come Azure OpenAI e il Power Platform.

Acquisisci padronanza dei fondamenti dell'Intelligenza Artificiale Generativa e crea applicazioni intelligenti dallo zero.

Ringraziamenti: Microsoft, Azure e OpenAI.

🎯 Obiettivi di Apprendimento

  1. Spiegare il funzionamento meccanico dei LLM, compresa la tokenizzazione, il meccanismo di attenzione e l'output non deterministico.
  2. Confrontare diverse categorie di LLM (Modelli Fondamentali, open-source vs. proprietari, architetture Encoder/Decoder) per selezionare lo strumento più adatto a uno scenario aziendale.
  3. Valutare strategie per migliorare i risultati del modello, scegliendo specificamente tra Ingegneria delle Istruzioni (Prompt Engineering), Generazione Aumentata con Recupero (RAG) e Addestramento Finale (Fine-tuning).
  4. Definire l'Ingegneria delle Istruzioni e spiegare il suo ruolo come interfaccia principale di programmazione per l'IA generativa.
  5. Distinguere tra LLM di base e LLM ottimizzati per istruzioni e come elaborano i token.
  6. Creare istruzioni complesse utilizzando istruzioni, contenuti principali, suggerimenti e modelli.
  7. Creare e configurare applicazioni di generazione di testo usando la libreria openai, gestire le variabili di ambiente e regolare la varietà dell'output tramite temperatura.
  8. Distinguere tra chatbot basati su regole e applicazioni generative consapevoli del contesto, implementando i Sei Principi dell'IA Responsabile di Microsoft.
  9. Eseguire ricerche semantiche convertendo il testo in embedding (vettori) e applicando la similarità coseno per trovare contenuti rilevanti oltre il semplice matching di parole chiave.
  10. Creare e configurare applicazioni di generazione di immagini mentre si implementano "meta-istruzioni" per definire limiti di contenuto e sicurezza.

🔹 Lezione 1: Fondamenti e Etica dell'Intelligenza Artificiale Generativa

Panoramica: Questa lezione offre un'introduzione completa all'Intelligenza Artificiale Generativa, tracciandone l'evoluzione dal machine learning statistico ai moderni Modelli Linguistici di Grande Dimensione basati sui Transformer (LLM). Gli studenti esploreranno come questi modelli funzionano attraverso la tokenizzazione e la probabilità, come selezionare e ottimizzare diversi tipi di modelli (open-source vs. proprietari) e il quadro critico per applicare principi di IA responsabile al fine di mitigare rischi come allucinazioni e pregiudizi.

Risultati dell'apprendimento:

  • Spiegare il funzionamento meccanico dei LLM, compresa la tokenizzazione, il meccanismo di attenzione e l'output non deterministico.
  • Confrontare diverse categorie di LLM (Modelli Fondamentali, open-source vs. proprietari, architetture Encoder/Decoder) per selezionare lo strumento più adatto a uno scenario aziendale.
  • Valutare strategie per migliorare i risultati del modello, scegliendo specificamente tra Ingegneria delle Istruzioni (Prompt Engineering), Generazione Aumentata con Recupero (RAG) e Addestramento Finale (Fine-tuning).

🔹 Lezione 2: L'Arte e la Scienza dell'Ingegneria delle Istruzioni

Panoramica: Questa lezione esplora l'Ingegneria delle Istruzioni (PE) come processo di progettazione e ottimizzazione degli input testuali (istruzioni) per guidare i Modelli Linguistici di Grande Dimensione (LLM) verso risposte di alta qualità e coerenti. Gli studenti passeranno dalla comprensione dei meccanismi fondamentali della tokenizzazione e dei tipi di modello all'applicazione di tecniche avanzate come il ragionamento a catena (Chain-of-thought) e l'inserzione maieutica per mitigare limitazioni del modello come la stocasticità e la fabbricazione di informazioni.

Risultati dell'apprendimento:

  • Definire l'Ingegneria delle Istruzioni e spiegare il suo ruolo come interfaccia principale di programmazione per l'IA generativa.
  • Distinguere tra LLM di base e LLM ottimizzati per istruzioni e come elaborano i token.
  • Creare istruzioni complesse utilizzando istruzioni, contenuti principali, suggerimenti e modelli.

🔹 Lezione 3: Sviluppo di Applicazioni AI di Base

Panoramica: Questa lezione esplora lo sviluppo pratico di strumenti trainati dall'IA, con particolare attenzione alla generazione di testo, interfacce chat contestuali e applicazioni di ricerca semantica. Gli studenti passano dall'integrazione di base con API e tuning dei parametri (temperatura e token) all'implementazione di funzionalità avanzate come embedding di testo, similarità coseno e framework di IA responsabile.

Risultati dell'apprendimento:

  • Creare e configurare applicazioni di generazione di testo usando la libreria openai, gestire le variabili di ambiente e regolare la varietà dell'output tramite temperatura.
  • Distinguere tra chatbot basati su regole e applicazioni generative consapevoli del contesto, implementando i Sei Principi dell'IA Responsabile di Microsoft.
  • Eseguire ricerche semantiche convertendo il testo in embedding (vettori) e applicando la similarità coseno per trovare contenuti rilevanti oltre il semplice matching di parole chiave.

🔹 Lezione 4: Soluzioni AI a Basso Codice e Integrate

Panoramica: Questo materiale copre tre pilastri avanzati dell'implementazione dell'IA: la creazione di applicazioni di generazione di immagini con modelli come DALL-E e Midjourney, lo sviluppo di soluzioni a basso codice tramite il Microsoft Power Platform e il potenziamento delle capacità dei LLM attraverso la "chiamata di funzioni". Il contenuto si concentra sulle fasi pratiche di implementazione, dalla integrazione API basata su Python allo sviluppo di applicazioni guidato dal linguaggio naturale e alla connessione dell'IA a fonti esterne di dati.

Risultati dell'apprendimento:

  • Creare e configurare applicazioni di generazione di immagini mentre si implementano "meta-istruzioni" per definire limiti di contenuto e sicurezza.
  • Progettare applicazioni AI a basso codice e flussi di lavoro automatizzati usando Copilot, Dataverse e AI Builder all'interno del Power Platform.
  • Implementare la chiamata di funzioni per garantire un output strutturato coerente (JSON) e integrare i LLM con API esterne.

🔹 Lezione 5: UX, Sicurezza e Ciclo Vitale dell'Applicazione

Panoramica: Questa lezione affronta l'intersezione critica tra esperienza utente (UX), protocolli di sicurezza e ciclo vitale operativo specificamente per le applicazioni di Intelligenza Artificiale Generativa. Esamina come costruire fiducia attraverso la spiegabilità, identifica minacce di sicurezza specifiche dell'IA come il poisoning dei dati e l'iniezione di prompt, e illustra la transizione dal MLOps tradizionale al LLMOps per gestire il ciclo vitale dell'applicazione.

Risultati dell'apprendimento:

  • Progettare interfacce AI che promuovono fiducia e trasparenza attraverso la spiegabilità e il controllo dell'utente.
  • Identificare e mitigare rischi specifici legati all'IA, inclusi il poisoning dei dati, l'iniezione di prompt e le vulnerabilità nella catena di approvvigionamento.
  • Distinguere tra MLOps e LLMOps e spiegare le fasi del ciclo vitale delle applicazioni di Intelligenza Artificiale Generativa (Ideazione, Sviluppo, Operatività).

🔹 Lezione 6: Recupero Avanzato e Sistemi Agentici

Panoramica: Questa lezione affronta il passaggio dalle interazioni basilari con i LLM a sistemi sofisticati che utilizzano la Generazione Aumentata con Recupero (RAG) e Agenti AI autonomi. Gli studenti esploreranno come ancorare i modelli a dati privati tramite database vettoriali e come espandere le capacità dei LLM attraverso framework agenzie che possono pianificare, usare strumenti e interagire con altri agenti.

Risultati dell'apprendimento:

  • Spiegare il flusso tecnico di RAG, includendo chunking, embedding e recupero semantico.
  • Confrontare e selezionare modelli open-source appropriati (Llama 2, Mistral, Falcon) in base a costo, personalizzazione e prestazioni.
  • Distinguere tra i principali framework per agenti AI (LangChain, AutoGen, TaskWeaver, JARVIS) e i loro casi d'uso specifici.

🔹 Lezione 7: Addestramento Finale dei Modelli e Architetture Specializzate

Panoramica: Questa lezione affronta il passaggio dall'ingegneria delle istruzioni generiche all'ottimizzazione dei modelli tramite addestramento supervisionato e l'uso di Small Language Models (SLM) specializzati. Fornisce un'analisi comparativa delle famiglie di modelli Microsoft Phi, Mistral e Meta Llama, dettagliando i compromessi architetturali riguardo dimensione, richieste computazionali e multimodalità per il deployment in ambienti cloud e edge.

Risultati dell'apprendimento:

  • Definire l'addestramento finale e determinare quando usarlo invece dell'ingegneria delle istruzioni o della Generazione Aumentata con Recupero (RAG).
  • Confrontare le caratteristiche dei Modelli Linguistici di Grande Dimensione (LLM) e dei Modelli Linguistici Piccoli (SLM) in termini di dimensione, comprensione e velocità di inferenza.
  • Identificare le caratteristiche uniche e i casi d'uso delle famiglie di modelli Phi-3.5, Mistral (Large/Small/NeMo) e Llama (3.1/3.2).