Voltar aos Cursos
AI011 Professional

IA Generativa para Iniciantes

Um currículo abrangente que explora os fundamentos da IA Generativa, Modelos de Linguagem de Grande Porte, engenharia de prompts e o desenvolvimento de aplicações com base em IA usando ferramentas como Azure OpenAI e a Power Platform.

5.0
21h
615 estudantes
0 curtidas
Inteligência Artificial

Visão Geral do Curso

📚 Resumo do Conteúdo

Um currículo abrangente que explora os fundamentos da IA Generativa, Modelos de Linguagem de Grande Porte (LLMs), engenharia de prompts e o desenvolvimento de aplicações com base em IA usando ferramentas como Azure OpenAI e Power Platform.

Domine os fundamentos da IA Generativa e crie aplicações inteligentes do zero.

Agradecimentos: Microsoft, Azure e OpenAI.

🎯 Objetivos de Aprendizagem

  1. Explicar o funcionamento mecânico interno dos LLMs, incluindo tokenização, mecanismo de atenção e saída não determinística.
  2. Comparar diferentes categorias de LLMs (Modelos Fundamentais, código aberto versus proprietários e arquiteturas Encoder/Decoder) para selecionar a ferramenta adequada para um cenário empresarial.
  3. Avaliar estratégias para melhorar os resultados do modelo, especialmente escolhendo entre Engenharia de Prompts, Geração Incrementada por Recuperação (RAG) e Fine-tuning.
  4. Definir Engenharia de Prompts e explicar seu papel como a principal interface de programação para a IA Generativa.
  5. Diferenciar entre LLMs Base e LLMs Treinados com Instruções e como eles processam tokens.
  6. Criar prompts complexos usando instruções, conteúdo principal, pistas e modelos.
  7. Criar e configurar aplicações de geração de texto usando a biblioteca openai, gerenciando variáveis de ambiente e ajustando a variedade da saída por meio da temperatura.
  8. Diferenciar entre chatbots baseados em regras e aplicações de IA generativa contextualizadas, implementando os Seis Princípios da IA Responsável da Microsoft.
  9. Executar busca semântica convertendo texto em embeddings (vetores) e aplicando similaridade coseno para encontrar conteúdo relevante além da correspondência simples por palavras-chave.
  10. Criar e configurar aplicações de geração de imagens enquanto implementa "prompts meta" para definir limites de conteúdo e segurança.

🔹 Aula 1: Fundamentos e Ética da IA Generativa

Visão Geral: Esta aula oferece uma introdução abrangente à IA Generativa, traçando sua evolução desde a aprendizagem estatística até os modernos Modelos de Linguagem de Grande Porte baseados em Transformers (LLMs). Os alunos explorarão como esses modelos funcionam por meio de tokenização e probabilidade, como selecionar e otimizar diferentes tipos de modelo (código aberto versus proprietário) e o quadro crítico para aplicar princípios de IA Responsável, mitigando riscos como alucinações e viés.

Resultados de Aprendizagem:

  • Explicar o funcionamento mecânico interno dos LLMs, incluindo tokenização, mecanismo de atenção e saída não determinística.
  • Comparar diferentes categorias de LLMs (Modelos Fundamentais, código aberto versus proprietários e arquiteturas Encoder/Decoder) para selecionar a ferramenta correta para um cenário empresarial.
  • Avaliar estratégias para melhorar os resultados do modelo, especialmente escolhendo entre Engenharia de Prompts, Geração Incrementada por Recuperação (RAG) e Fine-tuning.

🔹 Aula 2: A Arte e a Ciência da Engenharia de Prompts

Visão Geral: Esta aula explora a Engenharia de Prompts (PE) como o processo de projetar e otimizar entradas de texto (prompts) para orientar os Modelos de Linguagem de Grande Porte (LLMs) a produzirem respostas de alta qualidade e consistentes. Os alunos passarão da compreensão dos mecanismos fundamentais de tokenização e tipos de modelo para aplicar técnicas avançadas como Prompting em Cadeia de Pensamento e Prompting Maieutic para mitigar limitações do modelo, como estocasticidade e fabricação de informações.

Resultados de Aprendizagem:

  • Definir Engenharia de Prompts e explicar seu papel como a principal interface de programação para a IA Generativa.
  • Diferenciar entre LLMs Base e LLMs Treinados com Instruções e como eles processam tokens.
  • Criar prompts complexos usando instruções, conteúdo principal, pistas e modelos.

🔹 Aula 3: Desenvolvendo Aplicações Nucleares de IA

Visão Geral: Esta aula explora o desenvolvimento prático de ferramentas impulsionadas por IA, focando em geração de texto, interfaces de chat contextualizadas e aplicações de busca semântica. Os alunos passarão de integrações básicas de API e ajustes de parâmetros (temperatura e tokens) para implementar recursos avançados como embeddings de texto, similaridade coseno e frameworks de IA responsável.

Resultados de Aprendizagem:

  • Criar e configurar aplicações de geração de texto usando a biblioteca openai, gerenciando variáveis de ambiente e ajustando a variedade da saída por meio da temperatura.
  • Diferenciar entre chatbots baseados em regras e aplicações de IA generativa contextualizadas, implementando os Seis Princípios da IA Responsável da Microsoft.
  • Executar busca semântica convertendo texto em embeddings (vetores) e aplicando similaridade coseno para encontrar conteúdo relevante além da correspondência simples por palavras-chave.

🔹 Aula 4: Soluções de IA de Baixo Código e Integradas

Visão Geral: Este material aborda três pilares avançados da implementação de IA: construção de aplicações de geração de imagens usando modelos como DALL-E e Midjourney, desenvolvimento de soluções de baixo código via Power Platform da Microsoft e aprimoramento das capacidades dos LLMs por meio do "chamado de funções". O conteúdo foca na implantação prática, desde integrações de API baseadas em Python até desenvolvimento de aplicações guiadas por linguagem natural e conexão da IA a fontes externas de dados.

Resultados de Aprendizagem:

  • Criar e configurar aplicações de geração de imagens enquanto implementa "prompts meta" para definir limites de conteúdo e segurança.
  • Projetar aplicações de IA de baixo código e fluxos de trabalho automatizados usando Copilot, Dataverse e AI Builder no Power Platform.
  • Implementar chamado de funções para garantir saídas estruturadas consistentes (JSON) e integrar LLMs a APIs externas.

🔹 Aula 5: UX, Segurança e Ciclo de Vida da Aplicação

Visão Geral: Esta aula aborda a interseção crítica entre experiência do usuário (UX), protocolos de segurança e ciclo operacional especificamente para aplicações de IA Generativa. Ela explora como construir confiança por meio de explicabilidade, identifica ameaças de segurança específicas da IA como envenenamento de dados e injeção de prompts, e descreve a transição do MLOps tradicional para o LLMOps para gerenciar o ciclo de vida da aplicação.

Resultados de Aprendizagem:

  • Projetar interfaces de IA que promovam confiança e transparência por meio de explicabilidade e controle do usuário.
  • Identificar e mitigar riscos de segurança específicos da IA, incluindo envenenamento de dados, injeção de prompts e vulnerabilidades na cadeia de suprimentos.
  • Diferenciar entre MLOps e LLMOps e explicar as etapas do ciclo de vida da aplicação de IA Generativa (Ideação, Construção, Operacionalização).

🔹 Aula 6: Recuperação Avançada e Sistemas Agenticos

Visão Geral: Esta aula aborda a transição de interações básicas com LLMs para sistemas sofisticados que utilizam Geração Incrementada por Recuperação (RAG) e Agentes de IA autônomos. Os alunos explorarão como fundamentar modelos com dados privados usando bancos de dados vetoriais e como expandir as capacidades dos LLMs por meio de frameworks agênticos que podem planejar, usar ferramentas e interagir com outros agentes.

Resultados de Aprendizagem:

  • Explicar o fluxo técnico do RAG, incluindo chunking, embedding e recuperação semântica.
  • Comparar e selecionar modelos de código aberto apropriados (Llama 2, Mistral, Falcon) com base em custo, personalização e desempenho.
  • Diferenciar entre principais frameworks de Agentes de IA (LangChain, AutoGen, TaskWeaver, JARVIS) e seus casos de uso específicos.

🔹 Aula 7: Fine-Tuning de Modelos e Arquiteturas Especializadas

Visão Geral: Esta aula aborda a transição da engenharia de prompts geral para otimização de modelos por meio de fine-tuning supervisionado e o uso de Pequenos Modelos de Linguagem (SLMs) especializados. Fornece uma análise comparativa entre as famílias de modelos Microsoft Phi, Mistral e Meta Llama, detalhando suas trade-offs arquiteturais quanto ao tamanho, requisitos de computação e multimodalidade para implantação em ambientes em nuvem e borda.

Resultados de Aprendizagem:

  • Definir fine-tuning e determinar quando usá-lo em vez da engenharia de prompts ou da Geração Incrementada por Recuperação (RAG).
  • Contrastar as características de Modelos de Linguagem de Grande Porte (LLMs) e Modelos de Linguagem Pequenos (SLMs) em termos de tamanho, compreensão e velocidade de inferência.
  • Identificar as características únicas e os casos de uso das famílias de modelos Phi-3.5, Mistral (Large/Small/NeMo) e Llama (3.1/3.2).