SCI1005

Otimização Inteligente

Um curso avançado que aborda a teoria e aplicação de técnicas de otimização inteligente, desde métodos clássicos de gradiente até metaheurísticas evolutivas modernas, otimização multiobjetivo, modelos auxiliados por substitutos e aplicações de aprendizado federado.

5.0 Avaliação
300 Alunos

Visão Geral do Curso

📚 Resumo do Conteúdo

Um curso avançado que aborda a teoria e aplicação de técnicas de otimização inteligente, desde métodos clássicos de gradiente até meta-heurísticas evolutivas modernas, otimização multiobjetivo, modelos auxiliados por substitutos e aplicações de aprendizado federado.

Domine meta-heurísticas evolutivas avançadas e otimização inteligente orientada por dados para sistemas de engenharia complexos.

🎯 Objetivos de Aprendizagem

  1. Compreender as bases matemáticas e a taxonomia de problemas de otimização, desde os contínuos e convexos até estruturas combinatórias complexas.
  2. Desenvolver proficiência na aplicação de computação evolutiva, otimização multiobjetivo e modelos auxiliados por substitutos a desafios reais de engenharia e aprendizado de máquina.

🔹 Aula 1: Fundamentos da Otimização (I)

Visão Geral: Esta aula introduz os fundamentos matemáticos e a taxonomia da otimização, com foco na identificação de variáveis de decisão, funções-objetivo e restrições. Explora a classificação de problemas de otimização e os desafios práticos da formulação de problemas em sistemas complexos como projeto de engenharia e aprendizado de máquina.

Resultados de Aprendizagem:

  • Definir os componentes matemáticos de um problema de otimização, incluindo variáveis de decisão, funções-objetivo e restrições.
  • Categorizar problemas de otimização usando uma taxonomia multidimensional baseada em tipos de variáveis, restrições e objetivos.
  • Distinguir entre ótimos locais e globais e identificar propriedades específicas da otimização convexa.
  • Formular cenários do mundo real em estruturas formais de otimização.

🔹 Aula 2: Métodos de Newton-Raphson e Descida do Gradiente

Visão Geral: Esta aula aborda a transição da otimização analítica para métodos numéricos iterativos para encontrar ótimos de funções não lineares. Detalha a mecânica, vantagens e limitações do método de Newton-Raphson, aproximações Quasi-Newton e diversas abordagens baseadas em gradiente, como o RPROP.

Resultados de Aprendizagem:

  • Identificar máximos e mínimos locais determinando onde o gradiente de uma função é zero.
  • Comparar a eficiência e os requisitos do método de Newton-Raphson com a descida do gradiente em espaços univariados e multivariados.
  • Explicar os problemas de "desvanecimento" e "explosão" de gradientes e seu impacto na divergência da otimização.
  • Descrever o propósito dos métodos Quasi-Newton e do RPROP na redução da carga computacional e melhoria da estabilidade da otimização.

🔹 Aula 3: Algoritmos Genéticos e Tratamento de Restrições

Visão Geral: Esta aula explora heurísticas de busca estocástica baseadas em população conhecidas como Algoritmos Evolutivos (AEs). Detalha as bases biológicas dos Algoritmos Genéticos (AGs), diversos esquemas de representação e a mecânica da seleção, cruzamento e mutação, além de abordar técnicas especializadas de tratamento de restrições.

Resultados de Aprendizagem:

  • Contrapor métodos baseados em gradiente com heurísticas de busca baseadas em população para identificar quando os AEs são preferíveis.
  • Explicar a correspondência entre evolução biológica e terminologias de otimização computacional.
  • Implementar diversos operadores de Algoritmo Genético, incluindo cruzamento de n pontos, mutação de bit-flip e seleção por torneio.
  • Aplicar técnicas de tratamento de restrições como funções de aptidão penalizadas e métodos de correção baseados em gradiente.

🔹 Aula 4: Estratégias Evolutivas e Programação Genética

Visão Geral: Esta aula aborda técnicas avançadas de computação evolutiva, passando dos Algoritmos Genéticos com codificação real para Estratégias Evolutivas (EE) e Programação Genética (PG). Detalha operadores específicos como Cruzamento Binário Simulado, adaptação de passo nas EE e representações baseadas em árvore para evolução de funções matemáticas.

Resultados de Aprendizagem:

  • Analisar mecanismos de Algoritmos Genéticos com Codificação Real, especificamente Cruzamento Binário Simulado e Mutação Polinomial.
  • Avaliar variantes de Estratégias Evolutivas, incluindo (1+1)-EE, (\mu, \lambda) e (\mu + \lambda) esquemas de seleção.
  • Construir modelos de Programação Genética usando representações baseadas em árvore, incluindo conjuntos de funções primitivas e conjuntos terminais.
  • Determinar métodos adequados de inicialização para PG, como os métodos Full, Grow e Ramped-half-and-half.

🔹 Aula 5: Evolução Diferencial e Otimização por Enxame de Partículas

Visão Geral: Esta aula aborda técnicas avançadas de meta-heurística de otimização, focando na Evolução Diferencial (ED) e na Otimização por Enxame de Partículas (OEP). Detalha os fundamentos matemáticos da mutação baseada em vetores na ED e os comportamentos sociais biológicos que impulsionam o movimento das partículas na OEP.

Resultados de Aprendizagem:

  • Analisar técnicas para lidar com restrições, incluindo funções de aptidão penalizadas, métodos de reparo e ordenação estocástica.
  • Formular os passos de mutação, cruzamento e seleção do algoritmo de Evolução Diferencial.
  • Explicar a mecânica da Otimização por Enxame de Partículas Canônica, especificamente os papéis do melhor pessoal, melhor global e peso de inércia.
  • Avaliar variantes da OEP, como OEP Local, OEP com Construção e Algoritmos de Enxame Baseados em Competição (CSO).

🔹 Aula 6: Otimização Multiobjetivo: Abordagens Baseadas em Decomposição

Visão Geral: Esta aula explora as definições fundamentais de otimalidade de Pareto e dominação, métodos clássicos de agregação e algoritmos evolutivos avançados baseados em decomposição. Detalha como problemas multiobjetivo são convertidos em subproblemas univariados usando métodos como MOEA/D.

Resultados de Aprendizagem:

  • Definir e identificar Dominância de Pareto, Conjuntos Ótimos de Pareto e Fronteiras de Pareto nos espaços de decisão e objetivo.
  • Comparar e contrastar abordagens a priori, a posteriori e interativas para otimização multiobjetivo.
  • Explicar o mecanismo de Decomposição na OMO para converter problemas multiobjetivo em subproblemas univariados.
  • Analisar as vantagens do Agregação Ponderada Dinâmica (DWA) e do MOEA/D no tratamento de fronteiras de Pareto convexas e côncavas.

🔹 Aula 7: Otimização Multiobjetivo: Abordagens Baseadas em Dominância

Visão Geral: Esta aula foca em técnicas avançadas para algoritmos evolutivos multiobjetivo (AEMOs), detalhando o RVEA (Algoritmo Evolutivo Guiado por Vetores de Referência) e a atribuição de aptidão baseada em dominância. Explora a manutenção da diversidade por meio de nichos e fornece análise comparativa de algoritmos de ordenação não dominada como o NSGA-II.

Resultados de Aprendizagem:

  • Implementar o processo RVEA, incluindo a geração de vetores de referência e o cálculo da Distância com Penalização Angular (APD).
  • Calcular aptidão baseada em dominância e diversidade usando atribuição de rank e funções de compartilhamento.
  • Analisar os passos procedimentais e a complexidade computacional dos algoritmos de ordenação não dominada Básico, Rápido e Eficiente.
  • Esboçar o fluxo de trabalho do Algoritmo Genético de Ordenação Não Dominada II (NSGA-II).

🔹 Aula 8: Indicadores de Desempenho e Seleção Avançada

Visão Geral: Esta aula cobre a mecânica do algoritmo NSGA-II, incluindo distância de empacotamento e seleção ambiental, e explora indicadores de avaliação de desempenho. Aprofunda métodos avançados de seleção por meio de Algoritmos de Estimação de Distribuição (EDAs) e modelagem de regularidade em problemas contínuos.

Resultados de Aprendizagem:

  • Calcular e aplicar a distância de empacotamento e seleção baseada em rank dentro do framework NSGA-II.
  • Avaliar a eficácia de diferentes indicadores de desempenho, como GD, IGD, Hipervolume e Espaçamento.
  • Diferenciar entre operadores genéticos tradicionais e abordagens baseadas em modelo, como Algoritmos de Estimação de Distribuição (EDAs).
  • Explicar como a regularidade no conjunto de Pareto pode ser modelada usando mapeamento de espaço latente e PCA local.

🔹 Aula 9: Algoritmos de Estimação de Distribuição e Redes Neurais

Visão Geral: Este material explora estratégias para superar a perda de pressão de seleção em otimização de alta dimensão e fornece uma taxonomia abrangente de modelos de aprendizado de máquina. Detalha os fundamentos matemáticos do treinamento de redes neurais, incluindo retropropagação e variantes de descida do gradiente.

Resultados de Aprendizagem:

  • Identificar e aplicar remédios para a perda de pressão de seleção na Otimização Múltipla-Objetivo.
  • Classificar modelos de aprendizado de máquina em tipos Generativos e Discriminativos e distinguir entre diferentes paradigmas de aprendizado.
  • Explicar os fundamentos matemáticos do treinamento de redes neurais, incluindo a Regra Delta e a retropropagação.
  • Avaliar diferentes variantes de descida do gradiente e heurísticas usadas para aliviar problemas de convergência.

🔹 Aula 10: Seleção de Modelos e Otimização de Estrutura Evolutiva

Visão Geral: Esta aula explora os desafios no treinamento de redes neurais profundas, especialmente abordando o problema do gradiente desvanecente e a seleção de modelos para prevenir sobreajuste. Detalha técnicas de validação, estratégias de aprendizado por ensemble e a integração da computação evolutiva com aprendizado local.

Resultados de Aprendizagem:

  • Identificar e mitigar o sobreajuste usando trade-offs entre viés e variância, parada antecipada e técnicas de validação cruzada.
  • Diferenciar entre métodos de ensemble Bagging, Boosting e Stacking.
  • Contrapor mecanismos Lamarckianos e Baldwinianos de herança em paradigmas evolutivo-aprendizagem.
  • Projetar frameworks de otimização estrutural para matrizes de conexão e arquiteturas de rede neural.

🔹 Aula 11: Aprendizado de Máquina Multiobjetivo e Otimização Orientada por Dados

Visão Geral: Esta aula explora a integração de Algoritmos Evolutivos Multiobjetivo no aprendizado de máquina e na otimização orientada por dados. Detalha como abordagens baseadas em Pareto otimizam estruturas de redes neurais e agrupamento, introduzindo estratégias de gestão de modelos auxiliados por substitutos para avaliações caras.

Resultados de Aprendizagem:

  • Analisar os trade-offs entre precisão e complexidade do modelo usando regularização baseada em Pareto.
  • Avaliar frameworks multiobjetivo para agrupamento e extração de características.
  • Determinar estratégias apropriadas de gestão de modelo (individual, populacional ou baseadas em geração) para otimização auxiliada por substitutos.

🔹 Aula 12: Gestão Básica de Modelos e Otimização Bayesiana

Visão Geral: Esta aula explora a integração de meta-modelos (substitutos) na otimização evolutiva orientada por dados para lidar com avaliações computacionalmente caras. Detalha estratégias de gestão de modelos e oferece um aprofundamento na Otimização Bayesiana (OB) usando Processos Gaussiano.

Resultados de Aprendizagem:

  • Definir gestão de modelos e explicar sua necessidade para prevenir mínimos falsos durante a otimização.
  • Comparar estratégias de gestão de modelos baseadas em indivíduos, gerações e populações.
  • Executar o fluxo de trabalho da Otimização Bayesiana, desde a escolha de priores até o uso de funções de aquisição.
  • Analisar o quadro matemático dos Processos Gaussiano e os requisitos de kernel.
  • Identificar desafios computacionais na OB e propor estratégias de mitigação como redução de dimensionalidade.

🔹 Aula 13: Otimização Multiobjetivo Auxiliada por Substitutos e Transferência de Conhecimento

Visão Geral: Esta aula explora estratégias avançadas para otimização multiobjetivo auxiliada por substitutos (SA-MOO), focando no RVEA e em sua variante assistida por Kriging. Detalha métodos para lidar com Problemas Multiobjetivo de Alta Custo Heterogêneo (HE-MOPs) e introduz três principais estruturas de transferência de conhecimento.

Resultados de Aprendizagem:

  • Analisar a mecânica de Algoritmos Evolutivos Guiados por Vetores de Referência e o uso da Distância com Penalização Angular.
  • Avaliar estratégias de gestão de substitutos, incluindo o uso de ensembles e modelos Kriging.
  • Distinguir entre métodos de adaptação de domínio baseados em parâmetros, instâncias e híbridos para transferência de conhecimento.
  • Aplicar princípios de otimização multiobjetivo a casos de uso reais de engenharia.

🔹 Aula 14: Aprendizado de Máquina Evolutivo e Busca de Arquitetura Neural

Visão Geral: Esta aula explora a interseção entre computação evolutiva e aprendizado de máquina, focando no Aprendizado Automatizado de Máquina (AutoML) e na Busca de Arquitetura Neural (NAS). Cobrem a otimização automatizada de hiperparâmetros e a coevolução de sistemas de controle e morfologia em robótica inspirada em biologia.

Resultados de Aprendizagem:

  • Definir os cinco passos principais da Busca Neural Evolutiva (E-NAS).
  • Diferenciar entre espaços de busca Macro e Micro e o papel dos Supernets na redução de custos computacionais.
  • Identificar estratégias para melhorar a eficiência computacional na NAS, incluindo herança de nós e modelos substitutos.
  • Explicar os princípios da coevolução cérebro-corpo e o papel das Redes de Regulação Genética no desenvolvimento.

🔹 Aula 15: Aprendizado de Máquina Preservador de Privacidade e Aprendizado Federado

Visão Geral: Esta aula explora a transição do aprendizado centralizado baseado em nuvem para frameworks distribuídos e preservadores de privacidade. Detalha a mecânica do Aprendizado Federado e examina soluções técnicas para eficiência de comunicação e privacidade, como Privacidade Diferencial e Criptografia Homomórfica.

Resultados de Aprendizagem:

  • Diferenciar entre aprendizado em nuvem centralizado e aprendizado distribuído direto nos dispositivos.
  • Explicar os mecanismos centrais de técnicas de computação preservadoras de privacidade, incluindo Privacidade Diferencial e Criptografia Homomórfica.
  • Analisar o fluxo operacional do Aprendizado Federado Horizontal e Vertical e os desafios de dados Não-IID.
  • Avaliar estratégias para eficiência de comunicação, como Atualização Assíncrona por Camada.
  • Descrever a implementação de Algoritmos Evolutivos Bayesianos Federados Seguros.