SCI1005

Optimización Inteligente

Un curso avanzado que cubre la teoría y aplicación de técnicas de optimización inteligente, desde métodos clásicos de gradiente hasta metaheurísticas evolutivas modernas, optimización multiobjetivo, modelos asistidos por suplentes y aplicaciones de aprendizaje automático federado.

5.0 Calificación
300 Estudiantes

Descripción del curso

📚 Resumen del Contenido

Un curso avanzado que abarca la teoría y aplicación de técnicas de optimización inteligente, desde métodos clásicos de gradiente hasta metaheurísticas evolutivas modernas, optimización multiobjetivo, modelos asistidos por suplentes y aplicaciones de aprendizaje automático federado.

Domina metaheurísticas evolutivas avanzadas y optimización inteligente basada en datos para sistemas de ingeniería complejos.

🎯 Objetivos de Aprendizaje

  1. Comprender las bases matemáticas y la taxonomía de los problemas de optimización, desde los continuos y convexos hasta marcos combinatorios complejos.
  2. Desarrollar competencia en la aplicación de cálculo evolutivo, optimización multiobjetivo y modelos asistidos por suplentes a desafíos reales de ingeniería y aprendizaje automático.

🔹 Lección 1: Fundamentos de la Optimización (I)

Resumen: Esta lección introduce los fundamentos matemáticos y la taxonomía de la optimización, centrándose en la identificación de variables de decisión, funciones objetivo y restricciones. Explora la clasificación de problemas de optimización y los retos prácticos de formulación de problemas en sistemas complejos como el diseño de ingeniería y el aprendizaje automático.

Resultados de Aprendizaje:

  • Definir los componentes matemáticos de un problema de optimización, incluyendo variables de decisión, funciones objetivo y restricciones.
  • Clasificar problemas de optimización mediante una taxonomía multidimensional basada en tipos de variables, restricciones y objetivos.
  • Distinguir entre óptimos locales y globales e identificar propiedades específicas de la optimización convexa.
  • Formular escenarios del mundo real dentro de marcos formales de optimización.

🔹 Lección 2: Métodos de Newton-Raphson y Descenso por Gradiente

Resumen: Esta lección cubre la transición desde la optimización analítica hasta métodos numéricos iterativos para encontrar óptimos de funciones no lineales. Detalla los mecanismos, ventajas y limitaciones del método de Newton-Raphson, aproximaciones cuasi-Newton y diversos enfoques basados en gradientes como RPROP.

Resultados de Aprendizaje:

  • Identificar máximos y mínimos locales determinando dónde el gradiente de una función es cero.
  • Comparar la eficiencia y requisitos del método de Newton-Raphson frente al descenso por gradiente en espacios univariados y multivariados.
  • Explicar los problemas de "desaparición" y "explosión" del gradiente y su impacto en la divergencia de la optimización.
  • Describir el propósito de los métodos cuasi-Newton y RPROP para reducir la sobrecarga computacional y mejorar la estabilidad de la optimización.

🔹 Lección 3: Algoritmos Genéticos y Manejo de Restricciones

Resumen: Esta lección explora heurísticas de búsqueda estocástica basadas en población conocidas como Algoritmos Evolutivos (AE). Detalla las bases biológicas de los Algoritmos Genéticos (AG), diversos esquemas de representación y los mecanismos de selección, cruza y mutación, además de abordar técnicas especializadas para manejar restricciones.

Resultados de Aprendizaje:

  • Contraponer métodos basados en gradientes con heurísticas de búsqueda basadas en población para identificar cuándo son preferibles los AE.
  • Explicar la correspondencia entre la evolución biológica y los términos de optimización computacional.
  • Implementar diversos operadores de Algoritmo Genético, incluyendo cruza de n-puntos, mutación por cambio de bit y selección por torneo.
  • Aplicar técnicas de manejo de restricciones como funciones de aptitud penalizadas y métodos de reparación basados en gradientes.

🔹 Lección 4: Estrategias Evolutivas y Programación Genética

Resumen: Esta lección cubre técnicas avanzadas de cálculo evolutivo, pasando de Algoritmos Genéticos Codificados en Reales a Estrategias Evolutivas (EE) y Programación Genética (PG). Detalla operadores específicos como Cruce Binario Simulado, adaptación del tamaño de paso en EE y representaciones basadas en árboles para evolucionar funciones matemáticas.

Resultados de Aprendizaje:

  • Analizar los mecanismos de Algoritmos Genéticos Codificados en Reales, especialmente el Cruce Binario Simulado y la Mutación Polinómica.
  • Evaluar variantes de Estrategias Evolutivas, incluyendo (1+1)-ES, (\mu, \lambda) y (\mu + \lambda) esquemas de selección.
  • Construir modelos de Programación Genética usando representaciones basadas en árboles, incluyendo conjuntos de funciones primitivas y conjuntos terminales.
  • Determinar métodos adecuados de inicialización para PG, como los métodos Full, Grow y Ramped-half-and-half.

🔹 Lección 5: Evolución Diferencial y Optimización de Enjambre de Partículas

Resumen: Esta lección cubre técnicas avanzadas de metaheurística de optimización, centradas en la Evolución Diferencial (ED) y la Optimización de Enjambre de Partículas (OEP). Detalla los fundamentos matemáticos de la mutación basada en vectores en ED y los comportamientos sociales biológicos que impulsan el movimiento de partículas en OEP.

Resultados de Aprendizaje:

  • Analizar técnicas para manejar restricciones, incluyendo funciones de aptitud penalizadas, métodos de reparación y clasificación estocástica.
  • Formular los pasos de mutación, cruza y selección del algoritmo de Evolución Diferencial.
  • Explicar los mecanismos de la Optimización de Enjambre de Partículas Canónica, especialmente los roles del mejor personal, el mejor global y el peso de inercia.
  • Evaluar variantes de OEP como OEP Local, OEP con Constrictor y Algoritmos de Enjambre Basados en Competencia (CSO).

🔹 Lección 6: Optimización Multiobjetivo: Enfoques Basados en Descomposición

Resumen: Esta lección explora las definiciones fundamentales de optimalidad de Pareto y dominancia, métodos clásicos de agregación y algoritmos evolutivos avanzados basados en descomposición. Detalla cómo los problemas multiobjetivo se convierten en subproblemas unobjetivo utilizando métodos como MOEA/D.

Resultados de Aprendizaje:

  • Definir e identificar Dominancia de Pareto, Conjuntos Óptimos de Pareto y Frentes de Pareto dentro de los espacios de decisión y objetivo.
  • Comparar y contrastar los enfoques A priori, A posteriori e Interactivo para la optimización multiobjetivo.
  • Explicar el mecanismo de descomposición en OMO para convertir problemas multiobjetivo en subproblemas unobjetivo.
  • Analizar las ventajas del Agregado Ponderado Dinámico (DWA) y MOEA/D para manejar frentes de Pareto convexos y cóncavos.

🔹 Lección 7: Optimización Multiobjetivo: Enfoques Basados en Dominancia

Resumen: Esta lección se enfoca en técnicas avanzadas para algoritmos evolutivos multiobjetivo (MOEA), detallando el MOEA Guiado por Vectores de Referencia (RVEA) y la asignación de aptitud basada en dominancia. Explora el mantenimiento de diversidad mediante nichos y proporciona un análisis comparativo de algoritmos de ordenamiento no dominado como NSGA-II.

Resultados de Aprendizaje:

  • Implementar el proceso RVEA, incluyendo la generación de vectores de referencia y el cálculo de la Distancia Penalizada por Ángulo (APD).
  • Calcular la aptitud basada en dominancia y diversidad usando asignación de rango y funciones de compartimentación.
  • Analizar los pasos procedimentales y la complejidad computacional de los algoritmos de ordenamiento no dominado Básico, Rápido y Eficiente.
  • Describir el flujo de trabajo del Algoritmo Genético de Ordenamiento No Dominado II (NSGA-II).

🔹 Lección 8: Indicadores de Rendimiento y Selección Avanzada

Resumen: Esta lección cubre los mecanismos del algoritmo NSGA-II, incluyendo distancia de apelmazamiento y selección ambiental, y explora indicadores de evaluación de rendimiento. Además, detalla métodos de selección avanzados mediante Algoritmos de Estimación de Distribución (EDA) y el modelado de regularidad en problemas continuos.

Resultados de Aprendizaje:

  • Calcular y aplicar la distancia de apelmazamiento y la selección basada en rango dentro del marco NSGA-II.
  • Evaluar la eficacia de diferentes indicadores de rendimiento como GD, IGD, Hipervolumen y Espaciado.
  • Diferenciar entre operadores genéticos tradicionales y enfoques basados en modelos como los Algoritmos de Estimación de Distribución (EDA).
  • Explicar cómo la regularidad en el conjunto de Pareto puede modelarse usando mapeo de espacio latente y PCA local.

🔹 Lección 9: Algoritmos de Estimación de Distribución y Redes Neuronales

Resumen: Este material explora estrategias para superar la pérdida de presión de selección en optimización de alta dimensión y proporciona una taxonomía completa de modelos de aprendizaje automático. Detalla los fundamentos matemáticos de la capacitación de redes neuronales, incluyendo retropropagación y variantes de descenso por gradiente.

Resultados de Aprendizaje:

  • Identificar y aplicar remedios para la pérdida de presión de selección en la optimización multiobjetivo.
  • Clasificar modelos de aprendizaje automático en tipos Generativos y Discriminativos y distinguir entre diversos paradigmas de aprendizaje.
  • Explicar los fundamentos matemáticos de la capacitación de redes neuronales, incluyendo la regla Delta y la retropropagación.
  • Evaluar distintas variantes de descenso por gradiente y heurísticas usadas para mitigar problemas de convergencia.

🔹 Lección 10: Selección de Modelos y Optimización de Estructura Evolutiva

Resumen: Esta lección explora los desafíos en la capacitación de redes neuronales profundas, abordando específicamente el problema del gradiente desvanecido y la selección de modelos para prevenir el sobreajuste. Detalla técnicas de validación, estrategias de aprendizaje por ensamble y la integración del cálculo evolutivo con aprendizaje local.

Resultados de Aprendizaje:

  • Identificar y mitigar el sobreajuste usando trade-offs sesgo-varianza, detención anticipada y técnicas de validación cruzada.
  • Diferenciar entre métodos de ensamble Bagging, Boosting y Stacking.
  • Contraponer los mecanismos Lamarckianos y Baldwinianos de herencia en paradigmas de aprendizaje evolutivo.
  • Diseñar marcos de optimización estructural para matrices de conexión y arquitecturas de redes neuronales.

🔹 Lección 11: Aprendizaje Automático Multiobjetivo y Optimización Basada en Datos

Resumen: Esta lección explora la integración de Algoritmos Evolutivos Multiobjetivo en el aprendizaje automático y la optimización basada en datos. Detalla cómo los enfoques basados en Pareto optimizan estructuras de redes neuronales y agrupamiento, e introduce estrategias de gestión de modelos asistidos por suplentes para evaluaciones costosas.

Resultados de Aprendizaje:

  • Analizar los compromisos entre precisión del modelo y complejidad usando regularización basada en Pareto.
  • Evaluar marcos multiobjetivo para agrupamiento y extracción de características.
  • Determinar estrategias adecuadas de gestión de modelos (Individuo, Población o Generación) para optimización asistida por suplentes.

🔹 Lección 12: Gestión Básica de Modelos y Optimización Bayesiana

Resumen: Esta lección explora la integración de meta-modelos (suplentes) en la optimización evolutiva basada en datos para manejar evaluaciones computacionalmente costosas. Detalla estrategias de gestión de modelos y proporciona un análisis profundo de la Optimización Bayesiana (OB) usando Procesos Gaussiano.

Resultados de Aprendizaje:

  • Definir la gestión de modelos y explicar su necesidad para evitar mínimos falsos durante la optimización.
  • Comparar estrategias de gestión de modelos basadas en individuos, generaciones y poblaciones.
  • Ejecutar el flujo de trabajo de la Optimización Bayesiana, desde la elección de priores hasta el uso de funciones de adquisición.
  • Analizar el marco matemático de los Procesos Gaussianos y los requisitos de kernel.
  • Identificar desafíos computacionales en OB y proponer estrategias de mitigación como la reducción de dimensiones.

🔹 Lección 13: Optimización Multiobjetivo Asistida por Suplentes y Transferencia de Conocimiento

Resumen: Esta lección explora estrategias avanzadas para la optimización multiobjetivo asistida por suplentes (SA-MOO), centrándose en RVEA y su variante asistida por Kriging. Detalla métodos para manejar Problemas Multiobjetivo de Costo Heterogéneo (HE-MOP) e introduce tres marcos principales de transferencia de conocimiento.

Resultados de Aprendizaje:

  • Analizar los mecanismos de Algoritmos Evolutivos Guiados por Vectores de Referencia y el uso de la Distancia Penalizada por Ángulo.
  • Evaluar estrategias de gestión de suplentes, incluyendo el uso de ensamblajes y modelos Kriging.
  • Distinguir entre métodos de adaptación de dominio basados en parámetros, instancias y híbridos para transferencia de conocimiento.
  • Aplicar principios de optimización multiobjetivo a casos de uso reales en ingeniería.

🔹 Lección 14: Aprendizaje Automático Evolutivo y Búsqueda de Arquitecturas Neuronales

Resumen: Esta lección explora la intersección entre cálculo evolutivo y aprendizaje automático, centrándose en el Aprendizaje Automático Autónomo (AutoML) y la Búsqueda de Arquitecturas Neuronales (NAS). Cubre la optimización automatizada de hiperparámetros y la coevolución de sistemas de control y morfología en robótica inspirada en la biología.

Resultados de Aprendizaje:

  • Definir los cinco pasos principales de la Búsqueda de Arquitecturas Neuronales Evolutivas (E-NAS).
  • Diferenciar entre espacios de búsqueda Macro y Micro y el papel de las Redes Supremas para reducir costos computacionales.
  • Identificar estrategias para mejorar la eficiencia computacional en NAS, incluyendo herencia de nodos y modelos suplentes.
  • Explicar los principios de la coevolución cerebro-cuerpo y el rol de las Redes Reguladoras Genéticas en el desarrollo.

🔹 Lección 15: Aprendizaje Automático que Preserva la Privacidad y Aprendizaje Federado

Resumen: Esta lección explora la transición desde el aprendizaje centralizado en la nube hacia marcos distribuidos y privados. Detalla los mecanismos del Aprendizaje Federado y examina soluciones técnicas para la eficiencia de comunicación y privacidad, como la Privacidad Diferencial y la Criptografía Homomórfica.

Resultados de Aprendizaje:

  • Diferenciar entre el aprendizaje centralizado en la nube y el aprendizaje distribuido en dispositivos.
  • Explicar los mecanismos centrales de técnicas de computación que preservan la privacidad, incluyendo Privacidad Diferencial y Criptografía Homomórfica.
  • Analizar el flujo operativo del Aprendizaje Federado Horizontal y Vertical y los desafíos del dato No-IID.
  • Evaluar estrategias de eficiencia de comunicación, como Actualización Asíncrona por Capas.
  • Describir la implementación de Algoritmos Evolutivos Bayesianos Federados Seguros.