Optimización Inteligente
Un curso avanzado que cubre la teoría y aplicación de técnicas de optimización inteligente, desde métodos clásicos de gradiente hasta metaheurísticas evolutivas modernas, optimización multiobjetivo, modelos asistidos por suplentes y aplicaciones de aprendizaje automático federado.
Descripción del curso
📚 Resumen del Contenido
Un curso avanzado que abarca la teoría y aplicación de técnicas de optimización inteligente, desde métodos clásicos de gradiente hasta metaheurísticas evolutivas modernas, optimización multiobjetivo, modelos asistidos por suplentes y aplicaciones de aprendizaje automático federado.
Domina metaheurísticas evolutivas avanzadas y optimización inteligente basada en datos para sistemas de ingeniería complejos.
🎯 Objetivos de Aprendizaje
- Comprender las bases matemáticas y la taxonomía de los problemas de optimización, desde los continuos y convexos hasta marcos combinatorios complejos.
- Desarrollar competencia en la aplicación de cálculo evolutivo, optimización multiobjetivo y modelos asistidos por suplentes a desafíos reales de ingeniería y aprendizaje automático.
🔹 Lección 1: Fundamentos de la Optimización (I)
Resumen: Esta lección introduce los fundamentos matemáticos y la taxonomía de la optimización, centrándose en la identificación de variables de decisión, funciones objetivo y restricciones. Explora la clasificación de problemas de optimización y los retos prácticos de formulación de problemas en sistemas complejos como el diseño de ingeniería y el aprendizaje automático.
Resultados de Aprendizaje:
- Definir los componentes matemáticos de un problema de optimización, incluyendo variables de decisión, funciones objetivo y restricciones.
- Clasificar problemas de optimización mediante una taxonomía multidimensional basada en tipos de variables, restricciones y objetivos.
- Distinguir entre óptimos locales y globales e identificar propiedades específicas de la optimización convexa.
- Formular escenarios del mundo real dentro de marcos formales de optimización.
🔹 Lección 2: Métodos de Newton-Raphson y Descenso por Gradiente
Resumen: Esta lección cubre la transición desde la optimización analítica hasta métodos numéricos iterativos para encontrar óptimos de funciones no lineales. Detalla los mecanismos, ventajas y limitaciones del método de Newton-Raphson, aproximaciones cuasi-Newton y diversos enfoques basados en gradientes como RPROP.
Resultados de Aprendizaje:
- Identificar máximos y mínimos locales determinando dónde el gradiente de una función es cero.
- Comparar la eficiencia y requisitos del método de Newton-Raphson frente al descenso por gradiente en espacios univariados y multivariados.
- Explicar los problemas de "desaparición" y "explosión" del gradiente y su impacto en la divergencia de la optimización.
- Describir el propósito de los métodos cuasi-Newton y RPROP para reducir la sobrecarga computacional y mejorar la estabilidad de la optimización.
🔹 Lección 3: Algoritmos Genéticos y Manejo de Restricciones
Resumen: Esta lección explora heurísticas de búsqueda estocástica basadas en población conocidas como Algoritmos Evolutivos (AE). Detalla las bases biológicas de los Algoritmos Genéticos (AG), diversos esquemas de representación y los mecanismos de selección, cruza y mutación, además de abordar técnicas especializadas para manejar restricciones.
Resultados de Aprendizaje:
- Contraponer métodos basados en gradientes con heurísticas de búsqueda basadas en población para identificar cuándo son preferibles los AE.
- Explicar la correspondencia entre la evolución biológica y los términos de optimización computacional.
- Implementar diversos operadores de Algoritmo Genético, incluyendo cruza de n-puntos, mutación por cambio de bit y selección por torneo.
- Aplicar técnicas de manejo de restricciones como funciones de aptitud penalizadas y métodos de reparación basados en gradientes.
🔹 Lección 4: Estrategias Evolutivas y Programación Genética
Resumen: Esta lección cubre técnicas avanzadas de cálculo evolutivo, pasando de Algoritmos Genéticos Codificados en Reales a Estrategias Evolutivas (EE) y Programación Genética (PG). Detalla operadores específicos como Cruce Binario Simulado, adaptación del tamaño de paso en EE y representaciones basadas en árboles para evolucionar funciones matemáticas.
Resultados de Aprendizaje:
- Analizar los mecanismos de Algoritmos Genéticos Codificados en Reales, especialmente el Cruce Binario Simulado y la Mutación Polinómica.
- Evaluar variantes de Estrategias Evolutivas, incluyendo (1+1)-ES, (\mu, \lambda) y (\mu + \lambda) esquemas de selección.
- Construir modelos de Programación Genética usando representaciones basadas en árboles, incluyendo conjuntos de funciones primitivas y conjuntos terminales.
- Determinar métodos adecuados de inicialización para PG, como los métodos Full, Grow y Ramped-half-and-half.
🔹 Lección 5: Evolución Diferencial y Optimización de Enjambre de Partículas
Resumen: Esta lección cubre técnicas avanzadas de metaheurística de optimización, centradas en la Evolución Diferencial (ED) y la Optimización de Enjambre de Partículas (OEP). Detalla los fundamentos matemáticos de la mutación basada en vectores en ED y los comportamientos sociales biológicos que impulsan el movimiento de partículas en OEP.
Resultados de Aprendizaje:
- Analizar técnicas para manejar restricciones, incluyendo funciones de aptitud penalizadas, métodos de reparación y clasificación estocástica.
- Formular los pasos de mutación, cruza y selección del algoritmo de Evolución Diferencial.
- Explicar los mecanismos de la Optimización de Enjambre de Partículas Canónica, especialmente los roles del mejor personal, el mejor global y el peso de inercia.
- Evaluar variantes de OEP como OEP Local, OEP con Constrictor y Algoritmos de Enjambre Basados en Competencia (CSO).
🔹 Lección 6: Optimización Multiobjetivo: Enfoques Basados en Descomposición
Resumen: Esta lección explora las definiciones fundamentales de optimalidad de Pareto y dominancia, métodos clásicos de agregación y algoritmos evolutivos avanzados basados en descomposición. Detalla cómo los problemas multiobjetivo se convierten en subproblemas unobjetivo utilizando métodos como MOEA/D.
Resultados de Aprendizaje:
- Definir e identificar Dominancia de Pareto, Conjuntos Óptimos de Pareto y Frentes de Pareto dentro de los espacios de decisión y objetivo.
- Comparar y contrastar los enfoques A priori, A posteriori e Interactivo para la optimización multiobjetivo.
- Explicar el mecanismo de descomposición en OMO para convertir problemas multiobjetivo en subproblemas unobjetivo.
- Analizar las ventajas del Agregado Ponderado Dinámico (DWA) y MOEA/D para manejar frentes de Pareto convexos y cóncavos.
🔹 Lección 7: Optimización Multiobjetivo: Enfoques Basados en Dominancia
Resumen: Esta lección se enfoca en técnicas avanzadas para algoritmos evolutivos multiobjetivo (MOEA), detallando el MOEA Guiado por Vectores de Referencia (RVEA) y la asignación de aptitud basada en dominancia. Explora el mantenimiento de diversidad mediante nichos y proporciona un análisis comparativo de algoritmos de ordenamiento no dominado como NSGA-II.
Resultados de Aprendizaje:
- Implementar el proceso RVEA, incluyendo la generación de vectores de referencia y el cálculo de la Distancia Penalizada por Ángulo (APD).
- Calcular la aptitud basada en dominancia y diversidad usando asignación de rango y funciones de compartimentación.
- Analizar los pasos procedimentales y la complejidad computacional de los algoritmos de ordenamiento no dominado Básico, Rápido y Eficiente.
- Describir el flujo de trabajo del Algoritmo Genético de Ordenamiento No Dominado II (NSGA-II).
🔹 Lección 8: Indicadores de Rendimiento y Selección Avanzada
Resumen: Esta lección cubre los mecanismos del algoritmo NSGA-II, incluyendo distancia de apelmazamiento y selección ambiental, y explora indicadores de evaluación de rendimiento. Además, detalla métodos de selección avanzados mediante Algoritmos de Estimación de Distribución (EDA) y el modelado de regularidad en problemas continuos.
Resultados de Aprendizaje:
- Calcular y aplicar la distancia de apelmazamiento y la selección basada en rango dentro del marco NSGA-II.
- Evaluar la eficacia de diferentes indicadores de rendimiento como GD, IGD, Hipervolumen y Espaciado.
- Diferenciar entre operadores genéticos tradicionales y enfoques basados en modelos como los Algoritmos de Estimación de Distribución (EDA).
- Explicar cómo la regularidad en el conjunto de Pareto puede modelarse usando mapeo de espacio latente y PCA local.
🔹 Lección 9: Algoritmos de Estimación de Distribución y Redes Neuronales
Resumen: Este material explora estrategias para superar la pérdida de presión de selección en optimización de alta dimensión y proporciona una taxonomía completa de modelos de aprendizaje automático. Detalla los fundamentos matemáticos de la capacitación de redes neuronales, incluyendo retropropagación y variantes de descenso por gradiente.
Resultados de Aprendizaje:
- Identificar y aplicar remedios para la pérdida de presión de selección en la optimización multiobjetivo.
- Clasificar modelos de aprendizaje automático en tipos Generativos y Discriminativos y distinguir entre diversos paradigmas de aprendizaje.
- Explicar los fundamentos matemáticos de la capacitación de redes neuronales, incluyendo la regla Delta y la retropropagación.
- Evaluar distintas variantes de descenso por gradiente y heurísticas usadas para mitigar problemas de convergencia.
🔹 Lección 10: Selección de Modelos y Optimización de Estructura Evolutiva
Resumen: Esta lección explora los desafíos en la capacitación de redes neuronales profundas, abordando específicamente el problema del gradiente desvanecido y la selección de modelos para prevenir el sobreajuste. Detalla técnicas de validación, estrategias de aprendizaje por ensamble y la integración del cálculo evolutivo con aprendizaje local.
Resultados de Aprendizaje:
- Identificar y mitigar el sobreajuste usando trade-offs sesgo-varianza, detención anticipada y técnicas de validación cruzada.
- Diferenciar entre métodos de ensamble Bagging, Boosting y Stacking.
- Contraponer los mecanismos Lamarckianos y Baldwinianos de herencia en paradigmas de aprendizaje evolutivo.
- Diseñar marcos de optimización estructural para matrices de conexión y arquitecturas de redes neuronales.
🔹 Lección 11: Aprendizaje Automático Multiobjetivo y Optimización Basada en Datos
Resumen: Esta lección explora la integración de Algoritmos Evolutivos Multiobjetivo en el aprendizaje automático y la optimización basada en datos. Detalla cómo los enfoques basados en Pareto optimizan estructuras de redes neuronales y agrupamiento, e introduce estrategias de gestión de modelos asistidos por suplentes para evaluaciones costosas.
Resultados de Aprendizaje:
- Analizar los compromisos entre precisión del modelo y complejidad usando regularización basada en Pareto.
- Evaluar marcos multiobjetivo para agrupamiento y extracción de características.
- Determinar estrategias adecuadas de gestión de modelos (Individuo, Población o Generación) para optimización asistida por suplentes.
🔹 Lección 12: Gestión Básica de Modelos y Optimización Bayesiana
Resumen: Esta lección explora la integración de meta-modelos (suplentes) en la optimización evolutiva basada en datos para manejar evaluaciones computacionalmente costosas. Detalla estrategias de gestión de modelos y proporciona un análisis profundo de la Optimización Bayesiana (OB) usando Procesos Gaussiano.
Resultados de Aprendizaje:
- Definir la gestión de modelos y explicar su necesidad para evitar mínimos falsos durante la optimización.
- Comparar estrategias de gestión de modelos basadas en individuos, generaciones y poblaciones.
- Ejecutar el flujo de trabajo de la Optimización Bayesiana, desde la elección de priores hasta el uso de funciones de adquisición.
- Analizar el marco matemático de los Procesos Gaussianos y los requisitos de kernel.
- Identificar desafíos computacionales en OB y proponer estrategias de mitigación como la reducción de dimensiones.
🔹 Lección 13: Optimización Multiobjetivo Asistida por Suplentes y Transferencia de Conocimiento
Resumen: Esta lección explora estrategias avanzadas para la optimización multiobjetivo asistida por suplentes (SA-MOO), centrándose en RVEA y su variante asistida por Kriging. Detalla métodos para manejar Problemas Multiobjetivo de Costo Heterogéneo (HE-MOP) e introduce tres marcos principales de transferencia de conocimiento.
Resultados de Aprendizaje:
- Analizar los mecanismos de Algoritmos Evolutivos Guiados por Vectores de Referencia y el uso de la Distancia Penalizada por Ángulo.
- Evaluar estrategias de gestión de suplentes, incluyendo el uso de ensamblajes y modelos Kriging.
- Distinguir entre métodos de adaptación de dominio basados en parámetros, instancias y híbridos para transferencia de conocimiento.
- Aplicar principios de optimización multiobjetivo a casos de uso reales en ingeniería.
🔹 Lección 14: Aprendizaje Automático Evolutivo y Búsqueda de Arquitecturas Neuronales
Resumen: Esta lección explora la intersección entre cálculo evolutivo y aprendizaje automático, centrándose en el Aprendizaje Automático Autónomo (AutoML) y la Búsqueda de Arquitecturas Neuronales (NAS). Cubre la optimización automatizada de hiperparámetros y la coevolución de sistemas de control y morfología en robótica inspirada en la biología.
Resultados de Aprendizaje:
- Definir los cinco pasos principales de la Búsqueda de Arquitecturas Neuronales Evolutivas (E-NAS).
- Diferenciar entre espacios de búsqueda Macro y Micro y el papel de las Redes Supremas para reducir costos computacionales.
- Identificar estrategias para mejorar la eficiencia computacional en NAS, incluyendo herencia de nodos y modelos suplentes.
- Explicar los principios de la coevolución cerebro-cuerpo y el rol de las Redes Reguladoras Genéticas en el desarrollo.
🔹 Lección 15: Aprendizaje Automático que Preserva la Privacidad y Aprendizaje Federado
Resumen: Esta lección explora la transición desde el aprendizaje centralizado en la nube hacia marcos distribuidos y privados. Detalla los mecanismos del Aprendizaje Federado y examina soluciones técnicas para la eficiencia de comunicación y privacidad, como la Privacidad Diferencial y la Criptografía Homomórfica.
Resultados de Aprendizaje:
- Diferenciar entre el aprendizaje centralizado en la nube y el aprendizaje distribuido en dispositivos.
- Explicar los mecanismos centrales de técnicas de computación que preservan la privacidad, incluyendo Privacidad Diferencial y Criptografía Homomórfica.
- Analizar el flujo operativo del Aprendizaje Federado Horizontal y Vertical y los desafíos del dato No-IID.
- Evaluar estrategias de eficiencia de comunicación, como Actualización Asíncrona por Capas.
- Describir la implementación de Algoritmos Evolutivos Bayesianos Federados Seguros.