Volver a los cursos
AI008 Professional

Modelos de Lenguaje Grandes para Todos: Desde lo Básico hasta su Uso Práctico (Edición 2026)

Este curso es una introducción práctica y amigable para principiantes a los Modelos de Lenguaje Grandes (LLM) como ChatGPT y Gemini. Diseñado para estudiantes de cualquier origen, explica de forma general cómo funcionan los LLM, qué pueden y no pueden hacer, y cómo utilizarlos de manera efectiva en estudios, trabajo y la vida cotidiana. A través de demostraciones prácticas y ejercicios guiados, aprenderás técnicas de redacción de prompts, cómo evaluar críticamente sus salidas, cómo manejar errores y sesgos, y cómo usar herramientas comunes (por ejemplo, documentos, resúmenes, traducción, tareas de datos) de forma segura y responsable. Al final del curso, podrás crear tu propio “flujo de trabajo con LLM” para tareas reales: redacción, investigación, planificación y productividad, sin necesidad de habilidades avanzadas de programación.

4.9
21h
671 estudiantes
0 me gusta
Inteligencia Artificial

Descripción del curso

📚 Resumen del Contenido

Este curso es una introducción práctica y accesible para principiantes a los Modelos de Lenguaje Grandes (LLMs) como ChatGPT y Gemini. Diseñado para estudiantes de cualquier origen, explica de forma general cómo funcionan los LLMs, qué pueden y no pueden hacer, y cómo usarlos de manera efectiva en estudios, trabajo y la vida cotidiana. A través de demostraciones prácticas y ejercicios guiados, aprenderás técnicas de prompts, cómo evaluar críticamente sus salidas, cómo manejar alucinaciones y sesgos, y cómo utilizar herramientas comunes (por ejemplo, documentos, resúmenes, traducción, tareas con datos) de forma segura y responsable. Al final del curso, podrás crear tu propio "flujo de trabajo con LLM" para tareas reales: redacción, investigación, planificación y productividad, sin necesidad de habilidades avanzadas de programación.

Desde la lógica matemática fundamental hasta la orquestación distribuida de agentes: formando arquitectos de sistemas de élite para la era de los grandes modelos.

🎯 Objetivos de Aprendizaje

  1. Cognitivo: Comprender los pilares matemáticos del Aprendizaje Automático (álgebra lineal, cálculo, probabilidad) y la evolución histórica de las arquitecturas neuronales desde los Perceptrones hasta los LSTMs.
  2. Basado en habilidades: Navegar servidores remotos usando comandos de shell Unix e implementar gráficos computacionales básicos utilizando motores de diferenciación automática.
  3. Afectivo: Valorar la importancia del "fundamento teórico" frente a la "abstracción prematura" al depurar sistemas complejos como explosiones de gradientes.
  4. Generado
  5. Cognitivo: Explicar los mecanismos del pipeline post-entrenamiento, incluyendo la distinción entre el Ajuste Fino Supervisado (SFT) y los marcos de Aprendizaje por Refuerzo (RL) como GRPO.
  6. Basado en habilidades: Diseñar un pipeline de entrenamiento multi-etapa—desde el inicio frío hasta la alineación final—utilizando técnicas de Ajuste Fino Eficiente en Parámetros (PEFT) como LoRA.
  7. Afectivo: Valorar el cambio de ver la IA como una "caja negra mágica" hacia un sistema ingenieril compuesto por capas mecánicas y razonamiento interno deliberado.
  8. Cognitivo: Contrastar los marcos de integración lineal con la orquestación cíclica basada en grafos y diferenciar entre protocolos de integración vertical (MCP) e horizontal (A2A).
  9. Basado en habilidades: Definir nodos especializados y bordes condicionales usando principios de teoría de grafos e implementar un servidor MCP usando FastMCP para conectar agentes con datos externos.
  10. Afectivo: Valorar la importancia de la "ejecución cíclica" y la gestión de estado al imitar flujos cognitivos humanos complejos.

🔹 Lección 1: Introducción a los LLMs: Del Concepto a la Realidad

Resumen: ## 1. La Configuración La Gran Pregunta: ¿Es simplemente el arte de la "ingeniería de prompts" la ingeniería de Modelos de Lenguaje Grandes, o requiere una comprensión rigurosa y completa de la evolución matemática y arquitectónica que llevó a su creación?

Objetivos de Aprendizaje (SWBAT):

  • Cognitivo: Entender los pilares matemáticos del Aprendizaje Automático (álgebra lineal, cálculo, probabilidad) y la línea histórica de arquitecturas neuronales desde los Perceptrones hasta los LSTMs.
  • Basado en habilidades: Navegar servidores remotos usando comandos de shell Unix e implementar gráficos computacionales básicos usando motores de diferenciación automática.
  • Afectivo: Valorar la importancia del "fundamento teórico" frente a la "abstracción prematura" al depurar sistemas complejos como explosiones de gradientes.

2. Componentes del Conocimiento Fundamental (Los Ingredientes)

A. Conceptos Clave (Sustantivos):

  • Flujos agente
  • Mecánica tensorial sub-arquitectural
  • Alineación post-entrenamiento
  • Protocolos de orquestación agente distribuidos
  • Espacios vectoriales de alta dimensión
  • Descomposición de autovalores
  • Retropropagación
  • Tensores multidimensionales (PyTorch)
  • Grafos computacionales
  • Teorema de Aproximación Universal
  • Problema del gradiente desvanecido
  • Mecanismo de atención

B. Principios Fundamentales (Reglas):

  • Fundamento Ineludible: La ingeniería de LLMs no puede dominarse solo mediante APIs; se requiere álgebra lineal y cálculo subyacente para optimización de hardware y depuración.
  • Teorema de Aproximación Universal: Una red neuronal feed-forward con una sola capa oculta puede aproximar cualquier función continua (sujeto al tamaño de la capa oculta y riesgos de generalización).
  • Limitaciones de RNN: Las Redes Neuronales Recurrentes están limitadas por el problema del gradiente desvanecido y una incapacidad inherente de paralelizar el procesamiento de datos secuenciales.

C. Habilidades Esenciales (Verbos):

  • Depurar explosiones de gradientes.
  • Optimizar el uso del hardware.
  • Implementar funciones de pérdida personalizadas.
  • Realizar operaciones vectorizadas (NumPy).
  • Gestionar entornos de aprendizaje profundo (shell Unix).
  • Mapear paradigmas de entrada-salida (uno-a-uno, muchos-a-uno, uno-a-muchos, muchos-a-muchos).

3. Fragmentos Instructivos (El Flujo)

Fragmento 1: Activación (El Error de la API) Actividad: Discusión de estudio de caso sobre el "punto de falla" de la educación en IA moderna. Analiza los riesgos de las "envolturas de alto nivel" y discute escenarios donde el conocimiento de APIs es insuficiente (por ejemplo, pasar de arquitecturas monolíticas a microservicios localizados).

Fragmento 2: Adquisición (La Cimenta Matemática e Histórica) Contenido: Conferencia sobre los cuatro pilares (Álgebra Lineal, Probabilidad, Estadística, Cálculo Multivariable). Rastrea la evolución arquitectónica desde el Perceptrón de 1958 hasta las redes feed-forward y las limitaciones de RNN/LSTM.

Fragmento 3: Práctica (Fluidez Programática) Actividad: Laboratorio práctico de codificación. Avanza más allá de la sintaxis de Python para centrarse en operaciones vectorizadas en NumPy. Usa "micrograd" de Andrej Karpathy para construir un MLP básico y visualizar cómo fluyen los gradientes a través de la red durante la optimización.

Fragmento 4: Aplicación (Mapeo de Paradigmas) Actividad: Análisis estructural del mapeo de datos. Los estudiantes deben categorizar diversas tareas del mundo real (por ejemplo, clasificación binaria vs. traducción automática) en paradigmas de entrada-salida: uno-a-uno, muchos-a-uno, uno-a-muchos y muchos-a-muchos.

4. Revisión y Extensión

Malentendidos:

  • El Mitó del "Descubrimiento Mágico": La idea de que los LLMs son descubrimientos aislados en lugar de la culminación de décadas de investigación.
  • El Atajo de la API: La falsa premisa de que uno puede convertirse en ingeniero de sistemas sin comprender íntimamente la multiplicación de matrices y derivadas parciales.

Diferenciación:

  • Apoyo: Utiliza ayudas visuales (por ejemplo, la serie de redes neuronales de 3Blue1Brown) y herramientas intuitivas geométricas para espacios de alta dimensión.
  • Desafío: Transición de arrays estándar a tensores multidimensionales en PyTorch para implementar modelos iniciales desde cero.

Resultados del Aprendizaje:

  • Cognitivo: Entender los pilares matemáticos del Aprendizaje Automático (álgebra lineal, cálculo, probabilidad) y la línea histórica de arquitecturas neuronales desde los Perceptrones hasta los LSTMs.
  • Basado en habilidades: Navegar servidores remotos usando comandos de shell Unix e implementar gráficos computacionales básicos usando motores de diferenciación automática.
  • Afectivo: Valorar la importancia del "fundamento teórico" frente a la "abstracción prematura" al depurar sistemas complejos como explosiones de gradientes.

🔹 Lección 2: Bajo el Capó: Cómo los LLMs Procesan y Predicen Texto

Resumen: # Bajo el Capó: Cómo los LLMs Procesan y Predicen Texto

1. La Configuración

La Gran Pregunta: ¿Cómo cerramos la brecha entre "leer pasivamente" artículos académicos y lograr una comprensión de ingeniería verdadera del corazón matemático de un Transformer?

Objetivos de Aprendizaje (SWBAT):

  • Cognitivo: Entender la razón matemática detrás de la atención de producto punto escalado, incluyendo el uso de factores de escalado para estabilizar gradientes y prevenir el problema de "gradientes infinitesimales" en funciones softmax.
  • Basado en habilidades: Implementar un Transformer Generativamente Preentrenado (GPT) desde cero usando Python y PyTorch, pasando de mecanismos basados en bucles a multiplicaciones matriciales altamente paralelizadas.
  • Afectivo: Valorar la importancia de la implementación "línea por línea" frente a la lectura teórica para desmitificar la "opacidad inherente" de los espacios latentes de alta dimensión.

2. Componentes del Conocimiento Fundamental (Los Ingredientes)

A. Conceptos Clave (Sustantivos):

  • Arquitecturas: Transformer (Vaswani et al.), BERT (Representaciones Bidireccionales de Transformadores), arquitecturas solo codificadoras, Transformer Generativamente Preentrenado (GPT), Mezcla de Expertos (MoE).
  • Mecanismos: Atención autónoma, Atención de Producto Punto Escalado, Atención Multi-cabeza, Generación Autoregresiva.
  • Estructuras de Datos: Matrices Query (Q), Key (K) y Value (V); vectores densos; vectores de embedding; espacios latentes.
  • Componentes: Tokenizadores Byte Pair Encoding (BPE), codificaciones posicionales (funciones seno/coseno), redes neuronales feed-forward, conexiones residuales, Normalización por Capa (LayerNorm).
  • Funciones Avanzadas: Caché de Claves-Valores (KV), Atención Agrupada por Consulta.

B. Principios Fundamentales (Reglas):

  • Regla de Escalado: El puntaje de atención sin procesar debe dividirse por la raíz cuadrada del tamaño de la dimensión clave para evitar que los productos punto crezcan excesivamente grandes.
  • Inyección de Secuencia: Se requiere codificación manual de funciones seno y coseno para inyectar el orden de secuencia en el modelo.
  • Regla de Estabilidad: Las conexiones residuales y LayerNorm deben aplicarse para combatir el desplazamiento interno de covariantes y garantizar la estabilidad del entrenamiento.
  • Optimización: Pasar de bucles simples a multiplicaciones matriciales es esencial para la paralelización.

C. Habilidades Esenciales (Verbos):

  • Desmontar: Descomponer la arquitectura Transformer en sus mecanismos fundamentales.
  • Implementar: Codificar tokenizadores, matrices QKV y redes feed-forward desde cero.
  • Formular: Definir matemática y programáticamente los puntajes de atención.
  • Rastrear: Seguir visualmente el camino desde palabras crudas hasta tokens y luego a vectores de embedding usando herramientas interactivas.
  • Acelerar: Utilizar caché KV para acelerar la inferencia.

3. Fragmentos Instructivos (El Flujo)

Fragmento 1: Activación (Visualizando la Opacidad)

  • Actividad: Exploración interactiva. Los estudiantes usan herramientas como "Transformer Explainer" o "AnimatedLLM" para ingresar textos y observar interacciones en tiempo real de componentes internos. Esto aborda el "desafío pedagógico" de la opacidad del espacio latente.

Fragmento 2: Adquisición (La Fundación Matemática)

  • Contenido: Profunda participación algorítmica con "Attention Is All You Need". Enfócate en la formulación de matrices Q, K y V y la matemática específica detrás del factor de escalado (\sqrt{d_k}) usado para estabilizar gradientes.

Fragmento 3: Práctica (Desmontaje Programático)

  • Actividad: Construcción "desde cero". Guiados por recursos como "Let’s build GPT" de Andrej Karpathy, los estudiantes realizan la ingestión de datos (por ejemplo, el conjunto de datos "El Mago de Oz") e implementan manualmente tokenizadores BPE y codificaciones posicionales.

Fragmento 4: Aplicación (Escalado y Optimización)

  • Actividad: Alineación Arquitectónica Avanzada. Los estudiantes transfieren su código desde atenciones basadas en bucles a multiplicaciones matriciales paralelizadas. Luego integran modificaciones de vanguardia como Atención Agrupada por Consulta y enrutamiento MoE para alinearse con diseños de modelos de 2026.

4. Revisión y Extensión

Malentendidos:

  • Teoría vs. Práctica: Creer que leer literatura académica es suficiente para dominar la ingeniería (el texto exige explícitamente la implementación línea por línea).
  • Eficiencia: Usar bucles simples para atención en lugar de multiplicaciones matriciales paralelizadas.
  • Problemas de Gradientes: Ignorar el factor de escalado, lo que lleva a gradientes infinitesimales en la función softmax.

Diferenciación:

  • Apoyo: Utiliza "The Illustrated Transformer" de Jay Alammar o "The Annotated Transformer" de Harvard NLP para recorridos matemáticos visuales/anotados.
  • Desafío: Encomienda a estudiantes avanzados implementar caché KV para acelerar la inferencia o codificar mecanismos complejos de enrutamiento MoE.

Resultados del Aprendizaje:

  • Generado

🔹 Lección 3: Alineación y Razonamiento: Cómo la IA se Convierte en un Asistente Útil

Resumen: # Alineación y Razonamiento: Cómo la IA se Convierte en un Asistente Útil

1. La Configuración

La Gran Pregunta: Al convertirse el gran preentrenamiento en una utilidad "comoditizada", ¿cómo transforman los ingenieros un modelo base crudo e impredecible en un motor de razonamiento altamente confiable capaz de seguir intenciones humanas complejas?

Objetivos de Aprendizaje (SWBAT):

  • Cognitivo: Explicar los mecanismos del pipeline post-entrenamiento, incluyendo la distinción entre el Ajuste Fino Supervisado (SFT) y marcos de Aprendizaje por Refuerzo (RL) como GRPO.
  • Basado en habilidades: Diseñar un pipeline de entrenamiento multi-etapa—desde el inicio frío hasta la alineación final—utilizando técnicas eficientes en parámetros (PEFT) como LoRA.
  • Afectivo: Valorar el cambio de ver la IA como una "caja negra mágica" hacia un sistema ingenieril de capas mecánicas y razonamiento interno deliberado.

2. Componentes del Conocimiento Fundamental (Los Ingredientes)

A. Conceptos Clave (Sustantivos):

  • Pipeline Post-Entrenamiento: Etapa donde se moldea y alinea el comportamiento del modelo.
  • Ajuste Fino Supervisado (SFT): Entrenamiento con pares curados de instrucción-respuesta.
  • Ajuste Fino Eficiente en Parámetros (PEFT): Métodos como LoRA y QLoRA que insertan matrices de descomposición entrenables mientras se congelan los pesos originales.
  • Cadena de Pensamiento (CoT): Una fase interna de deliberación antes de generar la salida final.
  • Optimización Relativa de Grupo (GRPO): Un marco que elimina el "modelo crítico" al puntuar respuestas contra un promedio grupal.
  • Estrategias Evolutivas (ES): Una alternativa a la retropropagación que muta y recombinan parámetros.

B. Principios Fundamentales (Reglas):

  • Regla de Restricción de Hardware: Las actualizaciones de todos los parámetros son computacionalmente inviables; se requiere PEFT para hardware de consumo.
  • Regla de Eficiencia de GRPO: El RL moderno puede eliminar modelos evaluadores intensivos en memoria usando sistemas de recompensa automatizados y reglados.
  • Regla del Pipeline de Razonamiento: Construir modelos de razonamiento requiere una secuencia específica de cuatro etapas: Inicio Frío, RL Puro, Generación de Datos Sintéticos y SFT Secundario.

C. Habilidades Esenciales (Verbos):

  • Ajustar fino: Adaptar modelos a dominios específicos (por ejemplo, médicos o legales).
  • Inyectar: Insertar matrices de descomposición en capas de transformador.
  • Puntuar: Evaluar coherencia lógica y corrección matemática mediante sistemas automatizados.
  • Mutar: Alterar iterativamente parámetros del modelo para optimizar tareas de largo horizonte.

3. Fragmentos Instructivos (El Flujo)

Fragmento 1: Activación (Rompiendo la Caja Negra)

  • Actividad: Exploración en laboratorio digital. Usa herramientas de visualización (por ejemplo, Transformer Explainer, 3D LLM Walkthrough) para observar el cálculo en tiempo real de puntajes de atención y distribuciones de logits.
  • Objetivo: Cerrar la brecha entre "álgebra matricial" y la "interfaz mágica" de asistentes de IA.

Fragmento 2: Adquisición (La Arquitectura Post-Entrenamiento)

  • Contenido: Profunda exploración de SFT y PEFT. Contrasta el costo prohibitivo de actualizaciones de todos los parámetros con la eficiencia de LoRA/QLoRA.
  • Modelos Clave: Examina las arquitecturas de Llama 3.2, Qwen3 y Gemma como objetivos para la creación de asistentes personalizados.

Fragmento 3: Práctica (La Revolución del Razonamiento)

  • Actividad: Mapeo del Pipeline DeepSeek-R1. En grupos pequeños, los estudiantes deben diagramar el proceso de entrenamiento de 4 etapas:
    1. Inicio Frío: Evitar la degradación de la legibilidad.
    2. RL Puro: Desarrollar habilidades de CoT mediante GRPO.
    3. Muestreo de Rechazo: Crear conjuntos de datos etiquetados sintéticos a partir de salidas de alta calidad.
    4. Alineación Final: Combinar datos sintéticos con conjuntos de datos fácticos/creativos.

Fragmento 4: Aplicación (Escalado y Robustez)

  • Actividad: Debate de optimización. Compara el Aprendizaje por Refuerzo (PPO/GRPO) con Estrategias Evolutivas (ES).
  • Tarea: Determinar qué método es superior para "tareas de recompensa dispersa y de largo horizonte" y resistir el "hacking de recompensa" según investigaciones de 2026 del Laboratorio Cognizant AI.

4. Revisión y Extensión

Malentendidos:

  • La Falacia del "Actualización Completa": Creer que el ajuste fino de alta calidad requiere actualizar todos los miles de millones de parámetros (Corrección: LoRA/QLoRA lo logran mediante descomposición de rango).
  • La Necesidad del "Modelo Crítico": Suponer que el RL siempre requiere un LLM separado como evaluador (Corrección: GRPO usa puntuación basada en grupo y sistemas reglados).

Diferenciación:

  • Apoyo: Usa AnimatedLLM para conceptualización no técnica del entrenamiento de predicción de próxima palabra.
  • Desafío: Implementa una pipeline de clasificación de texto usando QLoRA en un conjunto de datos específico (por ejemplo, revisión de contratos legales) para demostrar la creación de un "asistente personalizado".

Resultados del Aprendizaje:

  • Cognitivo: Explicar los mecanismos del pipeline post-entrenamiento, incluyendo la distinción entre el Ajuste Fino Supervisado (SFT) y marcos de Aprendizaje por Refuerzo (RL) como GRPO.
  • Basado en habilidades: Diseñar un pipeline de entrenamiento multi-etapa—desde el inicio frío hasta la alineación final—utilizando técnicas eficientes en parámetros (PEFT) como LoRA.
  • Afectivo: Valorar el cambio de ver la IA como una "caja negra mágica" hacia un sistema ingenieril de capas mecánicas y razonamiento interno deliberado.

🔹 Lección 4: Ingeniería de Prompts y Aprendizaje con RAG

Resumen: # Ingeniería de Prompts y Aprendizaje con RAG

1. La Configuración

La Gran Pregunta: ¿Cómo pasamos de "trucos" orientados a la investigación a construir orquestaciones de IA confiables y de producción que anclan modelos en datos del mundo real y infraestructuras resilientes?

Objetivos de Aprendizaje (SWBAT):

  • Cognitivo: Entender el ciclo de vida del pipeline de Generación Aumentada por Recuperación (RAG) y la necesidad de orquestación multi-proveedor de LLM para fiabilidad de producción.
  • Basado en habilidades: Implementar análisis avanzado (segmentación semántica y agente), evaluar la precisión de recuperación usando métricas programáticas (MRR, NDCG) y diseñar routers de tráfico resilientes para sistemas multi-modelo.
  • Afectivo: Valorar el cambio de "trucos" de prompt mal definidos hacia una disciplina de ingeniería rigurosa que incluye control de versiones y conciencia de ciberseguridad.

2. Componentes del Conocimiento Fundamental (Los Ingredientes)

A. Conceptos Clave (Sustantivos):

  • Infraestructura RAG: Modelos de embeddings densos, representaciones vectoriales de alta dimensión, bases de datos vectoriales especializadas (Pinecone, Deep Lake, Milvus), FAISS, grafos HNSW.
  • Métodos de Segmentación: Segmentación semántica, segmentación solapada, segmentación agente.
  • Métricas de Evaluación: Recall@K, Precision@K, Rank Recíproco Medio (MRR), Ganancia Acumulada Descuento Normalizada (NDCG).
  • Arquitecturas Avanzadas: Generación Aumentada por Caché (CAG), enrutamiento multi-pregunta, RAG Jerárquico, RAG Multimodal.
  • Orquestación y Prompts: LLMOps, controladores de tráfico (routers), capas de puerta única, andamiajes de razonamiento, vulnerabilidades adversarias, control de versiones de prompts.

B. Principios Fundamentales (Reglas):

  • Necesidad de Anclaje: Los LLMs sufren inherentemente de alucinaciones y cortes temporales de conocimiento; RAG es necesario para conectarlos con bases de conocimiento externas.
  • Resiliencia Arquitectónica: Depender de un único proveedor de API de terceros es una vulnerabilidad crítica; los sistemas deben implementar orquestación multi-proveedor y lógica de fallback automático.
  • Rigor de Ingeniería: La ingeniería de prompts debe pasar de "trucos" a una disciplina formal que incluya especificaciones de salida rígidas (por ejemplo, JSON válido) y pasos secuenciales explícitos.

C. Habilidades Esenciales (Verbos):

  • Ingestar: Convertir texto no estructurado en representaciones vectoriales mediante modelos de embeddings densos.
  • Analizar: Dividir texto según significado (semántico) o puntos de ruptura determinados por IA (agente), en lugar de conteo de caracteres.
  • Cuantificar: Medir rigurosamente la precisión de recuperación usando suites de pruebas programáticas.
  • Enrutar: Dirigir dinámicamente prompts a modelos (por ejemplo, Claude 3.5 Sonnet vs. modelos de código abierto) según costo, latencia y profundidad de razonamiento.
  • Seguridad: Identificar y mitigar vulnerabilidades adversarias donde la lógica de formato se usa para evitar barreras.

3. Fragmentos Instructivos (El Flujo)

Fragmento 1: Activación (La Realidad de Producción)

  • Actividad: "La Auditoría de 2026". Los participantes revisan un escenario donde un script simple de LLM basado en API falla debido a un corte de conocimiento o una interrupción del proveedor. Discusión: ¿Por qué los "modelos crudos" son insuficientes para software de producción?

Fragmento 2: Adquisición (RAG Avanzado y LLMOps)

  • Contenido: Conferencia sobre el ciclo de vida RAG: desde la ingesta de datos hasta bases de datos vectoriales (FAISS/HNSW). Contrasta la segmentación fija y simple con segmentación semántica y agente. Introduce arquitecturas altamente optimizadas como Generación Aumentada por Caché (CAG).

Fragmento 3: Práctica (Métricas y Enrutamiento)

  • Actividad: "El Laboratorio del Evaluador". Dado un conjunto de datos, los participantes seleccionan y justifican el uso de métricas específicas (MRR vs. NDCG) para cuantificar el éxito de recuperación. Luego, diseñan un mapa de "Lógica de Router" que determina si enviar una consulta a un modelo de razonamiento avanzado (como OpenAI o3-mini) o a un modelo de código abierto económico.

Fragmento 4: Aplicación (Diseño del Sistema Resiliente)

  • Actividad: "Ingeniería del Pipeline". Los participantes redactan una arquitectura de sistema para un entorno de alto riesgo. El diseño debe incluir:
    1. Un pipeline RAG con segmentación agente.
    2. Una capa de puerta única con lógica de fallback automático.
    3. Una guía de ingeniería de prompts que utilice andamiajes de razonamiento y especificaciones de salida JSON rígidas.

4. Revisión y Extensión

Malentendidos:

  • La segmentación de tamaño fijo es "suficiente": La realidad requiere segmentación semántica o agente para preservar el contexto a través de los límites.
  • La ingeniería de prompts es solo escritura creativa: La realidad requiere que sea una disciplina formal con control de versiones y flujos explícitos.
  • RAG es solo encontrar texto: El RAG moderno implica integración multimodal (imagen y texto) y caché optimizado (CAG).

Diferenciación:

  • Apoyo: Enfócate en la transición de "trucos" a patrones de formato básicos y métricas de recuperación simples.
  • Desafío: Encarga a estudiantes avanzados vincular ingeniería de prompts y ciberseguridad de IA diseñando un sistema para detectar/prevenir explotaciones de formato adversarial.

Resultados del Aprendizaje:

  • Generado

🔹 Lección 5: Privacidad, Ética y Navegando Modelos de Código Abierto

Resumen: # Privacidad, Ética y Navegando Modelos de Código Abierto

1. La Configuración

La Gran Pregunta: En una era de LLMs de alto rendimiento en la nube, ¿por qué el cambio hacia el despliegue local y los "Pesos Abiertos" se está convirtiendo en un requisito no negociable para la IA de nivel empresarial?

Objetivos de Aprendizaje (SWBAT):

  • Cognitivo: Distinguir entre "Código Abierto" (definiciones OSI) y modelos de "Pesos Abiertos", e identificar los tres principales impulsos para el despliegue local (privacidad, costo, capacidad offline).
  • Basado en habilidades: Mapear requisitos de producción (como Amplificación de Conocimiento o Confianza en Prompts) a soluciones de orquestación específicas como Bases de Datos Vectoriales, Routers de Fallback y Red Team.
  • Afectivo: Valorar la importancia de las restricciones de privacidad de datos y las pruebas éticas de seguridad en el desarrollo profesional de IA.

2. Componentes del Conocimiento Fundamental (Los Ingredientes)

A. Conceptos Clave (Sustantivos):

  • Bases de Datos Vectoriales: Pinecone, Deep Lake.
  • Componentes de Infraestructura: Modelos de Embedding, Routers de Fallback, Puertas.
  • Métricas de Evaluación: MRR (Rank Recíproco Medio), Precision@K, Juez de LLM.
  • Categorías de Licencias: Código Abierto (definición OSI), Pesos Abiertos.
  • Herramientas de Seguridad: Red Team, Control de Versiones, Especificaciones de Formato de Salida.

B. Principios Fundamentales (Reglas):

  • Principio de Anclaje: Los sistemas deben anclar respuestas en datos privados específicos para reducir drásticamente las tasas de alucinaciones.
  • Necesidad de Despliegue: La privacidad corporativa estricta, los costos acumulados de tokens y las necesidades offline hacen que el despliegue local sea esencial.
  • Matiz de Licencias: Un modelo solo es "Código Abierto" si incluye código de entrenamiento y derechos no restrictivos; de lo contrario, es "Pesos Abiertos".
  • Regla de Resiliencia: Los sistemas empresariales deben enrutar prompts dinámicamente para optimizar costo y disponibilidad.

C. Habilidades Esenciales (Verbos):

  • Orquestar: Gestionar sistemas multi-proveedor y puertas.
  • Evaluar: Implementar pipelines automatizados para monitorear la precisión de recuperación y la calidad de generación.
  • Diferenciar: Clarificar los matices de licencias entre varios tipos de modelos.
  • Seguridad: Realizar pruebas de vulnerabilidad adversaria (Red Team).

3. Fragmentos Instructivos (El Flujo)

Fragmento 1: Activación (El Porqué de la IA Local)

  • Actividad: "Auditoría de Costo-Privacidad". Los estudiantes analizan un escenario hipotético donde una empresa enfrenta facturas exorbitantes de tokens y una filtración de datos. Discuten cómo el despliegue local resuelve estos "retos de Fase 5".

Fragmento 2: Adquisición (Arquitectura de la Solución)

  • Contenido: Desglose de la tabla de Requisitos de Producción.
    • Amplificación de Conocimiento: Usar bases de datos vectoriales para reducir alucinaciones.
    • Disponibilidad: Usar routers de fallback para uptime.
    • Seguridad: Usar Red Team y Control de Versiones.
    • Evaluación: Entender métricas MRR y Precision@K.

Fragmento 3: Práctica (Licencias y Lógica)

  • Actividad: "Clasificación de Código Abierto vs. Pesos Abiertos". Dada una lista de características de modelos (por ejemplo, "Parámetros Públicos", "Incluye Código de Entrenamiento", "Restricciones Comerciales"), los estudiantes deben categorizar correctamente según las definiciones proporcionadas.

Fragmento 4: Aplicación (Diseño del Sistema)

  • Actividad: "El Plano de la Pipeline Resiliente". Los estudiantes diseñan una arquitectura de sistema de alto nivel que incluya un Modelo de Embedding para anclar datos privados y una pipeline LLM-as-a-Judge para monitoreo continuo.

4. Revisión y Extensión

Malentendidos:

  • El Mitó del "Abierto": Suponer que cualquier modelo con parámetros públicos es "Código Abierto". (Corrección: Puede ser solo "Pesos Abiertos" si el código de entrenamiento o derechos están restringidos).
  • Superioridad de la Nube: Suponer que los modelos en la nube siempre son mejores. (Corrección: Los modelos locales son esenciales para escala, control de costos y privacidad).

Diferenciación:

  • Apoyo: Proporciona un glosario para métricas de evaluación (MRR, Precision@K) para estudiantes nuevos en ciencia de datos.
  • Desafío: Pide a desarrolladores senior diseñar una lógica de "Orquestación Multi-Proveedor" que cambie entre modelos locales y en la nube según el rendimiento de "Precision@K" frente al "Costo de Tokens".

Resultados del Aprendizaje:

  • Generado

🔹 Lección 6: Flujos Agente: Automatizando Tareas Complejas

Resumen: # Flujos Agente: Automatizando Tareas Complejas

1. La Configuración

La Gran Pregunta: ¿Cómo pasamos de sistemas de IA que simplemente generan texto en una sola pasada a agentes autónomos que pueden razonar, usar herramientas y colaborar a través de microservicios distribuidos?

Objetivos de Aprendizaje (SWBAT):

  • Cognitivo: Contrastar los marcos de integración lineal con la orquestación cíclica basada en grafos y diferenciar entre protocolos de integración vertical (MCP) e horizontal (A2A).
  • Basado en habilidades: Definir nodos especializados y bordes condicionales usando principios de teoría de grafos e implementar un servidor MCP usando FastMCP para conectar agentes con datos externos.
  • Afectivo: Valorar la importancia de la "ejecución cíclica" y la gestión de estado al imitar flujos cognitivos humanos complejos.

2. Componentes del Conocimiento Fundamental (Los Ingredientes)

A. Conceptos Clave (Sustantivos):

  • Características de Agentes de IA: Autonomía, Uso de Herramientas, Memoria, Razonamiento.
  • Frameworks de Orquestación: LangGraph, CrewAI (vs. LangChain temprano).
  • Arquitectura de Grafos: Nodos (tareas/llamadas de herramientas), Bordes Condicionales (camino de decisiones), Esquemas de Estado (Python TypedDict).
  • Protocolos de Interoperabilidad: Protocolo de Contexto de Modelo (MCP), Protocolo Agent2Agent (A2A).
  • Herramientas de Despliegue: Ollama (CLI), LM Studio (GUI), FastMCP, LocalAI.
  • Modelos: Llama 3, Qwen2.5, DeepSeek-R1 (cuantizado).

B. Principios Fundamentales (Reglas):

  • El Cambio de Paradigma: Transición de generación estática y de una sola pasada a flujos altamente autónomos y orientados a metas.
  • Ejecución Cíclica: Los agentes deben realizar una acción, evaluar el resultado y volver a loop para corregir errores o recolectar información.
  • Integración Vertical vs. Horizontal: MCP actúa como un "USB-C" para conectar modelos a datos (Vertical); A2A actúa como un lenguaje común para comunicación entre agentes a través de ecosistemas (Horizontal).
  • Arquitectura de Microservicios: MCP y A2A son complementarios, no competidores.

C. Habilidades Esenciales (Verbos):

  • Orquestar: Gestionar cadenas de lógica complejas y bucles de toma de decisiones con estado.
  • Desplegar: Ejecutar modelos locales en hardware de consumo con latencia cero.
  • Exponer: Proporcionar herramientas (APIs), recursos (datos de solo lectura) y prompts a través de servidores MCP.
  • Negociar: Permitir que agentes independientes descubran capacidades y compartan resultados estructurados de forma programática.

3. Fragmentos Instructivos (El Flujo)

Fragmento 1: Activación (De lo Estático a lo Agente) Actividad: Compara una interacción estándar de prompt-respuesta con una tarea de múltiples pasos (por ejemplo, "Investigar un tema y escribir un informe"). Los estudiantes identifican las cuatro características agente clave (Autonomía, Uso de Herramientas, Memoria, Razonamiento) necesarias para automatizar lo último.

Fragmento 2: Adquisición (Evolution de Framework y Teoría de Grafos) Contenido: Conferencia sobre las limitaciones de secuencias lineales (early LangChain) en manejar bucles de toma de decisiones. Introduce principios de LangGraph: definir nodos para tareas y bordes condicionales para control de flujo. Explica cómo TypedDict de Python mantiene estado a través de estos pasos para asegurar que se preserve la "historia de decisiones".

Fragmento 3: Práctica (Integración Vertical con MCP) Actividad: Módulo práctico usando FastMCP en Python. Los estudiantes construyen un servidor MCP local que expone tres capacidades (Herramientas, Recursos, Prompts). Conectaran un agente a una base de datos PostgreSQL local o a una API en vivo (como Hacker News) para demostrar extender capacidades más allá de los datos de entrenamiento estáticos.

Fragmento 4: Aplicación (Orquestación Horizontal con A2A) Actividad: Diseña una arquitectura de microservicios donde un "agente de investigación" (construido en LangGraph) use MCP para acceder a datos, luego use el Protocolo A2A para comunicar sus hallazgos a un "agente de toma de decisiones" (en un servidor separado). Practica el uso de Eventos Enviados por el Servidor (SSE) para actualizaciones en streaming entre estos agentes.

4. Revisión y Extensión

Malentendidos:

  • Linealidad: Los estudiantes a menudo piensan que una simple secuencia de prompts es un "agente". La instrucción debe enfatizar que los agentes requieren ejecución cíclica y lógica condicional.
  • Competencia de Protocolo: Aclarar que MCP y A2A no son rivales; uno maneja el acceso interno a herramientas (MCP), mientras que el otro maneja la colaboración externa entre agentes (A2A).

Diferenciación:

  • Apoyo: Usa la GUI de LM Studio para estudiantes que tienen dificultades con entornos de línea de comandos para descubrir y afinar modelos.
  • Desafío: Los desarrolladores avanzados deberían implementar LocalAI como sustituto directo de la API de OpenAI o usar text-generation-webui para integrar extensiones de plugin extensas en sus flujos agente.

Resultados del Aprendizaje:

  • Cognitivo: Contrastar los marcos de integración lineal con la orquestación cíclica basada en grafos y diferenciar entre protocolos de integración vertical (MCP) e horizontal (A2A).
  • Basado en habilidades: Definir nodos especializados y bordes condicionales usando principios de teoría de grafos e implementar un servidor MCP usando FastMCP para conectar agentes con datos externos.
  • Afectivo: Valorar la importancia de la "ejecución cíclica" y la gestión de estado al imitar flujos cognitivos humanos complejos.

🔹 Lección 7: Proyecto Final: Construyendo Tu Sistema Personal de Productividad con LLM

Resumen: # Proyecto Final: Construyendo Tu Sistema Personal de Productividad con LLM

1. La Configuración

La Gran Pregunta: ¿Cómo pasas de ser un consumidor pasivo de inteligencia artificial a convertirte en un arquitecto principal capaz de construir sistemas de IA robustos, resilientes y autónomos?

Objetivos de Aprendizaje (SWBAT):

  • Cognitivo: Entender las complejidades arquitectónicas de los protocolos de comunicación agente (LangGraph, MCP, A2A) y los fundamentos matemáticos de la alineación post-entrenamiento (Optimización Relativa de Grupo).
  • Basado en habilidades: Crear un portafolio completo que vaya desde pipelines NLP locales y aplicaciones RAG seguras hasta sistemas empresariales distribuidos multi-agente.
  • Afectivo: Desarrollar "intuición de ingeniería" al ir más allá de APIs de nube superficiales para enfrentar los mecanismos de bajo nivel de manipulación de tensores y orquestación distribuida.

2. Componentes del Conocimiento Fundamental (Los Ingredientes)

A. Conceptos Clave (Sustantivos):

  • Protocolos: Protocolo de Contexto de Modelo (MCP), bus de comunicación Agent-to-Agent (A2A).
  • Arquitecturas: Pipeline NLP Fundamental, Arquitectura RAG Avanzada, Flujo Agente Autónomo, Capstone de Sistemas Distribuidos.
  • Herramientas: Hugging Face (transformers/datasets), Ollama, LM Studio, Pinecone (Base de Datos Vectorial), LangGraph.
  • Métricas: MRR (Rank Recíproco Medio), Precision@K.
  • Modelos: Modelos de código abierto cuantizados, DeepSeek V3/R1, Modelos de Lenguaje-Visión-Acción.

B. Principios Fundamentales (Reglas):

  • Aplicación Empírica: El conocimiento teórico se deteriora sin aplicación rigurosa y empírica en repositorios de código públicamente verificables.
  • Reducción de Alucinaciones: Los sistemas RAG locales deben utilizar suites de evaluación automatizadas para probar empíricamente la reducción de alucinaciones frente a modelos base.
  • Trajectory de Complejidad: Las habilidades deben construirse incrementalmente, conectando álgebra lineal y manipulación de tensores con la orquestación de alto nivel de sistemas.
  • Educación Continua: La pericia en ingeniería requiere mantenerse actualizado con artículos fundamentales (ICLR/ICML) y informes técnicos.

C. Habilidades Esenciales (Verbos):

  • Tokenizar: Convertir conjuntos de datos de texto personalizados para el consumo del modelo.
  • Segmentar: Implementar estrategias avanzadas de segmentación solapada para grandes corpora.
  • Delegar: Usar protocolos A2A para mover tareas entre agentes especializados (por ejemplo, Agente de Triaje a Agente de Datos).
  • Consultar: Acceder a bases de datos SQL simuladas de forma segura a través de servidores MCP dedicados.
  • Razonar: Construir bucles autónomos que realicen comprobaciones internas hasta que un informe esté listo para publicación.

3. Fragmentos Instructivos (El Flujo)

Fragmento 1: Activación (El Cambio hacia la Ingeniería de Expertos)

  • Actividad: Discusión "Más Allá del Prompt". Contrasta las limitaciones de la ingeniería de prompts básicos y APIs de nube propietarias con los requisitos de la ingeniería de "nivel experto" (teoría matemática, manipulación de tensores y sistemas distribuidos).

Fragmento 2: Adquisición (Literatura y Fundamentos Técnicos)

  • Contenido: Profunda exploración de artículos fundamentales y informes técnicos. Los estudiantes revisan avances de ICLR/ICML y los informes técnicos de DeepSeek V3/R1 para entender el "borde de punta" de arquitecturas de modelos y técnicas de alineación como la Optimización Relativa de Grupo.

Fragmento 3: Práctica (Construcción Incremental de Proyectos)

  • Actividad 1: El Pipeline NLP: Carga localmente un modelo preentrenado para ejecutar generación y clasificación de texto (por ejemplo, predicción de churn de clientes).
  • Actividad 2: El Arquitecto RAG: Construye un RAG local usando Ollama/LM Studio y Pinecone. Los estudiantes deben implementar segmentación solapada y usar MRR/Precision@K para medir el rendimiento.

Fragmento 4: Aplicación (El Capstone de Sistemas Distribuidos)

  • Actividad: Despliegue del Sistema "Agente de Triaje-Datos". Construye un entorno multi-agente donde un "Agente de Triaje" primario reciba solicitudes y use el protocolo A2A para delegar consultas seguras a un "Agente de Datos" que funciona en un proceso separado a través de un servidor MCP.

4. Revisión y Extensión

Malentendidos:

  • La "Trampa de la API": La creencia de que llamar a APIs de nube propietarias equivale a ingeniería de IA.
  • Respuesta-QA Estática: Pensar que los sistemas de IA están limitados a preguntas y respuestas estáticas en lugar de flujos agente multi-etapa autónomos.
  • Teoría vs. Práctica: Suponer que leer artículos es suficiente sin desarrollar "bases de código públicamente verificables".

Diferenciación:

  • Apoyo: Utiliza recursos visuales como "LLM Transformer Model Visually Explained" y visualizaciones interactivas (AnimatedLLM) para comprender operaciones mecánicas como flujo de tensores y tokenización.
  • Desafío: Transición de agentes básicos a construir "Flujos Agente Autónomos" especializados que decidan dinámicamente usar herramientas de búsqueda web o ejecución de Python para satisfacer objetivos amplios (por ejemplo, análisis de informes financieros de SEC).