IA Generativa para Principiantes
Un plan de estudios completo que explora los fundamentos de la inteligencia artificial generativa, modelos de lenguaje grandes, ingeniería de prompts y el desarrollo de aplicaciones impulsadas por IA utilizando herramientas como Azure OpenAI y la Power Platform.
Lecciones
Descripción del curso
📚 Resumen del contenido
Una currículum completo que explora los fundamentos de la IA generativa, los modelos de lenguaje grandes (LLM), la ingeniería de prompts y el desarrollo de aplicaciones impulsadas por IA utilizando herramientas como Azure OpenAI y la plataforma Power Platform.
Domine los fundamentos de la IA generativa y cree aplicaciones inteligentes desde cero.
Agradecimientos: Microsoft, Azure y OpenAI.
🎯 Objetivos de aprendizaje
- Explicar el funcionamiento interno mecánico de los LLM, incluyendo la tokenización, el mecanismo de atención y la salida no determinista.
- Comparar diversas categorías de LLM (modelos base, código abierto frente a propietarios y arquitecturas de codificador/descodificador) para seleccionar la herramienta adecuada según un escenario empresarial.
- Evaluar estrategias para mejorar los resultados del modelo, especialmente eligiendo entre Ingeniería de Prompts, Generación Aumentada por Recuperación (RAG) y Fine-tuning.
- Definir la Ingeniería de Prompts y explicar su papel como la interfaz de programación principal para la IA generativa.
- Diferenciar entre LLM base y LLM entrenados con instrucciones y cómo procesan los tokens.
- Construir prompts complejos utilizando instrucciones, contenido principal, pistas y plantillas.
- Crear y configurar aplicaciones de generación de texto usando la biblioteca
openai, gestionar variables de entorno y ajustar la variedad de salidas mediante la temperatura. - Diferenciar entre chatbots basados en reglas y aplicaciones generativas conscientes del contexto, implementando al mismo tiempo los Seis Principios de IA Responsable de Microsoft.
- Realizar búsquedas semánticas convirtiendo el texto en embeddings (vectores) y aplicando similitud coseno para encontrar contenido relevante más allá de la coincidencia simple de palabras clave.
- Crear y configurar aplicaciones de generación de imágenes mientras se implementan "prompts meta" para definir límites de contenido y seguridad.
🔹 Lección 1: Fundamentos y ética de la IA generativa
Descripción general: Esta lección ofrece una introducción completa a la IA generativa, rastreando su evolución desde el aprendizaje automático estadístico hasta los modernos Modelos de Lenguaje Grandes (LLM) basados en Transformers. Los estudiantes explorarán cómo funcionan estos modelos mediante tokenización y probabilidad, cómo seleccionar y optimizar diferentes tipos de modelo (código abierto frente a propietario) y el marco crítico para aplicar principios de IA responsable para mitigar riesgos como alucinaciones y sesgos.
Resultados del aprendizaje:
- Explicar el funcionamiento interno mecánico de los LLM, incluyendo la tokenización, el mecanismo de atención y la salida no determinista.
- Comparar diversas categorías de LLM (Modelos base, código abierto frente a propietario y arquitecturas de codificador/descodificador) para seleccionar la herramienta adecuada según un escenario empresarial.
- Evaluar estrategias para mejorar los resultados del modelo, especialmente eligiendo entre Ingeniería de Prompts, Generación Aumentada por Recuperación (RAG) y Fine-tuning.
🔹 Lección 2: El arte y la ciencia de la ingeniería de prompts
Descripción general: Esta lección explora la Ingeniería de Prompts (PE) como el proceso de diseñar y optimizar entradas de texto (prompts) para guiar a los Modelos de Lenguaje Grandes (LLM) hacia respuestas de alta calidad y coherentes. Los estudiantes pasarán de comprender los fundamentos mecánicos de la tokenización y los tipos de modelo a aplicar técnicas avanzadas como el pensamiento en cadena y la provocación maieútica para mitigar limitaciones del modelo como la estocasticidad y la fabricación de información.
Resultados del aprendizaje:
- Definir la Ingeniería de Prompts y explicar su papel como la interfaz de programación principal para la IA generativa.
- Diferenciar entre LLM base y LLM entrenados con instrucciones y cómo procesan los tokens.
- Construir prompts complejos utilizando instrucciones, contenido principal, pistas y plantillas.
🔹 Lección 3: Desarrollo de aplicaciones de IA esenciales
Descripción general: Esta lección explora el desarrollo práctico de herramientas impulsadas por IA, centrándose en la generación de texto, interfaces de chat conscientes del contexto y aplicaciones de búsqueda semántica. Los estudiantes pasarán de la integración básica de API y el ajuste de parámetros (temperatura y tokens) a la implementación de funciones avanzadas como embeddings de texto, similitud coseno y marcos de IA responsable.
Resultados del aprendizaje:
- Crear y configurar aplicaciones de generación de texto usando la biblioteca
openai, gestionar variables de entorno y ajustar la variedad de salidas mediante la temperatura. - Diferenciar entre chatbots basados en reglas y aplicaciones generativas conscientes del contexto, implementando al mismo tiempo los Seis Principios de IA Responsable de Microsoft.
- Realizar búsquedas semánticas convirtiendo el texto en embeddings (vectores) y aplicando similitud coseno para encontrar contenido relevante más allá de la coincidencia simple de palabras clave.
🔹 Lección 4: Soluciones de IA de bajo código e integradas
Descripción general: Este material cubre tres pilares avanzados de la implementación de IA: crear aplicaciones de generación de imágenes usando modelos como DALL-E y Midjourney, desarrollar soluciones de bajo código mediante la plataforma Power Platform de Microsoft y mejorar las capacidades de los LLM mediante "llamadas de funciones". El contenido se centra en la implementación práctica, desde integraciones de API basadas en Python hasta el desarrollo de aplicaciones impulsadas por lenguaje natural y la conexión de IA con fuentes de datos externas.
Resultados del aprendizaje:
- Crear y configurar aplicaciones de generación de imágenes mientras se implementan "prompts meta" para definir límites de contenido y seguridad.
- Diseñar aplicaciones de IA de bajo código y flujos de trabajo automatizados usando Copilot, Dataverse y AI Builder dentro de la plataforma Power Platform.
- Implementar llamadas de funciones para garantizar salidas de datos estructuradas consistentes (JSON) e integrar LLM con APIs externas.
🔹 Lección 5: Experiencia de usuario, seguridad y ciclo de vida de la aplicación
Descripción general: Esta lección aborda la intersección crítica entre experiencia de usuario (UX), protocolos de seguridad y el ciclo de vida operativo específicamente para aplicaciones de IA generativa. Explora cómo construir confianza mediante la explicabilidad, identifica amenazas de seguridad específicas de la IA como la contaminación de datos y la inyección de prompts, y describe la transición desde MLOps tradicional hasta LLMOps para gestionar el ciclo de vida de la aplicación.
Resultados del aprendizaje:
- Diseñar interfaces de IA que promuevan la confianza y la transparencia mediante explicabilidad y control del usuario.
- Identificar y mitigar riesgos de seguridad específicos de la IA, incluyendo contaminación de datos, inyección de prompts y vulnerabilidades en la cadena de suministro.
- Diferenciar entre MLOps y LLMOps y explicar las etapas del ciclo de vida de la aplicación de IA generativa (Ideación, Construcción, Operacionalización).
🔹 Lección 6: Recuperación avanzada y sistemas agente
Descripción general: Esta lección aborda la transición desde interacciones básicas con LLM hasta sistemas sofisticados que utilizan Generación Aumentada por Recuperación (RAG) y agentes de IA autónomos. Los estudiantes explorarán cómo fundamentar modelos con datos privados usando bases de datos vectoriales y cómo extender las capacidades de los LLM mediante marcos agente que pueden planear, usar herramientas e interactuar con otros agentes.
Resultados del aprendizaje:
- Explicar el flujo técnico de RAG, incluyendo fragmentación, embedding y recuperación semántica.
- Comparar y seleccionar modelos de código abierto apropiados (Llama 2, Mistral, Falcon) según costo, personalización y rendimiento.
- Diferenciar entre los principales marcos de agentes de IA (LangChain, AutoGen, TaskWeaver, JARVIS) y sus casos de uso específicos.
🔹 Lección 7: Fine-tuning de modelos y arquitecturas especializadas
Descripción general: Esta lección aborda la transición desde la ingeniería de prompts general hasta la optimización de modelos mediante fine-tuning supervisado y el uso de Modelos de Lenguaje Pequeños (SLMs) especializados. Proporciona un análisis comparativo de las familias de modelos Microsoft Phi, Mistral y Meta Llama, detallando sus trade-offs arquitectónicos en tamaño, requisitos de computación y multimodalidad para despliegues en entornos de nube y edge.
Resultados del aprendizaje:
- Definir el fine-tuning y determinar cuándo utilizarlo frente a ingeniería de prompts o Generación Aumentada por Recuperación (RAG).
- Contrastar las características de los Modelos de Lenguaje Grandes (LLM) y los Modelos de Lenguaje Pequeños (SLM) en cuanto a tamaño, comprensión y velocidad de inferencia.
- Identificar las características únicas y los casos de uso para las familias de modelos Phi-3.5, Mistral (Large/Small/NeMo) y Llama (3.1/3.2).