Большие языковые модели для всех: от основ до практических применений (издание 2026 года)
Этот курс представляет собой доступное для начинающих практическое введение в большие языковые модели (LLM), такие как ChatGPT и Gemini. Он разработан для учащихся любого профиля и объясняет, как работают LLM на высоком уровне, что они могут и не могут делать, а также как эффективно использовать их в учебе, работе и повседневной жизни. Через практические демонстрации и пошаговые упражнения вы узнаете техники составления запросов, научитесь критически оценивать результаты, понимать, как справляться с ошибками и предвзятостью, а также безопасно и ответственно использовать распространённые инструменты (например, документы, резюме, перевод, обработка данных). По завершении курса вы сможете создать личный «рабочий процесс с использованием LLM» для реальных задач — написания текстов, исследований, планирования и повышения продуктивности — без необходимости продвинутых навыков программирования.
Уроки
Обзор курса
📚 Краткое содержание
Этот курс представляет собой дружелюбное для новичков, прикладное введение в большие языковые модели (LLM), такие как ChatGPT и Gemini. Разработанный для студентов любого уровня подготовки, он объясняет, как работают LLM на высоком уровне, что они могут и не могут делать, и как эффективно использовать их в учебе, работе и повседневной жизни. Через практические демонстрации и пошаговые упражнения вы научитесь техникам промптинга, критическому оцениванию результатов, работе с галлюцинациями и предвзятостью, а также безопасному и ответственному использованию распространенных инструментов (например, документов, резюме, переводов, обработки данных). По завершении курса вы сможете создать персональный «рабочий процесс с использованием LLM» для реальных задач — написания, исследований, планирования и повышения производительности — без необходимости продвинутых навыков программирования.
От фундаментальной математической логики до распределённой организации агентов: формирование передовых системных архитекторов эпохи крупных моделей.
🎯 Цели обучения
- Когнитивные: Понимание математических основ машинного обучения (линейная алгебра, математический анализ, теория вероятностей) и исторического развития нейронных архитектур от Перцептронов до LSTMs.
- Навыковые: Навигация по удалённым серверам с помощью команд оболочки Unix и реализация простых вычислительных графов с использованием движков автоматического дифференцирования.
- Аффективные: Оценка важности «теоретической базы» по сравнению с «предварительными абстракциями» при отладке сложных систем, таких как взрывы градиентов.
- Сгенерировано
- Когнитивные: Объяснение механизмов постобучения, включая различие между обучением с поддержкой (SFT) и фреймворками усиления обучения (RL), такими как GRPO.
- Навыковые: Проектирование многоэтапного обучающего процесса — от холодного старта до окончательной согласованности — с использованием методов параметроэффективного дообучения (PEFT), таких как LoRA.
- Аффективные: Оценка смены парадигмы — от восприятия ИИ как «волшебной чёрной коробки» к инженерной системе механических слоёв и осознанного внутреннего мышления.
- Когнитивные: Сравнение линейных интеграционных фреймворков с циклическими, графо-ориентированными организациями и различие между вертикальными (MCP) и горизонтальными (A2A) протоколами интеграции.
- Навыковые: Определение специализированных узлов и условных рёбер с использованием принципов теории графов и реализация сервера MCP с помощью FastMCP для подключения агентов к внешним данным.
- Аффективные: Оценка важности «циклического выполнения» и управления состоянием при имитации сложных человеческих когнитивных процессов.
🔹 Урок 1: Введение в LLM: от концепции к реальности
Обзор: ## 1. Настройка Главный вопрос: Является ли инженерия больших языковых моделей просто искусством «промпт-инжиниринга», или она требует строгого, всестороннего понимания математических и архитектурных эволюций, приведших к её созданию?
Цели обучения (SWBAT):
- Когнитивные: Понимание математических основ машинного обучения (линейная алгебра, математический анализ, теория вероятностей) и исторического развития нейронных архитектур от Перцептронов до LSTMs.
- Навыковые: Навигация по удалённым серверам с помощью команд оболочки Unix и реализация простых вычислительных графов с использованием движков автоматического дифференцирования.
- Аффективные: Оценка важности «теоретической базы» по сравнению с «предварительными абстракциями» при отладке сложных систем, таких как взрывы градиентов.
2. Основные компоненты знаний (Ингредиенты)
А. Ключевые понятия (Существительные):
- Агентные рабочие процессы
- Подархитектурная механика тензоров
- Выравнивание после обучения
- Протоколы распределённой агентной оркестрации
- Многомерные векторные пространства
- Декомпозиция собственных значений
- Обратное распространение ошибки (backpropagation)
- Многомерные тензоры (PyTorch)
- Вычислительные графы
- Теорема универсальной аппроксимации
- Проблема исчезающих градиентов
- Механизм внимания
Б. Основные принципы (Правила):
- Непреложная основа: Инженерия LLM не может быть освоена только через API; для оптимизации аппаратных средств и отладки необходима глубокая математика (анализ и линейная алгебра).
- Теорема универсальной аппроксимации: Однослойная сеть с обратным распространением может аппроксимировать любую непрерывную функцию (при условии достаточного числа скрытых единиц и риска обобщения).
- Ограничения РНН: Рекуррентные нейронные сети ограничены проблемой исчезающих градиентов и неспособностью параллельно обрабатывать последовательные данные.
В. Необходимые навыки (Глаголы):
- Отладить взрывы градиентов.
- Оптимизировать использование аппаратных ресурсов.
- Реализовать пользовательские функции потерь.
- Выполнять векторные операции (NumPy).
- Управлять средами глубокого обучения (командная строка Unix).
- Картировать парадигмы преобразования входных данных в выходные (один к одному, много к одному и т.д.).
3. Инструктивные блоки (Поток)
Блок 1: Активация (Ошибка API) Деятельность: Обсуждение кейса о «точке отказа» современного образования в области ИИ. Анализ рисков использования «высокоуровневых обёрток» и обсуждение ситуаций, когда знания о работе с API недостаточны (например, переход от монолитных архитектур к локализованным микросервисам).
Блок 2: Приобретение (Математическая и историческая основа) Содержание: Лекция о четырёх столпах (линейная алгебра, теория вероятностей, статистика, многомерный анализ). Отслеживание эволюции архитектуры с Перцептрона 1958 года до сетей с прямым распространением и ограничений РНН/ЛСТМ.
Блок 3: Практика (Программная грамотность) Деятельность: Лабораторная работа с кодом. Переход от изучения синтаксиса Python к фокусу на векторных операциях в NumPy. Использование «micrograd» Андрея Карпати для создания базовой многослойной перцептронной сети (MLP) и визуализация того, как градиенты проходят через сеть во время оптимизации.
Блок 4: Применение (Картирование парадигм) Деятельность: Структурный анализ преобразования данных. Студенты должны классифицировать различные реальные задачи (например, бинарная классификация против машинного перевода) по парадигмам вход-выход: один к одному, много к одному, один к многим, много к многим.
4. Обзор и развитие
Распространённые заблуждения:
- Миф о «волшебном прорыве»: Представление о том, что LLM являются изолированными открытиями, а не результатом десятилетий исследований.
- Сокращение через API: Ложное представление о том, что можно стать системным инженером без глубокого понимания умножения матриц и частных производных.
Дифференциация:
- Поддержка: Использование визуальных средств обучения (например, серия «3Blue1Brown» по нейронным сетям) и геометрических интуитивных инструментов для работы с многомерными пространствами.
- Вызов: Переход от стандартных массивов к многомерным тензорам в PyTorch для реализации ранних моделей с нуля.
Результаты обучения:
- Когнитивные: Понимание математических основ машинного обучения (линейная алгебра, математический анализ, теория вероятностей) и исторического развития нейронных архитектур от Перцептронов до LSTMs.
- Навыковые: Навигация по удалённым серверам с помощью команд оболочки Unix и реализация простых вычислительных графов с использованием движков автоматического дифференцирования.
- Аффективные: Оценка важности «теоретической базы» по сравнению с «предварительными абстракциями» при отладке сложных систем, таких как взрывы градиентов.
🔹 Урок 2: Под капотом: как LLM обрабатывают и прогнозируют текст
Обзор: # Под капотом: как LLM обрабатывают и прогнозируют текст
1. Настройка
Главный вопрос: Как мы можем преодолеть разрыв между «пассивным чтением» научных статей и настоящим инженерным пониманием математической сути трансформера?
Цели обучения (SWBAT):
- Когнитивные: Понимание математического обоснования масштабируемого скалярного произведения внимания, включая использование коэффициентов масштабирования для стабилизации градиентов и предотвращения проблемы «бесконечно малых градиентов» в функциях софтмакса.
- Навыковые: Реализация генеративно предобученного трансформера (GPT) с нуля на Python и PyTorch, переход от циклов к высоко параллелизованным матричным умножениям.
- Аффективные: Оценка важности «строчного» кодирования по сравнению с теоретическим чтением для размытования «врождённой непрозрачности» многомерных скрытых пространств.
2. Основные компоненты знаний (Ингредиенты)
А. Ключевые понятия (Существительные):
- Архитектуры: Трансформер (Васвани и др.), BERT (двунаправленные представления трансформеров), архитектуры только с кодировщиком, генеративно предобученный трансформер (GPT), смесь экспертов (MoE).
- Механизмы: Само-внимание, масштабируемое скалярное произведение внимания, многоголовое само-внимание, автономное генерирование.
- Структуры данных: Матрицы запросов (Q), ключей (K) и значений (V); плотные векторы; векторы вложений; скрытые пространства.
- Компоненты: Токенизаторы с кодировкой байтовых пар (BPE), позиционные кодировки (синусоидальные/косинусоидальные функции), нейронные сети с прямым распространением, остаточные связи, нормализация слоя (LayerNorm).
- Расширенные функции: Кэширование ключ-значение (KV), внимание с группировкой запросов.
Б. Основные принципы (Правила):
- Правило масштабирования: Сырой показатель внимания должен делиться на квадратный корень размера размерности ключа, чтобы избежать чрезмерного роста скалярных произведений.
- Правило внедрения последовательности: Для внесения порядка последовательности требуется ручная реализация синусоидальных и косинусоидальных функций.
- Правило стабильности: Остаточные связи и нормализация слоя должны применяться для борьбы с изменением внутренних распределений и обеспечения стабильности обучения.
- Оптимизация: Переход от простых циклов к матричным умножениям является необходимым для параллелизма.
В. Необходимые навыки (Глаголы):
- Декомпозировать: Разделить архитектуру трансформера на его основные механизмы.
- Реализовать: Написать токенизаторы, матрицы QKV и нейронные сети с прямым распространением с нуля.
- Формулировать: Математически и программно определить значения внимания.
- Трассировать: Визуально проследить путь от исходных слов к токенам, затем к векторам вложений с помощью интерактивных инструментов.
- Ускорить: Использовать кэширование ключ-значение для ускорения вывода.
3. Инструктивные блоки (Поток)
Блок 1: Активация (Визуализация непрозрачности) Деятельность: Интерактивное исследование. Студенты используют инструменты, такие как «Transformer Explainer» или «AnimatedLLM», для ввода текстовых запросов и наблюдения в реальном времени за взаимодействием внутренних компонентов. Это решает «педагогическую проблему» непрозрачности скрытых пространств.
Блок 2: Приобретение (Математическая основа) Содержание: Глубокое алгоритмическое взаимодействие с работой «Attention Is All You Need». Фокус на формулировании матриц Q, K и V и конкретной математике коэффициента масштабирования (\sqrt{d_k}), используемого для стабилизации градиентов.
Блок 3: Практика (Программная декомпозиция) Деятельность: Создание «с нуля». Под руководством материалов, таких как «Let’s build GPT» Андрея Карпати, студенты выполняют загрузку данных (например, набор данных «Волшебник Изумрудного города») и реализуют токенизаторы с кодировкой байтовых пар (BPE) и позиционные кодировки вручную.
Блок 4: Применение (Масштабирование и оптимизация) Деятельность: Расширенная архитектурная согласованность. Студенты переходят от циклового внимания к параллелизованным матричным умножениям. Затем они интегрируют передовые усовершенствования, такие как внимание с группировкой запросов и маршрутизация смеси экспертов (MoE), чтобы соответствовать архитектуре моделей 2026 года.
4. Обзор и развитие
Распространённые заблуждения:
- Теория против практики: Верование, что чтение научной литературы достаточно для мастерства инженерии (текст явно требует строчного реализации).
- Эффективность: Использование простых циклов для внимания вместо параллелизованных матричных умножений.
- Проблемы градиентов: Пренебрежение коэффициентом масштабирования, что приводит к бесконечно малым градиентам в функции софтмакса.
Дифференциация:
- Поддержка: Использование «The Illustrated Transformer» Джейя Аламмара или «The Annotated Transformer» от Гарварда для визуального/аннотированного математического обзора.
- Вызов: Задача продвинутым ученикам — реализовать кэширование ключ-значение для ускорения вывода или написать сложные механизмы маршрутизации смеси экспертов.
Результаты обучения:
- Сгенерировано
🔹 Урок 3: Выравнивание и рассуждения: как ИИ становится полезным помощником
Обзор: # Выравнивание и рассуждения: как ИИ становится полезным помощником
1. Настройка
Главный вопрос: Поскольку масштабное предобучение стало «коммунизированным» ресурсом, как инженеры превращают грубый, непредсказуемый базовый модель в надёжную систему рассуждений, способную следовать сложным человеческим намерениям?
Цели обучения (SWBAT):
- Когнитивные: Объяснение механизмов постобучения, включая различие между обучением с поддержкой (SFT) и фреймворками усиления обучения (RL), такими как GRPO.
- Навыковые: Проектирование многоэтапного обучающего процесса — от холодного старта до окончательной согласованности — с использованием методов параметроэффективного дообучения (PEFT), таких как LoRA.
- Аффективные: Оценка смены парадигмы — от восприятия ИИ как «волшебной чёрной коробки» к инженерной системе механических слоёв и осознанного внутреннего мышления.
2. Основные компоненты знаний (Ингредиенты)
А. Ключевые понятия (Существительные):
- Постобучение: Этап, на котором поведение модели формируется и выравнивается.
- Обучение с поддержкой (SFT): Обучение на подобранных парах «инструкция-ответ».
- Параметроэффективное дообучение (PEFT): Методы, такие как LoRA и QLoRA, которые вставляют обучаемые матрицы разложения ранга, сохраняя оригинальные веса неизменными.
- Цепочка рассуждений (CoT): Внутренний этап размышления перед генерацией окончательного результата.
- Групповая относительная оптимизация политики (GRPO): Фреймворк, который устраняет «модель критика», оценивая ответы по среднему значению группы.
- Эволюционные стратегии (ES): Альтернатива обратному распространению, которая мутирует и рекомбинирует параметры.
Б. Основные принципы (Правила):
- Правило ограничения аппаратных ресурсов: Полное обновление параметров вычислительно затратно; для оборудования потребительского класса необходимо использовать PEFT.
- Правило эффективности GRPO: Современное усиление обучения может устранить память-ёмкие модели-оценщики, используя автоматизированные, правилоподобные системы вознаграждения.
- Правило рассуждающей цепочки: Создание моделей рассуждений требует специальной четырёхэтапной последовательности: холодный старт, чистое RL, генерация синтетических данных и вторичное SFT.
В. Необходимые навыки (Глаголы):
- Дообучать: Адаптировать модели к конкретным областям (например, медицинской или юридической).
- Вставлять: Вставить матрицы разложения в слои трансформера.
- Оценивать: Оценивать логическую согласованность и математическую корректность с помощью автоматизированных систем.
- Мутировать: Последовательно изменять параметры модели для оптимизации задач с длинным сроком действия.
3. Инструктивные блоки (Поток)
Блок 1: Активация (Разрушение «чёрного ящика»)
- Деятельность: Исследование цифровой лаборатории. Используйте визуализационные инструменты (например, Transformer Explainer, 3D LLM Walkthrough) для наблюдения в реальном времени за вычислением оценок внимания и распределением логитов.
- Цель: Закрыть разрыв между «матричной алгеброй» и «волшебным интерфейсом» ИИ-ассистентов.
Блок 2: Приобретение (Архитектура постобучения)
- Содержание: Глубокое погружение в SFT и PEFT. Сравните запрещающую стоимость полного обновления параметров с эффективностью LoRA/QLoRA.
- Ключевые модели: Изучите архитектуры Llama 3.2, Qwen3 и Gemma как целевые для создания персональных помощников.
Блок 3: Практика (Революция рассуждений)
- Деятельность: Картирование процесса DeepSeek-R1. В малых группах студенты должны нарисовать четырёхэтапный обучающий процесс:
- Холодный старт: Предотвращение ухудшения читаемости.
- Чистое RL: Развитие навыков цепочки рассуждений через GRPO.
- Отбор отклонённых образцов: Создание синтетических аннотированных наборов данных из высококачественных результатов.
- Окончательное выравнивание: Объединение синтетических данных с фактологическими/творческими наборами данных.
Блок 4: Применение (Масштабирование и устойчивость)
- Деятельность: Дебаты по оптимизации. Сравните усиление обучения (PPO/GRPO) с эволюционными стратегиями (ES).
- Задание: Определите, какой метод лучше для задач с «разреженной, долгосрочной наградой» и устойчивости к «хакерству наград» на основе исследований 2026 года из лаборатории Cognizant AI.
4. Обзор и развитие
Распространённые заблуждения:
- Миф о «полном обновлении»: Убеждение, что качественное дообучение требует обновления всех миллиардов параметров (исправление: LoRA/QLoRA достигают этого через разложение ранга).
- Необходимость «модели критика»: Предположение, что в RL всегда нужна отдельная модель-оценщик (исправление: GRPO использует групповую оценку и правила).
Дифференциация:
- Поддержка: Используйте AnimatedLLM для непрофессионального понимания концепции обучения предсказанию следующего слова.
- Вызов: Реализуйте текстовую систему классификации с помощью QLoRA на конкретном наборе данных (например, проверка юридических контрактов), чтобы продемонстрировать создание «персонального помощника».
Результаты обучения:
- Когнитивные: Объяснение механизмов постобучения, включая различие между обучением с поддержкой (SFT) и фреймворками усиления обучения (RL), такими как GRPO.
- Навыковые: Проектирование многоэтапного обучающего процесса — от холодного старта до окончательной согласованности — с использованием методов параметроэффективного дообучения (PEFT), таких как LoRA.
- Аффективные: Оценка смены парадигмы — от восприятия ИИ как «волшебной чёрной коробки» к инженерной системе механических слоёв и осознанного внутреннего мышления.
🔹 Урок 4: Промпт-инжиниринг и привязка с помощью RAG
Обзор: # Промпт-инжиниринг и привязка с помощью RAG
1. Настройка
Главный вопрос: Как мы можем перейти от исследовательских «хаков» к созданию надёжных, готовых к производству оркестраций ИИ, которые привязывают модели к реальным данным и устойчивой инфраструктуре?
Цели обучения (SWBAT):
- Когнитивные: Понимание жизненного цикла пайплайна с увеличенной выборкой (RAG) и необходимости многопровайдерной оркестрации больших языковых моделей для надёжности в производстве.
- Навыковые: Реализация продвинутой обработки (семантическая и агентная фрагментация), оценка точности выборки с помощью программных метрик (MRR, NDCG) и проектирование устойчивых маршрутизаторов трафика для многоуровневых систем.
- Аффективные: Оценка смены парадигмы — от неопределённых «хаков» в промптах к строгой инженерной дисциплине, включающей контроль версий и осознанность кибербезопасности.
2. Основные компоненты знаний (Ингредиенты)
А. Ключевые понятия (Существительные):
- Инфраструктура RAG: Плотные модели вложений, многомерные векторные представления, специализированные векторные базы данных (Pinecone, Deep Lake, Milvus), FAISS, графы HNSW.
- Методы фрагментации: Семантическая фрагментация, перекрывающая фрагментация, агентная фрагментация.
- Метрики оценки: Полнота@К, Точность@К, Средняя обратная ранговая оценка (MRR), Нормализованная дисконтированная суммарная прибыль (NDCG).
- Расширенные архитектуры: Генерация с кэшированием (CAG), маршрутизация множественных запросов, иерархический RAG, мультимодальный RAG.
- Оркестрация и промпты: LLMOps, контроллеры трафика (маршрутизаторы), единый шлюз, схемы рассуждения, уязвимости к атакам, контроль версий промптов.
Б. Основные принципы (Правила):
- Необходимость привязки: Большие языковые модели по своей природе страдают от галлюцинаций и отставания по актуальности знаний; RAG необходим для связывания их с внешними базами знаний.
- Устойчивость архитектуры: Зависимость от одного стороннего провайдера API является критической уязвимостью; системы должны реализовывать многопровайдерную оркестрацию и автоматическое резервирование.
- Инженерная строгость: Промпт-инжиниринг должен перейти от «хаков» к формальной дисциплине, включающей жёсткие спецификации выходных данных (например, валидный JSON) и явные последовательные шаги.
В. Необходимые навыки (Глаголы):
- Интегрировать: Преобразовать неструктурированный текст в векторные представления с помощью плотных моделей вложений.
- Обрабатывать: Разделить текст по смыслу (семантический) или по точкам, определённым ИИ (агентный), а не по количеству символов.
- Оценивать: Строго измерить точность выборки с помощью программных тестовых наборов.
- Маршрутизировать: Динамически направлять промпты к моделям (например, Claude 3.5 Sonnet против открытых моделей) на основе стоимости, задержки и глубины рассуждения.
- Обеспечивать безопасность: Выявлять и устранять уязвимости к атакам, где форматирование используется для обхода защитных механизмов.
3. Инструктивные блоки (Поток)
Блок 1: Активация (Производственная реальность)
- Деятельность: «Аудит 2026». Участники анализируют сценарий, где простой скрипт на основе API терпит неудачу из-за устаревания знаний или сбоя провайдера. Обсуждение: почему «сырые модели» недостаточны для программного обеспечения уровня производства?
Блок 2: Приобретение (Продвинутый RAG и LLMOps)
- Содержание: Лекция о жизненном цикле RAG: от интеграции данных до векторных баз данных (FAISS/HNSW). Сравнение простой фиксированной фрагментации с семантической и агентной фрагментацией. Введение высокопроизводительных архитектур, таких как генерация с кэшированием (CAG).
Блок 3: Практика (Метрики и маршрутизация)
- Деятельность: «Лаборатория оценщика». Дан набор данных, участники выбирают и обосновывают использование конкретных метрик (MRR против NDCG) для количественной оценки успеха выборки. Затем проектируют «карту логики маршрутизатора», определяющую, отправлять ли запрос на модель с развитыми рассуждениями (например, OpenAI o3-mini) или более экономичную открытую модель.
Блок 4: Применение (Проектирование устойчивой системы)
- Деятельность: «Инженерия пайплайна». Участники разрабатывают архитектуру системы для высокорисковой среды. Проект должен включать:
- Пайплайн RAG с агентной фрагментацией.
- Единый шлюз с автоматической логикой резервирования.
- Руководство по промпт-инжинирингу, использующее схемы рассуждений и жёсткие спецификации вывода в формате JSON.
4. Обзор и развитие
Распространённые заблуждения:
- Фиксированная фрагментация «достаточно хороша»: Реальность требует семантической или агентной фрагментации для сохранения контекста на границах.
- Промпт-инжиниринг — это просто творческое письмо: Реальность требует, чтобы это была формальная дисциплина с контролем версий и явными рабочими процессами.
- RAG — это только поиск текста: Современный RAG включает мультимодальную интеграцию (изображения и текст) и оптимизированное кэширование (CAG).
Дифференциация:
- Поддержка: Фокус на переходе от «хаков» к простым шаблонам форматирования и простым метрикам выборки.
- Вызов: Задание продвинутым ученикам — соединить промпт-инжиниринг и кибербезопасность ИИ, разработав систему для обнаружения/предотвращения атак на форматирование.
Результаты обучения:
- Сгенерировано
🔹 Урок 5: Конфиденциальность, этика и ориентация в открытых моделях
Обзор: # Конфиденциальность, этика и ориентация в открытых моделях
1. Настройка
Главный вопрос: В эпоху высокопроизводительных облачных моделей ЛЯМ, почему переход к локальному развертыванию и «открытым весам» становится непреложным требованием для корпоративного уровня ИИ?
Цели обучения (SWBAT):
- Когнитивные: Различать «открытый источник» (определение OSI) и «открытые веса» моделей, и выявлять три основных фактора локального развертывания (конфиденциальность, стоимость, возможность работы без подключения).
- Навыковые: Соотносить производственные требования (например, дополнение знаний или надёжность промптов) с конкретными решениями оркестрации, такими как векторные базы данных, маршрутизаторы резервирования и тестирование на красную команду.
- Аффективные: Оценка важности ограничений конфиденциальности данных и этического тестирования безопасности в профессиональной разработке ИИ.
2. Основные компоненты знаний (Ингредиенты)
А. Ключевые понятия (Существительные):
- Векторные базы данных: Pinecone, Deep Lake.
- Компоненты инфраструктуры: Модели вложений, маршрутизаторы резервирования, шлюзы.
- Метрики оценки: MRR (средняя обратная ранговая оценка), Точность@К, ИИ как судья.
- Категории лицензирования: Открытый источник (определение OSI), открытые веса.
- Инструменты безопасности: Тестирование на красную команду, контроль версий, спецификации форматирования вывода.
Б. Основные принципы (Правила):
- Принцип привязки: Системы должны привязывать ответы к конкретным частным данным, чтобы значительно снизить уровень галлюцинаций.
- Необходимость развертывания: Жёсткие корпоративные требования к конфиденциальности, накопленные расходы на токены и потребность в работе без подключения делают локальное развертывание обязательным.
- Нюанс лицензирования: Модель считается «открытой» только если включает код обучения и неограниченные права; в противном случае она называется «открытыми весами».
- Правило устойчивости: Корпоративные системы должны динамически маршрутизировать промпты для оптимизации по стоимости и доступности.
В. Необходимые навыки (Глаголы):
- Оркестрировать: Управлять многопровайдерными системами и шлюзами.
- Оценивать: Реализовать автоматизированные пайплайны для мониторинга точности выборки и качества генерации.
- Различать: Чётко различать нюансы лицензирования различных типов моделей.
- Обеспечивать безопасность: Выполнять тестирование уязвимостей к атакам (тестирование на красную команду).
3. Инструктивные блоки (Поток)
Блок 1: Активация (Почему локальный ИИ)
- Деятельность: «Аудит затрат-конфиденциальности». Студенты анализируют гипотетический сценарий, где компания сталкивается с огромными счетами за токены и утечкой данных. Обсуждение того, как локальное развертывание решает эти «задачи 5-го этапа».
Блок 2: Приобретение (Архитектура решения)
- Содержание: Разбор таблицы производственных требований.
- Дополнение знаний: Использование векторных БД для снижения галлюцинаций.
- Доступность: Использование маршрутизаторов резервирования для обеспечения доступности.
- Безопасность: Использование тестирования на красную команду и контроля версий.
- Оценка: Понимание метрик MRR и Точность@К.
Блок 3: Практика (Лицензирование и логика)
- Деятельность: «Сортировка: открытый источник против открытых весов». Дан список характеристик моделей (например, «публичные параметры», «включён код обучения», «коммерческие ограничения»), студенты должны правильно классифицировать их на основе определений, предоставленных в тексте.
Блок 4: Применение (Проект устойчивого пайплайна)
- Деятельность: «Чертёж устойчивого пайплайна». Студенты проектируют высокий уровень архитектуры системы, включающей модель вложений для привязки к частным данным и пайплайн ИИ как судья для непрерывного мониторинга.
4. Обзор и развитие
Распространённые заблуждения:
- Миф «открытого»: Предположение, что любая модель с публичными параметрами является «открытым источником». (Исправление: она может быть только «открытыми весами», если код обучения/права ограничены).
- Превосходство облака: Предположение, что облачные модели всегда лучше. (Исправление: локальные модели необходимы для масштабирования, контроля затрат и конфиденциальности).
Дифференциация:
- Поддержка: Предоставьте словарь для метрик оценки (MRR, Точность@К) для студентов, новичков в аналитике данных.
- Вызов: Попросите опытных разработчиков спроектировать логику «оркестрации многопровайдеров», которая переключает между локальными и облачными моделями на основе «Точности@К» против «стоимости токенов».
Результаты обучения:
- Сгенерировано
🔹 Урок 6: Агентные рабочие процессы: автоматизация сложных задач
Обзор: # Агентные рабочие процессы: автоматизация сложных задач
1. Настройка
Главный вопрос: Как перейти от систем ИИ, которые просто генерируют текст за один проход, к автономным агентам, способным рассуждать, использовать инструменты и сотрудничать в распределённых микросервисах?
Цели обучения (SWBAT):
- Когнитивные: Сравнение линейных интеграционных фреймворков с циклическими, графо-ориентированными организациями и различие между вертикальными (MCP) и горизонтальными (A2A) протоколами интеграции.
- Навыковые: Определение специализированных узлов и условных рёбер с использованием принципов теории графов и реализация сервера MCP с помощью FastMCP для подключения агентов к внешним данным.
- Аффективные: Оценка важности «циклического выполнения» и управления состоянием при имитации сложных человеческих когнитивных процессов.
2. Основные компоненты знаний (Ингредиенты)
А. Ключевые понятия (Существительные):
- Характеристики ИИ-агентов: Автономность, использование инструментов, память, рассуждения.
- Фреймворки оркестрации: LangGraph, CrewAI (в отличие от раннего LangChain).
- Графовая архитектура: Узлы (задачи/вызовы инструментов), условные рёбра (пути принятия решений), схемы состояния (Python TypedDict).
- Протоколы взаимодействия: Протокол модели контекста (MCP), протокол агент-к-агенту (A2A).
- Инструменты развертывания: Ollama (CLI), LM Studio (GUI), FastMCP, LocalAI.
- Модели: Llama 3, Qwen2.5, DeepSeek-R1 (квантованные).
Б. Основные принципы (Правила):
- Смена парадигмы: Переход от статичных, одноходовых генераций к высоко автономным, целенаправленным рабочим процессам.
- Циклическое выполнение: Агенты должны выполнять действие, оценивать результат и возвращаться назад, чтобы исправить ошибки или собрать информацию.
- Вертикальная против горизонтальной интеграции: MCP действует как «USB-C» для подключения моделей к данным (вертикально); A2A действует как общий язык для коммуникации между агентами в экосистемах (горизонтально).
- Архитектура микросервисов: MCP и A2A дополняют друг друга, а не конкурируют.
В. Необходимые навыки (Глаголы):
- Оркестрировать: Управлять сложными логическими цепочками и состоятельными циклами принятия решений.
- Развертывать: Запускать локальные модели на бытовом оборудовании с нулевой задержкой.
- Экспонировать: Предоставлять инструменты (API), ресурсы (только для чтения) и промпты через серверы MCP.
- Переговорить: Позволить независимым агентам находить возможности и обмениваться структурированными результатами программно.
3. Инструктивные блоки (Поток)
Блок 1: Активация (От статичного к агентному) Деятельность: Сравните стандартную взаимодействие «промпт-ответ» с многошаговой задачей (например, «исследовать тему и написать отчёт»). Студенты определяют четыре основных агентных характеристики (Автономность, Использование инструментов, Память, Рассуждения), необходимые для автоматизации второй.
Блок 2: Приобретение (Эволюция фреймворков и теория графов) Содержание: Лекция о ограничениях линейных последовательностей (раннее LangChain) в управлении циклами принятия решений. Введение принципов LangGraph: определение узлов для задач и условных рёбер для управления потоком. Объяснение того, как TypedDict в Python сохраняет состояние на этих шагах, чтобы гарантировать сохранение «истории принятия решений».
Блок 3: Практика (Вертикальная интеграция с MCP) Деятельность: Практический модуль с использованием FastMCP в Python. Студенты создают локальный сервер MCP, который предоставляет три возможности (Инструменты, Ресурсы, Промпты). Они подключат агент к локальной базе данных PostgreSQL или к живому API (например, Hacker News), чтобы продемонстрировать расширение возможностей за пределами статических обучающих данных.
Блок 4: Применение (Горизонтальная оркестрация с A2A) Деятельность: Проектирование архитектуры микросервисов, где «исследовательский агент» (на основе LangGraph) использует MCP для доступа к данным, затем использует протокол A2A, чтобы сообщить свои выводы «агенту принятия решений» (на отдельном сервере). Практикуйтесь с серверными событиями (SSE) для потоковой передачи обновлений между этими агентами.
4. Обзор и развитие
Распространённые заблуждения:
- Линейность: Студенты часто думают, что простая последовательность промптов — это «агент». Обучение должно подчеркивать, что агенты требуют циклического выполнения и условной логики.
- Конкуренция протоколов: Уточните, что MCP и A2A не являются конкурентами; один управляет внутренним доступом к инструментам (MCP), другой — внешним взаимодействием между агентами (A2A).
Дифференциация:
- Поддержка: Используйте графический интерфейс LM Studio для студентов, испытывающих трудности с командной строкой, чтобы открыть и настроить модели.
- Вызов: Продвинутым разработчикам следует реализовать LocalAI как замену открытого API или использовать text-generation-webui, чтобы интегрировать широкий спектр плагинов для своих агентных рабочих процессов.
Результаты обучения:
- Когнитивные: Сравнение линейных интеграционных фреймворков с циклическими, графо-ориентированными организациями и различие между вертикальными (MCP) и горизонтальными (A2A) протоколами интеграции.
- Навыковые: Определение специализированных узлов и условных рёбер с использованием принципов теории графов и реализация сервера MCP с помощью FastMCP для подключения агентов к внешним данным.
- Аффективные: Оценка важности «циклического выполнения» и управления состоянием при имитации сложных человеческих когнитивных процессов.
🔹 Урок 7: Итоговый проект: Создание вашей персональной системы продуктивности на основе LLM
Обзор: # Итоговый проект: Создание вашей персональной системы продуктивности на основе LLM
1. Настройка
Главный вопрос: Как перейти от пассивного потребителя искусственного интеллекта к роли первичного архитектора, способного создавать надёжные, устойчивые и автономные системы ИИ?
Цели обучения (SWBAT):
- Когнитивные: Понимание архитектурной сложности протоколов агентного общения (LangGraph, MCP, A2A) и математических основ постобучения (Групповая относительная оптимизация политики).
- Навыковые: Создание комплексного портфеля, включающего локальные пайплайны обработки естественного языка, безопасные приложения RAG и распределённые многоагентные корпоративные системы.
- Аффективные: Развитие «инженерной интуиции» путём перехода от поверхностных облачных API к работе с низкоуровневыми механиками манипулирования тензорами и распределённой оркестрацией.
2. Основные компоненты знаний (Ингредиенты)
А. Ключевые понятия (Существительные):
- Протоколы: Протокол контекста модели (MCP), общение агент-к-агенту (A2A).
- Архитектуры: Основной пайплайн обработки естественного языка, продвинутая архитектура RAG, автономный агентный рабочий процесс, итоговый проект распределённых систем.
- Инструменты: Hugging Face (transformers/datasets), Ollama, LM Studio, Pinecone (векторная база данных), LangGraph.
- Метрики: MRR (средняя обратная ранговая оценка), Точность@К.
- Модели: Квантованные открытые модели, DeepSeek V3/R1, модели зрительного языка и действия.
Б. Основные принципы (Правила):
- Эмпирическое применение: Теоретические знания деградируют без строгого, эмпирического применения в публично проверяемых кодовых базах.
- Снижение галлюцинаций: Локальные системы RAG должны использовать автоматизированные наборы тестов для эмпирического доказательства снижения галлюцинаций по сравнению с базовыми моделями.
- Траектория сложности: Навыки должны развиваться постепенно, переходя от линейной алгебры и манипуляции тензорами к высокому уровню оркестрации систем.
- Непрерывное обучение: Профессиональное мастерство требует постоянного следования за фундаментальными исследованиями (ICLR/ICML) и техническими отчетами.
В. Необходимые навыки (Глаголы):
- Токенизировать: Преобразовать пользовательские текстовые наборы данных для потребления моделью.
- Фрагментировать: Реализовать продвинутые стратегии перекрывающейся фрагментации для больших корпусов.
- Делегировать: Использовать протоколы A2A для передачи задач между специализированными агентами (например, агент-триаж к агенту-данных).
- Запрашивать: Безопасно обращаться к мок-базам данных через специализированные серверы MCP.
- Рассуждать: Создавать автономные циклы, которые выполняют внутренние проверки до тех пор, пока отчёт не станет готов к публикации.
3. Инструктивные блоки (Поток)
Блок 1: Активация (Сдвиг к экспертной инженерии)
- Деятельность: Обсуждение «За пределами промпта». Сравнение ограничений базового промпт-инжиниринга и проприетарных облачных API с требованиями «экспертного» инжиниринга (математическая теория, манипуляция тензорами, распределённые системы).
Блок 2: Приобретение (Литература и технические основы)
- Содержание: Глубокое погружение в фундаментальные работы и технические отчёты. Студенты изучают достижения ICLR/ICML и технические отчёты DeepSeek V3/R1, чтобы понять «передовую» архитектуру моделей и методы выравнивания, такие как Групповая относительная оптимизация политики.
Блок 3: Практика (Постепенное построение проектов)
- Деятельность 1: Пайплайн обработки естественного языка: Локально загрузить предобученную модель для выполнения генерации и классификации текста (например, прогнозирование оттока клиентов).
- Деятельность 2: Архитектура RAG: Создать локальный RAG с использованием Ollama/LM Studio и Pinecone. Студенты должны реализовать перекрывающуюся фрагментацию и использовать MRR/Точность@К для оценки производительности.
Блок 4: Применение (Итоговый проект распределённых систем)
- Деятельность: Развертывание системы «Агент-триаж-данные». Создать многоагентную среду, где основной «агент-триаж» получает запросы и с помощью протокола A2A делегирует безопасные запросы к базе данных «агенту-данных», работающему в отдельном процессе через сервер MCP.
4. Обзор и развитие
Распространённые заблуждения:
- Ловушка API: Убеждение, что вызов проприетарных облачных API эквивалентен инженерии ИИ.
- Статичный вопрос-ответ: Мысли, что системы ИИ ограничены статичными вопросами-ответами, а не автономными, многошаговыми агентными рабочими процессами.
- Теория против практики: Предположение, что чтение статей достаточно, без разработки «публично проверяемых кодовых баз».
Дифференциация:
- Поддержка: Использование визуальных обучающих ресурсов, таких как «Визуально объяснённая модель трансформера ИИ» и интерактивные визуализации (AnimatedLLM), чтобы понять механические операции, такие как поток тензоров и токенизация.
- Вызов: Переход от базовых агентов к созданию специализированных «автономных агентных рабочих процессов», которые динамически решают, использовать ли веб-поиск или выполнение кода на Python для удовлетворения широких целей (например, анализ финансового отчёта SEC).