К курсам
AI008 Professional

Большие языковые модели для всех: от основ до практических применений (издание 2026 года)

Этот курс представляет собой доступное для начинающих практическое введение в большие языковые модели (LLM), такие как ChatGPT и Gemini. Он разработан для учащихся любого профиля и объясняет, как работают LLM на высоком уровне, что они могут и не могут делать, а также как эффективно использовать их в учебе, работе и повседневной жизни. Через практические демонстрации и пошаговые упражнения вы узнаете техники составления запросов, научитесь критически оценивать результаты, понимать, как справляться с ошибками и предвзятостью, а также безопасно и ответственно использовать распространённые инструменты (например, документы, резюме, перевод, обработка данных). По завершении курса вы сможете создать личный «рабочий процесс с использованием LLM» для реальных задач — написания текстов, исследований, планирования и повышения продуктивности — без необходимости продвинутых навыков программирования.

4.9
21h
671 учеников
0 лайки
Искусственный интеллект
Начать обучение

Обзор курса

📚 Краткое содержание

Этот курс представляет собой дружелюбное для новичков, прикладное введение в большие языковые модели (LLM), такие как ChatGPT и Gemini. Разработанный для студентов любого уровня подготовки, он объясняет, как работают LLM на высоком уровне, что они могут и не могут делать, и как эффективно использовать их в учебе, работе и повседневной жизни. Через практические демонстрации и пошаговые упражнения вы научитесь техникам промптинга, критическому оцениванию результатов, работе с галлюцинациями и предвзятостью, а также безопасному и ответственному использованию распространенных инструментов (например, документов, резюме, переводов, обработки данных). По завершении курса вы сможете создать персональный «рабочий процесс с использованием LLM» для реальных задач — написания, исследований, планирования и повышения производительности — без необходимости продвинутых навыков программирования.

От фундаментальной математической логики до распределённой организации агентов: формирование передовых системных архитекторов эпохи крупных моделей.

🎯 Цели обучения

  1. Когнитивные: Понимание математических основ машинного обучения (линейная алгебра, математический анализ, теория вероятностей) и исторического развития нейронных архитектур от Перцептронов до LSTMs.
  2. Навыковые: Навигация по удалённым серверам с помощью команд оболочки Unix и реализация простых вычислительных графов с использованием движков автоматического дифференцирования.
  3. Аффективные: Оценка важности «теоретической базы» по сравнению с «предварительными абстракциями» при отладке сложных систем, таких как взрывы градиентов.
  4. Сгенерировано
  5. Когнитивные: Объяснение механизмов постобучения, включая различие между обучением с поддержкой (SFT) и фреймворками усиления обучения (RL), такими как GRPO.
  6. Навыковые: Проектирование многоэтапного обучающего процесса — от холодного старта до окончательной согласованности — с использованием методов параметроэффективного дообучения (PEFT), таких как LoRA.
  7. Аффективные: Оценка смены парадигмы — от восприятия ИИ как «волшебной чёрной коробки» к инженерной системе механических слоёв и осознанного внутреннего мышления.
  8. Когнитивные: Сравнение линейных интеграционных фреймворков с циклическими, графо-ориентированными организациями и различие между вертикальными (MCP) и горизонтальными (A2A) протоколами интеграции.
  9. Навыковые: Определение специализированных узлов и условных рёбер с использованием принципов теории графов и реализация сервера MCP с помощью FastMCP для подключения агентов к внешним данным.
  10. Аффективные: Оценка важности «циклического выполнения» и управления состоянием при имитации сложных человеческих когнитивных процессов.

🔹 Урок 1: Введение в LLM: от концепции к реальности

Обзор: ## 1. Настройка Главный вопрос: Является ли инженерия больших языковых моделей просто искусством «промпт-инжиниринга», или она требует строгого, всестороннего понимания математических и архитектурных эволюций, приведших к её созданию?

Цели обучения (SWBAT):

  • Когнитивные: Понимание математических основ машинного обучения (линейная алгебра, математический анализ, теория вероятностей) и исторического развития нейронных архитектур от Перцептронов до LSTMs.
  • Навыковые: Навигация по удалённым серверам с помощью команд оболочки Unix и реализация простых вычислительных графов с использованием движков автоматического дифференцирования.
  • Аффективные: Оценка важности «теоретической базы» по сравнению с «предварительными абстракциями» при отладке сложных систем, таких как взрывы градиентов.

2. Основные компоненты знаний (Ингредиенты)

А. Ключевые понятия (Существительные):

  • Агентные рабочие процессы
  • Подархитектурная механика тензоров
  • Выравнивание после обучения
  • Протоколы распределённой агентной оркестрации
  • Многомерные векторные пространства
  • Декомпозиция собственных значений
  • Обратное распространение ошибки (backpropagation)
  • Многомерные тензоры (PyTorch)
  • Вычислительные графы
  • Теорема универсальной аппроксимации
  • Проблема исчезающих градиентов
  • Механизм внимания

Б. Основные принципы (Правила):

  • Непреложная основа: Инженерия LLM не может быть освоена только через API; для оптимизации аппаратных средств и отладки необходима глубокая математика (анализ и линейная алгебра).
  • Теорема универсальной аппроксимации: Однослойная сеть с обратным распространением может аппроксимировать любую непрерывную функцию (при условии достаточного числа скрытых единиц и риска обобщения).
  • Ограничения РНН: Рекуррентные нейронные сети ограничены проблемой исчезающих градиентов и неспособностью параллельно обрабатывать последовательные данные.

В. Необходимые навыки (Глаголы):

  • Отладить взрывы градиентов.
  • Оптимизировать использование аппаратных ресурсов.
  • Реализовать пользовательские функции потерь.
  • Выполнять векторные операции (NumPy).
  • Управлять средами глубокого обучения (командная строка Unix).
  • Картировать парадигмы преобразования входных данных в выходные (один к одному, много к одному и т.д.).

3. Инструктивные блоки (Поток)

Блок 1: Активация (Ошибка API) Деятельность: Обсуждение кейса о «точке отказа» современного образования в области ИИ. Анализ рисков использования «высокоуровневых обёрток» и обсуждение ситуаций, когда знания о работе с API недостаточны (например, переход от монолитных архитектур к локализованным микросервисам).

Блок 2: Приобретение (Математическая и историческая основа) Содержание: Лекция о четырёх столпах (линейная алгебра, теория вероятностей, статистика, многомерный анализ). Отслеживание эволюции архитектуры с Перцептрона 1958 года до сетей с прямым распространением и ограничений РНН/ЛСТМ.

Блок 3: Практика (Программная грамотность) Деятельность: Лабораторная работа с кодом. Переход от изучения синтаксиса Python к фокусу на векторных операциях в NumPy. Использование «micrograd» Андрея Карпати для создания базовой многослойной перцептронной сети (MLP) и визуализация того, как градиенты проходят через сеть во время оптимизации.

Блок 4: Применение (Картирование парадигм) Деятельность: Структурный анализ преобразования данных. Студенты должны классифицировать различные реальные задачи (например, бинарная классификация против машинного перевода) по парадигмам вход-выход: один к одному, много к одному, один к многим, много к многим.

4. Обзор и развитие

Распространённые заблуждения:

  • Миф о «волшебном прорыве»: Представление о том, что LLM являются изолированными открытиями, а не результатом десятилетий исследований.
  • Сокращение через API: Ложное представление о том, что можно стать системным инженером без глубокого понимания умножения матриц и частных производных.

Дифференциация:

  • Поддержка: Использование визуальных средств обучения (например, серия «3Blue1Brown» по нейронным сетям) и геометрических интуитивных инструментов для работы с многомерными пространствами.
  • Вызов: Переход от стандартных массивов к многомерным тензорам в PyTorch для реализации ранних моделей с нуля.

Результаты обучения:

  • Когнитивные: Понимание математических основ машинного обучения (линейная алгебра, математический анализ, теория вероятностей) и исторического развития нейронных архитектур от Перцептронов до LSTMs.
  • Навыковые: Навигация по удалённым серверам с помощью команд оболочки Unix и реализация простых вычислительных графов с использованием движков автоматического дифференцирования.
  • Аффективные: Оценка важности «теоретической базы» по сравнению с «предварительными абстракциями» при отладке сложных систем, таких как взрывы градиентов.

🔹 Урок 2: Под капотом: как LLM обрабатывают и прогнозируют текст

Обзор: # Под капотом: как LLM обрабатывают и прогнозируют текст

1. Настройка

Главный вопрос: Как мы можем преодолеть разрыв между «пассивным чтением» научных статей и настоящим инженерным пониманием математической сути трансформера?

Цели обучения (SWBAT):

  • Когнитивные: Понимание математического обоснования масштабируемого скалярного произведения внимания, включая использование коэффициентов масштабирования для стабилизации градиентов и предотвращения проблемы «бесконечно малых градиентов» в функциях софтмакса.
  • Навыковые: Реализация генеративно предобученного трансформера (GPT) с нуля на Python и PyTorch, переход от циклов к высоко параллелизованным матричным умножениям.
  • Аффективные: Оценка важности «строчного» кодирования по сравнению с теоретическим чтением для размытования «врождённой непрозрачности» многомерных скрытых пространств.

2. Основные компоненты знаний (Ингредиенты)

А. Ключевые понятия (Существительные):

  • Архитектуры: Трансформер (Васвани и др.), BERT (двунаправленные представления трансформеров), архитектуры только с кодировщиком, генеративно предобученный трансформер (GPT), смесь экспертов (MoE).
  • Механизмы: Само-внимание, масштабируемое скалярное произведение внимания, многоголовое само-внимание, автономное генерирование.
  • Структуры данных: Матрицы запросов (Q), ключей (K) и значений (V); плотные векторы; векторы вложений; скрытые пространства.
  • Компоненты: Токенизаторы с кодировкой байтовых пар (BPE), позиционные кодировки (синусоидальные/косинусоидальные функции), нейронные сети с прямым распространением, остаточные связи, нормализация слоя (LayerNorm).
  • Расширенные функции: Кэширование ключ-значение (KV), внимание с группировкой запросов.

Б. Основные принципы (Правила):

  • Правило масштабирования: Сырой показатель внимания должен делиться на квадратный корень размера размерности ключа, чтобы избежать чрезмерного роста скалярных произведений.
  • Правило внедрения последовательности: Для внесения порядка последовательности требуется ручная реализация синусоидальных и косинусоидальных функций.
  • Правило стабильности: Остаточные связи и нормализация слоя должны применяться для борьбы с изменением внутренних распределений и обеспечения стабильности обучения.
  • Оптимизация: Переход от простых циклов к матричным умножениям является необходимым для параллелизма.

В. Необходимые навыки (Глаголы):

  • Декомпозировать: Разделить архитектуру трансформера на его основные механизмы.
  • Реализовать: Написать токенизаторы, матрицы QKV и нейронные сети с прямым распространением с нуля.
  • Формулировать: Математически и программно определить значения внимания.
  • Трассировать: Визуально проследить путь от исходных слов к токенам, затем к векторам вложений с помощью интерактивных инструментов.
  • Ускорить: Использовать кэширование ключ-значение для ускорения вывода.

3. Инструктивные блоки (Поток)

Блок 1: Активация (Визуализация непрозрачности) Деятельность: Интерактивное исследование. Студенты используют инструменты, такие как «Transformer Explainer» или «AnimatedLLM», для ввода текстовых запросов и наблюдения в реальном времени за взаимодействием внутренних компонентов. Это решает «педагогическую проблему» непрозрачности скрытых пространств.

Блок 2: Приобретение (Математическая основа) Содержание: Глубокое алгоритмическое взаимодействие с работой «Attention Is All You Need». Фокус на формулировании матриц Q, K и V и конкретной математике коэффициента масштабирования (\sqrt{d_k}), используемого для стабилизации градиентов.

Блок 3: Практика (Программная декомпозиция) Деятельность: Создание «с нуля». Под руководством материалов, таких как «Let’s build GPT» Андрея Карпати, студенты выполняют загрузку данных (например, набор данных «Волшебник Изумрудного города») и реализуют токенизаторы с кодировкой байтовых пар (BPE) и позиционные кодировки вручную.

Блок 4: Применение (Масштабирование и оптимизация) Деятельность: Расширенная архитектурная согласованность. Студенты переходят от циклового внимания к параллелизованным матричным умножениям. Затем они интегрируют передовые усовершенствования, такие как внимание с группировкой запросов и маршрутизация смеси экспертов (MoE), чтобы соответствовать архитектуре моделей 2026 года.

4. Обзор и развитие

Распространённые заблуждения:

  • Теория против практики: Верование, что чтение научной литературы достаточно для мастерства инженерии (текст явно требует строчного реализации).
  • Эффективность: Использование простых циклов для внимания вместо параллелизованных матричных умножений.
  • Проблемы градиентов: Пренебрежение коэффициентом масштабирования, что приводит к бесконечно малым градиентам в функции софтмакса.

Дифференциация:

  • Поддержка: Использование «The Illustrated Transformer» Джейя Аламмара или «The Annotated Transformer» от Гарварда для визуального/аннотированного математического обзора.
  • Вызов: Задача продвинутым ученикам — реализовать кэширование ключ-значение для ускорения вывода или написать сложные механизмы маршрутизации смеси экспертов.

Результаты обучения:

  • Сгенерировано

🔹 Урок 3: Выравнивание и рассуждения: как ИИ становится полезным помощником

Обзор: # Выравнивание и рассуждения: как ИИ становится полезным помощником

1. Настройка

Главный вопрос: Поскольку масштабное предобучение стало «коммунизированным» ресурсом, как инженеры превращают грубый, непредсказуемый базовый модель в надёжную систему рассуждений, способную следовать сложным человеческим намерениям?

Цели обучения (SWBAT):

  • Когнитивные: Объяснение механизмов постобучения, включая различие между обучением с поддержкой (SFT) и фреймворками усиления обучения (RL), такими как GRPO.
  • Навыковые: Проектирование многоэтапного обучающего процесса — от холодного старта до окончательной согласованности — с использованием методов параметроэффективного дообучения (PEFT), таких как LoRA.
  • Аффективные: Оценка смены парадигмы — от восприятия ИИ как «волшебной чёрной коробки» к инженерной системе механических слоёв и осознанного внутреннего мышления.

2. Основные компоненты знаний (Ингредиенты)

А. Ключевые понятия (Существительные):

  • Постобучение: Этап, на котором поведение модели формируется и выравнивается.
  • Обучение с поддержкой (SFT): Обучение на подобранных парах «инструкция-ответ».
  • Параметроэффективное дообучение (PEFT): Методы, такие как LoRA и QLoRA, которые вставляют обучаемые матрицы разложения ранга, сохраняя оригинальные веса неизменными.
  • Цепочка рассуждений (CoT): Внутренний этап размышления перед генерацией окончательного результата.
  • Групповая относительная оптимизация политики (GRPO): Фреймворк, который устраняет «модель критика», оценивая ответы по среднему значению группы.
  • Эволюционные стратегии (ES): Альтернатива обратному распространению, которая мутирует и рекомбинирует параметры.

Б. Основные принципы (Правила):

  • Правило ограничения аппаратных ресурсов: Полное обновление параметров вычислительно затратно; для оборудования потребительского класса необходимо использовать PEFT.
  • Правило эффективности GRPO: Современное усиление обучения может устранить память-ёмкие модели-оценщики, используя автоматизированные, правилоподобные системы вознаграждения.
  • Правило рассуждающей цепочки: Создание моделей рассуждений требует специальной четырёхэтапной последовательности: холодный старт, чистое RL, генерация синтетических данных и вторичное SFT.

В. Необходимые навыки (Глаголы):

  • Дообучать: Адаптировать модели к конкретным областям (например, медицинской или юридической).
  • Вставлять: Вставить матрицы разложения в слои трансформера.
  • Оценивать: Оценивать логическую согласованность и математическую корректность с помощью автоматизированных систем.
  • Мутировать: Последовательно изменять параметры модели для оптимизации задач с длинным сроком действия.

3. Инструктивные блоки (Поток)

Блок 1: Активация (Разрушение «чёрного ящика»)

  • Деятельность: Исследование цифровой лаборатории. Используйте визуализационные инструменты (например, Transformer Explainer, 3D LLM Walkthrough) для наблюдения в реальном времени за вычислением оценок внимания и распределением логитов.
  • Цель: Закрыть разрыв между «матричной алгеброй» и «волшебным интерфейсом» ИИ-ассистентов.

Блок 2: Приобретение (Архитектура постобучения)

  • Содержание: Глубокое погружение в SFT и PEFT. Сравните запрещающую стоимость полного обновления параметров с эффективностью LoRA/QLoRA.
  • Ключевые модели: Изучите архитектуры Llama 3.2, Qwen3 и Gemma как целевые для создания персональных помощников.

Блок 3: Практика (Революция рассуждений)

  • Деятельность: Картирование процесса DeepSeek-R1. В малых группах студенты должны нарисовать четырёхэтапный обучающий процесс:
    1. Холодный старт: Предотвращение ухудшения читаемости.
    2. Чистое RL: Развитие навыков цепочки рассуждений через GRPO.
    3. Отбор отклонённых образцов: Создание синтетических аннотированных наборов данных из высококачественных результатов.
    4. Окончательное выравнивание: Объединение синтетических данных с фактологическими/творческими наборами данных.

Блок 4: Применение (Масштабирование и устойчивость)

  • Деятельность: Дебаты по оптимизации. Сравните усиление обучения (PPO/GRPO) с эволюционными стратегиями (ES).
  • Задание: Определите, какой метод лучше для задач с «разреженной, долгосрочной наградой» и устойчивости к «хакерству наград» на основе исследований 2026 года из лаборатории Cognizant AI.

4. Обзор и развитие

Распространённые заблуждения:

  • Миф о «полном обновлении»: Убеждение, что качественное дообучение требует обновления всех миллиардов параметров (исправление: LoRA/QLoRA достигают этого через разложение ранга).
  • Необходимость «модели критика»: Предположение, что в RL всегда нужна отдельная модель-оценщик (исправление: GRPO использует групповую оценку и правила).

Дифференциация:

  • Поддержка: Используйте AnimatedLLM для непрофессионального понимания концепции обучения предсказанию следующего слова.
  • Вызов: Реализуйте текстовую систему классификации с помощью QLoRA на конкретном наборе данных (например, проверка юридических контрактов), чтобы продемонстрировать создание «персонального помощника».

Результаты обучения:

  • Когнитивные: Объяснение механизмов постобучения, включая различие между обучением с поддержкой (SFT) и фреймворками усиления обучения (RL), такими как GRPO.
  • Навыковые: Проектирование многоэтапного обучающего процесса — от холодного старта до окончательной согласованности — с использованием методов параметроэффективного дообучения (PEFT), таких как LoRA.
  • Аффективные: Оценка смены парадигмы — от восприятия ИИ как «волшебной чёрной коробки» к инженерной системе механических слоёв и осознанного внутреннего мышления.

🔹 Урок 4: Промпт-инжиниринг и привязка с помощью RAG

Обзор: # Промпт-инжиниринг и привязка с помощью RAG

1. Настройка

Главный вопрос: Как мы можем перейти от исследовательских «хаков» к созданию надёжных, готовых к производству оркестраций ИИ, которые привязывают модели к реальным данным и устойчивой инфраструктуре?

Цели обучения (SWBAT):

  • Когнитивные: Понимание жизненного цикла пайплайна с увеличенной выборкой (RAG) и необходимости многопровайдерной оркестрации больших языковых моделей для надёжности в производстве.
  • Навыковые: Реализация продвинутой обработки (семантическая и агентная фрагментация), оценка точности выборки с помощью программных метрик (MRR, NDCG) и проектирование устойчивых маршрутизаторов трафика для многоуровневых систем.
  • Аффективные: Оценка смены парадигмы — от неопределённых «хаков» в промптах к строгой инженерной дисциплине, включающей контроль версий и осознанность кибербезопасности.

2. Основные компоненты знаний (Ингредиенты)

А. Ключевые понятия (Существительные):

  • Инфраструктура RAG: Плотные модели вложений, многомерные векторные представления, специализированные векторные базы данных (Pinecone, Deep Lake, Milvus), FAISS, графы HNSW.
  • Методы фрагментации: Семантическая фрагментация, перекрывающая фрагментация, агентная фрагментация.
  • Метрики оценки: Полнота@К, Точность@К, Средняя обратная ранговая оценка (MRR), Нормализованная дисконтированная суммарная прибыль (NDCG).
  • Расширенные архитектуры: Генерация с кэшированием (CAG), маршрутизация множественных запросов, иерархический RAG, мультимодальный RAG.
  • Оркестрация и промпты: LLMOps, контроллеры трафика (маршрутизаторы), единый шлюз, схемы рассуждения, уязвимости к атакам, контроль версий промптов.

Б. Основные принципы (Правила):

  • Необходимость привязки: Большие языковые модели по своей природе страдают от галлюцинаций и отставания по актуальности знаний; RAG необходим для связывания их с внешними базами знаний.
  • Устойчивость архитектуры: Зависимость от одного стороннего провайдера API является критической уязвимостью; системы должны реализовывать многопровайдерную оркестрацию и автоматическое резервирование.
  • Инженерная строгость: Промпт-инжиниринг должен перейти от «хаков» к формальной дисциплине, включающей жёсткие спецификации выходных данных (например, валидный JSON) и явные последовательные шаги.

В. Необходимые навыки (Глаголы):

  • Интегрировать: Преобразовать неструктурированный текст в векторные представления с помощью плотных моделей вложений.
  • Обрабатывать: Разделить текст по смыслу (семантический) или по точкам, определённым ИИ (агентный), а не по количеству символов.
  • Оценивать: Строго измерить точность выборки с помощью программных тестовых наборов.
  • Маршрутизировать: Динамически направлять промпты к моделям (например, Claude 3.5 Sonnet против открытых моделей) на основе стоимости, задержки и глубины рассуждения.
  • Обеспечивать безопасность: Выявлять и устранять уязвимости к атакам, где форматирование используется для обхода защитных механизмов.

3. Инструктивные блоки (Поток)

Блок 1: Активация (Производственная реальность)

  • Деятельность: «Аудит 2026». Участники анализируют сценарий, где простой скрипт на основе API терпит неудачу из-за устаревания знаний или сбоя провайдера. Обсуждение: почему «сырые модели» недостаточны для программного обеспечения уровня производства?

Блок 2: Приобретение (Продвинутый RAG и LLMOps)

  • Содержание: Лекция о жизненном цикле RAG: от интеграции данных до векторных баз данных (FAISS/HNSW). Сравнение простой фиксированной фрагментации с семантической и агентной фрагментацией. Введение высокопроизводительных архитектур, таких как генерация с кэшированием (CAG).

Блок 3: Практика (Метрики и маршрутизация)

  • Деятельность: «Лаборатория оценщика». Дан набор данных, участники выбирают и обосновывают использование конкретных метрик (MRR против NDCG) для количественной оценки успеха выборки. Затем проектируют «карту логики маршрутизатора», определяющую, отправлять ли запрос на модель с развитыми рассуждениями (например, OpenAI o3-mini) или более экономичную открытую модель.

Блок 4: Применение (Проектирование устойчивой системы)

  • Деятельность: «Инженерия пайплайна». Участники разрабатывают архитектуру системы для высокорисковой среды. Проект должен включать:
    1. Пайплайн RAG с агентной фрагментацией.
    2. Единый шлюз с автоматической логикой резервирования.
    3. Руководство по промпт-инжинирингу, использующее схемы рассуждений и жёсткие спецификации вывода в формате JSON.

4. Обзор и развитие

Распространённые заблуждения:

  • Фиксированная фрагментация «достаточно хороша»: Реальность требует семантической или агентной фрагментации для сохранения контекста на границах.
  • Промпт-инжиниринг — это просто творческое письмо: Реальность требует, чтобы это была формальная дисциплина с контролем версий и явными рабочими процессами.
  • RAG — это только поиск текста: Современный RAG включает мультимодальную интеграцию (изображения и текст) и оптимизированное кэширование (CAG).

Дифференциация:

  • Поддержка: Фокус на переходе от «хаков» к простым шаблонам форматирования и простым метрикам выборки.
  • Вызов: Задание продвинутым ученикам — соединить промпт-инжиниринг и кибербезопасность ИИ, разработав систему для обнаружения/предотвращения атак на форматирование.

Результаты обучения:

  • Сгенерировано

🔹 Урок 5: Конфиденциальность, этика и ориентация в открытых моделях

Обзор: # Конфиденциальность, этика и ориентация в открытых моделях

1. Настройка

Главный вопрос: В эпоху высокопроизводительных облачных моделей ЛЯМ, почему переход к локальному развертыванию и «открытым весам» становится непреложным требованием для корпоративного уровня ИИ?

Цели обучения (SWBAT):

  • Когнитивные: Различать «открытый источник» (определение OSI) и «открытые веса» моделей, и выявлять три основных фактора локального развертывания (конфиденциальность, стоимость, возможность работы без подключения).
  • Навыковые: Соотносить производственные требования (например, дополнение знаний или надёжность промптов) с конкретными решениями оркестрации, такими как векторные базы данных, маршрутизаторы резервирования и тестирование на красную команду.
  • Аффективные: Оценка важности ограничений конфиденциальности данных и этического тестирования безопасности в профессиональной разработке ИИ.

2. Основные компоненты знаний (Ингредиенты)

А. Ключевые понятия (Существительные):

  • Векторные базы данных: Pinecone, Deep Lake.
  • Компоненты инфраструктуры: Модели вложений, маршрутизаторы резервирования, шлюзы.
  • Метрики оценки: MRR (средняя обратная ранговая оценка), Точность@К, ИИ как судья.
  • Категории лицензирования: Открытый источник (определение OSI), открытые веса.
  • Инструменты безопасности: Тестирование на красную команду, контроль версий, спецификации форматирования вывода.

Б. Основные принципы (Правила):

  • Принцип привязки: Системы должны привязывать ответы к конкретным частным данным, чтобы значительно снизить уровень галлюцинаций.
  • Необходимость развертывания: Жёсткие корпоративные требования к конфиденциальности, накопленные расходы на токены и потребность в работе без подключения делают локальное развертывание обязательным.
  • Нюанс лицензирования: Модель считается «открытой» только если включает код обучения и неограниченные права; в противном случае она называется «открытыми весами».
  • Правило устойчивости: Корпоративные системы должны динамически маршрутизировать промпты для оптимизации по стоимости и доступности.

В. Необходимые навыки (Глаголы):

  • Оркестрировать: Управлять многопровайдерными системами и шлюзами.
  • Оценивать: Реализовать автоматизированные пайплайны для мониторинга точности выборки и качества генерации.
  • Различать: Чётко различать нюансы лицензирования различных типов моделей.
  • Обеспечивать безопасность: Выполнять тестирование уязвимостей к атакам (тестирование на красную команду).

3. Инструктивные блоки (Поток)

Блок 1: Активация (Почему локальный ИИ)

  • Деятельность: «Аудит затрат-конфиденциальности». Студенты анализируют гипотетический сценарий, где компания сталкивается с огромными счетами за токены и утечкой данных. Обсуждение того, как локальное развертывание решает эти «задачи 5-го этапа».

Блок 2: Приобретение (Архитектура решения)

  • Содержание: Разбор таблицы производственных требований.
    • Дополнение знаний: Использование векторных БД для снижения галлюцинаций.
    • Доступность: Использование маршрутизаторов резервирования для обеспечения доступности.
    • Безопасность: Использование тестирования на красную команду и контроля версий.
    • Оценка: Понимание метрик MRR и Точность@К.

Блок 3: Практика (Лицензирование и логика)

  • Деятельность: «Сортировка: открытый источник против открытых весов». Дан список характеристик моделей (например, «публичные параметры», «включён код обучения», «коммерческие ограничения»), студенты должны правильно классифицировать их на основе определений, предоставленных в тексте.

Блок 4: Применение (Проект устойчивого пайплайна)

  • Деятельность: «Чертёж устойчивого пайплайна». Студенты проектируют высокий уровень архитектуры системы, включающей модель вложений для привязки к частным данным и пайплайн ИИ как судья для непрерывного мониторинга.

4. Обзор и развитие

Распространённые заблуждения:

  • Миф «открытого»: Предположение, что любая модель с публичными параметрами является «открытым источником». (Исправление: она может быть только «открытыми весами», если код обучения/права ограничены).
  • Превосходство облака: Предположение, что облачные модели всегда лучше. (Исправление: локальные модели необходимы для масштабирования, контроля затрат и конфиденциальности).

Дифференциация:

  • Поддержка: Предоставьте словарь для метрик оценки (MRR, Точность@К) для студентов, новичков в аналитике данных.
  • Вызов: Попросите опытных разработчиков спроектировать логику «оркестрации многопровайдеров», которая переключает между локальными и облачными моделями на основе «Точности@К» против «стоимости токенов».

Результаты обучения:

  • Сгенерировано

🔹 Урок 6: Агентные рабочие процессы: автоматизация сложных задач

Обзор: # Агентные рабочие процессы: автоматизация сложных задач

1. Настройка

Главный вопрос: Как перейти от систем ИИ, которые просто генерируют текст за один проход, к автономным агентам, способным рассуждать, использовать инструменты и сотрудничать в распределённых микросервисах?

Цели обучения (SWBAT):

  • Когнитивные: Сравнение линейных интеграционных фреймворков с циклическими, графо-ориентированными организациями и различие между вертикальными (MCP) и горизонтальными (A2A) протоколами интеграции.
  • Навыковые: Определение специализированных узлов и условных рёбер с использованием принципов теории графов и реализация сервера MCP с помощью FastMCP для подключения агентов к внешним данным.
  • Аффективные: Оценка важности «циклического выполнения» и управления состоянием при имитации сложных человеческих когнитивных процессов.

2. Основные компоненты знаний (Ингредиенты)

А. Ключевые понятия (Существительные):

  • Характеристики ИИ-агентов: Автономность, использование инструментов, память, рассуждения.
  • Фреймворки оркестрации: LangGraph, CrewAI (в отличие от раннего LangChain).
  • Графовая архитектура: Узлы (задачи/вызовы инструментов), условные рёбра (пути принятия решений), схемы состояния (Python TypedDict).
  • Протоколы взаимодействия: Протокол модели контекста (MCP), протокол агент-к-агенту (A2A).
  • Инструменты развертывания: Ollama (CLI), LM Studio (GUI), FastMCP, LocalAI.
  • Модели: Llama 3, Qwen2.5, DeepSeek-R1 (квантованные).

Б. Основные принципы (Правила):

  • Смена парадигмы: Переход от статичных, одноходовых генераций к высоко автономным, целенаправленным рабочим процессам.
  • Циклическое выполнение: Агенты должны выполнять действие, оценивать результат и возвращаться назад, чтобы исправить ошибки или собрать информацию.
  • Вертикальная против горизонтальной интеграции: MCP действует как «USB-C» для подключения моделей к данным (вертикально); A2A действует как общий язык для коммуникации между агентами в экосистемах (горизонтально).
  • Архитектура микросервисов: MCP и A2A дополняют друг друга, а не конкурируют.

В. Необходимые навыки (Глаголы):

  • Оркестрировать: Управлять сложными логическими цепочками и состоятельными циклами принятия решений.
  • Развертывать: Запускать локальные модели на бытовом оборудовании с нулевой задержкой.
  • Экспонировать: Предоставлять инструменты (API), ресурсы (только для чтения) и промпты через серверы MCP.
  • Переговорить: Позволить независимым агентам находить возможности и обмениваться структурированными результатами программно.

3. Инструктивные блоки (Поток)

Блок 1: Активация (От статичного к агентному) Деятельность: Сравните стандартную взаимодействие «промпт-ответ» с многошаговой задачей (например, «исследовать тему и написать отчёт»). Студенты определяют четыре основных агентных характеристики (Автономность, Использование инструментов, Память, Рассуждения), необходимые для автоматизации второй.

Блок 2: Приобретение (Эволюция фреймворков и теория графов) Содержание: Лекция о ограничениях линейных последовательностей (раннее LangChain) в управлении циклами принятия решений. Введение принципов LangGraph: определение узлов для задач и условных рёбер для управления потоком. Объяснение того, как TypedDict в Python сохраняет состояние на этих шагах, чтобы гарантировать сохранение «истории принятия решений».

Блок 3: Практика (Вертикальная интеграция с MCP) Деятельность: Практический модуль с использованием FastMCP в Python. Студенты создают локальный сервер MCP, который предоставляет три возможности (Инструменты, Ресурсы, Промпты). Они подключат агент к локальной базе данных PostgreSQL или к живому API (например, Hacker News), чтобы продемонстрировать расширение возможностей за пределами статических обучающих данных.

Блок 4: Применение (Горизонтальная оркестрация с A2A) Деятельность: Проектирование архитектуры микросервисов, где «исследовательский агент» (на основе LangGraph) использует MCP для доступа к данным, затем использует протокол A2A, чтобы сообщить свои выводы «агенту принятия решений» (на отдельном сервере). Практикуйтесь с серверными событиями (SSE) для потоковой передачи обновлений между этими агентами.

4. Обзор и развитие

Распространённые заблуждения:

  • Линейность: Студенты часто думают, что простая последовательность промптов — это «агент». Обучение должно подчеркивать, что агенты требуют циклического выполнения и условной логики.
  • Конкуренция протоколов: Уточните, что MCP и A2A не являются конкурентами; один управляет внутренним доступом к инструментам (MCP), другой — внешним взаимодействием между агентами (A2A).

Дифференциация:

  • Поддержка: Используйте графический интерфейс LM Studio для студентов, испытывающих трудности с командной строкой, чтобы открыть и настроить модели.
  • Вызов: Продвинутым разработчикам следует реализовать LocalAI как замену открытого API или использовать text-generation-webui, чтобы интегрировать широкий спектр плагинов для своих агентных рабочих процессов.

Результаты обучения:

  • Когнитивные: Сравнение линейных интеграционных фреймворков с циклическими, графо-ориентированными организациями и различие между вертикальными (MCP) и горизонтальными (A2A) протоколами интеграции.
  • Навыковые: Определение специализированных узлов и условных рёбер с использованием принципов теории графов и реализация сервера MCP с помощью FastMCP для подключения агентов к внешним данным.
  • Аффективные: Оценка важности «циклического выполнения» и управления состоянием при имитации сложных человеческих когнитивных процессов.

🔹 Урок 7: Итоговый проект: Создание вашей персональной системы продуктивности на основе LLM

Обзор: # Итоговый проект: Создание вашей персональной системы продуктивности на основе LLM

1. Настройка

Главный вопрос: Как перейти от пассивного потребителя искусственного интеллекта к роли первичного архитектора, способного создавать надёжные, устойчивые и автономные системы ИИ?

Цели обучения (SWBAT):

  • Когнитивные: Понимание архитектурной сложности протоколов агентного общения (LangGraph, MCP, A2A) и математических основ постобучения (Групповая относительная оптимизация политики).
  • Навыковые: Создание комплексного портфеля, включающего локальные пайплайны обработки естественного языка, безопасные приложения RAG и распределённые многоагентные корпоративные системы.
  • Аффективные: Развитие «инженерной интуиции» путём перехода от поверхностных облачных API к работе с низкоуровневыми механиками манипулирования тензорами и распределённой оркестрацией.

2. Основные компоненты знаний (Ингредиенты)

А. Ключевые понятия (Существительные):

  • Протоколы: Протокол контекста модели (MCP), общение агент-к-агенту (A2A).
  • Архитектуры: Основной пайплайн обработки естественного языка, продвинутая архитектура RAG, автономный агентный рабочий процесс, итоговый проект распределённых систем.
  • Инструменты: Hugging Face (transformers/datasets), Ollama, LM Studio, Pinecone (векторная база данных), LangGraph.
  • Метрики: MRR (средняя обратная ранговая оценка), Точность@К.
  • Модели: Квантованные открытые модели, DeepSeek V3/R1, модели зрительного языка и действия.

Б. Основные принципы (Правила):

  • Эмпирическое применение: Теоретические знания деградируют без строгого, эмпирического применения в публично проверяемых кодовых базах.
  • Снижение галлюцинаций: Локальные системы RAG должны использовать автоматизированные наборы тестов для эмпирического доказательства снижения галлюцинаций по сравнению с базовыми моделями.
  • Траектория сложности: Навыки должны развиваться постепенно, переходя от линейной алгебры и манипуляции тензорами к высокому уровню оркестрации систем.
  • Непрерывное обучение: Профессиональное мастерство требует постоянного следования за фундаментальными исследованиями (ICLR/ICML) и техническими отчетами.

В. Необходимые навыки (Глаголы):

  • Токенизировать: Преобразовать пользовательские текстовые наборы данных для потребления моделью.
  • Фрагментировать: Реализовать продвинутые стратегии перекрывающейся фрагментации для больших корпусов.
  • Делегировать: Использовать протоколы A2A для передачи задач между специализированными агентами (например, агент-триаж к агенту-данных).
  • Запрашивать: Безопасно обращаться к мок-базам данных через специализированные серверы MCP.
  • Рассуждать: Создавать автономные циклы, которые выполняют внутренние проверки до тех пор, пока отчёт не станет готов к публикации.

3. Инструктивные блоки (Поток)

Блок 1: Активация (Сдвиг к экспертной инженерии)

  • Деятельность: Обсуждение «За пределами промпта». Сравнение ограничений базового промпт-инжиниринга и проприетарных облачных API с требованиями «экспертного» инжиниринга (математическая теория, манипуляция тензорами, распределённые системы).

Блок 2: Приобретение (Литература и технические основы)

  • Содержание: Глубокое погружение в фундаментальные работы и технические отчёты. Студенты изучают достижения ICLR/ICML и технические отчёты DeepSeek V3/R1, чтобы понять «передовую» архитектуру моделей и методы выравнивания, такие как Групповая относительная оптимизация политики.

Блок 3: Практика (Постепенное построение проектов)

  • Деятельность 1: Пайплайн обработки естественного языка: Локально загрузить предобученную модель для выполнения генерации и классификации текста (например, прогнозирование оттока клиентов).
  • Деятельность 2: Архитектура RAG: Создать локальный RAG с использованием Ollama/LM Studio и Pinecone. Студенты должны реализовать перекрывающуюся фрагментацию и использовать MRR/Точность@К для оценки производительности.

Блок 4: Применение (Итоговый проект распределённых систем)

  • Деятельность: Развертывание системы «Агент-триаж-данные». Создать многоагентную среду, где основной «агент-триаж» получает запросы и с помощью протокола A2A делегирует безопасные запросы к базе данных «агенту-данных», работающему в отдельном процессе через сервер MCP.

4. Обзор и развитие

Распространённые заблуждения:

  • Ловушка API: Убеждение, что вызов проприетарных облачных API эквивалентен инженерии ИИ.
  • Статичный вопрос-ответ: Мысли, что системы ИИ ограничены статичными вопросами-ответами, а не автономными, многошаговыми агентными рабочими процессами.
  • Теория против практики: Предположение, что чтение статей достаточно, без разработки «публично проверяемых кодовых баз».

Дифференциация:

  • Поддержка: Использование визуальных обучающих ресурсов, таких как «Визуально объяснённая модель трансформера ИИ» и интерактивные визуализации (AnimatedLLM), чтобы понять механические операции, такие как поток тензоров и токенизация.
  • Вызов: Переход от базовых агентов к созданию специализированных «автономных агентных рабочих процессов», которые динамически решают, использовать ли веб-поиск или выполнение кода на Python для удовлетворения широких целей (например, анализ финансового отчёта SEC).