LangChain Enterprise: От локальной модели до агентных систем
Разворачиваем Qwen локально, строим поиск по документам с RAG, добавляем графы знаний и собираем агента на LangChain.
Что?
Команда разворачивает локальную LLM, собирает RAG-пайплайн с векторным и текстовым поиском, строит агента с инструментами на LangChain и выводит всё в Gradio-интерфейс с мониторингом.
Формат и длительность
до 25 человек; 8 часов
Для кого?
ML/DS‑специалисты, junior‑и выше Python‑разработчики и аналитики, которым нужен быстрый старт с LLM.
Содержание
Блок 1. Локальная инфраструктура Разворачиваем Qwen-2.5 через Docker, сравниваем Ollama, vLLM и SGLang, гоняем бенчмарки. Блок 2. LangChain + локальные модели Подключаем LLM через ChatOllama, строим первые цепочки на LCEL, парсим вывод в JSON через Pydantic. Блок 3. RAG Чанкинг документов, векторный поиск на ChromaDB, полнотекстовый на BM25, гибридный через EnsembleRetriever. Блок 4. Графы знаний Извлекаем тройки из текста с помощью LLM, строим граф в NetworkX, комбинируем с RAG для сложных запросов. Блок 5. Агенты Tool Calling, кастомные инструменты, роутинг запросов, архитектура агента-роутера на 20+ инструментов. Блок 6. Ограничения и отказоустойчивость Сжатие истории диалога, Sliding Window, fallback-механизмы, логирование узких мест. Блок 7. Production Собираем UI на Gradio, добавляем callbacks для трассировки, разбираем интеграцию через REST/gRPC.
Базовые навыки Python, установленный Docker и Git.
Эксперты
Дмитрий Жечков
Эксперт по AI и облачным решениям, архитектор облачных решений в Yandex Cloud, сосредоточен на разработке ПО с использованием Generative AI и агентных архитектур.
Носов Андрей
Профильный специалист с более чем 20-летним опытом в ИТ, специализирующийся на архитектуре решений в области ИИ, LLM, RAG, NLP, системной интеграции и руководстве мультидисциплинарными командами. Практический опыт разработки 27 AI/ML решений. Эксперт в построении AI-инфраструктур и развитии продуктовых команд.
Александр Миленкин
ML Team Lead | Dodo Brands Senior Data Scientist | Red Mad Robot Senior Data Scientist | X5 Retail Group
Стоимость
от 330 000 рублей
за команду до 25 человек
Ознакомьтесь с другими мастер-классами
Закрываем конкретный вызов: внедрить RAG‑конвейер на LangChain, мониторинг, освоить LoRA/RLHF‑тонкую настройку или добавить guardrails
мастер-класс
LangChain Enterprise: От локальной модели до агентных систем
Разворачивание локальной LLM, собирает RAG, агент на LangChain и Gradio с мониторингом.
Настраиваем контроль качества LLM-системы: eval-тесты промптов в LangSmith, guardrails для валидации ответов, мониторинг с алертами и автопроверки в CI/CD