Собираем RAG-конвейер: чанкинг документов, векторное хранилище на Milvus, сборка цепочки через LangChain, re-ranking и гибридный поиск.
Что?
Команда собирает RAG-конвейер от загрузки документов до оптимизированного поиска - с чанкингом, векторным хранилищем на Milvus, re-ranking и гибридным поиском
Формат и длительность
до 25 человек; 8 часов
Для кого?
Python-разработчики и ML-инженеры, которые хотят разобраться в RAG не поверхностно, а на уровне каждого этапа пайплайна
Принципы векторного поиска и выбор модели эмбеддингов
Развёртывание Milvus и загрузка чанков
Настройка индексов и метаданных для фильтрации
Модуль 3. Сборка RAG-цепочки
Соединение хранилища с LLM через LangChain
Формирование промпта с контекстом из найденных фрагментов
Обработка streaming-вывода и структурирование ответа
Модуль 4. Оптимизация поиска
Re-ranking результатов
Гибридный поиск: сочетание векторного и полнотекстового подходов
Декомпозиция сложных запросов и мультишаговый retrieval
Технологический стек
Python, LangChain, Milvus, модели эмбеддингов
Предварительные требования
Python (базовый уровень), понимание что такое LLM и эмбеддинги, опыт работы с API
Эксперты
Дмитрий Жечков
Эксперт по AI и облачным решениям, архитектор облачных решений в Yandex Cloud, сосредоточен на разработке ПО с использованием Generative AI и агентных архитектур.
Носов Андрей
Профильный специалист с более чем 20-летним опытом в ИТ, специализирующийся на архитектуре решений в области ИИ, LLM, RAG, NLP, системной интеграции и руководстве мультидисциплинарными командами. Практический опыт разработки 27 AI/ML решений. Эксперт в построении AI-инфраструктур и развитии продуктовых команд.
Александр Миленкин
ML Team Lead | Dodo Brands Senior Data Scientist | Red Mad Robot Senior Data Scientist | X5 Retail Group
Стоимость
от 300 000 рублей
за команду до 25 человек
Ознакомьтесь с другими мастер-классами
Закрываем конкретный вызов: внедрить RAG‑конвейер на LangChain, мониторинг, освоить LoRA/RLHF‑тонкую настройку или добавить guardrails
мастер-класс
LangChain Enterprise: От локальной модели до агентных систем
Разворачивание локальной LLM, собирает RAG, агент на LangChain и Gradio с мониторингом.
Настраиваем контроль качества LLM-системы: eval-тесты промптов в LangSmith, guardrails для валидации ответов, мониторинг с алертами и автопроверки в CI/CD