LangChain Start.
От первого запроса до работающего чат-бота
Освойте LangChain и работу с LLM‑API на практике.
Соберите сервисный FAQ‑бот с Prompt Templates, Memory и Chain‑of‑Thought.
Задеплойте его в Streamlit с полным логированием запросов и ответов для отладки.
  • Что?
    Команда формирует FAQ‑датасет, настраивает промпты и memory‑буфер, разворачивает чат‑бота в Streamlit и включает логирование.
  • Формат и длительность
    до 25 человек; 8 часов
  • Для кого?
    ML/DS‑специалисты, junior‑и выше Python‑разработчики и аналитики, которым нужен быстрый старт с LLM.
Содержание
Введение в LangChain и LLM‑API — архитектура, Prompt Templates, Memory, CoT.
Подготовка данных — формирование FAQ‑датасета из корпоративных знаний.
Сборка цепочки — подключение OpenAI или GigaChat, настройка промптов и памяти.
Интерфейс Streamlit — запуск веб‑бота, UI для ввода запросов и вывода ответов.
Логирование и отладка — запись запросов/ответов, базовые метрики качества.
Рекомендации по дальнейшему развитию — расширение на RAG, облачный деплой.
Технологический стек
OpenAI API, GigaChat API, LangChain 0.1+, Python 3.10+, Streamlit, Prompt Templates, Memory, CoT
Предварительные требования
Базовые навыки Python, установленный Docker и Git.
Эксперты
  • Дмитрий Жечков
    Эксперт по AI и облачным решениям, архитектор облачных решений в Yandex Cloud, сосредоточен на разработке ПО с использованием Generative AI и агентных архитектур.
  • Носов Андрей
    Профильный специалист с более чем 20-летним опытом в ИТ, специализирующийся на архитектуре решений в области ИИ, LLM, RAG, NLP, системной интеграции и руководстве мультидисциплинарными командами. Практический опыт разработки 27 AI/ML решений. Эксперт в построении AI-инфраструктур и развитии продуктовых команд.
  • Александр Миленкин
    ML Team Lead | Dodo Brands
    Senior Data Scientist | Red Mad Robot
    Senior Data Scientist | X5 Retail Group
Стоимость
Фиксированная цена
за командный пакет
25 000 ₽/участник
для физических лиц
Ознакомьтесь с другими
мастер-классами
Закрываем конкретный вызов: внедрить RAG‑конвейер на LangChain, настроить MLOps‑CI/CD и мониторинг, освоить LoRA/RLHF‑тонкую настройку или добавить guardrails и безопасность
Ваша команда умеет собирать AI уже завтра: технологично, практично, экономно

Напишите нам, и мы подберем решение