Skip to content

Развертывание Langflow

Langflow позволяет создавать и тестировать LLM-пайплайны через веб-интерфейс.

В этом руководстве вы установите и запустите Langflow на виртуальной машине с помощью Docker Compose и reverse-прокси Caddy.

Перед началом работы

  1. Создайте виртуальную машину с внешним временным IP-адресом.

  2. Разрешите HTTP-трафик для виртуальной машины:

    1. В веб-консоли выберите нужный проект.
    2. В списке сервисов выберите ComputeВиртуальные машины.
    3. Нажмите на имя созданной ВМ и перейдите на вкладку Сетевые интерфейсы.
    4. Нажмите кнопку Настроить, выберите опцию Разрешить HTTP-трафик, после чего нажмите кнопку Сохранить.
  3. Создайте деплоймент. Выберите модель и имя деплоймента — qwen3-coder-480b-a35b.

  4. Создайте API-ключ и сохраните его значение.

1. Установите Docker и Docker Compose Plugin

  1. Обновите систему и установите зависимости:

    bash
    sudo apt update && \
    sudo apt install -y apt-transport-https ca-certificates curl software-properties-common gnupg lsb-release git nodejs npm
  2. Подключите официальный репозиторий Docker:

    bash
    curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg && \
    echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null && \
    sudo apt update
  3. Установите Docker Engine:

    bash
    sudo apt install -y docker-ce
  4. Добавьте текущего пользователя в группу docker:

    bash
    sudo usermod -aG docker $USER
  5. Перезагрузите ВМ:

    bash
    sudo reboot
  6. Подключитесь к ВМ и убедитесь, что Docker перешел в статус active (running):

    bash
    sudo systemctl status docker
  7. Установите Docker Compose Plugin:

    bash
    sudo apt install -y docker-compose-plugin
  8. Убедитесь, что плагин установлен. Для этого запросите его версию:

    bash
    docker compose version

    Пример вывода:

    bash
    Docker Compose version v5.1.3

2. Установите Langflow

  1. Создайте директорию для проекта и перейдите в нее:

    bash
    mkdir langflow && cd langflow
  2. Создайте файл docker-compose.yaml с конфигурацией Langflow и Caddy:

    yaml
    version: "3.8"
    
    services:
      langflow:
        image: langflowai/langflow:latest
        ports:
          - "7860:7860"
        environment:
          - LANGFLOW_HOST=0.0.0.0
          - LANGFLOW_PORT=7860
    
      caddy:
        image: caddy:latest
        ports:
          - "80:80"
          - "443:443"
        volumes:
          - ./Caddyfile:/etc/caddy/Caddyfile
          - caddy_data:/data
          - caddy_config:/config
        depends_on:
          - langflow
    
    volumes:
      caddy_data:
      caddy_config:
  3. Создайте файл Caddyfile с настройками reverse-прокси Caddy:

    text
    :80 {
        reverse_proxy langflow:7860
    }
  4. Запустите сервисы:

    bash
    docker compose up -d
  5. Убедитесь, что сервисы langflow и caddy перешли в состояние Up:

    bash
    docker compose ps

    Ожидаемый результат:

    bash
    NAME                  IMAGE                        COMMAND                  SERVICE    CREATED          STATUS          PORTS
    langflow-caddy-1      caddy:latest                 "caddy run --config …"   caddy      11 minutes ago   Up 11 minutes   0.0.0.0:80->80/tcp, [::]:80->80/tcp, 0.0.0.0:443->443/tcp, [::]:443->443/tcp, 443/udp, 2019/tcp
    langflow-langflow-1   langflowai/langflow:latest   "langflow run"           langflow   11 minutes ago   Up 11 minutes   0.0.0.0:7860->7860/tcp, [::]:7860->7860/tcp

3. Проверьте работу приложения

  1. Для проверки работы приложения откройте ссылку в браузере:

    text
    http://<публичный IP-адрес ВМ>

    Откроется веб-интерфейс Langflow.

    Совет

    Если вместо интерфейса отображается только черный экран, переключите язык вашего браузера на английский и обновите страницу.

  2. Создайте новый поток (flow), следуя указаниям Langflow.

  3. Подключите текстовую модель:

    1. В меню слева выберите BundlesvLLM.

    2. Укажите параметры модели:

      • Model Nameqwen3-coder-480b-a35b;
      • vLLM API Basehttps://gpt.mwsapis.ru/projects/<имя вашего проекта>/openai/v1;
      • API Key — API-ключ, полученный на подготовительном шаге.
    3. В поле Input введите запрос к модели, например, Привет! Ты здесь?. Для отправки запроса нажмите значок в виде треугольника (Run component).

    Совет

    Вы можете дополнительно подключить любую из доступных embedding-моделей, например, bge-m3.

  4. Для проверки работы приложения попробуйте с помощью веб-интерфейса Langflow создать:

Удалите платные ресурсы

Ресурсы, созданные в руководстве, тарифицируются. Если вы больше не планируете использовать их: