Skip to content
| Marketplace
Sign in
Visual Studio Code>Programming Languages>Operium OrchestraNew to Visual Studio Code? Get it now.
Operium Orchestra

Operium Orchestra

Operium Control Hub

|
1 install
| (0) | Free
AI coding assistant for VS Code with local models via Orchestra Runtime, Ollama, LM Studio, and cloud GigaChat via Operium
Installation
Launch VS Code Quick Open (Ctrl+P), paste the following command, and press enter.
Copied to clipboard
More Info

Operium Orchestra

AI coding assistant for VS Code with local models via Orchestra Runtime, Ollama, and LM Studio, plus cloud GigaChat via Operium.

Features

  • Chat, Plan, and Agent modes for different workflows
  • Local GGUF models through Orchestra Runtime
  • Local models through Ollama
  • OpenAI-compatible local models through LM Studio
  • Cloud GigaChat access through Operium
  • Editor-context attachments from the active file or selection
  • Streaming responses in a dedicated sidebar UI

How Runtime Works

Operium Orchestra does not install Orchestra Runtime automatically during extension installation.

The Runtime is downloaded on demand from inside the extension when you press the one-click install action in the onboarding flow. If a local Runtime binary is already available, the extension reuses it instead of downloading a new one.

Supported Backends

  • Orchestra Runtime for local GGUF models via llama.cpp
  • Ollama for local coding and chat models
  • LM Studio for OpenAI-compatible local endpoints
  • Operium API for cloud access to GigaChat

Configuration

Setting Default Description
orchestra.operiumUrl https://operium.ru Operium instance URL for cloud access
orchestra.runtimeUrl http://localhost:8100 Orchestra Runtime server URL
orchestra.ollamaUrl http://localhost:11434 Ollama server URL
orchestra.lmStudioUrl http://localhost:1234 LM Studio server URL
orchestra.defaultModel auto Default model to use
orchestra.systemPromptExtra empty Extra instructions appended to all modes

Support

  • Website: operium.ru
  • Email: support@operium.ru

Русский

AI-ассистент для VS Code с локальными моделями через Orchestra Runtime, Ollama и LM Studio, а также с облачным GigaChat через Operium.

Возможности

  • Режимы Chat, Plan и Agent для разных сценариев работы
  • Локальные GGUF-модели через Orchestra Runtime
  • Локальные модели через Ollama
  • OpenAI-совместимые локальные модели через LM Studio
  • Облачный GigaChat через Operium
  • Прикрепление контекста из активного файла или выделения
  • Стриминг ответов в боковой панели VS Code

Как работает Runtime

Operium Orchestra не устанавливает Orchestra Runtime автоматически в момент установки расширения.

Runtime скачивается по требованию из интерфейса расширения, когда пользователь нажимает действие one-click install в onboarding-сценарии. Если локальный бинарник Runtime уже найден, расширение использует его и не скачивает новый.

Поддерживаемые бэкенды

  • Orchestra Runtime для локальных GGUF-моделей через llama.cpp
  • Ollama для локальных coding- и chat-моделей
  • LM Studio для OpenAI-совместимых локальных endpoint'ов
  • Operium API для облачного доступа к GigaChat

Настройки

Настройка По умолчанию Описание
orchestra.operiumUrl https://operium.ru URL инстанса Operium для облачного доступа
orchestra.runtimeUrl http://localhost:8100 URL сервера Orchestra Runtime
orchestra.ollamaUrl http://localhost:11434 URL сервера Ollama
orchestra.lmStudioUrl http://localhost:1234 URL сервера LM Studio
orchestra.defaultModel авто Модель по умолчанию
orchestra.systemPromptExtra пусто Дополнительные инструкции для всех режимов

Поддержка

  • Сайт: operium.ru
  • Email: support@operium.ru
  • Contact us
  • Jobs
  • Privacy
  • Manage cookies
  • Terms of use
  • Trademarks
© 2026 Microsoft