Operium Orchestra
AI coding assistant for VS Code with local models via Orchestra Runtime, Ollama, and LM Studio, plus cloud GigaChat via Operium.
Features
- Chat, Plan, and Agent modes for different workflows
- Local GGUF models through Orchestra Runtime
- Local models through Ollama
- OpenAI-compatible local models through LM Studio
- Cloud GigaChat access through Operium
- Editor-context attachments from the active file or selection
- Streaming responses in a dedicated sidebar UI
How Runtime Works
Operium Orchestra does not install Orchestra Runtime automatically during extension installation.
The Runtime is downloaded on demand from inside the extension when you press the one-click install action in the onboarding flow. If a local Runtime binary is already available, the extension reuses it instead of downloading a new one.
Supported Backends
- Orchestra Runtime for local GGUF models via
llama.cpp
- Ollama for local coding and chat models
- LM Studio for OpenAI-compatible local endpoints
- Operium API for cloud access to GigaChat
Configuration
| Setting |
Default |
Description |
orchestra.operiumUrl |
https://operium.ru |
Operium instance URL for cloud access |
orchestra.runtimeUrl |
http://localhost:8100 |
Orchestra Runtime server URL |
orchestra.ollamaUrl |
http://localhost:11434 |
Ollama server URL |
orchestra.lmStudioUrl |
http://localhost:1234 |
LM Studio server URL |
orchestra.defaultModel |
auto |
Default model to use |
orchestra.systemPromptExtra |
empty |
Extra instructions appended to all modes |
Support
Русский
AI-ассистент для VS Code с локальными моделями через Orchestra Runtime, Ollama и LM Studio, а также с облачным GigaChat через Operium.
Возможности
- Режимы Chat, Plan и Agent для разных сценариев работы
- Локальные GGUF-модели через Orchestra Runtime
- Локальные модели через Ollama
- OpenAI-совместимые локальные модели через LM Studio
- Облачный GigaChat через Operium
- Прикрепление контекста из активного файла или выделения
- Стриминг ответов в боковой панели VS Code
Как работает Runtime
Operium Orchestra не устанавливает Orchestra Runtime автоматически в момент установки расширения.
Runtime скачивается по требованию из интерфейса расширения, когда пользователь нажимает действие one-click install в onboarding-сценарии. Если локальный бинарник Runtime уже найден, расширение использует его и не скачивает новый.
Поддерживаемые бэкенды
- Orchestra Runtime для локальных GGUF-моделей через
llama.cpp
- Ollama для локальных coding- и chat-моделей
- LM Studio для OpenAI-совместимых локальных endpoint'ов
- Operium API для облачного доступа к GigaChat
Настройки
| Настройка |
По умолчанию |
Описание |
orchestra.operiumUrl |
https://operium.ru |
URL инстанса Operium для облачного доступа |
orchestra.runtimeUrl |
http://localhost:8100 |
URL сервера Orchestra Runtime |
orchestra.ollamaUrl |
http://localhost:11434 |
URL сервера Ollama |
orchestra.lmStudioUrl |
http://localhost:1234 |
URL сервера LM Studio |
orchestra.defaultModel |
авто |
Модель по умолчанию |
orchestra.systemPromptExtra |
пусто |
Дополнительные инструкции для всех режимов |
Поддержка