Ollama Client для VS Code
Расширение для VS Code, позволяющее взаимодействовать с моделями Ollama прямо из редактора.
Возможности
- Подключение к локальному серверу Ollama с настройкой порта
- Выбор из доступных моделей Ollama
- Отправка запросов и получение ответов прямо в VS Code
- Простой и интуитивно понятный интерфейс
Установка
- Откройте VS Code
- Перейдите в раздел расширений (
Ctrl+Shift+X или Cmd+Shift+X )
- Найдите "NTPro Ollama"
- Нажмите "Установить"
Использование
Первоначальная настройка:
- При первом запуске расширение запросит:
- Порт сервера Ollama (по умолчанию обычно 11434)
- Название модели (например, "llama2", "deepseek-coder" и т.д.)
Отправка запросов:
- Откройте палитру команд (
Ctrl+Shift+P или Cmd+Shift+P )
- Найдите "Ollama: Отправить запрос"
- Введите ваш запрос в появившемся поле
- Ответ отобразится в панели вывода
Изменение настроек:
- Используйте команду "Ollama: Обновить настройки" для изменения порта или модели
Требования
- Установленный и запущенный Ollama на локальной машине
- Как минимум одна загруженная модель (например, выполните
ollama pull llama2 в терминале)
Настройки расширения
Доступны следующие настройки:
ollama.port : Порт, на котором работает сервер Ollama
ollama.model : Модель по умолчанию для запросов
Известные проблемы
- Первое подключение может не удаться, если сервер Ollama не запущен
- Некоторые модели могут отвечать медленнее других
История версий
1.0.0
Первоначальный релиз Ollama Client для VS Code с базовым функционалом:
- Настройка подключения
- Выбор модели
- Отправка запросов
Участие в разработке
Мы приветствуем вклад в развитие! Учавствовать в разработке могут только сотрудники компании NTPro.
Наслаждайтесь работой с Ollama прямо в VS Code!
| |