CerebrAI: 本地大模型交互插件
简介
CerebrAI 是一个 VS Code 扩展,用于与本地部署的大语言模型交互。通过该插件,用户可以在 VS Code 内直接发送提示词并查看模型返回的响应。支持自定义模型服务配置,满足多种场景需求。
功能
- 快捷交互 :通过命令面板或交互视图,快速向模型发送提示词。
- 多模型支持 :可通过设置自定义其他模型。
- 响应展示 :将模型的响应结果实时展示在交互面板中。
- 交互历史记录 :记录会话历史,方便用户回顾。
- 动态配置 :支持通过 VS Code 配置修改模型服务的 IP、端口和模型名称。
安装
- 下载
.vsix 文件。
- 打开 VS Code,按下
Ctrl+Shift+P (或 Cmd+Shift+P ),选择 Extensions: Install from VSIX... 。
- 选择下载的
.vsix 文件并安装。
使用方法
1. 快速开始
- 在 VS Code 的命令面板中运行 CerebrAI: Send Prompt 。
- 或在侧边栏打开 本地大模型交互视图 。
- 选择预设提示词或输入自定义提示词。
- 点击发送,查看模型返回的结果。
2. 配置模型服务
可以在 VS Code 设置中修改模型服务配置:
- 打开 VS Code 设置(快捷键
Ctrl+, 或 Cmd+, )。
- 搜索
CerebrAI 。
- 配置以下选项:
- Server IP :本地模型服务的 IP 地址。
- Server Port :模型服务的端口号。
- Model Name :模型的名称(如
shibing624/qwen2_0.5b_instruct )。
功能展示
交互视图
侧边栏包含以下功能:
- 发送预设提示词 :快速测试模型。
- 显示交互历史 :方便回顾会话内容。
- 清空历史记录 :一键清空当前会话记录。
自定义提示词
可直接在 Webview 面板输入自定义问题,模型将返回相应回答。
注意事项
- 网络配置 :确保插件可以访问模型服务运行的地址(默认
http://192.168.3.74:11434 )。
- 依赖服务 :请先启动模型服务(如
ollama 或 Termux 上的本地大模型服务)。
- 模型性能 :根据设备性能调整模型大小,以确保运行流畅。
常见问题
1. 模型服务无法连接?
- 确保模型服务已启动,并正确配置了 IP 地址和端口。
- 检查防火墙设置,确保开放相应端口。
2. 无法获取模型响应?
- 检查模型服务是否正常运行。
- 查看 VS Code 输出面板中的插件日志,排查具体错误。
更新日志
v0.0.1
- 添加模型服务的基础交互功能。
- 支持动态配置 IP、端口和模型名称。
- 优化错误处理,提升用户体验。
- 本地不联网保存历史记录
开发者
- 作者 :czy
- 联系邮箱 :czy@hifumi.ggff.net
| |