展映AI coder 自动代码补全 VSCode 插件更齐全的代码相关信息 注入到AI 上下文,获取最符合你需要的代码补全!请阅读 展映AI coder 使用说明
代码补全更多信息接入,调试关联信息示例(golang): 与 hf.co/models 上的开源代码模型兼容。 合作/模型)。 ** 公告(2023 年 8 月 25 日):此扩展的最新版本支持 codellama/CodeLlama-13b-hf。 查找更多信息 此处 如何使用此扩展测试 Code Llama。 ** 公告(2023 年 9 月 4 日):此扩展的最新版本支持 Phind/Phind-CodeLlama-34B-v2 和 WizardLM/ WizardCoder-Python-34B-V1.0。 在此处查找更多信息,了解如何使用此扩展测试这些模型。 目前支持的型号有:
安装像任何其他 vscode 扩展 一样安装。 默认情况下,此扩展使用 bigcode/starcoder 和 Hugging Face Inference API 进行推理。 但是,您可以配置 向非 Hugging Face Inference API 的自定义端点发出推理请求。 因此,如果您使用默认的 Hugging Face Inference AP 推理,则需要提供 HF API 令牌。 HF API 令牌您可以使用以下命令提供您的 HF API 令牌(hf.co/settings/token):
测试1.新建一个python文件
2. 尝试输入 检查生成的代码是否在 The Stack 中点击“Cmd+shift+a”检查生成的代码是否在The Stack中。 这是使用 stack.dataportraits.org 进行的快速首次归因检查。 我们检查与布隆过滤器匹配的至少 50 个字符的序列。 这意味着误报是可能的,并且需要足够长的周围上下文(有关 n-gram 跨步和序列长度的详细信息,请参阅论文)。 专用堆栈搜索工具 是完整的数据集索引,可用于完整的第二遍。 开发中确保您已在系统上安装了yarn。
检查输出您可以看到代码生成 API 的输入和输出:
配置您可以配置:发送请求的端点和特殊令牌。 例子: 假设您当前的代码是这样的:
然后,请求正文将如下所示:
codeLLama代码测试 Code Llama 13B 模型:
阅读更多此处 关于 Code LLama。 Phind 和 WizardCoder测试 Phind/Phind-CodeLlama-34B-v2 和 或 [WizardLM/WizardCoder-Python-34B-V1.0](http://hf.co/WizardLM/WizardCoder-Python-34B-V1.0):
详细了解 Phind-CodeLlama-34B-v2 此处 和 WizardCoder-15B-V1.0 [此处](https://huggingface. co/WizardLM/WizardCoder-15B-V1.0)。 ## 社区 |