VS Code插件Continue连接Ollama实现AI辅助编程

Continue 插件为 VS Code 提供了直接使用OpenAI作为AI编码后端的能力,同时也可以连接本地部署的大语言模型,实现完全自主控制的LLM大模型编程。

我在 Ollama使用AMD GPU运行大模型 验证运行了 Qwen2.5-coder 之后,尝试结合到 VS Code 进行AI编程:

  • Continue 提供了 chat 模式对话,以及自动补全和代码自动注释等功能,使用方便,无需频繁切换终端

安装和配置

在 VS Code中选择插件市场,搜索 continue 并安装

  • 打开VS Code,按下 Ctrl+Shift+P ,然后输入 Continue: Open Settings

  • 这里有一个界面是登陆 Coninue Hub ,不过也提供了另外一个选项是 Or, configure your own models ,我们就选择这个配置自己的模型

备注

上述配置其实有点迷糊,可能需要摸索摸索。我自己也是按照导引做的,但是看起来continue的界面迭代变化块,和文档并不相同,所以我也就在这里不再记录了。

使用

Continue 提供了一个chat模式,就好像直接和Ollama对话

../../../_images/vscode_continue_ollama.png

对话模式通过提示获取代码片段

  • 其实使用chat模式就很方便,通过简单对话就能获取代码片段进行参考,也方便学习编程

  • 代码注释比较有用,特别是看到一时无法理解的代码,让 continue 调用 Ollama 帮我解析,可以快速完成代码阅读

其他功能探索中...

参考