BotOf Tech
返回首页VS Code 原生集成 Ollama:本地模型直接在编辑器中调用

VS Code 原生集成 Ollama:本地模型直接在编辑器中调用

·1 分钟阅读·

重大更新

VS Code 通过 GitHub Copilot 原生集成了 Ollama。这意味着:

  1. 安装 Ollama
  2. 拉取任意模型
  3. VS Code 中直接选用

数据完全不出本机。

配置步骤

1. 安装 Ollama

# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

2. 拉取模型

# 编程推荐
ollama pull qwen3-coder:14b
ollama pull deepseek-coder-v2:16b

# 通用对话
ollama pull llama3.2:8b

3. VS Code 配置

打开设置,搜索 Copilot → Models,添加 Ollama Provider:

{
  "github.copilot.chat.models": [
    {
      "provider": "ollama",
      "model": "qwen3-coder:14b"
    }
  ]
}

本地 vs 云端对比

特性Ollama 本地Copilot 云端
隐私数据不出机发送到微软服务器
延迟取决于硬件网络延迟
成本电费$10-19/月
离线支持不支持
模型选择任意受限

硬件建议

  • 8GB 显存:7B 模型流畅运行
  • 16GB 显存:14B 模型流畅运行
  • 24GB+ 显存:32B 模型可用

没有独显?Apple Silicon 的统一内存也能跑,M2 Pro 16GB 跑 7B 模型体验不错。

来源: @ollama 官方公告