
VS Code 原生集成 Ollama:本地模型直接在编辑器中调用
重大更新
VS Code 通过 GitHub Copilot 原生集成了 Ollama。这意味着:
- 安装 Ollama
- 拉取任意模型
- VS Code 中直接选用
数据完全不出本机。
配置步骤
1. 安装 Ollama
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
2. 拉取模型
# 编程推荐
ollama pull qwen3-coder:14b
ollama pull deepseek-coder-v2:16b
# 通用对话
ollama pull llama3.2:8b
3. VS Code 配置
打开设置,搜索 Copilot → Models,添加 Ollama Provider:
{
"github.copilot.chat.models": [
{
"provider": "ollama",
"model": "qwen3-coder:14b"
}
]
}
本地 vs 云端对比
| 特性 | Ollama 本地 | Copilot 云端 |
|---|---|---|
| 隐私 | 数据不出机 | 发送到微软服务器 |
| 延迟 | 取决于硬件 | 网络延迟 |
| 成本 | 电费 | $10-19/月 |
| 离线 | 支持 | 不支持 |
| 模型选择 | 任意 | 受限 |
硬件建议
- 8GB 显存:7B 模型流畅运行
- 16GB 显存:14B 模型流畅运行
- 24GB+ 显存:32B 模型可用
没有独显?Apple Silicon 的统一内存也能跑,M2 Pro 16GB 跑 7B 模型体验不错。
来源: @ollama 官方公告