本地开发闭环了? Ollama+GLM4.7+Claude Code

Ollama 竟然也支持 Anthropic 协议了,这下 Claude Code 无处不在了。

Ollama 0.15 版本一次性支持了 Claude Code、Codex、opencode、droid。最近他们还上新了 GLM-4.7-flash。

这不就完美闭环了啊。

直接可以搭建一套完全开源本地运行的编程环境了。

虽然,我们都知道这肯定是玩具,但是这玩具也太好玩了。

我们可以实现:

  • 完全离线运行
  • 完全免费
  • 无限 token

这不是爽翻天。今天赶紧跟着官方教材来配置一下,运行看看,效果如何。其实我好几天前就开始尝试了,但是由于版本还没到位,一直失败。今天终于被我跑通了。

首先安装 Ollama v0.15.0,一定要这个版本,比这个小的版本都不行,我是浪费了一天时间,才确认这个事情。

快速验证接口。

到底能不能用,我们先用一个小模型和 PS 脚本来快速验证一下:

# Configure Claude Code to use local Ollama (Anthropic-compatible API)$env:ANTHROPIC_AUTH_TOKEN = "ollama"$env:ANTHROPIC_BASE_URL  = "http://localhost:11434"$env:ANTHROPIC_API_KEY   = "ollama"# Optional: run Claude Code (uncomment to use)$model = "qwen3:latest"$modelExists = (ollama list | Select-String -SimpleMatch $model)if (-not $modelExists) {    Write-Host "Model '$model' not found locally. Pulling via Ollama..."    ollama pull $model}claude --model $model

把这个保存为 PowerShell 可以运行的 claude-code-ollama-qwen3.ps1 脚本。

这个脚本的逻辑是,首先查看 Ollama 中是否有 qwen3:latest 这个模型,如果没有的话,使用命令去下载,下载完成之后,就启用 Claude Code。

运行这个脚本的方式是,直接右键,使用 PowerShell 运行。

首次打开自动下载模型:

下载完成自动打开 Claude Code:

问一下他是谁,他说他是通用千问。

这就证明,我们已经可以通过 Anthropic 结构调用 Ollama 中的模型了。

开始切换 glm-4.7-flash:latest

因为 qwen3 模型比较小,而且对 Claude Code 支持不好,所以我们需要切换 glm-4.7-flash。

可以直接切换上面脚本中的名字,重新运行一次就可以了。

也可以用另外一种方法,使用 CC-Switch。

先手动下载模型。

使用如下命令:

ollama pull glm-4.7-flash

过程如下:

然后打开 CC-Switch 添加新供应商。

其中 API key 写:Ollama

请求地址:http://localhost:11434

然后主模型:glm-4.7-flash

然后启用这个配置:

然后打开 Claude Code:

这个时候模型就切换到 glm-4.7-flash 了。

然后就可以让他干活了。

经过一番折腾,终于可以使用了。但是,最终只证明了一点:理想很美好,现实很骨感。

一个需求,思考了半个多小时,最后崩了~~我也,崩溃了!

当然,这个也是有积极意义的。

既然这条路已经跑通了,只要开源模型针对 Claude Code 优化一下,接下来就真的能玩了。

只有跑过这种模型,你才会发现 Opus 轻而易举完成那么多事情,是多么牛逼了。

 

小尾巴==========================
公众号:托尼不是塔克
交流群
知识星球
==============================

 



发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注