Claude Code 视觉桥接方案,全程 Agent 执行

背景

Claude Code 接 DeepSeek 时,模型没有视觉能力。

遇到图片就"失明",无法分析报错 UI 或设计稿。

解决思路

用 Kimi Vision API 做桥接,DeepSeek 遇到图片 → 调用脚本 → 返回文字描述 → 继续工作。

成本:我用的是 kimi 的模型,约 0.012 元/张。


第一步:部署脚本

把下面提示词发给任意 Agent,让它帮你写脚本。先确定你用哪个有视觉能力的模型厂商,我用的是 kimi (在提示词里面修改这段为你自己的模型"查询 Kimi 的视觉模型")

提示词

diff 复制代码
帮我写一个 Python 脚本:describe_image.py

功能:
- 接收两个参数:图片路径、描述要求(文本)
- 返回图片的文字描述
- 查询 Kimi 的视觉模型,调用它 API 来处理这个图片识别功能

要求:
- 使用 uv run 执行,自动安装依赖
- API 调 OpenAI 兼容格式,base_url 是 https://api.moonshot.cn/v1
- 环境变量 MOONSHOT_API_KEY 读取 Key
- 图片转 base64 嵌入请求
- 返回模型的回复内容

脚本保存到 ~/.claude/describe_image.py,并添加好执行权限

配置环境变量

可以为了方便,直接把让 Agent 把 API Key 写在脚本里

也可以自己配置 API Key

~/.zshrc 加一行:

ini 复制代码
export MOONSHOT_API_KEY="你的Kimi Key"
bash 复制代码
source ~/.zshrc

验证

bash 复制代码
~/.claude/describe_image.py /tmp/screenshot.png "描述这张图"

第二步:配置 CLAUDE.md

接着发给 Agent:

bash 复制代码
请在全局 `~/.claude/CLAUDE.md` 配置补充如下内容:

## 图片识别

如果你无法识别图片,立即调用:

$ uv run ~/.claude/describe_image.py <图片路径> "描述要求"

例如:uv run ~/.claude/describe_image.py /tmp/image.png "描述一下这张图片,关注里面报错信息内容"

拿到描述后直接带入上下文继续工作,不需要告诉用户"我无法看图"

第三步:授权该脚本免确认执行

接着发给 Agent:

复制代码
请全局配置,后续调用该图片识别脚本时无需确认
相关推荐
新知图书1 小时前
基于 FAISS 的 AI 长期记忆系统示例
人工智能·智能体·langchian
明月(Alioo)1 小时前
Agent 自主学习记忆:让 AI 从经验中成长的闭环系统
人工智能·ai
田井中律.1 小时前
知识图谱(知识融合)【第十三章】
人工智能·知识图谱
浔川python社1 小时前
视界新生,多模态破壁 ——DeepSeek 识图模式正式上线
人工智能·deepseek
云烟成雨TD1 小时前
Spring AI 1.x 系列【30】向量数据库:核心 API 和入门案例
java·人工智能·spring
wuxinyan1231 小时前
大模型学习之路01:提示工程从入门到精通(第一篇)
人工智能·学习·提示词
互联网推荐官1 小时前
上海物联网应用开发技术路径拆解:从协议选型到平台架构的工程实践
大数据·人工智能·软件工程
好运的阿财1 小时前
OpenClaw工具拆解之apply_patch+sandboxed_read
人工智能·python·ai编程·openclaw·openclaw工具
user29876982706542 小时前
四、深入 Claude Code CLI 源码:服务层的架构设计
人工智能