opencode使用各大模型小结

opencode 开始工作:

█▀▀█ █▀▀█ █▀▀█ █▀▀▄ █▀▀▀ █▀▀█ █▀▀█ █▀▀█

█ █ █ █ █▀▀▀ █ █ █ █ █ █ █ █▀▀▀

▀▀▀▀ █▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀

最近使用langflow,遇到一个问题,ollama的model name 列表出不来。

开始轮流使用各大模型debug:

minimax2.5,mimo-v2-pro,qwen3.6-plus-free,以为这么多程序员助理,总有一个会吧。

后来在minimax2.5的不懈努力下,干了快到两个工作日时长,终于有点眉目了。

  1. 问题定位

前端报错显示 POST /api/v1/custom_component/update 返回 404

错误,错误信息为:

Client error '404 Not Found' for url 'http://192.168.5.13:11434/api/show'

  1. 根本原因

Ollama 组件的 get_models 方法会:

  1. 调用 /api/tags 获取模型列表

  2. 对每个模型调用 /api/show 检查 capabilities

当 /api/show 返回 404 时,原始代码使用 raise_for_status()

直接抛出异常,导致整个模型列表获取失败,前端显示为空。

  1. 解决过程
  • 关键发现:代码通过 compile()

编译后存储,运行时使用的是编译后的代码而非源文件

  • 绕过方案:在 update_component_build_config 中强制使用源文件中的方法

修改代码:

  • 简化 get_models 方法:只调用 /api/tags 获取模型名称,不调用 /api/show

检查 capabilities

  • 修改 utils.py:对于 ChatOllamaComponent,直接调用源文件方法
  1. 修改的文件
  • src/lfx/src/lfx/components/ollama/ollama.py - 简化 get_models

  • src/lfx/src/lfx/custom/utils.py - 强制使用源文件方法

当时因为测试通过,觉得问题解决了。

后来仔细review代码发现,改动涉及其他功能,有问题!

于是在ollama端检查模型,终于找到问题的真实原因,本地大模型pull不完整!

相关推荐
2501_933329551 天前
媒介宣发技术实践:Infoseek舆情系统的AI中台架构与应用解析
开发语言·人工智能·架构·数据库开发
热爱生活的五柒1 天前
026主流三大模型(GPT / Gemini / Claude Code)总结
人工智能·gpt
DuHz1 天前
论文精读:大语言模型 (Large Language Models, LLM) —— 一项调查
论文阅读·人工智能·深度学习·算法·机器学习·计算机视觉·语言模型
AI木马人1 天前
9.【AI任务队列实战】如何在高并发下保证系统不崩?(Redis + Celery完整方案)
数据库·人工智能·redis·神经网络·缓存
陈天伟教授1 天前
GPT Image 2-桂林山水
人工智能·神经网络·安全·架构
offer收割机小鹅1 天前
大学生求职必备:AI面试、AI写作与设计工具助力职场发展
人工智能·ai·面试·aigc·ai写作
乔江seven1 天前
【李沐 | 动手学深度学习】20 计算机视觉:数据增广(Data Augmentation)
人工智能·深度学习
冬奇Lab1 天前
Claude Code 接入 SonarQube 静态扫描:AI 写代码,质量闭环了
人工智能·ai编程·claude
冬奇Lab1 天前
一天一个开源项目(第84篇):free-claude-code —— 零费用运行 Claude Code 的代理黑魔法
人工智能·开源·claude
泡泡茶壶ᐇ1 天前
个人网站构建完全指南:从功能规划到技术实现与AI辅助开发
人工智能