opencode使用各大模型小结

opencode 开始工作:

█▀▀█ █▀▀█ █▀▀█ █▀▀▄ █▀▀▀ █▀▀█ █▀▀█ █▀▀█

█ █ █ █ █▀▀▀ █ █ █ █ █ █ █ █▀▀▀

▀▀▀▀ █▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀ ▀▀▀▀

最近使用langflow,遇到一个问题,ollama的model name 列表出不来。

开始轮流使用各大模型debug:

minimax2.5,mimo-v2-pro,qwen3.6-plus-free,以为这么多程序员助理,总有一个会吧。

后来在minimax2.5的不懈努力下,干了快到两个工作日时长,终于有点眉目了。

  1. 问题定位

前端报错显示 POST /api/v1/custom_component/update 返回 404

错误,错误信息为:

Client error '404 Not Found' for url 'http://192.168.5.13:11434/api/show'

  1. 根本原因

Ollama 组件的 get_models 方法会:

  1. 调用 /api/tags 获取模型列表

  2. 对每个模型调用 /api/show 检查 capabilities

当 /api/show 返回 404 时,原始代码使用 raise_for_status()

直接抛出异常,导致整个模型列表获取失败,前端显示为空。

  1. 解决过程
  • 关键发现:代码通过 compile()

编译后存储,运行时使用的是编译后的代码而非源文件

  • 绕过方案:在 update_component_build_config 中强制使用源文件中的方法

修改代码:

  • 简化 get_models 方法:只调用 /api/tags 获取模型名称,不调用 /api/show

检查 capabilities

  • 修改 utils.py:对于 ChatOllamaComponent,直接调用源文件方法
  1. 修改的文件
  • src/lfx/src/lfx/components/ollama/ollama.py - 简化 get_models

  • src/lfx/src/lfx/custom/utils.py - 强制使用源文件方法

当时因为测试通过,觉得问题解决了。

后来仔细review代码发现,改动涉及其他功能,有问题!

于是在ollama端检查模型,终于找到问题的真实原因,本地大模型pull不完整!

相关推荐
拾光向日葵2 小时前
南京林业大学2026年硕士研究生跨门类调剂政策详解
大数据·人工智能·物联网
LSQ的测试日记2 小时前
深度学习_YOLO,卡尔曼滤波和
人工智能·深度学习·yolo
枫叶林FYL2 小时前
【自然语言处理 NLP】前沿架构与多模态 状态空间模型(Mamba/SSM)深度实现
人工智能·机器学习
Westward-sun.2 小时前
OpenCV 实战:SIFT 指纹特征匹配与可视化(补充版)
人工智能·opencv·计算机视觉
财经资讯数据_灵砚智能2 小时前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年4月7日
大数据·人工智能·python·信息可视化·语言模型·自然语言处理·ai编程
凌峰的博客2 小时前
基于注意力流的鲁棒信息隐写方法:从扩散隐写到Attention Flow的新探索
人工智能
初心未改HD2 小时前
从Java转行大模型应用,扣子工作流学习
人工智能
Gary jie2 小时前
AI上下文管理与记忆架构详解
人工智能·机器学习·架构·openclaw
大树882 小时前
【无标题】
大数据·运维·服务器·人工智能