在OpenCode使用skills搭建基于LLM的dify工作流

https://skillsmp.com/zh下载skills,点击搜索跳转skills搜索页面,在输入框输入你感兴趣的技能,比如dify等,选择相关的skills

进入页面,点击下载skills包

创建dify-test目录测试,你可以随便起名,然后把刚下载的skills压缩包放入其中解压

创建.opencode/skills目录,移动解压的skills包放入/Users/Zhuanz/Desktop/study/OpenCode/dify-test/.opencode/skills

执行curl -fsSL https://opencode.ai/install | bash安装opencode

执行cd Desktop/study/OpenCode/dify-test进入刚刚的目录

然后执行opencode,第一次执行zsh终端shell还没加载新添加的 PATH 配置,需要先用source加载,注意对没有zsh终端shell一般是用source ~/.bashrc

输入你的提示词

复制代码
生成一个Dify工作流,用于文章摘要生成,包含开始节点、LLM节点和结束节点,注意需要支持ollama和API的接口接入模型

opencode使用当前默认模型Zen作为agent的大脑

按下回车,智能体开始按提示词的要求执行任务

可以看出生成了yml工作流文件,当然最好检查一下,另外小心语法和dify版本不一致

启动dify,打开http://localhost/apps,点击导入DSL文件,并放入刚才的dsl文件

点击创建

点击进入

点击插件,跳转页面,并点击Marketplace

点击ollama插件

点击安装

点击设置

点击模型供应商

添加模型

启动ollama,填写ollama模型空间有的模型,如果dify是在容器,那么基础URL一般是http://host.docker.internal:11434​​​​​​​,即使ollama不是在docker中,配置仅供参考,以你的ollama情况为准,配置完点击添加

点击右上角关闭设置

如果不行可以尝试dify的docker中的.env文件加入下面配置,然后重启 Dify

复制代码
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true

# Ollama 地址(容器内部视角)
OLLAMA_API_BASE_URL=http://host.docker.internal:11434

回到工作室,点击模型选择ollama

点击预览,填写文章内容,并在聊天框输入用户提示词,点击运行

查看结果

创作不易,禁止抄袭,转载请附上原文链接及标题

相关推荐
博.闻广见1 分钟前
AI_概率统计-2.常见分布
人工智能·机器学习
企业架构师老王2 分钟前
2026制造业安全生产隐患识别AI方案:从主流产品对比看企业级AI Agent的非侵入式落地路径
人工智能·安全·ai
Aleeeeex12 分钟前
RAG 那点事:从 8 份企业文档到能用的问答系统,全过程拆给你看
人工智能·python·ai编程
冬奇Lab17 分钟前
一天一个开源项目(第87篇):Tank-OS —— Red Hat 工程师用一个周末,把 AI Agent 塞进了一个可启动的 Linux 镜像
人工智能·开源·资讯
小糖学代码17 分钟前
LLM系列:2.pytorch入门:8.神经网络的损失函数(criterion)
人工智能·深度学习·神经网络
Captaincc35 分钟前
转发-中央网信办部署开展“清朗·整治AI应用乱象”专项行动
人工智能·vibecoding
AI自动化工坊1 小时前
Late框架技术深度解析:5GB VRAM实现10倍AI编码效率的工程架构
人工智能·5g·架构·ai编程·late
我是大聪明.1 小时前
DeepSeek V4 Pro + 华为昇腾910:国产大模型落地的性能实测与深度解析
人工智能·华为
机器之心1 小时前
Generalist之后,罗剑岚团队推出LWD,也要变革具身智能训练范式
人工智能·openai