ollama

曲幽1 小时前
python·fastapi·web·async·httpx·asyncio·ollama
我用FastAPI接ollama大模型,差点被asyncio整崩溃(附对话窗口实战)嘿,朋友们,我是一枚程序媛👩‍💻。今天咱们来聊聊最近让我又爱又恨的 asyncio,尤其是用FastAPI去调用本地ollama大模型时踩的那些坑。你是不是也觉得FastAPI既然是异步框架,调用外部API应该很丝滑?结果一上线,接口卡死、超时、甚至服务直接挂掉?别急,这篇文章就是来帮你排雷的。
曲幽1 天前
python·ai·lora·torch·fastapi·web·model·ollama·weatherapi
FastAPI + Ollama 实战:搭一个能查天气的AI助手我盯着手机,脑子里闪过一万个念头:从头训练?没卡;调API?数据出局;用开源模型?怎么让它懂实时天气?
bwz999@88.com5 天前
linux·centos·ollama
CentOS 7安装ollamacat /etc/redhat-release #CentOS 7.3--配置 CentOS 7 国内镜像源
bwz999@88.com5 天前
ollama
CentOS 7 docker安装ollama、open-webui--创建 ai 用户,以 root 身份执行useradd -m -s /bin/bash aipasswd ai --ai@2026!
@SmartSi6 天前
llm·ollama
Ollama 实战:从零开始本地运行大语言开源模型Mac 环境随着大语言模型(LLM)的爆发式增长,越来越多的开发者希望在自己的机器上本地运行这些强大的模型,以保护隐私、降低成本或进行离线实验。然而,直接部署像 Llama 3、Mistral 或 Qwen 这样的模型往往涉及复杂的依赖、模型格式转换和 GPU 配置,对新手并不友好。
风笑谷7 天前
企业微信·ollama·openclaw
openclaw+ollama+企业微信 实操记录环境:win10写在前面,卸载openclaw命令:<>代表需要输入个人参数,输入不需要括号。安装命令(powershell):
CrazyStoneZw11 天前
本地化·ollama·openclaw
openclaw配置ollama本地模型参考文章:ubuntu安装ollama并启动服务配置参数如下:配置信息按照上文进行配置,模型选择 vllm
love530love12 天前
人工智能·windows·gpu·cuda·ollama·lm studio·openclaw
【OpenClaw 本地实战 Ep.2】零代码对接:使用交互式向导快速连接本地 LM Studio 用 CUDA GPU 推理目标:让 OpenClaw 调用本地 LM Studio 运行的模型,代替 Ollama 实现稳定的 CUDA GPU 推理,体验极速的本地模型服务 部署方式:从源代码部署(非 npm 全局安装) 环境:Windows + WSL2(推荐)或原生 Windows 版本:OpenClaw 2026.2.13 (a2b45e1)
yyoc9715 天前
大模型·微调·llama·ollama
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录遇到问题1:ERROR: Package 'llamafactory' requires a different Python: 3.9.6 not in '>=3.11.0'。然后升级到python最高版本3.14解决(不建议选最新版本,后面使用数据集遇到新的问题) 问题2:
山塘小鱼儿16 天前
python·langchain·ollama·langgraph·langsimth
本地Ollama+Agent+LangGraph+LangSmith运行基于LangChain官网的例子,自己本地搭建了一套智能体应用,结合本地Ollama部署模型,实现工作流+智能体交互。
前进吧-程序员18 天前
ai编程·zed·ollama
Ollama 本地部署编程大模型 + Zed 编辑器配置指南摘要:在日常编程中,本地部署 AI 助手不仅能保护代码隐私,还能在无网环境下提供低延迟的代码补全和重构服务。本文将介绍轻量级推理框架 Ollama 的安装,推荐目前开源界第一梯队的编程专用模型(Coding LLMs),并详细演示如何将其接入高性能编辑器 Zed,构建高效的本地开发环境。
liuchangng18 天前
人工智能·llm·ollama
Huggingface大模型下载方法总结_20260128084905几G以内的小型模型,无需安装额外工具,浏览器即可操作几十G的大型模型,支持断点续传、后台运行,可灵活指定下载目录/过滤文件
落淼喵_G18 天前
python·模型·ollama
智能语音交互与本地知识库技术整合智能语音交互与本地知识库作为人工智能领域两大关键技术,正分别重塑着人机交互模式与企业知识管理方式。关键技术分类说明表如下所示:
gustt19 天前
前端·后端·ollama
构建全栈AI应用:集成Ollama开源大模型在AI技术迅猛发展的今天,开源大模型如 DeepSeek 系列为开发者提供了强大工具,而无需依赖云服务。构建一个全栈AI应用,不仅能深化对前后端分离架构的理解,还能探索AI集成的最佳实践。本文将基于一个实际项目,分享如何使用React前端、Node.js后端,并通过 LangChain 库调用 Ollama 部署的 DeepSeek-R1:8b 模型,实现一个简单的聊天功能。这个项目适用于初学者上手全栈开发,或资深开发者扩展AI能力。
哈里谢顿20 天前
ollama
Ollama 部署 Qwen 详细指南(2026 最新版)适用系统:Windows 10/11、macOS 12+、Linux(Ubuntu/CentOS) 目标模型:Qwen3 系列(含 1.8B / 7B / 32B 等版本) 前置要求:8GB+ 内存(推荐 16GB+),无需 GPU 也可运行小模型 更新日期:2026 年 2 月
hay_lee21 天前
java·人工智能·ollama·spring ai
Spring AI实现对话聊天-流式输出目录1.版本选择2.完整代码实现3.效果当前Spring AI 最新正式版本为1.1.2,我们使用这个版本,对应的springboot版本Spring Boot >= 3.5.0 and < 4.0.0
穆友航22 天前
大模型·ollama·openclaw
配置 OpenClaw 使用 Ollama 本地模型前提条件 确保已安装并运行 Ollama 服务,且模型 qwen3-vl:2b 已下载。配置步骤 修改 OpenClaw 配置文件,指定 Ollama 作为模型提供商并设置默认模型。
feasibility.24 天前
人工智能·低代码·docker·ollama·skills·opencode·智能体/工作流
在OpenCode使用skills搭建基于LLM的dify工作流到https://skillsmp.com/zh下载skills,点击搜索跳转skills搜索页面,在输入框输入你感兴趣的技能,比如dify等,选择相关的skills
福大大架构师每日一题24 天前
golang·ollama
ollama v0.15.2发布:新增Clawdbot集成指令,全面支持Ollama模型启动!2026年1月26日,Ollama正式发布了 v0.15.2 版本。本次更新内容虽不多,但极具技术含量。它带来了全新的 Clawdbot 集成,并新增了一个关键命令:
问道飞鱼25 天前
llama·知识库·chroma·ollama
【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库原始文档 (PDF/Word/TXT/Markdown)文档解析 & 分块向量化 (Embedding)