技术栈
ollama
曲幽
1 小时前
python
·
fastapi
·
web
·
async
·
httpx
·
asyncio
·
ollama
我用FastAPI接ollama大模型,差点被asyncio整崩溃(附对话窗口实战)
嘿,朋友们,我是一枚程序媛👩💻。今天咱们来聊聊最近让我又爱又恨的 asyncio,尤其是用FastAPI去调用本地ollama大模型时踩的那些坑。你是不是也觉得FastAPI既然是异步框架,调用外部API应该很丝滑?结果一上线,接口卡死、超时、甚至服务直接挂掉?别急,这篇文章就是来帮你排雷的。
曲幽
1 天前
python
·
ai
·
lora
·
torch
·
fastapi
·
web
·
model
·
ollama
·
weatherapi
FastAPI + Ollama 实战:搭一个能查天气的AI助手
我盯着手机,脑子里闪过一万个念头:从头训练?没卡;调API?数据出局;用开源模型?怎么让它懂实时天气?
bwz999@88.com
5 天前
linux
·
centos
·
ollama
CentOS 7安装ollama
cat /etc/redhat-release #CentOS 7.3--配置 CentOS 7 国内镜像源
bwz999@88.com
5 天前
ollama
CentOS 7 docker安装ollama、open-webui
--创建 ai 用户,以 root 身份执行useradd -m -s /bin/bash aipasswd ai --ai@2026!
@SmartSi
6 天前
llm
·
ollama
Ollama 实战:从零开始本地运行大语言开源模型
Mac 环境随着大语言模型(LLM)的爆发式增长,越来越多的开发者希望在自己的机器上本地运行这些强大的模型,以保护隐私、降低成本或进行离线实验。然而,直接部署像 Llama 3、Mistral 或 Qwen 这样的模型往往涉及复杂的依赖、模型格式转换和 GPU 配置,对新手并不友好。
风笑谷
7 天前
企业微信
·
ollama
·
openclaw
openclaw+ollama+企业微信 实操记录
环境:win10写在前面,卸载openclaw命令:<>代表需要输入个人参数,输入不需要括号。安装命令(powershell):
CrazyStoneZw
11 天前
本地化
·
ollama
·
openclaw
openclaw配置ollama本地模型
参考文章:ubuntu安装ollama并启动服务配置参数如下:配置信息按照上文进行配置,模型选择 vllm
love530love
12 天前
人工智能
·
windows
·
gpu
·
cuda
·
ollama
·
lm studio
·
openclaw
【OpenClaw 本地实战 Ep.2】零代码对接:使用交互式向导快速连接本地 LM Studio 用 CUDA GPU 推理
目标:让 OpenClaw 调用本地 LM Studio 运行的模型,代替 Ollama 实现稳定的 CUDA GPU 推理,体验极速的本地模型服务 部署方式:从源代码部署(非 npm 全局安装) 环境:Windows + WSL2(推荐)或原生 Windows 版本:OpenClaw 2026.2.13 (a2b45e1)
yyoc97
15 天前
大模型
·
微调
·
llama
·
ollama
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录
遇到问题1:ERROR: Package 'llamafactory' requires a different Python: 3.9.6 not in '>=3.11.0'。然后升级到python最高版本3.14解决(不建议选最新版本,后面使用数据集遇到新的问题) 问题2:
山塘小鱼儿
16 天前
python
·
langchain
·
ollama
·
langgraph
·
langsimth
本地Ollama+Agent+LangGraph+LangSmith运行
基于LangChain官网的例子,自己本地搭建了一套智能体应用,结合本地Ollama部署模型,实现工作流+智能体交互。
前进吧-程序员
18 天前
ai编程
·
zed
·
ollama
Ollama 本地部署编程大模型 + Zed 编辑器配置指南
摘要:在日常编程中,本地部署 AI 助手不仅能保护代码隐私,还能在无网环境下提供低延迟的代码补全和重构服务。本文将介绍轻量级推理框架 Ollama 的安装,推荐目前开源界第一梯队的编程专用模型(Coding LLMs),并详细演示如何将其接入高性能编辑器 Zed,构建高效的本地开发环境。
liuchangng
18 天前
人工智能
·
llm
·
ollama
Huggingface大模型下载方法总结_20260128084905
几G以内的小型模型,无需安装额外工具,浏览器即可操作几十G的大型模型,支持断点续传、后台运行,可灵活指定下载目录/过滤文件
落淼喵_G
18 天前
python
·
模型
·
ollama
智能语音交互与本地知识库技术整合
智能语音交互与本地知识库作为人工智能领域两大关键技术,正分别重塑着人机交互模式与企业知识管理方式。关键技术分类说明表如下所示:
gustt
19 天前
前端
·
后端
·
ollama
构建全栈AI应用:集成Ollama开源大模型
在AI技术迅猛发展的今天,开源大模型如 DeepSeek 系列为开发者提供了强大工具,而无需依赖云服务。构建一个全栈AI应用,不仅能深化对前后端分离架构的理解,还能探索AI集成的最佳实践。本文将基于一个实际项目,分享如何使用React前端、Node.js后端,并通过 LangChain 库调用 Ollama 部署的 DeepSeek-R1:8b 模型,实现一个简单的聊天功能。这个项目适用于初学者上手全栈开发,或资深开发者扩展AI能力。
哈里谢顿
20 天前
ollama
Ollama 部署 Qwen 详细指南(2026 最新版)
适用系统:Windows 10/11、macOS 12+、Linux(Ubuntu/CentOS) 目标模型:Qwen3 系列(含 1.8B / 7B / 32B 等版本) 前置要求:8GB+ 内存(推荐 16GB+),无需 GPU 也可运行小模型 更新日期:2026 年 2 月
hay_lee
21 天前
java
·
人工智能
·
ollama
·
spring ai
Spring AI实现对话聊天-流式输出
目录1.版本选择2.完整代码实现3.效果当前Spring AI 最新正式版本为1.1.2,我们使用这个版本,对应的springboot版本Spring Boot >= 3.5.0 and < 4.0.0
穆友航
22 天前
大模型
·
ollama
·
openclaw
配置 OpenClaw 使用 Ollama 本地模型
前提条件 确保已安装并运行 Ollama 服务,且模型 qwen3-vl:2b 已下载。配置步骤 修改 OpenClaw 配置文件,指定 Ollama 作为模型提供商并设置默认模型。
feasibility.
24 天前
人工智能
·
低代码
·
docker
·
ollama
·
skills
·
opencode
·
智能体/工作流
在OpenCode使用skills搭建基于LLM的dify工作流
到https://skillsmp.com/zh下载skills,点击搜索跳转skills搜索页面,在输入框输入你感兴趣的技能,比如dify等,选择相关的skills
福大大架构师每日一题
24 天前
golang
·
ollama
ollama v0.15.2发布:新增Clawdbot集成指令,全面支持Ollama模型启动!
2026年1月26日,Ollama正式发布了 v0.15.2 版本。本次更新内容虽不多,但极具技术含量。它带来了全新的 Clawdbot 集成,并新增了一个关键命令:
问道飞鱼
25 天前
llama
·
知识库
·
chroma
·
ollama
【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库
原始文档 (PDF/Word/TXT/Markdown)文档解析 & 分块向量化 (Embedding)