ollama

青龙小码农1 天前
elasticsearch·milvus·ollama·rga
milvus+elasticsearch+ollama实现企业级RAG搭建[安装参考](https://blog.csdn.net/wenwang3000/article/details/145705858) 这里需要2种类型的
福大大架构师每日一题3 天前
ollama
ollama v0.21.2 最新更新详解:OpenClaw 更稳了,模型推荐顺序终于固定,云端结构化输出说明也补上了2026年4月25日,ollama 发布了 v0.21.2 版本。 这次更新虽然版本号不大,但改动非常集中,主要围绕 launch 启动体验、OpenClaw 集成、模型推荐顺序固定、managed integration 配置漂移修复、文档补充 这几条主线展开。
nicepainkiller4 天前
ollama·coza
Coza 本地搭建 + Ollama支持我这边是 window11 系统,安装 coza 系统 需要一起安装很多 配套周边软件。 所以这边 选取 docker 的方式安装。docker 按照的好处是 通过配置文件 可以一件帮助我们把周边软件一起安装了。不必自己手动配置。 然后 wls2 我这边之前就已经安装好了。wls2 云运行 在 windos 上的 ubuntu 系统。Ubuntu 运行 跑 docker 更加的方便
java_logo4 天前
linux·docker·容器·ollama·open-webui·open-webui部署·open-webui教程
Docker 部署 Open WebUI + Ollama 完整教程(Windows / Linux 通用)—— 打造自己的本地OpenAI在本地搭建专属大模型平台,不用依赖云端服务,既能实现可视化聊天交互,又能保证数据隐私——今天就给大家分享最省心的方案:用 Docker 一键部署 Open WebUI + Ollama,全程步骤清晰,Windows 和 Linux 系统都能适配,还会解决部署中最常见的模型识别、容器通信等问题。
钟智强5 天前
安全·web安全·网络安全·ollama·deepseek
国内环境Ollama安装与DeepSeek-R1:1.5b部署全攻略你是否遇到过这样的困境:在安全测试中需要一个能理解复杂日志、分析攻击链路的AI助手,却又担心敏感数据传到云端?想部署本地大模型,却被繁琐的环境配置和龟速的模型下载劝退?今天,我们就来解决这个痛点——在国内网络环境下,用Ollama部署DeepSeek-R1:1.5b蒸馏模型,打造属于网安人的专属推理引擎。
千江明月6 天前
开发语言·python·ollama·qwen模型
Ollama安装的详细步骤以及Python调用Qwen下面为整理的 Ollama 详细安装步骤 以及 Python 调用本地 Qwen 模型 的完整指南。Ollama 是目前最简单的本地大模型运行工具,它会自动处理驱动、依赖和量化问题。
SNOWPIAOP7 天前
linux·运维·macos·manifest·ollama·blobs
从MAC电脑复制qwen3.5:4b 的OLLAMA模型到LINUX电脑实践最近在一台 Mac 上已经下载好了 qwen3.5:4b 的 Ollama 模型,但另一台 Linux 机器网络环境不方便重复拉取,于是就做了一次“本地模型迁移”。实际验证下来,这种方式完全可行:只要把 manifest 文件 和对应的 blob 文件 一起复制到 Linux 上正确的 Ollama 模型目录,再修正权限,Linux 端就能直接识别并运行该模型。
姜太小白7 天前
模型·ollama
【Ollama】Ollama支持的主流模型列表Llama 3:Meta最新开源模型,支持多语言,性能接近GPT-4Llama 2:经典开源模型,稳定性好
姜太小白7 天前
ollama·openclaw
【OpenClaw】OpenClaw配置Ollama模型指南本文档介绍如何在OpenClaw(龙虾)中连接并使用本地Ollama模型。配置成功后,可以在Web界面中选择并使用已下载的Ollama模型进行智能对话。
福大大架构师每日一题11 天前
人工智能·数据挖掘·回归·ollama
ollama v0.20.7 最新版更新详解:ROCm 7.2.1、Gemma4 渲染修复与多项 Metal/Renderer 回归修补2026年4月13日,ollama 发布了 v0.20.7 版本。 这次更新虽然版本号看起来是一次常规小版本升级,但从变更内容来看,实际上是一次面向 GPU 生态、模型渲染逻辑和 Metal 后端兼容性的集中修复版本。尤其是 Gemma4 相关修复、ROCm 版本升级,以及多个 ggml Metal 相关补丁的回补,说明这一版重点并不只是“更新依赖”,而是围绕真实运行中的质量问题进行了一轮修正。
EdmundXjs12 天前
http·claude·ollama·qwen3
Claude+qwen3-vl:8B HTTP交互信息解释ollama作为service启动后,默认只开启在127.0.0.1端口上,需要修改服务配置达成到0.0.0.0
熊猫钓鱼>_>15 天前
人工智能·音视频·agent·qwen·ollama·openclaw·happyhorse-1.0
私有化AI视频助手搭建实录:当Ollama遇上OpenClawAI视频生成的热度仍在攀升,从HappyHorse-1.0匿名屠榜到各家模型竞相开源,创作者似乎迎来了最好的时代。但一个现实问题始终悬而未决:云端服务固然方便,可谁愿意把未公开的脚本、商业素材甚至客户数据,毫无保留地交给一个黑盒API?
书香门第16 天前
人工智能·python·ollama
搭建免费的Ollama AI Agent我们先温习一些AI Agent有关的基本概念和有关工具与框架的介绍:AI Agent:AI Agent 是一个具备“目标驱动 + 感知 + 决策 + 行动”闭环的软件系统,通常以 LLM 作为核心推理引擎。形式化一点可以写成:Agent = Policy(LLM) + Memory + Tools + Execution Loop。
devpotato16 天前
人工智能·ollama
人工智能(六)- Spring AI 调用Ollama本地大模型人工智能(五)- OpenAI 调用Ollama本地大模型Spring AI 最低支持 Spring Boot 3.4.x + JDK 17 以上版本。如果在使用 Spring Boot 2.x + JDK 8,需要先升级环境,可参考Spring Boot 2.7 + JDK 8 升级至 Spring Boot 3.4.13 + JDK 17 手册。
Cachel wood16 天前
人工智能·python·自动化·llm·qwen·ollama·gemma4
Macbook M4 pro本地部署大模型|Ollama+Gemma4/Qwen3.524 GB内存安装ollama Ollama负责模型的下载、加载和运行,还自带本地API,不用手动配置,是目前新手最省事的方案,没有之一。
シ風箏16 天前
docker·anythingllm·ollama·本地智能体·离线模型迁移
Ollama【部署 07】搭建本地智能体的简单说明(局域网离线部署Ollama+模型迁移+Docker部署AnythingLLM)核心流程:安装Ollama(运行模型的基础工具)→ 下载模型 → 安装Chatbox(可视化聊天界面)→ 配置Chatbox连接Ollama。
Navicat中国16 天前
数据库·人工智能·ai·navicat·ollama
如何使用 Ollama 配置 AI 助手 | Navicat 教程适用操作系统:Windows,macOS,Linux适用 Navicat 产品:全部本文介绍如何使用 Ollama 设置 AI 助手。
清风91593862917 天前
node.js·ollama·openclaw ai智能体·openclaw本地部署·openclaw硬件配置·ultralab
告别Token账单无底洞:OpenClaw本地部署,重塑企业数据主权的唯一解千淘万漉虽辛苦,吹尽狂沙始到金。如果你现在还在用云端API跑核心业务逻辑,那你可能正在经历两场“慢性死亡”:一是每个月像滚雪球一样、上不封顶的Token账单;二是随时可能引爆的数据合规地雷。
福大大架构师每日一题17 天前
ollama
ollama v0.20.5 发布:OpenClaw全渠道打通、Gemma 4闪光注意力优化、模型保存修复,本地AI部署再升级2026年4月10日,全球领先的本地大模型部署工具Ollama正式发布v0.20.5最新版本,作为v0.20系列的第五个迭代版本,本次更新没有追求功能的大而全,而是聚焦生态打通、性能优化、问题修复三大核心方向,通过11次代码提交、39个文件改动、6位核心开发者协同,完成了从多渠道消息集成、模型推理加速、兼容性修复、底层架构稳定性的全方位升级,进一步夯实Ollama在本地AI部署领域的标杆地位。
comedate17 天前
大模型·本地部署·ollama·vibe coding
【OpenClaw】 8GB 显卡本地大模型部署指南本文档整理自实际问答,针对 8GB 显存环境下的本地大模型部署方案进行对比分析。Linux/macOS: