技术栈
ollama
Violet_Stray
1 天前
docker
·
部署
·
ollama
·
deepseek
【Ollama】docker离线部署Ollama+deepseek
因为要做项目,实验室的服务器不联网,所以只能先打包一个基础的docker环境,然后再在实验室的服务器上进行解压和配置环境 参考:https://zhuanlan.zhihu.com/p/23377266873
猿小猴子
6 天前
ollama
在Window10 和 Ubuntu 24.04LTS 上 Ollama 在线或离线安装部署
Ollama 是一个开源的大型语言模型(LLM)服务框架,旨在通过轻量化、跨平台的设计,简化大模型在本地环境中的部署与应用。其基于 Go 语言开发,通过 Docker 容器化技术封装模型运行环境,提供类似命令行工具的交互体验(如 pull、run 等指令),支持用户在 Windows、Linux、macOS 甚至树莓派等设备上快速启动 qwen3、deepseek 等主流开源模型。
暮乘白帝过重山
13 天前
前端
·
chrome
·
ollama
Ollama 在本地分析文件夹中的文件
使用 Ollama 在本地分析文件夹中的文件,通常需要结合模型的能力(如 LLaMA、CodeLLaMA 等)和文件预处理步骤。
whltaoin
15 天前
spring boot
·
ollama
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
Spring AI Alibaba 开源项目基于 Spring AI 构建,是阿里云通义系列模型及服务在 Java AI 应用开发领域的最佳实践,提供高层次的 AI API 抽象与云原生基础设施集成方案,帮助开发者快速构建 AI 应用。
漫谈网络
16 天前
linux
·
ai
·
aigc
·
工具调用
·
ollama
·
tool calls
Ollama工具调用(Tool Calls)业务应用案例
业务需求:用户通过聊天界面申请退货,模型需调用外部工具验证订单状态、触发退货流程,并返回处理结果。在请求中声明模型可调用的工具(函数)及其参数格式(JSON Schema):
漫谈网络
17 天前
ai
·
llm
·
aigc
·
api
·
ollama
Ollama API 应用指南
模型兼容性长上下文处理流式传输优化自定义模型集成通过此指南,可全面掌握 Ollama API 的核心功能,适用于开发聊天机器人、自动化脚本、语义分析等多种场景。
Roc.Chang
18 天前
macos
·
语言模型
·
大模型
·
llm
·
ollama
释放 Mac 存储空间:Ollama 模型迁移到外接 NVMe 磁盘
在本地运行 Ollama 时,模型数据默认保存在 ~/.ollama/models。 但对于 macOS 用户来说,苹果的存储是真的贵,真的是 Only Apple can do!!!所以就考虑存储外置的方案。
Cacciatore->
19 天前
java
·
人工智能
·
python
·
ollama
Ollama 部署与基本应用
官方仓库:https://github.com/ollama/ollamaOllama 是一个支持开源大语言模型(LLM)本地部署和运行的平台。它可以让开发者在本地计算机上轻松运行各种AI模型,无需依赖云端服务。Ollama 提供了简单的命令行界面和Web UI,支持模型的管理、推理和微调。
gblfy
20 天前
linux
·
docker
·
dify
·
本地部署
·
ollama
·
deepseek
·
私有化
DeepSeek + Dify + Ollama + Docker + Linux 私有化部署,构建你的专属私人 AI 助手
本篇文章安装环境:Linux Rocky Linux 9.5使用 Docker Compose 部署:Docker 27.5.1 或更高版本、Docker Compose 1.25.1 或更高版本 安装 Dify 之前,请确保你的机器已满足最低安装要求:CPU>2 Core RAM>=4GB
一起屠龙
24 天前
llm
·
ollama
SpringAi+milvus向量数据库实现基于本地知识问答
利用 AI 大模型(如 GPT、BERT)对文本、图像等数据生成高维向量(Embedding),捕捉其语义特征,然后将这些向量存储到向量数据库(如 Milvus、Pinecone)中并建立索引。当用户提问时,使用相同的模型将问题转换为向量,在数据库中通过相似性搜索快速找到最相关的知识条目。整个过程在本地完成,确保隐私和低延迟,同时结合大模型可进一步优化回答质量,实现智能化的知识检索与交互。
jessezappy
25 天前
docker
·
dify
·
anythingllm
·
ollama
·
本地知识库
·
ragflow
·
deepseek
记录:安装 Docker Desktop 时直接设置安装路径及容器存储路径
近期学用 deepseek + 本地知识库的构建,准备尝试几个不同的 RAG 工具,结果基本都需要 Docker 支持,故又重新拾起 Docker 来安装,刚好看到个不用目录链接就可以直接设置安装路径的方法,就记录一下,以免以后忘记了不好找:
程序员洲洲
1 个月前
ai
·
大模型
·
todesk
·
性能
·
云电脑
·
ollama
3款顶流云电脑与传统电脑性能PK战:START云游戏/无影云/ToDesk云电脑谁更流畅?
作为刚步入社会的大学毕业生,处于学校到工作上班的过渡时期,平时下班无聊,就想打打游戏放松一下。但过去为了努力学习只买了纯办公的笔记本,显卡性能弱、电脑老化、运行卡顿、画质模糊…导致游戏体验极差。这时我开始接触了云电脑服务,尝试在联网基础上利用手上这台办公本接入市面上成熟的云电脑,终于!让我体验到了高性能云电脑带来的顺畅与便捷了。
仙人掌_lz
1 个月前
java
·
人工智能
·
servlet
·
ai
·
大模型
·
llm
·
ollama
如何在本地使用Ollama运行 Hugging Face 模型
你是否曾经在 Hugging Face 上发现了一个超棒的模型,然后幻想着能在自己的笔记本电脑上离线运行它,还能通过一个清爽的 API 让你的应用轻松访问?
穷人小水滴
1 个月前
llm
·
aigc
·
ollama
制造一只电子喵 (qwen2.5:0.5b 微调 LoRA 使用 llama-factory)
AI (神经网络模型) 可以认为是计算机的一种新的 "编程" 方式. 为了充分利用计算机, 只学习传统的编程 (编程语言/代码) 是不够的, 我们还要掌握 AI.
cxr828
1 个月前
人工智能
·
智能体
·
ollama
·
mcp
Google ADK(Agent Development Kit)简要示例说明
创建 agent_card.json:在 toolchain.yaml 中定义工具:使用 FlowStudio 设计工作流:
百年孤独百年
1 个月前
分布式
·
大模型
·
负载均衡
·
llama
·
ollama
·
deepseek
Ollama调用多GPU实现负载均衡
默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。 本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环境变量,从而实现多 GPU 的高效利用与负载均衡。
Silence4Allen
1 个月前
ubuntu
·
vllm
·
ollama
·
llama-factory
·
openwebui
·
lmdeploy
Ubuntu 22.04 AI大模型环境配置及常用工具安装
建议使用 Ubuntu22.04 以下配置皆以 Ubuntu22.04 系统版本为例【建议安装 3.10】(安装miniconda或者conda来管理虚拟环境)
云原生应用市场
1 个月前
chatgpt
·
ollama
·
deepseek
如何零代码搭建ChatGPT级界面?
随着开源 AI 模型的普及,部署 AI 应用已经是常态化的操作,但安装部署仍然会遇到各种问题,即使在浏览器上搜索找去解决问题,但还会遇到下一个问题,光安装部署已经让人很头疼。下面讲述的方式能让 OpenWebUI 应用一键部署,开箱即用!
十步杀一人_千里不留行
1 个月前
macos
·
ollama
如何在最新的 Mac mini M4 机器上,让 Ollama 支持局域网访问
如果你在 Mac mini 4 上使用 Ollama,并希望让同一局域网上的其他设备通过 IP 访问 Ollama API,那么必须解决一个关键问题: