ollama

Violet_Stray1 天前
docker·部署·ollama·deepseek
【Ollama】docker离线部署Ollama+deepseek因为要做项目,实验室的服务器不联网,所以只能先打包一个基础的docker环境,然后再在实验室的服务器上进行解压和配置环境 参考:https://zhuanlan.zhihu.com/p/23377266873
猿小猴子6 天前
ollama
在Window10 和 Ubuntu 24.04LTS 上 Ollama 在线或离线安装部署Ollama 是一个开源的大型语言模型(LLM)服务框架,旨在通过轻量化、跨平台的设计,简化大模型在本地环境中的部署与应用。其基于 Go 语言开发,通过 Docker 容器化技术封装模型运行环境,提供类似命令行工具的交互体验(如 pull、run 等指令),支持用户在 Windows、Linux、macOS 甚至树莓派等设备上快速启动 qwen3、deepseek 等主流开源模型。
暮乘白帝过重山13 天前
前端·chrome·ollama
Ollama 在本地分析文件夹中的文件使用 Ollama 在本地分析文件夹中的文件,通常需要结合模型的能力(如 LLaMA、CodeLLaMA 等)和文件预处理步骤。
whltaoin15 天前
spring boot·ollama
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人APISpring AI Alibaba 开源项目基于 Spring AI 构建,是阿里云通义系列模型及服务在 Java AI 应用开发领域的最佳实践,提供高层次的 AI API 抽象与云原生基础设施集成方案,帮助开发者快速构建 AI 应用。
漫谈网络16 天前
linux·ai·aigc·工具调用·ollama·tool calls
Ollama工具调用(Tool Calls)业务应用案例业务需求:用户通过聊天界面申请退货,模型需调用外部工具验证订单状态、触发退货流程,并返回处理结果。在请求中声明模型可调用的工具(函数)及其参数格式(JSON Schema):
漫谈网络17 天前
ai·llm·aigc·api·ollama
Ollama API 应用指南模型兼容性长上下文处理流式传输优化自定义模型集成通过此指南,可全面掌握 Ollama API 的核心功能,适用于开发聊天机器人、自动化脚本、语义分析等多种场景。
Roc.Chang18 天前
macos·语言模型·大模型·llm·ollama
释放 Mac 存储空间:Ollama 模型迁移到外接 NVMe 磁盘在本地运行 Ollama 时,模型数据默认保存在 ~/.ollama/models。 但对于 macOS 用户来说,苹果的存储是真的贵,真的是 Only Apple can do!!!所以就考虑存储外置的方案。
Cacciatore->19 天前
java·人工智能·python·ollama
Ollama 部署与基本应用官方仓库:https://github.com/ollama/ollamaOllama 是一个支持开源大语言模型(LLM)本地部署和运行的平台。它可以让开发者在本地计算机上轻松运行各种AI模型,无需依赖云端服务。Ollama 提供了简单的命令行界面和Web UI,支持模型的管理、推理和微调。
gblfy20 天前
linux·docker·dify·本地部署·ollama·deepseek·私有化
DeepSeek + Dify + Ollama + Docker + Linux 私有化部署,构建你的专属私人 AI 助手本篇文章安装环境:Linux Rocky Linux 9.5使用 Docker Compose 部署:Docker 27.5.1 或更高版本、Docker Compose 1.25.1 或更高版本 安装 Dify 之前,请确保你的机器已满足最低安装要求:CPU>2 Core RAM>=4GB
一起屠龙24 天前
llm·ollama
SpringAi+milvus向量数据库实现基于本地知识问答利用 AI 大模型(如 GPT、BERT)对文本、图像等数据生成高维向量(Embedding),捕捉其语义特征,然后将这些向量存储到向量数据库(如 Milvus、Pinecone)中并建立索引。当用户提问时,使用相同的模型将问题转换为向量,在数据库中通过相似性搜索快速找到最相关的知识条目。整个过程在本地完成,确保隐私和低延迟,同时结合大模型可进一步优化回答质量,实现智能化的知识检索与交互。
jessezappy25 天前
docker·dify·anythingllm·ollama·本地知识库·ragflow·deepseek
记录:安装 Docker Desktop 时直接设置安装路径及容器存储路径近期学用 deepseek + 本地知识库的构建,准备尝试几个不同的 RAG 工具,结果基本都需要 Docker 支持,故又重新拾起 Docker 来安装,刚好看到个不用目录链接就可以直接设置安装路径的方法,就记录一下,以免以后忘记了不好找:
程序员洲洲1 个月前
ai·大模型·todesk·性能·云电脑·ollama
3款顶流云电脑与传统电脑性能PK战:START云游戏/无影云/ToDesk云电脑谁更流畅?作为刚步入社会的大学毕业生,处于学校到工作上班的过渡时期,平时下班无聊,就想打打游戏放松一下。但过去为了努力学习只买了纯办公的笔记本,显卡性能弱、电脑老化、运行卡顿、画质模糊…导致游戏体验极差。这时我开始接触了云电脑服务,尝试在联网基础上利用手上这台办公本接入市面上成熟的云电脑,终于!让我体验到了高性能云电脑带来的顺畅与便捷了。
仙人掌_lz1 个月前
java·人工智能·servlet·ai·大模型·llm·ollama
如何在本地使用Ollama运行 Hugging Face 模型你是否曾经在 Hugging Face 上发现了一个超棒的模型,然后幻想着能在自己的笔记本电脑上离线运行它,还能通过一个清爽的 API 让你的应用轻松访问?
穷人小水滴1 个月前
llm·aigc·ollama
制造一只电子喵 (qwen2.5:0.5b 微调 LoRA 使用 llama-factory)AI (神经网络模型) 可以认为是计算机的一种新的 "编程" 方式. 为了充分利用计算机, 只学习传统的编程 (编程语言/代码) 是不够的, 我们还要掌握 AI.
cxr8281 个月前
人工智能·智能体·ollama·mcp
Google ADK(Agent Development Kit)简要示例说明创建 agent_card.json:在 toolchain.yaml 中定义工具:使用 FlowStudio 设计工作流:
百年孤独百年1 个月前
分布式·大模型·负载均衡·llama·ollama·deepseek
Ollama调用多GPU实现负载均衡默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。 本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环境变量,从而实现多 GPU 的高效利用与负载均衡。
Silence4Allen1 个月前
ubuntu·vllm·ollama·llama-factory·openwebui·lmdeploy
Ubuntu 22.04 AI大模型环境配置及常用工具安装建议使用 Ubuntu22.04 以下配置皆以 Ubuntu22.04 系统版本为例【建议安装 3.10】(安装miniconda或者conda来管理虚拟环境)
云原生应用市场1 个月前
chatgpt·ollama·deepseek
如何零代码搭建ChatGPT级界面?随着开源 AI 模型的普及,部署 AI 应用已经是常态化的操作,但安装部署仍然会遇到各种问题,即使在浏览器上搜索找去解决问题,但还会遇到下一个问题,光安装部署已经让人很头疼。下面讲述的方式能让 OpenWebUI 应用一键部署,开箱即用!
十步杀一人_千里不留行1 个月前
macos·ollama
如何在最新的 Mac mini M4 机器上,让 Ollama 支持局域网访问如果你在 Mac mini 4 上使用 Ollama,并希望让同一局域网上的其他设备通过 IP 访问 Ollama API,那么必须解决一个关键问题: