ollama

七夜zippoe2 天前
性能优化·大模型·模型量化·ollama
使用Ollama在消费级硬件上运行大模型:从环境配置到企业级实战目录摘要1 技术原理与架构设计1.1 Ollama架构设计理念1.2 核心算法实现1.3 性能特性分析
互联网老欣3 天前
服务器·阿里云·ai·云计算·dify·ollama·deepseek
2025年保姆级教程:阿里云服务器部署Dify+Ollama,打造专属AI应用平台作为开源的LLM应用开发平台,Dify凭借易用的可视化操作、完善的RAG引擎和灵活的工作流编排能力,成为比LangChain更适合生产环境的选择。很多开发者想搭建专属AI应用,但本地部署受硬件限制,云服务器部署成为最优解。
wuli_滔滔5 天前
vllm·ollama·qwen2.5·llama 3.1
Qwen2.5、Llama 3.1轻量模型本地化部署指南:从环境配置到企业级实战目录摘要1 技术原理与架构设计1.1 轻量模型本地化部署的核心价值1.2 本地化部署架构设计理念1.3 核心算法与性能特性
重整旗鼓~6 天前
openai·springboot·ollama·langchain4j
2.LangChain4j+springboot+大模型整合代码调用大模型的方式有两种:1.LangChain4j https://docs.langchain4j.dev/
用什么都重名7 天前
人工智能·ollama·自加载
设置 Ollama 容器自动重启和模型自动加载的方法目录前言一、容器自启动✅ 方法一:在启动容器时直接加入 --restart=always✅ 方法二:如果容器已创建,只需修改 restart policy
七夜zippoe11 天前
vllm·ollama·qwen2.5·gradio web·企业级api
基于Qwen2.5-7B-Chat的本地化部署实战——从模型原理到企业级应用目录摘要1. 技术原理与架构设计1.1 Qwen2.5模型架构解析1.2 系统架构设计1.3 核心算法实现
Jack_abu16 天前
llm·rag·ollama
RAG系统学习之——RAG技术详解与实战指南在深入了解RAG(检索增强生成)技术之前,我们需要先理解为什么这项技术会出现,以及它解决了什么问题。知识截止时间问题
血小溅18 天前
ollama
Ollama 鉴权方案实现教程Ollama 是一款轻量级本地大模型运行工具,默认情况下没有内置鉴权机制,直接暴露端口存在安全风险(如未授权访问、滥用资源等)。为保护服务安全,需通过额外手段实现访问控制。
York·Zhang23 天前
人工智能·语言模型·自然语言处理·ollama
Ollama:在本地运行大语言模型的利器Ollama 是一款开源工具,旨在极大地简化在个人计算机上下载、设置和运行大型语言模型(LLM)的过程。它将复杂的模型配置、依赖管理和硬件加速设置打包成一个简单易用的命令行工具,让开发者和爱好者能像运行 Docker 容器一样,轻松地在本地部署和交互各种强大的开源 LLM。
大模型教程1 个月前
llm·agent·ollama
30分钟内搞定!在本地电脑上部署属于你自己的大模型本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。你是不是也遇到过这样的情况:想用大模型搭建个智能客服系统,但又担心数据泄露、网络延迟,或者只是想在本机先调试测试?别担心,今天我就来带你一步步在本地电脑上部署属于你自己的大模型!无需深厚的技术背景,只要跟着做,30分钟内就能搞定!
血小溅1 个月前
后端·ollama·deepseek
Spring Boot 整合 Spring AI:接入 DeepSeek 与 Ollama 调用大模型本文将介绍如何使用 Spring Boot 整合 Spring AI 框架,实现对 DeepSeek 在线模型和 Ollama 本地模型的调用。通过本文,你将学习:
大模型教程1 个月前
llm·agent·ollama
Windows系统本地知识库构建:Cherry Studio+Ollama本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。本地部署对硬件有一定要求。建议至少拥有16GB内存和一块支持CUDA(NVIDIA)或Metal(Apple Silicon)的显卡,以获得流畅的体验。CPU也可以运行,但速度会慢很多。
Qiuner1 个月前
语言模型·langchain·nlp·llama·ollama
快速入门LangChain4j Ollama本地部署与阿里百炼请求大模型有能力啃文档的可以看下面一手资料官方文档:https://docs.langchain4j.dev github : https://github.com/langchain4j/langchain4j twitter : https://twitter.com/intent/follow?screen_name=langchain4j
景天科技苑1 个月前
人工智能·llm·agent·智能体·ai智能体·ollama·智能体搭建
【AI智能体开发】什么是LLM?如何在本地搭建属于自己的Ai智能体?✨✨ 欢迎大家来到景天科技苑✨✨🎈🎈 养成好习惯,先赞后看哦~🎈🎈🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Rust开发,Python全栈,Golang开发,云原生开发,PyQt5和Tkinter桌面开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi,flask等框架,云原生K8S,linux,shell
尽兴-1 个月前
macos·ai·chatgpt·大模型·ollama·私有化
【10 分钟!M4 Mac mini 离线部署「私有 ChatGPT」完整实录】(支持上传文件 / 图片 / 代码高亮,全程 4 命令 3 点击)2025 年,开源大模型已卷到 8B 就能打 GPT-3.5。 手里这台 M4 Mac mini(24 GB + 512 GB)空着也是吃灰,不如 10 分钟搭一个「离线 ChatGPT」:
成子不是橙子1 个月前
开发语言·python·langchain·ollama
Langchain | Ollama | Python快速上手使用LLM的DEMOMacOS python3.12.* ollama点击下载安装Ollamalangchain-ollama有三种集成模式,chat_models、embeddings、llms,可通简单阅读文档,获取使用方式。
深色風信子2 个月前
rag·ollama·springai·springai ollama
SpringAI 本地调用 OllamaLangChain4j 详细介绍 LangChain4j 是一个专为 Java 生态系统设计的开源框架,旨在简化大语言模型(LLM)与应用程序的集成,提供了构建基于 LLM 的复杂应用所需的核心组件和工具。其设计理念借鉴了 Python 生态的 LangChain,但针对 Java 开发者的习惯和需求进行了优化。
大模型教程2 个月前
程序员·llm·ollama
AI 新玩法:GraphRAG × Ollama 打造更聪明的智能体本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。GraphRAG(基于图的检索增强生成)就像是给你的AI装了一张知识地图,让它能自由导航。传统的AI系统,比如聊天机器人,通常靠简单搜索找答案。它们在文本堆里找关键词,有时候会漏掉整体的大局。GraphRAG通过将信息组织成一个知识图谱来改变这一现状——这是一个由节点(比如人、地点或事物)和它们之间的关系(比如“居住在”或“为某人工作”)构成的互联网络。
tongsound2 个月前
ollama·deepseek
ollama部署本地模型(deepseek,qwen,gemma3,...)ollama 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(deepseek,qwen,gemma3,...)。
laizi_laizi2 个月前
ollama·openwebui
ollama+openwebui本地部署及踩坑记录使用 http://127.0.0.1:11434/ 访问Ollama显示Ollama is running,说明Ollama正常。