技术栈
ollama
七夜zippoe
2 天前
性能优化
·
大模型
·
模型量化
·
ollama
使用Ollama在消费级硬件上运行大模型:从环境配置到企业级实战
目录摘要1 技术原理与架构设计1.1 Ollama架构设计理念1.2 核心算法实现1.3 性能特性分析
互联网老欣
3 天前
服务器
·
阿里云
·
ai
·
云计算
·
dify
·
ollama
·
deepseek
2025年保姆级教程:阿里云服务器部署Dify+Ollama,打造专属AI应用平台
作为开源的LLM应用开发平台,Dify凭借易用的可视化操作、完善的RAG引擎和灵活的工作流编排能力,成为比LangChain更适合生产环境的选择。很多开发者想搭建专属AI应用,但本地部署受硬件限制,云服务器部署成为最优解。
wuli_滔滔
5 天前
vllm
·
ollama
·
qwen2.5
·
llama 3.1
Qwen2.5、Llama 3.1轻量模型本地化部署指南:从环境配置到企业级实战
目录摘要1 技术原理与架构设计1.1 轻量模型本地化部署的核心价值1.2 本地化部署架构设计理念1.3 核心算法与性能特性
重整旗鼓~
6 天前
openai
·
springboot
·
ollama
·
langchain4j
2.LangChain4j+springboot+大模型整合
代码调用大模型的方式有两种:1.LangChain4j https://docs.langchain4j.dev/
用什么都重名
7 天前
人工智能
·
ollama
·
自加载
设置 Ollama 容器自动重启和模型自动加载的方法
目录前言一、容器自启动✅ 方法一:在启动容器时直接加入 --restart=always✅ 方法二:如果容器已创建,只需修改 restart policy
七夜zippoe
11 天前
vllm
·
ollama
·
qwen2.5
·
gradio web
·
企业级api
基于Qwen2.5-7B-Chat的本地化部署实战——从模型原理到企业级应用
目录摘要1. 技术原理与架构设计1.1 Qwen2.5模型架构解析1.2 系统架构设计1.3 核心算法实现
Jack_abu
16 天前
llm
·
rag
·
ollama
RAG系统学习之——RAG技术详解与实战指南
在深入了解RAG(检索增强生成)技术之前,我们需要先理解为什么这项技术会出现,以及它解决了什么问题。知识截止时间问题
血小溅
18 天前
ollama
Ollama 鉴权方案实现教程
Ollama 是一款轻量级本地大模型运行工具,默认情况下没有内置鉴权机制,直接暴露端口存在安全风险(如未授权访问、滥用资源等)。为保护服务安全,需通过额外手段实现访问控制。
York·Zhang
23 天前
人工智能
·
语言模型
·
自然语言处理
·
ollama
Ollama:在本地运行大语言模型的利器
Ollama 是一款开源工具,旨在极大地简化在个人计算机上下载、设置和运行大型语言模型(LLM)的过程。它将复杂的模型配置、依赖管理和硬件加速设置打包成一个简单易用的命令行工具,让开发者和爱好者能像运行 Docker 容器一样,轻松地在本地部署和交互各种强大的开源 LLM。
大模型教程
1 个月前
llm
·
agent
·
ollama
30分钟内搞定!在本地电脑上部署属于你自己的大模型
本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。你是不是也遇到过这样的情况:想用大模型搭建个智能客服系统,但又担心数据泄露、网络延迟,或者只是想在本机先调试测试?别担心,今天我就来带你一步步在本地电脑上部署属于你自己的大模型!无需深厚的技术背景,只要跟着做,30分钟内就能搞定!
血小溅
1 个月前
后端
·
ollama
·
deepseek
Spring Boot 整合 Spring AI:接入 DeepSeek 与 Ollama 调用大模型
本文将介绍如何使用 Spring Boot 整合 Spring AI 框架,实现对 DeepSeek 在线模型和 Ollama 本地模型的调用。通过本文,你将学习:
大模型教程
1 个月前
llm
·
agent
·
ollama
Windows系统本地知识库构建:Cherry Studio+Ollama
本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。本地部署对硬件有一定要求。建议至少拥有16GB内存和一块支持CUDA(NVIDIA)或Metal(Apple Silicon)的显卡,以获得流畅的体验。CPU也可以运行,但速度会慢很多。
Qiuner
1 个月前
语言模型
·
langchain
·
nlp
·
llama
·
ollama
快速入门LangChain4j Ollama本地部署与阿里百炼请求大模型
有能力啃文档的可以看下面一手资料官方文档:https://docs.langchain4j.dev github : https://github.com/langchain4j/langchain4j twitter : https://twitter.com/intent/follow?screen_name=langchain4j
景天科技苑
1 个月前
人工智能
·
llm
·
agent
·
智能体
·
ai智能体
·
ollama
·
智能体搭建
【AI智能体开发】什么是LLM?如何在本地搭建属于自己的Ai智能体?
✨✨ 欢迎大家来到景天科技苑✨✨🎈🎈 养成好习惯,先赞后看哦~🎈🎈🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Rust开发,Python全栈,Golang开发,云原生开发,PyQt5和Tkinter桌面开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi,flask等框架,云原生K8S,linux,shell
尽兴-
1 个月前
macos
·
ai
·
chatgpt
·
大模型
·
ollama
·
私有化
【10 分钟!M4 Mac mini 离线部署「私有 ChatGPT」完整实录】
(支持上传文件 / 图片 / 代码高亮,全程 4 命令 3 点击)2025 年,开源大模型已卷到 8B 就能打 GPT-3.5。 手里这台 M4 Mac mini(24 GB + 512 GB)空着也是吃灰,不如 10 分钟搭一个「离线 ChatGPT」:
成子不是橙子
1 个月前
开发语言
·
python
·
langchain
·
ollama
Langchain | Ollama | Python快速上手使用LLM的DEMO
MacOS python3.12.* ollama点击下载安装Ollamalangchain-ollama有三种集成模式,chat_models、embeddings、llms,可通简单阅读文档,获取使用方式。
深色風信子
2 个月前
rag
·
ollama
·
springai
·
springai ollama
SpringAI 本地调用 Ollama
LangChain4j 详细介绍 LangChain4j 是一个专为 Java 生态系统设计的开源框架,旨在简化大语言模型(LLM)与应用程序的集成,提供了构建基于 LLM 的复杂应用所需的核心组件和工具。其设计理念借鉴了 Python 生态的 LangChain,但针对 Java 开发者的习惯和需求进行了优化。
大模型教程
2 个月前
程序员
·
llm
·
ollama
AI 新玩法:GraphRAG × Ollama 打造更聪明的智能体
本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。GraphRAG(基于图的检索增强生成)就像是给你的AI装了一张知识地图,让它能自由导航。传统的AI系统,比如聊天机器人,通常靠简单搜索找答案。它们在文本堆里找关键词,有时候会漏掉整体的大局。GraphRAG通过将信息组织成一个知识图谱来改变这一现状——这是一个由节点(比如人、地点或事物)和它们之间的关系(比如“居住在”或“为某人工作”)构成的互联网络。
tongsound
2 个月前
ollama
·
deepseek
ollama部署本地模型(deepseek,qwen,gemma3,...)
ollama 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(deepseek,qwen,gemma3,...)。
laizi_laizi
2 个月前
ollama
·
openwebui
ollama+openwebui本地部署及踩坑记录
使用 http://127.0.0.1:11434/ 访问Ollama显示Ollama is running,说明Ollama正常。