ollama

一起屠龙4 天前
llm·ollama
SpringAi+milvus向量数据库实现基于本地知识问答利用 AI 大模型(如 GPT、BERT)对文本、图像等数据生成高维向量(Embedding),捕捉其语义特征,然后将这些向量存储到向量数据库(如 Milvus、Pinecone)中并建立索引。当用户提问时,使用相同的模型将问题转换为向量,在数据库中通过相似性搜索快速找到最相关的知识条目。整个过程在本地完成,确保隐私和低延迟,同时结合大模型可进一步优化回答质量,实现智能化的知识检索与交互。
jessezappy5 天前
docker·dify·anythingllm·ollama·本地知识库·ragflow·deepseek
记录:安装 Docker Desktop 时直接设置安装路径及容器存储路径近期学用 deepseek + 本地知识库的构建,准备尝试几个不同的 RAG 工具,结果基本都需要 Docker 支持,故又重新拾起 Docker 来安装,刚好看到个不用目录链接就可以直接设置安装路径的方法,就记录一下,以免以后忘记了不好找:
程序员洲洲5 天前
ai·大模型·todesk·性能·云电脑·ollama
3款顶流云电脑与传统电脑性能PK战:START云游戏/无影云/ToDesk云电脑谁更流畅?作为刚步入社会的大学毕业生,处于学校到工作上班的过渡时期,平时下班无聊,就想打打游戏放松一下。但过去为了努力学习只买了纯办公的笔记本,显卡性能弱、电脑老化、运行卡顿、画质模糊…导致游戏体验极差。这时我开始接触了云电脑服务,尝试在联网基础上利用手上这台办公本接入市面上成熟的云电脑,终于!让我体验到了高性能云电脑带来的顺畅与便捷了。
仙人掌_lz6 天前
java·人工智能·servlet·ai·大模型·llm·ollama
如何在本地使用Ollama运行 Hugging Face 模型你是否曾经在 Hugging Face 上发现了一个超棒的模型,然后幻想着能在自己的笔记本电脑上离线运行它,还能通过一个清爽的 API 让你的应用轻松访问?
穷人小水滴8 天前
llm·aigc·ollama
制造一只电子喵 (qwen2.5:0.5b 微调 LoRA 使用 llama-factory)AI (神经网络模型) 可以认为是计算机的一种新的 "编程" 方式. 为了充分利用计算机, 只学习传统的编程 (编程语言/代码) 是不够的, 我们还要掌握 AI.
cxr8289 天前
人工智能·智能体·ollama·mcp
Google ADK(Agent Development Kit)简要示例说明创建 agent_card.json:在 toolchain.yaml 中定义工具:使用 FlowStudio 设计工作流:
百年孤独百年9 天前
分布式·大模型·负载均衡·llama·ollama·deepseek
Ollama调用多GPU实现负载均衡默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。 本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环境变量,从而实现多 GPU 的高效利用与负载均衡。
Silence4Allen10 天前
ubuntu·vllm·ollama·llama-factory·openwebui·lmdeploy
Ubuntu 22.04 AI大模型环境配置及常用工具安装建议使用 Ubuntu22.04 以下配置皆以 Ubuntu22.04 系统版本为例【建议安装 3.10】(安装miniconda或者conda来管理虚拟环境)
云原生应用市场12 天前
chatgpt·ollama·deepseek
如何零代码搭建ChatGPT级界面?随着开源 AI 模型的普及,部署 AI 应用已经是常态化的操作,但安装部署仍然会遇到各种问题,即使在浏览器上搜索找去解决问题,但还会遇到下一个问题,光安装部署已经让人很头疼。下面讲述的方式能让 OpenWebUI 应用一键部署,开箱即用!
十步杀一人_千里不留行13 天前
macos·ollama
如何在最新的 Mac mini M4 机器上,让 Ollama 支持局域网访问如果你在 Mac mini 4 上使用 Ollama,并希望让同一局域网上的其他设备通过 IP 访问 Ollama API,那么必须解决一个关键问题:
fbbmore13 天前
人工智能·ollama
LlamaIndex+Ollama构建《劳动法》问答机器人本文将一步一步引导大家如何使用LlamaIndex和Ollama构建一个针对《劳动法》的问答机器人。这个机器人能够理解并回答关于这本劳动法的各种问题。
用户4221907734314 天前
ollama
01. 使用ollama运行本地模型Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。
勤奋的树懒16 天前
docker·junit·压力测试·ollama·deepseek·dify压力测试·dify性能调优
本地部署DeepSeek-R1(Dify压力测试和性能调优)为了有效测试,应在局域网设备测试,我这里用的服务器是局域网内的Ubuntu,下载的压测软件是WRK为了省事我直接在/root目录下新建lua脚本
肥猪猪爸16 天前
人工智能·语言模型·自然语言处理·langchain·大模型·ollama·deepseek
浅析RAG技术:大语言模型的知识增强之道在人工智能领域,大型语言模型(LLMs)如GPT-4、Llama3等展现出了惊人的文本生成能力,但它们也面临着知识滞后、事实性错误等挑战。Retrieval-Augmented Generation(RAG)技术应运而生,通过将信息检索与文本生成相结合,显著提升了AI系统的准确性和可靠性。本文将全面剖析RAG技术的原理、实现和最佳实践。
阿杜杜不是阿木木16 天前
linux·git·vscode·ai·intellij-idea·ollama
使用ollama部署本地大模型(没有GPU也可以),实现IDEA和VS Code的git commit自动生成问豆包,提示词如下:收集下ollama相关信息,包括但不限于:官网地址/GitHub地址/文档地址https://ollama.com/
与海boy16 天前
ollama·spring ai·deepseek
SpringAI整合Ollama集成DeepSeekgithub api官网
浪淘沙jkp17 天前
学习·ollama·deepseek
大模型学习三:DeepSeek R1蒸馏模型组ollama调用流程目前DeepSeek R1及其蒸馏模型均支持使用ollama进行调用,可以在模型主页查看调用情况deepseek-r1https://ollama.com/library/deepseek-r1
缘友一世17 天前
开源·llm·ollama·deepseek
开源的 LLM 应用开发平台Dify的安装和使用创建知识库,上传文本文件设置分段标识和索引方式、向量化模型创建Chatflow应用,并填写基本信息,点击创建
王亭_66618 天前
人工智能·大模型·ollama·openwebui·deepseek
Ollama+open-webui搭建私有本地大模型详细教程Ollama 是一个轻量级的 AI 模型运行时,专注于简化 AI 模型的部署和使用。它支持多种预训练模型(如 Llama、Vicuna、Dolly 等),并且可以在本地运行,无需复杂的基础设施。Ollama 的设计理念是让 AI 模型的使用变得像运行普通程序一样简单,同时确保数据和隐私的安全性。
Golinie19 天前
大模型·gin·ollama·langchaingo
Ollama+Langchaingo+Gin开发本地LLM简单应用通过Ollama+Langchaingo+Gin搭建本地LLM应用。这里简单再阐述下面几个相关概念。Ollama:是开源跨平台大模型工具。它支持多种先进的语言模型,如 qwen、llama 等,让用户能在服务器中运行这些模型。用户可以利用它进行文本生成、翻译、代码编写、问答等多种自然语言处理任务,并且具有易于集成、可本地部署、支持模型微调等特点。也就是可以帮助我们本地运行大语言模型的一个工具。