ollama

大模型教程18 小时前
程序员·llm·ollama
大模型本地部署:手把手带你在Mac本地部署运行AI大模型本文较长,建议点赞收藏,以免遗失。更多AI大模型开发 学习视频/籽料/面试题 都在这>>Github<<
陈佬昔没带相机6 天前
ollama·deepseek·mcp
Dify MCP功能实测,小参数模型竟然全军覆没!工具:Dify + Ollama内容:简单地图的天气 MCP Server 调用(腾讯地图因无法返回内容被踢出了测试)
会写代码的斯皮尔伯格7 天前
openai·微服务架构·java面试·rag·ollama·spring ai·spring boot 3
Spring Boot 3整合Spring AI实战:9轮面试对话解析AI应用开发周先生:cc,先聊聊Spring AI的基础配置吧。如何在Spring Boot 3项目中集成Ollama?
萌主墩墩8 天前
llm·qwen·ollama·deepseek
趣玩-Ollama-Llm-Chatrbotllm_chat_robot_release_v_1_0_0llm-chat-robot完整Python工程
AI大模型9 天前
llm·ollama·deepseek
五分钟搭建属于你的AI助手:Ollama+DeepSeek+AnythingLLM深度整合随着人工智能的发展,大模型的应用越来越广泛,它们不仅能够理解自然语言,还能在特定领域内提供专业化的知识服务。为了满足个人或小型团队对于数据隐私保护的需求,本地部署大模型并搭建私有知识库成为了一种趋势。本文将介绍如何使用Ollama、DeepSeek和AnythingLLM来构建这样一个系统,使您能够在自己的计算机上运行强大的AI模型,并利用其进行高效的知识管理和智能问答。
Hi2024021713 天前
macos·知识库·dify·ollama
macOS 12.7.6部署Ollama+Dify避坑指南Ollama是一个本地化大语言模型运行框架,支持在个人电脑上运行各类开源AI模型(如Llama、Mistral等)。Dify则是一个可视化AI应用开发平台,通过图形界面快速构建AI工作流。本文记录在macOS 12.7.6系统下部署两者的避坑指南。
Blessed_Li15 天前
llm·rag·ollama·graphrag
Linux系统安装部署GraphRAG完全指南GraphRAG(Graph-based Retrieval-Augmented Generation)是微软开源的新一代知识图谱增强型检索生成技术,它通过构建实体关系网络来提升传统RAG的全局理解能力。与传统基于文本块的RAG不同,GraphRAG能够:
胡耀超18 天前
运维·docker·容器·大模型·知识图谱·rag·ollama
GraphRAG Docker化部署,接入本地Ollama完整技术指南:从零基础到生产部署的系统性知识体系相关推荐:Umi-OCR 的 Docker安装(win制作镜像,Linux(Ubuntu Server 22.04)离线部署)
会飞的果粒橙1 个月前
ollama·deepseek
在Ubuntu24上安装ollama安装ollama之前,建议检查显卡驱动是否安装完成。如果还未安装显卡驱动,建议先安装显卡驱动再安装ollama。
_pass_1 个月前
ollama·ragflow
Docker 运行RAGFlow 搭建RAG知识库借鉴视频:DeepSeek 10分钟完全本地部署 保姆级教程 断网运行 无惧隐私威胁 大语言模型 CPU GPU 混合推理32B轻松本地部署!DeepSeek模拟王者!!_哔哩哔哩_bilibili
关山月1 个月前
ollama
使用 Ollama 和 Next.js 构建 AI 助理(使用 LangChain、Pinecone 和 Ollama 实现 RAG)在前两部分中,我们介绍了如何使用 Ollama、Next.js 和不同包集成来本地设置 AI 助理。在本文中,我们将深入探讨如何使用 RAG(检索增强生成) 和 LangChain、Ollama 以及 Pinecone 构建基于知识库的 AI 助理。
ZackSock1 个月前
llm·ollama·mcp
自己开发 MCP 服务器MCP 已经火了一段时间了,目前也有许多现有的 MCP 服务器。今天我们要做的是自己开发一个 MCP 服务器,并编写 MCP 客户端,调用 MCP 服务器。并使用本地大语言模型与之联动。
陈佬昔没带相机2 个月前
人工智能·ollama·deepseek
基于 open-webui 搭建企业级知识库已安装 ollama(建议版本不低于0.5.0)首先确保已安装 python 和 pip 工具,可通过python --version检查版本是 3.11 以上。
bug菌2 个月前
人工智能·ollama·deepseek
手把手教你DeepSeek-R1本地部署和企业知识库搭建(Ollama+DeepSeek+RAGFlow)【保姆级教学】在当下AI技术迅猛发展的浪潮中,越来越多的企业和个人希望借助大模型来提升自身的知识管理与智能问答能力。DeepSeek-R1 作为国产开源大模型中的佼佼者,因其强大的语言理解能力而备受关注。而借助 Ollama 实现本地轻量化部署,再结合 RAGFlow 构建专属的企业知识库,已成为打造智能问答系统的热门方案。
人工智能小豪2 个月前
大数据·人工智能·transformer·anythingllm·ollama·大模型应用
2025年大模型平台落地实践研究报告|附75页PDF文件下载本报告旨在为各行业企业在建设落地大模型平台的过程中,提供有效的参考和指引,助力大模型更高效更有价值地规模化落地。本报告系统性梳理了大模型平台的发展背景、历程和现状,结合大模型平台的特点提出了具体的落地策略与路径,同时详细分析了大模型平台的关键能力及其建设要点,并对多个行业的落地案例进行了深入剖析,最后对大模型平台的发展趋势进行展望。
AI大模型2 个月前
程序员·llm·ollama
Ollama系列教程(八):semantic kernel调用ollama接口我是对本地大模型有执念的!因为它安全性好,数据完全被自己掌控。在前面的内容里面分享了如何使用OllamaSharp访问ollama接口,今天分享如何使用Semantic Kernel来访问ollama接口。
理论最高的吻2 个月前
ai·本地部署·ollama·deepseek
本地部署 DeepSeek R1(最新)【从下载、安装、使用和调用一条龙服务】官方网址:Ollama官网下载很慢,甚至出现了下载完显示 无法下载,需要授权目前有两个解决方式:复制下载链接,使用迅雷进行下载【右键点击正在下载文件,然后点击复制下载链接】
老大白菜2 个月前
python·ollama
构建多模型协同的Ollama智能对话系统在人工智能应用中,单一模型往往难以满足复杂场景的需求。本文将介绍如何整合多个Ollama模型,构建一个智能对话系统,实现情感分析、危机评估和智能回复的协同功能。
-曾牛2 个月前
java·人工智能·spring boot·后端·聊天机器人·本地部署·ollama
Spring Boot 深度集成 Ollama 指南:从聊天模型配置到生产级应用开发在人工智能应用开发中,大语言模型(LLM)的本地化部署需求日益增长。Ollama 作为开源的本地LLM运行平台,支持Mistral、LLaMA等主流模型,并提供与OpenAI兼容的API接口,而 Spring AI 则为Java开发者提供了便捷的集成工具链。本文将结合Spring Boot框架,详细讲解如何通过Spring AI实现Ollama聊天模型的全生命周期管理,涵盖基础配置、高级功能开发及生产环境优化,帮助开发者构建高效、可控的本地化智能应用。
壶小旭2 个月前
ollama·ollama list
ollama list模型列表获取 接口代码