ollama

拖拉斯旋风3 小时前
前端·javascript·ollama
从零开始:使用 Ollama 在本地部署开源大模型并集成到 React 应用在人工智能浪潮席卷全球的今天,大模型已经成为开发者和企业的标配工具。然而,当我们谈论使用大模型时,往往面临两个核心问题:数据安全和成本控制。
栀秋6663 小时前
react.js·llm·ollama
智能驱动的 Git 提交:基于 Ollama 大模型的规范化提交信息生成方案摘要 在现代软件开发中,清晰、规范的 Git 提交信息不仅是版本控制的核心组成部分,更是团队协作、代码审查、项目复盘和自动化流程的重要依据。然而,传统手动编写提交信息的方式存在效率低、格式不统一、语义模糊等问题,尤其对新手开发者而言,掌握如 Angular 规范等标准格式门槛较高。
怎么追摩羯座8 小时前
ide·python·pycharm·大模型·ollama
使用PyCharm调用Ollama,制作智能问答机器人PyCharm安装及配置:https://blog.csdn.net/Viciower/article/details/156786022
xiaoxue..9 小时前
javascript·面试·node.js·大模型·ollama
把大模型装进自己电脑:Ollama 本地部署大模型完全指南在 AI 大模型席卷各行各业的今天,从代码生成到智能对话,大模型已经成为程序员、产品人日常工作的 “标配工具”✨。
ohyeah1 天前
langchain·全栈·ollama
打造 AI 驱动的 Git 提交规范助手:基于 React + Express + Ollama+langchain 的全栈实践在现代软件开发中,高质量的 Git 提交信息不仅是团队协作的基础,更是项目可维护性、可追溯性和工程文化的重要体现。然而,许多开发者(尤其是初学者)常常忽略提交信息的规范性,导致提交日志混乱、难以理解,甚至影响 Code Review 和故障排查效率。
维度攻城狮1 天前
gpt·zotero·ollama·awesome gpt
科研提速!Zotero Awesome GPT 搭配本地 Ollama 模型使用指南zotero作为科研神器就不用多说了,现在ai发展这么好,不结合一下实在难以说得过去😎。最近给它配置AI插件Awesome GPT,zotero的使用更加顺手了,比如使用AI总结文献、提取创新点、AI翻译等等,想让AI帮我干啥都行。但是呢,使用API费钱,为了省那三瓜两枣😏,同时保护数据的隐私性,这里介绍zotero调用本地模型的方法。
FranzLiszt18472 天前
langchain·fastgpt·rag·ollama·one api
基于One API 将本地 Ollama 模型接入 FastGPTOllama:https://ollama.com/在Ollama选择好大模型后可以在terminal运行。例如我们选择deepseek-r1:1.5b,则使用ollama run deepseek-r1:1.5b运行并下载至本地,在终端就会出现与网页大模型交互一样的问答。
学习在路上ing5 天前
java·ollama
ollama部署模型自行选定版本 Download Ollama on Windows注:Ollama默认安装目录是C盘的用户目录,如果不希望安装在C盘的话,使用下述方法:
白菜上路5 天前
cuda·dify·ollama
ollama+dify安装暂时没有图文,下次有再次安装的时候再配图文安装驱动后黑屏/无法进入系统 尝试在GRUB引导时选择“Advanced options”,使用恢复模式 卸载驱动后重新安装 nvidia-smi命令找不到 确认驱动是否正确安装 检查PATH环境变量是否包含/usr/bin/ CUDA版本不匹配 确保CUDA工具包版本不超过驱动支持的最高版本
海棠AI实验室7 天前
llm·ollama
Ollama 本地化 LLM 全攻略:从安装到生产化实践你是否想把大型语言模型(LLM)放在本地运行,而非依赖 OpenAI/云服务? 或者刚接触 Ollama,不知道如何构建可维护、可复现、可扩展的本地 AI 环境?
技术小甜甜9 天前
ai·自动化·llm·agent·ollama·’人工智能·aider
[AI 工程实践] 远程调用 Ollama 报错解析:如何解决“本地文件找不到”的误区在使用 Ollama 进行局域网远程调用部署的过程中,一些开发者可能遇到过类似的错误提示:“找不到本地文件”或其他本地路径相关的异常。明明客户端的环境变量已经正确设置为远端 IP,直接通过 IP 请求也能获取到 JSON 响应,为什么程序却仍然报错?
Yeliang Wu12 天前
ollama
Ollama 学习笔记作者:吴业亮 博客:wuyeliang.blog.csdn.netOllama 是一个开源的大型语言模型(LLM)平台,致力于让用户能够轻松在本地运行、管理和与大型语言模型进行交互。它提供了简单的方式加载和使用各类预训练语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。与其他 NLP 框架不同,Ollama 旨在简化用户工作流程,让机器学习不再是只有深度技术背景的开发者才能触及的领域。同时,它支持多种硬件加速选项,包括纯 CPU 推理和各类底层计算架构(如 Apple Silicon),
AI大模型13 天前
llm·agent·ollama
使用本地 Ollama + Qwen 3 模型,结合 Obsidian 构建真正的本地隐私 RAG 知识库本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在这里。在上一篇文章中,我介绍了自己使用 Obsidian 结合 PARA 方法论搭建起了自己的本地知识库,同时介绍了如何使用 Gemini CLI 让 Obsidian 有了强大的 AI 能力。
技术小甜甜13 天前
人工智能·llm·ollama·openwebui
[AI] openwebui内网部署网页加载缓慢?一个设置绕过openai连接问题!在部署和使用开源 Web UI 项目如 openwebui 时,很多人会选择将其安装在内网环境中,既可以保证数据安全,又能避免公网依赖。然而,一些用户在完成部署后会遇到一个令人费解的问题:网页打开速度奇慢,动不动就卡住十几秒才能打开。
fanruitian17 天前
ai·聊天机器人·ollama·lobechat
lobechat使用ollama搭建自己的离线聊天AIdocker安装部署lobechat参考lobe https://github.com/lobehub/lobe-chat/blob/main/README.zh-CN.md
江湖人称小鱼哥17 天前
ollama
windows安装使用OllamaOllama是时下最容易部署本地大模型的工具了,可以把Ollama比做成docker,用户管理容器,而它是管理大模型
SCBAiotAigc19 天前
人工智能·python·ubuntu·ollama
在Ubuntu上使用docker compose安装普通(不支持GPU)的Ollama服务创建并配置docker-compose.yml:
fanruitian20 天前
大模型·qwen·ollama
windows安装离线大模型 ollama qwen傻瓜似的https://ollama.com/download下载安装笔记本显卡泰莱,跑大模型太费劲
福大大架构师每日一题21 天前
ollama
ollama v0.13.5 发布详解:新模型接入、引擎升级与工具能力增强ollama v0.13.5 于 2025 年 12 月 19 日正式发布。本次版本更新规模较大,共合并 10 次提交,涉及约 150 个文件的调整,新增代码 10997 行,删除代码 6838 行。更新内容主要集中在模型支持、引擎能力、工具定义与解析、以及底层推理和运行时优化等方面。
咩图22 天前
大模型·ollama·私有化
使用ollama完成私有大模型搭建1.下载ollama 2.根据自己电脑的配置选择一个大模型下载到本地 3.允许其他设备访问ollama 4.启动web服务 5.借用其他内网穿透工具将服务暴露到公网