本地部署

comedate5 天前
大模型·本地部署·ollama·vibe coding
【OpenClaw】 8GB 显卡本地大模型部署指南本文档整理自实际问答,针对 8GB 显存环境下的本地大模型部署方案进行对比分析。Linux/macOS:
AI_DL_CODE7 天前
本地部署·开源工具·新手教程·ai代理·阿里云百炼·skills·openclaw
【OpenClaw从入门到精通】第01篇:保姆级教程——从零开始搭建你的第一个本地AI助理(2026实测版)摘要:本文聚焦2026年开源AI代理工具OpenClaw的本地部署与实操,从核心概念拆解入手,先厘清OpenClaw、Gateway、Skills、ClawHub的关联,再明确硬件系统要求与大模型API-Key准备要点,通过官方一键安装脚本完成本地部署,并配置阿里云百炼API实现大模型对接。以“让AI助理抓取开源中国热门项目”的虚拟实战案例,详细演示Skills调用流程,同时梳理部署中“命令找不到”“API-Key配置失败”等高频问题的解决方法。内容兼顾新手友好性与实操参考性,所有步骤均基于公开技术文档验
盘古开天166610 天前
人工智能·本地部署·智能体·gemma4·ai私有助理
Gemma4本地部署,零成本打造私有 AI 助手2026年4月2日,谷歌DeepMind正式发布Gemma4开源模型家族,这个消息在AI圈内炸开了锅。不是因为它又堆了多少参数,而是因为它彻底改写了"本地跑AI=烧钱"的固有认知。
旺财矿工14 天前
本地部署·ai智能体·数字员工·ai自动化·openclaw·小龙虾
openclaw一键安装包,配置好了大模型可以直接使用2026 年开源 AI 圈的黑马OpenClaw(昵称小龙虾) 凭借「本地运行 + 零代码 + 自动化操作」的核心能力迅速出圈,GitHub 星标飙升至 28 万 +,成为开发者和办公人群的必备 AI 智能体。与传统聊天 AI 不同,OpenClaw 是真正能操控电脑的数字员工,可听懂自然语言指令并自动完成文件整理、浏览器操作、办公软件自动化等工作。
加斯顿工程师19 天前
windows·大模型·本地部署·ollama·qwen3.5
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程在 Windows 系统上使用 Ollama 本地化部署 Qwen3.5-9B 大语言模型的教程,通过自定义安装路径实现灵活的磁盘空间管理。部署流程涵盖两种模型获取方式:一是通过魔塔社区下载 GGUF 格式量化模型,利用 Modelfile 配置文件执行命令完成本地模型构建;二是直接通过命令拉取官方仓库镜像。本教程适用于需要本地私有化部署,且对数据隐私有严格要求的 AI 应用场景。
墨10241 个月前
docker·ai·本地部署·ollama·openclaw·qwen3.5
一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型本文记录我在 Ubuntu 24.04.2 LTS 上,用 Docker 部署 Ollama(下载并运行 qwen3.5:9b-q8_0 模型),再把它接入 OpenClaw 的完整过程。
Fzuim2 个月前
ai·本地部署·glm 4.7
glm-4.7-flash本地部署GPU:4090(48GB)* 2RAM:512GB使用docker运行多个模型实例,目标为了显存的复用
康de哥3 个月前
ai·本地部署·文生语音·fish speech
本地部署fish-speech-1.5关键步骤fish-speech只需要提供5-10秒的样本语音片段和对应文字,就能依照样本音色和新文本生成质量非常高的输出,且对硬件的要求也不高,本地部署后免费,非常合适。 不过在本地部署fish-speech-1.5的过程中踩了一些贼二又坑死人不偿命的坑(git repo里的readme没写,指向的官方文档不可用,贼坑),熬了半宿才从坑里跳出来,记录一下,希望能帮大家避雷。
康de哥3 个月前
本地部署·claude code·glm-4.5-air
【一站式】本地部署大模型(GLM-4.5-Air量化版) + Claude Code Router + Claude Code官网下载、安装Python后,环境最好用venv隔离一下,这个不赘述。我成功部署的是这个,大小63GB,量化完参数17B:cpatonn-mirror/GLM-4.5-Air-AWQ 激活venv虚拟环境后,安装ModelScope环境,慢的话切一下国内源:
淮上安子骞4 个月前
服务器·密码学·ctf·本地部署·sage
sage10.8源码部署一直在用sage9.3写题,这两次比赛发现9.3貌似不够用,sage源码已经到10.x的版本了,没找到教程,只能看着官方文档一步一步来,记录一下
万事可爱^4 个月前
人工智能·深度学习·语言模型·gitcode·本地部署·昇腾npu
GitCode+昇腾部署Rnj-1模型实践教程GitCode Notebook是GitCode平台推出的云端交互式开发环境,对标Google Colab,为开发者提供了免本地配置的算力资源和一站式开发体验。其核心优势体现在三个方面:
未来之窗软件服务4 个月前
人工智能·本地部署·轻量模型·东方仙盟·东方仙盟自动化
幽冥大陆(六十) SmolVLM 本地部署 轻量 AI 方案—东方仙盟筑基期在人工智能多模态应用飞速发展的当下,轻量级、高效率的模型成为了开发者的优先选择。Hugging Face 发布的 SmolVLM 模型家族,凭借极致的资源适配能力和全量开源的特性,成为端侧与低算力设备部署的理想之选。对于东方仙盟这类追求轻量化、本地化部署的项目而言,集成 SmolVLM 能够在不依赖云端算力的前提下,实现强大的图文问答、图像描述等多模态功能,为项目赋能。
kong79069285 个月前
ai大模型·本地部署
本地部署AI大模型首先需要有一个可访问的大模型,通常有三种选择:使用开放大模型API的优缺点如下:云平台部署私有模型:本地部署私有模型:
howard20056 个月前
本地部署·web项目·虚拟机部署
虚拟机上部署Web项目执行命令:vim /etc/profile执行命令:source /etc/profile,让配置生效
Jayin_chan10 个月前
ubuntu·ai大模型·dify·rag·本地部署
dify本地部署及添加ollama模型(ubuntu24.04)下载地址:https://github.com/langgenius/dify 切换到自己要存放该源码的目录下,拉取代码
PassLink_10 个月前
算法·编程·开源项目·本地部署·算法可视化·源码改进
AlgorithmVisualizer项目改进与部署-网页算法可视化AlgorithmVisualizer 是一个开源的可视化平台,用于动态地展示各种计算机算法的执行过程,帮助用户更好地理解算法的内部机制和运行逻辑。这个项目非常适合学生、编程初学者或任何想更直观地理解算法如何工作的开发者。 🔍 项目简介:
U-Mail邮件系统10 个月前
企业邮箱·本地部署
本地部署企业邮箱,让企业办公更安全高效在当今数字化办公时代,企业邮箱作为企业沟通协作的重要工具,承载着企业业务往来和办公协同的重要职能。基于安全性、个性化需求、系统集成等方面的考量,越来越多的企业倾向于选择本地部署企业邮箱,本地化部署不仅能够有效守护企业信息安全,还能依据企业未来发展的需求,灵活调整企业邮箱系统的功能,甚至进行二次开发,同时实现与其他办公系统的无缝集成,为企业数字化办公提供坚实支撑。
理论最高的吻10 个月前
ai·本地部署·ollama·deepseek
本地部署 DeepSeek R1(最新)【从下载、安装、使用和调用一条龙服务】官方网址:Ollama官网下载很慢,甚至出现了下载完显示 无法下载,需要授权目前有两个解决方式:复制下载链接,使用迅雷进行下载【右键点击正在下载文件,然后点击复制下载链接】
-曾牛1 年前
java·人工智能·spring boot·后端·聊天机器人·本地部署·ollama
Spring Boot 深度集成 Ollama 指南:从聊天模型配置到生产级应用开发在人工智能应用开发中,大语言模型(LLM)的本地化部署需求日益增长。Ollama 作为开源的本地LLM运行平台,支持Mistral、LLaMA等主流模型,并提供与OpenAI兼容的API接口,而 Spring AI 则为Java开发者提供了便捷的集成工具链。本文将结合Spring Boot框架,详细讲解如何通过Spring AI实现Ollama聊天模型的全生命周期管理,涵盖基础配置、高级功能开发及生产环境优化,帮助开发者构建高效、可控的本地化智能应用。
gblfy1 年前
linux·docker·dify·本地部署·ollama·deepseek·私有化
DeepSeek + Dify + Ollama + Docker + Linux 私有化部署,构建你的专属私人 AI 助手本篇文章安装环境:Linux Rocky Linux 9.5使用 Docker Compose 部署:Docker 27.5.1 或更高版本、Docker Compose 1.25.1 或更高版本 安装 Dify 之前,请确保你的机器已满足最低安装要求:CPU>2 Core RAM>=4GB