本地部署

Emmamkq~~11 天前
文生图·ai绘画·本地部署·gpu优化
造相-Z-Image技术白皮书精要:Z-Image模型结构与4090适配原理如果你手头有一块RTX 4090显卡,想用它来跑AI画图,可能会遇到一些头疼的问题:生成图片时突然显存爆了、出来的图全黑一片、或者速度并没有想象中那么快。市面上通用的文生图工具,往往是为“通用显卡”设计的,并没有针对4090这块顶级消费卡做专门的优化。
Fleshy数模11 天前
python·语言模型·大模型·本地部署
本地部署 Qwen2.5-1.5B-Instruct 全流程教程|Ollama + 魔搭双方案在人工智能技术飞速发展的今天,大语言模型已经从云端服务走向本地部署,轻量化大模型凭借体积小、速度快、无需联网、隐私安全等优势,成为 AI 开发者、编程爱好者入门学习的最佳选择。Qwen2.5-1.5B-Instruct 作为通义千问系列的轻量级开源模型,参数规模适中,推理性能优秀,完美适配个人电脑本地运行,既能实现智能对话,也能轻松完成文本分类、情感分析、信息提取等 NLP 任务。
康de哥12 天前
本地部署·opencode·gemma4
【一站式】本地部署Gemma 4 + 连接OpenCodeGemma 4 和OpenCode 的 太搭了,配置容易,实际使用体验也非常不错(综合体感优于原来折腾GLM + Claude Code Router+ Claude Code),有一定本地算力的话,值得推荐。
韩明君16 天前
linux·人工智能·安全·debian·本地部署·ai agent·openclaw
OpenClaw安全部署实现1、版本V1.0.1 2、下载链接 https://download.xx.sn.cn/openclaw/V1.0.1/xOpenClaw_V1.0.1.ova3、SHA256值01531e935238fa7f62da7fd6e3f4d5cc5ee061be49ae2509089349ef84ea740f 4、版本默认配置 2vCPU、4G内存、128M显存 5、版本默认功能 1)已预装了openclaw(版本为:2026.3.13); 2)openclaw虚拟机和物理机文件系统隔离:文件请复制到电脑D盘
comedate1 个月前
大模型·本地部署·ollama·vibe coding
【OpenClaw】 8GB 显卡本地大模型部署指南本文档整理自实际问答,针对 8GB 显存环境下的本地大模型部署方案进行对比分析。Linux/macOS:
AI_DL_CODE1 个月前
本地部署·开源工具·新手教程·ai代理·阿里云百炼·skills·openclaw
【OpenClaw从入门到精通】第01篇:保姆级教程——从零开始搭建你的第一个本地AI助理(2026实测版)摘要:本文聚焦2026年开源AI代理工具OpenClaw的本地部署与实操,从核心概念拆解入手,先厘清OpenClaw、Gateway、Skills、ClawHub的关联,再明确硬件系统要求与大模型API-Key准备要点,通过官方一键安装脚本完成本地部署,并配置阿里云百炼API实现大模型对接。以“让AI助理抓取开源中国热门项目”的虚拟实战案例,详细演示Skills调用流程,同时梳理部署中“命令找不到”“API-Key配置失败”等高频问题的解决方法。内容兼顾新手友好性与实操参考性,所有步骤均基于公开技术文档验
盘古开天16661 个月前
人工智能·本地部署·智能体·gemma4·ai私有助理
Gemma4本地部署,零成本打造私有 AI 助手2026年4月2日,谷歌DeepMind正式发布Gemma4开源模型家族,这个消息在AI圈内炸开了锅。不是因为它又堆了多少参数,而是因为它彻底改写了"本地跑AI=烧钱"的固有认知。
旺财矿工1 个月前
本地部署·ai智能体·数字员工·ai自动化·openclaw·小龙虾
openclaw一键安装包,配置好了大模型可以直接使用2026 年开源 AI 圈的黑马OpenClaw(昵称小龙虾) 凭借「本地运行 + 零代码 + 自动化操作」的核心能力迅速出圈,GitHub 星标飙升至 28 万 +,成为开发者和办公人群的必备 AI 智能体。与传统聊天 AI 不同,OpenClaw 是真正能操控电脑的数字员工,可听懂自然语言指令并自动完成文件整理、浏览器操作、办公软件自动化等工作。
加斯顿工程师1 个月前
windows·大模型·本地部署·ollama·qwen3.5
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程在 Windows 系统上使用 Ollama 本地化部署 Qwen3.5-9B 大语言模型的教程,通过自定义安装路径实现灵活的磁盘空间管理。部署流程涵盖两种模型获取方式:一是通过魔塔社区下载 GGUF 格式量化模型,利用 Modelfile 配置文件执行命令完成本地模型构建;二是直接通过命令拉取官方仓库镜像。本教程适用于需要本地私有化部署,且对数据隐私有严格要求的 AI 应用场景。
墨10242 个月前
docker·ai·本地部署·ollama·openclaw·qwen3.5
一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型本文记录我在 Ubuntu 24.04.2 LTS 上,用 Docker 部署 Ollama(下载并运行 qwen3.5:9b-q8_0 模型),再把它接入 OpenClaw 的完整过程。
Fzuim3 个月前
ai·本地部署·glm 4.7
glm-4.7-flash本地部署GPU:4090(48GB)* 2RAM:512GB使用docker运行多个模型实例,目标为了显存的复用
康de哥4 个月前
ai·本地部署·文生语音·fish speech
本地部署fish-speech-1.5关键步骤fish-speech只需要提供5-10秒的样本语音片段和对应文字,就能依照样本音色和新文本生成质量非常高的输出,且对硬件的要求也不高,本地部署后免费,非常合适。 不过在本地部署fish-speech-1.5的过程中踩了一些贼二又坑死人不偿命的坑(git repo里的readme没写,指向的官方文档不可用,贼坑),熬了半宿才从坑里跳出来,记录一下,希望能帮大家避雷。
康de哥4 个月前
本地部署·claude code·glm-4.5-air
【一站式】本地部署大模型(GLM-4.5-Air量化版) + Claude Code Router + Claude Code官网下载、安装Python后,环境最好用venv隔离一下,这个不赘述。我成功部署的是这个,大小63GB,量化完参数17B:cpatonn-mirror/GLM-4.5-Air-AWQ 激活venv虚拟环境后,安装ModelScope环境,慢的话切一下国内源:
淮上安子骞4 个月前
服务器·密码学·ctf·本地部署·sage
sage10.8源码部署一直在用sage9.3写题,这两次比赛发现9.3貌似不够用,sage源码已经到10.x的版本了,没找到教程,只能看着官方文档一步一步来,记录一下
万事可爱^4 个月前
人工智能·深度学习·语言模型·gitcode·本地部署·昇腾npu
GitCode+昇腾部署Rnj-1模型实践教程GitCode Notebook是GitCode平台推出的云端交互式开发环境,对标Google Colab,为开发者提供了免本地配置的算力资源和一站式开发体验。其核心优势体现在三个方面:
未来之窗软件服务5 个月前
人工智能·本地部署·轻量模型·东方仙盟·东方仙盟自动化
幽冥大陆(六十) SmolVLM 本地部署 轻量 AI 方案—东方仙盟筑基期在人工智能多模态应用飞速发展的当下,轻量级、高效率的模型成为了开发者的优先选择。Hugging Face 发布的 SmolVLM 模型家族,凭借极致的资源适配能力和全量开源的特性,成为端侧与低算力设备部署的理想之选。对于东方仙盟这类追求轻量化、本地化部署的项目而言,集成 SmolVLM 能够在不依赖云端算力的前提下,实现强大的图文问答、图像描述等多模态功能,为项目赋能。
kong79069285 个月前
ai大模型·本地部署
本地部署AI大模型首先需要有一个可访问的大模型,通常有三种选择:使用开放大模型API的优缺点如下:云平台部署私有模型:本地部署私有模型:
howard20056 个月前
本地部署·web项目·虚拟机部署
虚拟机上部署Web项目执行命令:vim /etc/profile执行命令:source /etc/profile,让配置生效
Jayin_chan1 年前
ubuntu·ai大模型·dify·rag·本地部署
dify本地部署及添加ollama模型(ubuntu24.04)下载地址:https://github.com/langgenius/dify 切换到自己要存放该源码的目录下,拉取代码
PassLink_1 年前
算法·编程·开源项目·本地部署·算法可视化·源码改进
AlgorithmVisualizer项目改进与部署-网页算法可视化AlgorithmVisualizer 是一个开源的可视化平台,用于动态地展示各种计算机算法的执行过程,帮助用户更好地理解算法的内部机制和运行逻辑。这个项目非常适合学生、编程初学者或任何想更直观地理解算法如何工作的开发者。 🔍 项目简介: