qwen3.5

拥抱AGI4 天前
人工智能·学习·程序员·开源·大模型·大模型训练·qwen3.5
Qwen3.5开源矩阵震撼发布!从0.8B到397B,不同规模模型性能、显存、速度深度对比与选型指南来了!截至今天2026年3月3日,Qwen3.5已形成从0.8B到397B的完整开源矩阵,分为轻量稠密(0.8B/2B/4B/9B/27B)、中型MoE(35B-A3B/122B-A10B)、旗舰MoE(397B-A17B)三大梯队。不同尺度在性能、显存、速度、场景上差异显著,下面是完整对比与选型指南,仅供参考。
小白狮ww5 天前
人工智能·自然语言处理·claude·通义千问·opus·推理·qwen3.5
Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled 蒸馏模型,27B 参数也能做强推理在使用大模型时,我们常常会遇到诸多困扰:模型复杂问题推理能力不足、交互形式生硬、参数臃肿无法在消费级显卡运行,很难兼顾能力与落地实用性。
竹之却18 天前
windows·llama·ollama·openclaw·qwen3.5
【OpenClaw】云服务器端 openclaw 集成本地 Windows端 ollama 模型首先配置两个环境变量, 打开 powershell ,执行以下指令:接下来,打开任务管理器( ctrl + shift + ESC ),搜索 ollama ,在后台进程中,右键,选择 结束任务 。关闭所有 ollama 相关的进程。然后 重新启动 ollama , 让 ollama 检测到环境变量。
加斯顿工程师18 天前
windows·大模型·本地部署·ollama·qwen3.5
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程在 Windows 系统上使用 Ollama 本地化部署 Qwen3.5-9B 大语言模型的教程,通过自定义安装路径实现灵活的磁盘空间管理。部署流程涵盖两种模型获取方式:一是通过魔塔社区下载 GGUF 格式量化模型,利用 Modelfile 配置文件执行命令完成本地模型构建;二是直接通过命令拉取官方仓库镜像。本教程适用于需要本地私有化部署,且对数据隐私有严格要求的 AI 应用场景。
Luke Ewin21 天前
linux·运维·服务器·ai·llm·qwen3.5
Linux中部署Qwen3.5大模型先安装uv。这里部署的是Qwen3.5-2B模型,经过实测,跑4B模型显存溢出,只能跑2B参数量的模型。
imliuyu23 天前
语言模型·qwen3.5
gpu and data is all you need —— 记一次 qwen3.5 的思维链微调qwen3.5 挺好用,输出质量高还支持多模态,但是思考过程经常会中英文混杂而且很冗长,一个很简单的问题哐哐输出一堆思考。
小毕超1 个月前
飞书·openclaw·qwen3.5
OpenClaw+ 私服 Qwen3.5-27B + 飞书聊天接入 构建私域龙虾助手OpenClaw 小龙虾是现在比较火的一个能听懂、能动手的 AI 执行引擎,可以用来做的场景非常多,如办公自动化、开发辅助、智能家居控制等等。
ofoxcoding1 个月前
人工智能·qwen3.5
Qwen3.5 API 接入实测:和 GPT-4o 比到底差多少Qwen3.5 发布那天我就跑去测了,不是因为多感兴趣,是因为手上有个项目的中文对话场景一直在用 GPT-4o,成本有点高,想看看能不能用国产模型替代。
seaside20031 个月前
llama·qwen3.5·高通soc
llama.cpp 部署qwen3.5 2B 高通芯片安卓实战本文利用llama.cpp在高通芯片安卓系统部署Qwen3.5 2B模型的全流程,全套代码由豆包辅助生成,豆包最成功的一点是可以不断修正,就错误发给豆包,一步步改进,最终完成。
魔乐社区1 个月前
微调·llama·qwen3.5
在魔乐社区使用llama-factory微调Qwen3.5-4B模型我们依然是搭建一个miniconda可以使用下面的命令验证是否安装成功:显示llamafactory的版本,则表示安装成功
一个处女座的程序猿1 个月前
人工智能·llm·mlm·qwen3.5
MLMs之Agent之Qwen:Qwen3.5的简介、安装和使用方法、案例应用之详细攻略MLMs之Agent之Qwen:Qwen3.5的简介、安装和使用方法、案例应用之详细攻略目录Qwen3.5的简介
hudawei9961 个月前
llm·本地模型·openclaw·qwen3.5·glm-5
openClaw是怎么在电脑中做事情的在 2026 年,OpenClaw(原名 Clawdbot)已经成为了开源社区中最火的“AI 智能体(Agent)”框架。它之所以能被称为给大模型加上了“手”,是因为它不仅仅是一个聊天框,而是一个运行在你电脑底层的执行引擎。
墨10241 个月前
docker·ai·本地部署·ollama·openclaw·qwen3.5
一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型本文记录我在 Ubuntu 24.04.2 LTS 上,用 Docker 部署 Ollama(下载并运行 qwen3.5:9b-q8_0 模型),再把它接入 OpenClaw 的完整过程。
被制作时长两年半的个人练习生2 个月前
ide·vscode·claude code·qwen3.5
claude code for vscode 配置 qwen3.5claude code提供了vscode插件,可以不安装软件轻松配置。在设置中禁用登录,此步骤常见的选项是通过创建 ~/.claude/config.json(Mac/Linux)进行操作,vscode的插件里可以直接设置。这一步要设置的原因是如果不设置的话会强制进行登录。
大傻^2 个月前
开源·qwen3.5
阿里Qwen3.5重磅开源在即!三大技术突破+全场景应用解析,这7类企业将迎来爆发> 摘要:春节前夕,阿里千问新一代基座模型Qwen3.5突然曝光并入HuggingFace Transformers,原生视觉理解、混合注意力机制、双版本开源策略引发全网热议。本文从技术架构、应用场景、商业生态三个维度深度拆解Qwen3.5的核心价值,并梳理产业链受益逻辑,为开发者和技术决策者提供前瞻性参考。
我是有底线的