qwen

搬砖魁首3 天前
docker·qwen·openclaw·龙虾
基础能力系列 - 如何安全养虾? - 容器化部署龙虾参考: https://juejin.cn/post/7616025751746297862pairing required
Anesthesia丶5 天前
pytorch·python·lora·llm·qwen·vllm
Qwen2.5-1.5b 模型部署与LORA训练笔记这两天心血来潮,想了解一下小模型的部署与训练的过程,刚好家里有张3080魔改20g可以试试水于是说干就干~在这里简单记录以下相关的笔记。
搬砖的前端8 天前
前端·ai·mac·ai编程·qwen·trae·qwen3.6
本地模型+TRAE CN 打造最优模型组合实测:开源主模型+本地辅模型,对标GPT5.2/5.3/Gemini-3-Flash由于Cursor / Trae 国际版等AI编辑器的计费方式改变导致使用成本增加,尤其会员额度一次次用光后(本人就是)。替代使用TRAE CN基本上都会遇到过一个痛点:热门模型(如GLM5.1/Doubao-speed-2.0-code等)排队严重,动辄等待十数分钟,严重拖慢开发效率。
碳基硅坊8 天前
人工智能·qwen·qwen3.6
Mac Studio M3 Ultra 运行大模型实测:Qwen3.6 vs 6款主流模型工具调用对比苹果 M3 Ultra 芯片将统一内存容量推升至 512GB,让本地运行千亿参数大模型成为可能。这次测试在 Apple M3 Ultra + 256GB 内存环境下,对比 7 款主流大模型在工具调用、代码生成、推理速度等多个维度的表现。数据全部基于实测,Qwen 系列模型在工具调用方面展现出压倒性优势。
带娃的IT创业者9 天前
人工智能·python·ai·开源·大模型·qwen·编程代理
深度解析 Qwen3.6-35B-A3B:重塑 AI 编程代理的开源新标杆在开源大模型领域,通义千问团队再次投下了一枚重磅炸弹。近日,Qwen3.6-35B-A3B 模型正式发布,并迅速登顶 Hacker News 热榜,获得 634 票的高度关注。这不仅仅是一个参数量的更新,更是一次针对“Agentic Coding(代理编程)”能力的深度优化。
mpr0xy10 天前
人工智能·ai·大语言模型·qwen·deepseek
《AI怎么一步步变聪明的?》系列(六)中国大模型崛起之路:从“追赶者”到“解题人”站在2026年4月的春光里,当我们翻开最新的行业简报,一个足以载入史册的数据跃然纸上:中国AI大模型的周Token调用量,已经连续四周碾压美国,甚至在OpenRouter这类全球聚合平台上,中国大模型的消耗占比高达61%。
熊猫钓鱼>_>15 天前
人工智能·音视频·agent·qwen·ollama·openclaw·happyhorse-1.0
私有化AI视频助手搭建实录:当Ollama遇上OpenClawAI视频生成的热度仍在攀升,从HappyHorse-1.0匿名屠榜到各家模型竞相开源,创作者似乎迎来了最好的时代。但一个现实问题始终悬而未决:云端服务固然方便,可谁愿意把未公开的脚本、商业素材甚至客户数据,毫无保留地交给一个黑盒API?
Cachel wood16 天前
人工智能·python·自动化·llm·qwen·ollama·gemma4
Macbook M4 pro本地部署大模型|Ollama+Gemma4/Qwen3.524 GB内存安装ollama Ollama负责模型的下载、加载和运行,还自带本地API,不用手动配置,是目前新手最省事的方案,没有之一。
dax eursir21 天前
qwen·视觉语言模型·多模态ai·ocr识别
Qwen3-VL-2B vs BLIP-2:轻量视觉模型部署效率对比分析你有没有遇到过这样的场景:想在一台没有显卡的办公电脑上跑一个能看图说话的AI工具,结果发现动辄十几GB的模型根本加载不动?或者在边缘设备上部署图文理解服务时,推理延迟高达几十秒,用户等得不耐烦直接关掉页面?
汀江游非侠24 天前
qwen·ai模型下载
模型下载与使用根据个人电脑配置及使用场景,我选择模型为Qwen-4B-Chat-Q4_K_M模型需要从Huggingface模型库下载,需要使用平台工具来下载
gujunge1 个月前
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
Spring with AI (6): 记忆保持——会话与长期记忆本文代码: https://github.com/JunTeamCom/ai-demo/tree/release-6.0 (JDBC-MySQL版本的会话持久化)
gujunge1 个月前
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
Spring with AI (5): 搜索扩展——向量数据库与RAG(下)本文代码: https://github.com/JunTeamCom/ai-demo/tree/release-5.0 https://github.com/JunTeamCom/ai-demo-tools/tree/release-5.0/data-loader
gujunge1 个月前
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
Spring with AI (4): 搜索扩展——向量数据库与RAG(上)本文代码: https://github.com/JunTeamCom/ai-demo/tree/release-4.0 https://github.com/JunTeamCom/ai-demo-tools/tree/release-4.0/data-loader
碳基硅坊1 个月前
人工智能·qwen·模型微调
Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手最近在帮一个医疗创业团队做技术支持,他们想把通用大模型改造成能回答专业医疗问题的智能助手。今天就把整个过程整理出来,希望对有类似需求的朋友有所帮助。
JuckenBoy1 个月前
linux·运维·大模型·qwen·rocky·deepseek·sglang
Linux环境安装SGLang框架运行自选大模型(以Rocky9.7为例)以下安装过程本人已验证可行,供君参看:1、安装系统、配置网卡(/root文件夹尽量大一些) 2、装gcc和g++,直接运行gcc --version和g++ --version和有提醒安装 4、禁用nouveau,重建 initramfs 镜像(这一步至关重要,确保引导时加载新配置),重启 echo -e 'blacklist nouveau\noptions nouveau modeset=0' | sudo tee /etc/modprobe.d/blacklist-nouveau.conf sudo
小田学Python1 个月前
大模型·qwen·dify·ollama
Dify+Ollama模型搭建攻略:本地环境实战指南Dify 是基于 Docker 运行的开源大模型应用开发平台,在 Windows 系统上直接运行 Docker 或 Dify 容易出现兼容性、性能问题,而 WSL2(Windows Subsystem for Linux 2)能提供更原生的 Linux 环境,更适配 Docker 和 Dify 的运行需求。
Pyeako1 个月前
python·阿里云·大模型·云计算·openai·qwen·api key
大模型--OpenAI&创建阿里云百炼API Key简单来说,OpenAI 大模型 是由美国人工智能公司 OpenAI 开发的一系列大型语言模型(LLMs) 。你可以把它们想象成拥有巨大“知识储备”和“学习能力”的超级大脑,它们被训练用来理解和生成人类语言,并完成各种复杂的任务 。
gujunge1 个月前
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
Spring with AI (3): 定制对话——Prompt模板引入本文代码:https://github.com/JunTeamCom/ai-demo/tree/release-3.0 Spring with AI系列,只关注上层AI的应用程序(基于JAVA搭建),不关注底层的LLM原理、搭建等技术。
村中少年1 个月前
llm·nodejs·虚拟机·qwen·ollama·openclaw
本地模型工具ollama配置使用openclaw指南本文介绍先对于已经熟悉ollama的小伙伴,在安装ollama之后,如何安装并配置openclaw。ollama也在不断地更新版本,建议老版本的小伙伴可以安装最新的ollama。ollama官网,这里,会检测操作系统,给出对应的命令,如下是windows的命令,以管理员权限打开powershell运行即可;