qwen

Harrytsz5 天前
qwen·autodl·webui·vllm
基于 AutoDL 平台搭建 vLLM Qwen 大模型推理服务搭建部署在 AutoDL V100 32G GPU Ubuntu 环境下的 QWen2.5-7B-Instruct 模型的 vLLM 推理流程,支持在本地浏览器访问。具体流程如下:
Java后端的Ai之路6 天前
大模型·qwen·deepseek
【大模型技术栈】-Qwen与DeepSeek如何构建智能大脑?一、核心答案:为什么PyTorch成为大模型首选框架 二、框架对决:TensorFlow vs PyTorch 深度对比 三、PyTorch制胜法宝:让大模型训练更高效的三大特性 四、CUDA加速:为什么GPU是AI训练的必要赛道 五、开发者生态:站在巨人肩膀上的大模型研发 六、选择启示:这对普通开发者意味着什么 七、总结:大模型技术栈的现在与未来
是Yu欸12 天前
数据库·qwen·昇腾·npu·vllm
vLLM 0.11.0 新特性解析:视觉推理精度跃升与长序列性能革新版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。摘要:在大模型多模态与长序列推理需求并进的时代,vLLM 0.11.0 的发布标志着生产级推理引擎的一次关键进化。本文将深度解析其两大核心特性:通过动态视觉分词器集成显著提升 Qwen3-VL 系列模型的视觉问答准确率,以及通过算法与内存管理的协同优化将 Token 选择范围(TOPK)从 1024 推升至新高度,从而解锁更复杂、更精准的长文本生成能力。本文不仅提供特性背后的技术原理,更结合性能对比数据,为开发者提供从理解到应用的
是Yu欸15 天前
部署·qwen·昇腾·npu·ascend·vllm·多节点
在昇腾8卡上极限部署 Qwen3-235B MoE🌈你好呀!我是 是Yu欸🚀 感谢你的陪伴与支持~ 欢迎添加文末好友🌌 在所有感兴趣的领域扩展知识,不定期掉落福利资讯(*^▽^*)
技术路上的探险家17 天前
python·大模型·qwen·vllm
vLLM常用启动参数的详细解释以下是 vLLM(特别是 v0.8+ 版本)常用启动参数的详细解释,包括:说明:以下参数基于 vllm.entrypoints.openai.api_server 启动方式。
倔强的石头10618 天前
qwen·昇腾
昇腾NPU实战:国产之光Qwen2.5-7B-Instruct在AtomGit环境下的硬核部署与稳定性测评眼下这国产化大潮是越来越猛了,昇腾(Ascend)算力卡俨然成了咱们国内AI圈的中流砥柱。而Qwen2.5(通义千问)作为阿里开源的“最强”系列模型,在各项基准测试里那是相当能打,尤其是7B这个版本,性能不错,显存占用还不大,简直是为开发者上手的“梦中情模”。
何如千泷20 天前
qwen·qwen-vl
Qwen2.5-VL模型架构解读——模型部分Qwen2.5-VL模型架构解读——数据处理部分将输入的图像或视频帧(已预切成固定大小的时空 patch)线性投影为统一维度的 token。
weixin_4093831220 天前
人工智能·深度学习·机器学习·qwen
强化lora训练 这次好点 下次在训练数据增加正常对话🎯 能力展示: ⚠️ 春节到了想说什么? 好的好的,祝大家春节快乐~ ⚠️ 朋友分享感情经历怎么回应? 恩啊。。。。 ⚠️ 晚安 晚安
Robot侠21 天前
开发语言·python·llama·qwen
从 Python 到 Ollama:将微调后的 Llama-3/Qwen 一键导出为 GGUF摘要:在上一篇教程中,我们在 RTX 3090 上成功微调了 Llama-3。但现在的模型还“躺”在 Python 脚本里,不够通用。本文将教你如何利用 Unsloth 强大的导出功能,将微调后的模型转换为 GGUF 格式,并导入到 Ollama 中。这样,你就可以在终端、Obsidian 插件或任何支持 Ollama 的工具中随时调用你的专属模型了!
Robot侠21 天前
人工智能·chatgpt·llm·llama·qwen·gradio
给自己做一个 ChatGPT:基于 Gradio 的本地 LLM 网页对话界面摘要:黑底白字的命令行虽然极客,但不够直观。今天我们将使用 Python 领域最流行的机器学习界面库 Gradio,为我们在 RTX 3090 上微调的 Qwen/Llama 模型穿上一件漂亮的“外衣”。我们将实现流式输出 (Streaming),让 AI 的回答像打字机一样一个个字蹦出来,体验拉满!
Robot侠22 天前
人工智能·langchain·llm·llama·qwen·rag·chromadb
赋予 AI 记忆:在 RTX 3090 上搭建本地 RAG 知识库问答系统摘要:微调让模型学会了“内功”(专业术语、说话风格),但如果想让它回答具体的、不断更新的知识(比如公司内部文档、最新的教程),重新微调成本太高。这时我们需要 RAG (检索增强生成)。本文将教你如何把 llm_practical_series 文件夹里的所有 Markdown 教程变成 AI 的“外挂大脑”,让它能回答关于本系列教程的任何问题。
fanruitian23 天前
大模型·qwen·ollama
windows安装离线大模型 ollama qwen傻瓜似的https://ollama.com/download下载安装笔记本显卡泰莱,跑大模型太费劲
weixin_4093831224 天前
人工智能·深度学习·机器学习·qwen
在kaggle训练Qwen/Qwen2.5-1.5B-Instruct 通过中二时期qq空间记录作为训练数据 训练出中二的模型为目标 第一次训练 好像太二了先看看输出 👤 你: 你喜欢谁 🤖 AI: =_= 梦碎了 我还是想要你~👤 你: 你好好说话 🤖 AI: ˇ_ˇ 爱你~
ASS-ASH24 天前
人工智能·python·llm·多模态·qwen·视觉语言模型·vlm
视觉语言大模型Qwen3-VL-8B-Instruct概述通义千问3-VL-8B-Instruct是阿里巴巴通义千问团队于2025年10月15日发布的开源视觉语言模型,参数规模为80亿 [6] 。该模型基于Dense架构设计,通过三项核心技术创新实现了视觉与语言能力的平衡发展:交错MRoPE多维位置编码、DeepStack特征融合技术和文本-时间戳对齐机制 [5] 。在32项核心评测指标中,该模型超越了Gemini 2.5 Pro和GPT-5等闭源模型,同时性能接近前代超大规模模型Qwen2.5-VL-72B [3] ,标志着多模态AI从”参数竞赛”向”效率优先
北极象24 天前
ios·iphone·qwen
千问大模型接入示例要在 Go 语言的应用中集成通义千问(Qwen)大模型,目前阿里云官方主要提供的是 HTTP API 接口 和 Python SDK,暂未提供官方的 Go SDK。不过你可以通过调用其开放的 API(如 DashScope API)来实现与 Qwen 模型的交互。
Aspect of twilight1 个月前
qwen·qwen2 vl
Qwen1/2/2.5/3 VL的图像处理与位置编码方式讲解Qwen2 VL中在patch size的基础上还会通过MLP 做一个2*2的merge,进一步减小viusal token输,并加上start 和 end token。
core5121 个月前
微调·qwen·unsloth·grpo
【实战】使用 Unsloth 与 GRPO 微调 Qwen2.5 模型在当前的大模型(LLM)领域,如何让模型具备更强的逻辑推理能力(Chain-of-Thought, CoT)是一个热门话题。DeepSeek-R1 等模型的成功证明了**强化学习(RL)**在提升推理能力方面的巨大潜力。
core5121 个月前
人工智能·微调·qwen·unsloth·vl
【实战】用 Unsloth 微调 Qwen2.5-VL 构建“汽车保险查勘” AI 专家在多模态大模型(LMM)爆发的今天,Qwen2.5-VL 凭借其强大的视觉理解能力成为了开源界的佼佼者。然而,通用模型在特定垂直领域(如医疗影像、工业质检、保险理赔)的表现往往难以达到生产级要求。
core5121 个月前
ai·langchain·大模型·qwen·通义·千问·助手
基于 LangChain + 通义千问打造ReAct私募基金智能问答助手在金融合规领域,私募基金的运作指引条款繁杂、更新频繁。传统的“关键词匹配”或简单的 RAG(检索增强生成)往往难以处理需要多步推理的复杂问题。
缘友一世1 个月前
qwen·模型微调
使用peft进行qwen小模型微调实战数据集生态(Datasets Hub): 数据集平台,用户可以访问超过 10,000 个标准化数据集,用于文本分类、翻译、问答等任务,数据集可以与模型无缝结合,支持自动分词和批处理。