qwen

loong_XL3 天前
音视频·qwen·多模态大模型
qwen3.5 文字、图像、视频多模态openai接口案例参考: https://qwen.ai/blog?id=qwen3.5
重生之我要成为代码大佬5 天前
人工智能·langchain·大模型·llama·qwen
AI框架设计与选型写在前面:本博客全部基于知乎的大模型课程所做的笔记和整以及和在实操过程中遇到的问题和处理方法,(老师们讲的都很好,解答的也很细致)博主也正在学习中,如果有错误的地方期待和我沟通。大多代码都来自于上课的资料,加入了一些注释和梳理,或者对我没有跑通的代码做了一些修改让他符合我的需求。第一节链接:langchain多任务应用开发
XLYcmy7 天前
大数据·ai·llm·prompt·agent·qwen·万方数据库
智能体大赛 总结与展望 比赛总结“智研星图”智能体的设计与开发,是我们在2025“万方数据杯”智能体大赛中针对“研学效率工具”赛道所提出的一项系统性、创新性解决方案。本项目立足于当前科研工作者在“知识爆炸”时代所面临的严峻挑战——信息过载、检索低效、整合困难、创新乏力,通过深度融合LLM的强大能力与权威学术数据库的可靠数据,构建了一个以真实性为基石、以智能化为引擎、以激发创新为愿景的新一代AI研究辅助平台。本次参赛过程不仅是对我们技术能力的一次全面检验,更是对未来人机协同科研范式的一次深刻探索与实践。
背离赤道逆光而行8 天前
大语言模型·qwen·api网关·clawdbot
Clawdbot部署实操:解决‘gateway token missing’授权问题的完整步骤Clawdbot 是一个统一的 AI 代理网关与管理平台,它的核心目标很实在——让开发者不用反复折腾模型对接、权限配置和会话管理,就能快速把自主AI代理跑起来、管起来、用起来。
leniou的牙膏8 天前
大语言模型·qwen·api网关·文本交互
Clawdbot部署教程:解决‘gateway token missing’授权问题的完整步骤Clawdbot 是一个统一的 AI 代理网关与管理平台,专为开发者设计,目标很实在:让你不用反复折腾配置、写胶水代码、搭中间层,就能快速构建、部署和监控自己的自主 AI 代理。
XLYcmy12 天前
人工智能·算法·机器学习·llm·prompt·agent·qwen
智能体大赛 技术架构 核心驱动层项目的技术核心在于系统化、多层次的Prompt工程策略,而非直接依赖模型微调。这一设计选择建立在我们对当前LLM技术特点及学术任务复杂性的深入理解之上。我们通过构建一套精密且可迭代的Prompt体系,将抽象、多阶段的学术任务——如主题聚类、知识体系构建、跨文献推理、方法比较等,分解为LLM能够稳定、可靠执行的一系列结构化子步骤。这种方法不仅在工程实践中显著降低了对庞大训练计算资源和标注数据的依赖,还极大地增强了系统的可控制性、可解释性与可扩展性,使我们能够通过持续优化Prompt结构、引入动态推理机制和实
laplace012314 天前
人工智能·算法·agent·qwen
KL 散度1KL散度,全称 Kullback-Leibler Divergence(库尔贝克-莱布勒散度),是概率论和信息论中用于衡量两个概率分布 PPP 和 QQQ 之间差异的非对称度量。 简单来说,它衡量的是:当你用一个近似分布 QQQ 来替代真实分布 PPP 时,会损失多少信息(或者多产生多少“意外”)。 以下是KL散度原理的深度解析:
laplace012314 天前
人工智能·算法·agent·qwen
浮点数精度核心概念: 浮点数由三部分组成——符号位(正/负)、指数位(范围)、尾数位(精度)。总位数越多,能表示的数值范围和精度就越高,但计算速度越慢、显存占用越大。 常见精度格式: FP32(Float32,单精度) — 32位浮点数,1位符号 + 8位指数 + 23位尾数。这是传统的"标准精度",精度高但占用显存大、计算慢。 FP16(Float16,半精度) — 16位浮点数,1位符号 + 5位指数 + 10位尾数。显存减半、速度更快,但数值范围小,容易出现溢出问题。 BF16(BFloat16,Brain
dawdo22217 天前
llm·transformer·性能测试·qwen·benchmark·推理引擎
自己动手从头开始编写LLM推理引擎(11)-xLLM的benchmark实现在大型语言模型(LLM)推理系统中,性能评估是确保系统稳定性和效率的关键环节。xLLM提供了一个功能完善的基准测试工具(benchmark),用于全面评估系统在不同负载条件下的性能表现。本文将详细介绍xLLM benchmark工具的设计理念、核心实现、测试策略和性能分析方法,帮助开发者深入理解LLM推理系统的性能评估方法。
x-cmd17 天前
ai·qwen·阿里·x-cmd·插画·qwen-image
[x-cmd] 阿里发布 Qwen-Image-2.0,实测复杂插画生成,手绘细节还原度很高!阿里千问 Qwen-Image-2.0 刚发布,我们就迫不及待拿来“压榨”它的生产力!这次直接让它帮我们生成视频封面。
laplace012318 天前
人工智能·python·大模型·agent·qwen·rag
qwen2.5技术报告分析 上预训练,和前代版本相比,高质量预训练数据集从之前的7万亿 token 扩⼤到了 18 万亿 token 后训练,用了100 万个样本的精细监督微调,以及包括离线学习 DPO 和在线学习 GRPO 在内的多阶段强化学习 开源权重版本包含 0.5B 1.5B 3B 7B 14B 32B 和 72B (都是稠密的)参数规模的基础模型及指令微调模型 还有两个api模型,。Qwen2.5-Turbo 和 Qwen2.5-Plus(这两个是moe的)
dawdo2221 个月前
缓存·llm·transformer·qwen·kv cache
自己动手从头开始编写LLM推理引擎(9)-KV缓存实现和优化在大语言模型的推理过程中,生成每个token都需要计算之前所有token的注意力权重。如果不使用缓存,每次生成都需要重新计算所有历史token的Key和Value,这会导致巨大的计算开销。KV缓存(Key-Value Cache)技术通过缓存历史token的K和V,在后续生成中只计算新token的K和V,从而大幅提升推理性能。
阿尔的代码屋1 个月前
qwen·modelscope·大模型实战·ollama·大模型部署
[大模型实战 01] 本地大模型初体验:Ollama 部署与 Python 调用指南核心摘要 (TL;DR)官网地址:https://ollama.com/Ollama 是目前最火的本地大模型部署工具。 简单来说,它能帮咱们快速拉取模型文件,让模型在本地直接运行并进行对话。同时,它还能把模型打包成一个标准的接口,通过端口开放给咱们写的 Python 脚本调用。
羊城迷鹿1 个月前
大模型·微调·多模态·qwen·llamafactory·oft
从LoRA到OFT:Qwen2.5-VL在昇腾910B与4090上的多模态微调实践与踩坑记录本文系统记录了在华为昇腾910B和英伟达4090两种硬件平台上,针对两个不同规模数据集(其中一个为从头构建的签字识别数据集)基于LLamafactory进行Qwen2.5-VL-3B多模态大模型微调的完整实验过程。实验主要探索了LoRA、Full Fine-tuning、Freeze Fine-tuning和OFT四种主流微调方法,并对学习率、训练轮数、LoRA秩、批处理大小、精度类型等数十个超参数进行了系统性对比测试,并在此过程中解决Oft无法正常推理和测试等问题。
fjhcom1 个月前
微调·部署·qwen
Qwen2.5-0.5B 模型微调与部署完整教程本教程将带你完成 Qwen2.5-0.5B 模型的微调、转换和部署全流程。你将学习如何在 CPU 环境下微调模型,将其转换为 GGUF 格式,并部署到 Ollama 中使用。
core5121 个月前
lora·微调·swift·qwen·qwen3·vl
使用 `ms-swift` 微调 Qwen3-VL-2B 详细指南本文仅针对图片OCR场景训练。租赁的AutoDL服务器,配置如下: 使用情况如下: 综上,不用租配置太高的显卡。
core5121 个月前
lora·微调·swift·qwen·vl
Swift SFT Qwen-VL LoRA 微调指令详解接上文:使用 ms-swift 微调 Qwen3-VL-2B 详细指南这条指令是使用 ModelScope Swift 框架对 Qwen-VL(视觉语言大模型)进行 LoRA 微调 的完整脚本。
Aspect of twilight1 个月前
人工智能·qwen
QwenVL 模型输入细节/src/qwen_vl/data/data_qwen.py文件中负责了模型输入数据的处理方式:其中,make_supervised_data_module函数定义了数据集的读取以及数据的预处理方式:
刘金宝_Arvin1 个月前
qwen·ollama·data agent
【Data Agent】数据分析智能体 初体验,可用的Chat BI -- 本地部署使用全流程本文介绍Data Agent的本地部署和体验,具体应用场景,此处不赘述,可直接查看官网。面向企业内所有报告依赖数据分析获得业务洞察的用户,提供Agentic for Analytics能力,实现深度、高效的数据探索分析工作,让用户专注于数据价值而非数据处理。
高性能服务器1 个月前
agent·agi·qwen·智谱ai·agi-next闭门峰会·阿里千问·模型即产品
AGI-Next 闭门峰会深度纪要:中国AI的3小时深度思辨2026年1月10日,一场聚焦中国AI未来发展的AGI-Next闭门峰会在北京如期举行。唐杰、杨植麟、林俊旸、加拿大工程院院士杨强,以及近期备受行业关注的姚顺雨(远程参会,自带国际顶尖实验室与国内头部企业双重行业视野)齐聚一堂,组成了中国AI领域的顶尖对话矩阵。