qwen

小田学Python1 天前
大模型·qwen·dify·ollama
Dify+Ollama模型搭建攻略:本地环境实战指南Dify 是基于 Docker 运行的开源大模型应用开发平台,在 Windows 系统上直接运行 Docker 或 Dify 容易出现兼容性、性能问题,而 WSL2(Windows Subsystem for Linux 2)能提供更原生的 Linux 环境,更适配 Docker 和 Dify 的运行需求。
Pyeako3 天前
python·阿里云·大模型·云计算·openai·qwen·api key
大模型--OpenAI&创建阿里云百炼API Key简单来说,OpenAI 大模型 是由美国人工智能公司 OpenAI 开发的一系列大型语言模型(LLMs) 。你可以把它们想象成拥有巨大“知识储备”和“学习能力”的超级大脑,它们被训练用来理解和生成人类语言,并完成各种复杂的任务 。
gujunge3 天前
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
Spring with AI (3): 定制对话——Prompt模板引入本文代码:https://github.com/JunTeamCom/ai-demo/tree/release-3.0 Spring with AI系列,只关注上层AI的应用程序(基于JAVA搭建),不关注底层的LLM原理、搭建等技术。
村中少年3 天前
llm·nodejs·虚拟机·qwen·ollama·openclaw
本地模型工具ollama配置使用openclaw指南本文介绍先对于已经熟悉ollama的小伙伴,在安装ollama之后,如何安装并配置openclaw。ollama也在不断地更新版本,建议老版本的小伙伴可以安装最新的ollama。ollama官网,这里,会检测操作系统,给出对应的命令,如下是windows的命令,以管理员权限打开powershell运行即可;
gujunge4 天前
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
Spring with AI (2): 评估答案——UnitTest引入本文代码:https://github.com/JunTeamCom/ai-demo/tree/release-2.0 Spring with AI系列,只关注上层AI的应用程序(基于JAVA搭建),不关注底层的LLM原理、搭建等技术。
core5128 天前
部署·模型·qwen·卸载·百炼·openclaw·小龙虾
openclaw部署及qwen模型配置环境说明:windows 10、node v25.2.1 网络环境:科学上网参考:https://help.aliyun.com/zh/model-studio/openclaw?spm=a2c4g.11186623.0.i1
l1t8 天前
人工智能·llama·qwen
在Windows11利用llama.cpp调用Qwen3.5量化模型测试1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本
loong_XL24 天前
音视频·qwen·多模态大模型
qwen3.5 文字、图像、视频多模态openai接口案例参考: https://qwen.ai/blog?id=qwen3.5
重生之我要成为代码大佬25 天前
人工智能·langchain·大模型·llama·qwen
AI框架设计与选型写在前面:本博客全部基于知乎的大模型课程所做的笔记和整以及和在实操过程中遇到的问题和处理方法,(老师们讲的都很好,解答的也很细致)博主也正在学习中,如果有错误的地方期待和我沟通。大多代码都来自于上课的资料,加入了一些注释和梳理,或者对我没有跑通的代码做了一些修改让他符合我的需求。第一节链接:langchain多任务应用开发
XLYcmy1 个月前
大数据·ai·llm·prompt·agent·qwen·万方数据库
智能体大赛 总结与展望 比赛总结“智研星图”智能体的设计与开发,是我们在2025“万方数据杯”智能体大赛中针对“研学效率工具”赛道所提出的一项系统性、创新性解决方案。本项目立足于当前科研工作者在“知识爆炸”时代所面临的严峻挑战——信息过载、检索低效、整合困难、创新乏力,通过深度融合LLM的强大能力与权威学术数据库的可靠数据,构建了一个以真实性为基石、以智能化为引擎、以激发创新为愿景的新一代AI研究辅助平台。本次参赛过程不仅是对我们技术能力的一次全面检验,更是对未来人机协同科研范式的一次深刻探索与实践。
背离赤道逆光而行1 个月前
大语言模型·qwen·api网关·clawdbot
Clawdbot部署实操:解决‘gateway token missing’授权问题的完整步骤Clawdbot 是一个统一的 AI 代理网关与管理平台,它的核心目标很实在——让开发者不用反复折腾模型对接、权限配置和会话管理,就能快速把自主AI代理跑起来、管起来、用起来。
leniou的牙膏1 个月前
大语言模型·qwen·api网关·文本交互
Clawdbot部署教程:解决‘gateway token missing’授权问题的完整步骤Clawdbot 是一个统一的 AI 代理网关与管理平台,专为开发者设计,目标很实在:让你不用反复折腾配置、写胶水代码、搭中间层,就能快速构建、部署和监控自己的自主 AI 代理。
XLYcmy1 个月前
人工智能·算法·机器学习·llm·prompt·agent·qwen
智能体大赛 技术架构 核心驱动层项目的技术核心在于系统化、多层次的Prompt工程策略,而非直接依赖模型微调。这一设计选择建立在我们对当前LLM技术特点及学术任务复杂性的深入理解之上。我们通过构建一套精密且可迭代的Prompt体系,将抽象、多阶段的学术任务——如主题聚类、知识体系构建、跨文献推理、方法比较等,分解为LLM能够稳定、可靠执行的一系列结构化子步骤。这种方法不仅在工程实践中显著降低了对庞大训练计算资源和标注数据的依赖,还极大地增强了系统的可控制性、可解释性与可扩展性,使我们能够通过持续优化Prompt结构、引入动态推理机制和实
laplace01231 个月前
人工智能·算法·agent·qwen
KL 散度1KL散度,全称 Kullback-Leibler Divergence(库尔贝克-莱布勒散度),是概率论和信息论中用于衡量两个概率分布 PPP 和 QQQ 之间差异的非对称度量。 简单来说,它衡量的是:当你用一个近似分布 QQQ 来替代真实分布 PPP 时,会损失多少信息(或者多产生多少“意外”)。 以下是KL散度原理的深度解析:
laplace01231 个月前
人工智能·算法·agent·qwen
浮点数精度核心概念: 浮点数由三部分组成——符号位(正/负)、指数位(范围)、尾数位(精度)。总位数越多,能表示的数值范围和精度就越高,但计算速度越慢、显存占用越大。 常见精度格式: FP32(Float32,单精度) — 32位浮点数,1位符号 + 8位指数 + 23位尾数。这是传统的"标准精度",精度高但占用显存大、计算慢。 FP16(Float16,半精度) — 16位浮点数,1位符号 + 5位指数 + 10位尾数。显存减半、速度更快,但数值范围小,容易出现溢出问题。 BF16(BFloat16,Brain
dawdo2221 个月前
llm·transformer·性能测试·qwen·benchmark·推理引擎
自己动手从头开始编写LLM推理引擎(11)-xLLM的benchmark实现在大型语言模型(LLM)推理系统中,性能评估是确保系统稳定性和效率的关键环节。xLLM提供了一个功能完善的基准测试工具(benchmark),用于全面评估系统在不同负载条件下的性能表现。本文将详细介绍xLLM benchmark工具的设计理念、核心实现、测试策略和性能分析方法,帮助开发者深入理解LLM推理系统的性能评估方法。
x-cmd1 个月前
ai·qwen·阿里·x-cmd·插画·qwen-image
[x-cmd] 阿里发布 Qwen-Image-2.0,实测复杂插画生成,手绘细节还原度很高!阿里千问 Qwen-Image-2.0 刚发布,我们就迫不及待拿来“压榨”它的生产力!这次直接让它帮我们生成视频封面。
laplace01231 个月前
人工智能·python·大模型·agent·qwen·rag
qwen2.5技术报告分析 上预训练,和前代版本相比,高质量预训练数据集从之前的7万亿 token 扩⼤到了 18 万亿 token 后训练,用了100 万个样本的精细监督微调,以及包括离线学习 DPO 和在线学习 GRPO 在内的多阶段强化学习 开源权重版本包含 0.5B 1.5B 3B 7B 14B 32B 和 72B (都是稠密的)参数规模的基础模型及指令微调模型 还有两个api模型,。Qwen2.5-Turbo 和 Qwen2.5-Plus(这两个是moe的)
dawdo2222 个月前
缓存·llm·transformer·qwen·kv cache
自己动手从头开始编写LLM推理引擎(9)-KV缓存实现和优化在大语言模型的推理过程中,生成每个token都需要计算之前所有token的注意力权重。如果不使用缓存,每次生成都需要重新计算所有历史token的Key和Value,这会导致巨大的计算开销。KV缓存(Key-Value Cache)技术通过缓存历史token的K和V,在后续生成中只计算新token的K和V,从而大幅提升推理性能。