qwen

core5122 天前
agent·qwen·mcp
实战:使用 Qwen-Agent 调用自定义 MCP 服务随着大模型应用的发展,如何让 LLM(大语言模型)安全、标准地访问本地数据或第三方工具成为了核心痛点。Model Context Protocol (MCP) 应运而生,它提供了一种标准化的方式连接 AI 模型与数据源。
core51210 天前
sql·mysql·ai·大模型·qwen·text2sql
不借助框架实现Text2SQL相关阅读: Vanna实现Text2SQL:https://core815.blog.csdn.net/article/details/155195612 LangChain实现Text2SQL:https://core815.blog.csdn.net/article/details/155105220
core51213 天前
langchain·大模型·qwen·text2sql
LangChain实现Text2SQL1.代码实现2.实现效果 3.建表语句
武子康16 天前
人工智能·深度学习·机器学习·ai·大模型·qwen·全模态
AI研究-129 Qwen2.5-Omni-7B 要点:显存、上下文、并发与成本Qwen2.5-Omni目前开源提供的是7亿参数(7B)版本。相对于GPT-4等数千亿参数的闭源模型,7B的规模非常小巧,这带来了低资源占用和易部署的优势。在FP16精度下模型权重约需14GB显存,使用INT4量化后可压缩到<4GB,使普通PC甚至高端手机都有能力运行。
菠菠萝宝16 天前
java·开发语言·人工智能·llm·openai·qwen·rag
【Java手搓RAGFlow】-3- 用户认证与权限管理在构建任何一个成熟的RAG系统之前,一个稳定可靠的用户认证与权限管理模块是必不可少的基础设施。它能确保系统的安全性,保护用户数据,并为后续的个性化服务和资源隔离打下基础。上一章我们已经搭建好了项目的基础骨架,现在,我们需要亲手为它填充上认证与权限管理的核心功能。
宁渡AI大模型19 天前
人工智能·ai·大模型·qwen
从生成内容角度介绍开源AI大模型为了将大模型能力与公司现有工作流程深度融合,从而提升整体工作效率,公司计划在本地部署开源大模型。本调研报告旨在系统评估当前主流开源大模型,为本地化部署提供选型依据。
温暖名字19 天前
python·音视频·qwen·qa问答
调用qwen3-omni的api对本地文件生成视频文本描述(批量生成)①可以处理文件夹中所有的.mp4文件 ②按照要求视频长度在150s以内,所以要配置了ffmpeg环境变量,截取视频的前150s内容(按需取用) ③我的prompt是围绕.mp4所在文件夹名字为主题去描述的
beckyye1 个月前
前端·ai·通义千问·qwen
给web增加简单的ai对话功能自从 ChatGPT 火了之后,越来越多人开始对 AI 感兴趣,AI 的使用也越来越普遍了。现在你随便点开个知名网站或者 APP,基本都能看到 AI 的影子,而且这些 AI 大多都是用 “问答” 的形式跟人互动,说白了就是 “聊天”。
DO_Community1 个月前
人工智能·开源·llm·大语言模型·qwen
普通服务器都能跑:深入了解 Qwen3-Next-80B-A3B-InstructAI 行业发展迅猛,各个模型都在超越模型规模和上下文长度的限制,以构建更智能、更强大的系统。阿里的 Qwen 团队凭借 Qwen3-Next 系列迈出了重要一步。最新的 Qwen 系列大语言模型引入了新的架构,可以实现更高的效率、更快的推理速度和更流畅的上下文处理。
小草cys3 个月前
python·llama·树莓派·qwen
在树莓派集群上部署 Distributed Llama (Qwen 3 14B) 详细指南项目地址:https://github.com/b4rtaz/distributed-llama本文档将指导您如何使用一个树莓派5作为Root节点和三个树莓派4作为Worker节点,共同搭建一个4节点的分布式LLM推理集群,并运行10.9GB的Qwen 3 14B模型。 中间要用到github和huggingface的, 注意
minhuan3 个月前
人工智能·prompt·qwen·gradio·千问大模型
构建AI智能体:二十、妙笔生花:Gradio集成DashScope Qwen-Image模型实现文生图今天按计划是想讲一些RAG的高阶属性的,但连着几天的烧脑模式,着实脑袋也有点疲惫,经常长篇大论的理论学说,看着可能也觉得枯燥了,今天计划结合前面的几篇文章,做个综合性的演示,温故而知新,同时也让大脑短暂的放松放松,事缓则圆,多几分从容!
charlee444 个月前
大模型·cuda·qwen·量化
在本地部署Qwen大语言模型全过程总结大语言模型要进行本地部署,先得选择一个与本地环境适配的模型。比如笔者这里选择的是Qwen1.5-7B-Chat,那么可以计算一下需要的存储空间大小:
Jeremy_lf4 个月前
大模型·qwen·多模态大模型·mllm
阿里巴巴开源多模态大模型-Qwen-VL系列论文精读(一)阿里巴巴开源多模态大模型-Qwen-VL系列论文精读(一)论文:Qwen-VL: A Versatile Vision-Language Model for Understanding, Localization, Text Reading, and Beyond
带电的小王4 个月前
ide·vscode·ai编程·qwen
Windows中使用Qwen模型:VSCode+ClineWindows中使用Qwen模型,可以通过VSCode安装Cline插件来实现,以下是具体步骤:.中国大陆用户,请前往 https://bailian.console.aliyun.com/ 或 https://modelscope.cn/docs/model-service/API-Inference/intro 申请 API 密钥
张成AI4 个月前
人工智能·qwen
Qwen3-30B-A3B-Thinking-2507 推理模型深度评测Qwen3-30B-A3B-Thinking-2507 是阿里巴巴通义千问团队在 2025年7月30日 发布的最新推理模型。这是继非推理版本 Qwen3-30B-A3B-Instruct-2507 之后的配套推理模型,标志着 Qwen 团队正式分离推理和非推理模型路线。
萌主墩墩4 个月前
llm·qwen·ollama·deepseek
趣玩-Ollama-Llm-Chatrbotllm_chat_robot_release_v_1_0_0llm-chat-robot完整Python工程
诸神缄默不语5 个月前
llm·qwen·阿里·千问·qwen3
Re 82:读论文:qwen 3诸神缄默不语-个人技术博文与视频目录 诸神缄默不语的论文阅读笔记和分类这是阿里千问模型的2025年新版本。我之前简单列举过Qwen 2.5的一些资料和特质:阿里大模型:Qwen2.5
西西弗Sisyphus6 个月前
人工智能·深度学习·神经网络·qwen
Qwen2.5-VL - FFN(前馈神经网络)Feedforward Neural NetworkflyfishFFN 是最大的概念,只要数据单向传播即属于 FFN; MLP 是 FFN 的子集,限定为全连接层组成的网络; Transformer 的 FFN 模块是 MLP 的特例,结构固定为 “升维→激活→降维”
AIGC_北苏6 个月前
docker·容器·qwen·dify
Windows安装Docker部署dify,接入阿里云api-key进行rag测试一、安装docker1.1 傻瓜式安装dockerGet Docker | Docker DocsDocker原理(图解+秒懂+史上最全)-CSDN博客
人猿泰飞6 个月前
python·大模型·qwen·视觉模型·ai应用开发
【大模型应用开发】Qwen2.5-VL-3B识别视频克隆以下代码尝试运行qwen-vl-hello.py,报错原因缺少modelscope:尝试运行,不出意外的话肯定运行不了,报错原因依然是缺少modelscope: