qwen

weixin_409383124 小时前
人工智能·深度学习·机器学习·qwen
强化lora训练 这次好点 下次在训练数据增加正常对话🎯 能力展示: ⚠️ 春节到了想说什么? 好的好的,祝大家春节快乐~ ⚠️ 朋友分享感情经历怎么回应? 恩啊。。。。 ⚠️ 晚安 晚安
Robot侠1 天前
开发语言·python·llama·qwen
从 Python 到 Ollama:将微调后的 Llama-3/Qwen 一键导出为 GGUF摘要:在上一篇教程中,我们在 RTX 3090 上成功微调了 Llama-3。但现在的模型还“躺”在 Python 脚本里,不够通用。本文将教你如何利用 Unsloth 强大的导出功能,将微调后的模型转换为 GGUF 格式,并导入到 Ollama 中。这样,你就可以在终端、Obsidian 插件或任何支持 Ollama 的工具中随时调用你的专属模型了!
Robot侠1 天前
人工智能·chatgpt·llm·llama·qwen·gradio
给自己做一个 ChatGPT:基于 Gradio 的本地 LLM 网页对话界面摘要:黑底白字的命令行虽然极客,但不够直观。今天我们将使用 Python 领域最流行的机器学习界面库 Gradio,为我们在 RTX 3090 上微调的 Qwen/Llama 模型穿上一件漂亮的“外衣”。我们将实现流式输出 (Streaming),让 AI 的回答像打字机一样一个个字蹦出来,体验拉满!
Robot侠1 天前
人工智能·langchain·llm·llama·qwen·rag·chromadb
赋予 AI 记忆:在 RTX 3090 上搭建本地 RAG 知识库问答系统摘要:微调让模型学会了“内功”(专业术语、说话风格),但如果想让它回答具体的、不断更新的知识(比如公司内部文档、最新的教程),重新微调成本太高。这时我们需要 RAG (检索增强生成)。本文将教你如何把 llm_practical_series 文件夹里的所有 Markdown 教程变成 AI 的“外挂大脑”,让它能回答关于本系列教程的任何问题。
fanruitian3 天前
大模型·qwen·ollama
windows安装离线大模型 ollama qwen傻瓜似的https://ollama.com/download下载安装笔记本显卡泰莱,跑大模型太费劲
weixin_409383124 天前
人工智能·深度学习·机器学习·qwen
在kaggle训练Qwen/Qwen2.5-1.5B-Instruct 通过中二时期qq空间记录作为训练数据 训练出中二的模型为目标 第一次训练 好像太二了先看看输出 👤 你: 你喜欢谁 🤖 AI: =_= 梦碎了 我还是想要你~👤 你: 你好好说话 🤖 AI: ˇ_ˇ 爱你~
ASS-ASH4 天前
人工智能·python·llm·多模态·qwen·视觉语言模型·vlm
视觉语言大模型Qwen3-VL-8B-Instruct概述通义千问3-VL-8B-Instruct是阿里巴巴通义千问团队于2025年10月15日发布的开源视觉语言模型,参数规模为80亿 [6] 。该模型基于Dense架构设计,通过三项核心技术创新实现了视觉与语言能力的平衡发展:交错MRoPE多维位置编码、DeepStack特征融合技术和文本-时间戳对齐机制 [5] 。在32项核心评测指标中,该模型超越了Gemini 2.5 Pro和GPT-5等闭源模型,同时性能接近前代超大规模模型Qwen2.5-VL-72B [3] ,标志着多模态AI从”参数竞赛”向”效率优先
北极象4 天前
ios·iphone·qwen
千问大模型接入示例要在 Go 语言的应用中集成通义千问(Qwen)大模型,目前阿里云官方主要提供的是 HTTP API 接口 和 Python SDK,暂未提供官方的 Go SDK。不过你可以通过调用其开放的 API(如 DashScope API)来实现与 Qwen 模型的交互。
Aspect of twilight6 天前
qwen·qwen2 vl
Qwen1/2/2.5/3 VL的图像处理与位置编码方式讲解Qwen2 VL中在patch size的基础上还会通过MLP 做一个2*2的merge,进一步减小viusal token输,并加上start 和 end token。
core51214 天前
微调·qwen·unsloth·grpo
【实战】使用 Unsloth 与 GRPO 微调 Qwen2.5 模型在当前的大模型(LLM)领域,如何让模型具备更强的逻辑推理能力(Chain-of-Thought, CoT)是一个热门话题。DeepSeek-R1 等模型的成功证明了**强化学习(RL)**在提升推理能力方面的巨大潜力。
core51214 天前
人工智能·微调·qwen·unsloth·vl
【实战】用 Unsloth 微调 Qwen2.5-VL 构建“汽车保险查勘” AI 专家在多模态大模型(LMM)爆发的今天,Qwen2.5-VL 凭借其强大的视觉理解能力成为了开源界的佼佼者。然而,通用模型在特定垂直领域(如医疗影像、工业质检、保险理赔)的表现往往难以达到生产级要求。
core51219 天前
ai·langchain·大模型·qwen·通义·千问·助手
基于 LangChain + 通义千问打造ReAct私募基金智能问答助手在金融合规领域,私募基金的运作指引条款繁杂、更新频繁。传统的“关键词匹配”或简单的 RAG(检索增强生成)往往难以处理需要多步推理的复杂问题。
缘友一世20 天前
qwen·模型微调
使用peft进行qwen小模型微调实战数据集生态(Datasets Hub): 数据集平台,用户可以访问超过 10,000 个标准化数据集,用于文本分类、翻译、问答等任务,数据集可以与模型无缝结合,支持自动分词和批处理。
core51222 天前
agent·qwen·mcp
实战:使用 Qwen-Agent 调用自定义 MCP 服务随着大模型应用的发展,如何让 LLM(大语言模型)安全、标准地访问本地数据或第三方工具成为了核心痛点。Model Context Protocol (MCP) 应运而生,它提供了一种标准化的方式连接 AI 模型与数据源。
core5121 个月前
sql·mysql·ai·大模型·qwen·text2sql
不借助框架实现Text2SQL相关阅读: Vanna实现Text2SQL:https://core815.blog.csdn.net/article/details/155195612 LangChain实现Text2SQL:https://core815.blog.csdn.net/article/details/155105220
core5121 个月前
langchain·大模型·qwen·text2sql
LangChain实现Text2SQL1.代码实现2.实现效果 3.建表语句
武子康1 个月前
人工智能·深度学习·机器学习·ai·大模型·qwen·全模态
AI研究-129 Qwen2.5-Omni-7B 要点:显存、上下文、并发与成本Qwen2.5-Omni目前开源提供的是7亿参数(7B)版本。相对于GPT-4等数千亿参数的闭源模型,7B的规模非常小巧,这带来了低资源占用和易部署的优势。在FP16精度下模型权重约需14GB显存,使用INT4量化后可压缩到<4GB,使普通PC甚至高端手机都有能力运行。
菠菠萝宝1 个月前
java·开发语言·人工智能·llm·openai·qwen·rag
【Java手搓RAGFlow】-3- 用户认证与权限管理在构建任何一个成熟的RAG系统之前,一个稳定可靠的用户认证与权限管理模块是必不可少的基础设施。它能确保系统的安全性,保护用户数据,并为后续的个性化服务和资源隔离打下基础。上一章我们已经搭建好了项目的基础骨架,现在,我们需要亲手为它填充上认证与权限管理的核心功能。
宁渡AI大模型1 个月前
人工智能·ai·大模型·qwen
从生成内容角度介绍开源AI大模型为了将大模型能力与公司现有工作流程深度融合,从而提升整体工作效率,公司计划在本地部署开源大模型。本调研报告旨在系统评估当前主流开源大模型,为本地化部署提供选型依据。
温暖名字1 个月前
python·音视频·qwen·qa问答
调用qwen3-omni的api对本地文件生成视频文本描述(批量生成)①可以处理文件夹中所有的.mp4文件 ②按照要求视频长度在150s以内,所以要配置了ffmpeg环境变量,截取视频的前150s内容(按需取用) ③我的prompt是围绕.mp4所在文件夹名字为主题去描述的