微调

小俊俊的博客6 小时前
微调·llama-factory·qwen2.5-vl
Llama-Factory微调Qwen2.5-VL从数据集制作到部署记录电脑环境配置: 1.ubuntu24 2.3090(24G) 3.Cuda==12.9我的数据集主要是对图像内容进行描述 1.Label-studio制作数据集 这是最原始的从零开始制作数据集的方法,不建议这样做! 安装完label-studio后,输入指令启动
胡耀超9 天前
python·ai·大模型·llm·微调·提示词·大模型应用指南
AI:大语言模型微调的真相:打破迷思,理性选择现实打击:微调并不增加模型的知识容量,只是重新配置已有的参数权重。想让GPT-3.5通过微调变成量子物理专家?如果它预训练时没有足够的量子物理基础,微调一万个案例也无济于事。这就像试图通过调整望远镜的焦距来观察显微镜下的世界——工具的本质限制了可能性。
一条测试老狗14 天前
gpt·微调·rag·幻觉·icl·gpt-5·垂直领域模型
从GPT-5发布来分析LLM大模型幻觉收敛(一)GPT-5 号称在任何领域都有博士级别能力。在医疗健康领域,能够对专业的癌症诊断报告做通俗易懂的解读。对复杂的放射治疗方案决策,也能提供详细的分析报告,帮助病人权衡利弊。一位癌症患者的家属在发布会上表示,“ 真正鼓舞人心的是看着她通过使用 GPT-5 重新获得自主权,病人很容易感到无助,因为知识差距太大了。
迪菲赫尔曼16 天前
人工智能·yolo·目标检测·大模型·微调·新手入门·qwen2.5
大模型入门实战 | 基于 YOLO 数据集微调 Qwen2.5-VL-3B-Instruct 的目标检测任务这篇就是新手向的“保姆级”实操文。你将把 YOLO 检测数据 转成 对话式 Grounding 数据,用 ms-swift 做 LoRA 微调,再用脚本 推理 + 可视化。 但值得注意的是,一般的检测任务不推荐这么用哈,这仅仅是给大家学习使用,切勿“大炮打蚊子”。
居7然19 天前
人工智能·微调
大模型微调面试题全解析:从概念到实战本文较长,建议点赞收藏,以免遗失。更多AI大模型开发 学习视频/籽料/面试题 都在这>>Github<< >>gitee<<
大千AI助手1 个月前
人工智能·大模型·llm·微调·rag·检索·ragfoundry
RAGFoundry:面向检索增强生成的模块化增强框架本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
爱分享的飘哥1 个月前
人工智能·lora·微调·ai训练·peft·代码实战·模型定制
第五十五章:AI模型的“专属定制”:LoRA微调原理与高效合并技巧在之前我们了解到“微调(Fine-tuning)”是让大模型从“通才”变为“专才”的关键。但对一个拥有数十亿参数的LLM(如LLaMA-7B)进行全参数微调(Full Fine-tuning),意味着:
大千AI助手1 个月前
人工智能·神经网络·语言模型·自然语言处理·微调·t5·finetune
FLAN-T5:大规模指令微调的统一语言模型框架本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
华尔街的幻觉1 个月前
微调·datawhale
Datawhale AI夏令营——列车信息智能问答——科大讯飞AI大赛(基于结构化数据的用户意图理解和知识问答挑战赛)坐火车的你,遇到过这样的场景吗?我们这次将一起来探索——如何让AI“看懂”列车时刻表! 你随口一问(比如“K123在哪检票?”),AI秒回精准答案! 告别抓狂!
仅此,2 个月前
大模型·微调·魔搭·ms-swift
魔搭官方教程【快速开始】-swift 微调报错:`if v not in ALL_PARALLEL_STYLES`在魔搭社区按照官方教程搭建大模型时,在微调阶段 执行【微调脚本】出现了问题: 报错最后提示 if v not in ALL_PARALLEL_STYLES
MUTA️2 个月前
人工智能·深度学习·微调·prompt·多模态
Clip微调系列:《MaPLe: Multi-modal Prompt Learning》论文链接:arxiv.org/pdf/2210.03117参考链接:(28 封私信) CVPR2023 | MaPLe: Multi-modal Prompt Learning - 知乎
西西弗Sisyphus2 个月前
微调·llama·llama-factory·后训练
LLaMA-Factory 单卡后训练微调Qwen3完整脚本flyfish将下面代码保存为 train_single_gpu.sh修改脚本中的以下参数: MODEL_PATH:模型路径 DS_CONFIG_PATH:DeepSpeed配置文件路径 OUTPUT_PATH:输出目录路径 --dataset erfen:替换为实际数据集名称 这里是erfen
仙人掌_lz3 个月前
人工智能·python·ai·lora·llm·微调·qwen3
Qwen-3 微调实战:用 Python 和 Unsloth 打造专属 AI 模型虽然大家都忙着在 DeepSeek 上构建应用,但那些聪明的开发者们却悄悄发现了 Qwen-3 的微调功能,这可是一个隐藏的宝藏,能把通用型 AI 变成你的专属数字专家。
咕噜咕噜day3 个月前
微调·adapter·lora微调·微调与rag区别·微调分类
高效微调方法简述针对成本和性价比选择RAG或微调,那他们适用的范围和区别要提前了解;形象的描述预训练、微调、提示工程、Agents:
Toky丶3 个月前
人工智能·大模型·微调
SmolVLM2: The Smollest Video Model Ever(七)现在的数据集里面只涉及tool的分类和手术phase的分类,所以编写的评价指标还是那些通用的,但是:predicted_labels:['The current surgical phase is CalotTriangleDissection, Grasper, Hook tool exists.', 'The current surgical phase is GallbladderDissection, Grasper, Hook tool exists.', 'The current surgic
阿丢是丢心心3 个月前
chatgpt·微调·强化学习·rlhf
【从0到1搞懂大模型】chatGPT 中的对齐优化(RLHF)讲解与实战(9)chatgpt系列模型演进的重要节点包含下面几个模型(当然,这两年模型发展太快了,4o这些推理模型我就先不写了) (Transformer) → GPT-1 → GPT-2 → GPT-3 → InstructGPT/ChatGPT(GPT-3.5) → GPT-4 下面介绍一下各个模型之前的重点差异
小草cys4 个月前
lora·微调·qwen
使用LoRA微调Qwen2.5-VL-7B-Instruct完成电气主接线图识别任务适配需求 Qwen2.5-VL在视觉理解方面表现优异,但电气主接线图识别需要特定领域的结构化输出能力(如设备参数提取、拓扑关系解析)。微调可增强模型对专业符号(如SCB10-1000KVA)和工程图纸布局的理解。
玩电脑的辣条哥4 个月前
lora·微调·数据集
什么是alpaca 或 sharegpt 格式的数据集?LLaMA-Factoryalpaca 或 sharegpt 格式的数据集?“Alpaca”和“ShareGPT”格式的数据集,是近年来在开源大语言模型微调和对话数据构建领域比较流行的两种格式。它们主要用于训练和微调以生成对话或指令驱动的模型。下面我详细介绍两者的特点和示例格式。
Code_流苏4 个月前
python·微调·问答系统·bert·应用场景·基于检索·基于生成
《Python星球日记》 第72天:问答系统与信息检索名人说:路漫漫其修远兮,吾将上下而求索。—— 屈原《离骚》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊)
太空眼睛4 个月前
lora·微调·sft·训练·deepspeed·llama-factory·deepseek
【LLaMA-Factory】使用LoRa微调训练DeepSeek-R1-Distill-Qwen-7B如果不禁用开源驱动,直接安装nvidia-smi,会安装失败,在日志文件/var/log/nvidia-installer.log中会出现以下错误信息 ERROR: Unable to load the kernel module 'nvidia.ko'