微调

BatmanWayne12 天前
微调·swift
swift微调记录Qwen3-4b-Thinking-2507ms-swift魔搭社区增送的免费GPU算力(GPU是 A10 24G显存)
yyoc9715 天前
大模型·微调·llama·ollama
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录遇到问题1:ERROR: Package 'llamafactory' requires a different Python: 3.9.6 not in '>=3.11.0'。然后升级到python最高版本3.14解决(不建议选最新版本,后面使用数据集遇到新的问题) 问题2:
TGITCIC16 天前
自动化·lora·微调·ai训练·训练·大模型训练·大模型ai
垂域大模型评估不再靠“感觉”:用结构化测试集+自动化打分实现效果可量化当前大模型在垂直领域的落地已从“能不能跑”进入“跑得好不好”的阶段。开发者普遍发现,微调一个模型或搭建一套RAG系统并不算最难,真正的瓶颈在于缺乏一套可靠、高效、可复现的评估机制。很多团队依赖人工试用,靠“感觉”判断模型是否变好,这种做法在初期或许可行,但一旦进入迭代优化阶段,主观判断无法支撑工程决策。尤其在企业场景中,业务文档高度专业化,通用评测集(如MMLU、C-Eval)覆盖不足,而人工构造高质量测试集成本极高。更棘手的是,模型可能在训练损失下降的同时,出现知识幻觉、逻辑断裂或通用能力退化等问题,这
爱吃泡芙的小白白18 天前
微调·fine-tune
深入浅出:Fine-tune(微调)的核心场景、实战方法与避坑指南在人工智能模型日益庞大、数据获取成本高昂的今天,迁移学习中的 Fine-tune(微调) 技术已成为将通用模型“锻造”为领域利器的关键手段。它让我们不必每次都从零开始训练一个模型,而是像一位经验丰富的工匠,对一件近乎完美的半成品进行最后的精雕细琢。无论是让BERT理解晦涩的医学文献,还是让Stable Diffusion学会你独特的画风,微调都扮演着核心角色。
一颗小树x23 天前
微调·强化学习·vla·流匹配·πrl
【VLA 系列】 πRL | 在线强化学习 | 流匹配 | VLAπRL是一款在线强化学习的VLA框架,适配π0、π0.5等基于流的VLA模型。核心解决 “对数似然计算难” 和 “探索性不足” 两大问题:
YMWM_1 个月前
微调·vla·pi0.5
测试 pi0.5 微调模型指南首先,检查训练是否完成以及模型保存位置:训练完成后,检查点会保存在:如果你的数据集有对应的仿真环境,可以使用 lerobot-eval 命令:
羊城迷鹿1 个月前
大模型·微调·多模态·qwen·llamafactory·oft
从LoRA到OFT:Qwen2.5-VL在昇腾910B与4090上的多模态微调实践与踩坑记录本文系统记录了在华为昇腾910B和英伟达4090两种硬件平台上,针对两个不同规模数据集(其中一个为从头构建的签字识别数据集)基于LLamafactory进行Qwen2.5-VL-3B多模态大模型微调的完整实验过程。实验主要探索了LoRA、Full Fine-tuning、Freeze Fine-tuning和OFT四种主流微调方法,并对学习率、训练轮数、LoRA秩、批处理大小、精度类型等数十个超参数进行了系统性对比测试,并在此过程中解决Oft无法正常推理和测试等问题。
一碗甜汤ᐝ1 个月前
语言模型·大模型·微调·chatglm
chatglm3-6b部署和微调学习记录📝部署chatglm3-6b 项目地址:https://github.com/THUDM/ChatGLM3
勇气要爆发1 个月前
人工智能·gpt·机器学习·llm·微调·多模态·预训练
【AI扫盲】大模型(LLM)原理详解:从 DeepSeek 到 GPT-5 全面解析 (2026最新版)难度:⭐⭐ 关键词:LLM, 参数, 预训练, 微调, 多模态, DeepSeek大家好,我是飞哥!👋
AI周红伟1 个月前
大模型·微调·部署·rag·智能体·agent智能体
周红伟《DeepSeek企业大模型的企业级部署及优化和RAG知识库和Agent智能体构建的案例交付实操》——企业私有RAG知识库业务助手的构建课程背景大规模预训练模型已成为推动智能化转型的核心动力。从DeepSeek,Qwen, Yiyan 到各行业定制化大模型,越来越多的企业开始将“以大模型为中台”的技术架构融入产品与服务。
fjhcom1 个月前
微调·部署·qwen
Qwen2.5-0.5B 模型微调与部署完整教程本教程将带你完成 Qwen2.5-0.5B 模型的微调、转换和部署全流程。你将学习如何在 CPU 环境下微调模型,将其转换为 GGUF 格式,并部署到 Ollama 中使用。
core5121 个月前
lora·微调·swift·qwen·qwen3·vl
使用 `ms-swift` 微调 Qwen3-VL-2B 详细指南本文仅针对图片OCR场景训练。租赁的AutoDL服务器,配置如下: 使用情况如下: 综上,不用租配置太高的显卡。
core5121 个月前
lora·微调·swift·qwen·vl
Swift SFT Qwen-VL LoRA 微调指令详解接上文:使用 ms-swift 微调 Qwen3-VL-2B 详细指南这条指令是使用 ModelScope Swift 框架对 Qwen-VL(视觉语言大模型)进行 LoRA 微调 的完整脚本。
jjjddfvv1 个月前
windows·python·深度学习·神经网络·微调·audiolm·llamafactory
超级简单启动llamafactory!先去官网找到llama_factory项目地址windows用户:打开release目录:Releases · hiyouga/LlamaFactory
_小苔藓_1 个月前
深度学习·开源·大模型·微调·多模态
混合Token与LoRA结合Qwen3-VL高效微调(代码开源)代码在自己的一个关于多模态大模型与Multi Agent的开源小项目中,如果喜欢可以点个star~https://github.com/xi029/Qwen3-VL-MoeLORAhttps://github.com/xi029/Qwen3-VL-MoeLORA
田井中律.2 个月前
微调
七种大模型方法一、大型模型微调的基础理论大型语言模型(LLM)的训练过程通常分为两大阶段:阶段一:预训练阶段在这个阶段,大型模型会在大规模的无标签数据集上接受训练,目标是使模型掌握语言的统计特征和基础知识。
*星星之火*2 个月前
lora·大模型·微调·llama·llama factory
【大模型进阶】视频课程2 LORA微调原理深度解析+LLaMA Factory实操指南:小白也能玩转大模型定制链接: 1.大模型lora微调的原理链接: 2.LlamaFactory介绍与linux安装链接: 3.LlamaFactory微调qwen,改变模型自我认知
白云千载尽2 个月前
人工智能·算法·大模型·微调·llama
LLaMA-Factory 入门(一):Ubuntu20 下大模型微调与部署参考链接:LLaMA-Factory 是一个面向大语言模型(LLM)的高效训练与微调框架,专为简化 LLaMA 系列以及各类开源大模型的训练流程而设计。它以“开箱即用、灵活高效”为核心理念,提供从数据准备、参数高效微调(PEFT)、训练配置管理到模型部署的一站式解决方案。
Elaine3362 个月前
人工智能·lora·微调·llama·llama-factory
基于 Qwen2.5 与 LLaMA-Factory 的 LoRA 微调实战本文将详细介绍如何在 Windows 环境下(单卡 8G 显存),利用 LLaMA-Factory 框架对 Qwen2.5-1.5B 模型进行 LoRA 微调,并通过 Ollama 实现本地部署。我们将通过人设注入(Identity Injection),把通用的 AI 模型训练成一位名为 Elaine 的专属助手。
viperrrrrrrrrr72 个月前
微调·rlhf
RLHF微调场景🍋🍋AI学习🍋🍋🔥系列专栏: 👑哲学语录: 用力所能及,改变世界。 💖如果觉得博主的文章还不错的话,请点赞👍+收藏⭐️+留言📝支持一下博主哦🤞