微调

YMWM_3 天前
微调·vla·pi0.5
测试 pi0.5 微调模型指南首先,检查训练是否完成以及模型保存位置:训练完成后,检查点会保存在:如果你的数据集有对应的仿真环境,可以使用 lerobot-eval 命令:
羊城迷鹿3 天前
大模型·微调·多模态·qwen·llamafactory·oft
从LoRA到OFT:Qwen2.5-VL在昇腾910B与4090上的多模态微调实践与踩坑记录本文系统记录了在华为昇腾910B和英伟达4090两种硬件平台上,针对两个不同规模数据集(其中一个为从头构建的签字识别数据集)基于LLamafactory进行Qwen2.5-VL-3B多模态大模型微调的完整实验过程。实验主要探索了LoRA、Full Fine-tuning、Freeze Fine-tuning和OFT四种主流微调方法,并对学习率、训练轮数、LoRA秩、批处理大小、精度类型等数十个超参数进行了系统性对比测试,并在此过程中解决Oft无法正常推理和测试等问题。
一碗甜汤ᐝ5 天前
语言模型·大模型·微调·chatglm
chatglm3-6b部署和微调学习记录📝部署chatglm3-6b 项目地址:https://github.com/THUDM/ChatGLM3
勇气要爆发6 天前
人工智能·gpt·机器学习·llm·微调·多模态·预训练
【AI扫盲】大模型(LLM)原理详解:从 DeepSeek 到 GPT-5 全面解析 (2026最新版)难度:⭐⭐ 关键词:LLM, 参数, 预训练, 微调, 多模态, DeepSeek大家好,我是飞哥!👋
AI周红伟13 天前
大模型·微调·部署·rag·智能体·agent智能体
周红伟《DeepSeek企业大模型的企业级部署及优化和RAG知识库和Agent智能体构建的案例交付实操》——企业私有RAG知识库业务助手的构建课程背景大规模预训练模型已成为推动智能化转型的核心动力。从DeepSeek,Qwen, Yiyan 到各行业定制化大模型,越来越多的企业开始将“以大模型为中台”的技术架构融入产品与服务。
fjhcom15 天前
微调·部署·qwen
Qwen2.5-0.5B 模型微调与部署完整教程本教程将带你完成 Qwen2.5-0.5B 模型的微调、转换和部署全流程。你将学习如何在 CPU 环境下微调模型,将其转换为 GGUF 格式,并部署到 Ollama 中使用。
core51216 天前
lora·微调·swift·qwen·qwen3·vl
使用 `ms-swift` 微调 Qwen3-VL-2B 详细指南本文仅针对图片OCR场景训练。租赁的AutoDL服务器,配置如下: 使用情况如下: 综上,不用租配置太高的显卡。
core51216 天前
lora·微调·swift·qwen·vl
Swift SFT Qwen-VL LoRA 微调指令详解接上文:使用 ms-swift 微调 Qwen3-VL-2B 详细指南这条指令是使用 ModelScope Swift 框架对 Qwen-VL(视觉语言大模型)进行 LoRA 微调 的完整脚本。
jjjddfvv20 天前
windows·python·深度学习·神经网络·微调·audiolm·llamafactory
超级简单启动llamafactory!先去官网找到llama_factory项目地址windows用户:打开release目录:Releases · hiyouga/LlamaFactory
_小苔藓_20 天前
深度学习·开源·大模型·微调·多模态
混合Token与LoRA结合Qwen3-VL高效微调(代码开源)代码在自己的一个关于多模态大模型与Multi Agent的开源小项目中,如果喜欢可以点个star~https://github.com/xi029/Qwen3-VL-MoeLORAhttps://github.com/xi029/Qwen3-VL-MoeLORA
田井中律.23 天前
微调
七种大模型方法一、大型模型微调的基础理论大型语言模型(LLM)的训练过程通常分为两大阶段:阶段一:预训练阶段在这个阶段,大型模型会在大规模的无标签数据集上接受训练,目标是使模型掌握语言的统计特征和基础知识。
*星星之火*1 个月前
lora·大模型·微调·llama·llama factory
【大模型进阶】视频课程2 LORA微调原理深度解析+LLaMA Factory实操指南:小白也能玩转大模型定制链接: 1.大模型lora微调的原理链接: 2.LlamaFactory介绍与linux安装链接: 3.LlamaFactory微调qwen,改变模型自我认知
白云千载尽1 个月前
人工智能·算法·大模型·微调·llama
LLaMA-Factory 入门(一):Ubuntu20 下大模型微调与部署参考链接:LLaMA-Factory 是一个面向大语言模型(LLM)的高效训练与微调框架,专为简化 LLaMA 系列以及各类开源大模型的训练流程而设计。它以“开箱即用、灵活高效”为核心理念,提供从数据准备、参数高效微调(PEFT)、训练配置管理到模型部署的一站式解决方案。
Elaine3361 个月前
人工智能·lora·微调·llama·llama-factory
基于 Qwen2.5 与 LLaMA-Factory 的 LoRA 微调实战本文将详细介绍如何在 Windows 环境下(单卡 8G 显存),利用 LLaMA-Factory 框架对 Qwen2.5-1.5B 模型进行 LoRA 微调,并通过 Ollama 实现本地部署。我们将通过人设注入(Identity Injection),把通用的 AI 模型训练成一位名为 Elaine 的专属助手。
viperrrrrrrrrr72 个月前
微调·rlhf
RLHF微调场景🍋🍋AI学习🍋🍋🔥系列专栏: 👑哲学语录: 用力所能及,改变世界。 💖如果觉得博主的文章还不错的话,请点赞👍+收藏⭐️+留言📝支持一下博主哦🤞
core5122 个月前
微调·qwen·unsloth·grpo
【实战】使用 Unsloth 与 GRPO 微调 Qwen2.5 模型在当前的大模型(LLM)领域,如何让模型具备更强的逻辑推理能力(Chain-of-Thought, CoT)是一个热门话题。DeepSeek-R1 等模型的成功证明了**强化学习(RL)**在提升推理能力方面的巨大潜力。
core5122 个月前
人工智能·微调·qwen·unsloth·vl
【实战】用 Unsloth 微调 Qwen2.5-VL 构建“汽车保险查勘” AI 专家在多模态大模型(LMM)爆发的今天,Qwen2.5-VL 凭借其强大的视觉理解能力成为了开源界的佼佼者。然而,通用模型在特定垂直领域(如医疗影像、工业质检、保险理赔)的表现往往难以达到生产级要求。
Yeliang Wu2 个月前
微调·多模态·训练·ms-swift
基于ms-swift框架微调多模态模型(Ubuntu22.04)作者:吴业亮 博客:wuyeliang.blog.csdn.net本文从核心原理到实操步骤,完整讲解基于微软ms-swift(ModelScope Swift)框架在Ubuntu22.04系统上微调多模态模型(如Qwen-VL、LLaVA、MiniCPM-V等)的全流程。
Yeliang Wu2 个月前
微调·embedding·训练·ms-swift
基于 ms-swift 框架微调 Embedding 模型(Ubuntu22.04):从原理到实践作者:吴业亮 博客:wuyeliang.blog.csdn.netEmbedding模型的核心是将文本转化为低维稠密向量,使语义相似的文本向量距离更近、语义相异的更远。微调的目标是让预训练Embedding模型适配特定领域/任务(如金融、医疗文本相似度匹配),核心逻辑是:
Yeliang Wu2 个月前
微调·训练·unsloth
Unsloth 从原理到实践(基于Ubuntu 22.04)作者:吴业亮 博客:wuyeliang.blog.csdn.netUnsloth 是一款面向大语言模型(LLM)的高效微调框架,主打低资源占用、超高训练速度,核心优化了 QLoRA/LoRA 微调流程,适配 Ubuntu 22.04 等Linux环境,支持 Llama、Mistral、Phi、Gemma 等主流开源模型。本文从原理到全流程实践,覆盖环境搭建、数据集处理、微调、模型合并、量化、评测、监控等核心环节。