lora

寻丶幽风19 小时前
论文阅读·人工智能·语言模型·lora·图像编辑·moe
论文阅读笔记——In-Context EditICEdit 论文阅读笔记 指令图像编辑现有方法的局限:将编辑指令嵌入专为语境化编辑设计的生成提示中,构建如下提示模板:“a side-by-side image of the same {subject}: the left depicts the original {description}, while the right mirrors the left but applies {edit instruction}.” 分析 IC 提示下编辑指令对应的注意力图,发现待修改区域呈现更显著的激活值。借
橙子小哥的代码世界5 天前
人工智能·lora·transformer·prompt tuning·模型训练·pturning
PET,Prompt Tuning,P Tuning,Lora,Qlora 大模型微调的简介到2025年,虽然PET(Pattern-Exploiting Training)和Prompt Tuning在学术界仍有探讨,但在工业和生产环境中它们已基本被LoRA/QLoRA等参数高效微调(PEFT)方法取代 。LoRA因其实现简单、推理零开销,并能在大规模模型上以极少量参数达到与全量微调相当的效果,已成为最受欢迎的PEFT技术 。QLoRA在此基础上再结合4-bit量化,使得即便是65B级模型也能在单块48 GB GPU上完成微调,内存占用降低近3倍,性能几乎无损 。
小草cys15 天前
lora·微调·qwen
使用LoRA微调Qwen2.5-VL-7B-Instruct完成电气主接线图识别任务适配需求 Qwen2.5-VL在视觉理解方面表现优异,但电气主接线图识别需要特定领域的结构化输出能力(如设备参数提取、拓扑关系解析)。微调可增强模型对专业符号(如SCB10-1000KVA)和工程图纸布局的理解。
玩电脑的辣条哥16 天前
lora·微调·数据集
什么是alpaca 或 sharegpt 格式的数据集?LLaMA-Factoryalpaca 或 sharegpt 格式的数据集?“Alpaca”和“ShareGPT”格式的数据集,是近年来在开源大语言模型微调和对话数据构建领域比较流行的两种格式。它们主要用于训练和微调以生成对话或指令驱动的模型。下面我详细介绍两者的特点和示例格式。
太空眼睛17 天前
lora·微调·sft·训练·deepspeed·llama-factory·deepseek
【LLaMA-Factory】使用LoRa微调训练DeepSeek-R1-Distill-Qwen-7B如果不禁用开源驱动,直接安装nvidia-smi,会安装失败,在日志文件/var/log/nvidia-installer.log中会出现以下错误信息 ERROR: Unable to load the kernel module 'nvidia.ko'
Ronin-Lotus19 天前
嵌入式硬件·wifi·lora·无线通信·蓝牙·2.4g射频
嵌入式硬件篇---无线通信模块本文简单介绍了四种无线通信模块(蓝牙、WiFi、2.4G射频、LoRa)的特点以及四者区别以及STM32F103RCT6的实例代码。
吴法刚1 个月前
人工智能·lora·llama·大模型训练·大模型微调·llama.cpp
20_大模型微调和训练之-基于LLamaFactory+LoRA微调LLama3后格式合并GGUF 格式的全名为(GPT-Generated Unified Format),提到 GGUF 就不得不提到它的前身 GGML(GPT-Generated Model Language)。GGML 是专门为了机器学习设计的张量库,最早可 以追溯到 2022/10。其目的是为了有一个单文件共享的格式,并 且易于在不同架构的 GPU 和 CPU 上进行推理。但在后续的开发 中,遇到了灵活性不足、相容性及难以维护的问题。
曲幽1 个月前
python·ai·stable diffusion·lora·文生图·diffusers
Stable Diffusion LoRA模型加载实现风格自由对于模型微调来说,直接进行微调需要的硬件配置和时间都是相当夸张的,但要想实现风格切换自由,也不是只有模型微调一个方式,LoRA技术可以说很完美的解决了这个难题。无论是二次元画风还是复古胶片质感,都只需要加载小巧的LoRA模型,就能立即解锁意料之外的百变创作可能!
Andy_shenzl2 个月前
lora·微调·swift
16、Swift框架微调实战(1)-自我认知数据LORA微调ms-SWIFT GitHub项目主页: https://github.com/modelscope/swift
玩电脑的辣条哥3 个月前
人工智能·lora·微调
大模型LoRA微调训练原理是什么?LoRA大模型LoRA微调训练原理是什么?通过 LoRA 微调,你可以在保持模型性能的同时,显著降低微调的计算成本。
熊文豪3 个月前
lora·huggingface·ollama·unsloth·googlecolab·ai微调·医疗ai
轻松微调大模型:利用 Colab 和 Unsloth 实现高效训练大型语言模型(LLM)如 Llama、Mistral 等在通用任务上表现惊艳,但要让它们适配特定场景(比如医疗问答、算命预测),就需要微调。Google Colab 提供免费的 GPU 资源,而 Unsloth 是一个高效的微调工具,能大幅降低显存需求,让普通用户也能在云端完成训练。这篇文章将带你一步步完成从零到部署的全过程。
学不会lostfound3 个月前
lora·深度学习模型·自我认知·llama-factory·sft微调·aigc实战
五、AIGC大模型_04LLaMA-Factory基础知识与SFT实战LLaMA-Factory 是一个开源的大型语言模型(LLM)微调框架,旨在帮助开发者和研究人员轻松地对预训练语言模型进行定制化训练和优化
伊织code4 个月前
开源·lora·大模型·llm·微调·mllm
开源大模型食用指南 - 微调、部署 LLM、MLLM《开源大模型食用指南》针对中国宝宝量身打造的基于Linux环境快速微调(全参数/Lora)、部署国内外开源大模型(LLM)/多模态大模型(MLLM)教程
开出南方的花4 个月前
人工智能·自然语言处理·lora·llm·prompt·peft·adapter
大模型微调介绍-Prompt-Tuning基于「传统机器学习模型」的范式,如TF-IDF特征+朴素贝叶斯等机器算法.基于「深度学习模型」的范式,如word2vec特征+LSTM等深度学习算法,相比于第一范式,模型准确有所提高,特征工程的工作也有所减少.
yuanlulu4 个月前
lora·llm·transformer·分布式训练·大语言模型·huggingface·多卡训练
llamafactory使用8张昇腾910b算力卡lora微调训练qwen2-72b大模型我需要在昇腾服务器上对Qwen2-72B大模型进行lora微调,改变其自我认知。 我的环境下是8张910B1卡。显存约512GB。
郑小路5 个月前
lora·llm
LoRA微调系列笔记第一章:LoRA微调系列笔记 第二章:Llama系列关键知识总结自然语言处理的一个重要范例是对一般领域数据进行大规模预训练pre-train,并经过微调(fine-tuning)适应特定的任务或领域。当我们fine-tuning较大的模型时,fine-tuning所有模型参数的完全微调变得不太可行。以GPT-3 175B为例,部署独立的微调模型实例,每个实例都有175B参数,这是非常昂贵的。我们提出了低秩自适应(Low-Rank Adaptation, LoRA),它冻结了预训练的模型权重,并将可训练的秩
每天八杯水D5 个月前
lora·微调·llama·peft·glm4-9b-chat
LLaMA-Factory GLM4-9B-CHAT LoRA 微调实战进入下载好的llama-factory,安装依赖包Alpaca 格式是一种用于训练自然语言处理(NLP)模型的数据集格式,特别是在对话系统和问答系统中。这种格式通常包含指令(instruction)、输入(input)和输出(output)三个部分,它们分别对应模型的提示、模型的输入和模型的预期输出。三者的数据都是字符串形式
西西弗Sisyphus5 个月前
lora·大模型·transformer·qwen2-vl
使用Gradio编写大模型ollama客户端 -界面版flyfish文末包含完整源码图例 sqlite3 是 Python 内置的一个库,用于与 SQLite 数据库进行交互。SQLite 是一个轻量级的数据库,它不需要单独的服务器进程或系统的配置,非常适合于嵌入式应用和小型项目。
西西弗Sisyphus6 个月前
lora·transformer·qwen2-vl·qwen2vl
模型训练中梯度累积步数(gradient_accumulation_steps)的作用flyfish在使用训练大模型时,TrainingArguments有一个参数梯度累积步数(gradient_accumulation_steps)