lora

土丁爱吃大米饭1 天前
lora·aigc·comfyui·序列帧动画·webui
AIGC开发游戏素材之序列帧动画在 AI 驱动的数字艺术创作领域,像素艺术作为一种独特的视觉风格,正经历着前所未有的技术革新。2D Pixel Toolkit LoRA作为专门为独立游戏开发训练的像素风生成模型,通过低秩适应(LoRA)技术,实现了对基座模型的高效微调,能够生成真正的像素图而非模糊的伪像素图。该模型由开发者 "始于空 006" 创作,最初为自用目的训练,后因考虑独立游戏产业发展需要而公开发布,旨在帮助游戏开发者快速生成高质量像素素材。(CivitAI和LiblibAI都可以下载和使用)
AI生成未来5 天前
lora·视频生成·视频交互·视频理解·mm-dit
ICCV`25 | 视频交互“随心所欲”!复旦&通义万相等开源DreamRelation:让想象力从此无边界项目链接:https://dreamrelation.github.io/ 文章链接:https://openaccess.thecvf.com/content/ICCV2025/papers/Wei_DreamRelation_Relation-Centric_Video_Customization_ICCV_2025_paper.pdf 开源链接:https://github.com/ali-vilab/DreamRelation
程序员老奥10 天前
lora·llm·fine-tuning·大模型微调
【有手就行】LoRA:用你自己的数据来微调大模型,让大模型真正懂你上上周的周末无事在家,然后写了一篇《【有手就行】自己花20分钟从0开始训练一个“大模型”》,结果发现这两个星期涨了几十个关注,比我前面写了几个月文章得到的关注还多,看来这种浅显易懂的、入门级的技术文章相对来说会有更多人爱看一些。 既然如此,我再把早先在做OddAgent时候,微调语音助手功能的流程也简单理一下,然后放出来给大家做一个参考吧。
小鱼儿电子18 天前
stm32·单片机·嵌入式硬件·lora·腾讯云平台
56-基于LoRa的水质监测系统设计与实现水是生命之源,是维系生态系统平衡、保障社会经济可持续发展的基础性战略资源。随着全球工业化进程的加速、城市化率的提升以及农业生产规模的扩大,工业废水、生活污水的违规排放以及农业面源污染等问题日益突出,导致水体富营养化、重金属超标、有机物污染等水质恶化现象频发。据《2024年中国生态环境状况公报》显示,我国部分流域的劣Ⅴ类水体占比虽较往年有所下降,但在一些经济发达地区的支流及农村水环境中,水质污染问题仍未得到根本性解决,直接威胁到饮用水安全、食品安全以及公众健康。水质监测作为水污染防治的“眼睛”,是掌握水体污
七夜zippoe19 天前
人工智能·深度学习·算法·lora·qlora·量化训练
轻量模型微调:LoRA、QLoRA实战对比与工程实践指南目录摘要一、 技术原理与架构设计1.1 微调技术演进背景1.2 LoRA技术原理深度解析1.3 QLoRA技术突破与量化策略
铁甲前沿21 天前
lora·无线通信·一主多从通信·sx1268
lora实现一主多从通信前言:如何实现一个主lora与多个从lora之间高效的数据传输。我这里的主lora主要负责集中采集多个从lora的数据。典型的应用就是主lora采集附近多个lora传感器的数据。本文中用到的lora为sx1268,最多按照5个从设备进行设计。
Stara05111 个月前
ubuntu·lora·大语言模型·模型微调·qlora·llama-factory·实践指南
Ubuntu环境中LLaMA Factory 的部署与配置—构建大语言模型微调平台什么是LLaMA-Factory? LLaMA-Factory,全称Large Language Model Factory,即大型语言模型工厂。它支持 多种预训练模型和微调算法 ,提供了一套完整的工具和接口,使得用户能够轻松地对 预训练的模型进行定制化的训练和调整,以适应特定的应用场景,如智能客服、语音识别、机器翻译 等。
大千AI助手2 个月前
人工智能·神经网络·lora·大模型·llm·大千ai助手·稀疏微调
探索LoSA:动态低秩稀疏自适应——大模型高效微调的新突破本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
成都纵横智控科技官方账号2 个月前
lora·边缘计算·透传
告别布线噩梦:8公里LoRa边缘网关如何重构工业物联边界在很多工业场景中,设备本身的价格可能并不高,但部署成本却惊人。想象一下:要给一公里外的设备接上线,光是挖沟、铺管、穿线的人工和材料费就可能高达数万元,更别说后续的维护了。
大千AI助手2 个月前
人工智能·神经网络·lora·大模型·lift·大千ai助手·稀疏微调
LIFT:基于低秩引导的稀疏微调本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
nju_spy2 个月前
人工智能·lora·大模型·混合精度·混合专家模型 moe·densemlp·门控机制
南京大学LLM开发基础(四)MoE, LoRA, 数的精度 + MLP层实验https://njudeepengine.github.io/llm-course-lecture/2025/lecture8.html#1
DIY机器人工房2 个月前
stm32·单片机·嵌入式硬件·lora·嵌入式·diy机器人工房
要解决 ESP32 与 STM32 之间 LoRa 通信无应答的问题,可从以下硬件、软件、参数匹配三个维度逐一排查:吐槽:我两个问题:TX与RX接反;GND没有共地TX/RX 交叉与共地电源与天线串口参数完全对齐LoRa 工作模式与参数匹配
nju_spy3 个月前
人工智能·面试·lora·大模型·rag·提示词工程·peft微调
大模型面经(一) Prompt + RAG + 微调目录大模型微调问题一:领域微调中,如何平衡 “领域知识习得” 和 “通用能力保留”?问题二:SFT 后模型出现 “指令遵循能力下降”
星野云联AIoT技术洞察3 个月前
lora·esp32·智能家居·ble·ir·iot网关·openmqttgateway
OpenMQTTGateway 技术全解:统一多协议到 MQTT 的开源网关在智能家居与物联网的世界中,不同设备往往“说着不同的语言”。要把这些异构设备整合到一个统一的 IoT 平台(如 Home Assistant、OpenHAB、Node-RED),往往需要多个专用网关或厂商自有中枢。这带来 成本高、复杂度高、互操作性差 的问题。
阿杜杜不是阿木木3 个月前
人工智能·深度学习·ai·ai作画·lora
开始 ComfyUI 的 AI 绘图之旅-Flux.1 ControlNet (十)本文将使用 Flux.1 ControlNet 来完成 ControlNet 的工作流示例。FLUX.1 Canny 和 Depth 是由 Black Forest Labs 推出的 FLUX.1 Tools 套件 中的两个强大模型。这套工具旨在为 FLUX.1 添加控制和引导能力,使用户能够修改和重新创建真实或生成的图像。
大千AI助手4 个月前
人工智能·语言模型·自然语言处理·lora·peft·cola·残差学习
COLA:大型语言模型高效微调的革命性框架本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
爱分享的飘哥5 个月前
人工智能·lora·微调·ai训练·peft·代码实战·模型定制
第五十五章:AI模型的“专属定制”:LoRA微调原理与高效合并技巧在之前我们了解到“微调(Fine-tuning)”是让大模型从“通才”变为“专才”的关键。但对一个拥有数十亿参数的LLM(如LLaMA-7B)进行全参数微调(Full Fine-tuning),意味着:
仙人掌_lz6 个月前
人工智能·python·ai·lora·llm·微调·qwen3
Qwen-3 微调实战:用 Python 和 Unsloth 打造专属 AI 模型虽然大家都忙着在 DeepSeek 上构建应用,但那些聪明的开发者们却悄悄发现了 Qwen-3 的微调功能,这可是一个隐藏的宝藏,能把通用型 AI 变成你的专属数字专家。
寻丶幽风7 个月前
论文阅读·人工智能·语言模型·lora·图像编辑·moe
论文阅读笔记——In-Context EditICEdit 论文阅读笔记 指令图像编辑现有方法的局限:将编辑指令嵌入专为语境化编辑设计的生成提示中,构建如下提示模板:“a side-by-side image of the same {subject}: the left depicts the original {description}, while the right mirrors the left but applies {edit instruction}.” 分析 IC 提示下编辑指令对应的注意力图,发现待修改区域呈现更显著的激活值。借
橙子小哥的代码世界7 个月前
人工智能·lora·transformer·prompt tuning·模型训练·pturning
PET,Prompt Tuning,P Tuning,Lora,Qlora 大模型微调的简介到2025年,虽然PET(Pattern-Exploiting Training)和Prompt Tuning在学术界仍有探讨,但在工业和生产环境中它们已基本被LoRA/QLoRA等参数高效微调(PEFT)方法取代 。LoRA因其实现简单、推理零开销,并能在大规模模型上以极少量参数达到与全量微调相当的效果,已成为最受欢迎的PEFT技术 。QLoRA在此基础上再结合4-bit量化,使得即便是65B级模型也能在单块48 GB GPU上完成微调,内存占用降低近3倍,性能几乎无损 。