微调

Jackilina_Stone8 天前
人工智能·深度学习·大模型·微调
【微调大模型】使用LLaMA-Factory进行监督微调 Qwen2.5本文使用LLaMA-Factory进行监督微调 Qwen2.5。此监督微调(SFT)脚本具有以下特点:
深度学习算法与自然语言处理8 天前
深度学习·算法·大模型·微调·transformer·面试题
单卡4090微调大模型 DeepSeek-R1-32B之前文章同样的方法,也可以在 24G 显存的单卡 4090 上微调训练 deepseek-ai/DeepSeek-R1-Distill-Qwen-32B;即使该模型的权重文件大小已经达到 62G,这是因为 unsloth 和 lora 的量化微调和部分参数微调优化可以大幅节约显存占用。
Jackilina_Stone10 天前
大模型·微调·llama
【微调大模型】轻松微调百余种大模型:LLaMA-Factorygithub: https://github.com/hiyouga/LLaMA-Factory目录项目特色
Andy_shenzl16 天前
lora·微调·swift
16、Swift框架微调实战(1)-自我认知数据LORA微调ms-SWIFT GitHub项目主页: https://github.com/modelscope/swift
_Meilinger_1 个月前
大模型·llm·微调·llama·大模型微调·llama-factory·unsloth
大模型微调|使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务前言:本篇博客分享如何基于LLaMA-Factory使用现有金融数据集实现LLaMA3的微调,以完成金融领域的知识问答任务。
玩电脑的辣条哥1 个月前
人工智能·lora·微调
大模型LoRA微调训练原理是什么?LoRA大模型LoRA微调训练原理是什么?通过 LoRA 微调,你可以在保持模型性能的同时,显著降低微调的计算成本。
CS_木成河2 个月前
人工智能·深度学习·语言模型·微调·预训练
【深度学习】预训练和微调概述预训练和微调是现代深度学习模型训练中的两个关键步骤,它们通常是一个 预训练-微调 (Pretrain-Finetune) 流程的不同阶段。两者相辅相成,共同帮助模型从通用的知识到特定任务的适应。
伊织code2 个月前
开源·lora·大模型·llm·微调·mllm
开源大模型食用指南 - 微调、部署 LLM、MLLM《开源大模型食用指南》针对中国宝宝量身打造的基于Linux环境快速微调(全参数/Lora)、部署国内外开源大模型(LLM)/多模态大模型(MLLM)教程
engchina3 个月前
人工智能·微调·llama·llama-factory
使用LLaMA-Factory对AI进行认知的微调本文将介绍如何使用LLaMA-Factory对AI进行微调,使其具备“忍者”的认知,并认知其是由“富士电视台”开发的。
uncle_ll3 个月前
人工智能·gpt·chatgpt·llm·微调
ChatGPT大模型极简应用开发-CH4-GPT-4 和 ChatGPT 的高级技巧回顾聊天模型的chat_completion 函数:该函数接收提示词并在终端中显示补全结果。model 和 temperature是两个可选特征,分别被默认设置为 gpt-4 和 0。
ScienceLi11253 个月前
微调·扩散模型·视频生成
Tune-A-Video:使用图像扩散模型进行一次微调实现文本到视频的生成Paper: Wu J Z, Ge Y, Wang X, et al. Tune-a-video: One-shot tuning of image diffusion models for text-to-video generation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023: 7623-7633. Introduction: https://tuneavideo.github.
Babyfacer3 个月前
微调·生成式ai·prompt工程·mlops·agentops·genaiops·ragops
GenAIOps:生成式 AI 运维 - 实用指南https://medium.com/google-cloud/genaiops-operationalize-generative-ai-a-practical-guide-d5bedaa59d78
engchina3 个月前
微调·ms-swift
ModelScope ms-swift:轻量级模型微调框架ModelScope ms-swift是ModelScope社区提供的一个官方框架,用于大型语言模型(LLMs)和多模态大型模型(MLLMs)的微调和部署。该框架支持预训练、微调、人类对齐、推理、评估、量化和部署等多个环节。
小嗷犬4 个月前
论文阅读·人工智能·深度学习·神经网络·语言模型·大模型·微调
【论文笔记】QLoRA: Efficient Finetuning of Quantized LLMs🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
winner88814 个月前
人工智能·大模型·llm·微调·fine-tuning
大模型 Fine-Tuning 技术解析在大型语言模型(LLMs, Large Language Models)的发展历程中,预训练模型和微调(Fine-tuning)技术起到了至关重要的作用。这些技术使得模型不仅能够学习到丰富的语言特征,还能根据具体任务进行优化调整,以适应特定的应用场景。本文将详细探讨几种主流的微调技术,并分析它们的工作原理、应用场景及其优缺点。
engchina4 个月前
人工智能·微调·llama·llama-factory
本地部署 LLaMA-Factory下载代码,创建虚拟环境,安装 LLaMA-Factory,验证,我机器的输入如下,安装 huggingface_hub,
每天八杯水D4 个月前
lora·微调·llama·peft·glm4-9b-chat
LLaMA-Factory GLM4-9B-CHAT LoRA 微调实战进入下载好的llama-factory,安装依赖包Alpaca 格式是一种用于训练自然语言处理(NLP)模型的数据集格式,特别是在对话系统和问答系统中。这种格式通常包含指令(instruction)、输入(input)和输出(output)三个部分,它们分别对应模型的提示、模型的输入和模型的预期输出。三者的数据都是字符串形式
weixin_404551244 个月前
人工智能·自然语言处理·微调·nlp·huggingface·fine-train
huggingface NLP-微调一个预训练模型微调一个预训练模型1.1 处理数据 1.1.1 fine-tune 使用tokenizer后的token 进行训练
小嗷犬4 个月前
论文阅读·人工智能·大模型·微调·prompt
【论文笔记】Visual Prompt Tuning🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。