微调

ScienceLi11252 天前
微调·扩散模型·视频生成
Tune-A-Video:使用图像扩散模型进行一次微调实现文本到视频的生成Paper: Wu J Z, Ge Y, Wang X, et al. Tune-a-video: One-shot tuning of image diffusion models for text-to-video generation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023: 7623-7633. Introduction: https://tuneavideo.github.
Babyfacer9 天前
微调·生成式ai·prompt工程·mlops·agentops·genaiops·ragops
GenAIOps:生成式 AI 运维 - 实用指南https://medium.com/google-cloud/genaiops-operationalize-generative-ai-a-practical-guide-d5bedaa59d78
engchina16 天前
微调·ms-swift
ModelScope ms-swift:轻量级模型微调框架ModelScope ms-swift是ModelScope社区提供的一个官方框架,用于大型语言模型(LLMs)和多模态大型模型(MLLMs)的微调和部署。该框架支持预训练、微调、人类对齐、推理、评估、量化和部署等多个环节。
小嗷犬17 天前
论文阅读·人工智能·深度学习·神经网络·语言模型·大模型·微调
【论文笔记】QLoRA: Efficient Finetuning of Quantized LLMs🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
winner888123 天前
人工智能·大模型·llm·微调·fine-tuning
大模型 Fine-Tuning 技术解析在大型语言模型(LLMs, Large Language Models)的发展历程中,预训练模型和微调(Fine-tuning)技术起到了至关重要的作用。这些技术使得模型不仅能够学习到丰富的语言特征,还能根据具体任务进行优化调整,以适应特定的应用场景。本文将详细探讨几种主流的微调技术,并分析它们的工作原理、应用场景及其优缺点。
engchina25 天前
人工智能·微调·llama·llama-factory
本地部署 LLaMA-Factory下载代码,创建虚拟环境,安装 LLaMA-Factory,验证,我机器的输入如下,安装 huggingface_hub,
每天八杯水D1 个月前
lora·微调·llama·peft·glm4-9b-chat
LLaMA-Factory GLM4-9B-CHAT LoRA 微调实战进入下载好的llama-factory,安装依赖包Alpaca 格式是一种用于训练自然语言处理(NLP)模型的数据集格式,特别是在对话系统和问答系统中。这种格式通常包含指令(instruction)、输入(input)和输出(output)三个部分,它们分别对应模型的提示、模型的输入和模型的预期输出。三者的数据都是字符串形式
weixin_404551241 个月前
人工智能·自然语言处理·微调·nlp·huggingface·fine-train
huggingface NLP-微调一个预训练模型微调一个预训练模型1.1 处理数据 1.1.1 fine-tune 使用tokenizer后的token 进行训练
小嗷犬1 个月前
论文阅读·人工智能·大模型·微调·prompt
【论文笔记】Visual Prompt Tuning🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
木亦汐丫1 个月前
lora·大模型·微调·chatglm·llama·llama-factory
【大模型系列篇】LLaMA-Factory大模型微调实践 - 从零开始前一次我们使用了NVIDIA TensorRT-LLM 大模型推理框架对智谱chatglm3-6b模型格式进行了转换和量化压缩,并成功部署了推理服务,有兴趣的同学可以翻阅《NVIDIA TensorRT-LLM 大模型推理框架实践》,今天我们来实践如何通过LLaMA-Factory对大模型进行Lora微调。
小嗷犬2 个月前
论文阅读·人工智能·语言模型·自然语言处理·大模型·微调
【论文笔记】LoRA: Low-Rank Adaptation of Large Language Models🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
小嗷犬2 个月前
论文阅读·人工智能·大模型·微调·prompt
【论文笔记】The Power of Scale for Parameter-Efficient Prompt Tuning🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
逐梦苍穹2 个月前
人工智能·语言模型·自然语言处理·lora·微调·论文
速通LoRA:《LoRA: Low-Rank Adaptation of Large Language Models》全文解读🍃作者介绍:双非本科大四网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发,目前开始人工智能领域相关知识的学习 🦅个人主页:@逐梦苍穹 📕所属专栏:🌩 专栏①:人工智能; 🌩 专栏②:速通人工智能相关论文 🌻gitee地址:xzl的人工智能代码仓库 ✈ 您的一键三连,是我创作的最大动力🌹
OT.Ter2 个月前
chatgpt·大模型·微调·chatglm
ChatGLM2-6B微调记录【2】
小嗷犬2 个月前
论文阅读·人工智能·语言模型·大模型·微调
【论文笔记】Prefix-Tuning: Optimizing Continuous Prompts for Generation🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
小嗷犬2 个月前
论文阅读·人工智能·自然语言处理·大模型·微调
【论文笔记】Parameter-Efficient Transfer Learning for NLP🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
大数据AI人工智能培训专家培训讲师叶梓3 个月前
人工智能·自然语言处理·性能优化·大模型·微调·调优·检索增强型生成
基于模型内部的检索增强型生成答案归属方法:MIRAGE人工智能咨询培训老师叶梓 转载标明出处在自然语言处理(NLP)中,确保模型生成答案的可验证性是一个重要挑战。特别是在检索增强型生成(RAG)用于问答(QA)领域时,如何验证模型答案是否忠实于检索到的来源是一个关键问题。近期一种名为自引用提示的方法被提出,以使大型语言模型(LLMs)在生成答案的同时生成对支持文档的引用。然而,自引用的LLMs经常难以匹配所需格式,引用不存在的来源,并且未能忠实反映LLMs在生成过程中对上下文的使用。针对这一问题,荷兰格罗宁根大学和阿姆斯特丹大学的研究者们提出了一种名为MIR
大数据AI人工智能培训专家培训讲师叶梓3 个月前
人工智能·大模型·微调·多模态·1024程序员节·rag·智能体·检索增强型生成
检索增强型生成模型RichRAG:为多面查询提供丰富回应人工智能咨询培训老师叶梓 转载标明出处大模型在处理静态知识更新和信息准确性方面仍面临挑战。为了解决这些问题,检索增强型生成(RAG)模型应运而生,它们通过检索文档来辅助语言模型生成更可靠的回答。但现有的RAG研究大多集中在具有明确用户意图和简洁回答的问题场景上。在现实世界中,用户常常会提出宽泛、开放式的查询,这些查询包含多个子意图,并期望得到涵盖多个相关方面的丰富、长形式的答案。针对这一尚未充分探索但非常重要的问题。
Hoper.J4 个月前
人工智能·stable diffusion·lora·微调·aigc·文生图·ai绘画
用 LoRA 微调 Stable Diffusion:拆开炼丹炉,动手实现你的第一次 AI 绘画总得拆开炼丹炉看看是什么样的。这篇文章将带你从代码层面一步步实现 AI 文本生成图像(Text-to-Image)中的 LoRA 微调过程,你将:
l89479434 个月前
人工智能·语言模型·自然语言处理·微调
微调大模型(Finetuning Large Language Models)—Why Finetune(一)一直在看大模型的内容,对具体模型训练、微调的问题实践甚少,于是乎找了找Ng的内容,研究研究微调内容。 课程学习地址和在线代码尝试地址:传送门