微调

伊织code11 天前
开源·lora·大模型·llm·微调·mllm
开源大模型食用指南 - 微调、部署 LLM、MLLM《开源大模型食用指南》针对中国宝宝量身打造的基于Linux环境快速微调(全参数/Lora)、部署国内外开源大模型(LLM)/多模态大模型(MLLM)教程
engchina20 天前
人工智能·微调·llama·llama-factory
使用LLaMA-Factory对AI进行认知的微调本文将介绍如何使用LLaMA-Factory对AI进行微调,使其具备“忍者”的认知,并认知其是由“富士电视台”开发的。
uncle_ll1 个月前
人工智能·gpt·chatgpt·llm·微调
ChatGPT大模型极简应用开发-CH4-GPT-4 和 ChatGPT 的高级技巧回顾聊天模型的chat_completion 函数:该函数接收提示词并在终端中显示补全结果。model 和 temperature是两个可选特征,分别被默认设置为 gpt-4 和 0。
ScienceLi11251 个月前
微调·扩散模型·视频生成
Tune-A-Video:使用图像扩散模型进行一次微调实现文本到视频的生成Paper: Wu J Z, Ge Y, Wang X, et al. Tune-a-video: One-shot tuning of image diffusion models for text-to-video generation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023: 7623-7633. Introduction: https://tuneavideo.github.
Babyfacer1 个月前
微调·生成式ai·prompt工程·mlops·agentops·genaiops·ragops
GenAIOps:生成式 AI 运维 - 实用指南https://medium.com/google-cloud/genaiops-operationalize-generative-ai-a-practical-guide-d5bedaa59d78
engchina1 个月前
微调·ms-swift
ModelScope ms-swift:轻量级模型微调框架ModelScope ms-swift是ModelScope社区提供的一个官方框架,用于大型语言模型(LLMs)和多模态大型模型(MLLMs)的微调和部署。该框架支持预训练、微调、人类对齐、推理、评估、量化和部署等多个环节。
小嗷犬2 个月前
论文阅读·人工智能·深度学习·神经网络·语言模型·大模型·微调
【论文笔记】QLoRA: Efficient Finetuning of Quantized LLMs🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
winner88812 个月前
人工智能·大模型·llm·微调·fine-tuning
大模型 Fine-Tuning 技术解析在大型语言模型(LLMs, Large Language Models)的发展历程中,预训练模型和微调(Fine-tuning)技术起到了至关重要的作用。这些技术使得模型不仅能够学习到丰富的语言特征,还能根据具体任务进行优化调整,以适应特定的应用场景。本文将详细探讨几种主流的微调技术,并分析它们的工作原理、应用场景及其优缺点。
engchina2 个月前
人工智能·微调·llama·llama-factory
本地部署 LLaMA-Factory下载代码,创建虚拟环境,安装 LLaMA-Factory,验证,我机器的输入如下,安装 huggingface_hub,
每天八杯水D2 个月前
lora·微调·llama·peft·glm4-9b-chat
LLaMA-Factory GLM4-9B-CHAT LoRA 微调实战进入下载好的llama-factory,安装依赖包Alpaca 格式是一种用于训练自然语言处理(NLP)模型的数据集格式,特别是在对话系统和问答系统中。这种格式通常包含指令(instruction)、输入(input)和输出(output)三个部分,它们分别对应模型的提示、模型的输入和模型的预期输出。三者的数据都是字符串形式
weixin_404551242 个月前
人工智能·自然语言处理·微调·nlp·huggingface·fine-train
huggingface NLP-微调一个预训练模型微调一个预训练模型1.1 处理数据 1.1.1 fine-tune 使用tokenizer后的token 进行训练
小嗷犬2 个月前
论文阅读·人工智能·大模型·微调·prompt
【论文笔记】Visual Prompt Tuning🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
木亦汐丫2 个月前
lora·大模型·微调·chatglm·llama·llama-factory
【大模型系列篇】LLaMA-Factory大模型微调实践 - 从零开始前一次我们使用了NVIDIA TensorRT-LLM 大模型推理框架对智谱chatglm3-6b模型格式进行了转换和量化压缩,并成功部署了推理服务,有兴趣的同学可以翻阅《NVIDIA TensorRT-LLM 大模型推理框架实践》,今天我们来实践如何通过LLaMA-Factory对大模型进行Lora微调。
小嗷犬3 个月前
论文阅读·人工智能·语言模型·自然语言处理·大模型·微调
【论文笔记】LoRA: Low-Rank Adaptation of Large Language Models🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
小嗷犬3 个月前
论文阅读·人工智能·大模型·微调·prompt
【论文笔记】The Power of Scale for Parameter-Efficient Prompt Tuning🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
逐梦苍穹3 个月前
人工智能·语言模型·自然语言处理·lora·微调·论文
速通LoRA:《LoRA: Low-Rank Adaptation of Large Language Models》全文解读🍃作者介绍:双非本科大四网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发,目前开始人工智能领域相关知识的学习 🦅个人主页:@逐梦苍穹 📕所属专栏:🌩 专栏①:人工智能; 🌩 专栏②:速通人工智能相关论文 🌻gitee地址:xzl的人工智能代码仓库 ✈ 您的一键三连,是我创作的最大动力🌹
OT.Ter3 个月前
chatgpt·大模型·微调·chatglm
ChatGLM2-6B微调记录【2】
小嗷犬3 个月前
论文阅读·人工智能·语言模型·大模型·微调
【论文笔记】Prefix-Tuning: Optimizing Continuous Prompts for Generation🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
小嗷犬3 个月前
论文阅读·人工智能·自然语言处理·大模型·微调
【论文笔记】Parameter-Efficient Transfer Learning for NLP🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
大数据AI人工智能培训专家培训讲师叶梓4 个月前
人工智能·自然语言处理·性能优化·大模型·微调·调优·检索增强型生成
基于模型内部的检索增强型生成答案归属方法:MIRAGE人工智能咨询培训老师叶梓 转载标明出处在自然语言处理(NLP)中,确保模型生成答案的可验证性是一个重要挑战。特别是在检索增强型生成(RAG)用于问答(QA)领域时,如何验证模型答案是否忠实于检索到的来源是一个关键问题。近期一种名为自引用提示的方法被提出,以使大型语言模型(LLMs)在生成答案的同时生成对支持文档的引用。然而,自引用的LLMs经常难以匹配所需格式,引用不存在的来源,并且未能忠实反映LLMs在生成过程中对上下文的使用。针对这一问题,荷兰格罗宁根大学和阿姆斯特丹大学的研究者们提出了一种名为MIR