fine-tuning

程序员老奥18 小时前
lora·llm·fine-tuning·大模型微调
【有手就行】LoRA:用你自己的数据来微调大模型,让大模型真正懂你上上周的周末无事在家,然后写了一篇《【有手就行】自己花20分钟从0开始训练一个“大模型”》,结果发现这两个星期涨了几十个关注,比我前面写了几个月文章得到的关注还多,看来这种浅显易懂的、入门级的技术文章相对来说会有更多人爱看一些。 既然如此,我再把早先在做OddAgent时候,微调语音助手功能的流程也简单理一下,然后放出来给大家做一个参考吧。
攻城狮7号7 个月前
人工智能·python·前沿技术·fine-tuning·大模型微调
大模型微调Fine-tuning:从概念到实践的全面解析目录引言一、什么是大模型微调?1.1 预训练与微调的区别1.2 微调的技术演进二、为什么需要微调?2.1 解决大模型的固有局限
产品媛Gloria Deng1 年前
人工智能·深度学习·语言模型·fine-tuning·指令微调
分享|instructionfine-tuning 指令微调是提高LLM性能和泛化能力的通用方法《生成式AI导论》课程中,李宏毅老师提到一篇关于“ instruction fine-tuning” 指令微调的论文:
winner88811 年前
人工智能·大模型·llm·微调·fine-tuning
大模型 Fine-Tuning 技术解析在大型语言模型(LLMs, Large Language Models)的发展历程中,预训练模型和微调(Fine-tuning)技术起到了至关重要的作用。这些技术使得模型不仅能够学习到丰富的语言特征,还能根据具体任务进行优化调整,以适应特定的应用场景。本文将详细探讨几种主流的微调技术,并分析它们的工作原理、应用场景及其优缺点。
营赢盈英1 年前
python·ai·openai api·fine-tuning·chatgpt api
AttributeError: module ‘openai’ has no attribute ‘FineTuneingJob’题意:尝试访问的 FineTuneingJob 属性在 openai 模块中不存在I am attempting to start a fine-tuning job using GPT 3.5-turbo via a Python call, using the format listed in the fine-tuning reference, essentially:
天狼啸月19901 年前
lora·llm·prompt·fine-tuning·prefix-tuning·p-tuning·prompt-tunning
LLM 研究方向(一): LLM Prompts--p-tuning、LoRA目录1. prompt-tuning background2. Prompt Tuning 模型介绍2.1 2021 prefix-tuning
Cachel wood2 年前
git·gitee·github·gpt-3·transformer·hugging face·fine-tuning
OpenAI开放gpt-3.5turbo微调fine-tuning测试教程网址:https://platform.openai.com/finetunegit clone https://github.com/Toyhom/Chinese-medical-dialogue-data
我是有底线的