大型语言模型微调 新进展-4篇 论文

1. Brevity is the soul of wit: Pruning long files for code generation

本研究针对大型语言模型的代码生成任务中的数据清理问题进行了探索。研究发现,仅仅剔除过长的代码文件就能显著提高模型训练的效率和性能,甚至优于基于嵌入(embedding)的复杂方法。这种方法不仅能在训练效率上带来两倍的提升,在HumanEval上的表现也提高了3.5%。然而,这也可能导致模型处理长代码文件时的困惑度增加,从而引发关于代码生成模型评估方法的思考。

2. InverseCoder: Unleashing the Power of Instruction-Tuned Code LLMs with Inverse-Instruct

本文介绍了一种名为 INVERSE-INSTRUCT 的方法,该方法通过利用代码本身来生成指令,从而进一步提升了指令微调的代码大型语言模型的能力。基于一个核心观察:将代码(形式语言)翻译成自然语言(非形式语言)比反向操作更为容易。INVERSE-INSTRUCT 利用代码大型语言模型生成代码片段的摘要,从而生成高质量的指令。通过结合原始数据集与自动生成的指令,该方法能够有效提升代码大型语言模型指令微调后的性能,在多个代码生成任务中取得了超越现有模型的成绩。

3. Curriculum Learning for Small Code Language Models

本文发现课程学习能够显著提高小型代码语言模型在代码执行任务上的准确率,尽管它对代码补全的影响并不显著。研究人员提出了一种新的代码难度评估指标,并设计了一种新的课程学习时间表,证明了课程学习方法在训练代码语言模型上的有效性,为未来研究代码语言模型的课程学习应用提供了新的思路。

4. Genetic Instruct: Scaling up Synthetic Generation of Coding Instructions for Large Language Models

本文提出了一种名为 Genetic-Instruct 的方法,该方法利用自指令学习,从少量种子数据中生成大量的合成指令,从而提高大型语言模型的代码生成能力。这种方法能够有效地扩展指令生成过程,并且在多个代码生成模型的微调实验中,使用合成指令训练的模型表现出显著的性能提升。

相关推荐
新知图书几秒前
OpenCV图像金字塔
人工智能·opencv·计算机视觉
Eric.Lee20213 分钟前
数据集-目标检测系列- 狮子 数据集 lion >> DataBall
人工智能·目标检测·目标跟踪
yanmengying3 分钟前
目标检测yolo算法
人工智能·yolo·目标检测
艾醒(AiXing-w)3 分钟前
玩转计算机视觉——按照配置部署paddleOCR(英伟达环境与昇腾300IDUO环境)
人工智能·计算机视觉
张较瘦_7 分钟前
[论文阅读] 人工智能 | Gen-n-Val:利用代理技术革新计算机视觉数据生成
论文阅读·人工智能·计算机视觉
路溪非溪8 分钟前
AI应用:计算机视觉相关技术总结
人工智能·计算机视觉
老周聊大模型18 分钟前
解剖Transformers库:从AutoClass设计到FlashAttention-2的工程实现
人工智能
r0ysue_1 小时前
03.利用显卡内核模块等特性为算法提速百倍
人工智能·python·机器学习
西猫雷婶1 小时前
pytorch基本运算-梯度运算:requires_grad_(True)和backward()
人工智能·pytorch·python·深度学习·机器学习
ONEYAC唯样1 小时前
英飞凌亮相SEMICON China 2025:以SiC、GaN技术引领低碳化与数字化未来
人工智能·神经网络·生成对抗网络