零样本学习

仙魁XAN4 个月前
agi·hugging face·少样本学习·零样本学习·构建标记任务·基线模型
AGI 之 【Hugging Face】 的【零样本和少样本学习】之一 [构建标记任务] / [ 基线模型 ] 的简单整理目录AGI 之 【Hugging Face】 的【零样本和少样本学习】之一 [构建标记任务] / [ 基线模型 ] 的简单整理
大数据AI人工智能培训专家培训讲师叶梓6 个月前
人工智能·自然语言处理·大模型·微调·提示词·零样本学习
通过自适应提示提升大语言模型的零样本推理能力随着大模型(LLMs)的快速发展,它们在自然语言处理(NLP)任务上取得了前所未有的成就。特别是,LLMs展现出了强大的推理和规划能力,这得益于它们的少样本和零样本学习能力。然而,现有的方法仍存在一些限制,例如在少样本设置中,性能对示例选择非常敏感,而在零样本设置中,由于缺乏对LLMs的指导,性能受限。
大数据AI人工智能培训专家培训讲师叶梓6 个月前
人工智能·语言模型·大模型·llm·少样本学习·零样本学习·提示词工程
USP技术提升大语言模型的零样本学习能力大语言模型(LLMs)在零样本和少样本学习能力上取得了显著进展,这通常通过上下文学习(in-context learning, ICL)和提示(prompting)来实现。然而,零样本性能通常较弱,因为缺乏指导和难以应用现有的自动提示设计方法。论文提出了一种名为Universal Self-Adaptive Prompting(USP)的自动提示设计方法,旨在提升大语言模型(LLMs)在零样本学习(zero-shot learning)任务中的表现。USP通过使用少量未标记数据和仅推理的LLM生成伪示例(
知来者逆6 个月前
人工智能·stable diffusion·图像分割·无监督学习·零样本学习
DiffSeg——基于Stable Diffusion的无监督零样本图像分割基于计算机视觉的模型的核心挑战之一是生成高质量的分割掩模。大规模监督训练的最新进展已经实现了跨各种图像风格的零样本分割。此外,无监督训练简化了分割,无需大量注释。尽管取得了这些进展,构建一个能够在没有注释的零样本设置中分割任何东西的计算机视觉框架仍然是一项复杂的任务。语义分割是计算机视觉模型中的一个基本概念,涉及将图像划分为具有统一语义的较小区域。该技术为许多下游任务奠定了基础,例如医学成像、图像编辑、自动驾驶等。
TechBeat人工智能社区1 年前
自然语言处理·多模态·指令集微调·零样本学习
Talk | ACL‘23 杰出论文,MultiIntruct:通过多模态指令集微调提升VLM的零样本学习本期为TechBeat人工智能社区第536期线上Talk!北京时间10月11日(周三)20:00,弗吉尼亚理工大学博士生—徐智阳、沈莹的Talk已准时在TechBeat人工智能社区开播!