icl

脚踏实地的大梦想家14 天前
语言模型·大模型·prompt·提示词·上下文学习·提示词工程·icl
【ICL】上下文学习随着模型参数规模与训练数据量的持续增长,大语言模型涌现出上下文学习(In-Context Learning,ICL)能力。该能力,使语言模型无需再针对某个任务特定训练一个模型或者在预训练模型上微调,而是通过上下文,快速适应下游任务。 这种通过页面或者 API 能够及其快速适应下游任务的模式,也被称为“语言模型即服务(LLM as Service)”。
老实人y1 个月前
人工智能·python·机器学习·icl·icp
TIME - MoE 模型代码 3.2——Time-MoE-main/time_moe/datasets/time_moe_dataset.py源码:GitHub - Time-MoE/Time-MoE: [ICLR 2025 Spotlight] Official implementation of "Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts"
木亦汐丫4 个月前
大模型·prompt·cot·思维链·上下文学习·icl·post-training
大模型从零开始——提示工程 Prompt文章目录上下文学习演示示例选择选择依据选择策略直接检索聚类检索迭代检索性能影响因素预训练数据预训练模型
鲸可落1 年前
论文阅读·深度学习·图神经网络·icl
【论文阅读】《PRODIGY: Enabling In-context Learning Over Graphs》这是一篇思想迁移的文章。  首先,上下文学习是预训练模型通过提示示例进行调整以适应新的下游任务,而不需要参数优化。大语言模型具有这种上下文学习(In-context Learning)的能力,但是如何在图上进行上下文学习还没有被探索,那么这种上下文学习的能力,图学习具不具备呢?