icl

一条测试老狗10 天前
gpt·微调·rag·幻觉·icl·gpt-5·垂直领域模型
从GPT-5发布来分析LLM大模型幻觉收敛(一)GPT-5 号称在任何领域都有博士级别能力。在医疗健康领域,能够对专业的癌症诊断报告做通俗易懂的解读。对复杂的放射治疗方案决策,也能提供详细的分析报告,帮助病人权衡利弊。一位癌症患者的家属在发布会上表示,“ 真正鼓舞人心的是看着她通过使用 GPT-5 重新获得自主权,病人很容易感到无助,因为知识差距太大了。
脚踏实地的大梦想家3 个月前
语言模型·大模型·prompt·提示词·上下文学习·提示词工程·icl
【ICL】上下文学习随着模型参数规模与训练数据量的持续增长,大语言模型涌现出上下文学习(In-Context Learning,ICL)能力。该能力,使语言模型无需再针对某个任务特定训练一个模型或者在预训练模型上微调,而是通过上下文,快速适应下游任务。 这种通过页面或者 API 能够及其快速适应下游任务的模式,也被称为“语言模型即服务(LLM as Service)”。
老实人y4 个月前
人工智能·python·机器学习·icl·icp
TIME - MoE 模型代码 3.2——Time-MoE-main/time_moe/datasets/time_moe_dataset.py源码:GitHub - Time-MoE/Time-MoE: [ICLR 2025 Spotlight] Official implementation of "Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts"
木亦汐丫7 个月前
大模型·prompt·cot·思维链·上下文学习·icl·post-training
大模型从零开始——提示工程 Prompt文章目录上下文学习演示示例选择选择依据选择策略直接检索聚类检索迭代检索性能影响因素预训练数据预训练模型
鲸可落2 年前
论文阅读·深度学习·图神经网络·icl
【论文阅读】《PRODIGY: Enabling In-context Learning Over Graphs》这是一篇思想迁移的文章。  首先,上下文学习是预训练模型通过提示示例进行调整以适应新的下游任务,而不需要参数优化。大语言模型具有这种上下文学习(In-context Learning)的能力,但是如何在图上进行上下文学习还没有被探索,那么这种上下文学习的能力,图学习具不具备呢?
我是有底线的