cot

爱喝矿泉水的猛男6 天前
java·人工智能·prompt·cot·tot·pe·ape
Prompt设计技巧和高级PE目录PD and PE:INTRODUCTION AND ADVANCED METHODS1.Instructions
PinkGranite1 个月前
gpt·cot·tot·rl·gpt o1
OpenAI GPT-o1实现方案记录与梳理
余生H1 个月前
人工智能·经验分享·科技·cot·gpt-o1
ChatGPT01-preivew体验报告:内置思维链和多个llm组合出的COT有啥区别呢?丹田与练气+中学生物理奥赛题测试,名不虚传还是名副其实?一个月前,o1发布的时候,我写了篇文章介绍 逻辑推理能力堪比博士生,OpenAI发布全新AI模型系列: o1 - 大模型或许进入新阶段,还翻译了官方的介绍 解密OpenAI o1是如何让LLMs获得逻辑推理能力的 - CoT * RL,也让人提前体验过,自己却没有进行测试 - 也是这周得以有机会使用,但也是忘了第一时间测试。就是下面的这个: 既然是测试推力理论,当然不能只是简单的题目或者搜索答案。
v_JULY_v1 个月前
rlhf·cot·openai o1·mcst·o1复现·openai o1原理
一文通透OpenAI o1:从CoT、Self-Correct/STaR、Self-play RL、MCST等技术细节到工程复现注意,本文自10.12日起,正在每天更新的过程中..可能是去年写或讲的关于ChatGPT原理的文章和课程,影响力太大了
聚梦小课堂2 个月前
gpt·cot·技术文档·openai o1·o1·o1 preview·填词游戏
OpenAI GPT o1技术报告阅读(4)- 填字游戏推理原文链接:https://openai.com/index/learning-to-reason-with-llms/
聚梦小课堂2 个月前
gpt·大模型·cot·openai o1·o1
OpenAI GPT o1技术报告阅读(2)- 关于模型安全性的测试案例首先是原文链接:https://openai.com/index/learning-to-reason-with-llms/
giao客4 个月前
llm·提示词·cot·json格式化·大模型提取·耗时优化·输出质量
【Agent】信息提取场景需要让大模型从文本中提取出固定的字段,同时为了方便后续数据管理,要求大模型输出格式为json格式。会涉及的几个影响提取质量的流程:
伊织code6 个月前
prompt·零样本·cot·少样本
Prompt Engineering Guide本文转载自:Prompt Engineering Guide https://www.promptingguide.ai/zh/introduction/basics
Alex_StarSky1 年前
gpt·llm·chatglm·文本生成·cot·baichuan
GPT实战系列-探究GPT等大模型的文本生成GPT专栏文章:GPT实战系列-Baichuan2等大模型的计算精度与量化-CSDN博客GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF-CSDN博客
大鹏的NLP博客1 年前
自然语言处理·llm·cot·got
NLP中 大语言模型LLM中的思维链 Chain-of-Thought(CoT) GoT在过去几年的探索中,业界发现了一个现象,在增大模型参数量和训练数据的同时,在多数任务上,模型的表现会越来越好。因而,现有的大模型LLM,最大参数量已经超过了千亿。
江小皮不皮1 年前
人工智能·chatgpt·prompt·cot·got·tot·few-shot
大模型之Prompt研究和技巧Prompt是是给 AI **模型的指令,**一个简短的文本输入,用于引导AI模型生成特定的回答或执行特定任务。
酿久诗1 年前
cot
《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻译我们探索生成一条思想链(一系列中间推理步骤)如何显着提高大型语言模型执行复杂推理的能力。特别是,我们展示了这种推理能力如何通过一种称为思维链提示的简单方法在足够大的语言模型中自然出现,其中提供了一些思维链演示作为提示的范例。