got

大鹏的NLP博客10 个月前
自然语言处理·llm·cot·got
NLP中 大语言模型LLM中的思维链 Chain-of-Thought(CoT) GoT在过去几年的探索中,业界发现了一个现象,在增大模型参数量和训练数据的同时,在多数任务上,模型的表现会越来越好。因而,现有的大模型LLM,最大参数量已经超过了千亿。
江小皮不皮1 年前
人工智能·chatgpt·prompt·cot·got·tot·few-shot
大模型之Prompt研究和技巧Prompt是是给 AI **模型的指令,**一个简短的文本输入,用于引导AI模型生成特定的回答或执行特定任务。
凉、介1 年前
linux·链接·got·ld·装载
动态链接那些事对于静态链接来说,在程序运行之前,会将程序所需的所有模块编译、链接成一个可执行文件。这种情况下,如果 Program1 和 Program2 都需要用到 Lib.o 模块,那么,内存中和磁盘中实际上就存在了两份Lib.o的代码。当共享的模块基数变得很大时,空间浪费无法想象。
酿久诗1 年前
人工智能·语言模型·自然语言处理·got
《Graph of Thoughts: Solving Elaborate Problems with Large Language Models》中文翻译我们引入了思想图(GoT):一个框架,它可以提高大型语言模型(LLM)中的提示能力,使其超越思想链或思想树(ToT)等范式所提供的能力。 GoT 的关键思想和主要优点是能够将 LLM 生成的信息建模为任意图,其中信息单位(“LLM 思想”)是顶点,边对应于这些顶点之间的依赖关系。这种方法可以将任意的LLM思想组合成协同结果,提炼整个思想网络的本质,或使用反馈循环增强思想。我们证明,GoT 在不同任务上比现有技术具有优势,例如,与 ToT 相比,排序质量提高了 62%,同时成本降低了 31% 以上。我们确保