Thinking for Doing:让LLMs能推断他人心理状态来做出适当的行动。

LLMs通常能回答有关心理状态的问题,但往往不能将这些推断用于实际行动。例如,如果一个故事中的角色正在寻找他的背包,而模型知道背包在厨房里,那么模型应该能推断出最好的行动是建议角色去厨房查看。

T4D 的目的就是要求模型不仅要能回答有关其他人心理状态的问题(这是许多现有评估方法的焦点),还要能根据这些推断来选择最佳的行动方案。

论文: arxiv.org/abs/2310.03051
**PDF:**arxiv.org/pdf/2310.03051...

解决方案

为了解决这一问题,作者引入了一个零样本提示框架,名为"Foresee and Reflect"(FaR),该框架能显著提高LLMs在T4D上的性能。
工作原理

Foresee and Reflect"(FaR)主要由两个组件组成:预见(Foresee)和反思(Reflect)。

1. 预见(Foresee)

在这一阶段,模型被引导去预测或预见可能的未来事件或行动,并对它们进行初步的评估。这通常涉及到对故事或场景中角色的心理状态(如信念、意图等)的理解,并基于这些理解来预测他们可能会采取哪些行动。

2. 反思(Reflect)

在预见阶段之后,模型进入反思阶段。在这里,模型需要重新考虑其先前的预测和评估,以确定是否需要调整或优化。这可能涉及到更深入地理解角色的心理状态,或者考虑更多的环境因素和可能的结果。
FaR 在 T4D 中的应用

通过结合预见和反思两个阶段,FaR 框架能够引导模型进行更结构化、更深入的推理。这不仅有助于模型更准确地理解角色的心理状态,还使其能够更有效地将这些理解转化为适当的行动或决策。例如,如果在一个故事中,一个角色想找到他的背包,模型首先会在预见阶段预测角色可能会去哪里找。然后,在反思阶段,模型可能会考虑其他因素,如角色过去在哪里找到过背包,或者在当前环境中哪些地方最可能存放背包,从而优化其行动建议。

相关推荐
gogoMark1 小时前
口播视频怎么剪!利用AI提高口播视频剪辑效率并增强”网感”
人工智能·音视频
2201_754918411 小时前
OpenCV 特征检测全面解析与实战应用
人工智能·opencv·计算机视觉
love530love3 小时前
Windows避坑部署CosyVoice多语言大语言模型
人工智能·windows·python·语言模型·自然语言处理·pycharm
985小水博一枚呀3 小时前
【AI大模型学习路线】第二阶段之RAG基础与架构——第七章(【项目实战】基于RAG的PDF文档助手)技术方案与架构设计?
人工智能·学习·语言模型·架构·大模型
白熊1884 小时前
【图像生成大模型】Wan2.1:下一代开源大规模视频生成模型
人工智能·计算机视觉·开源·文生图·音视频
weixin_514548894 小时前
一种开源的高斯泼溅实现库——gsplat: An Open-Source Library for Gaussian Splatting
人工智能·计算机视觉·3d
四口鲸鱼爱吃盐4 小时前
BMVC2023 | 多样化高层特征以提升对抗迁移性
人工智能·深度学习·cnn·vit·对抗攻击·迁移攻击
Echo``5 小时前
3:OpenCV—视频播放
图像处理·人工智能·opencv·算法·机器学习·视觉检测·音视频
Douglassssssss5 小时前
【深度学习】使用块的网络(VGG)
网络·人工智能·深度学习
okok__TXF5 小时前
SpringBoot3+AI
java·人工智能·spring