基于Transformer的路径规划 - 第五篇 GPT生成策略_解码方法优化

上一篇:基于Transformer的路径规划 - 第四篇 GPT模型优化


在上一篇中,我尝试优化GPT路径生成模型,但没有成功。在随机生成的测试集上,路径规划成功率只有99%左右。而使用传统的路径规划算法,例如A*,路径规划成功率能达到100%。显然,如果想让模型具备一定的实用价值,还需要继续提升指标。在本篇中,我将尝试通过优化GPT生成策略(在有些文章中又称为解码策略)来提升路径规划成功率。

我们将生成的路径用Tree来表示,在贪心搜索中,每次选择置信度最大的节点,因此只会生成一条路径。如果考虑置信度大于设定阈值ε的所有节点,那会是什么情况呢?

以下图为例:

若使用贪心搜索,生成的路径会发生碰撞,如下图所示:

若考虑置信度大于0.1的所有节点,则可以生成7条路径,如下图所示:

可视化结果如下:

可以看到,除了贪心搜索得到的路径发生了碰撞外,其它6条路径都是正确的。

这个实验结果让人看到了GPT模型在路径规划问题上的潜力:我们可以设置更低的阈值ε,一次生成多条路径,然后选择最好的一条路径,这样路径规划成功率就逼近100%了。


实验总结:

  1. 基于Transformer的模型至少能够解决简单的路径规划问题
  2. GPT生成模型需要搭配合适的生成策略才能挖掘出模型的潜力

全篇完

原文链接 请勿转载

相关推荐
wyfwyf___13 分钟前
5G+IoT+AI:新质工业新图景,从预测性维护到全链路数智化
人工智能·科技·物联网·5g·信息与通信
gptplusplus42 分钟前
AI智能体(Agent):从“辅助决策”到“自主行动”,重新定义下一个商业时代
人工智能
别忘了微笑啊43 分钟前
hCaptcha 图像识别 API 对接说明
人工智能
尝试经历体验1 小时前
pycharm突然不能正常运行
python·深度学习·pycharm
大千AI助手1 小时前
灾难性遗忘:神经网络持续学习的核心挑战与解决方案
人工智能·深度学习·神经网络·大模型·llm·持续学习·灾难性遗忘
gotouniverse1 小时前
之前自学RAG时做的调研
人工智能
新智元1 小时前
刚刚,英伟达祭出下一代 GPU!狂飙百万 token 巨兽,投 1 亿爆赚 50 亿
人工智能·openai
霍格沃兹_测试1 小时前
从零开始搭建Qwen智能体:新手也能轻松上手指南
人工智能
SmartJavaAI2 小时前
Java调用Whisper和Vosk语音识别(ASR)模型,实现高效实时语音识别(附源码)
java·人工智能·whisper·语音识别
七元权2 小时前
论文阅读-SelectiveStereo
论文阅读·深度学习·双目深度估计·selectivestereo