【NeRF和NLP】一些观察感悟,碎碎念

NeRF的paper,有几个感想:

  1. NeRF读的时候感觉和diffusion思路特别像,训练目标是一个很小很小的子步骤,大大简化了训练难度
  2. NeRF建模的是"真实"世界,其用模型隐含的存储了真实世界的体素(场)模型,而模型输出二维图片的方法本质上和模型所建模的内容无关(采用的是体素渲染的方式)。 【对比大语言模型】大语言模型也是隐藏的建模了人类知识,但是大语言的模型输出并没有和模型的内容独立开来。
  3. NeRF存储真实世界的体素信息,但真实体素信息是没办法被直接监督训练的,所以采用了真实世界的在特定输入下(某个相机视角)的输出(平面投影的多组2D图片输出)进行监督训练 【对比大语言模型】大语言模型建模的真实是什么呢?是人类的知识库。大语言模型的知识在训练过程中也没被直接监督优化,取而代之的是,通过这些知识在特定输入下(上下文语境)的输出(语言输出),进行监督训练。 【对比现代控制系统】估算系统内部状态的采用的方法就是观察其在特定输入下产生输出的关系。
  4. 【考虑到NLP的幻觉问题】NeRF是在一组图片中训练,得到这个世界的真实,这就需要保证这个训练集合是一致的。Tim他测试的在同一时间拍下了一组子弹时间照片在NeRF训练的结果特别差,输出会出现模糊、碎片和错误,这些问题产生的原因是他们并没有严格的做到拍摄时间是确切相同的,而且被拍摄对象还在高速运动。这就导致了NeRF的训练数据不是同一个"真实"【联系】这样输出的碎片感觉就是NLP领域的幻觉,大模型用于监督的输出来源过于广泛,很难保证是同一个"真实",这个"真实"随着时间变化,随着阐述者变化。【解决】NeRF最简单的解决办法是,换更好的数据集带来统一的"真实"。但是这个代价对于训练大语言模型来说就是清洗数据集,这个过于昂贵。很多解决幻觉的方法是变着法子prompt,既然是"真实"下幻觉的碎片,相同语义不同的prompt其实是在这个"真实"附近采样,如果是幻觉的碎片,那么输出将会不稳定,这也是Major Vote可以某种程度上改善幻觉的一种解释。【开始胡说八道】如果直接check训练好的NeRF模型的体素密度,我们可以轻松发现哪里的"真实"有碎片,甚至可以通过删除/调整这些碎片改善模型。这个对应到NLP又很像知识编辑。我们知道现实物体应该有怎么样的形状,这个先验可以指导我们,但是我们不知道知识的形状。阿巴阿巴阿巴
相关推荐
_志哥_32 分钟前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit1 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能
程序员鱼皮3 小时前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了
人工智能·ai编程
星浩AI3 小时前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒4 小时前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能
阿尔的代码屋4 小时前
[大模型实战 07] 基于 LlamaIndex ReAct 框架手搓全自动博客监控 Agent
人工智能·python
小小小怪兽4 小时前
🔨聊一聊Skills
人工智能·agent
穿过生命散发芬芳4 小时前
OpenClaw:开启OpenCloudOS 操作系统智能运维初体验
人工智能·aigc
老金带你玩AI4 小时前
Claude Code自动记忆来了!配合老金三层记忆系统全开源!加强Plus!
人工智能
Halo咯咯4 小时前
无限免费 OpenClaw:接入本地模型后,你的 AI Agent 就可以 24 小时自动干活(Mac Mini 可用)
人工智能