该研究探讨了儿童如何在没有强归纳偏见的情况下,基于他们的视觉经验发展出复杂的世界内部模型。研究者试图理解,今天的深度神经网络是否能仅凭一个孩子的视角获得的代表性样本来学习这些模型。
为此,他们在没有任何显式监督或领域特定归纳偏见的情况下,对最先进的神经网络进行训练,使用从单个儿童的头戴摄像机视频中收集的200小时数据,这些数据跨越了两年时间。研究的主要目标是评估这些模型在下游任务中的性能,并将其与参考模型进行比较。最佳的嵌入式模型平均性能达到了高性能ImageNet训练模型的70%,尽管训练数据有显著差异。这些模型还能学习广泛的语义类别和物体定位能力,而无需显式的监督,但它们不如整个ImageNet训练的模型以物体为中心。使用相同数据训练的生成模型成功地推断出部分遮蔽物体的简单属性,如大致轮廓、纹理、颜色或方向,但在更细致的物体细节上表现不佳。通过两个其他儿童的重复实验,发现结果具有显著的一致性。
实验表明,从儿童的视角获得的样本,无需强归纳偏见,就可以稳健地学习广泛有用的高级视觉表征。研究也提出了关于大型语言模型(LLMs)及其基础变换架构的基本属性的明确问题。通过最小的归纳偏见和高度通用的模型架构,旨在探讨最小归纳偏见条件下可学性的问题。具体而言,主要关注视觉变换(ViT)模型,并在三种标准大小上进行训练。此外,使用SAYCam数据集,这是一个大规模的纵向数据集,记录了三个年幼儿童的自我中心视觉经验。
文章还讨论了这些发现对于"天生与后天"问题的影响,这个问题在数个世纪以来一直被讨论,并持续塑造我们对智力的理解。此外,提出了将来自儿童视角的真实样本与今天的高度通用深度神经网络相结合的实验设置,为探索基于有限和嘈杂的视觉数据的自主学习提供了新的视角。