Human Reasoning Module

Paper: Human Reasoning Module

link: human reasoning module

Authors'Info: Enkhbold Nyamsuren (e.nyamsuren@rug.nl) Department of Artificial Intelligence, University of Groningen, Nijenborgh 9, 9747 AG Groningen, Netherlands Niels A. Taatgen (n.a.taatgen@rug.nl) Department of Artificial Intelligence, University of Groningen, Nijenborgh 9, 9747 AG Groningen, Netherlands

Abstract

这篇文章介绍了一种叫"Human Reasoning Module (HRM)"的框架,这是基于ACT-R实现的,ACT-R是一种人类认知结构的理论,这种认知模型可以预测诸如"学生思考算数问题的过程中,神经影像会展现出哪些活跃的部分",详情可以参考此视频 Adaptive Control of Thought -- Rational ACT- R By: John R. Anderson,而HRM可以简单理解为是ACT-R理论的computer simulation,同时也是对ACT-R理论的一个extension及工具实现 具体的几个模型如何工作和实现的再往下看.

Introduction

HRM的程序性知识结构定义了人类逻辑的语法,公理模式和推理规则等,HRM是基于知识块的,并且主张通过previous experience和real-time info推理并解决问题. 接下来就是HRM试图去解决的关于human reasoning的几个方面:

  • Inductive and deductive reasoning

    作者觉得人的推论应该是probabilistic的,也就是不能是确定性的fact,没有被世界证明正确的未必是不正确的,保持开放然后去追求truthfulness而不是该推论的falstiy

  • Mental logic, mental models and bottom-up reasoning

    作者认为人类推理综合来看并不一定是自上而下的意识性的正式思考,心智逻辑和心智模型的理论百家争鸣,作者不排除这些理论的兼容性,也就是都为其所用,然后这个visual short-term memory (VSTM)就是自下而上的一种推理形式,可以说是动用了底层的人脑注意力,并不是一种归纳推理和其他推理形式。

  • Deterministic and probabilistic inferences

HRM引入了一种简单有效的reasoning pipeline方式解决一些可能存在的冲突,基于视觉短时记忆推理的优先级比基于陈述性知识更高.

Architecture of the HRM

  • Knowledge representation in declarative memory 主要介绍了一下元组的表现形式和一些概念的定义设计
  • Schema and inference types 这个部分介绍了一下HRM采用了条件推理模式,同时设计了一些推理的规则,比如下方给出条件,假设成立,再看deduction是否make sense.
  • Backward reasoning pipeline 推理的pipleline如下,也就是说采用的手段优先级从高到低排列为:自下而上推理>声明性检索>自上而下推理
  • Forward reasoning pipeline

这里是讲HRM如何基于用户提供的query去检索相关规则并推理,这里的前向推理管道是基于用户提供的查询语句,从声明性内存中检索与查询语句匹配的前提规则,并根据多个标准选择规则。然后HRM使用这些规则进行推理,从而生成结论或推断.

Validation Models

Validation Models部分介绍了三个不同的实验任务模型,每个模型都用于复制人类行为,并根据人类表现数据进行验证。这些模型的目的是验证HRM的推理能力和有效性。

第一个模型是一个简单的推理任务模型,用于演示HRM基于声明性内存中的推理规则的基本推理能力。该模型仅使用声明性知识,不需要其他模块,如视觉。该模型使用的推理策略仅限于声明性规则的检索。该模型演示了即使在简单的推理任务中,竞争和冲突的声明性知识也会影响结果的重要性。它显示了在任何逻辑推理任务中考虑声明性检索结果的不确定性的重要性。

第二个模型是一个分类任务模型,用于演示HRM如何使用前向和后向推理来解决分类问题。该模型使用了视觉模块和声明性模块,以模拟人类在分类任务中的行为。该模型演示了HRM如何使用前向和后向推理来解决分类问题,并且可以在不同的分类任务中进行扩展。

第三个模型是一个因果推理任务模型,用于演示HRM如何使用因果推理来解决因果关系问题。该模型演示了HRM如何使用因果推理来解决因果关系问题,并且可以在不同的因果推理任务中进行扩展。

  • Model of Casual Deduction Task 这里假设我们提供一个描述因果关系的句子,例如"If , then "。然后HRM会从声明性内存中检索与这个句子匹配的前提规则,并根据多个标准选择规则。接下来HRM使用这些规则进行推理,来生成结论或推断。 这里就是第一个模型的工作流程,可以看出来是在四种逻辑形式Modus Ponens (MP),Modus Tollens (MT),Affirmation of the Consequent (AC),和Denial of the Antecedent (DA)里做选择然后检索相应的规则。

  • Model of Spatial Relations Task

简单概括一下这个部分模型处理的过程:

  1. 前提处理:模型首先接收四个前提,这些前提描述了物体之间的关系。模型使用这些前提来构建心理状态或形象,以表示前提中的物体。
  2. 心理状态构建:模型通过迭代地处理每个前提,逐步构建心理状态。在处理每个前提时,模型使用抽象对象来表示物体,并根据前提中的信息更新心理状态。
  3. 空间关系推导:通过构建好的心理状态,模型可以直接推导出两个查询物体之间的空间关系。模型利用心理状态中的信息来确定物体之间的关系,从而回答查询问题。
  • Model of Bayesian-like Inference in Blicket Task

模型的推理策略:模型使用前向推理和后向推理相结合的方式进行推理。在前向推理中,模型根据观察到的方块放置情况和先前的知识进行推断。在后向推理中,模型根据观察到的结果和先前的知识来推断方块的属性。前向推理的步骤:模型首先根据观察到的方块放置情况进行前向推理。

Discussion and Conclusion

模型的良好拟合结果挑战了人类推理中确定性和概率推理之间的传统垂直分割观点。鉴于人类记忆的不一致性和召回的不确定性,确定性推理可以变得具有概率性。这种模型的拟合结果对于我们理解人类推理过程中的底层认知过程提供了详细的解释。HRM展示了人类思维展示的不同推理面向的单一系统。作为认知架构的一部分,HRM有望成为探索人类思维深处和生物启发的有用的工具。

相关推荐
_Li.18 小时前
机器学习-集成学习
人工智能·机器学习·集成学习
极度畅想18 小时前
脑电模型实战系列(三):基于 KNN 的 DEAP 脑电情绪识别 KNN 算法与 Canberra 距离深度剖析(三)
机器学习·knn·脑机接口·情绪识别·bci·canberra距离
一个没有感情的程序猿19 小时前
前端实现人体骨架检测与姿态对比:基于 MediaPipe 的完整方案
机器学习·计算机视觉·前端框架·开源
Dev7z19 小时前
基于Stanley算法的自动驾驶车辆路径跟踪控制研究
人工智能·机器学习·自动驾驶
_Li.19 小时前
机器学习-线性判别函数
人工智能·算法·机器学习
老蒋新思维20 小时前
创客匠人推演:当知识IP成为“数字心智”的架构师——论下一代认知服务的形态
网络·人工智能·网络协议·tcp/ip·机器学习·创始人ip·创客匠人
whaosoft-14321 小时前
51c自动驾驶~合集62
人工智能·机器学习·自动驾驶
OpenBayes21 小时前
Open-AutoGLM 实现手机端自主操作;PhysDrive 数据集采集真实驾驶生理信号
人工智能·深度学习·机器学习·数据集·文档转换·图片生成·蛋白质设计
哆啦叮当21 小时前
VADv2 基于概率规划的端到端自动驾驶模型
人工智能·机器学习·自动驾驶