机器人的变化 – 新框架如何解决自主系统 – 第 1 部分

弥合传统机械设计与现代机器行为之间的差距

本博客是探讨欧盟新的监管环境如何重塑我们处理机器人和自主系统的方式的系列文章中的第一篇,特别是在从工业 4.0 向工业 5.0 转变的背景下。

新的欧盟机械法规的到来标志着我们对机器的看法发生了期待已久的转变,尤其是那些具有一定独立性地行事的机器。多年来,我们看到机器人变得更具适应性、互联性和智能性。缺少的是一个以有意义、可执行的方式承认这种演变的框架。现在,我们有了它。

最让我印象深刻的是该法规如何开始弥合传统机械设计和现代机器行为之间的差距。它不会将机器人视为另一种类型的机器。相反,它开始解释自主性和学习如何引入新型风险,这些风险无法通过硬件检查或确定性逻辑完全捕获。

在我看来,最重要的变化之一是认识到某些人工智能功能或自适应系统现在被认为是"高风险",特别是如果它们的行为影响安全。这意味着这些机器或组件自行声明 CE 标志的时代已经结束。制造商现在必须让欧盟公告机构参与进来,并在结果可能随着时间的推移而变化时重新考虑他们如何验证功能。

这带来了一些真正的挑战。我们如何证明系统的变化是安全的?我们如何安全地定义机器学习的局限性?许多传统的功能安全标准(例如 ISO 13849 或 IEC 62061)并不是为根据实时数据进行自我调整的模型而构建的。即使我们将人工智能视为一个组件,我们仍然需要强大的方法来确保其行为保持在安全范围内。

网络安全是我看到紧张局势出现的另一个领域。该法规现在将数字威胁视为直接的安全风险。如果机器人的逻辑可以通过网络或不安全的更新来改变,那是一个真正的危险,而不仅仅是 IT 问题。这迫使制造商收紧处理软件更新、远程访问甚至数据记录的方式。简而言之,安全不再只是传感器和挡块的问题,而是数字完整性的问题。

还有一个更广泛的系统问题。随着越来越多的机器成为软件定义的机器,合规责任不再仅仅在于原始设备制造商。如果您正在集成第三方 AI 系统或组件,在交付后修改机器人,甚至开发自定义安全逻辑。您现在在法规眼中被视为制造商。这是一个很大的变化,我认为会让一些运营商措手不及。

在一致性方面,很明显,这项规定并不是孤立的。《人工智能法案》对此进行了补充,我们需要密切关注协调标准的制定,使合规性更加具体。但即使是现在,方向也很明确,自主必须负责。

这些变化也给我们这些从事合规和安全工作的人带来了新的挑战。评估随着时间的推移而发展的智能系统,或确保机器整个生命周期的数字安全,需要新的工具、新的思维,在某些情况下,还需要全新的能力。我将在下一篇文章中进一步探讨这一点。

最终,这项法规促使我们作为工程师、设计师和开发人员更批判性地思考我们正在构建的系统。我们不仅在制造更智能的机器,我们还在重塑它们与世界互动的方式,这伴随着新的责任。