2019年11月14日 365亚博

我们相信人工智能吗?

由大卫。里奇

人工智能有很多东西,就像人类智能一样。

智力,源自拉丁语“Intelligere”,意思是当我们将看似没有明显关系的事物“结合”(ligere)“在一起”(intra)时,能够深入广泛地思考的能力。但是过于深入就会失去开发模式的普遍适用性,过于宽泛就会失去有意义的相关性。发展一种模式,将事物结合在一起,学习这些行为都有助于知识的创造。如果你能简单(有效)、优雅(有效)地向别人解释某件事,那么你就真的学会了。解释可以加强我们的学习,分享知识,建立信任。

当机器学习时,它被称为机器学习(ML),一种人工智能。它从数据开始,从这些数据中,广泛而深入地发展出以前不知道的知识。因此,从本质上讲,ML增强了人类能够构建的知识,尤其是当数据集特别大、时间匮乏的时候。不同的ML算法存在,非常准确和广泛使用。然而,有太多的方法是通过蛮力操作(如果你是一台强大的现代计算机,不是吗?),并构建更好地表示为“黑盒子”的知识。从本质上讲,根据数据集分析,如果恰当地进行了训练,并给予相同的输入,那么总是会产生相同的输出,具有很高的准确性和可重复性。然而,人类不禁要问:为什么?如何?你能给我解释一下吗,电脑?

所以这就提出了一个问题:如果这种人工智能提取的知识无法被解释、共享和/或最终信任,那么它真的有用吗?

当然,在安全至关重要的市场上是没有的。例如,我们目前不会相信人工智能系统,因为它可以尽可能精确地操作从我们头顶飞过的无人机。我们当然不会相信一个监督医生做出医疗决定的人工智能系统。如果医生想知道,“为什么这些数据有某种关联,为什么人工智能系统会推荐一种治疗方法?”我们肯定不会相信一个人工智能系统,它本应该帮助我们在操作远程操作的手术机器人、透析机或输液泵时防止可能的伤害。

以IEC 62304和医疗市场为例。未知来源软件(SOUP)的思想被纳入了标准。有了SOUP,或者第三方软件,人们可能也应该使用第三方算法和知识,前提是这些第三方算法和知识的作用是明确的,并且这些算法行为不当和失败的风险得到了降低。

ML软件和开发的知识当然可以归入SOUP或第三方软件的范畴。然而,如果ML的行为就像一个黑盒,我们怎么知道这个黑盒是做什么的呢?我们如何减轻失败的影响,甚至防止这种失败的发生?

所以,总结一下:是的,我们信任人工智能。只要人工智能是可解释的,能够在我们的日常决策中支持我们。毕竟,是医生,而不是人工智能系统,负责拯救人类的生命。

有关风河技术如何帮助医疗部门的革命的更多信息点击这里

以前的Windows 7的终结:对医疗设备意味着什么
下一个ROSCon 2019: ROS 2 for VxWorks all the Rage