人工智能越来越聪明,我们需要它来展示它的工作

由:Patrick j . Kiger

计算机思维正变得如此复杂,以至于我们开始失去它的推理。我们如何确保我们知道为什么人工智能会做出这样的决定呢?乍得贝克/盖蒂图片社"width=
计算机思维正变得如此复杂,以至于我们开始失去它的推理。我们如何确保我们知道为什么人工智能会做出这样的决定呢?乍得贝克/盖蒂图片社

如果您想通过大量的数字图像,或者按主题对书面信息进行分类,您最好依赖人工智能(人工智能)系统被称为神经网络,它在数据中寻找模式,并训练自己根据观察做出预测。

但是当谈到高赌注场,如医疗信息在美国,犯错误或预测错误的代价可能危及生命,我们人类有时不愿相信程序给出的答案。这是因为神经网络使用机器学习来训练自己如何解决问题,而我们弱小的“肉脑”看不到这个过程。

广告

麻省理工学院电气工程和计算机科学教授Tommi Jaakkola在电子邮件中表示,尽管机器学习方法“很灵活,通常能做出准确的预测,但它们几乎无法以人类可以理解的方式揭示做出特定预测的原因。”

你可以把它看作是机器学习,相当于把你的数学问题写在黑板上展示你的作业。

如果您是癌症患者,试图根据您的疾病如何进展的预测,或者投资者试图弄清楚与您的退休储蓄有关,盲目地相信机器可能有点可怕 - 特别是因为我们教授机器做出决定,但我们没有良好的观察方式如何他们使他们。

但是不要害怕。在一个新的科学论文Jaakkola和麻省理工学院的其他研究人员已经开发出一种方法来检验神经网络给出的答案。你可以把它看作是机器学习,相当于把你的数学问题写在黑板上展示你的作业。

作为A.麻省理工学院的新闻稿从细节上看,人工智能神经网络实际上模仿了人类大脑的结构。它们由许多处理节点组成,就像我们的神经元一样,这些节点联合力量,结合它们的计算能力来解决问题。在这个过程中,他们参与研究人员所谓的“深度学习”,将训练数据从一个节点传递到另一个节点,然后将它与神经网络试图学习如何进行的任何类型的分类相关联。结果会不断修改以提高,这几乎和人类通过不断尝试和错误来学习的方式一样。

最大的问题是,即使是编写网络程序的计算机科学家也无法真正观察节点上发生了什么,这使得很难弄清楚计算机实际上是如何做出决定的。

Jaakkola解释说:“我们并不试图解释一个复杂模型的内部工作原理。”“相反,我们迫使模型以一种让人类能够轻松验证预测是否基于正确基础的方式运行。”

“我们的方法学会为每个预测生成一个基本原理。基本原理是一段简明的文本,便于人类检查,仅凭它就足以做出相同的预测。为了实现这一点,我们将整个模型体系结构分为两个可分离的组件——生成器和编码器。生成器选择一个基本原理(比如一段文本),并将其传递给编码器进行预测。这种组合被学习成一种预测器。”

因此,即使我们的发电机和编码器本身是复杂的深度学习方法,也被迫以直接可靠的方式使其预测以自预测基于所选择的理由,“Jaakkola写道。

在他们的论文中,科学家们通过使用他们的系统,根据啤酒的香气、口感和外观等属性,对来自一个啤酒爱好者网站的评论进行分类,从中获得了一些乐趣。Jaakkola说:“啤酒评论数据集已经标注了与产品特定方面相关的句子,所以我们可以直接将自动生成的原理与人类的选择进行比较。”在实验中,他们发现神经网络与人类注释的一致性在80%到96%之间,这取决于特征的具体程度。

广告

广告

loading ...