您好,欢迎来到中国测试科技资讯平台!

首页>资讯速递>科普课堂>人工智能是如何做出决策的?

人工智能是如何做出决策的?

2938    2020-08-24    发布者:中国测试杂志社    来源:NIST 翻译:新闻中心

这是我们许多人在童年时都会遇到的问题:“你为什么要这么做?”随着人工智能(AI)开始越来越多地做出影响我们生活的重要决定,我们也希望这些机器能够回答这个简单而深刻的问题。毕竟,我们为什么要相信人工智能的决定呢?

这种渴求令人满意解释的想法促使美国国家标准与技术研究院(NIST)的科学家们提出了一套评判原则,通过这些原则我们可以判断人工智能是如何解释它所做的决定的。他们发布的草案《可解释人工智能的四个原则》(NISTIR 8312草案),旨在激发一场关于我们应该对AI决策系统有何等期望的讨论。

根据作者的观点,可解释人工智能决策的四个基本原则是:

• 人工智能系统应该为其所有决策结果提供相应的证据或理由

• 系统应该提供对使用者有意义和可理解的解释

• 该解释需正确反映AI系统进行决策的过程

• 系统仅在设计的条件下或当系统对其决策结果达到足够的置信度时运行。(其理念是,如果系统对其决策结果没有足够的信心,它就不能向用户提供决策。)

该报告是NIST帮助开发“可信”人工智能系统的一部分。NIST的基础研究旨在通过理解AI系统的理论功能和局限性,以及提高它们的准确性、可靠性、安全性、稳定性和可解释性来建立对AI系统的信任,这将是该报告重点讨论的内容。

草案作者正在征求公众的反馈意见,因为这个主题涉及范围非常大,从机械工程、计算机科学到心理学和法律研究都有所涵盖,所以他们希望可以对此进行广泛的讨论。

该草案的作者之一,NIST电子工程师乔纳森·菲利普斯说:“人工智能越来越多地参与到高风险的决策中,没有人希望机器在不了解原因的情况下做出决定。但是一个能让工程师满意的解释可能并不适用于其他职业背景的人。因此,我们希望能从不同的角度和观点来完善这个草案。”

理解人工智能系统做出决策背后的原因可以使决策所涉及的每个人都受益。例如,如果人工智能有助于改进贷款批准决策,那么这种理解可以帮助软件设计师改进系统。同时申请人也会想深入了解人工智能的推理过程,或许是想知道为什么被银行拒绝,或许是在贷款批准后帮助申请人继续保持良好的信用评级。

菲利普斯说,虽然这些原则看起来很简单,但使用者通常有不同的标准来判断人工智能是否成功地满足了他们的需求。例如,第二个原则中的“解释”有多种含义,对不同的人来说有不同的意义,这取决于他们的角色同人工智能工作之间的联系。

提到《星际迷航》中的角色时,菲利普斯说:“想想柯克和史波克他们是如何交谈的,使用人工智能系统来协助诊断疾病的医生可能只需要史波克解释为什么这台机器会推荐其中一种特殊的治疗方法。而病人可能不太需要知道其中的技术细节,但他们会希望了解柯克的背景,了解柯克与他的生活有何关系。”

菲利普斯和他的合著者们将可解释AI决策依据的概念与之前AI的相关工作联系起来,同时他们也将人类对机器的可解释性的要求与人类对自己的要求进行了比较。我们的设定是否达到了人类对AI的需求?在使用报告的四个原则探索了人类的决策支撑过程后,作者得出结论——我们的设定没有达到。

研究员们引用了几个例子,写道:“人类对自己做出的选择和推论的解释在很大程度上是不可靠的。在没有意识的情况下,人们会将不相关的信息整合到各种决策中,从人格特质判断到陪审团裁决都会有这样的问题。”

然而,这种意识上的显著的双重标准体系最终会帮助我们更好地理解自己所做的决定,并创造一个更安全、更透明的世界。

菲利普斯说:“随着在AI可解释性研究方面取得的进步,我们可能会发现人工智能系统的某些部分比人类自己更能满足社会的期望和目标。”他过去的研究表明,人类和人工智能之间的合作比任何一方单独工作都能产生更高的准确性。“理解人工智能系统和人类决策行为的可解释性为人类与AI不断融合各自优势的实现打开了大门。”

菲利普斯说,目前作者希望他们收到的评论能推进这一课题的讨论更深一步展开。他说:“我认为我们尚不清楚什么才是正确的解释基准。说到底,我们并不是想回答所有的问题,而是努力地充实这一领域,从而让我们的讨论富有成效。”



分享到:

免责声明

(1)本网转载或来自其他发布者(非中国测试杂志社)的作品,目的在于传递更多信息,并不代表本网赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。

(2)如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。