登录    |    注册

您好,欢迎来到中国测试科技资讯平台!

首页>资讯速递>科普课堂>人工智能是如何做出决策的?

人工智能是如何做出决策的?

1453    2020-08-24    发布者:中国测试杂志社    来源:NIST 翻译:新闻中心

这是我们许多人在童年时都会遇到的问题:“你为什么要这么做?”随着人工智能(AI)开始越来越多地做出影响我们生活的重要决定,我们也希望这些机器能够回答这个简单而深刻的问题。毕竟,我们为什么要相信人工智能的决定呢?

这种渴求令人满意解释的想法促使美国国家标准与技术研究院(NIST)的科学家们提出了一套评判原则,通过这些原则我们可以判断人工智能是如何解释它所做的决定的。他们发布的草案《可解释人工智能的四个原则》(NISTIR 8312草案),旨在激发一场关于我们应该对AI决策系统有何等期望的讨论。

根据作者的观点,可解释人工智能决策的四个基本原则是:

? 人工智能系统应该为其所有决策结果提供相应的证据或理由

? 系统应该提供对使用者有意义和可理解的解释

? 该解释需正确反映AI系统进行决策的过程

? 系统仅在设计的条件下或当系统对其决策结果达到足够的置信度时运行。(其理念是,如果系统对其决策结果没有足够的信心,它就不能向用户提供决策。)

菲利普斯说:“随着在AI可解释性研究方面取得的进步,我们可能会发现人工智能系统的某些部分比人类自己更能满足社会的期望和目标。”他过去的研究表明,人类和人工智能之间的合作比任何一方单独工作都能产生更高的准确性。“理解人工智能系统和人类决策行为的可解释性为人类与AI不断融合各自优势的实现打开了大门。”

菲利普斯说,目前作者希望他们收到的评论能推进这一课题的讨论更深一步展开。他说:“我认为我们尚不清楚什么才是正确的解释基准。说到底,我们并不是想回答所有的问题,而是努力地充实这一领域,从而让我们的讨论富有成效。”



分享到:

免责声明

(1)本网转载或来自其他发布者(非中国测试杂志社)的作品,目的在于传递更多信息,并不代表本网赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。

(2)如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

2014棋牌游戏 亚美游戏骰宝玩法 澳门沙龙优惠劵 博天堂娱乐下载 GA馆
海立方赌场娱乐 中原捕鱼游戏 福彩3d乐彩网 拉菲合作伙伴 时时博国际
经典老游戏下载 申愽博代理登入 澳门塞班岛游戏网站 申博太阳城开户平台 蓝博娱乐游戏免费试玩
蚂蚁娱乐平台登录 海立方代理 申博亚洲娱乐 澳门24小时游戏全新代理模式 金冠娱乐线路检测