可解释的ai:AI如何以及为什么“真实”?
人工智能(AI)正在扩大到学术界和网络巨头之外,他们拥有巨大访问数据和计算能力和深吸口袋来资助研究项目。有很多炒作,但公司被敦促拥抱AI。
最近发表的两项研究强调了企业采用AI保持竞争力的重要性。
让我们真实地了解AI学员管理咨询公司OC&Creported,AI支出已经巨大:2018年全球AI的业务花费了219亿美元,相当于它花费的总企业的7%。2018年美国花费的AI花费910亿美元,英国12亿美元。
但是,OC&C警告说,使用AI的关键挑战是在答案中建立信任。AI Systems通常从暴露于结果时学习“规则”,而不是从简单的规则构建,例如“如果x,那么y”。这意味着AI系统可能无法解释为什么实现特定结果。反过来,这可能会对AI基础设施和拒绝人类运营商的信任来造成严重问题,以及符合法规,OC&C警告的基础设施和/或基本问题。
同样,Gartner的趋势2019年2019年1月发布预测到2023年,AI中使用的计算资源将从2018年的水平增加五次,使AI成为驾驶基础设施决策的最高类别。
Gartner的研究预测人们越来越依赖AI解决方案的结果。分析师公司表示,到2022年,成熟市场中的30%的消费者将依靠AI来决定他们所吃的东西,他们穿的东西或者居住的地方。
然而,Gartner指出,缺乏治理和意外后果有关的问题将抑制AI投资的成功,并将减缓采用。部署和功能的解释性和透明度的水平对于AI在其工作中的准确性和可信度或有效性至关重要。
去年,亚利桑那州的一个妇女的不幸的故事被自主超级汽车播种的亚利桑那州被广泛报道。当时,匿名来源声称汽车的软件在车辆前面注册了一个物体,但以同样的方式处理它会在风中携带塑料袋或滚动滚草。
在最近的IEEE论文中,偷看了黑匣子内,作者,计算机科学家Amina Adadi和Mohammed Berrada,只有可解释的系统可以澄清这种情况的模糊情况,最终阻止它发生。Adadi和Berrada得出结论,AI中的解释性可能成为业务中的竞争性差异化因素。
在Lloyds银行集团的数据科学家Domino Data Lab,托拉阿拉德托管的最近托管活动中,说:“组织的负荷正在使用AI进行决策。但是,组织解释AI的决定变得重要。“
在一些受监管的行业中,公司必须提供对其决定的解释。因此,如果AI涉及决策过程,则需要可以测量用于获得其决定的AI的数据以及与每个元素相关联的权重。
决定是以两种方式 - 监督和无人监督的决定。随着姓名的表明,无监督的机器学习涉及让机器自己完成所有工作。AI有效地是一个黑盒子,因此,与已知的数据集用于培训时,更难以理解,更难了解如何进行其决策。
在监督机器学习中,预先标记的输入和输出数据用于训练算法,使得AI可以预测来自先前未见的新输入的输出。因为已知预先标记的数据,所以据说AI算法是一个白色框。
Xai(可解释的AI)旨在解释机器学习模型预测。工具开始似乎创建预测模型,以“了解”白盒和黑匣子AIS如何做出决定。这些工具基于来自AI算法和实际测量结果的预测结果之间的变化有效地使用了一些聪明的数学。
但在某些应用领域,即使AI在已知数据上培训,也可能不会提供最佳结果。在最近的电脑周刊采访时,SébastienBoria,机电一体化和机器人技术领导者的Ai系统表示,AI系统采用了所有关于特定手动流程的人的样本,以了解他们的工作,可能会升起基于人民采样的平均行为的机器学习模型。“仅仅因为50%的人口做了一些没有成为正确的解决方案,”博利亚说。
因此,随着Xai,在某些情况下,企业也可能需要评估对源机器学习数据的AI算法的影响,这些数据表示异常良好或异常不良结果。必须仔细考虑与这两个极端相关的偏差作为XAI模型的一部分。
Xai的解释性不仅仅是机器如何到达其答案。根据IEEE的作者偷看黑盒纸内部,人们还需要了解“如何”和“为什么”。
“解释模型是不够的 - 用户必须了解它,”作者说。然而,即使有准确的解释,发展这种理解也可能需要对用户可能拥有的问题的补充答案,例如“42”在银河系中的“42”意味着什么?