可解释的ai:AI如何以及为什么“真实”?
Microsoft在3年内发出第一个Windows XP修补程序到Stymie'Wannacrypt'
勇敢的浏览器将用户的钱包打开到YouTube内容创建者
'严肃的'Twitter缺陷让黑客派遣了其他人的账户
企业敦促为敲诈勒索竞选做准备
澳大利亚政府警告区间的差距
科技部门告诉政府,数字身份政策是“迫切需要”的
Wikileaks邮寄了CIA恶意软件植入刺客和午夜的用户指南
CIO采访:IT Holden,Halfords Group
黑莓手机许可证安全技术到IoT设备制造商
ISOC警告企业不应被IPv6部署留下
O2用诺基亚ai为客户为中心的网络权力
BlockChain集成将ERP变为协作平台
微软的Windows 10更新策略显示出群体
“嘿Siri,为窃贼的人买100比特币”
避免了过去的infosec错误,敦促罗伯特汉尼曼
华为说,美国政府禁止违宪
Apple的iOS 11 GM泄漏:钱在哪里?
研究表明,2018年数字现实及股票大部分集邮扑克市场并购活动
中国网络攻击集团青铜联盟针对武器技术
Slack推出共享频道以连接跨国公司的团队
SAP 2018 FY:云收入近5亿欧元,10,500百万客户为S / 4 Hana
丰田澳大利亚在网络攻击下
Kellogg的测试VR开发销售战略
CES 2019:这里插入车载导航服务中的Alexa
Whatsapp将注意力转向业务
Facebook计划在Android手机用户上窥探,内部电子邮件揭示
谷歌挤压赛门铁克直到IT证书
谷歌的像素2拥有其他人都忽略的现实
AWS在英国政府皇冠市场计划中确保云托管角色
不,Windows XP没有燃料vandacry
汉考克承诺GP它大修
Microsoft Slates 9月发布Windows Server的第一个快速升级
Mingis关于Tech:iPad Pro(最后)为企业准备好吗?
微软:不,这不是审计
Surface Pro 4问题:Windows你好消失了,摇摇欲坠的屏幕
Apple的Arkit需要一个CMS来达到其潜力
西部数字纠纷与东芝仲裁头
MWC 2019:O2由圣诞节推出5G
为NHS提供了一个非常数字化计划
Clydesdale,约克郡和维尔京钱选择OpenShift数码推动
Microsoft在Windows 10 Fall Creators更新上分享详细信息
蓝牙设备很快就会有网状网络功能
Microsoft修复了Windows恶意软件保护引擎中的远程黑客缺陷
alexa为企业为Smart A.I铺平道路。工作助理
常问问题:Microsoft计划如何升级Office 365
IT优先事项2019:安全涉及网络买家的顶级议程
卫生秘书Matt Hancock推出了NHSX组织,以领导科技战略
AI战斗正在升级:这是IT巨头的下一步
Microsoft详细介绍了如何使用Intune安装Office
您的位置:首页 >论坛 > 移动互联 >

可解释的ai:AI如何以及为什么“真实”?

2021-08-22 09:44:16 [来源]:

人工智能(AI)正在扩大到学术界和网络巨头之外,他们拥有巨大访问数据和计算能力和深吸口袋来资助研究项目。有很多炒作,但公司被敦促拥抱AI。

最近发表的两项研究强调了企业采用AI保持竞争力的重要性。

让我们真实地了解AI学员管理咨询公司OC&Creported,AI支出已经巨大:2018年全球AI的业务花费了219亿美元,相当于它花费的总企业的7%。2018年美国花费的AI花费910亿美元,英国12亿美元。

但是,OC&C警告说,使用AI的关键挑战是在答案中建立信任。AI Systems通常从暴露于结果时学习“规则”,而不是从简单的规则构建,例如“如果x,那么y”。这意味着AI系统可能无法解释为什么实现特定结果。反过来,这可能会对AI基础设施和拒绝人类运营商的信任来造成严重问题,以及符合法规,OC&C警告的基础设施和/或基本问题。

同样,Gartner的趋势2019年2019年1月发布预测到2023年,AI中使用的计算资源将从2018年的水平增加五次,使AI成为驾驶基础设施决策的最高类别。

Gartner的研究预测人们越来越依赖AI解决方案的结果。分析师公司表示,到2022年,成熟市场中的30%的消费者将依靠AI来决定他们所吃的东西,他们穿的东西或者居住的地方。

然而,Gartner指出,缺乏治理和意外后果有关的问题将抑制AI投资的成功,并将减缓采用。部署和功能的解释性和透明度的水平对于AI在其工作中的准确性和可信度或有效性至关重要。

去年,亚利桑那州的一个妇女的不幸的故事被自主超级汽车播种的亚利桑那州被广泛报道。当时,匿名来源声称汽车的软件在车辆前面注册了一个物体,但以同样的方式处理它会在风中携带塑料袋或滚动滚草。

在最近的IEEE论文中,偷看了黑匣子内,作者,计算机科学家Amina Adadi和Mohammed Berrada,只有可解释的系统可以澄清这种情况的模糊情况,最终阻止它发生。Adadi和Berrada得出结论,AI中的解释性可能成为业务中的竞争性差异化因素。

在Lloyds银行集团的数据科学家Domino Data Lab,托拉阿拉德托管的最近托管活动中,说:“组织的负荷正在使用AI进行决策。但是,组织解释AI的决定变得重要。“

在一些受监管的行业中,公司必须提供对其决定的解释。因此,如果AI涉及决策过程,则需要可以测量用于获得其决定的AI的数据以及与每个元素相关联的权重。

决定是以两种方式 - 监督和无人监督的决定。随着姓名的表明,无监督的机器学习涉及让机器自己完成所有工作。AI有效地是一个黑盒子,因此,与已知的数据集用于培训时,更难以理解,更难了解如何进行其决策。

在监督机器学习中,预先标记的输入和输出数据用于训练算法,使得AI可以预测来自先前未见的新输入的输出。因为已知预先标记的数据,所以据说AI算法是一个白色框。

Xai(可解释的AI)旨在解释机器学习模型预测。工具开始似乎创建预测模型,以“了解”白盒和黑匣子AIS如何做出决定。这些工具基于来自AI算法和实际测量结果的预测结果之间的变化有效地使用了一些聪明的数学。

但在某些应用领域,即使AI在已知数据上培训,也可能不会提供最佳结果。在最近的电脑周刊采访时,SébastienBoria,机电一体化和机器人技术领导者的Ai系统表示,AI系统采用了所有关于特定手动流程的人的样本,以了解他们的工作,可能会升起基于人民采样的平均行为的机器学习模型。“仅仅因为50%的人口做了一些没有成为正确的解决方案,”博利亚说。

因此,随着Xai,在某些情况下,企业也可能需要评估对源机器学习数据的AI算法的影响,这些数据表示异常良好或异常不良结果。必须仔细考虑与这两个极端相关的偏差作为XAI模型的一部分。

Xai的解释性不仅仅是机器如何到达其答案。根据IEEE的作者偷看黑盒纸内部,人们还需要了解“如何”和“为什么”。

“解释模型是不够的 - 用户必须了解它,”作者说。然而,即使有准确的解释,发展这种理解也可能需要对用户可能拥有的问题的补充答案,例如“42”在银河系中的“42”意味着什么?

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。