面试:Ruha Benjamin,作者,比赛经过技术
OpenStack基金会敦促企业拥有开放,协作科技发展
技术谈话:作为GDPR织机,公司急于遵守
能源行业需要提高网络防御,警告报告
数据显示时间是正确的“iCloud:企业版'
De Beers和其他珠宝行业巨头创造了Blockchains来验证宝石
Android 9 - 馅饼!完整的常见问题解答
华为削减全球云移动中的AI Edge
Google Unites Chrome OS工具和EMM供应商用于单控制台控制
Microsoft Cuts Office 2016一些松弛,让用户连接到服务,直到2023
JetStream Dr Cloud Replication旨在使备份冗余
通过CCS和GDS审查政府“云第一”政策
思科在公共云中看到企业网络机会
伦敦劳埃德推出了数字野心
在核心银行系统迁移灾难之后的TSB att
英国政府介绍在线色情年龄检查
Microsoft Yanks Marks Windows Windows Mettown / Specter Patches for AMD计算机
Nao说,Home Office失败的紧急服务网络
CityFibre失去了'假纤维'的法庭战
修补熔融:Windows修复,Sloppy .NET,关于Word和Outlook的警告
Microsoft宣布Windows 10 1803在recount time中准备好的企业
零信任:21世纪的安全模型
Microsoft为Windows 10 Home,Pro 1703划分最终的安全更新
隐私专家表示,GDPR没有真正的变化进入GDPR
MWC18:Apple将在哪里获得5G iPhone芯片?
紫红色和Android的未来
澳大利亚公司来掌握AI道德
FPGA MAKER XILINX在数据中心的新软件可编程芯片
布莱顿圆顶剧院可以访问城市的5G手机测试床
PA Consulting宣布2019年覆盆子PI比赛获奖者
IT专业人员希望低码平台将有助于解决App Backlog
Insprecte:看看您的PC是否受到熔化和幽灵的影响
曼彻斯特市议会CIO下降
兰开斯特大学增强了与基于云的聊天班的学生参与
CIO希望员工具有良好的软技能来帮助推动数字变化
Apple的健康记录API发布给第三方开发人员;它安全吗?
Natwest推出了以女性为中心的众筹课程
SUSE续订EPAC作为独立公司
梅德办公室寻求首席信息安全官
政府向AI偏见发动调查
Suiteworld 2019:制造业的转变景观
拉斯维加斯消费电子表演的自动驾驶车辆
邮局偿还公共资金,它分配给基金地平线诉讼
GotoMeeting添加AI转录功能,Amazon Alexa集成
Facebook泄漏:扎克伯格与竞争对手的无情战斗中将数据变为美元
Apple提供卓越的网络安全保护
NVME是'准备好',说Dell EMC,虚拟仪器和思科
Del Monte Foods旨在帮助指导转向AWS云
微软的DAAS计划坚持表面 - 现在
Gorilla对Object矩阵的赌注为1M加上每集电视节目
您的位置:首页 >论坛 > 研究报告 >

面试:Ruha Benjamin,作者,比赛经过技术

2021-08-26 09:44:34 [来源]:

软件算法是种族主义者吗?“种族主义机器人的想法是一种机器偏见的舌头名称 - 但我想到了歧视性设计的更大过程,”普林斯顿大学非洲裔美国大学学业副教授Ruha Benjamin说,以及比赛之后的作者技术。

本杰明对技术行业,软件开发人员和技术用户有一个鲜明的警告:技术有可能隐藏,加速甚至加深歧视,同时与前一个时代的种族主义实践相比出现中性甚至仁慈。

公开,科技产业似乎持有自由价值。Tim Berners-Lee发明了万维网,让大家能够自由分享信息。Facebook和其他社交媒体平台使人们能够连接和分享经验,而开源已经证明了自由可用软件的利他性质,以及程序员聘用了维护开源代码的时间和精力。

但本杰明辩称,软件系统和在线服务中的许多算法具有通过明确放大种族层次进行编码的歧视设计,通过忽略但复制社会配置,或者旨在解决种族偏见,但最终做得非常相反。

因此,社会风险是这些隐藏的算法偏差因此可以对少数群体产生不利影响。“我希望人们考虑自动化如何允许传统偏差的传播 - 即使机器似乎是中立的,”她说。

在经过技术的比赛中,本杰明探讨了算法歧视以及现有的种族偏见如何获得数据科学。“有许多不同的路线,”她说。“技术不会在树上生长。我们种植了什么样的种子?“

她要求读者思考他们如何以不同的方式设计算法,因此它们并不倾向于偏见。

“我希望人们思考自动化如何允许传统偏差传播”

苏哈本杰明,普林斯顿大学

因为这种偏见常常发现它进入负责支持社会弱势成员的公共部门系统,所以他们可以放大种族不平等。对于本杰明来说,社会需要敏锐地意识到公共部门系统和财务,保险,医疗保健和其他部门的系统的社会风险,官员依赖于计算机系统,以制定可能对杀戮产生不利影响的决定。

“它看起来像是一个非常客观的系统,依赖于训练数据,但如果历史数据带有强大的偏见,我们就会自动化这些过去的偏见,”她说。

本杰明将更愿意公共官员,以及负责杀戮的决定的私营部门的人,从他们的计算机屏幕上拉回来。“我正试图复苏在这些系统背后的人类代理人身后,”她说。

虽然人们通常认识到他们自己的人类偏见,但对于本杰明,外包决定对具有偏置算法的客观系统,只需将该偏置转移到机器上。

本杰明表示,质疑任何给定技术的基本价值应该是设计过程的一部分。这也应该是良好的企业社会责任的一部分,成为产品开发的正常方面。她说,软件开发人员需要思考其系统如何增强社会,并且他们的软件可能会伤害社区。

然而,鼓励软件开发人员的步伐与市场进入市场的产品不相容,在本杰明说,社会影响的更加考虑的方法是不相容的。“赛后的比赛也是关于我们被激励的速度,这是社会维度的消息。那些生产技术的人不会激励速度慢。“

本杰明补充说:“我的愿景需要不同的价值观。想想你是否受到经济价值或社会价值的更多动力。“

虽然科技产业往往是多元文化,但至少公开,似乎是两性平等和普遍性的推动者,本杰明觉得人口统计数据周围的原始统计数据代表了一个需要考虑的方面之一。

“技术产业中有一种文化,影响人们,似乎覆盖了他们的背景和成长,”她说。在某种程度上,本杰明觉得在科技上工作的辛辛的背景有时可以追溯到它们的动力。

“你有一个狭窄的专业领域。她说,你不一定是思考对你工作的广泛影响,“她说。

但最近的技术工作人员抗议表明,人们确实感到焦虑,本杰明说,他们准备工作的项目。“我在技术产业中看到了员工的越来越多的运动,以推动他们的组织考虑监督和军事技术项目的更广泛影响,”她说。

例如,在2018年6月,谷歌决定不再与美国军方续签合同,以便在工人的反抗之后开发人工智能(AI)技术。

在Facebook / Cambridge Analytica之后,Benjamin认为人们将要求他们使用和支持的软件产品,以及制作这些产品和服务的公司更为道德。

事实上,本杰明表示,科技产业的偏见类似于其他行业和机构。“提出的问题并不不同,”她补充道。“社会的许多方面都在危机方面就价值观。”

但她认为技术部门有机会在道德中领先。“你是谁是谁?”她问。“底线?股东?“对于本杰明,科技有一个精神才能做得好 - 但这种愿望不是整个故事。

在技​​术后写赛后,她说:“我对偏见的许多表格感兴趣。是社会良好技术,技术修复偏见吗?我想从修复中重新定位技术来绕过社会问题,以如何在更广泛的社会变革中的技术因素。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。