面试:Ruha Benjamin,作者,比赛经过技术
软件算法是种族主义者吗?“种族主义机器人的想法是一种机器偏见的舌头名称 - 但我想到了歧视性设计的更大过程,”普林斯顿大学非洲裔美国大学学业副教授Ruha Benjamin说,以及比赛之后的作者技术。
本杰明对技术行业,软件开发人员和技术用户有一个鲜明的警告:技术有可能隐藏,加速甚至加深歧视,同时与前一个时代的种族主义实践相比出现中性甚至仁慈。
公开,科技产业似乎持有自由价值。Tim Berners-Lee发明了万维网,让大家能够自由分享信息。Facebook和其他社交媒体平台使人们能够连接和分享经验,而开源已经证明了自由可用软件的利他性质,以及程序员聘用了维护开源代码的时间和精力。
但本杰明辩称,软件系统和在线服务中的许多算法具有通过明确放大种族层次进行编码的歧视设计,通过忽略但复制社会配置,或者旨在解决种族偏见,但最终做得非常相反。
因此,社会风险是这些隐藏的算法偏差因此可以对少数群体产生不利影响。“我希望人们考虑自动化如何允许传统偏差的传播 - 即使机器似乎是中立的,”她说。
在经过技术的比赛中,本杰明探讨了算法歧视以及现有的种族偏见如何获得数据科学。“有许多不同的路线,”她说。“技术不会在树上生长。我们种植了什么样的种子?“
她要求读者思考他们如何以不同的方式设计算法,因此它们并不倾向于偏见。
“我希望人们思考自动化如何允许传统偏差传播”
苏哈本杰明,普林斯顿大学
因为这种偏见常常发现它进入负责支持社会弱势成员的公共部门系统,所以他们可以放大种族不平等。对于本杰明来说,社会需要敏锐地意识到公共部门系统和财务,保险,医疗保健和其他部门的系统的社会风险,官员依赖于计算机系统,以制定可能对杀戮产生不利影响的决定。
“它看起来像是一个非常客观的系统,依赖于训练数据,但如果历史数据带有强大的偏见,我们就会自动化这些过去的偏见,”她说。
本杰明将更愿意公共官员,以及负责杀戮的决定的私营部门的人,从他们的计算机屏幕上拉回来。“我正试图复苏在这些系统背后的人类代理人身后,”她说。
虽然人们通常认识到他们自己的人类偏见,但对于本杰明,外包决定对具有偏置算法的客观系统,只需将该偏置转移到机器上。
本杰明表示,质疑任何给定技术的基本价值应该是设计过程的一部分。这也应该是良好的企业社会责任的一部分,成为产品开发的正常方面。她说,软件开发人员需要思考其系统如何增强社会,并且他们的软件可能会伤害社区。
然而,鼓励软件开发人员的步伐与市场进入市场的产品不相容,在本杰明说,社会影响的更加考虑的方法是不相容的。“赛后的比赛也是关于我们被激励的速度,这是社会维度的消息。那些生产技术的人不会激励速度慢。“
本杰明补充说:“我的愿景需要不同的价值观。想想你是否受到经济价值或社会价值的更多动力。“
虽然科技产业往往是多元文化,但至少公开,似乎是两性平等和普遍性的推动者,本杰明觉得人口统计数据周围的原始统计数据代表了一个需要考虑的方面之一。
“技术产业中有一种文化,影响人们,似乎覆盖了他们的背景和成长,”她说。在某种程度上,本杰明觉得在科技上工作的辛辛的背景有时可以追溯到它们的动力。
“你有一个狭窄的专业领域。她说,你不一定是思考对你工作的广泛影响,“她说。
但最近的技术工作人员抗议表明,人们确实感到焦虑,本杰明说,他们准备工作的项目。“我在技术产业中看到了员工的越来越多的运动,以推动他们的组织考虑监督和军事技术项目的更广泛影响,”她说。
例如,在2018年6月,谷歌决定不再与美国军方续签合同,以便在工人的反抗之后开发人工智能(AI)技术。
在Facebook / Cambridge Analytica之后,Benjamin认为人们将要求他们使用和支持的软件产品,以及制作这些产品和服务的公司更为道德。
事实上,本杰明表示,科技产业的偏见类似于其他行业和机构。“提出的问题并不不同,”她补充道。“社会的许多方面都在危机方面就价值观。”
但她认为技术部门有机会在道德中领先。“你是谁是谁?”她问。“底线?股东?“对于本杰明,科技有一个精神才能做得好 - 但这种愿望不是整个故事。
在技术后写赛后,她说:“我对偏见的许多表格感兴趣。是社会良好技术,技术修复偏见吗?我想从修复中重新定位技术来绕过社会问题,以如何在更广泛的社会变革中的技术因素。“