据麻省理工学院和多伦多大学的研究人员称,亚马逊向执法部门推销的面部检测技术往往会误认女性,尤其是肤色较深的女性。
由于担心对少数群体的歧视,隐私和民权倡导者呼吁亚马逊停止营销其再造服务。一些亚马逊投资者还要求公司停止担心它使亚马逊容易受到诉讼。
研究人员说,在他们的测试中,亚马逊的技术将肤色较深的女性贴上男性标签的比例为31%。皮肤较浅的女性被误认的比例为7%。肤色较深的男性有1%的误差率,而皮肤较浅的男性则没有.
人工智能可以模仿人类创造者的偏见,让他们进入日常生活。周四晚些时候发布的这项新研究警告说,面部检测技术可能会对隐私和公民自由造成侵犯和威胁。
亚马逊云计算部门人工智能总经理马特伍德(Matt Wood)表示,这项研究使用的是“面部分析”,而不是“面部识别”技术。伍德说,面部分析“可以在视频或图像中识别人脸,并分配一般属性,比如戴眼镜;识别是一种不同的技术,通过这种技术,单个人脸与视频和图像中的人脸相匹配。”
麻省理工学院媒体实验室的研究员JoyBuolamwini在周五的一篇文章中回应说,公司应该检查所有分析人类面孔的系统是否存在偏见。
她写道:“如果你销售一个已经被证明对人类面孔有偏见的系统,那么你的其他面部产品也完全没有偏见,这是值得怀疑的。”
亚马逊的反应表明,它没有认真对待“这项研究揭示的真正严重的担忧”,美国公民自由联盟的律师雅各布·斯诺说。
多伦多大学的Buolamwini和Inioluwa Deborah Raji说,他们研究了亚马逊的技术,因为该公司已经将其推向了执法部门。raji的linkedin账户表示,她目前是谷歌人工智能的研究导师,后者在云计算服务方面与亚马逊竞争。
Buolamwini和Raji说,自从研究人员在2017年5月的一项研究中发现了类似的问题以来,微软和ibm已经改进了他们的面部识别技术。他们的第二项研究,包括亚马逊,于2018年8月完成。他们的论文将于周一在檀香山举行的人工智能会议上发表。
伍德说,自这项研究以来,亚马逊已经更新了自己的技术,并用“零假阳性匹配”进行了自己的分析。
亚马逊的网站称赞雷科尼帮助俄勒冈州华盛顿县警长办公室加快了从数十万张照片记录中识别嫌疑人所花的时间。