来源: 时间:2022-10-16 19:35:08
根据麻省理工学院和多伦多大学的研究人员的说法,亚马逊向执法部门推销的面部检测技术经常误认女性,尤其是肤色较深的女性。
隐私和民权倡导者呼吁亚马逊停止销售其Rekognition服务,因为担心歧视少数族裔。一些亚马逊投资者还要求该公司停止工作,因为担心这会使亚马逊容易受到诉讼的影响。
<iframe src = "https://www.dailymotion.com/embed/video/ k2ZdSCfrpyVq3FufF61" 宽度 = "100%" 高度 = "363"></iframe>研究人员说,在他们的测试中,亚马逊的技术31% 将肤色较深的女性标记为男性。肤色较浅的女性7% 被误认。肤色较深的男性错误率为1%,而肤色较浅的男性则没有错误率。
人工智能可以模仿人类创造者进入日常生活时的偏见。这项新研究于周四晚些时候发布,警告说面部检测技术可能会滥用并威胁到隐私和公民自由。
亚马逊云计算部门人工智能总经理马特·伍德 (Matt Wood) 表示,这项研究使用的是 “面部分析”,而不是 “面部识别” 技术。伍德说,面部分析 “可以在视频或图像中发现面部,并分配通用属性,例如戴眼镜; 识别是一种不同的技术,通过这种技术,个人面部与视频和图像中的面部相匹配。”
在Medium网站上的周五帖子中,麻省理工学院媒体实验室研究员Joy Buolamwini回应说,公司应检查所有分析人脸的系统是否存在偏见。
她写道: “如果你出售一种被证明对人脸有偏见的系统,那么你的其他基于人脸的产品是否完全没有偏见是值得怀疑的。”
亚马逊的反应表明,它没有认真对待 “这项研究揭示的真正严重的担忧”,美国公民自由联盟的律师雅各布·斯诺 (Jacob Snow) 说。
多伦多大学的Buolamwini和Inioluwa Deborah Raji表示,他们研究了亚马逊的技术,因为该公司已将其销售给执法部门。Raji的LinkedIn帐户表示,她目前是Google的人工智能研究人员,该公司与亚马逊竞争提供云计算服务。
Buolamwini和Raji说,自从研究人员在2017年5月研究中发现类似问题以来,微软和IBM已经改进了他们的面部识别技术。他们的第二项研究 (包括亚马逊) 是在2018年8月进行的。他们的论文将于周一在檀香山举行的人工智能会议上发表。
伍德说,自这项研究以来,亚马逊已经更新了其技术,并以 “零假阳性匹配” 进行了自己的分析。
亚马逊的网站赞扬Rekognition帮助俄勒冈州华盛顿县警长办公室加快了从数十万张照片记录中识别嫌疑人的时间。
相关推荐
猜你喜欢