您的位置:首页 >要闻 >

Siri和Alexa助长了性别歧视,联合国发现

梅根·Specia

为什么大多数由人工智能驱动的虚拟助手 -- 比如苹果的Siri和亚马逊的Alexa系统 -- 默认情况下都有女性名字、女性声音,而且往往是顺从甚至调情的风格?

根据联合国教科文组织本周发布的一份新报告,这个问题源于该行业缺乏个性,加剧了有问题的性别陈规定型观念。

联合国教科文组织性别平等主任Saniye Gulser Corat在声明中说: “假装是女性的服从和强迫的机器正在进入我们的家庭,汽车和办公室。”“世界需要更加密切地关注人工智能技术是如何、何时以及是否具有性别特征的,至关重要的是,谁在对它们进行性别特征化。”

对此特别令人担忧的反映是这些助手对侮辱的 “转移,平淡或道歉的回应”。

该报告借用了其标题-“如果可以的话,我会脸红”-来自苹果语音助手Siri的标准回应,当时用户向它投掷了性别歧视。当用户告诉Alexa “你很性感” 时,她的典型反应是愉快的,“你说得真好!”

Siri的回应最近被改变为更扁平的 “我不知道如何应对”,但报告显示,这项技术仍然存在性别偏见,认为问题始于绝大多数由男性组成的工程团队。

该报告发现: “Siri的 '女性' 卑鄙-以及许多其他数字助理所表现的年轻女性的奴役-有力地说明了编码到技术产品中的性别偏见。”

亚马逊的Alexa以古老的亚历山大图书馆命名,无疑是女性。微软的Cortana以Halo视频游戏专营权中的AI角色命名,该角色将自己塑造成一个性感,不穿衣服的女人。苹果的Siri是北欧人的名字,意思是 “带领你走向胜利的美丽女人”。Google Assistant系统,也称为Google Home,名称中性,但默认语音为女性。

然而,几代人对女性有问题的看法融入了她们人性化的个性。报告警告说,这些助手正在为社会打上烙印,因为它们在世界各地的家庭中变得很普遍,并且可以影响与真实女性的互动。正如报告所说,“文化越教人们将女性等同于助手,真正的女性就越会被视为助手,并因不喜欢助手而受到惩罚。”

苹果和谷歌拒绝对此报道发表评论。亚马逊没有立即回应置评请求。

该出版物是第一个提出联合国关于人工智能技术性别问题的建议的出版物,敦促科技公司和政府停止默认将数字助理设为女性,并探索开发不分性别的语音助理,以及其他指导。

教科文组织在报告中指出,这些系统反映了技术和人工智能部门之间更大的性别差异,该报告是与德国政府和平等技能联盟共同发布的,该联盟促进了技术部门的性别平衡。

女性在人工智能领域的代表性严重不足,构成了该领域人工智能研究人员的12% 和软件开发人员的6%。

报告指出,科技公司通过指出研究表明消费者更喜欢女性声音而不是男性声音来证明使用女性声音是合理的。但在那次谈话中迷失的是研究表明,人们喜欢男性声音在发表权威声明时的声音,而女性声音在 “有帮助” 时的声音,这进一步延续了陈规定型观念。

专家表示,人工智能的偏见和编程领域内更广泛的差距并不是什么新鲜事-指出亚马逊开发的一种无意中的性别歧视招聘工具和面部识别技术错误地识别了黑脸作为例子。

“这并不总是恶意的偏见,它是无意识的偏见,并且缺乏意识到这种无意识的偏见存在,所以它是长期存在的,” 艾里森·加德纳 (Allison Gardner) 说,她是人工智能领域女性领导者的联合创始人。“但这些错误的发生是因为你没有perse团队,没有足够的思维和创新来发现明显的问题。”

但是该报告为教育提供了指导,并为解决这些问题提供了步骤,这是平等倡导者长期以来一直在推动的。

加德纳 (Gardner) 的组织致力于将从事人工智能工作的女性与商业领袖和政治家聚集在一起,讨论以更具代表性的方式发展该行业的道德,偏见和立法框架的潜力。

该小组已发布了自己的建议清单,以构建包容性人工智能,其中包括建立监管机构来审核算法,调查投诉并确保在新技术开发中考虑到偏见。

加德纳说: “我们现在需要改变事情,因为这些事情现在正在实施。” 他指出,人工智能虚拟助手的迅速普及。“我们现在正在编写未来将使用的标准。”

加德纳说,教育也需要改变,因为偏见是男性主导领域内系统性代表性不足的症状。

她说: “计算机科学学科领域的整个结构被设计为以男性为中心,一直到我们使用的语义。”

尽管女性现在在计算机科学领域拥有更多的机会,但随着她们职业生涯的发展,越来越多的女性正在从这个领域消失,这种趋势被称为 “泄漏管道” 现象。

加德纳说: “我想说,他们实际上是被一个相当不友好的女性环境和文化所逼出的。”“需要改变的是文化。”

相关推荐

猜你喜欢

特别关注