来源: 时间:2022-09-02 09:35:04
人工智能有望使雇用一个公正的乌托邦。当然还有很大的改进空间。员工推荐 (一种倾向于将代表性不足的群体排除在外面的过程) 仍然占公司招聘的大部分。研究发现,招聘人员和招聘经理也会给这个过程带来自己的偏见,他们经常选择名字和教育背景 “正确” 的人。
在整个渠道中,公司缺乏种族和性别的个性,在公司阶梯的最高层中,代表性不足的人的人数正在减少。在《财富》500强公司的首席执行官中,只有不到5% 是女性,而当百事可乐首席执行官Indra Nooyi卸任时,这一数字将10月进一步减少。财富500强董事会中的种族歧视几乎同样令人沮丧,因为2016年董事会的五名新任命中有四名是白人。同一组只有三名黑人首席执行官。
“识别高潜力候选人是非常主观的,” 领导力发展技术平台CorpU的首席执行官艾伦·托德 (Alan Todd) 说。“人们根据无意识的偏见来选择他们喜欢的人。”
人工智能倡导者认为,这项技术可以消除其中一些偏见。Entelo和Stella.ai等公司不再依靠人们的感受来做出招聘决定,而是使用机器学习来检测某些工作所需的技能。然后,AI将具有这些技能的候选人与空缺职位进行匹配。这些公司声称不仅要找到更好的候选人,而且要查明那些以前在传统过程中可能未被认可的人。
例如,创始人里奇·乔夫 (Rich Joffe) 说,斯特拉的算法仅根据技能评估候选人。“该算法只允许根据我们告诉它要看的数据进行匹配。只允许看技能,只允许看行业,只允许看公司的层级。“他说,这限制了偏见。
Entelo今天发布了公正的采购模式,这是一种进一步匿名招聘的工具。该软件允许招聘人员隐藏姓名、照片、学校、就业差距和某人年龄的标记,以及替换特定性别的代词,所有这些都是为了减少各种形式的歧视。
人工智能也被用来帮助培养内部人才。CorpU已与密歇根大学罗斯商学院建立了合作伙伴关系,以建立为期20周的在线课程,该课程使用机器学习来识别高潜力员工。托德说,排名最高的人通常不是已经进入晋升轨道的人,而且经常表现出内向等品质,这些品质在招聘过程中被忽视。
“人类的决策非常糟糕,” 康奈尔大学信息科学系的助理教授索伦·博罗卡斯 (Solon Borocas) 说,他研究机器学习的公平性。但他警告说,我们也不应该高估技术的中立性。
Borocas的研究发现,招聘中的机器学习,就像在面部识别中的使用一样,可能会导致无意的歧视。算法可以带有编程算法的人的隐含偏见。或者,它们可能会偏向于某些素质和技能,而这些素质和技能在给定的数据集中绝大多数都表现出。“如果你用来训练系统的例子不能包括某些类型的人,那么你开发的模型可能真的很难评估这些人,” Borocas解释说。
并非所有的算法都是平等的-人工智能社区之间存在分歧,关于哪些算法有可能使招聘过程更加公平。
一种类型的机器学习依靠程序员来决定在查看候选人时应优先考虑哪些质量。这些 “有监督的” 算法可以被引导来扫描那些进入常春藤盟校或表现出某些特质 (如外向) 的人。
“无监督” 算法自行确定哪些数据的优先级。机器根据现有员工的素质和技能做出自己的推断,以确定未来员工需要的那些。如果该样本仅包括一群同质的人,它将不会学习如何雇用不同类型的个人-即使他们可能在工作中做得很好。
公司可以采取措施来减轻这些形式的程序化偏差。AI招聘初创公司pymetrics让程序员审核其算法,以查看其是否偏爱任何性别或种族。例如,高度考虑与种族密切相关的邮政编码的软件可能会对黑人候选人产生偏见。审计可以抓住这些偏见,并允许程序员纠正它们。
斯特拉还让人类监控人工智能的质量。创始人乔夫说: “虽然没有任何算法能够保证万无一失,但我相信它比人类好得多。”
Boracas同意在AI的帮助下进行招聘比现状要好。然而,最负责任的公司承认,他们不能完全消除偏见并正面解决它。“我们不应该把它当成灵丹妙药,” 他警告说。
相关推荐
猜你喜欢