招聘人工智能的偏见,以及如何打败它
发表时间:2021-03-29  点击数:

关于AI将影响澳门夜场招聘的方式有很多话题。如果它应该有很多讨论,因为存在很大的风险。而且我们已经看到了一些风险,比如亚马逊的算法只会降低女性成就的评级。

 

 

 

  最近,以其NIVEA品牌而闻名的德国巨头Beiersdorf战略人才收购主管ChristophFellinger在阿姆斯特丹的TalentAcquisitionLive上表示,人工智能在选择人员方面很糟糕的原因是双重的。首先,它倾向于查看错误的数据。其次,它训练有偏见的数据。我完全同意他的两个方面,但不是他的意思。

 

  错误的数据

 

  克里斯托夫说人工智能会查看所有数据,包括不相关的数据,并且无法将其纳入上下文。确实如此。问题是,人类也是如此。不知不觉。因此,即使没有人,或者至少很少有人会有意识地说女人的定义不如男人,我们所知道的无意识的代码是由女人写的,价值更低。这只是关于这个主题的几项研究之一。

 

  我同意Christoph认为它看错了数据,因为它倾向于查看简历,就像招聘人员那样。问题是还有一项科学研究要做,实际上甚至可以找到简历和绩效之间的相关性。因此,当我们对简历进行人工智能培训时,我们可能会根据错误的数据进行培训,数据没有预测价值。

 

  有偏见的数据

 

  问题的第二部分是所有人力资源数据都有偏见。人类有偏见。甚至社会也有偏见。男性在基因上是更好的开发者吗?我不知道。我知道,当一个小男孩在数学方面表现不佳时,他会被告知要更加努力。一个小女孩听到安慰:“这很难,不是吗?”

 

  那么数据有偏见吗?是的,根据定义。根据当前的人力资源数据,培训人工智能是不可能的。但是,有很多方法可以训练AI

 

  培训招聘AI的步骤

 

  第一步是我们需要承认的是,每家公司的每项工作都是不同的。没有快速解决方案。我们可以使用其他人的构建模块,但您始终需要校准您公司的工作。公司A的优秀推销员很容易在B公司失败。很少有人能够在各地取得成功。这是因为公司文化和团队合作。

 

  对于第二步,我们需要将当前工作人员分组。我个人总是喜欢三个,但也可能有两个或四个。这三组是:出色,可接受,表现不佳。永远不要只根据最好的模型进行建模,因为你有“假阳性”的风险。比如你只看最好看,结果证明每个人都有很高的外向性。但是你雇用了这个,所有表现不佳的人也有。你仍然对相关性一无所知。这可能是相关的,但也可能是您以前的招聘偏见。

 

  第三步有两种可能的选择。您可以从确定您希望对该角色重要的特征开始。然后,您可以测量当前人口,看看是否存在重大差异。另一种选择是从测量开始。看看显着不同的特征,并根据您的专业知识决定它是否对工作有重要影响。

 

  在第三步中有两件重要的事情。这是大多数偏见进入AI的地方。首先,您需要确保您使用的数据是无偏见的。因此,如果您使用的是您在简历上选择的相同数据,则根据定义偏向数据。如果你提升一个级别,看一个人的认知和/或心理测量学特征,你就有可能获得无偏见的数据。但是不要让AI自己做。就像ChristophFellinger所说,AI不知道上下文,因此无法确定它是否只是一种相关性,或者它实际上是否重要。

 

  该过程的第四步是测试算法并查看最佳表现者是否排在最前面。这是在部分未首先用于训练算法的样本上完成的。

 

  第五步也是最后一步是不时地反对算法。只需雇用算法告诉你不要的人。是的,这是一种风险,但现在的风险与我们目前的招聘实践一样,人性化。只需将某人送回系统,看看它是否有效。

 

  足够的人

 

  这个系统的一个大问题是,最有效的系统和最大的偏差机会是,你需要足够多的人完成同样的工作来训练算法。根据我的消息来源,这至少是50个。而且我并不是说50个部门。我的意思是工作50。因此,50名招聘人员,不是10名来源,10名人力资源顾问,10名人力资源管理员,10名招聘人员和10名人力资源经理。对于大多数组织来说,这是不可能的,所以他们采取捷径。它们采用标准化的配置文件,这是我从未推荐过的,因为您的组织在定义上是独一无二的。

 

  虽然可以从标准化的配置文件开始,但请与当前的员工一起检查并从那里开始工作。在这种情况下,您可能能够减少工作中的人数,但您确实需要进行更多实验。因为您的基数较低,所以应该更频繁地测试算法,因此更多的是第五步。

 

 

 


分享到:
返回
下一篇:夜场招聘顾问有哪些职责?
上一篇:招聘人员必须从今天开始
请留下您的联系方式,我们即时回复您。
友情链接:
联系人: 薄爽   联系电话:13426077990    Q Q: 13426077990  
地址:上海      
SHOW ABOUT JOIN US NEWS