今年的公务员考试热潮刚刚冷却,但了解的人也知道,此类公务员的笔试、面试的报班培训的成本只高不低。如果AI成了面试官,求职者们“上有政策,下有对策”,会去寻求更佳的面试培训,而有市场就有需求,以大数据为优势的AI面试恐怕也会被AI培训所攻破。
智能HR的客观评分机制反而成了清晰可见的“套路”,然后被智能培训老师“反套路”,两者”斗智斗勇“,倒显得掺杂在中间的求职者像一枚棋子,毫无自主意识,如此选拔出来的人会是真正的人才吗?
而人类HR的优点正是在于其自主性,相信上过培训课的同学们都知道,培训老师都会强调面试时不要准备模板,因为模板会造成同质化,面试官因为长期积累的经验通常能敏锐地察觉到模板的痕迹,从而影响面试者的成绩。
2.“算法弥补偏见”不可信
Fetcher曾表示,产品的筛选机制将消除任何潜在的人类偏见,使其完成符合平等就业机会委员会的规定,年龄、性别、种族、宗教、残疾等都不会成为算法的参考标准。也就是说,算法可以弥补招聘中的偏见。
这类论调不禁让人想起了张一鸣的”算法没有价值观“。前几日,一名被银行拟录取的面试者,却在准备入职时被智能检测平台Say No,究竟是可能出错的“人工智能”掌握了否决权,还是丁是丁卯是卯的“人工智能”为某些人为标签背了黑锅?
现实生活中,招聘求职者可能会存在很多文本之外的“潜规则“,比如招聘信息上的“某某条件优先”或许只是某些企业灵活运用的话术而已。算法本身是客观的,但因为其需要人工标签,掌握这个算法的人群才是招聘中的关键。盖上“算法”的面纱,那些成见反而更加若隐若现。
3.逃不过的数据难关
数据一直是AI的大难题。但在面对AI招聘时,数据的模型化显得十分困难,即使打造出模型,普适性也难以预见。
目前的AI匹配技术仅仅能在少数一些职位上达成足够高的可用性,比如说卡车司机,因为卡车司机在美国是一个庞大群体,且其能力和要求较容易被模型化。
当一家公司运用这个系统来面试求职者时,无限的机器学习过程或许可以筛选出一个优秀的销售人才,但这种筛选算法也无法在不经过新的训练过程的情况下,简单地推广到其他职位,比如人力,市场等岗位。而这仅仅是一家公司里存在不同岗位所要面对的问题。
如果不同的公司来使用这套系统,AI的数据需要更加垂直化。但问题是,某个领域的某家公司真的有这么多的人才数据可以提供给机器来学习吗?
AI+确实能成为一个工种的助力,但并不能解决一切问题。各家企业应该明白,围绕人才招聘,企业想要得到真正的人才,绝不能仅仅依靠人工智能这一技术领域的创新。真正的突破点在于,企业将自身建设的越强,对优质人才的吸引力才会越强。
[完]
智能相对论:深挖人工智能这口井,评出咸淡,讲出黑白,道出vb深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。