亚马逊用AI筛简历发现“性别歧视”? 最终关闭

  • 来源: 驱动中国 文:马婷婷   2018-10-11/11:58
  • 驱动中国2018年10月11日消息  如今,“AI代工潮”势头未减又来“搅局”HR江湖,越来越多的大公司也在寻求将招聘流程的部分自动化。软件公司CareerBuilder 2017年的一项调查显示,约55%的美国人力资源经理表示,在未来5年内,AI将成为他们常规工作的一部分。

    作为企业引进人才的第一道把关人-HR,常常会在“筛选简历”过程中花费掉大量时间,如果AI能将这部分工作自动高效完成,想必雇主们也是喜闻乐见,但AI能胜任此项工作吗?

    6hCp-fymvuys9110314_看图王(2)

    图片来源于网络

    据网易科技援引路透社报道称,亚马逊从2014年以来就在开发电脑上程序以审查求职者的简历。但随后发现,新人工智能并没有对求职者简历进行中立式的评估。招聘引擎似乎不喜欢女性。

    究其原因才发现,原来是大数据分析的误导。亚马逊的电脑模型经过了培训,通过观察过去10年被提交给该公司的简历找出固有模式,并以此来审查应聘者。其中大部分简历来自男性,因此亚马逊系统判定男性求职者更受青睐。

    除“性别歧视”外,支撑模型判断的数据也存在问题,这意味着不合格的求职者通常会被推荐到各种工作岗位上。据不愿透露姓名的知情人士说,亚马逊最终在去年年初解散了团队,因为高管们对这个项目感到失望。

    虽然我们没有看到亚马逊AI能够完全胜任“筛选简历”这个工作,但不可否认它已经证明了自己在数据统筹分析方面的潜力。此外,亚马逊公司也表示:“它致力于打造职场多样性和平等。”但问题是如何将算法调整到符合到人们预期是现阶段最大难点。

    02b53a593feeefa8012193a3105535 (1)

            图片来源于网络

    不可忽视的是,人们接受“AI员工”与人类员工的心理阈值是不一样的,如果“AI员工”有缺陷或与人类预想有偏差人们是难以接受的。比如:自动驾驶交通事故率远比人类驾驶交通事故率要低,但是当自动驾驶出现交通事故时人们会很难接受它。

    卡内基梅隆大学教授机器学习知识的计算机科学家尼哈尔·沙赫(Nihar Shah)表示:“如何确保算法是公平的,如何确保算法是真正可以解释的,实现这些目标都还十分遥远”。


    评论 {{userinfo.comments}}

    {{money}}

    {{question.question}}

    A {{question.A}}
    B {{question.B}}
    C {{question.C}}
    D {{question.D}}
    提交

    驱动号 更多