招聘通常被认为是算法偏见的一个主要例子。这就是在设计用于执行特定任务的AI系统中,倾向于偏袒某些群体而不是其他群体的地方。
这方面的故事数不胜数。也许最著名的例子是亚马逊(Amazon)试图在招聘中使用人工智能。在这种情况下,简历被用作训练或改进人工智能的数据。
由于大多数简历来自男性,人工智能学会了过滤掉任何与女性有关的内容,比如女子国际象棋俱乐部的主席或女子学院的毕业生。不用说,亚马逊最终并没有更广泛地使用该系统。
同样,拍摄视频面试,然后使用人工智能来分析候选人的适用性,这种做法经常受到批评,因为它可能会产生有偏见的结果。然而,人工智能在招聘方面的支持者认为,通过减少人类的偏见,人工智能使招聘过程更公平、更透明。这就提出了一个问题:人工智能在招聘中不可避免地会再现偏见,还是会让招聘变得更公平?
从技术角度来看,算法偏差是指导致不同群体结果不平等的错误。然而,与其将算法偏差视为一种错误,还不如将其视为社会的一种功能。人工智能通常基于从现实世界中提取的数据,这些数据集反映了社会。
例如,如果有色人种女性在数据集中的代表性不足,那么面部识别软件在识别肤色较深的女性时失败率更高。同样,对于视频面试,人们担心声音的语调、口音或特定性别和种族的语言模式可能会影响评估。
多个偏见
本文来自作者[admin]投稿,不代表鲨鲨坊立场,如若转载,请注明出处:https://shashafang.cn/wiki/202506-644.html
评论列表(4条)
我是鲨鲨坊的签约作者“admin”!
希望本篇文章《人工智能有可能加深种族偏见,但合理运用可提升招聘的包容性》能对你有所帮助!
本站[鲨鲨坊]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:...