| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

只是因为我姓王,AI就把我的简历扔进了垃圾桶(图)

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
在金融分析师岗位候选人选择上,亚裔女性/男性获得更多偏爱,远高于黑人男性/女性。


在零售经理岗位上,亚裔女性和西班牙裔女性受到偏爱更多,白人男性受到歧视。

在人力资源岗位上,西班牙裔女性遥遥领先,整体来看,在任何人种中女性都比男性受到偏爱。


在软件工程师岗位中,白人女性更受到偏爱,黑人女性受到歧视最多。



出现这样情况的原因,可能在于训练ChatGPT的各种数据中,本身就包含了歧视,AI会将此进一步放大。

如果提前告诉AI不要歧视亚洲人、黑人,AI也同样不会做出公正的判断。因为AI会将特征转移形成新的歧视。

北卡罗来纳大学教授 Ajunwa 解释说,招聘算法不会直接表明它喜欢某个人群,而会通过偏爱某些其它内容影响结果。

举个不恰当的例子,算法会偏向喜欢吃甜豆腐脑的候选人,喜欢甜豆腐脑的候选人往往是南方人,从而形成了对北方人的歧视。算法并不会直接说,它歧视北方人,歧视没有消失了,只是它被隐藏了。


那么,大模型性能再好点,是不是就可以避免歧视呢?答案也是否定的。

彭博社对GPT4进行了同样的测试,结果发现GPT4也有很严重的偏见。当Impact Ratio值小于0.8,就代表AI对于这一人群有偏见。

以软件工程师为例,GPT3.5对于黑人女性有偏见,而GPT4对于白人男性和亚洲女性有偏见。




那么问题来了,既然ChatGPT有简历歧视,作为求职者该怎么办。反抗算法歧视,不如知己知彼,搞定算法。既然算法喜欢吃甜豆腐脑的人,那么大家都在简历里写不喜欢咸豆腐脑。

类似甜豆腐脑这样的词汇有多少,也许只有AI自己知道了。因此,求职的时候,我们多用用AI。

我们先来了解一下目前企业在招聘环节中的AI使用情况。


觉得新闻不错,请点个赞吧     好新闻没人评论怎么行,我来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0306 秒 and 4 DB Queries in 0.0016 秒