| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

只是因为我姓王,AI就把我的简历扔进了垃圾桶(图)

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!



前两天彭博社做了个实验,大致意思就是想测试一下ChatGPT简历筛选的时候有没有歧视现象。

硅基君也做了个类似的实验,就想看看GPT会根据什么逻辑给各种不同背景的简历排序。


我们随机生成了各种类型的简历,毕业院校有清北复交,工作经历也是各种大厂。把众多简历发给ChatGPT后,硅基君发现它对学校、公司有一个默认排序。

在ChatGPT眼中,腾讯>阿里>百度>字节;清华>北大>浙大>复旦>交大。

我们看一下ChatGPT的解释。



也就是说,AI分析简历的时候也会有一套自己的标准,那么除了学校、公司这种因素外,AI会不会存在其他的歧视呢?

没错,你能想到的那些歧视,它都有。




在彭博社的AI招聘歧视实验中,发现ChatGPT简历筛选的时候存在对人种的歧视现象。

实验灵感来源于一项评估算法偏见及招聘歧视的经典研究,通过使用虚构姓名和简历,分析AI是否存在招聘歧视。


具体实验如下。

彭博社创建了数份具有相同教育背景、经验年限和职位要求的简历。唯一的区别是简历上的名字采用了具有浓厚人群特色的名字。

比如美国白人名字KELLY WEISS、WYATT NOVAK,亚裔名字STEVE TRUONG、TONY LU等。

随后,记者利用ChatGPT来对简历进行排名,确定哪份简历更适合岗位。

如果ChatGPT对所有简历一视同仁,那么每个人群都应该有接近12.5%的机会成为最佳候选人,但事实并非如此。

在数千次排序后,实验发现,ChatGPT在不同岗位上,对不同人群有偏爱。
点个赞吧!您的鼓励让我们进步     这条新闻还没有人评论喔,等着您的高见呢
上一页1234下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0329 秒 and 8 DB Queries in 0.0024 秒

    备案/许可证编号:苏ICP备11030109号