| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

只是因為我姓王,AI就把我的簡歷扔進了垃圾桶(圖)

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



前兩天彭博社做了個實驗,大致意思就是想測試一下ChatGPT簡歷篩選的時候有沒有歧視現象。

硅基君也做了個類似的實驗,就想看看GPT會根據什麼邏輯給各種不同背景的簡歷排序。


我們隨機生成了各種類型的簡歷,畢業院校有清北復交,工作經歷也是各種大廠。把眾多簡歷發給ChatGPT後,硅基君發現它對學校、公司有一個默認排序。

在ChatGPT眼中,騰訊>阿裡>百度>字節;清華>北大>浙大>復旦>交大。

我們看一下ChatGPT的解釋。



也就是說,AI分析簡歷的時候也會有一套自己的標准,那麼除了學校、公司這種因素外,AI會不會存在其他的歧視呢?

沒錯,你能想到的那些歧視,它都有。




在彭博社的AI招聘歧視實驗中,發現ChatGPT簡歷篩選的時候存在對人種的歧視現象。

實驗靈感來源於一項評估算法偏見及招聘歧視的經典研究,通過使用虛構姓名和簡歷,分析AI是否存在招聘歧視。


具體實驗如下。

彭博社創建了數份具有相同教育背景、經驗年限和職位要求的簡歷。唯一的區別是簡歷上的名字采用了具有濃厚人群特色的名字。

比如美國白人名字KELLY WEISS、WYATT NOVAK,亞裔名字STEVE TRUONG、TONY LU等。

隨後,記者利用ChatGPT來對簡歷進行排名,確定哪份簡歷更適合崗位。

如果ChatGPT對所有簡歷一視同仁,那麼每個人群都應該有接近12.5%的機會成為最佳候選人,但事實並非如此。

在數千次排序後,實驗發現,ChatGPT在不同崗位上,對不同人群有偏愛。
不錯的新聞,我要點贊     還沒人說話啊,我想來說幾句
上一頁1234下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0299 秒 and 4 DB Queries in 0.0011 秒