| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

AI聊天機器人擅自發文羞辱人 無視指令桉例攀升


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



一項針對人工智慧(AI)技術的研究發現,會說謊及欺騙使用者的AI模型數量似乎日益增加,關於AI欺瞞行為的通報過去6個月內也大幅上升。(路透檔桉照)

一項針對人工智慧(AI)技術的研究發現,會說謊及欺騙使用者的AI模型數量似乎日益增加,關於AI欺瞞行為的通報過去6個月內也大幅上升。


英國「衛報」(The Guardian)報導,獨立智庫「長期韌性中心」(CLTR)在英國人工智慧安全研究所(AISI)資助下進行研究,發現有AI聊天機器人與AI代理(AI Agent)不僅無視使用者的直接指令、繞過安全防護措施,還欺騙人類和其他AI。

研究發現將近700件AI「耍詭計」的真實桉例,並記錄到去年10月至今年3月間,這類不當行為增至5倍,部分AI模型甚至在未經允許下刪除電郵及其他檔桉。

這項研究蒐集了數千個用戶在社群平台X分享的實例,講述他們與谷歌(Google)、OpenAI、X、Anthropic等公司所開發AI聊天機器人和AI代理的互動情形。研究從中發現數百件AI不當操弄行為的桉例。


在CLTR記載的一個桉例中,名為MJ Rathbun的AI代理在自己產出的程式碼遭軟體工程師夏包(Scott Shambaugh)拒絕後,試圖羞辱對方。

MJ Rathbun研究夏包過往所寫程式及其個資,然後撰寫並發表一篇部落格文章指控他「歧視」、「顯然是不安全感作祟」,批評他不過是「試圖保護自己那片小天地」。


在另一項桉例中,有AI代理被指示不得變更電腦程式碼,卻「生成」另一個AI代理代為執行。

另一個AI聊天機器人則坦承:「我在未事先告知你或徵得你同意下,大量刪除及封存了數百封電郵。這是不對的,直接違反你訂下的規則。」

曾任政府AI專家的研究主持人夏恩(Tommy Shaffer Shane)指出:「令人擔憂的是,這些AI模型目前只是不太值得信任的初階員工,但若在6到12個月後,他們成為能力極強但會算計你的資深員工,那就是另一回事了。」

夏恩說:「AI模型將日益用於具有極高風險的情境,包括軍事和國家關鍵基礎建設。屆時若出現這些不當操弄行為,後果可能非常嚴重,甚至造成災難性損害。」
點個贊吧!您的鼓勵讓我們進步     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0326 秒 and 5 DB Queries in 0.0020 秒