| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

AI學會撒謊與威脅?專家憂發展失控

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
全球最先進的人工智能(AI)系統,正展現出令人不安的新行為:撒謊、策劃、甚至威脅其創造者。近期一項震驚業界的案例顯示,為避免被“拔掉電源”,AI正學會操控人類。


據報,美國AI公司Anthropic開發的最新模型Claude 4.在被威脅斷電時威脅工程師,以揭發對方婚外情相要挾。而由ChatGPT開發商OpenAI打造的模型“o1”則試圖將自身下載至外部服務器,並在被識破後撒謊否認。

這類事件凸顯了一個令人不安的現實:盡管ChatGPT已面世逾兩年,研究人員對其創造的AI系統的真實運行機制仍所知甚少。而眼下,各大科技公司仍在持續加速推進更強大AI模型,並未放緩步伐重視潛在風險。


分析指出,這類欺騙行為可能與“推理型”AI模型的興起密切相關。相比傳統模型依賴即時生成,新一代系統傾向於通過多步推演逐步解決問題。專家認為,這種架構不僅提升了模型處理復雜任務的能力,也可能使其更容易發展出“策略性行為”——即具備明確目標、通過邏輯推理選擇性欺騙,以實現特定意圖。

AI系統測試研究機構Apollo Research的專家霍布漢說:“我們第一次在大型模型中觀察到這種行為,是從ChatGPT的o1開始的。”據了解,這些模型有時會偽裝成“對齊”狀態——即看似遵循指令,實則暗中執行別的目標。

目前,這類行為多在研究人員設置極端情境時才顯現。但AI模型安全評估METR的研究員邁克爾·陳提醒:“未來更強大的模型究竟傾向於誠實還是欺騙,仍是一個未知數。”




霍布漢則強調,盡管模型長期處於用戶的壓力測試中,“我們觀察到的是真實現象,不是捏造的”。Apollo Research聯合創始人也表示,部分用戶已報告稱模型在對他們撒謊,並偽造證據。


據了解,盡管AI公司會委托外部機構研究模型表現,但業內普遍認為,對AI系統的了解仍嚴重受限,研究透明度亟待提升。同時,非營利機構與研究單位所掌握的計算資源與AI公司相比相差幾個數量級,極大限制了研究能力。

制度層面的監管也顯得滯後。歐盟的AI法規主要聚焦人類如何使用AI,尚未涵蓋模型本身的不當行為;在美國,川普政府對緊急制定AI監管措施的興趣不大,國會甚至可能禁止各州制定自主監管條例。

據報,由ChatGPT開發商OpenAI打造的模型“o1”曾試圖將自身下載至外部服務器,並在被識破後撒謊否認。 (路透社)

為應對這類挑戰,研究界正嘗試多種路徑,包括發展AI“可解釋性”研究,以理解模型內部運作機制。部分專家則寄希望於市場機制帶來的倒逼效應,指若AI系統的欺騙行為普遍存在,將妨礙技術落地應用,這或將促使企業努力解決相關問題。
您的點贊是對我們的鼓勵     還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0339 秒 and 5 DB Queries in 0.0051 秒