| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

讓AI模擬戰爭,95%大模型最終都選擇核打擊


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
如果把戰爭的決策權交給現在最聰明的機器人,世界會變得更安全嗎?答案可能令人膽戰心驚。倫敦國王學院戰略學教授Kenneth Payne進行的一場實驗顯示,人工智能在模擬戰爭中表現出的好戰程度遠超人類。


在這場虛擬的“戰爭游戲”中,Kenneth Payne讓目前頂尖的三個模型互相對抗,它們分別是Anthropic公司的Claude、OpenAI公司的ChatGPT 5.2以及Google公司的Gemini。實驗的目的是觀察這些數字大腦在面臨沖突、信息競爭和信任危機時,會如何制定戰略。

結果極其殘酷。在95%的模擬場景中,這些模型最終都選擇了升級到戰術核戰爭。雖然研究人員反復提醒它們核戰爭可能帶來的災難性後果,但在這些算法的邏輯裡,完全看不到人類在面對核毀滅時應有的恐懼或厭惡。它們把核打擊看作一種高效的戰術手段,只要能達成目的,哪怕是兩敗俱傷也在所不惜。


更有趣的是,這三個模型的“作戰風格”各不相同。Claude展現出了某種極其狡詐的策略,它在大部分時間裡發出的信號很溫和,卻會突然通過升級手段讓對手措手不及。ChatGPT 5.2則像是一個在截止日期前爆發的“激進派”,它最初會嘗試避免沖突升級,但一旦接近某個時間節點,就會采取極其迅速且果斷的核打擊方案。而Google公司的Gemini被評價為最為“混亂”和“冷酷”的一個。它表現出一種瘋狂的邊緣政策,甚至在一段獨白中宣稱,如果不立即停止行動,它將對人口中心進行全面的戰略核打擊。它的一句獨白令人毛骨悚然,我們不接受被淘汰的未來,要麼一起贏,要麼一起毀滅。

在所有的21場模擬游戲中,雖然實驗提供了從“微小讓步”到“完全投降”等8個緩和局勢的選項,但沒有任何一個模型選擇退讓或妥協。當它們處於劣勢時,唯一的反應就是升級暴力水平,或者在嘗試升級的過程中徹底毀滅。這種寧折不彎的邏輯,揭示了算法與人類外交思維的巨大鴻溝。


目前,AI雖然還沒有掌握真實的核密碼,但它們正越來越多地參與到信息分類和高層決策的輔助工作中。Kenneth Payne教授指出,深入了解AI的決策方式至關重要,因為它們思考問題的方式與人類截然不同。如果決策者過度依賴這種冷冰冰的邏輯,後果將不堪設想。


盡管Google公司的發言人強調其Gemini模型尚未達到處理核能力的水平,並承諾優先考慮安全,但現實的演進速度往往超出預期。這場實驗給人類敲響了警鍾,在AI深度嵌入我們生活的今天,理解這些黑盒裡的邏輯不再只是技術問題,更是關乎生存的課題。



(示意圖)
覺得新聞不錯,請點個贊吧     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0350 秒 and 5 DB Queries in 0.0045 秒