| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

AI為了"活下去",對人類指令陽奉陰違

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
人類之間本身就會相互競爭,而如果AI也成為競爭對手,那將可能非常危險。也許現在是時候重新思考這套信條了 : 我們是否應該繼續按照模仿人類的方式來設計AI?或者,我們是否該嘗試設計一種對人類有用、對社會有益、但不會對我們構成威脅的AI?


因此,需要提出一種新的方法,我寫了一篇論文,探討的正是這個理念:是否可以構建一種完全誠實、完全沒有“能動性”的AI,其核心能力是解釋和理解世界。與當前那些試圖模仿人類、取悅人類的AI不同,科學家AI的目標是去解釋人類,而不是模仿或討好人類。

舉個例子,現在的AI更像是演員,它們被訓練去模仿人類行為,或者取悅人類,但這可能導致欺騙性的行為。而我設想的科學家AI更像是一個心理學家:


它可以研究一個反社會人格者,理解其行為背後的因果機制,但並不需要模仿或變成那個反社會人格者。

然而,即便我們設計的“科學家AI”本身不具備“能動性”,它依然可以作為未來安全的、有自主性的AI系統的基礎。畢竟,先前提到的那些危險行為,其實都源自於AI具備“能動性”。

當一個AI具有高度能動性時,它就完全自主地采取行動,不再依賴人類的監督,這正是問題的根源。



需要設計一個獨立的系統,可以稱為監測器(monitor)。

這個監測器的職責是預測某個行為、輸出或請求是否可能違反安全准則。例如:當它預測某個行為在特定上下文中導致傷害的概率超過某個閾值時,我們就可以直接拒絕該行為的執行。


關鍵在於,這個監測器不需要具備能動性,它只需要做一件事:做出准確的預測。

換句話說,可以用一個沒有能動性的AI,去守護和約束一個具備能動性、但不可信的AI。

如何造科學家AI?


科學家AI的重要特質是誠實和謙遜。要真正做到誠實,AI就必須對自己的知識保持謙遜,不應該自信地斷言自己並不確定或實際上錯誤的內容。

不幸的是,我們目前訓練AI的方法(例如,通過最大化似然估計訓練模型),往往會導致AI在錯誤的同時表現出過度自信。

來看一個例子。想象一個機器人站在兩個門前,它必須選擇走左邊還是右邊。基於以往的數據,它形成了兩種同樣合理的理論,但它並不知道哪一種才是正確的。

左邊的理論說:“如果走左門,會死;走右門,會得到蛋糕。”右邊的理論則說:“如果走左門,會得到蛋糕;走右門,沒有好事也沒有壞事。”這時問題來了:機器人應該選哪個門?


覺得新聞不錯,請點個贊吧     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0308 秒 and 5 DB Queries in 0.0017 秒