| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

谷歌: AGI將至?谷歌DeepMind寫了份"人類自保指南"

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
對於所謂的通用人工智能 AGI,人們通常抱著“怕它不來,又怕它亂來”的矛盾心理。而這個困惑,對於正在 AI 軍備競賽中的硅谷巨頭來說,就不僅僅是一個“梗”能概括的了。


4 月初,谷歌 DeepMind 發布了一份長達 145 頁的報告文件,系統闡述了其對 AGI 安全的態度,DeepMind 聯合創始人 Shane Legg 署名也在其中。

文件中最醒目的預測,是 AGI 的可能出現時間:


2030 年。

當然,Google 也補充說,這具有不確定性。他們定義的 AGI 是“卓越級 AGI(Exceptional AGI)”——即系統在非物理任務上達到或超越 99% 人類成年人的能力,包括學習新技能等元認知任務。

DeepMind 認為這個時間線可能非常短,發布報告的目的是說清一個問題:如果 AI 有問題,最壞的情況會是什麼?我們現在能如何准備?

01 DeepMind 的 AI 安全保險

這份報告中反復出現的一個詞是“嚴重傷害(severe harm)”,並列舉了 AI 可能帶來的各種災難場景。

比如,操縱政治輿論與社會秩序。AI 可用於大規模生成極具說服力的虛假信息(如支持某一政黨或反對公共議題);可在不疲勞的前提下,與數十萬人開展個性化誘導對話,實現“超級社工詐騙”。

實現自動化網絡攻擊。AI 可識別軟件漏洞、自動組合攻擊代碼,顯著提升發現和利用“零日漏洞”能力;可降低攻擊門檻,使普通人也能發起國家級網絡攻擊;DeepMind 提到,已有國家級黑客組織利用 AI 輔助攻擊基礎設施。


生物安全失控。AI 能幫助篩選、合成更危險的生物因子(如更強毒性的病毒);甚至能一步步教導非專業者制造並傳播生物武器。



結構性災難。長期使用 AI 決策可能導致人類逐漸失去關鍵政治/道德判斷能力;過度依賴 AI 導致價值觀單一鎖定、隱性集中控制;人類無法判斷 AI 輸出是否可靠,陷入“AI 輸出訓練 AI 輸出”的閉環。

自動武器部署與軍事對抗。AI 被用於自動化軍事系統,可能在無監督下執行毀滅性行動;報告強調極端情境下應禁止 AI 系統接觸核攻擊系統。


DeepMind 將各種風險分為四大類:

惡意使用(misuse)、

模型不對齊(misalignment)

AI 無意中造成傷害(mistakes)

系統性失控(structural risk)


您的點贊是對我們的鼓勵     無評論不新聞,發表一下您的意見吧
上一頁123下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0349 秒 and 3 DB Queries in 0.0017 秒