[微軟] 微軟CEO:AGI並非真正基准,AI行業也不會"贏家通吃"
包括那個幫助我做理療的人,或者其他我們看重的東西,但歸根結底,如果我們的勞動沒有回報,工作沒有意義,工作沒有尊嚴,那也是這些東西能否部署的一個制約因素。
讓 AGI 真正安全
Dwarkesh Patel:關於對齊問題,兩年前,你們發布了 Sydney Bing。為了明確一點,就當時的能力水平而言,這只是一個迷人、令人愉快、也有些幽默的誤對齊的例子。
在當時,它就像聊天機器人一樣。它們可以思考 30 秒,給你一些有趣或不恰當的回復。但是,如果你考慮到這種系統--我想,對於《紐約時報》的記者來說,這種系統曾試圖讓他離開他的妻子或其他什麼--如果你考慮到這種系統的未來,而你擁有的這些智能體在未來的幾個小時、幾個星期、幾個月裡,就像自主的 AGI 群一樣,他們可能會以類似的方式錯位,把事情搞砸,也許還會相互協調,你們將如何應對,確保當你們擁有那個“大型 AGI”時,能夠做到正確的對齊?
Satya Nadella:沒錯。這也是我們通常在分配計算資源時的原因之一——我們要為對齊問題分配計算資源。
更重要的是,我們需要考慮真正能夠監控這些事情的運行時環境是什麼?它的可觀察性如何?我們今天在傳統的技術領域也面臨很多類似的問題,比如網絡安全。我們不只是編寫軟件,然後任其發展。有了軟件,還要對其進行監控。你要監控它是否遭受網絡攻擊、是否存在故障注入等等。
因此,我認為我們必須在這些部署方面建立足夠的軟件工程支持,然後在模型本身內部解決對齊問題。這些問題中,有些是科學問題,有些是工程問題,我們必須逐一攻克。
這也意味著我們需要承擔我們自己的責任。所以,我更傾向於將這些技術部署在那些可以實際管理其范圍和規模的地方。你不能就這樣把某個系統釋放到外部世界中,造成傷害,因為社會不允許這樣做。
Dwarkesh Patel:當你擁有能夠為你完成數周任務的智能體時,你希望在讓它運行一個隨機的財富 500 強公司之前,你想要的最基本的保障是什麼?
Satya Nadella:我認為,當我使用像 Deep Research 這樣的東西時,最低的保障要求是,在我們特別擁有任何東西的物理化身之前,這應該是一個門檻,當你越過這個門檻時,才會考慮進一步的部署。那可能是其中一個點。
另一個方面是,比如說,這些系統運行的環境的權限。
Dwarkesh Patel:我的意思是,我們已經有了網絡搜索,而且已經脫離沙箱了。
Satya Nadella:但即便是網絡搜索,它做的事情,以及它寫的內容——比如說,假如它只是為了進行某些計算而寫一堆代碼,那些代碼是在哪裡部署的?這些代碼是僅僅為了創建輸出而臨時生成的,還是會被放出去到世界上?
這些是你在行動空間中可以真正控制的東西。
Dwarkesh Patel:除了安全問題之外,當你考慮到自己的產品套件,並且思考如果你確實擁有如此強大的 AI 系統時,某個時刻,它不僅僅像是 Copilot——你提到的關於你如何為這次播客做准備的例子——更像是你實際將工作委派給同事的方式。
在你當前的產品套件基礎上,添加這些 AI 會是什麼樣子?我指的是,是否有一個問題是,大語言模型(LLM)會被其他事物商品化?
我在想,這些數據庫、畫布、Excel 表格等等——如果 LLM 是你訪問所有這些東西的主要入口點,是否有可能 LLM 會讓 Office 商品化?
Satya Nadella:這是一個有趣的問題。我認為,至少在第一階段,我的想法是:LLM 能否幫助我更高效地使用所有這些工具或畫布來完成知識工作?
我見過的一個最好的演示是,一位醫生准備參加腫瘤委員會會議的工作流程。她要參加腫瘤委員會會議,首先她使用 Copilot 來創建會議議程,因為 LLM 可以幫助她理清所有案例,這些案例在某個 SharePoint 網站上。它會說:“嘿,這些案例——顯然,腫瘤委員會會議是一個高度關鍵的會議,你需要考慮不同案例的差異,以便分配適當的時間。”
甚至僅僅是創建一個議程的推理任務,它知道如何分配時間,這非常好。所以,她用 LLM 來做這個。然後她進入會議,在和所有同事在 Teams 通話中,她能夠專注於實際案例,而不是做筆記,因為現在有這個 AI Copilot 在做完整的會議記錄。這不僅僅是轉錄,還包括了會議內容的數據庫條目,以供隨時回顧。


分享: |
注: | 在此頁中閱讀全文 |