-
日期: 2024-06-12 | 來源: 騰訊科技 | 有0人參與評論 | 字體: 小 中 大
騰訊科技訊 在近日在瑞士舉行的2024年的人工智能向善全球峰會(AI for Good Global Summit)上,OpenAI首席執行官山姆·奧特曼(Sam Altman)通過視頻連線,與《大西洋月刊》的CEO尼古拉斯·湯普森(Nicholas Thompson)展開了深入的交流。該峰會由聯合國國際電信聯盟發起。
這場對話不僅觸及了人工智能技術的前沿發展,更深入探討了人工智能對全球社會、經濟以及文化格局的深遠影響。
在全球化的浪潮中,人工智能作為一項革命性技術,其發展速度和影響力前所未有。奧特曼在對話中特別提到,中國將在這個領域扮演重要角色,孕育出具有本土特色的大語言模型。這一預見不僅彰顯了中國在全球人工智能領域中日益增長的影響力,也預示著未來技術發展的多元化趨勢。
奧特曼預計,在未來將有10到20個大語言模型在全球范圍內“存活”並發揮重要作用。這些模型將成為推動各行各業發展的關鍵力量,同時也將引發對技術倫理、數據安全和國際合作的全新思考。奧特曼的洞察提醒我們,面對人工智能技術的快速發展,我們需要建立一個更加包容和協作的全球治理體系,確保技術進步能夠惠及全人類,而不是成為新的分化力量。
OpenAI CEO Sam Altman最新聯合國大會發言
以下為此次對話的全文:
01 大語言模型的未來與技術倫理
主持人:非常榮幸你能夠參加今天的活動。在今天的訪談中,我期望探討多個領域,包括人工智能的現狀、未來趨勢、關鍵議題以及治理問題。讓我們先設定一個背景:我們正處在一個人工智能的有趣時期,人們普遍認識到其巨大潛力,盡管它尚未徹底改變世界或我們討論的各個領域。我的問題不是這一變革何時到來,而是想問當人工智能開始真正產生影響時,我們首先會看到哪些積極和消極的影響?
奧特曼:目前,人工智能在提升生產力方面已經產生了影響。軟件開發人員是最常見的例子,也是最能說明問題的例子。人們能夠以更快、更有效的方式完成工作,更多地專注於他們所喜歡的工作。隨著這些工具成為工作流程的一部分,人們很快就會發現,沒有它們,工作將難以想象。我預計這種模式將在更多領域出現,我們會看到各行各業因為能夠利用這些工具而變得更加高效,這將對編寫代碼、教育、學習、醫療保健等各個方面產生積極影響。效率的提升將是第一個明顯可感知的積極成果。
至於消極影響,隨著這些工具的出現,已經有一些負面效應。網絡安全是我特別想提醒大家注意的問題,我認為這可能是一個相當嚴重的問題,不過我不確定它是否會是第一個出現的問題。
主持人:確實,這是一個極具吸引力的話題。在深入探討這個問題的深層原因之前,我想先詢問一下你正在訓練的新模型。你剛剛宣布已開始開發下一代模型,無論是GPT-5還是其他名稱。現場觀眾的主要擔憂是,GPT-4和其他大語言模型在英語、西班牙語和法語上的表現要優於斯瓦希裡語(一種在非洲廣泛使用的語言)等語言。在訓練產品的下一個重大迭代時,你如何看待語言公平性的重要性?
奧特曼:我不確定這是否是一個准備好的問題,但我欣然接受。我們對幾周前發布的GPT-4o感到非常滿意,因為它在更多種類的語言上都表現出色,我們將繼續讓未來的版本更加優秀。我們公布的統計數據顯示,GPT-4o能夠很好地覆蓋97%人群的母語,這確實是一個巨大的進步。公眾對此表示高度認可,我們亦將持續致力於此領域的進一步改進與發展。
主持人:我們把話題轉向貴公司正在研發的下一代模型的後續進展。在它進行訓練的過程中,你認為我們將看到怎樣程度的提升?我們是否會經歷線性增長,還是會迎來指數增長的顯著飛躍,或者是否會有令人震驚的指數級提升?
奧特曼:這是一個極具洞察力的問題。我們並不認為我們正處於任何指數增長的臨界點。然而,這是一個在全球范圍內廣泛討論的話題。對我們而言,最好的策略是展示成果而非僅僅預言。眾多人士正在提出各種預測,而我們的策略是致力於進行盡可能深入的研究,並隨後決定如何負責任地發布我們所能創造的成果。我預期在某些領域將實現巨大的進步,在其他一些領域可能提升並不如預期顯著,這與我們之前每次模型更新時的情況相似。當我們從3.0版本升級到3.5版本,再到4.0版本時,關於是否真的會有顯著改進,將在哪些方面改進,都存在許多討論。答案似乎是,我們仍然有很大的發展空間,我預計我們會在一些人們未曾預料到的領域取得進展。
02 人工智能的可解釋性與安全性
主持人:現在網絡中充斥著大量由其他大語言模型生成的合成數據,而這將是OpenAI首次在很大程度上使用合成數據來訓練模型。你對使用這些由大語言模型創建的數據來訓練大語言模型,可能引發的系統出錯問題有多擔憂?
奧特曼:我認為關鍵在於獲取高質量的數據。無論是合成數據還是人類生成的數據,都存在質量良莠不齊的問題。只要我們能夠收集到足夠高質量的數據來訓練模型,或者能夠開發出提高數據效率的方法,從較少的數據量中學習更多,或者采用其他各種技術手段,我認為這個問題是可以解決的。我們有信心,我們擁有為開發下一代模型所需的一切資源。
主持人:OpenAI是否為了訓練模型而創建了大量的合成數據?OpenAI是否自行生成了用於訓練的數據?
奧特曼:我們自然已經進行了各種實驗,包括大量生成合成數據。我期望的是,如果訓練模型的最佳途徑僅僅是創造數以萬億計的合成數據Tokens並將其重新輸入系統,那顯得非常不合常理。你可能會認為,這種方法在某種程度上顯得效率不高,應該存在一種機制,讓模型在訓練過程中能夠更有效地從數據中學習。我認為我們還有許多問題需要解決,但當然,我們已經生成了大量合成數據,用以進行訓練方面的實驗。然而,我認為你提問的核心是如何實現用更少的數據獲得更多的學習成果。
主持人:這確實引人入勝,我之前並不知情。讓我們探討一個關鍵議題,我認為這將決定這些技術如何在世界范圍內應用。去年,我有幸與Stripe的創始人帕特裡克·科裡森(Patrick Collison)進行了一次精彩的對話。他當時提出了一個深刻的問題:在人工智能領域,如果有某些變化,是否會讓人類對人工智能可能給世界帶來的巨大負面影響的擔憂大為減少?
你曾經說,如果我們能夠深入理解背後真正發生的事情、能夠洞察單個神經元的活動,就像你希望人工智能模型能夠傳授某人化學知識,但不希望它教授如何制造化學武器一樣,你期望這種控制能力是內嵌在模型的核心,而不僅僅是界面層。這樣的理解是否正確?這個問題是否已經得到解決?
奧特曼:我認為,確保安全性需要一種全面的方法,而模型的可解釋性顯然是一個值得探究的領域,它可能在多個層面上發揮作用。盡管我們尚未解決可解釋性問題,但我對正在發生的許多事情感到非常興奮,盡管這還沒有達到我可以宣布“大家可以放心,我們已經完全理解了”的地步。在我看來,我們對這些模型內部運作的理解越深入,我們就越能做出更好的決策。我相信,這可以成為我們構建和驗證安全性聲明的綜合性方案的一部分。
主持人:如果你不完全理解正在發生的事情,這是否成為不繼續推出更新、更強大模型的理由?
奧特曼:盡管我們無法在單個神經元層面上完全理解大腦的運作,但我們確信它能夠遵循規則。除了在神經元層面的深入理解之外,還有許多其他方式可以幫助我們理解整個系統。這些系統的特質和行為已經被非常精確地界定。事實上,包括我自己在內的許多領域內的專家都對這一點感到驚訝:在新技術發展的歷程中,我們能夠如此迅速地讓這些系統被普遍認為既安全又穩定。
主持人:我的妻子坦言,她有時難以完全理解我內心深處的思考過程,看來我們在這方面有著共鳴。在探究這種無法深刻理解的問題上,我們取得了哪些進展,或者是否有什麼真正的突破?
奧特曼:最近,Anthropic的研究人員進行了一項實驗,使人工智能模型Claude相信自己就是金門大橋。這展示出一些引人入勝的特性,這是我想特別指出的一個近期發展。
主持人:現在,讓我談談今天早上我們在討論安全性時,人道科技中心聯合創始人兼執行主管特裡斯坦·哈裡斯(Tristan Harris)提出的一個建議。哈裡斯在這個舞台上表示,大語言模型公司每投入100萬美元用於增強模型的能力,也應同等投入100萬美元於安全性研究,一比一的比例,你怎麼看待這個建議?
奧特曼:我不確定這具體意味著什麼。我認為,人們往往傾向於把世界簡單地劃分為性能與安全兩個部分,並制定一些聽起來很有道理的政策。但如果你審視我們為確保像GPT-4這樣的模型安全所做的工作--該模型已經被數億人用於日益頻繁、重要且有價值的任務--你會發現,要界定許多工作的性質是非常困難的。因為如果你在生產中使用一個模型,你希望它能夠完成既定任務,同時不會產生任何負面影響。
作為用戶,你可能會感到困惑:究竟是我的需求得到了滿足,還是模型的能力或安全性得到了提升,才導致了這項工作的完成?或者,這是否是兩者的結合?例如,讓模型在既定的界限內,按照用戶的期望去運行。這是一個綜合性的問題。盡管我已經提到過一個不太恰當的例子,但我仍將堅持使用它作為說明:就像你登上飛機,期望它能安全地將您送達目的地,同時你也希望在整個飛行過程中不會出現任何故障。在飛機設計中,有些部分可以明確區分為能力提升或安全措施,但總體而言,我們是在努力設計一個綜合系統,旨在安全、迅速地將您帶到目的地,並確保飛行中不會出現任何部件脫落的問題。這種界限,實際上並沒有表面上看起來那麼清晰。
03 人工智能與社會結構的演變
主持人:理解了,看來在某種程度上,你們多年的引擎研發工作都圍繞著提升安全性展開。不過,讓我換個角度來探討這個問題。
奧特曼:我差點說出“安全是每個人的責任”,但那聽起來像是典型的企業口號,所以我沒有那樣說。
主持人:這個問題之所以引起我的深思,部分原因在於,眾所周知,OpanAI負責安全事務的聯合創始人、首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)在最近離職,而另一位在安全領域作出重大貢獻的成員楊·萊克(Jan Leike)也離開公司轉投Anthropic,並在社交媒體X上表達了對公司未把安全性作為優先考慮的擔憂。這無疑讓在場的每個人感到憂慮,畢竟我們都在搭乘你們的“飛機”。山姆,我們需要你讓我們相信,在這些關鍵人才離開之後,“飛機的機翼”依然穩固。
奧特曼:我認為,評價我們應基於我們的行動--我們發布的模型、所開展的工作、進行的科學研究。正如我之前所強調,如果回望GPT-3時代,人們對我們能否開發出既安全又可靠的系統持懷疑態度,然而幾年後,我們所推出的產品已經達到了一個新的標准,這是眾多團隊共同努力的結果。我們進行了對齊研究、建立了安全系統、實施了監控措施。最近我們還采取了一系列有影響力的行動,我們能夠做到這一點。雖然我們並不完美,但我們不斷從實踐中學習,能夠在當前水平上取得這樣的成就,這是我們深感自豪的。我還認為,把超級對齊團隊與進行這些研究的團隊更緊密地結合起來,正如我之前提到的,這將是一個積極的發展,有助於我們更有效地整合資源,推動研究向前發展。
主持人:我知道通用人工智能(AGI)一直是OpenAI的研究焦點,也是你經常討論的話題。如果我在OpenAI工作,我可能會敲你的門,要求簡短的會面。我會說,我明白為什麼通用人工智能一直是研究的核心,它是所有人工智能研究者夢寐以求的目標,它在科幻小說中占有一席之地--構建一個能夠像人類一樣思考的機器,這代表著我們在地球上創造出的最卓越的智能體。但我對此感到擔憂,因為許多人工智能的負面影響似乎源於其模仿人類的能力。你之前提到了網絡安全,我們看到的許多問題都是因為人們可以輕易地冒充他人。我認為OpenAI的一些決策似乎在使機器更接近人類。例如,機器的打字方式有時模仿人類,使用“第一人稱單數”,我們即將討論的聲音問題聽起來非常人性化。為什麼我們一直在讓機器更像人類,而不是在認識到這些風險後改變方向呢?
奧特曼:我認為,設計與人類兼容的系統至關重要,但假設它們在思考方式、能力或局限性上與人類相似則是錯誤的。盡管我們通過人類文本數據進行行為克隆,但它們已經能夠做到一些超乎人類的事情,而在某些方面又顯得非常非人類。我總是試圖將其視為一種外星智能,而不是將自己的擬人化偏見投射到它上面。我們之所以做出某些界面選擇,而放棄其他選擇,是因為我們相信要為一個與人類高度兼容的世界進行設計。
這些系統使用自然語言進行操作對我們來說非常重要,這似乎是正確的方向,並且從長遠來看,我們可以預見到許多積極的安全特性。讓人工智能盡可能地與人類相容,為人類設計,並以一種它們能夠與我們用語言溝通的方式工作,這是一個非常重要的目標。也許它們之間也會用語言進行交流。我還認為,世界應該更傾向於人形機器人而不是其他形狀或結構的機器人,以鼓勵世界保持最大程度的人類導向。因此,我認為易於人類使用,包括將語言作為主要的交互方式,但不要在這些方面之外賦予它們太多的人類特征。例如,我們沒有給我們的人工智能起一個人類的名字。我認為ChatGPT雖然名字聽起來有些笨拙,但它很好地解釋了自己的功能,並且由三個聽起來像機器人的字母組成,這非常清楚地表明它不是人類。
主持人:是否規定ChatGPT永遠不能使用第一人稱“我”?
奧特曼:這實際上關乎於系統的人機相容性。我們曾嘗試過這樣的設計,但結果往往讓用戶感到更加挫敗而非受益。在日常語言交流中,我們習慣使用某些習語。
主持人:在語音模型的使用上,比如在語音輸出前加入一個提示音,明確告知這不是人類發聲,我認為這是一個值得考慮的點。我們都知道,隨著美國大選的臨近,大家對深度偽造和錯誤信息的擔憂與日俱增。在這樣的背景下,我們如何驗證信息的真實性?在產品設計的核心層面,我們可以采取哪些措施來減少這類問題的發生?
奧特曼:的確,像加入提示音這樣的音頻提示是可行的,但用戶肯定不希望聽到機械感過強的語音輸出。這又回到了人機相容的問題,以及我們人類的本能反應。我必須說,自從使用了語音模型,我對它的喜愛超出了預期。它讓我意識到,一個自然流暢的語音接口所具有的巨大價值,遠超過我之前的認識。如果語音輸出不接近人類的聲音,我認為它不會那麼吸引我,也不會有同樣自然和流暢的體驗。不過,提示音或其他形式的提示,都是可以考慮的方案。
我認為我們需要進一步研究用戶對這些設計的反應,並計劃在不久的將來推出相關功能。我對用戶對ChatGPT的反饋感到鼓舞,用戶很快就理解了:a) 它是人工智能;b) 它的局限性;c) 何時使用它,何時不使用它,以及如何將其融入日常使用。盡管語音模式是一個新事物,我對它將遵循與ChatGPT相似的發展軌跡持樂觀態度。我們將設立一個緊密的反饋機制,對用戶的反應進行仔細的觀察和分析。
主持人:我滿懷希望地期待實時翻譯能夠奏效,因為我目前身在瑞士,當我在山間跑步時,有人用法語對我大喊,我本想借此機會提升我的法語水平,便假裝聽懂了。但顯然我並沒有聽懂,因為我正朝著一個危險區域前進,差點跌落懸崖。因此,一旦翻譯問題得到解決,我的法語水平定會有所提高。
奧特曼:這種情況非常適合使用翻譯工具。
主持人:現在,讓我們討論一下好萊塢知名女星斯嘉麗·約翰遜(Scarlet Johansson)的事件,有一些事情我不太理解。你們展示了這些語音,之後她發表了一份引起廣泛關注的聲明,聲稱自己被詢問過是否可以使用她的聲音,她拒絕了,而在產品發布前兩天,她再次拒絕了,但產品還是發布了。OpenAI隨後發表聲明稱情況並非如此,貴公司邀請了許多演員來試音,最終選定了五種聲音,之後詢問她是否願意成為其中之一,她本可以成為第六種聲音。我不明白的是,這五種聲音中有一種聽起來非常像斯嘉麗的聲音,給人的感覺就像是你們打算有六種聲音,其中兩種聽起來像她。我很好奇,你能否對我解釋一下這個問題。
奧特曼:是的,那並非她的聲音,我們也無意讓它聽起來像她。對於造成的混淆我深表歉意,顯然你認為它是,但關於聲音相似度的問題,人們的看法各不相同。然而我們確信那不是她的聲音,我們也不確定還能補充些什麼。
主持人:好的。我們來談談真實性,這與我們的話題密切相關。你在視頻中,而我在現實中,我是真實存在的。我向GPT-4詢問了一個問題:當你通過視頻屏幕采訪某人時,如何驗證他們的真實性。它建議可以通過詢問他們近幾小時內發生的事件,並觀察他們是否能夠回答來進行驗證。恰好,Magnus Carlson的事件就是一個例子。
奧特曼:我對此不太了解……
主持人:好吧。我這裡有幾個問題,我們會找到答案的。其中一個問題是,目前哪一家科技公司的財報成為了社交媒體X上的熱議?
奧特曼:我想是Salesforce,正是如此。
04 AI的全球化與中國大語言模型的崛起
主持人:接下來,讓我們討論一下人工智能的全球化問題,這在本次會議中已經多次被提出。顯然,對OpenAI而言,擁有一個或少數幾個大語言模型是符合自身利益的。但你如何看待未來的發展?你認為三年後,會有許多基礎的大語言模型存在,還是只有極少數?更為關鍵的是,是否會存在一個在中國獨立使用的大語言模型,以及一個在尼日利亞以不同方式使用,一個在印度以另一種不同方式使用的大語言模型?我們將何去何從?
奧特曼:坦白地說,我們並不比任何人更了解這個問題的答案。目前,顯然有許多模型正在接受訓練,而且這種趨勢將會持續。盡管我們無法預知具體的情況,但我預測中國將會擁有自己獨特的大語言模型,與世界其他地區的模型不同。我猜想,將有成千上萬的大語言模型被開發出來。我預計,其中只有少數,比如10個、20個或類似的數量,會獲得大量的使用和最密集的資源投入。但我認為我們仍處在這一領域的初級階段,還有許多未知等待我們去探索,還有許多科學上的突破即將到來,因此在這一點上做出任何自信的預測都是非常困難的。
主持人:我想就我非常擔憂的另一個重要問題咨詢你。隨著人工智能步入下一個發展階段,我最擔憂的一個問題是網絡可能變得難以理解。因為內容的發布變得如此容易--創建網頁易如反掌,編造故事不費吹灰之力,一切活動都變得輕而易舉,以至於網絡幾乎變得難以導航和穿透。你是否也有這樣的擔憂?如果認為這是一個切實可能發生的問題,我們能做些什麼來降低這種風險?
奧特曼:我認為我們使用互聯網的方式很可能會經歷一些變化,盡管這將是一個漫長的過程。但我並不擔心網絡會變得無法理解。你已經可以在某些情況下看到這一點,例如人們使用ChatGPT的方式,有時它能讓你比傳統搜索、瀏覽網頁更高效地獲取信息。我認為,互聯網能夠主動為你提供信息的這種理念,正是人工智能發展中令人興奮的方向。因此,我認為我們使用互聯網的方式可能會發生類似的變化,但我並不擔心網絡會變得像被垃圾郵件或自動生成的文章所淹沒,從而變得無法理解。
主持人:我理解你所描述的是一個網絡幾近崩潰的世界,只剩下為數不多的幾個大語言模型作為我們與信息世界的接口,這是否是你所預見的未來景象?
奧特曼:不是這樣。我能想象在某些情境下,整個網絡被拆分為組件,然後由人工智能來組裝。在未來,每次人們需要某些信息時,都能即時為他們渲染出完美的網頁,但我無法想象一切都匯聚到一個單一的網站上,這與我的直覺相悖。
主持人:讓我們來談談我自去年以來一直在記錄的一些問題,或者是在人工智能領域中非常聰明的人們之間的分歧,其中最引人入勝的是人工智能是否可能加劇收入不平等,或者相反,有助於減少不平等。我在你的多個播客中聽到了這個問題,你本人也提到了人工智能可能加劇不平等,以至於可能需要全民基本收入(Universal Basic Income)來抵消這種影響。但今天早上,有人在這裡引用了一些經濟研究,表明當人工智能工具在呼叫中心等地方實施時,實際上對最低收入工人的幫助大於對最高收入工人的幫助。這是否改變了你對全球收入不平等現象的看法,無論是在國內還是在國際上?
奧特曼:首先,讓我舉一個例子。今天,我們為非營利組織推出了OpenAI的服務,這是一個新的計劃,旨在使我們的工具對非營利組織更加便宜和易於獲取,包括折扣和分享最佳實踐的方式。人們已經用這些工具做出了驚人的工作。例如,國際救援委員會使用我們的工具,取得了非常好的成果,支持了在真正的危機區域中過度勞累的教師和學習者。我認為這是一個例子,這些工具能夠自動化一些以前困難的任務,使智能--無論你如何稱呼它--更加普及,從而真正幫助那些最需要幫助的人,而不是在已經富裕的環境中的人。我們對這個計劃的推出感到非常興奮,它是你所談論內容的一個例子。
在許多方面,人工智能幫助最貧窮的人比幫助最富有的人更多。我們真的相信這一點,並且對此充滿熱情,這是我們想要構建這些工具的一個重要原因。我認為這是技術發展歷史的一個重要部分,也是一直以來發生的事情的必然趨勢。這肯定會發生。我相信技術在很大程度上提升了世界的豐富度、提升到更高的水平、實現更好的繁榮。無論你如何稱呼它,我都持樂觀態度。我不認為這需要任何特別的幹預。盡管我不清楚,這是在很長一段時間內的事情,不是明年或者接下來的幾年,但在很長一段時間內,我仍然期望需要對預期這項技術的強大力量進行一些社會契約的調整。我不相信會沒有工作,我們總是找到新的事情去做,但我確實認為整個社會結構本身將會受到一定程度的辯論和重新配置。
主持人:重配置將由大語言模型公司來主導。
奧特曼:不是這樣。整個經濟的運作方式,以及我們--社會決定我們想要做什麼,這是一個長期發展的過程。隨著世界變得更加富裕,社會安全網就是一個很好的例子。我預計我們會決定在這方面投入更多。
主持人:讓我換個方式問你這個問題:在座的有很多政府領導人,來自世界各地不同國家的代表。在過去一年半中,有哪些法規的討論,你認為將有助於為人工智能大規模采用的未來重新配置社會契約?你聽說過哪些法規的例子,你認為可能會損害這個過程?
奧特曼:我不這麼認為。我認為目前關於監管的討論大多並不集中在這些主題上。我們面臨大選,我們該如何應對?同時,人工智能還伴隨著其他一些非常重要的短期問題。我不認為監管的焦點應該是將要開發出通用人工智能,它將像科幻小說中那樣,我們該如何應對?我認為現在就進行這樣的討論還為時過早,因為我們還不知道社會和技術將如何共同演化。我認為這個話題確實值得討論,但它不應該成為當前的焦點,而且到目前為止確實還沒有成為焦點。
主持人:是否存在一些監管框架,人們常常討論如何監管核武器,雖然沒有什麼可以與之完全相提並論,但在我們步入這個新世界之際,是否有一些現有的監管框架,你認為值得我們借鑒和思考?
奧特曼:你所指的,是長期來看,當人工智能可能成為一股巨大的經濟力量時,它將帶來何種影響,還是說我們正在討論的短期問題?
主持人:從長期角度來說。
奧特曼:如果我們有一個堅定的建議,我們當然會意識到這並非我們所能決定的,但我們會提出堅定的建議,我們會說,基於我們認為最有可能發生的情況,鑒於我們對未來發展路徑的預期,以下是我們認為應該得到更多考量的事項。我認為,要提前在理論上做好這些事情是非常困難的。我們必須觀察事物的發展變化。我們之所以堅信迭代部署策略,將系統安全地放入世界中,認識到它們將不斷改進,並且我們會在這個過程中學到很多東西,其中的一個原因是,社會不是在白板上憑空理論化的,而且隨著技術的推廣,社會和技術都在發生變化,這是一個真正的共同演化過程。
因此,我認為我們共同探索未來的道路應該是基於實踐的,自從發布ChatGPT以來,我們已經看到了許多它開始以小步快跑的方式,但確實開始轉變經濟的某些部分和人們工作方式的例子。我認為這種方法不是我們坐下來某一天說,好的,我們將一次性設計全新的社會契約,以及現在世界如何運作,那將是非常糟糕的。我認為極其難以一次性做到位,但通過逐步迭代的方式,似乎更有可能取得成功。
主持人:好的,讓我們來討論一下OpenAI的治理問題。我有一句非常喜歡的話,由於存在一些禁止事項,我無法完整地引用,但這是你8年前在接受《紐約客》采訪時所說的話,當時我還在這家媒體公司工作。當時你在討論OpenAI的治理問題時說:“我們正在計劃一種機制,讓全球各地的人們能夠選舉代表加入公司的新治理董事會,因為如果我不參與其中,我會質疑為什麼這些人能夠決定我的命運。”請談談那句引言,以及你現在對它有何看法。
奧特曼:我依然認為類似的事情是值得去做的,我們持續探討如何實現治理,我現在可能不宜透露太多,但我對朝那個方向努力的事物仍然感到興奮。
主持人:能否請你多談一些細節?
奧特曼:很抱歉,我選擇不多說了。
主持人:好的,讓我們來討論一下治理方面的批評。貴公司兩位前董事會成員海倫·托納(Helen Toner)和塔莎·麥考利(Tasha McCauley)最近在《經濟學人》上發表了一篇評論文章,她們提到在OpenAI的不盡人意的經歷後,這其中包括曾投票讓你本人離職後又恢復CEO職位的“宮斗”事件。她們說,不能信賴貴公司的自我監管。然後在最近,托納在接受TED播客的采訪時態度相當嚴厲,她表示公司監管完全失效,實際上她是從推特上了解到OpenAI發布ChatGPT的情況。這是否准確?
奧特曼:我對她的事件回憶持有尊重但嚴重不同意的看法。但我必須說,我認為托納確實真誠關心實現良好的通用人工智能結果,我對此表示贊賞。我祝願她一切順利,我可能不想在這裡回應。當我們發布ChatGPT時,它被稱為低調的研究預覽版,我們沒有預料到後來發生的情況,但我們朝著推進的發布計劃與董事會進行了很多討論。等到基於3.5版本的ChatGPT發布大約8個月左右,我們已經完成了GPT-4的訓練,並正在制定一個逐步推出計劃。我對她對事件的回憶持有不同意見。
主持人:這就是你的立場?
奧特曼:我想是的。
05 人工智能的長期願景與人類角色
主持人:我想問你一些關於人工智能的更宏觀的問題。我剛剛參加了一場活動,那裡許多人在探討人工智能與人文主義。其中一位參與者提出了一個非常有意思的觀點:人類創造出超越自身的力量,可能實際上並不會讓我們變得更加自負,反而可能使我們更加謙卑。我們會如同明鏡般照見自我,對機器心生敬畏,對生活心懷謙遜,這將引導我們學習一種全新的生活方式。你認為這種情況會發生嗎?在你個人的經歷中,是否曾經因為看著機器而對改造世界產生了更深的謙卑感?
奧特曼:我確實這麼認為,而且我相信這將在更廣泛的范圍內發生。我相信,雖然不是每個人都會這樣,總會有人對此產生自負的極端反應,但總體而言,人們對於世界、對於人類在宇宙中的位置將會有更廣泛的敬畏與謙卑感,我認為這將是非常積極的變化。我最近在思考,科學史在某種程度上反映了人類逐漸從中心地位撤離的過程。你可以從許多例子中看出這一點,比如我們曾相信地心說,即太陽繞地球轉,這是一種非常以人類為中心的思考模式。後來我們認識到,實際上是地球繞太陽轉,而且天上的小白點其實是無數的星星,還有許多星系存在於我們的視野之外。如果你願意進一步延伸這個比喻,甚至可以說到多元宇宙的概念,這非常奇異,我們實際上是非常渺小的。人工智能可能成為另一個讓我們獲得額外視角的例子,使我們更加謙卑地意識到自己是更廣闊宇宙的一部分,我認為這是一個持續的、真正積極的發展。
主持人:這會讓我家10歲的孩子感到高興。我和他在開車回家的路上,他剛參加了一場足球比賽。我一直在聽你的許多播客,他聽了其中一期,他說那個主持人較少談論自然和動物,所以我很高興在你的問題中包含了這樣的內容。在此,也代我兒子向你表示感謝。
我想問你一個我曾聽過的相當激進的觀點,那是在喬·羅根(Joe Rogan)的播客中提到的。你提到你可以想象一個未來,治理實際上是每個人都能發表意見,那時可能是80億人,或者讓我們設想一個未來,當人口達到120億的時候,你幾乎可以輸入你的偏好,關於你希望做出哪些決策,然後一些能理解你偏好的人工智能可以幫助實現更好的決策制定。你認為這是一個真正的可能性嗎?聯合國是否應該考慮這樣做?
奧特曼:首先,我希望那時的人口是120億,而不是40億。我確實對目前的趨勢有些擔憂。但是,是的,我認為這將是聯合國開始探討如何收集全人類的一致性偏好集合的好項目,同時在這個過程中,還要考慮默認設置在哪裡,界限在哪裡,以及人們如何在這個范圍內調整自己的立場。我認為這對聯合國來說是一項非常有價值的工作。
主持人:你真的認為我們能夠想象到達那裡的可能性嗎?要實現一個由人工智能輔助的、更具協作性、更接近雅典式民主的治理系統,而非相反,我們需要采取哪些中間步驟呢?
奧特曼:我們大約在一個月前推出了最新的模型規范Model Spec,這是朝著這個目標邁出的第一步。我們提出,基於我們的學習成果,這是我們將嘗試設定規則的方式,也是模型將嘗試執行的任務。它之所以重要,是因為它至少闡明了何時是系統出錯與按設計運行的區別,這樣我們就可以修復錯誤或就原則進行辯論。目前,我們正努力就這個規范進行廣泛的討論,探討我們為什麼要做某些事情,這些討論涉及到非常具體的細節。例如,如果要求模型執行一些可疑的操作,模型是否應該在回應中表達什麼,但如果要求它將文本從英語翻譯成法語,它應該遵循翻譯請求。達到這種具體化程度是很重要的。但我認為,現在需要做的另一件事是將這一點擴展到更廣泛的層面。你可以想象,在未來,人們可以與ChatGPT討論他們的個人偏好,而這些偏好將被納入更大的系統考慮之中。
還有一件事是系統消息,人們已經在這方面做了非常有創造性的工作,讓模型按照他們期望的方式運作。
主持人:人類大腦中是否有任何無法被機器復制的東西?
奧特曼:可能是主觀體驗。我不想深入人工智能與意識的辯論,因為我認為在這方面我沒有什麼新的觀點要補充。
主持人:在最後,我想向你提出這個問題,因為在人工智能或意識的問題上,基本上只能以是非問題作答。讓我再問您一個我覺得非常有趣的問題,它來自我的孩子。孩子們有時展現出驚人的智慧。我有3個兒子,我與大兒子討論了他對於人工智能的擔憂。他的回答相當引人深思,他用人工智能來准備辯論,也嘗試將其作為學校的輔導工具,我一直在向他展示不同的人工智能模型。他表達了一種擔憂:我們可能走向一個未來,在那裡重新學習將變得極其重要。我想我們都認同,世界將以戲劇性的方式變化,為了成功,我們必須不斷學習。他擔心我們會變得過於依賴技術,以至於我們不再知道如何去學習,這讓他感到憂慮。
奧特曼:你是否也有這樣的擔憂?在一個快速變化的世界中,有許多事情讓我感到憂慮,我們必須找出如何適應這個迅速發展中的新事物。學會學習似乎是一項深刻的人類技能。顯然,或者不如說是顯而易見的,這項技能在人生的早期比晚期更為強大,但它永遠不會消失。我認為,培養這項技能將變得非常有價值,未來我們可能會比現在更有動力去精通它。這項技能似乎是與生俱來的,我們的大腦非常適合學習。因此,我同意他的觀點,學會學習將變得越來越重要,但我對我們能夠很好地掌握這項技能持樂觀態度。
主持人:好的,我會告訴他,使用ChatGPT來撰寫他的下一篇論文是完全可以的。會場中聚集了許多傑出的智者,他們中的許多人將參與到對人工智能的規范和未來形態的塑造中。你認為他們最應關注的重要信息是什麼,或者在這次對話結束後,你希望他們帶走的最關鍵的一點是什麼,能夠指導他們在未來利用、規范人工智能,並將其用於正義的事業?
奧特曼:一方面,我們有不可估量的積極前景和向世界提供這些成果的道德責任;另一方面,我們必須認真對待安全和社會層面的重大關切。我們近期成立了新的董事會安全與安保委員會,並動員了我們的部分團隊,為我們即將推出的下一個模型做好准備。在全球范圍內,已經有許多關於人工智能安全問題的討論,目前也有很多關於准備框架的討論。如果我們的判斷是正確的,即技術進步保持快速發展,那麼我們需要找出公司、國家乃至整個國際社會應該采取哪些結構和政策,以確保世界能夠獲得這一巨大的利益。
世界對此有著迫切的需求,並認為這是道德上的正確之舉--同時避免在不同時間尺度上出現的風險。因此,不要被短期或長期的問題所分散注意力,這一點非常重要。我想說,全面地考慮問題是非常具有挑戰性的。我認為,從已經發生的事情中我們可以學到很多,同時我們也需要弄清楚許多新問題,但我最後想強調的是,不要忽視長期問題,也不要假設我們會在這裡突然迎來一個智能爆炸的時刻。
主持人:好的,當我向GPT-4詢問如何判斷某人是否是人類時,它實際上給出了三個正確的答案:手臂測試、新聞測試,以及提出一個開放式問題,看他們是否能夠在不預設答案的情況下給出一個好的復雜回答。非常感謝你再次證明了這一點。非常感謝你!
奧特曼:謝謝。- 新聞來源於其它媒體,內容不代表本站立場!
- 剛上任引爭議 稱加房地產危機根源
- 溫哥華附近島嶼小木屋 比公寓便宜
-
- 在海外 騙子太懂自己人專騙中國人
- 年輕夫婦這樣靠房掙夠錢提前退休了
- 陳奕迅因新冠並發症離世?陳奕迅回應了,爆料博主更多劣跡被扒!
- 加國聯邦自由黨又丟一席 組建多數政府還有戲嗎
- 蘭裡地產專家 多年蘭裡地產經驗
- 植物園舉辦唐頓莊園主題花藝盛會
-
- 中國解禁中東力挺,波音股價飆升50%成大贏家
- 這省新推小費法 民眾期望全加實行
- 美越貿易談判之際 越南豪送川普集團15億美元
- 葉童,有著張揚的生命力和灑脫的帥性,乘風破浪正當時 | 二湘空間
- 蘭裡地產專家 多年蘭裡地產經驗
- 向習要護照 賀建奎手持美國綠卡公開喊話
-
- 德國外長:北京應承擔烏克蘭戰爭和平責任
- 台長"心碎" 美國之音大規模裁員
- 印度國防智庫:中國直接參與了印巴沖突
- 雨天還開飛車?溫村汽車翻了底朝天
- 交易詭才:在中東,看到了川普的偉大
- 拿自己人開刀!蔡奇:堅決整治黨內吃喝風
-
目前還沒有人發表評論, 大家都在期待您的高見