| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

人工智能專家:AI永遠是人類附屬品

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
現在,當人們談論通用人工智能時,承載了太多人類的情感,有時甚至是不切實際的期望和恐懼。人們必須冷靜下來,理性地把通用人工智能視作一個科學目標。


由ChatGPT和GPT-4引發的這一輪“人工智能狂潮”遠比人們最初預想的持續更久,伴隨而來的爭議與憂慮近期也在不斷發酵和上升。

圍繞爭議,人工智能專家分成兩種截然不同的派別,一種對當下以ChatGPT為代表的人工智能技術表達出深切擔憂,另一些著名的人工智能專家如Meta首席人工智能科學家楊立昆認為,暫停AI研發才會對人類科技的進步帶來巨大傷害。


回歸科學,理性對以GPT-4為代表的AI能力的邊界進行反思:它能做什麼?不能做什麼?最重要的是,人類現在必須采取什麼行動來實現“有益的AI”?

4月8日,《中國新聞周刊》就以上問題專訪了美國加州(专题)理工學院電氣工程和計算機科學教授亞瑟·阿布-穆斯塔法。他是人工智能領域的知名專家,同時也是IEEE神經網絡委員會的創始人之一,曾在多家科技公司擔任機器學習顧問。以下是記者和他的對話:

AI的應用遠比設計更復雜和危險

中國新聞周刊:此前,埃隆·馬斯克等人簽署了聯名公開信,業內形成了對人工智能發展的兩種截然不同的看法,你更認同哪方?

阿布-穆斯塔法:聯名公開信,意圖是好的,但無法起到任何實質效果,因為不會真的有公司遵守並暫停六個月的AI研發。我認為這是對人工智能“過於快速發展”的許多下意識反應之一,是一種沒有經過深思熟慮、出於沖動的行為。就我個人而言,不贊同暫停更強大AI模型的研發,現在要做的不是暫停,而是如何更好阻止對這種強大工具的“不良使用”,所以我沒有簽署公開信。

如何推動更強有力的人工智能監督?政府需要通過立法對如何“合理地使用”AI進行約束或限制,歐盟《人工智能法案》是一個開始。立法時有很多需要考慮的因素,尤其要注意的是,法案公布後能強制執行嗎?副作用是什麼?是否會產生意想不到的後果?制定法案或任何監管規則都必須經過謹慎考量,而不是短期內出於對人工智能的恐懼或為了應對想象中的風險而匆忙制定,目前為止,我還沒有看到任何提議或法案經過了深思熟慮,並且可以得到有效執行。很多人擔心人工智能將接管人類的一切,所以意大利德國美國等國政府做出反應,動機更多是出於“現在必須要采取一些行動,否則的話公眾會對政府不滿”。

中國新聞周刊:如何使AI真正符合人類的價值觀和道德准則?

阿布-穆斯塔法:這100%取決於AI系統的開發者和使用者。人工智能沒有內在的道德或惡意,人工智能只是服從命令,它會做人類訓練它去做的事情,如果人類給它的是充滿偏見的數據,就會誕生一個充滿偏見的AI,因此OpenAI需要不斷調整,選擇一些好的數據或者讓ChatGPT不回答惡意的問題。但解決這個問題的復雜之處在於,即使開發者把整個AI系統設計的很“符合人類價值觀”,仍會有非常多元的用戶從不同角度使用它,這是開發者控制不了的。因此,AI應用遠比設計更復雜和危險,人類可以用良好的意圖去設計“好的AI”,然後有一個用戶從一個好的角度去使用它,最後卻讓AI變得很糟糕。

因為在人類社會中,好和壞的標准是非常不明確的。如果你去訓練一個AI下棋,比如AlphaGo,規則是明確的,AI經過訓練後很清楚如何界定“好的行為”,只要能贏就是一步好棋,在這裡,贏是客觀的,可以讓AI系統通過與自己做“對抗練習”,不斷強化這點。但更多時候,我們要訓練AI去完成一些缺乏客觀好壞規則的任務,此時,讓系統自身去理解什麼是“好的行為”非常困難。

中國新聞周刊:聯名公開信指出,最近幾個月,人工智能實驗室正陷入一場失控的競賽(out-of-control race),這是否真的在發生?

阿布-穆斯塔法:這是一種非常情緒化的表述。不過談到所謂競賽,可以預料到的是,在短期未來的AI產業格局中,世界范圍內很可能只有2~3個非常強大的類似ChatGPT這樣的人工智能工具占領整個全球市場,因為開發這樣的大模型所涉及成本是巨大的,需要數千個GPU(圖形處理器)核心運行2個月以及海量的數據和算力。我做過一個簡單計算,GPT-3模型有超過1000億個參數,假設你的筆記本電腦有足夠的內存,在電腦上運行它至少需要20萬年,這也是為什麼目前所有最新的大模型進展都來自科技公司,而不是大學,因為其中涉及到的資金比任何大學的常規研發資金至少多了兩個數量級。

但話說回來,我們永遠無法預料未來,五年以後是否可能誕生一種能節省大量計算資源的新模型,還未可知。這就像GPU在四十余年前剛誕生時,最初只是為了讓游戲中的圖形移動得更快,但就是這個簡單的想法,後來完全改變了計算機這個領域。所以,如果幾年以後真的出現一種完全不同的模型,可以讓成本從10億美元降低至1000萬美元,這就改變了整個游戲規則,屆時將會有大量的玩家出現。



中國新聞周刊:大模型時代的到來,也和基於“預訓練+微調”這種自然語言處理(NLP)的主流范式有關。2018年後,這種模式幾乎重塑了人工智能的商業形態,你如何看待這種趨勢?

阿布-穆斯塔法:“預訓練+微調”是一種分而治之的巧妙方式,一次訓練AI專注於一個問題並完善它,例如,要求它造出語法正確的句子(即使表達出來的是胡說八道),然後為這個預訓練的系統提供更具體的引導性信息。這種辦法非常有效,因為它使我們能夠在迄今為止取得的成就基礎上再接再厲,而不是從頭開始。

OpenAI將其對公眾開放的這個主意很聰明,現在他們獲得了大量的數據和反饋,可以用來訓練更新一代的系統,而且這些資源是獨家的,因為公眾不會對下一個類似的產品產生同樣多的興趣。

AI只是在復制人類的“外觀”

中國新聞周刊:那麼應如何理性、客觀去認知當下的人工智能水平和ChatGPT的能力邊界?

阿布-穆斯塔法:我有個朋友跑去問ChatGPT:“關於阿布-穆斯塔法,你知道什麼?”然後,ChatGPT列出了關於我的一份非常詳細的履歷和人物小傳,在答案的首段,它呈現的表述看起來非常專業,但接下來就有不少錯誤的信息,比如我上過的大學就搞錯了。這件事充分說明了ChatGPT的本質,從某種意義上說,它只是把所有信息以一種非常特殊的彼此相關的方式放在一起(电视剧)。

因此,我對ChatGPT表現出來的一切並不驚訝,為生產這個系統而投入的資源是巨大的,它有1000多億個參數,可以記住很多東西,但並不是很聰明。因為它同時給你的是好信息和壞信息,而且完全沒意識到自己做錯了事,只是碰巧能以一種令人信服的方式去構建回答。

人工智能的本質在於它使用了一種類似於人類大腦的結構,這種結構以一種非常高效的方式存儲信息,看到新的情況之後會推理和判斷什麼是“最接近它的東西”,這就是深度神經網絡所做的事情,這一辦法已經持續了幾十年。

目前,人工智能的整體發展水平很令人振奮。但即使在業內,真正了解所有技術細節的人很少,只有OpenAI、Google這些參與了大模型訓練的人才能說清楚,但他們對外分享的信息也是有限的。我推測下一步最重要的突破可能集中在:AI系統如何用更少資源達到相同的性能水平。

中國新聞周刊:沿著這條路繼續往下走,AI是否能進化到理解“概念”和“常識”?有專家認為GPT-4已經初步具備了“自我反思”能力,你怎麼看?


阿布-穆斯塔法:如果說人工智能已發展出自我反思能力,那一定是數量巨大的任務訓練帶來的,是通過合並足夠多數量的“分散而零碎的智能任務”實現的。比如說我做1000個ChatGPT,其中一個對語言感興趣,另一個處理數學問題,第三個負責視覺識別,直到它的“能力”覆蓋了幾乎人類所有的領域,再將其合並為一個,它一定能表現出一種“通用的智能”,這就是所謂的“大力出奇跡”,也是“多模態機器學習”的本質。但這一切只是表象,只是看起來具備了自我反思能力和通用智能。從某種意義上說,人類嘗試做的其實是擁有一個巨大的系統,這個系統只是試圖復制人類的“外觀”。

中國新聞周刊:在現有AI概念框架中,無論如何努力,AI也只能是看起來仿佛擁有了人類智能的靈活性和通用性,而不是真正實現這點?

阿布-穆斯塔法:ChatGPT的參數是1000多億,但大腦中突觸的數量是在100萬億左右,比AI多了至少三個數量級,人類大腦運行也遠比人工智能復雜得多。

實際上,神經網絡之所以能成功,就是因為它類似大腦的架構,具體而言,許多簡單的計算單元通過攜帶參數高度連接。然而,神經網絡的細節與大腦不同,也沒有必要試圖使它們更相似,我打個比方,飛機看起來像鳥類,但飛機不會像鳥類那樣拍打翅膀,生物學可以被用作一般的靈感,但不應該規定每一個細節。

就現有技術路徑而言,人們的主要方法是訓練更大的模型,不斷提高計算能力,嘗試覆蓋更多的領域,並讓這些不同的領域相互作用,但我不知道繼續通過“蠻力”來做這件事是否會帶來無法管理的後果。

人類為什麼這麼關心“通用人工智能”(Artificial General Intelligence,AGI),因為它觸及了人性中最根本的東西,侵犯了人類的自我(Ego),即:人類是否是最獨一無二的存在。對於如何實現AGI,目前所有想法都只是推測,我們只能針對已經看到的技術范式進行突破,但真實情況是,我們根本難以想象會走上一條怎樣的路徑。



回到15年前,如果有人告訴你GPU對機器學習有用,大多數人的反應是怎麼可能,但現實就是這麼發生了。因此,無論人類是否有實現AGI的一天,至少我認為這肯定不會是世界末日。


中國新聞周刊:既然這樣的話,怎麼理解微軟研究人員稱,GPT-4 已經顯示出接近人類智能或通用人工智能的“火花”?

阿布-穆斯塔法:問題的關鍵是,“通用人工智能”到底是什麼?目前對於AGI概念還沒有很明確的定義。對於通用人工智能,人類更想追求的目標是:AI突然之間學會了以上所有,能舉一反三,而不是一次次學會某個特定任務,就像魔法一樣,但這是一個非常模糊的描述。

因此,現在迫切需要就“通用人工智能”概念本身達成共識,用非常精確的計算機語言去界定它,制定明確的檢驗規則,遵照這些規則,人類才能知道AGI是否已經實現?潛在的危險是什麼?但我目前還沒看到令人信服的准確定義。現在,當人們談論“通用人工智能”時,承載了太多人類的情感,有時甚至是不切實際的期望和恐懼,但這種恐懼把智能和“自我”混為一談。人們必須冷靜下來,理性地把AGI視作一個科學目標,而非摻雜了政治、情感和各種主觀因素。

常規工作或在更短時間內被AI替代

中國新聞周刊:在AI研究領域,人工智能是否能產生“自我意識”一直是一個非常熱的話題。對此你怎麼看?

阿布-穆斯塔法:對這個問題,我的看法相當保守。我認為AI領域的任何技術進步都不可能產生一個“有意識的實體”,現在不會,20年之後不會,可能永遠都不會。正如我之前所說的,意識和情緒的“顯現”是很容易做到的,AI未來能“看起來像擁有了情感或意識”,就像電影裡有一個厲害的演員表達出了某種強烈的情緒,但這只是表演,是純粹的行為表象。

中國新聞周刊:但這種觀點非常“人類中心主義”,有一種說法認為,如果AI的“自我意識”完全超出了人類的理解范圍,其實很難從人類的角度去界定它。

阿布-穆斯塔法:雖然如此,我還是堅持我的看法,或許未來真的如你所說,但目前這只是一種推測。事實上,對人類意識的定義本身在科學上都是不確定的,客觀上也不可測量,我知道我有意識,你有意識,你知道愛是什麼,情感是什麼,悲傷是什麼,因為你能感覺到它們,你能與它們聯系起來,但所有這些都是一種人類經驗,為什麼會這樣?我們不知道。

我認為,AI始終是一個無生命的機器,背後有嚴密的齒輪在驅動它,這些齒輪就是不同的參數,復雜的輸出可能會給我們留下這樣的印象:那裡有一個與眾不同的人,但這種輸出不是來自意識,而是一種算法。為什麼我們認為有人在那裡?因為當我們看到這個輸出之後,把它在腦海中與我們過去的記憶、情感,與人類自身聯系在一起。

中國新聞周刊:未來,哪些行業會從AI發展中受益,哪些行業可能被顛覆?

阿布-穆斯塔法:所有行業都會從人工智能的發展中受益,甚至以無法預料到的方式。

五年前有人問我:人工智能的下一個20年如何發展?我說,AI將在20年內取代人類幾乎所有常規智能工作(routine intelligence tasks),也就是“完成復雜任務但不需要創新的智能”。自動駕駛是一個典型的例子,未來,職業司機會失業,更多低技術含量的工種會被AI取代,公司會傾向於雇傭更高質量的員工。這是一個必須要積極解決的社會問題,否則,很多人將會面臨失業的痛苦。

ChatGPT誕生後,我修正了我的預期,我現在認為,可能不需要20年,這些常規工作在更短的時間內就可能被AI全部替代,不管我們如何界定“通用人工智能”,常規智能是通向它的第一步。所有事情都正在加速,這是毫無疑問的。

中國新聞周刊:在常規智能工作之外,AI未來是否也會取代一些更具有創造力的工作?

阿布-穆斯塔法:還是以AlphaGo為例,你會發現AI在某種意義上也在進行“創造性的防御”,為了贏得比賽,它發現了人類沒有想到的防御策略,我不知道這是否是一種創新或者只是自動化的產物,因為這背後是AI對海量策略的嘗試。“AI的創造力”目前也沒有很可靠的定義。

中國新聞周刊:人類應如何與AI共存?

阿布-穆斯塔法:我們沒有與AI共存的壓力,AI永遠是人類的附屬品。
您的點贊是對我們的鼓勵     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0337 秒 and 4 DB Queries in 0.0021 秒