| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

AI 逼近"全知",人類會走向精神荒蕪嗎?


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
1944年,阿根廷作家豪爾赫·路易斯·博爾赫斯曾在《巴別圖書館》中,為人類構築了一個由無限六角形回廊組成的“全書圖書館”。


起初,它是神諭的代名詞。人們沉浸在“萬物皆已寫就”的狂喜中,窮極一生去追尋那本能解釋宇宙真相、甚至是個體命運的“辯護狀”。

然而,當狂歡落幕,真相顯露:在近乎無限的、由亂碼組成的廢紙堆裡,尋找一行有意義的敘述,概率微弱到近乎虛無。


信息的極度冗余,非但沒有點亮智慧,反而以噪聲淹沒了意義。

博爾赫斯筆下的旅行者穿梭於周而復始的卷冊間,看透了那令人絕望的循環。他預言人類終將滅絕,而圖書館永存——“青燈孤照,無限不動,藏有珍本,默默無聞。”

八十余年後的今天,這個隱喻跨越時空,精准地擊中了生成式AI時代的神經。

我們正站在知識飽和的奇點:當算法可以在瞬間窮盡文字的所有組合,我們是在挖掘通往真理的沃土,還是在加速步入一片精神的荒原?當一切皆可生成,是否意味著一切皆無意義?人類智慧的護城河在何方?我們應該如何與AI共存,並利用它創造出真正有價值的內容?那些記錄著人類“不完美靈魂”的文學與藝術,是否會成為我們最後的精神庇護所?



圖:AI生成的巴別圖書館

帶著這些關於創造、教育與存在的追問,在高山書院十周年的現場,我們與香港科技大學首席副校長、英國皇家工程院院士、中國工程院外籍院士郭毅可深聊了近兩個小時。他不僅是人工智能與計算機科學學者,從事人工智能、數據科學及其在科研與教育體系中的應用研究,而且長期持續推動AI與跨學科創新的結合。

在郭毅可看來,AI並不會簡單地“淘汰人”,而是重塑工作的結構與分工方式,很多職業將轉向更高層次的人機協作與復雜決策。

在談及人工智能的社會意義時,郭毅可進一步提出,人工智能的價值不只是提升效率,而在於可能重塑組織結構和社會結構本身。因此,他始終反對將AI僅僅視為一項工具或工程問題,而強調它對教育體系、人才培養模式以及制度設計的長期影響。他也多次指出,人工智能不應被視為計算機學科的簡單延伸,而是一門天然要求跨學科融合的新型學科。



以下是本次采訪的實錄,希望能為您帶來啟發:

Q:近年來,大模型的發展讓人聯想到博爾赫斯在小說《巴別圖書館》中描述的場景——一個涵蓋所有知識的無限圖書館。在這樣的時代背景下,如果人類獲得任何答案都只需0.1秒,那麼“提問的能力”是否會成為我們最關鍵的智力護城河?

郭毅可:如果人工智能的發展能夠將世界上所有以文字記載的事實或知識,壓縮成一個模型,並在提問時生成它認為正確的回答,這便是你所說的“0.1秒獲得知識”。



這裡我們需要先明確知識的定義。知識是一種具有共識性的認知,而“共識”本身是一個統計學概念,即大多數人同意。

大模型的“壓縮”過程,本質上就是尋找統計意義上的共識。從這個意義上講,大模型在很大程度上生成了與我們所定義的“知識”相一致的內容。

因此,需要費力記憶和構建個人知識體系的重要性似乎在下降,因為我們有了一個“副腦”。現在,關鍵問題變成了“retrieval”——如何獲取你想要的東西。而這取決於“你想要什麼”以及“你為什麼想要它”。

學會提問變得至關重要,但這並非易事。一個淺顯的問題,只能得到淺顯的答案。只有當問題本身提得極具特色,獲得的答案才可能更有價值。

但比提問能力更重要的,是與機器的“交流能力”。你問機器十次,它可能給出十個不同的回答。

你需要從中判斷哪個是對的,它們之間有何異同,以及為什麼不同。最精彩的並非一次性的問題,而是在多輪對話中,不斷提升對信息和知識的精度要求。

因此,我認為與機器的交流能力,才是未來最重要的能力。

Q:與AI提問和與人類提問,方式上是否存在本質區別?如果人類越來越習慣於從AI那裡獲得加工好的結論,思維是否會因此萎縮?

郭毅可:沒有太大的本質區別。唯一的不同可能在於,與你交流的AI知識量極為豐富。和人聊天可能會無話可說,但AI總能延續對話。關鍵在於,你需要判斷AI生成內容的穩定性及其內涵。人是主觀存在,而AI是客觀存在,你如何認知它的回答,會帶來不同的感受。

至於思維是否會萎縮,這取決於使用者自身。

為什麼你會覺得去圖書館做大量功課不算“偷懶”,而用AI獲取知識就是“偷懶”呢?這只是獲取知識的途徑和能力發生了變化。恰恰相反,這對你提出了更高的要求——你必須時刻對AI給出的內容做出反應,這是一種真正的“對話”,而非被動的“被教育”。


所謂的“AI幻覺”,其實比人類的“幻覺”,也就是主觀臆斷,要多得多。正因為知道對方是機器,我們反而更能產生一種懷疑和批判的精神,這會讓人變得更聰明,而不是更懶。那種認為“更容易地獲取知識會導致大腦萎縮”的觀點,是非常天真的,因為它仍然套用了人與人交往的邏輯來想象人與機器的交往。

功能的轉移是必然的。比如,我們現在記不住電話號碼,但我們把記憶的能量轉移到了推理等其他能力上。我們打字快了,認識的單詞量可能更大了。我不會打算盤了,但我會編程序了。這並非萎縮,而是能力的進化和遷移。

Q:現在網絡上充斥著很多“不是……而是……”這類AI痕跡明顯的句式,您認為這是好事嗎?當AI能寫出比普通詩人更“像”詩的文字,人類文明中哪些文學作品是AI永遠無法企及的?

郭毅可:AI寫的和AI與人共創的,是兩個完全不同的概念。如果一個人懂得如何與AI協作,他們共同創作出的文章可以非常有深度。AI知識量豐富,如果使用者具備判斷力和被啟迪的能力,就能創作出非常好的文章。

我最近看到一個微信號,作者的文章就是與AI共創的,寫得非常好。例如,她可以提出一個命題,如“意識的物理性原理”,這是一個非常寬廣且難以找到人類對話者的話題。

但AI可以根據這個命題,與她展開對話,最終形成一篇非常漂亮的文章和觀點。這才是正確使用人工智能的方式。AI對人的智力、意識、行為是否有幫助,歸根結底是人的問題,不是機器的問題。

因此,我非常提倡和鼓勵學生正確地使用AI。當然,像寫歡迎詞這類格式化的內容,完全可以交給AI,它甚至會比秘書做得更好,因為它能自動搜索相關信息,寫得更全面。

Q:您能否總結一下,什麼才是“正確地使用AI”?

郭毅可:正確的使用方式,是把AI當作一個知識淵博的討論伙伴。你既要對它充滿尊重,也要充滿懷疑。你要向它提出真正有意義的問題,比如“意識的物理性本質是什麼?”或“你如何看待意識的量子性”。


AI會為你總結出相關觀點,然後你需要基於它的回答進行分析:哪些是正確的,哪些具有啟發性,哪些是完全有問題的。對於你認同的,可以接納為知識的增強;對於有問題的,可以繼續探討、否定,甚至與之爭論。

目前AI的難點在於它還不太會“爭論”,因為它沒有自己的觀點和價值觀。但隨著技術發展,我相信AI會逐漸具備爭論的特性。



Q:沿著目前主流的Transformer技術路徑,AI能進化出自己的觀點甚至情感嗎?很多人認為它只是“數據的壓縮”,無法擁有真正意義上的情感。

郭毅可:當然可以。當AI的推理能力越來越強,它就開始建立自己的觀點了。通過強化學習,我們告訴它哪些推理結果是值得欣賞的,它就會慢慢形成一種觀點。這觀點起初是你教給它的,但如果機器開始“自己教自己”呢?它就會慢慢形成自己的觀點。

至於情感,為什麼AI不能有情感?情感是被感知的。當你覺得和它說話舒服了,情感不就出來了嗎?羅永浩和“豆包”吵架,就證明了AI可以進行情感對話。

我們不應該先入為主地認定“機器沒有情感”,而應該思考如何讓機器做得更好,讓它的情感能被我們感知到。這在技術上並非難事,本質上就是將語言的語義,通過學習,映射到語音的頻率上。

我們人類總喜歡把自己放在第一位。假設有造物主,他造了我們,我們現在也在造機器。憑什麼我們有的東西,機器就不能有呢?

Q:那麼,對於像新聞這類對客觀事實記錄要求很高的職業,AI的出現是否意味著職業意義的消亡?

郭毅可:新聞記者的素質要求會越來越高,而不會消亡。因為有了AI這個工具,你的知識面會更廣,能問出更精彩的問題,報道也會有更深刻的視角。你的能力被增強了。但如果你堅持用今天的方式工作,那就會被淘汰。這就像你原來是開馬車的,現在有了汽車、飛機。你如果只堅持開馬車,那自然會失業。但如果你能轉化自己的技能,去開汽車、開飛機,那你的能力就提升了。這是一個技能變化的問題。

Q:您對AI技術的發展一直持非常積極和樂觀的態度。您認為它是否存在負面影響?我們是否需要防范它對人類產生“敵意”?

郭毅可:悲觀有用嗎?沒有用。它一定會繼續進化。所以我們不需要悲觀,而是要去“進化你自己”。這不是樂觀或悲觀的問題,而是清醒地認識現實。

人類自身之間也存在敵意。AI的敵意,本質也來源於人類。如果我們都充滿敵意,那教出來的AI有敵意也很正常。但反過來想,如果人類意識到,我們之間的敵意可能會被一個第三方(AI)利用,最終導致我們共同的毀滅,那麼我們或許會因此學會消除彼此的敵意,這未嘗不是一件好事。

作為科學家,我認為技術上沒有“很難”的事,只有我們自己不夠聰明,或者不願去做。只要想得到,並且願意去做,就沒有什麼做不到的。

Q:在您看來,下一步AI最值得期待的進化是什麼?您對AI發展有很樂觀的態度,是否認為 AI行業過熱或存在泡沫?

郭毅可:我期待它能像一個聰明的人一樣,越來越聰明。我們變得更聰明,然後再帶著它一起迭代。

至於預判它的迭代速度,這取決於你的目的。如果你想賺錢,那又是另一種預判方法。訓練大模型是極少數公司的事情,而且每次訓練都應該有明確的目的,比如降低推理成本、讓模型更緊致、或知識更豐富。過去那種為了“打分”而訓練模型的模式,是巨大的資源浪費,現在不會這樣了。大部分人是在應用模型,在模型基礎上創造價值,比如提升模型的質檢能力、推理能力或自我進化能力。研究、制造和應用會慢慢分開,像“百模大戰”這種愚蠢的事情不會再發生了。

任何事情都從泡沫開始,既然是泡沫,就說明它有意義。但泡沫破裂是正常的。我認為泡沫可能不是一下全破。戳破一類泡沫是很容易的,比如DeepSeek一出來,你看就沒有人再做那種純粹堆參數的大模型了。技術的道路一旦准確,接下來就是效率的迭代,就像摩爾定律一樣。
您的點贊是對我們的鼓勵     好新聞沒人評論怎麼行,我來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0231 秒 and 5 DB Queries in 0.0034 秒