| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

Manus回應撤出中國原因 首度披露教訓

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
Manus近期撤出中國市場、清空國內社交賬號內容,全力轉戰海外市場,官方解釋原因主要基於經營效率的調整及國際化布局。北京時間7月19日,Manus聯合創始人季逸超發布技術博客,首度從技術角度做出回應,總結創業以來在Agent研發與訓練方面的經驗教訓。


單從技術層面來看,季逸超表示Manus會側重押注上下文(Context)工程,借助構造“記憶”與流程實現產品快速迭代。主要包括押注上下文、不再訓練模型,強調KV-Cache(Key-Value Cache,一種緩存機制)命中率意義,不動態添加工具,以及用文件系統承載持久上下文等方面。核心即節省底層模型訓練成本,側重訓練效率的提高。

上下文在大模型中通常指模型在處理任務或生成輸出內容時所參考的信息集合,能夠幫助模型增強理解能力、提高任務性能、增強輸出連貫性。此前月之暗面Kimi創始人楊植麟在采訪中強調過上下文的重要性,他稱,Ai-native(由AI定義產品形態)產品的終極價值在於提供個性化交互,而無損長上下文(LosslessLongContext)是達成這一目標的關鍵。他判斷模型的微調長期來看不應存在,用戶與模型的交互歷史就是最好的個性化過程,而長上下文技術能更好地記錄和利用這些交互歷史。


另外,KV-Cache命中率至關重要,主要是因為高命中率可以提高推理效率,優化資源利用率,降低計算成本。也正基於此,KV-Cache常被稱為Transformer模型推理階段的效率核心。

選擇從上述各方面提高訓練效率,而非從底層模型開始投入,是季逸超過往多年總結的教訓。他稱,創業上一家公司(Peak Labs)時,團隊決定從頭開始為開放信息提取和語義搜索訓練模型,但之後不久,OpenAI的GPT-3與Google的Flan-T5模型出現了,團隊從頭研發的內部模型一夜之間變得無關緊要。“諷刺的是,這些模型標志著上下文學習的開始,以及一條全新的前進道路。”季逸超稱。


基於此前教訓,創業Manus後,團隊不再投入基座模型研發,而是從使用開源基礎模型訓練端到端Agent,與基於前沿模型上下文學習能力構建Agent兩個選項中進行選擇。雖然Peak Labs的教訓令Manus團隊意識到上下文的重要性,但這並不容易,經歷過四次Agent框架調整才實現局部最優解。


但需注意的是,該策略仍存在局限,尤其在面對類似OpenAI剛發布的ChatGPT Agent時。核心原因在於ChatGPT Agent依托OpenAI專用模型,采用端到端訓練,可以更好地處理復雜任務,而Manus雖然可以提高效率,但仍依賴外部多模型組合與工程優化,在任務執行連貫性與准確性上稍遜一籌。



另外,在Manus轉戰國際市場的節點,OpenAI憑借底層模型優勢將Agent行業帶入拐點,吸引更多開發者與用戶至大廠平台,雖然創業公司在垂直領域具備生存空間,但仍不可避免地面臨市場份額被爭奪的挑戰。尤其在當下Agent類產品存在同質化嚴重、商業模式不明、成本高企等困境時,上下文工程等方面的亮點不足以讓創業公司跳脫出來,團隊仍需持續優化技術策略,探索差異化發展路徑。
覺得新聞不錯,請點個贊吧     還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0317 秒 and 5 DB Queries in 0.0018 秒