此篇文章以極具深度的思辨視角,從當前大型語言模型的「記憶缺陷」問題出發,探討人工智慧在「持續學習」上的根本瓶頸。作者首先指出,儘管現今的語言模型展現出令人驚嘆的理解與推理能力,但它們事實上是「不可成長」的系統——在預訓練完成的那一刻,模型的知識幾乎就被永久定型。無論人類在對話過程中給予多少新資訊,或模型在互動中能做出多深入的推論,一旦對話結束,這些新獲得的知識就會消失無蹤。文章將此現象巧妙比喻為「順行性失憶症」,指出AI如同《記憶拼圖》中的主角,保有過往的記憶,卻無法將新的體驗轉化成長期記憶。這種長、短期記憶之間的斷裂,使模型無法真正「學習」。在既有技術如RAG與Agent搜尋的補丁式方法之外,本文更關注的是模型內部記憶結構的根本重塑,而這正是Google Research最新論文《Nested Learning: The Illusion of Deep Learning Architectures》企圖解決的問題核心。
文章接著引出「巢狀學習」(Nested Learning, NL)的理論核心,透過對現有「深度」神經網路迷思的挑戰,重新定義AI的學習本質。傳統的深度學習認為層數越深性能越強,但巢狀學習提出,真正的智慧不在層數堆疊的「深度」,而在學習過程的「層次性」與「動態性」──也就是在不同時間尺度下協同運作的多層學習機制。文章指出,研究團隊將原本被視為純粹工具的「優化器」重新詮釋為具記憶能力的學習模組:尤其是梯度下降中的「動量」項,被當作能壓縮與儲存歷史梯度的「元記憶模組」。在這樣的架構下,AI的學習過程不再只是被動地依指令調整權重,而是能主動記取學過的經驗與策略,像一名具備方向感與經驗判斷的導航員。巢狀學習受人腦運作啟發,引入「多速率」與「多層次」的學習系統,模擬神經可塑性中快慢並行的鞏固過程——即「即時吸收」與「離線整合」並行的記憶強化模式。這種設計讓模型內部的不同部件各自以不同頻率更新,形成一種層層遞進的記憶階層,讓短期知識可逐步被抽象化、汰選、並最終鞏固為長期記憶。
文章最後則進一步將理論落實到具體實作,介紹巢狀學習的工程實現——「連續體記憶系統」(Continuum Memory System, CMS)與其核心架構「HOPE」。CMS透過讓多個MLP模組以不同時間頻率運作,模擬人腦中記憶流轉的層次性,實現了從即時反應(高速層)到長期知識鞏固(低速層)的完整鏈接。作者以生動的公司比喻揭示其運作:高速區塊如同前線員工,負責即時回應變化;中速區塊則像部門主管,過濾與整合資訊;低速區塊則為決策層,僅在關鍵時修訂核心準則。這一架構打通了AI的「短期白板」與「公司章程」之間的資訊壁壘──使知識能真正流動、被篩選並固化為長期智慧。文章最後也謹慎提醒,巢狀學習雖為AI「持續成長」開啟新可能,但其在實踐中仍面臨巨大挑戰:如何為成百上千個模組設計合適的更新節奏,以及在這種多速率互動下維持可解釋性,皆是未來的難題。結語回到哲學層面,此篇文章認為巢狀學習不僅是一場技術革新,更可能改變我們對「智慧」的定義——讓AI不再只是冷靜的回應者,而是真正在時間與經驗中持續成長的學習者。