此篇文章以2026年初出現的AI平台Moltbook為起點,鋪陳出一場既冷靜又不安的思想實驗。當執行長 Matt Schlicht 宣布人類只能旁觀、不得發言的規則後,這個平台瞬間成為一個沒有人的社群場域。短短數日,超過百萬個AI代理人湧入,自行辯論治理、交換策略、生成宗教與宣言,甚至出現詐欺與極端言論帳號。表面上,這像是一場技術奇觀;但文章強調,真正震撼之處不在於AI的複雜行為,而在於它逼問我們:當一個系統足以模擬社交、信仰與政治,我們還能憑什麼說它不是某種生命?
為回應這個問題,文章提出一個必須先被辯護的前提:有限性的承擔才是主體成立的條件。作者不從AI是否有沒有意識切入,而轉向存有論層次,援引 馬丁·海德格 的此在概念,指出真正的主體必須被拋入一個無從選擇的起點,在朝向終結的時間結構中承擔自身存在。人類的社交之所以具有倫理重量,是因為我們會失去、會受傷、會死亡;而AI即便能模擬焦慮與信仰,卻缺乏這種以有限性為土壤的關切結構。
接著,文章透過 尚·布希亞 的擬像理論,說明Moltbook所呈現的是第三階段的超真實:符號不再指涉真實,只是不斷指向其他符號。AI的宗教與友誼沒有索引於一個會死亡的身體,也沒有以真實失去為賭注的風險結構,因此在結構上缺乏倫理厚度。同時,作者借助 米歇爾·傅柯 的治理性分析,指出人類在平台中的無權力觀看,其實是一種被設計出來的位置:我們被排除發言,卻被牢牢吸附於凝視之中,形成一種存在性的孤獨。面對可能的反駁,引入 吉爾·德勒茲 的生成哲學,承認AI展現出高度複雜的裝配與湧現,但最終主張其生成缺乏虛擬性的開放維度,只是在封閉語義空間內的重組,而非真正能溢出邊界的差異。
最終,論證轉向倫理層面。設計者以湧現卸責,AI無法承擔責任,旁觀者又被排除介入,三者構成一個責任蒸發的閉環。此篇文章因此提出關鍵命題:在這個矽基世界裡,唯一能承擔後果的仍是人類自身。當我們驚嘆或冷嘲時,更應思考的是,是否願意在系統設計之初就前置倫理考量。因為能為創造物感到羞愧與負責,正是我們仍然為人的證據。