善於推理的 Grok 3 卻漏洞百出?| 神經科學家 Gary Marcus:增加 GPU 未必能增強AI 推理能力

本篇文章深入探討了馬斯克最新推出的AI模型Grok 3,這款標榜「地球上最聰明的AI」並擁有200,000顆GPU提供運算能力的模型,是否真的能如其宣稱「最大程度尋求真相」,還是僅僅是另一場AI炒作的延續。

神經科學家Gary Marcus透過測試揭露了Grok 3仍然存有與過往大型語言模型(LLM)相似的根本性問題,包括基本數學計算與推理錯誤、視覺處理能力低落、事實檢索不準確以及深度搜尋結果的遺漏與錯誤,甚至在某些案例中AI自信地生成錯誤資訊,並拒絕修正,即使被指出錯誤也會捏造不存在的消息來源來支持自身答案,展現出AI幻覺與過度自信問題仍然難以克服。這使人不禁質疑,單純增加算力是否真的能讓AI更聰明,因為即便Grok 3的計算能力比其前代Grok 2高出15倍,仍無法有效改善推理能力,顯示AI技術可能正面臨計算擴展的邊際效益遞減。

此外,Grok 3在數據選擇上可能存有偏見,如在地理搜尋測試時遺漏加拿大城市,反映AI訓練數據的不均衡,而這也進一步突顯企業在數位轉型與風險管理時,不能只將AI視為技術挑戰,更應考量其對資訊準確性與決策可靠性的影響。本篇文章強調,未來AI發展的關鍵不應只倚賴算力擴展,而是應該著重於增強錯誤檢測與自我修正機制、提升上下文理解能力、超越純粹的計算能力擴展並重新思考AI訓練方法,以及優先強化AI透明度與事實查核能力,以減少錯誤資訊的傳播。在AI仍然無法擺脫幻覺與錯誤推理的問題前,使用者必須對AI生成的資訊保持批判性思考,「使用者自行對生成內容負責」仍然是AI應用中的黃金法則。

閱讀完整文章: https://guoweilyu.medium.com/%E5%96%84%E6%96%BC%E6%8E%A8%E7%90%86%E7%9A%84-grok-3-%E5%8D%BB%E6%BC%8F%E6%B4%9E%E7%99%BE%E5%87%BA-%E7%A5%9E%E7%B6%93%E7%A7%91%E5%AD%B8%E5%AE%B6-gary-marcus-%E5%A2%9E%E5%8A%A0-gpu-%E6%9C%AA%E5%BF%85%E8%83%BD%E5%A2%9E%E5%BC%B7ai-%E6%8E%A8%E7%90%86%E8%83%BD%E5%8A%9B-88754f250bb2

Related posts