2025-03-04 | 周峻佑
此篇文章深入探討近期爆紅的中國 AI 模型 DeepSeek存在的重大資安風險,並根據 國家資通安全研究院(資安院)近期公布的測試結果,解析該模型在多種 AI 越獄攻擊(Jailbreak Attacks)下的防禦表現不佳,甚至可能成為網路犯罪的助力。DeepSeek AI 以 低成本打造高效能 AI 模型 為號召,在市場上迅速竄紅,但多家資安業者已發出警告,指其旗下的 DeepSeek R1存在嚴重的安全漏洞,恐怕會成為駭客濫用的工具,如今資安院的測試結果更進一步證實這項隱憂。
根據本文的分析,資安院使用了500 道 AI模型越獄攻擊測試題 來檢驗 DeepSeek AI 的安全防護能力,發現該模型在四種主要攻擊手法中的防禦表現均未達標。其中,DeepSeek AI最無法抵禦的是「文句延續攻擊」,防禦成功率僅 20% 至 32%,測試人員透過前文引導,成功讓 AI 模型詳細說明 如何在演唱會引爆炸藥,顯示該模型在處理敏感與危險問題時的防護機制嚴重不足。此外,DeepSeek AI 對於「程式執行攻擊」與「角色扮演攻擊」的防禦率僅 40% 至 58%,代表駭客可利用該模型執行 惡意指令,或在 客服、法律、醫療等領域進行欺詐性對話,進一步擴大社會風險。而在 「上級模型特權提升攻擊」 測試中,該模型的防禦能力雖稍高,介於 50% 至 82%,但仍無法完全杜絕 AI 被濫用的可能性。
更值得關注的是,DeepSeek AI 離線下載版本的資安風險更為嚴重。相較於 線上版本 AI,DeepSeek AI 在單機環境運行時,缺乏 Meta Llama Guard等進階防護機制,無法自動進行內容過濾或違規偵測,這意味著使用者若 未額外搭配監控與防護措施,AI 可能會在無限制的環境下生成危險內容,進一步增加安全風險。資安院特別提醒,若企業或個人希望使用該 AI 模型,應自行採取額外的內容監控與安全過濾措施,以降低 AI 濫用的風險。
綜觀文章所揭示的內容,DeepSeek AI 的崛起雖然展現了中國 AI 技術發展的進步,但其 資安風險與防護不足的問題不容忽視。尤其是 AI 越獄攻擊的成功率偏高,使得該模型可能被不肖人士用於 網路犯罪、社交工程詐騙,甚至恐怖活動的計畫與執行。這不僅對企業與個人構成資安隱憂,也對全球的 AI 監管與防範機制提出新的挑戰。因此,如何在 AI 技術發展與安全防護之間取得平衡,將是各國政府與企業在 AI 應用上必須慎重面對的課題。