2025-02-07 |AI與大數據
2024年採用AI軟體、工具和平台(包括生成式AI)的公司數量出現大幅增加,但也伴隨著許多擴展AI技術尚未「充分準備好」的擔憂。
生成式AI 模型在2025拉斯維加斯消費電子展(CES)大放異彩,可見AI模型對於科技業來說日益重要。隨著各家公司不斷探索AI的潛力,AI系統的可解釋性及對AI系統的信任,將是AI採用與負責任使用的關鍵推手。AI系統雖然功能強大,但往往像是「黑盒子」一樣,披著神祕的面紗。
許多AI技術創新者早就在關注「信任」這個話題,輝達(NVIDIA)執行長黃仁勳就是例子。他在2024年3月史丹佛經濟政策研究所舉行的AI會議上指出,建立對AI系統的信任,關鍵在於透明度與明確的指標。
他也特別強調領導層決策透明度,團隊共同使命,以及透過清楚溝通增進信心的重要性。這也適用於如何負責任地開發和採用AI,確保各個AI應用都能獲得信任。
人工智慧有著大幅增加經濟生產力,並在全世界推動正面社會改革的潛力。因此2024年採用AI軟體、工具和平台(包括生成式AI)的公司數量出現大幅增加並不令人感到意外。但也伴隨著許多擔憂。根據麥肯錫研究,91%的受訪者認為他們的組織對於安全和負責任地落實與擴展AI技術尚未「充分準備好」。
可解釋性AI──破除複雜的AI算法,增進AI工具使用者的信任
這種質疑並非毫無來由。生成式AI有機會提高生產力並推動創新,也會帶來新的風險,像是幻覺、不準確或有偏見的產出,可能衝擊人們對AI技術的信任。
事實上,信任是推動AI產品服務採用的基礎,許多組織開始了解到,AI的信任是建立在對AI軟體開發方法與產出的理解。在麥肯錫2024年AI報告中,40%的受訪者認為可解釋性是影響生成式AI採用的關鍵風險。然而,只有17%的人表示他們目前正在試圖緩解這項風險。
這個難題也引發增強「可解釋性AI」(explainable AI,簡稱XAI)的需求, 一種幫助組織理解這些系統的內部運作,並監控產出客觀性與準確性的新方法。 XAI可以解釋如黑盒子一般複雜的AI算法,從而增進AI工具使用者的信任與互動 ,也是AI解決方案從早期使用案例,部署到企業級大規模採用的關鍵步驟。
在不確定性的環境中進行投資,有意強化AI可解釋性的組織也必須考慮成本與效益,才能在缺乏完整資訊的情況下決定何時採取哪些行動。例如,美國新創公司Anthropic AI實驗室便賭上一把,因為他們認為對XAI的投資將會有所回報,並能在競爭激烈的基礎模型構建領域做出差異化。同時,各家企業也在努力滿足利益相關者與監管機構的要求。
隨著全球AI法規開始成形,XAI的需求也正在增加。愈來愈多組織開始尋求相關指導架構,幫助他們決定需要提供多大程度的可解釋性與模型相關資訊。歐盟AI法案就根據風險架構,設定各AI使用案例具體的透明度要求。以高風險AI系統為例(如履歷排名軟體等招募系統),各組織需要提供系統能力、限制、數據譜系以及其決策邏輯等相關資訊。
這也延伸幾個關鍵問題:各組織是否準備好提供這種程度的透明度?是否擁有必要的能力與技術?平台與創新者是否創建了可靠的測量方法?對此,可以把XAI想像成一套幫助人類理解AI模型為何做出某個預測,或生成特定內容的工具與做法,最終目標是確保這些產出內容品質高,不帶偏見、準確且無幻覺,因此需要在工具、人員和流程方面進行投資。
5應用,幫企業偵測AI風險
XAI仍處在從學術領域與實驗室走向實際應用的早期階段,但效益比想像中還更為具體。XAI可以在5個領域帶來投資回報:
➊緩解營運風險
XAI可以揭露AI模型如何處理數據和產生結果,提早識別並緩解偏見或不準確性等潛在問題,從而減少營運失敗與聲譽損害的風險。例如,金融服務業者在詐欺偵測工作中使用AI工具,但往往難以控制或理解AI系統的運作方式。考量到詐欺誤判的損害將導致潛在風險,可解釋性能幫助組織更好理解模型為何標註某些交易,並允許他們進行系統微調或加入更多人為監督。
❷ 合規與安全
XAI能確保AI系統符合特定產業、倫理與監管架構,減少違規罰款風險,維護品牌形象。例如,招募人員使用AI工具來篩選求職者,可解釋性能讓招募決策是根據相關標準且公平公正,避免偏見和歧視。
❸ 滾動式改善
XAI可以提供系統運作方式相關見解,推動針對性的調整與迭代,促進AI系統的持續改進,幫助開發者確保AI系統符合使用者與整體業務的期望。例如線上零售商使用可解釋性來改善推薦引擎,讓推薦內容更符合客戶偏好。
❹ 利益相關者對AI的信心
為了使AI系統能被理解,XAI把重點從模型技術運作轉移到模型使用者,透過以人為中心的方法幫助理解AI如何產出結果。例如,在醫療保健領域,AI系統常用於識別潛在疾病,XAI能幫助醫生更好理解這些模型的運作方式,從而建立信心並推動採用。
❺ 符合使用者採用期望
XAI能幫助組織監控模型產出是否符合使用者的期望。愈是符合期望,系統的採用度與滿意度就會更高,也能透過創新與變革管理帶動收入成長。
綜合上述,組織在考慮投資XAI以獲得回報時,首先必須了解不同利益相關者的各種需求,透過可解釋性的相關工作對齊銜接。不同的利益相關者、情況和後果需要不同類型的解釋和格式。例如,AI驅動的貸款核准系統與自動駕駛汽車在路口停車的方式,兩者所需的可解釋性水平不同;高風險場景(如癌症診斷)可能需要迅速提供精確的解釋,而推薦某家餐廳的理由則不需要同等的緊迫。
此外,可將AI可解釋性視為跨越鴻溝的橋梁,一邊是在學界和研究室研究和設計可解釋性技術的工程師和研究人員,另一邊是可能缺乏技術能力但仍需理解AI的最終使用者。在中間連接2個極端的是精通AI的人本主義者,轉譯研究人員和工程師開發的AI解釋,以回應各種利益相關者和使用者的需求和問題。這種新興人才將是設計適用於所有人的XAI的關鍵。
利益相關者的需求可以分為多種類型,每種類型都可從不同的技術和解釋中受益,例如,高層決策者需要對模型有足夠的理解和資訊,以對客戶和員工負責,特別是確保模型的行為符合組織的策略、品牌精神和價值觀。
為了滿足多樣化需求,XAI社群持續創建新的可解釋性技術,包括能讓AI模型決策過程更透明的算法。這些技術可根據利益相關者的意圖和目標進行分類,依照解釋產生的時間,分為在模型訓練之前或之後,以及全局或局部解釋範圍2大類:
第1類為「事後方法」,指在模型訓練後進行模型分析;與之相對的是「事前方法」,指本質上可解釋的模型,如決策樹。 舉例來說,當人力資源部門請求預測哪些員工的離職可能性較高時,決策樹可以清楚顯示基於工作滿意度、年資和工作量等因素,為什麼某些員工被標示為具離職風險。在這種情況下,事前解釋是AI模型及其運作方式與生俱來的特性。
相較之下,在醫療院所使用神經網絡預測糖尿病等疾病罹患風險的AI模型,則需要在結果生成後(即事後)提供解釋。最常見的是,模型透過運用SHAP或LIME等技術識別哪些因素(如年齡、生活方式或遺傳)對風險分數的影響最大,並確定風險評分是否準確無偏見。
第2類可區分為「全局解釋」和「局部解釋」。前者是幫助理解AI模型在所有情況的決策方式。 想像一家銀行使用AI模型來評估貸款申請,透過使用全局解釋工具(如生成布林規則列),銀行可以看到哪些因素(如收入、債務和信用評分)通常會影響其在所有客群的貸款審核決策。全局觀揭示模型在整個客戶群體所依循的模式或規則,使銀行能夠確認模型符合公平貸款的法規,並平等對待所有客戶。
相反地,局部解釋則專注於具體決策 。假設在醫療保健環境下,醫生使用AI協助診斷病患,透過局部解釋工具(如SHAP),醫生可以準確看到模型如何對特定患者預測某種疾病,例如顯示病患的年齡、病史等,精細程度能協助理解模型在個別案例中的推理,讓醫生對其建議能有更多信任,並在資訊更充足的情況下提供病人更個人化的醫療。
7步驟,創建跨職能XAI小隊
哪些技術適合用來獲取AI模型的解釋,取決於不同情境中的各類人員,因此組織在AI開發中嵌入可解釋性方法時,需要考慮下列步驟:
➊ 建立適當的XAI團隊
組織應建立真正的跨職能團隊,而其成員應包括數據科學家、AI工程師、領域專家、合規主管、法規專家及使用者體驗設計師。小組的多樣化能確保可解釋性的相關工作能有效解決技術、法律及使用者中心等問題。數據科學家和AI工程師專注於技術層面,而領域專家和設計師則提供針對特定情境的洞見,塑造解釋的內容與格式。
❷ 建立正確心態
XAI團隊應該由建設者組成,而非裁判員。團隊重點須放在加速創新,確保以正確的洞察來包裝所構建的產品或服務。因此,團隊需要在想法被塑造成概念構件的過程中就參與進來,而不是事後加入。早期參與還有助於在AI中建立以人為中心的工程文化,避免工程師和解釋者在下游發生衝突。
❸ 設定明確目標
針對每個利益相關者的角色,設定明確的AI可解釋性目標,確定需要解釋什麼、向誰解釋以及為什麼解釋。這需要訪談關鍵利益相關者與最終使用者,並了解他們的具體需求。建立明確的目標有助於選擇合適的技術與工具,並將其整合到構建計畫中。
❹ 制定行動計畫
建立內嵌策略,將可解釋性做法融入AI解決方案的設計,以及未來向不同利益相關者傳達解釋的溝通方式。前者可確保在整個AI生命周期都能採用可解釋性工具,而後者則有助於決定解釋的形式(視覺化、文本描述、互動儀表板)及所需的技術細節(針對高階主管提供概略摘要,而針對開發人員則需要詳細的技術報告),並確保解釋清晰、簡潔,方便受眾理解。
❺ 衡量與對標AI
可解釋性還需要大力推動行業透明度與標準化指標,不僅有助於提高使用者對AI系統的理解,也符合主管機關的期待。例如,Hugging Face對歐盟AI法案合規性的衡量與追蹤的標竿評比工作、COMPL-AI計畫致力評估及衡量模型透明度等,都是進一步促進問責的重要步驟。隨著這些框架逐漸成熟,也成為推進信任及負責任的AI作法的重要推手。
➏ 選擇或構建合適的工具
採用並整合符合組織需求和技術堆疊的可解釋性工具,目前廣泛被使用的工具包括開源算法,如LIME、SHAP、IBM的AI Explainability 360工具包、Google的What-If工具和Microsoft的InterpretM。組織必須確保XAI核心團隊隨時密切關注此領域的快速創新。
➐ 監控與迭代
持續監控可解釋性工作的有效性,並收集、運用利益相關者的回饋,來迭代和改進可解釋性流程,定期更新模型和解釋,以反映數據和業務環境的變化。
隨著企業日漸依賴AI驅動的決策,組織各階層也更需要AI的透明度與理解。無法建立對AI的信任度的企業將錯失為客戶及員工提供AI全部潛力的機會,最終將在競爭中節節敗退。
說到底,信任將是負責任採用AI的關鍵,也是連結改革性技術與人類使用者之間的橋梁,必須有強大的支柱支撐。以AI信任度而言,支柱指的是可解釋性、治理、資訊安全,並以人為中心,確保AI為人類服務,而不是人類為AI服務,也讓AI系統在尊重人類自主權和尊嚴的同時,為使用者提供真實的價值。