NIST 透過 AI RMF 人工智慧風險管理框架解決人工智慧隱憂

商業組織與政府單位很快接受不斷擴展的各式人工智慧應用:自動化各種活動提升功能執行效率、重新調整購物建議、信用審核、影像處理、預測性告警等等。 人工智慧如同所有數位科技,可能遭受一連串傳統資安漏洞與隱私、偏見、不公與安全性疑慮等新興的隱憂所影響。美國國家標準與技術研究院(NIST)開發了一套自發性框架,以利善加管理人工智慧相關風險,此框架稱之為「人工智慧風險管理框架」(AI Risk Management Framework,AI RMF)。這個框架的目標是提升將可信度考量納入人工智慧產品、服務與系統的設計、開發、使用與評估的能力。 [ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球 CIO 同步獲取精華見解 ] NIST 希望 AI RMF 將能說明以人工智慧為基礎的系統所產生的風險何以異於其他範疇,鼓勵並且讓人工智慧領域眾多利益相關人具備目的性處理這些風險的能力。NIST 認為這個框架能用在比對合規性考量,超越框架涉及的內容,包括現有法規、法律或其他強制性準則。 即便人工智慧面臨的風險與其他 NIST 框架所涵蓋的差不多,但有些風險「落差」或概念仍是人工智慧獨有。這些落差正是 AI RMF 要解決的問題。

資料來源: https://www.cio.com.tw/nist-addresses-artificial-intelligence-concerns-through-ai-rmf-artificial-intelligence-risk-management-framework/

2022-11-30

Related posts