作為其數字戰略的一部分,歐盟希望對人工智慧(AI)進行監管,以確保為開發和使用這項創新技術提供更好的條件。人工智慧可以創造許多好處,例如更好的醫療保健;更安全、更清潔的運輸;更高效的製造;以及更便宜、更可持續的能源。
2021年4月,歐盟委員會提出了第一個歐盟人工智慧監管框架。它說,可以用於不同應用的人工智慧系統根據它們對使用者構成的風險進行分析和分類。不同的風險水平將意味著或多或少的監管。一旦獲得批准,這些將成為世界上第一個關於人工智慧的規則。
詳細了解什麼是人工智慧及其使用方式
議會對人工智慧立法的要求
議會的首要任務是確保歐盟使用的人工智慧系統安全、透明、可追溯、非歧視和環保。人工智慧系統應該由人監督,而不是由自動化來監督,以防止有害後果。
議會還希望為人工智慧建立一個技術中立的統一定義,該定義可以應用於未來的人工智慧系統。
詳細瞭解議會在人工智慧方面的工作及其對人工智慧未來的願景
人工智慧法案:針對不同風險水準的不同規則
新規則根據人工智慧的風險水準為提供者和用戶規定了義務。雖然許多人工智慧系統構成的風險最小,但需要對其進行評估。
不可接受的風險
不可接受的風險 人工智慧系統被認為是對人類構成威脅的系統,將被禁止。它們包括:
對人或特定弱勢群體的認知行為操縱:例如,鼓勵兒童危險行為的聲控玩具
社會評分:根據行為、社會經濟地位或個人特徵對人進行分類
實時和遠端生物識別系統,如面部識別
一些例外情況可能被允許:例如,“後”遠端生物識別系統,在重大延遲後進行識別,將允許起訴嚴重犯罪,但只有在法院批准後。
高風險
對安全或基本權利產生負面影響的人工智慧系統將被視為高風險,將分為兩類:
1) 用於歐盟產品安全法規的產品中的人工智慧系統。這包括玩具、航空、汽車、醫療設備和電梯。
2)人工智慧系統分為八個特定領域,必須在歐盟資料庫中註冊:
自然人的生物特徵識別和分類
關鍵基礎設施的管理和運營
教育和職業培訓
就業、工人管理和自營職業
獲得和享受基本的私人服務以及公共服務和福利
執法
移民、庇護和邊境管制管理
協助法律解釋和法律適用。
所有高風險的人工智慧系統在投放市場之前以及整個生命週期都將接受評估。
生成式 AI
生成式人工智慧,如ChatGPT,必須遵守透明度要求:
披露內容是由 AI 生成的
設計模型以防止其生成非法內容
發佈用於培訓的受版權保護的數據摘要
風險有限
有限風險的人工智慧系統應遵守最低限度的透明度要求,使用戶能夠做出明智的決定。在與應用程式交互後,用戶可以決定是否要繼續使用它。使用者在與 AI 交互時應瞭解。這包括生成或處理圖像、音訊或視頻內容(例如深度偽造)的人工智慧系統。
後續步驟
2023 年 6 月 14 日,歐洲議會議員通過了議會關於《人工智慧法案》的談判立場。現在將開始與歐盟國家在理事會就法律的最終形式進行談判。
目標是在今年年底前達成協定。