《生成式人工智慧服務管理暫行辦法》四大亮點解析

2023.07.24 黃榮楠 祁筠 馬欽奕 林泓嵐

一、概述

2023年7月13日,中國國家互聯網信息辦公室會(以下稱“網信辦”)等七部門聯合發佈了《生成式人工智慧服務管理暫行辦法》(以下稱“暫行辦法”),將於2023年8月15日正式生效實施。 暫行辦法在網信辦等七部門於2023年4月11日發佈的《生成式人工智慧服務管理辦法》(徵求意見稿)(以下稱“徵求意見稿”)的基礎上進行了部分修改,是中國首份生成式人工智慧的監管檔。 從首次公開徵求意見到暫行辦法正式發佈,僅經歷了短短三個月的時間,由此可見生成式人工智慧的飛速發展對法律監管的迫切要求。 此次修改體現了主管部門就尚處於高速發展的生成式人工智慧之審慎包容的立法態度,從政策層面為生成式人工智慧的合法合規發展提供支援,也為將來可能的《人工智慧法》的出臺奠定基礎。

本文擬從人工智慧的監管原則、開發階段主要義務、生成內容層面主要義務以及服務提供階段主要義務等四個修改亮點進行分析。

二、適用範圍

暫行辦法第二條明確了其規制主體為向“境內”“公眾”提供生成式人工智慧服務的主體,即將面向境外公眾、面向境外非公眾、面向境內非公眾提供服務的主體排除在外。 結合暫行辦法第二十條,來源於境外向境內提供生成式人工智慧服務的主體,也應受限於暫行辦法的相關規定。

相較於徵求意見稿,暫行辦法在適用範圍上規定了例外,即“行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等研發、應用生成式人工智慧技術,未向境內公眾提供生成式人工智慧服務的,不適用本辦法的規定”。 因此,如果接入生成式人工智慧技術僅用於內部研發或內部使用為目的、且未向境內公眾提供服務的,不受暫行辦法規制。 我們認為,以上例外規定體現了暫行辦法對新技術之包容、鼓勵的態度。

此外,暫行辦法還充分考慮了不同行業監管之特性,指出“從事新聞出版、影視製作、文藝創作等活動另有規定的,從其規定”。 我們理解,原則上新聞出版、影視製作、文藝創作等活動仍適用暫行辦法的規定,但後續新聞、廣電、電影、教育等主管部門將可能結合其行業監管的特性制定更有針對性的監管要求。

三、四大亮點解析

亮點一:確立包容審慎和分類分級監管原則

1)對生成式人工智慧服務確立包容審慎和分類分級監管原則

暫行辦法第三條指出,“對生成式人工智慧服務實行包容審慎和分類分級監管”。 但目前暫行辦法尚未就分類分級監管提出具體規則與判斷標準,暫行辦法第十六條明確要求國家有關主管部門“針對生成式人工智慧技術特點及其在有關行業和領域的服務應用,完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引”。

我們認為,由於生成式人工智慧技術在各行業的應用程度具有顯著差異,帶來的潛在風險等級也存在著不同,因而進行分類分級監管具有必要性。 例如在新聞出版業中,利用生成式人工智慧技術製造虛假新聞,一旦該等新聞被未經鑒別地大範圍傳播,將可能造成較大的不利影響。 歐盟《人工智慧法》(草案)將人工智慧應用場景分為最低風險(Low and Minimal Risk)、有限風險(Limited Risk)、高風險(High Risk)以及不可接受的風險(Unacceptable Risk)四個級別,並據此進行分級分類監管。

我們認為,未來中國也可能參照歐盟《人工智慧法》進行風險分類和分級管理。 現階段在分類分級監管尚未出臺前,企業可以考慮結合即將正式出臺的歐盟《人工智慧法》分級邏輯,結合行業、應用的場景以及覆蓋範圍等要素,管控提供和/或使用人工智慧服務過程中的風險。 特別是,對於其中高風險(High Risk)以及不可接受的風險(Unacceptable Risk)等級的場景,保持謹慎態度。

另外,我們理解中國的分級分類監管也將考慮中國的國情,在社會主義核心價值觀、社會公德、輿論屬性等方面投入更高的關注。

2)對提供者和消費者均提出了基本要求

暫行辦法第四條明確提出“提供和使用生成式人工智慧服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,遵守以下規定……”。 相較於徵求意見稿僅對人工智慧服務提供者(以下稱“提供者”)提出基本要求,暫行辦法將基本要求的義務主體範圍擴大至消費者。 這個修訂有利於劃分提供者和使用者的責任。 在生成式人工智慧服務提供者所提供的服務符合暫行辦法等相關法律法規要求的情況下,消費者利用技術從事違法違規行為所造成的損害後果,應當由其自身承擔。

例如,在以ChatGPT為首的聊天智慧模型在市場上進行流行後,由於此類聊天智慧模型在訓練和反覆運算中無法確保每一次都能準確識別出人類的有意誘導,其所輸出的內容也無法實現全方位的人工核查,因此中國內出現了不少使用ChatGPT模仿新聞格式、撰寫虛假新聞的案例。 此時消費者如違反了暫行辦法第四條的禁止性規定,生成“虛假有害資訊”,則使用者應當承擔相應的法律責任。 提供者雖免於承擔上述由消費者造成的損害後果,但按照暫行辦法第十四條的規定,提供者發現消費者利用生成式人工智慧服務從事違法活動的,仍負有“依法依約採取警示、限制功能、暫停或者終止向其提供服務等處置措施,保存有關記錄,並向有關主管部門報告”的義務。

3)凸顯對未成年人的保護

暫行辦法第十條就未成年人這一特殊使用主體要求提供者履行更高的保護義務,要求其“採取有效措施防範未成年人使用者過度依賴或者沉迷生成式人工智慧服務”。 由於生成式人工智慧技術所依賴的數據來源較為複雜、對數據進行追溯也較為困難,因此提供者往往難以100%確保數據的真實性與準確性。 而未成年人相較成年人而言對數據、生成內容的辨別能力較弱,暫行辦法要求對未成年人提供特殊保護具有合理性。

但暫行辦法未就“有效措施”做出明確的規定。 參照《未成年人保護法》以及《關於進一步嚴格管理 切實防止未成年人沉迷網路遊戲的通知》等規定,可從以下幾方面對未成年人進行保護:一是加強時間管理,根據未成年人社交、場合、用途設置合理和適度的生成式人工智慧產品或服務使用時間,落實防沉迷要求; 二是加強許可權管理,加強實名登記,設立檢查年齡的驗證機制; 三是加強適齡及風險提示,對生成式人工智慧產品進行分類並作出提示,防止未成年人接觸不適宜的產品或者服務; 四是加強投訴舉報處理機制,積極處理使用者反饋的不適宜未成年人內容及產品。

亮點二:明確了人工智慧開發階段的主要義務

1)明確訓練數據使用的要求

生成式人工智慧若想盡可能提高產出結果的準確性,不可避免地需要進行大量的數據訓練。 暫行辦法就生成式人工智慧數據訓練提出了具體的合規要求,第四條第三款要求提供者“尊重智慧財產權、商業道德,保守商業秘密……“,第七條要求提供者”依法開展預訓練、優化訓練等訓練數據處理活動,遵守以下規定:使用具有合法來源的數據和基礎模型“、”涉及智慧財產權的,不得侵害他人依法享有的智慧財產權“、”涉及個人資訊的,應當取得個人同意或者符合法律、行政法規規定的其他情形“”採取有效措施提高訓練數據品質,增強訓練數據的真實性、準確性、客觀性、多樣性“以及”遵守其他有關規定和有關主管部門的相關監管要求」。 此外,暫行辦法還就數據訓練提出了政策鼓勵措施,要求推動“生成式人工智慧基礎設施和公共訓練數據資源平台建設”以及“公共數據分類分級有序開放”。

上述條款要求訓練數據有合法來源,不能侵權,但在現實中如何落地執行,則仍需要進一步探討。 以著作權為例,由於數據訓練庫中的數據往往包含受著作權法保護的內容,因此如何利用該等內容進行數據訓練? 是否都需要獲得權利人的明確授權? 這是一個在實踐中很有操作難度的問題。 具體而言,我們認為需要基於以下角度理解訓練階段的著作權法風險:

從訓練內容角度,暫行辦法明確不得侵害他人“依法享有的智慧財產權”,這就排除了不受智慧財產權保護的內容,如單純的事實消息、不具有獨創性的內容等。 生成式人工智慧開發者使用上述數據集進行數據訓練並不涉及對權利人智慧財產權的侵犯。 儘管如此,相關數據/內容仍可能受《反不正當競爭法》《個人信息保護法》等其他法律法規的保護。

從行為角度,需要分別從內容獲取階段、內容輸入階段及內容輸出階段評估具體的著作權法項下行為。 以首例生成式人工智慧數據訓練版權侵權案1(Getty Images訴Stability AI)為例,在該案中,原告認為被告未經權利人許可,獲取與利用版權作品作為Stable Diffusion的訓練圖像,侵犯了其就圖像所享有的版權。 Stable Diffusion模型對版權作品的利用可分為兩個階段,一是生成式人工智慧模型內容輸入階段,二是生成式人工智慧模型內容輸出階段。 在內容輸入階段,需將權利人的圖像作品進行複製,落入複製權的規制範圍。 而在內容輸出階段,若生成式人工智慧經過處理後所生成的內容與原作品在表達上構成「實質性相似」,則仍落入複製權的規制範圍。 即使不構成「實質性相似」 而屬於在保留原作品基礎表達的前提下形成了新的表達,則可能受改編權的規制。 另外,根據我們處理類似項目的經驗,訓練數據獲取階段也可能涉及著作權侵權風險,如未經權利人許可,故意避開或破壞權利人設定的技術措施,抓取他人享有著作權的作品,也同樣可能構成《著作權法》侵權。 該不適當的內容抓取行為還可能引發不正當競爭風險,甚至涉嫌破壞計算機信息系統罪等刑事風險。

從豁免情形角度,應判斷上述利用作品的行為是否構成「合理使用」。 美國《版權法》對合理使用的判斷遵循“四要素分析法”,即作品新用途的目的和性質,是否對原作品進行轉化、受版權保護的原作品性質、新作品中使用原作品的數量和實質性、以及作品新用途是否破壞了原作品的價值和市場。 實際上,人工智慧使用作品作為訓練數據是否屬於「轉換性使用」存在很大爭議,且人工智慧所生成的內容很大程度上擠佔了被利用作品的原有市場,已經引起原作品著作權人的強烈不滿。 而中國現行《著作權法》關於合理使用的規定,能適用於生成式人工智慧的情形主要有三個,即“個人使用”、“適當引用”、“科學研究”。 由於目前生成式人工智慧模型最終系針對不特定主體的商業性服務,不符合「個人使用」之目的; 而「適當引用」的適用前提為「介紹、評論某一作品或者說明某一問題」,也與生成式人工智慧的商業化應用不相符; “科學研究”要求在“學校課堂教學或者科學研究”範圍內使用,且“少量複製”的要求明顯與數據訓練所需要的海量數據存在著矛盾。 因此,生成式人工智慧使用作品作為數據訓練可能難以滿足「合理使用」的要求,人工智慧開發者進行數據訓練仍建議獲得訓練數據所涉權利人的授權。 儘管如此,目前傳統的作品事前授權模式在生成式人工智慧領域或許難以適用。 由於部分原始數據的體量巨大、權屬複雜,要求服務提供者在將上述數據用於數據訓練前就獲得權利人的事先許可,將導致獲得授權的過程過於漫長,最終可能的結果便是人工智慧僅能就少量的獲得授權的數據進行訓練,引發演算法模型偏見等後果。

鑒於上述,從著作權法角度,我們建議生成式人工智慧開發者、提供者:

a) 對用於數據訓練的原始數據進行分類,確定需要獲得授權的數據及所需獲得的權利(結合後續的使用方式)。 如已經處於公共領域的內容,屬於無需獲得著作權授權的數據類型(但仍可能涉及其他權利); 尚在保護期內的作品,則屬於需要獲得著作權人授權的數據類型;

b) 從內容獲取階段、內容輸入階段及內容輸出階段三個階段評估自身行為的合法性及風險等級;

c) 從便捷性角度考慮,可與擁有龐大的資料庫/知識庫的經營者達成合作協定,並審查合作協定中的權利保證等條款;

d) 對資料庫/知識庫內容的權利歸屬及授權鏈文件進行分類審查、抽查,合規排摸,以確保使用該等內容進行人工智慧訓練未超出授權範圍;

e) 推動公共訓練數據資源平台建設。 暫行辦法鼓勵公共訓練數據資源平台的建設,提供者可以關注並積極推動該平臺的建成。

2)明確數據標註要求

《互聯網資訊服務深度合成管理規定》(以下稱“《深度合成規定》”)原則性地提及了要加強訓練數據的管理,保障訓練數據的安全。 暫行辦法第八條則對數據訓練作出了更為細化的規定,包括訓練數據標註規則和標註人員的要求,即生成式人工智慧服務提供者應制定符合本辦法要求的清晰、具體、可操作的標註規則; 開展數據標註質量評估,抽樣核驗標註內容的準確性; 對標註人員進行必要培訓,提升尊法守法意識,監督指導標註人員規範開展標註工作”

數據標註把需要計算機識別和分辨的圖片事先打上標籤,讓計算機不斷地識別這些圖片的特徵,最終實現計算機能夠自主識別。 2因此數據標註的精確度在一定程度上決定了人工智慧的智慧程度,暫行辦法就數據標註所作出的具體規則有利於提高生成式人工智慧的智慧程度,進而增強訓練數據的“準確性”。

3)安全評估與備案

暫行辦法第十七條就生成式人工智慧服務提供者的安全評估開展以及備案進行了規定。 此前徵求意見稿曾要求生成式人工智慧服務提供者在對外提供服務前,均需按照《具有輿論屬性或社會動員能力的互聯網資訊服務安全評估規定》向國家網信部門申報安全評估,並按照《互聯網資訊服務演演算法推薦管理規定》履行演算法備案和變更、註銷備案手續。 暫行辦法對上述規定作出了較大的調整,明確僅「具有輿論屬性或者社會動員能力的」提供者應當開展安全評估,並履行演算法備案手續,與《互聯網資訊服務演算法推薦管理規定》以及《深度合成規定》保持一致。

亮點三:創設了人工智慧網路資訊生成內容的責任主體

1)網路資訊生成內容的責任主體

暫行辦法第九條明確了人工智慧網路資訊生成內容的責任主體,規定“提供者應當依法承擔網路資訊內容生產者責任,履行網路資訊安全義務”。 此前徵求意見稿第五條曾要求人工智慧服務提供者承擔「內容生產者」的責任,該規定意味著提供者應承擔智慧財產權侵權、人格權侵權、個人信息侵權等一系列責任。 而暫行辦法則將「內容生產者責任」改為了「網路資訊內容生產者責任」,並在其後增加了「履行網路資訊安全義務」,是否意味著暫行辦法將服務提供者的義務範圍限縮至「網路資訊安全」內,將有待進一步解釋。

另外,服務提供者還負有與使用者簽訂服務協定明確雙方權利義務,“警示”、“限制功能”以及“保存記錄”和“報告”的義務等。

儘管如此,由於生成式人工智慧使用場景多元,而該條款所明確的網路資訊安全義務不足以涵蓋提供者的所有義務,我們建議:

a) 在多個身份重合時,考慮不同身份下應當承擔的義務及責任,進行獨立評估。 例如,生成式服務提供者通常也是著作權法下的網路服務提供者,需要評估其是否構成對侵權內容的「明知」或「應知」; 又如,生成式服務提供者同時又是廣告發行者時,需要考慮廣告發佈者的義務,對生成的廣告內容盡到審核義務;

b) 當存在多個服務主體時,則應當通過協議、平台規則等方式明確各自的責任劃分;

c) 明確不同場景下人工智慧服務提供者和使用者的責任劃分。 如在涉及侵權的內容系由消費者提供的情況下,應當由消費者承擔內容侵權責任,但服務提供者也應盡到“警示”、“限制功能”以及“保存記錄”和“報告”等義務。

亮點四:規定了提供者在提供人工智慧服務中的義務

1)服務協定的制定

暫行辦法第九條第二款要求“提供者應當與註冊其服務的生成式人工智慧服務使用者簽訂服務協議,明確雙方權利義務”。 自從以ChatGPT為代表的生成式人工智慧模型「爆火」後,中國內各界的關注重點即在於人工智慧輸出的內容權利歸屬何方以及侵權責任劃分問題。 目前不少生成式人工智慧模型即在服務協定中就生成內容的權利歸屬、提供者與消費者的責任劃分、免責條款等進行約定,以避免潛在的爭議。

2) 消費者輸入資訊的保密義務

暫行辦法第十一條規定了人工智慧服務提供者不得收集非必要資訊和不得“非法”向他人提供使用者的輸入資訊和使用記錄。 消費者在生成式人工智慧產品中輸入的內容可能涉及個人隱私或者商業秘密,若被人工智慧服務提供者非法對外提供,則可能導致隱私或者商業秘密洩露。 即便提供者未將上述資訊提供給第三方,若該等資訊被作為訓練數據用於訓練人工智慧模型,也可能出現在其他消費者向人工智慧模型輸入特定指令後,上述涉密資訊被輸出的情況。 因此,目前有不少生成式人工智慧模型就輸入資訊可否用於模型的再訓練在服務協定中進行了約定。

如OpenAI在《使用條款》中明確指出不會使用使用者提供的API內容來開發或改進其服務,即不會將使用者輸入的內容進行再訓練。 該等條款安排在一定程度上也能夠避免使用者和OpenAI對於內容權利歸屬引發爭議,也避免了在數據訓練階段洩露使用者輸入內容的問題。

3)生成內容的標識

暫行辦法第十二條規定了人工智慧服務提供者的強制性標識義務,即“提供者應當按照《互聯網資訊服務深度合成管理規定》對圖片、視頻等生成內容進行標識”。 參照《深度合成規定》的規定,人工智慧服務提供者的標識分為兩類,一是使發佈、傳播的人工智慧生成的資訊內容可被自身識別、追溯的標識,該類標識有利於服務提供者對其製作生成的內容予以追蹤,在爭議發生時或其他需要確定人工智慧生成資訊來源時能夠找到源頭。 二是以顯著方式對社會公眾有效提示資訊內容的標識,此類標識是為了提示公眾該資訊是通過人工智慧生成的方式得到的,提示公眾注意該等內容的真實性與準確性。

需要注意的是,由於目前中國著作權法下“創作”主體仍應為自然人,人工智慧無法成為作品的作者,因此強制性標識不應被視為類似於著作權法項下“作者”的標註,而僅起到追溯以及提示的作用。 被標註的內容是否屬於著作權法項下的作品,仍需要根據該內容的具體創作過程進行判斷,即人類是否實質性參與了人工智慧的創作過程,內容是否體現了人類的獨創性表達或個性化選擇、判斷及技巧等。 因此也不宜因標註了人工智慧資訊就直接否認生成物的作品屬性。

  1. 處理與罰則

1)提供者對違法內容/行為的處理義務

暫行辦法第十四、十五條為人工智慧服務提供者設置了違法內容/行為的處理義務。 此前徵求意見稿中關於提供者一旦發現網路炒作、惡意發帖跟評、製造垃圾郵件、編寫惡意軟體必須暫停或終止服務的規定,被修改為可以採取“警示、限制功能、暫停或者終止向其提供服務”等處置措施,在一定程度上給予提供者一定的自由裁量權。 此外,提供者還應當建立健全「投訴、舉報機制,設置便捷的投訴、舉報入口,公佈處理流程和反饋時限,及時受理、處理公眾投訴舉報並反饋處理結果」。

2)應對檢查

暫行辦法第十九條明確了人工智慧服務提供者應配合有關主管部門對生成式人工智慧服務開展的監督檢查,即“按要求對訓練數據來源、規模、類型、標注規則、演演算法機制機理等予以說明,並提供必要的技術、數據等支持和協助”。 該數據披露義務是暫行辦法第十一條的例外規定。

四、值得進一步關注的內容

  1. 無包容審慎和分類分級的具體方案

暫行辦法確立了包容審慎和分類分級的監管原則,但目前尚缺乏具體的落地方案,有待主管部門進一步明確。 如前文所述,分類分級監管原則可以參考歐盟《人工智慧法》(草案),生成式人工智慧服務提供者可參考草案的標準進行合規評估。

  1. 特殊行業的特殊要求

暫行辦法充分考慮了特殊行業的特殊要求,指出「從事新聞出版、影視製作、文藝創作等活動另有規定的,從其規定」。。 以部門為分類的監管方式,能更有針對性地制定具體的監管措施和指導方針,有待主管部門出臺具體的行業規範。

  1. 公共數據的分類分級開放

暫行辦法提出「推動公共數據分類分級有序開放,擴展高品質的公共訓練數據資源」。。 但暫行辦法並未明確就何為公共數據、如何分類分級及開放進程等作出具體規定,仍有待未來進一步明確。

資料來源:https://www.junhe.com/law-reviews/2226

Related posts