《法治周末》記者 仇飛
4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱征求意見(jiàn)稿)公開(kāi)征求意見(jiàn)。作為首個(gè)針對(duì)生成式人工智能產(chǎn)業(yè)發(fā)布的規(guī)范性政策,征求意見(jiàn)稿在法學(xué)界引發(fā)熱議,法學(xué)學(xué)者們紛紛為搭建AIGC的法治架構(gòu)建言獻(xiàn)策。
廣東財(cái)經(jīng)大學(xué)法學(xué)院教授姚志偉:
內(nèi)容責(zé)任是否應(yīng)全由平臺(tái)方承擔(dān),有待研究
征求意見(jiàn)稿第五條對(duì)“提供者”施加了“內(nèi)容生產(chǎn)者”的責(zé)任。提供服務(wù)的平臺(tái)是重要的責(zé)任主體,監(jiān)管機(jī)構(gòu)對(duì)平臺(tái)進(jìn)行監(jiān)管,是必要的。不過(guò)在我看來(lái),人工智能內(nèi)容責(zé)任是否應(yīng)該全部加到平臺(tái)方,有待研究。
首先,“使用者”也可能要承擔(dān)人工智能內(nèi)容責(zé)任。例如,使用者故意突破“提供者”為生成式人工智能設(shè)置的安全防線,致使人工智能生成違法的內(nèi)容,這個(gè)責(zé)任通常不應(yīng)由“提供者”來(lái)承擔(dān)。其次,違法的生成內(nèi)容僅會(huì)傳遞給“使用者”,而對(duì)這些違法內(nèi)容進(jìn)行復(fù)制、發(fā)布、傳播往往是由人來(lái)完成的,這些行為的責(zé)任不應(yīng)由“提供者”來(lái)承擔(dān)。最后,“內(nèi)容生產(chǎn)者的責(zé)任”其實(shí)是一個(gè)比較模糊的概念,從字面上看,是創(chuàng)建內(nèi)容的一方承擔(dān)的責(zé)任,不僅包括內(nèi)容安全責(zé)任,還可能包括知識(shí)產(chǎn)權(quán)侵權(quán)、民事責(zé)任等應(yīng)該在民事法律體系框架內(nèi)解決的責(zé)任,不宜由部門規(guī)章進(jìn)行規(guī)制。
很多問(wèn)題是在發(fā)展中解決的,我國(guó)人工智能產(chǎn)業(yè)發(fā)展尚處于初期階段,與國(guó)外差距比較明顯,如同萬(wàn)里長(zhǎng)征第一步,還需要引導(dǎo)企業(yè)積極創(chuàng)新,迎頭趕上。正如征求意見(jiàn)稿第三條指出,國(guó)家支持人工智能技術(shù)創(chuàng)新,從促進(jìn)人工智能產(chǎn)業(yè)的發(fā)展和國(guó)際競(jìng)爭(zhēng)的角度出發(fā),如果企業(yè)責(zé)任過(guò)重,可能會(huì)抑制企業(yè)的創(chuàng)新熱情和技術(shù)進(jìn)步。
就此,可以考慮采取二元化的策略,對(duì)于危害到國(guó)家安全和重要公共安全的問(wèn)題,列出清晰的規(guī)則,明確法律責(zé)任和后果,劃定底線進(jìn)行監(jiān)管;而對(duì)于個(gè)人信息保護(hù)、知識(shí)產(chǎn)權(quán)侵權(quán)、人格權(quán)侵權(quán)問(wèn)題,則可以先觀察和等待。待產(chǎn)業(yè)實(shí)踐更成熟、可供參考的海外經(jīng)驗(yàn)更多的情況下,再進(jìn)一步進(jìn)行這部分的立法監(jiān)管也更可期。
鄭州大學(xué)法學(xué)院常務(wù)副院長(zhǎng)、教授沈開(kāi)舉:
對(duì)于虛假信息的監(jiān)管可重點(diǎn)從復(fù)制、傳播環(huán)節(jié)入手
征求意見(jiàn)稿第四條對(duì)人工智能生成內(nèi)容,要求“真實(shí)準(zhǔn)確”“防止生成虛假信息”。該條規(guī)定可能不太能符合人工智能技術(shù)實(shí)際情況,對(duì)人工智能技術(shù)的落地可能造成影響。人工智能并非一個(gè)全知全能不會(huì)出錯(cuò)的“百科全書(shū)”,不同行業(yè)、不同領(lǐng)域?qū)τ谡鎸?shí)性和準(zhǔn)確性的要求不盡相同,不少用戶也需要人工智能生成虛構(gòu)內(nèi)容幫助創(chuàng)意。
從目前對(duì)生成式人工智能技術(shù)的了解來(lái)看,即使是美國(guó)OpenAI公司的最先進(jìn)的GPT4模型,該公司的負(fù)責(zé)人也坦言,其仍然會(huì)產(chǎn)生幻覺(jué)、生成錯(cuò)誤答案,并會(huì)出現(xiàn)推理錯(cuò)誤。從技術(shù)角度講,當(dāng)前還不能完全避免生成不正確的信息,這是擺在眼前的客觀現(xiàn)實(shí)。
我國(guó)發(fā)展人工智能大模型,也不能逃脫這一客觀規(guī)律。如果要求內(nèi)容全部真實(shí)準(zhǔn)確,結(jié)果可能是沒(méi)有一款大模型能合規(guī)上市,這顯然不是監(jiān)管部門希望規(guī)制的目的。
那么對(duì)于虛假信息,到底應(yīng)該如何管?個(gè)人來(lái)看,立法和監(jiān)管可重點(diǎn)從復(fù)制、傳播環(huán)節(jié)入手。網(wǎng)絡(luò)安全法第十二條規(guī)定,任何個(gè)人和組織使用網(wǎng)絡(luò),不得編造、傳播虛假信息擾亂經(jīng)濟(jì)秩序和社會(huì)秩序。征求意見(jiàn)稿第四條的本意,應(yīng)該是防止上述行為,例如,違反新聞信息的管理要求,捏造傳播虛假新聞。對(duì)于正常的生成式人工智能技術(shù)輔助進(jìn)行虛構(gòu)文學(xué)藝術(shù)創(chuàng)作等,并不屬于監(jiān)管規(guī)制的本意范圍之列。
此前網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第六條,就較好體現(xiàn)了上述監(jiān)管思路:“深度合成服務(wù)提供者和使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息。轉(zhuǎn)載基于深度合成服務(wù)制作發(fā)布的新聞信息的,應(yīng)當(dāng)依法轉(zhuǎn)載互聯(lián)網(wǎng)新聞信息稿源單位發(fā)布的新聞信息?!?/p>
因此,重點(diǎn)對(duì)發(fā)布、傳播虛假新聞信息的環(huán)節(jié)進(jìn)行監(jiān)管,既符合技術(shù)發(fā)展的客觀規(guī)律,不至于把所有產(chǎn)品一棍子打死,也能取得更好的監(jiān)管效果。
中國(guó)政法大學(xué)傳播法研究中心副主任朱?。?/strong>
對(duì)AI生成的內(nèi)容加上標(biāo)識(shí)會(huì)影響文化作品的感官體驗(yàn)
整體上看,征求意見(jiàn)稿為我國(guó)生成式AI發(fā)展提供了新的遵循和指導(dǎo),與此同時(shí),從生成式AI產(chǎn)品的屬性、產(chǎn)業(yè)實(shí)際等情況出發(fā),期盼對(duì)征求意見(jiàn)稿部分細(xì)節(jié)作出進(jìn)一步完善。
比如征求意見(jiàn)稿第五條提出,“利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個(gè)人(即“提供者”),包括通過(guò)提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任”。
其實(shí)這一責(zé)任分配問(wèn)題很值得探討。鑒于生成式AI相關(guān)技術(shù)發(fā)展更新速度較快,但相關(guān)業(yè)務(wù)模式和落地應(yīng)用場(chǎng)景仍在構(gòu)建過(guò)程中,且“內(nèi)容生產(chǎn)者”的定性恐涉及知識(shí)產(chǎn)權(quán)歸屬分配等問(wèn)題,在產(chǎn)業(yè)發(fā)展的初級(jí)階段,建議不將相關(guān)產(chǎn)品服務(wù)提供者直接定性為“生成式人工智能產(chǎn)品生成內(nèi)容的生產(chǎn)者”,而是考慮通過(guò)定義為內(nèi)容管理者,同樣可以要求其承擔(dān)與其權(quán)利匹配的管理責(zé)任。
再如征求意見(jiàn)稿第十六條提出,“提供者應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對(duì)生成的圖片、視頻等內(nèi)容進(jìn)行標(biāo)識(shí)”。生成式AI其中的一個(gè)應(yīng)用場(chǎng)景即文化作品創(chuàng)作,可以設(shè)想,要求對(duì)AI生成的圖片與視頻加上標(biāo)識(shí),這必然會(huì)影響文化作品的感官體驗(yàn)。加強(qiáng)公眾法治教育,對(duì)不當(dāng)使用工具的人進(jìn)行懲戒,或許是更優(yōu)的舉措。
結(jié)合生成式AI產(chǎn)業(yè)界的呼聲來(lái)看,目前人工智能科技存在不可避免的薄弱環(huán)節(jié),而對(duì)技術(shù)提供方更包容的監(jiān)管條例,能夠更好引導(dǎo)并激勵(lì)科技進(jìn)步與產(chǎn)業(yè)發(fā)展。
縱觀中國(guó)網(wǎng)絡(luò)技術(shù)進(jìn)步和網(wǎng)絡(luò)產(chǎn)業(yè)勃興的三十年,也正是網(wǎng)絡(luò)法治建設(shè)始終堅(jiān)持創(chuàng)新引領(lǐng)的三十年。中國(guó)網(wǎng)絡(luò)法治的創(chuàng)新驅(qū)動(dòng)基因,在規(guī)范新技術(shù)新產(chǎn)業(yè)有序發(fā)展,有效維護(hù)網(wǎng)民合法權(quán)益的同時(shí),也不斷促進(jìn)了中國(guó)網(wǎng)絡(luò)技術(shù)和網(wǎng)絡(luò)經(jīng)濟(jì)的全面發(fā)展,為中國(guó)從網(wǎng)絡(luò)大國(guó)邁向網(wǎng)絡(luò)強(qiáng)國(guó)提供了有力保障。
當(dāng)前,生成式AI技術(shù)已關(guān)乎國(guó)際間科技實(shí)力的較量。中國(guó)企業(yè)需要更多政策支持,期待征求意見(jiàn)稿能更廣泛聽(tīng)取社會(huì)聲音,進(jìn)化成為更具前瞻性、支持性和實(shí)操性的規(guī)則體系,助力中國(guó)生成式AI高質(zhì)量發(fā)展。
北京外國(guó)語(yǔ)大學(xué)法學(xué)院副教授陳明濤:
對(duì)于生成式人工智能服務(wù)提供者可考慮采用避風(fēng)港機(jī)制
在規(guī)范的同時(shí),也要為新興產(chǎn)業(yè)經(jīng)濟(jì)活動(dòng)留出充足空間,比如征求意見(jiàn)稿第七條規(guī)定,生成式人工智能服務(wù)提供者用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù),不得含有侵犯知識(shí)產(chǎn)權(quán)的內(nèi)容。但對(duì)知識(shí)產(chǎn)權(quán)的侵權(quán)性判斷必須考慮到訓(xùn)練數(shù)量問(wèn)題。面對(duì)海量的訓(xùn)練數(shù)據(jù),生成式人工智能服務(wù)提供者是很難作出有效判斷的。
其實(shí),面對(duì)海量信息的審核難題,現(xiàn)有立法對(duì)網(wǎng)絡(luò)服務(wù)提供者會(huì)建立一種避風(fēng)港機(jī)制,即要求權(quán)利人發(fā)通知主張權(quán)利,從而降低審核難度。對(duì)于生成式人工智能服務(wù)提供者,也可以考慮采用類似制度。
北京大學(xué)法學(xué)院助理教授、牛津大學(xué)法學(xué)博士彭錞:
對(duì)用戶個(gè)人信息保護(hù)的規(guī)定細(xì)節(jié)還可進(jìn)一步優(yōu)化
征求意見(jiàn)稿釋放了一個(gè)特別明顯的訊號(hào),就是關(guān)注生成式人工智能的產(chǎn)品或服務(wù)對(duì)用戶個(gè)人信息的保護(hù),明確了服務(wù)提供者對(duì)用戶的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù),通過(guò)“三個(gè)不得”的規(guī)定,為用戶輸入信息的使用劃定了紅線,積極回應(yīng)了用戶在使用新興互聯(lián)網(wǎng)服務(wù)過(guò)程中對(duì)隱私安全和個(gè)人信息保護(hù)的關(guān)切。
當(dāng)然,在規(guī)定細(xì)節(jié)上還可以進(jìn)一步優(yōu)化,比如,“不得向他人提供用戶輸入信息”可能會(huì)抑制以可編程接口等方式接入第三方服務(wù)等現(xiàn)實(shí)業(yè)務(wù)需求,這種規(guī)定的目的是為了提供更好的用戶體驗(yàn),但也涉及第三方提供用戶輸入信息,故有必要設(shè)置相應(yīng)的例外情況。
北京航空航天大學(xué)計(jì)算機(jī)學(xué)院工業(yè)和信息化法治研究員周瑞玨:
并無(wú)強(qiáng)制規(guī)定實(shí)名制使用生成式人工智能服務(wù)的必要
征求意見(jiàn)稿第九條規(guī)定,提供生成式人工智能服務(wù)應(yīng)當(dāng)按照《中華人民共和國(guó)網(wǎng)絡(luò)安全法》規(guī)定,要求用戶提供真實(shí)身份信息。
根據(jù)網(wǎng)絡(luò)安全法的規(guī)定,為用戶提供信息發(fā)布、即時(shí)通訊等服務(wù),應(yīng)當(dāng)要求用戶提供真實(shí)身份信息。而生成式人工智能服務(wù),是用戶與機(jī)器之間,以輸入和輸出的方式實(shí)現(xiàn)的交互,不是人與人之間的即時(shí)通訊,也不涉及面向公眾的信息發(fā)布和傳播,因此不屬于“信息發(fā)布”或“即時(shí)通訊”服務(wù)。依照網(wǎng)絡(luò)安全法,實(shí)際是不需要提供真實(shí)身份信息的。
從立法目的來(lái)說(shuō),要求用戶提供真實(shí)身份信息,看似是一種安全保障,但實(shí)際上,用戶面對(duì)機(jī)器所作的“輸入”類似于檢索,即使一些用戶“輸入”的問(wèn)題不安全,也不能僅因?yàn)椤拜斎搿倍笃涑袚?dān)責(zé)任。所以并無(wú)強(qiáng)制規(guī)定實(shí)名制使用生成式人工智能服務(wù)的必要,可以考慮改為鼓勵(lì),以激勵(lì)更多用戶使用新的產(chǎn)品及服務(wù),不斷提升技術(shù)發(fā)展水平。
編輯:武卓立