一本到不卡,一级做a爰片毛片视频,天天色影院,夜夜骑综合,欧美精品国产一区,国产黄网站高清免费观看在线视频,亚洲黄色小视频在线观看

法治號 手機版| 站內(nèi)搜索

網(wǎng)上有害信息舉報

生成式人工智能價值鏈行政監(jiān)管與侵權責任的匹配

2025-03-20 10:12:58 來源:法治日報-法治網(wǎng) -標準+

□ 謝堯雯

生成式人工智能技術系統(tǒng)基于價值鏈開展研發(fā)、生產(chǎn)、應用活動,牽涉多個主體的復雜互動且伴隨機器自主學習。從行為規(guī)制視角來看,行政監(jiān)管與侵權責任是約束價值鏈參與者行為的主要規(guī)制框架。法經(jīng)濟學方法以“事前觀點”審視侵權責任,即事后損害賠償構成對行為人事前行為的激勵。在此意義上,侵權賠償客觀上激勵了一般社會主體采取措施預防損害發(fā)生,促使侵權機制在一定程度上發(fā)揮了“設定行為標準、監(jiān)督與執(zhí)行行為標準”的規(guī)制功能。人工智能侵權與傳統(tǒng)侵權存在顯著區(qū)別,侵權責任的制度功能需要從個體救濟向公共治理傾斜。事實上,從工業(yè)化時代開始,侵權法就朝著責任分配方向發(fā)展,責任設置亦通常超越直接涉案主體,將社會保險、責任保險等制度納入分析框架。數(shù)字時代對這種責任分配轉變提出了更迫切的需求,這也表明侵權制度已不再是單純依賴個案救濟間接實現(xiàn)行為規(guī)制,而是通過責任分配直接承擔公共治理的職能。因此,尋求行政監(jiān)管與侵權責任在行為規(guī)制層面的匹配機制,對于人工智能規(guī)制設計至關重要。

人工智能價值鏈行政監(jiān)管與侵權責任的效率匹配框架

行政監(jiān)管的優(yōu)勢在于,監(jiān)管部門可以通過專業(yè)性知識、規(guī)?;O(jiān)控與多元執(zhí)法手段預防損害發(fā)生。但在某些情形下,制定行為標準所需的重要信息,是伴隨風險活動的開展而生成的附屬品,無法在活動發(fā)生前被監(jiān)管者感知并獲取。侵權責任的場景信息獲取優(yōu)勢對于人工智能效率規(guī)制至關重要。人工智能技術帶來的社會影響更多體現(xiàn)為變革知識生產(chǎn)方式、個體生活方式、社會交互交往形式等價值性影響。在價值多元與變動的社會中,科技與社會是協(xié)同發(fā)展的關系,事前規(guī)制性規(guī)則試圖通過特定節(jié)點的價值理念來約束技術發(fā)展,很容易隨著時間的推移而喪失其合理性。侵權責任待損害發(fā)生后進行回應,將更顯審慎性與針對性,減小了過度管制、扼制創(chuàng)新的風險。行政監(jiān)管制度設計需要明確其必要性與目標、限度,為侵權機制制定符合場景特征的最優(yōu)風險預防行為標準預留空間。由于價值鏈中的每一方參與者都有可能對最終結果產(chǎn)生一定程度的影響,事前監(jiān)管應當為價值鏈主體設定基礎行為義務,促使各主體形成秩序互動與協(xié)同治理,從而確保技術系統(tǒng)維系一定程度的安全與公正水平。

行政監(jiān)管的必要性與目的得以論證后,接下來的問題是——行政監(jiān)管對于侵權責任的作用是什么,二者如何構建銜接機制。規(guī)制性規(guī)范厘定了侵權責任的基礎框架,侵權機制依賴規(guī)制性規(guī)范設置的風險級別分配風險預防責任,而且違反規(guī)制性規(guī)范將構成侵權過錯責任中的過失。人工智能技術迭代速率日益增進,法院具有場景信息獲取的優(yōu)勢,但欠缺專業(yè)優(yōu)勢,難以在權衡技術發(fā)展的社會影響與預防措施成本的基礎上獨立判斷責任歸屬。其一,行政監(jiān)管規(guī)則應當成為界分過錯責任與無過錯責任的框架。有必要通過行政監(jiān)管來制定人工智能技術風險分級標準,侵權機制則依據(jù)風險級別設置無過錯責任與過錯責任。對于高風險人工智能系統(tǒng),采用無過錯責任可激勵技術研發(fā)者積極投入更多不可觀測的預防努力,以確保技術的安全與公正研發(fā),并通過影響行為量的方式逐步控制此類人工智能技術數(shù)量。對于低風險人工智能系統(tǒng),則適用過錯責任,以實現(xiàn)社會共同承擔技術發(fā)展的剩余風險,進而激發(fā)人工智能技術的創(chuàng)新活力。其二,以行政監(jiān)管規(guī)則框定侵權責任構成要件。具體行為標準規(guī)定價值鏈主體應當或禁止采用的技術標準或行為措施,違反該標準將被認定為存在過錯,績效標準與內(nèi)部管理型標準成為侵權責任鏈接政府監(jiān)管與行業(yè)自治的中介。

生成式人工智能價值鏈的行政監(jiān)管

將人工智能系統(tǒng)價值鏈劃分為研發(fā)、生產(chǎn)階段與應用階段,并根據(jù)不同階段特征為核心主體設置公法行為規(guī)范。行政監(jiān)管的核心目標是以核心主體為規(guī)制抓手,推動價值鏈參與者形成秩序互動、確保人工智能系統(tǒng)維系一定程度的安全水平。其一,研發(fā)與生產(chǎn)階段涉及將何種數(shù)據(jù)、算法、功能嵌入到人工智能系統(tǒng)中,行政監(jiān)管重點在于規(guī)范“算法影響評估程序”,確保人工智能系統(tǒng)嵌入公平、公正、透明等重要價值理念。其二,在人工智能應用階段,使用者能夠通過調(diào)適使用方式來減少事故發(fā)生概率,行政監(jiān)管規(guī)則發(fā)揮了關系建構作用,其通過影響使用者與人工智能系統(tǒng)的互動策略,形塑一種秩序化的人機關系。其三,人工智能價值鏈各環(huán)節(jié)緊密相連、互相影響,行政監(jiān)管需要建立信息共享機制,為核心主體履行義務提供必要支撐。

就生成式人工智能價值鏈行政監(jiān)管而言:其一,基礎模型提供者應當履行數(shù)據(jù)公平保障義務和系統(tǒng)安全保障義務。行政監(jiān)管應制定程序規(guī)則,通過規(guī)范內(nèi)部管理程序促使研發(fā)者將個人信息保護目標嵌入數(shù)據(jù)處理程序。在激勵相容監(jiān)管理念指引下,對普通基礎模型進行包容審慎監(jiān)管,并對達到一定規(guī)模者提出安全保障要求。其二,專業(yè)模型研發(fā)者應當履行算法影響評估義務。專業(yè)模型研發(fā)者基于特定應用目標訓練基礎模型,能夠感知人工智能系統(tǒng)的應用場景且控制用戶界面,對生成內(nèi)容進行了預先謀劃與控制。因此,從風險控制能力出發(fā),法律要求專業(yè)模型研發(fā)者開展影響評估符合效率目標。其三,生成式內(nèi)容服務提供者應當履行內(nèi)容管控義務。終端用戶的提問輸入行為與傳播使用行為對于促成損害結果至關重要。行政監(jiān)管應當規(guī)范終端使用者、內(nèi)容受眾與機器的交互方式,從而引導他們開展高效的風險預防行為。其四,行政監(jiān)管亦需要建立一定程度的透明機制,確保核心主體具有充足信息進行風險防控。就生成式人工智能系統(tǒng)而言,這種透明機制應當包括上游向下游傳達信息、下游向上游反饋信息。

生成式人工智能價值鏈行政監(jiān)管與侵權責任的銜接

應當按照價值鏈行政監(jiān)管的邏輯來設置侵權責任,依據(jù)研發(fā)生產(chǎn)環(huán)節(jié)與應用環(huán)節(jié)的區(qū)分,分別為人工智能系統(tǒng)提供者與使用者設定相應的產(chǎn)品責任和使用責任。為充分激勵生產(chǎn)研發(fā)階段的安全預防投入,一個更可行的路徑是,生成式人工智能服務提供者適用產(chǎn)品責任。生成式人工智能作為一種軟件,具有批量生產(chǎn)、規(guī)模銷售的特點,其是面向不特定用戶而非提供一對一定制化服務。同時,提供者能通過定價機制來分散風險,這與產(chǎn)品責任的制度目標相契合。

通過精細化的產(chǎn)品責任制度設計可以實現(xiàn)侵權責任與行政監(jiān)管的有序互動。設計缺陷的認定是生成式人工智能產(chǎn)品責任的難點,亦構成撬動侵權與監(jiān)管進行效率銜接的關鍵著力點。法院在判斷技術運行邏輯、技術的社會影響、技術的社會選擇方面存在專業(yè)弱勢,應當依賴行業(yè)知識形成多元主體技術共治。就此而言,法院在判斷生成式人工智能是否構成設計缺陷時,有必要在行政監(jiān)管規(guī)則框架下,綜合考慮行業(yè)自治因素。法院應當以行政監(jiān)管設置的抽象績效標準與內(nèi)部管理型標準為框架,在具體個案中判斷企業(yè)自我規(guī)制是否達到了合理注意要求。一方面,生成式人工智能研發(fā)實踐的重要特征是專業(yè)性,即依賴專業(yè)團體的知識與能力,因此相應的合理注意應當以專業(yè)團體的合理注意為標準。另一方面,現(xiàn)階段行業(yè)實踐在生成式人工智能研發(fā)的有效性、安全性、問責性、可解釋性、公平性等方面仍存在諸多分歧,在共識難以達成時,尊重現(xiàn)有技術水平下的不同實踐方法比確定單一合理標準更合適。評估自我規(guī)制是否完善的核心在于內(nèi)部管理程序是否規(guī)范,因此法院亦應當以程序為抓手,通過評估技術研發(fā)實踐所遵從的標準或行為守則的制定程序、技術研發(fā)的倫理審查程序、該實踐在行業(yè)內(nèi)的接受程度等,判斷不同實踐是否達到合理注意標準。同時,基于行政監(jiān)管確定的風險規(guī)制框架,對于達到一定規(guī)模的大模型研發(fā)以及應用于高風險領域的生成式人工智能服務提供者,法院應當適用更嚴格的缺陷判斷標準。

(原文刊載于《政法論壇》2025年第2期)  

編輯:梁婧