上海大學(xué)法學(xué)院袁曾在《法學(xué)雜志》2023年第4期上發(fā)表題為《生成式人工智能責任規(guī)制的法律問題研究》的文章中指出:
生成式人工智能的發(fā)展需要法律予以及時規(guī)制,以實現(xiàn)技術(shù)的發(fā)展可受控制?,F(xiàn)行人工智能的責任承擔規(guī)制以算法“可解釋”為核心要求,通過算法透明性、隱私保護以及分類分級監(jiān)管等配套機制構(gòu)筑了相應(yīng)治理范式。但在生成式人工智能規(guī)?;瘧?yīng)用以后,傳統(tǒng)以算法“可解釋”為規(guī)制核心的責任承擔機制已無法應(yīng)對新生產(chǎn)力工具帶來的顛覆性變化。生成式人工智能以大型語言模型為基礎(chǔ),通過深度學(xué)習(xí)自互聯(lián)網(wǎng)誕生以來全域范圍內(nèi)的海量數(shù)據(jù),演繹歸納形成符合邏輯的輸出內(nèi)容,其利用數(shù)據(jù)之廣泛、生產(chǎn)內(nèi)容之準確、算法迭代之迅猛、可利用范圍之寬廣,已非傳統(tǒng)人工智能可以匹敵。
正視技術(shù)迭代發(fā)展的現(xiàn)實,對生成式人工智能的治理需要由以“可解釋”為核心逐步轉(zhuǎn)向以“可控制”為核心的責任治理架構(gòu)。生成式人工智能“可控制”需要在給定目標的基礎(chǔ)上,就技術(shù)發(fā)展的邏輯,設(shè)定治理目標與范式,從基礎(chǔ)規(guī)則出發(fā)即介入控制,從起點至結(jié)果全流程介入干預(yù)人工智能的治理。生成式人工智能“可控制”是一項系統(tǒng)性工程,其機理是將技術(shù)發(fā)展的核心價值、底層邏輯、路徑規(guī)制、關(guān)鍵救濟等全過程始終掌握在人類手中。“可控制”的要求并非顛覆原有“可解釋”的要求與有價值經(jīng)驗,而是在“可解釋”的基礎(chǔ)上縱深發(fā)展人工智能可控的治理鏈條,延展控制的范圍、內(nèi)涵與方法。其核心是調(diào)整人工智能治理的責任規(guī)制重心,擴大“可控制”的責任調(diào)整范圍。以算法“可解釋”為核心的責任規(guī)制架構(gòu),可以涵蓋的調(diào)整范圍僅僅是生成式人工智能治理中的部分領(lǐng)域,需要按照“可控制”的基礎(chǔ)目標與終極價值,系統(tǒng)性重構(gòu)責任規(guī)制范圍,以技術(shù)的有效利用為主線,全部納入控制的范圍統(tǒng)一調(diào)整。
生成式人工智能事實上已在眾多領(lǐng)域替代了人類工作,在促進生產(chǎn)力水平提高的同時,也帶來了權(quán)益侵害、隱蔽犯罪、認知混亂等客觀風險。正視實際,發(fā)展可信向善的人工智能,需要按照生產(chǎn)力發(fā)展的規(guī)律適時調(diào)整生產(chǎn)關(guān)系,其關(guān)鍵在于根據(jù)“可控制”的責任規(guī)制總體要求,給予生成式人工智能各參與方以恰當?shù)呢熑螜C制與歸責路徑,及時監(jiān)督與修正預(yù)期外的重大風險,在技術(shù)進步與治理安全的綜合目標下形成準確的價值預(yù)期,在有效規(guī)避系統(tǒng)性風險的基礎(chǔ)上保護創(chuàng)新,促進技術(shù)的整體可控發(fā)展。
編輯:武卓立