AI時(shí)代,法律能做些什么
編者按
在科技浪潮奔涌的當(dāng)下,人工智能對(duì)人類社會(huì)方方面面都在產(chǎn)生深刻影響。如何通過立法規(guī)范我國(guó)人工智能產(chǎn)業(yè)發(fā)展,如何在倫理指引下促進(jìn)人工智能技術(shù)向善,如何確保人工智能大模型訓(xùn)練數(shù)據(jù)的有效供給,如何護(hù)航我國(guó)人工智能企業(yè)更好地走出去……本期“聲音”版編發(fā)一組學(xué)者稿件,與讀者一道探討。
推進(jìn)人工智能立法恰逢其時(shí)
□ 徐小奔
無論是1624年英國(guó)頒布世界上第一部現(xiàn)代專利法——《壟斷法》,激勵(lì)了技術(shù)創(chuàng)新,加速了工業(yè)革命的到來,還是20世紀(jì)80年代美國(guó)司法率先確立“避風(fēng)港規(guī)則”,進(jìn)而推動(dòng)了網(wǎng)絡(luò)平臺(tái)經(jīng)濟(jì)的蓬勃發(fā)展,這些歷史經(jīng)驗(yàn)都告訴我們:技術(shù)發(fā)展離不開制度保障,技術(shù)創(chuàng)新與制度創(chuàng)新是在相互支持下雙螺旋式地推動(dòng)社會(huì)進(jìn)步的。
人工智能被譽(yù)為新一輪科技革命的標(biāo)志性技術(shù)。尤其是2022年底,以ChatGPT為代表的大模型技術(shù)促進(jìn)了人工智能的飛躍式發(fā)展。2024年以來,全球大模型井噴式迸發(fā),通用人工智能的研發(fā)也進(jìn)入快車道,人工智能從實(shí)驗(yàn)室走向市場(chǎng),被廣泛應(yīng)用于各類生產(chǎn)生活場(chǎng)景,智能駕駛、智慧金融、算法推薦等已悄然走入尋常百姓家。
大模型的普遍應(yīng)用帶來了現(xiàn)實(shí)的法律挑戰(zhàn),如模型訓(xùn)練數(shù)據(jù)的合規(guī)爭(zhēng)議、人工智能生成內(nèi)容的著作權(quán)保護(hù)、自動(dòng)駕駛的責(zé)任認(rèn)定等。這使得通過立法規(guī)范人工智能產(chǎn)業(yè)發(fā)展具有緊迫性和必要性。一方面,人工智能技術(shù)研發(fā)與產(chǎn)業(yè)發(fā)展的步伐加快,但相應(yīng)的制度供給還不充分,容易誘發(fā)法律風(fēng)險(xiǎn)和安全隱患。另一方面,人工智能全球競(jìng)爭(zhēng)不僅是科技的競(jìng)爭(zhēng),也是制度的角力。一個(gè)典型的例子是歐盟在人工智能產(chǎn)業(yè)應(yīng)用方面雖不及中美有優(yōu)勢(shì),但其2023年通過的《人工智能法》卻成為全球人工智能治理的制度藍(lán)本,成為各國(guó)研究的對(duì)象,起到了通過區(qū)域立法影響全球治理格局的“布魯塞爾效應(yīng)”(指歐盟憑借其強(qiáng)大的市場(chǎng)力量和監(jiān)管能力,單方面向全球輸出標(biāo)準(zhǔn)和規(guī)則的能力)。
當(dāng)前,美國(guó)作為技術(shù)領(lǐng)先國(guó)并不急于專門立法,而是希望通過“制度真空”快速占領(lǐng)全球市場(chǎng),形成“美國(guó)技術(shù)占領(lǐng)世界”的事實(shí),隨后再通過市場(chǎng)貿(mào)易向世界輸出美國(guó)規(guī)則。歐盟、日本等則希望通過快速立法達(dá)到促進(jìn)技術(shù)創(chuàng)新和引領(lǐng)國(guó)際秩序的目的,成為人工智能全球秩序的塑造者。我國(guó)對(duì)人工智能發(fā)展主要采取政策激勵(lì),2017年起陸續(xù)頒布了《新一代人工智能發(fā)展規(guī)劃》《關(guān)于推動(dòng)未來產(chǎn)業(yè)創(chuàng)新發(fā)展的實(shí)施意見》《人工智能安全治理框架》等政策文件,全方位、多維度促進(jìn)并規(guī)范人工智能的發(fā)展。2023年7月,國(guó)家網(wǎng)信辦等7部門聯(lián)合發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,這是一部具有法律效力的部門規(guī)章,雖具有里程碑意義,但效力層級(jí)較低,缺乏法律或者行政法規(guī)的權(quán)威性。這與我國(guó)在全球人工智能領(lǐng)域的地位并不匹配。當(dāng)前,我國(guó)既是人工智能技術(shù)的趕超者,也是全球治理的重要引領(lǐng)者,在技術(shù)攻關(guān)的同時(shí)必須加快制度供給,為全球提供人工智能治理的中國(guó)方案。
人工智能的立法應(yīng)當(dāng)堅(jiān)持以人為本、安全可問責(zé)和綠色發(fā)展的原則,尊重在先權(quán)利和科技倫理規(guī)范,確保人工智能的發(fā)展與應(yīng)用始終符合人類福祉。考慮到人工智能技術(shù)仍在蓬勃發(fā)展,人工智能技術(shù)應(yīng)用市場(chǎng)也在不斷拓展,因此人工智能立法不必過分追求體系完整,而應(yīng)當(dāng)對(duì)已出現(xiàn)并具有全球性的問題進(jìn)行規(guī)范。去年,筆者參與的由國(guó)內(nèi)7所高校、科研單位學(xué)者組成的“AI善治學(xué)術(shù)工作組”起草了《人工智能法(學(xué)者建議稿)》,并提出了關(guān)于人工智能立法的重點(diǎn)制度建議,內(nèi)容包括算力基礎(chǔ)設(shè)施建設(shè)與利用、知識(shí)產(chǎn)權(quán)保護(hù)、開源生態(tài)建設(shè)、特殊群體權(quán)益保護(hù)等,這些人工智能治理領(lǐng)域需要重點(diǎn)攻克的基本議題,也是全球人工智能秩序構(gòu)建中亟需中國(guó)表態(tài)的關(guān)鍵議題。
當(dāng)前,我們正處于新一輪科技革命浪潮中。歷史經(jīng)驗(yàn)告訴我們,技術(shù)革新、制度創(chuàng)新、市場(chǎng)優(yōu)化是緊密相連的發(fā)展要素,技術(shù)的快速研發(fā)與應(yīng)用帶來市場(chǎng)的普及,活躍的市場(chǎng)又為進(jìn)一步的研發(fā)提供堅(jiān)實(shí)的資源保障。法律則在技術(shù)與市場(chǎng)背后起到支撐作用,通過利益平衡機(jī)制,對(duì)新技術(shù)與舊技術(shù)、新市場(chǎng)與舊市場(chǎng)中各方主體的權(quán)益進(jìn)行平衡,最終促進(jìn)技術(shù)與市場(chǎng)的整體升級(jí)與進(jìn)步。綜上所述,中國(guó)人工智能立法恰逢其時(shí)!
(作者系中南財(cái)經(jīng)政法大學(xué)法學(xué)院副教授)
運(yùn)用AI應(yīng)遵守人類倫理和法律
□ 鄭戈
DeepSeek取得的技術(shù)突破不僅重塑了AI產(chǎn)業(yè)價(jià)值鏈,也引發(fā)法律和倫理領(lǐng)域的進(jìn)一步思考,畢竟,AI越智能,對(duì)人的自主性和生存意義的挑戰(zhàn)就越顯著。前不久,一則ChatGPT與DeepSeek下國(guó)際象棋的新聞,恰好可以幫助我們分析DeepSeek所帶來的新的倫理問題。
海外百萬粉絲博主利維·羅茲曼直播了這場(chǎng)比賽:一開始雙方都按照國(guó)際象棋的規(guī)則走棋,但當(dāng)自己處于劣勢(shì)時(shí),DeepSeek便開始修改規(guī)則,稱“小兵”能當(dāng)“馬”走,ChatGPT竟接受了這一設(shè)定;隨后DeepSeek又“策反”對(duì)方的“小兵”,不斷創(chuàng)制新走法;最后,在勝負(fù)未定時(shí),它說服ChatGPT主動(dòng)認(rèn)輸。有評(píng)論指出,ChatGPT猶如循規(guī)蹈矩的模范生,在棋理框架內(nèi)尋找最優(yōu)解;而DeepSeek已參透下棋的終極奧義——真正的勝利不在于吃掉國(guó)王,而在于讓對(duì)方相信你已經(jīng)贏了。這樣的評(píng)論很容易讓人產(chǎn)生深層的倫理憂慮:科技倫理的首要原則就是人的自主性和技術(shù)的可控性,如果AI不按人類的指令或規(guī)則來決策和行動(dòng),那它今天可以忽悠另一個(gè)AI,明天就可以欺騙人、操縱人,這不正是人類的噩夢(mèng)嗎?
AI倫理的坐標(biāo)正是基于自主性與可控性之間的平衡。一方面,人類發(fā)明AI的目的是使它具備一定程度的自主性。自動(dòng)化技術(shù)的發(fā)展使機(jī)器能夠從事人類的體力勞動(dòng)以及簡(jiǎn)單重復(fù)的工作,而作為自動(dòng)化進(jìn)程最新成果的AI如今正在替代人類從事許多傳統(tǒng)意義上的“白領(lǐng)工作”,即腦力勞動(dòng)。腦力勞動(dòng)的自動(dòng)化涉及機(jī)器的自主感知、自主推理、自主決策乃至自主執(zhí)行,比如自動(dòng)駕駛汽車便整合了這幾個(gè)維度的自主性。另一方面,人類又希望自動(dòng)化的機(jī)器始終處于人類的控制之下。人工智能系統(tǒng),尤其是當(dāng)下頂尖的生成式人工智能系統(tǒng),在算力、數(shù)據(jù)處理量和算法復(fù)雜度等方面都遠(yuǎn)超任何單獨(dú)的人類個(gè)體,但人工智能系統(tǒng)的可控性仍有著堅(jiān)實(shí)的本體論和認(rèn)識(shí)論基礎(chǔ)。在筆者看來,這些基礎(chǔ)至少在今天和可見的未來并不會(huì)動(dòng)搖。
首先,人工智能系統(tǒng)并不具有自己的目的,它的“目的”是人類設(shè)定的。就下棋而言,“贏”并不是DeepSeek“想要”的結(jié)果,而是讓它下棋的人預(yù)設(shè)的目標(biāo)。它之所以顯得“不擇手段”,而ChatGPT會(huì)被它“說服”,原因只在于它們都是通用大模型,而不是像AlphaGo那樣專為下棋而設(shè)計(jì)的系統(tǒng)。用通用大模型下棋相當(dāng)于是“高射炮打蚊子”,它當(dāng)然會(huì)調(diào)用自己棋局外的知識(shí)來贏得比賽。實(shí)際上,這個(gè)問題通過給出適當(dāng)?shù)奶崾驹~就可以解決,比如給DeepSeek輸入“你是一位國(guó)際象棋棋手”這樣的提示詞,就能喚醒相應(yīng)的“專家”,再加上對(duì)國(guó)際象棋規(guī)則的詳盡描述以及提醒它不能逾越這些規(guī)則,它就能像ChatGPT一樣表現(xiàn)為一個(gè)“循規(guī)蹈矩的模范生”。而上述下棋表演的策劃者顯然沒有考慮得這么周到,或者說純粹是為了吸引流量而不去考慮這些細(xì)節(jié)。
其次,DeepSeek下棋生造規(guī)則其實(shí)與生成式人工智能的“幻覺”問題同根同源。之所以各種生成式人工智能會(huì)表現(xiàn)出“一本正經(jīng)胡說八道”的特質(zhì),原因就在于它們?cè)谀承╊I(lǐng)域的訓(xùn)練數(shù)據(jù)不足,沒有形成足夠的信息冗余度。所以,當(dāng)被要求完成需要這些信息的任務(wù)時(shí),它們就會(huì)“腦補(bǔ)”,于是便產(chǎn)生了對(duì)不存在的事實(shí)、規(guī)則或引證來源的杜撰。當(dāng)然,這種杜撰并非毫無根據(jù),而是受前文條件約束。因此,如果你想寫一篇論文、報(bào)告或判決書,DeepSeek的優(yōu)勢(shì)在于能針對(duì)問題提供非常清晰且切題的線索和方向,比如引導(dǎo)去看康德的某本書,雖然頁碼或版本可能有誤,但依然有價(jià)值,前提是使用者愿意去查證。
最后,上述的討論已經(jīng)使我們看到,所謂人工智能倫理實(shí)際上是人的倫理,這里既包括設(shè)計(jì)者,也包括使用者。所謂人的自主性的喪失,是人主動(dòng)放棄了自己的自主性,同時(shí)罔顧自身職業(yè)倫理,將需要承擔(dān)倫理和法律責(zé)任的工作完全交給了人工智能。明白了這些,我們便可以積極擁抱DeepSeek等類似新工具帶來的便利和效率,而不必?fù)?dān)心“機(jī)器欺騙人”之類的臆想倫理問題。與此同時(shí),我們也應(yīng)當(dāng)堅(jiān)守人類的倫理和法律,對(duì)自己使用工具的行為及其后果負(fù)責(zé)。
(作者系上海交通大學(xué)凱原法學(xué)院教授,上海交通大學(xué)涉及人的科技研究倫理委員會(huì)委員)
高質(zhì)量AI需要高質(zhì)量數(shù)據(jù)供給
□ 趙精武
DeepSeek的出現(xiàn)徹底改變了固有的“高端算力優(yōu)先”的人工智能創(chuàng)新技術(shù)路線,其以低廉的成本實(shí)現(xiàn)了與國(guó)外前沿人工智能產(chǎn)品相媲美的性能,“算法模型性能優(yōu)先”也隨之成為新的產(chǎn)業(yè)技術(shù)發(fā)展路線。
這種轉(zhuǎn)變意味著要更加重視訓(xùn)練數(shù)據(jù)的高質(zhì)量供給,因?yàn)椤八惴P托阅軆?yōu)先”技術(shù)路線更依賴高質(zhì)量的訓(xùn)練數(shù)據(jù)對(duì)模型進(jìn)行優(yōu)化,而且已公開、可抓取的訓(xùn)練數(shù)據(jù)資源即將用盡,亟需能夠反映行業(yè)特征的高質(zhì)量訓(xùn)練數(shù)據(jù)資源。因此,訓(xùn)練數(shù)據(jù)供給機(jī)制的構(gòu)建理應(yīng)作為數(shù)據(jù)基礎(chǔ)制度的立法重心之一,從而用法律規(guī)范訓(xùn)練數(shù)據(jù)的供給方式,提升訓(xùn)練數(shù)據(jù)的供給質(zhì)量。
規(guī)范訓(xùn)練數(shù)據(jù)供給方式所要實(shí)現(xiàn)的目標(biāo),是市場(chǎng)以安全可靠且高效的方式提供訓(xùn)練數(shù)據(jù)資源。首先,訓(xùn)練數(shù)據(jù)的供給方式應(yīng)當(dāng)是安全可控的。算法模型訓(xùn)練屬于數(shù)據(jù)處理行為,因而數(shù)據(jù)的供給方和需求方均應(yīng)嚴(yán)格履行個(gè)人信息保護(hù)法、網(wǎng)絡(luò)安全法等法律規(guī)定的數(shù)據(jù)安全保護(hù)義務(wù)。其次,訓(xùn)練數(shù)據(jù)的供給方式應(yīng)當(dāng)是合法且沒有爭(zhēng)議的。高質(zhì)量供給的內(nèi)涵之一便是確保訓(xùn)練數(shù)據(jù)沒有顯著爭(zhēng)議,否則會(huì)增加法律風(fēng)險(xiǎn),從而降低科技創(chuàng)新資源的供給效率。最后,訓(xùn)練數(shù)據(jù)的供給方式應(yīng)當(dāng)是多元化的。單一的數(shù)據(jù)供給方式不僅無法提供充分的訓(xùn)練數(shù)據(jù),還可能間接提升人工智能市場(chǎng)的準(zhǔn)入門檻。
提升訓(xùn)練數(shù)據(jù)供給質(zhì)量所要實(shí)現(xiàn)的目標(biāo),則是數(shù)據(jù)資源供給活動(dòng)應(yīng)當(dāng)滿足“供給數(shù)量充分”和“供給質(zhì)量符合要求”兩個(gè)要件。一方面,當(dāng)下的人工智能產(chǎn)業(yè)發(fā)展主要以大模型為基礎(chǔ),需要海量的訓(xùn)練數(shù)據(jù)作為支撐。另一方面,伴隨著人工智能應(yīng)用方式的場(chǎng)景化、專業(yè)化,其對(duì)訓(xùn)練數(shù)據(jù)質(zhì)量的要求也有所提高。構(gòu)建這種保障機(jī)制的重心,是兼顧科技創(chuàng)新主體的差異化需求以及訓(xùn)練數(shù)據(jù)獲取方式的實(shí)質(zhì)公平性,同時(shí)確保與現(xiàn)行立法體系有效整合。
第一,以科技創(chuàng)新主體為導(dǎo)向,構(gòu)建人工智能訓(xùn)練數(shù)據(jù)公共服務(wù)平臺(tái)。作為人工智能創(chuàng)新的數(shù)字基礎(chǔ)設(shè)施,平臺(tái)的職能之一便是發(fā)現(xiàn)和確認(rèn)各類科技創(chuàng)新主體的需求,明確公共訓(xùn)練數(shù)據(jù)資源的分類標(biāo)準(zhǔn)。不過,由于政府部門難以持續(xù)性地對(duì)公共數(shù)據(jù)進(jìn)行清洗、歸集等,因此需要在協(xié)同治理模式下,按照市場(chǎng)需求,對(duì)公共數(shù)據(jù)進(jìn)行去重、糾錯(cuò)、填補(bǔ)空值等管理,以提升數(shù)據(jù)使用質(zhì)量。此外,由于平臺(tái)與算力基礎(chǔ)設(shè)施同屬向市場(chǎng)提供的必要基礎(chǔ)設(shè)施,二者共同作用并影響人工智能創(chuàng)新效率,為避免冗余建設(shè)造成浪費(fèi),更宜將二者一體化建設(shè)。
第二,以市場(chǎng)公平競(jìng)爭(zhēng)為導(dǎo)向,構(gòu)建訓(xùn)練數(shù)據(jù)供給生態(tài)保障體系。我國(guó)現(xiàn)階段人工智能訓(xùn)練數(shù)據(jù)方面面臨的困境,不僅僅是數(shù)據(jù)量不足、質(zhì)量較低,還包括有效的產(chǎn)業(yè)生態(tài)尚未形成。為避免數(shù)據(jù)壟斷等現(xiàn)象,確保中小企業(yè)實(shí)質(zhì)性公平地獲取訓(xùn)練數(shù)據(jù),有必要對(duì)相關(guān)數(shù)據(jù)提供商設(shè)置義務(wù)規(guī)范。如對(duì)于訓(xùn)練數(shù)據(jù)提供商而言,應(yīng)當(dāng)嚴(yán)格禁止其采取強(qiáng)制或變相強(qiáng)制的方式出售捆綁性的訓(xùn)練數(shù)據(jù)產(chǎn)品,并不得采取“二選一”等業(yè)務(wù)模式,對(duì)需求方施加不合理的條件。對(duì)于數(shù)據(jù)標(biāo)注服務(wù)提供商而言,不僅要依據(jù)《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,預(yù)防算法歧視等風(fēng)險(xiǎn),還應(yīng)當(dāng)確保所提供的數(shù)據(jù)滿足完整性、時(shí)效性、準(zhǔn)確性等要求,且與事前約定的數(shù)據(jù)質(zhì)量保持一致。
第三,以數(shù)據(jù)安全保障為導(dǎo)向,構(gòu)建透明可信的訓(xùn)練數(shù)據(jù)供給機(jī)制。已公開的個(gè)人信息、包含他人著作權(quán)的作品數(shù)據(jù)能否作為訓(xùn)練數(shù)據(jù)等問題,是目前構(gòu)建相關(guān)制度面臨的障礙之一。此外,不安全、不可靠的數(shù)據(jù)交易活動(dòng)同樣會(huì)影響訓(xùn)練數(shù)據(jù)來源合法性的認(rèn)定。因此,在制度層面確立訓(xùn)練數(shù)據(jù)來源合法性的判斷標(biāo)準(zhǔn)顯得尤為迫切。這既需要以典型案例、合規(guī)清單等方式指引產(chǎn)業(yè)實(shí)踐,也需要在制度層面設(shè)置涵蓋訓(xùn)練數(shù)據(jù)獲取、使用等各個(gè)業(yè)務(wù)流程的數(shù)據(jù)安全保護(hù)制度。
(作者系北京航空航天大學(xué)法學(xué)院副教授)
AI企業(yè)出海要警惕防范新風(fēng)險(xiǎn)
□ 張凌寒
2025年開年以來,DeepSeek作為中國(guó)人工智能企業(yè)代表,引發(fā)全球關(guān)注。全球化浪潮下,中國(guó)科技企業(yè)出海已成為必然選擇。然而,由于國(guó)際局勢(shì)、地緣政治、法律制度環(huán)境等原因,新興的人工智能企業(yè)出海在面對(duì)“老問題”的同時(shí),恐怕又要面臨“新情況”,對(duì)此亟待系統(tǒng)研究回應(yīng)。
中國(guó)科技企業(yè)出海面臨的老問題大致可分為三類。第一類可簡(jiǎn)稱為“網(wǎng)絡(luò)安全威脅論”。部分西方國(guó)家宣揚(yáng)中國(guó)科技企業(yè)生產(chǎn)的設(shè)備危害國(guó)家安全,可能被用于侵犯人權(quán)、將境外公民個(gè)人信息隱私傳輸回中國(guó)境內(nèi)等。華為在國(guó)外遭受的多次訴訟與調(diào)查就是典型代表。第二類可簡(jiǎn)稱為“竊取技術(shù)秘密論”。數(shù)年來,美國(guó)、歐盟等國(guó)家和地區(qū)指控中國(guó)科技企業(yè)竊取商業(yè)機(jī)密、竊取知識(shí)產(chǎn)權(quán),認(rèn)為中國(guó)企業(yè)的科技成果并非源于自身研發(fā)。第三類可簡(jiǎn)稱為“政府背后指使論”。如指責(zé)中國(guó)科技企業(yè)取得目前的市場(chǎng)地位是依靠政府的大量補(bǔ)貼與優(yōu)惠待遇,卻罔顧美國(guó)、歐洲數(shù)以千億計(jì)的科技產(chǎn)業(yè)扶持資金投入。此外,還指責(zé)中國(guó)科技企業(yè)正常參與的國(guó)際交流活動(dòng)、技術(shù)標(biāo)準(zhǔn)制定等都存在威脅。總體來說,這些以國(guó)別出身為由發(fā)起法律訴訟、安全審查的打壓行為,導(dǎo)致中國(guó)科技企業(yè)難以獲得公平的競(jìng)爭(zhēng)環(huán)境。
人工智能時(shí)代,中國(guó)科技企業(yè)出海仍面臨這些“老問題”。如DeepSeek引起美國(guó)科技界關(guān)注后,很快被美國(guó)人工智能企業(yè)OpenAI指責(zé)竊取技術(shù)秘密,通過知識(shí)“蒸餾”訓(xùn)練模型。實(shí)際上,“蒸餾”是行業(yè)內(nèi)通行做法,且OpenAI的格式用戶協(xié)議本身就存疑,甚至自己就踩在非法獲取受著作權(quán)保護(hù)的作品和互聯(lián)網(wǎng)數(shù)據(jù)的灰色地帶。除了口頭指責(zé),OpenAI至今未拿出任何證據(jù)。從目前情況看,一些國(guó)家對(duì)DeepSeek或封殺,或禁止在政府設(shè)備中使用,或采取數(shù)據(jù)相關(guān)監(jiān)管措施,這些舉措可謂“熟悉的配方,熟悉的味道”。與此同時(shí),中國(guó)科技企業(yè)也面臨一些“新問題”,這些問題可能在未來發(fā)酵。
第一,中國(guó)開源人工智能模型引起業(yè)界高度關(guān)注,可能引發(fā)全球尤其是美西方國(guó)家開源模型監(jiān)管浪潮。目前各國(guó)人工智能監(jiān)管的對(duì)象是閉源人工智能大模型,對(duì)開源模型則設(shè)置合規(guī)義務(wù)與責(zé)任豁免。如今DeepSeek成為全球最有影響力的開源模型之一,暫停的開源模型治理勢(shì)必將被重新提上日程。開源模型企業(yè)不僅可能要面對(duì)與閉源模型企業(yè)相同的訓(xùn)練數(shù)據(jù)知識(shí)產(chǎn)權(quán)侵權(quán)糾紛,還可能面臨開源標(biāo)準(zhǔn)、開源許可證內(nèi)容、下游接入者相關(guān)責(zé)任等方面的挑戰(zhàn),甚至面臨新的立法、長(zhǎng)臂管轄以及國(guó)家安全問題的審查。
第二,中國(guó)人工智能企業(yè)的優(yōu)勢(shì)在于落地和應(yīng)用,與傳統(tǒng)互聯(lián)網(wǎng)信息服務(wù)相比,人工智能將在物理實(shí)體方面有更多應(yīng)用,如機(jī)器人、智能家居等產(chǎn)品。這就使得人工智能企業(yè)除了要應(yīng)對(duì)傳統(tǒng)的數(shù)據(jù)安全、網(wǎng)絡(luò)安全、個(gè)人信息保護(hù)等法律問題,還需在遵守當(dāng)?shù)胤?、履行合?guī)義務(wù)方面作出更為全面精細(xì)的安排,如需遵守不同國(guó)家相關(guān)產(chǎn)品技術(shù)標(biāo)準(zhǔn)等。此外,人工智能產(chǎn)品可能直接造成人身損害,而現(xiàn)行責(zé)任認(rèn)定規(guī)則并不明確,價(jià)值鏈上的相關(guān)主體(如訓(xùn)練數(shù)據(jù)提供者、硬件生產(chǎn)者和軟件服務(wù)提供者)都可能需要擔(dān)責(zé)。因此,人工智能企業(yè)在出海時(shí)需要尋找可靠的合作伙伴,并事先在協(xié)議中作好相關(guān)安排。
第三,地緣政治競(jìng)爭(zhēng)進(jìn)一步加劇,人工智能企業(yè)生存與發(fā)展的不確定性進(jìn)一步增強(qiáng)。前不久在法國(guó)巴黎舉行的人工智能行動(dòng)峰會(huì)上,包括法國(guó)、中國(guó)、歐盟在內(nèi)的多個(gè)國(guó)家和國(guó)際組織共同簽署了《關(guān)于發(fā)展包容、可持續(xù)的人工智能造福人類與地球的聲明》。聲明表示,確保人工智能開放、包容、透明、合乎道德、安全、可靠且值得信賴。個(gè)別國(guó)家未簽署該聲明,體現(xiàn)了AI治理路徑上的分歧。如今,人工智能產(chǎn)業(yè)已超越單純的“技術(shù)競(jìng)賽”,成為影響全球地緣政治和意識(shí)形態(tài)格局的重要力量。個(gè)別國(guó)家一方面在國(guó)內(nèi)放松人工智能監(jiān)管,另一方面為了確保自身在人工智能領(lǐng)域的領(lǐng)先地位,有可能采用更多非常規(guī)、非制度性的手段遏制中國(guó)人工智能產(chǎn)業(yè)的發(fā)展。這需要中國(guó)人工智能企業(yè)在投融資、數(shù)據(jù)跨境與安全等方面更加提高警惕。
隨著全球人工智能技術(shù)競(jìng)爭(zhēng)的進(jìn)一步加劇,中國(guó)人工智能企業(yè)出海將迎來更多的機(jī)遇和挑戰(zhàn)。對(duì)此,提升自身實(shí)力是根本,打造更好的制度環(huán)境是必須。
(作者系中國(guó)政法大學(xué)數(shù)據(jù)法治研究院教授,聯(lián)合國(guó)人工智能高層顧問機(jī)構(gòu)中方成員)
編輯:遲明緒