一本到不卡,一级做a爰片毛片视频,天天色影院,夜夜骑综合,欧美精品国产一区,国产黄网站高清免费观看在线视频,亚洲黄色小视频在线观看

法治號(hào) 手機(jī)版| 站內(nèi)搜索

網(wǎng)上有害信息舉報(bào)

生成式人工智能應(yīng)用的倫理立場(chǎng)與治理之道:以ChatGPT為例

2024-02-23 10:27:35 來(lái)源:法治日?qǐng)?bào)-法治網(wǎng) -標(biāo)準(zhǔn)+

□ 馮子軒 (西南政法大學(xué)教授)

倫理問(wèn)題關(guān)乎人工智能未來(lái)技術(shù)走向、規(guī)則制定、接受程度等,是生成式人工智能發(fā)展過(guò)程中需要解決的首要問(wèn)題。以ChatGPT為代表的生成式人工智能擁有強(qiáng)大的語(yǔ)言理解和文本生成能力,但其僅是吸納虛擬世界中的數(shù)字代碼集成,與客觀世界交互仍有遙遠(yuǎn)距離。應(yīng)當(dāng)警惕其撼動(dòng)人類(lèi)主體地位的倫理困境,明確生成式人工智能應(yīng)用中的人本主義立場(chǎng),建構(gòu)生成式人工智能治理的倫理規(guī)則,從人工智能倫理治理組織機(jī)制、人工智能倫理規(guī)范機(jī)制入手,為人機(jī)共存社會(huì)尋求妥善的倫理解決方案。

當(dāng)前,國(guó)際組織層面主要以倫理倡導(dǎo)性規(guī)范為主,旨在為人工智能倫理凝聚共識(shí),宣示意義較強(qiáng)。隨著引領(lǐng)生成式人工智能技術(shù)實(shí)現(xiàn)突破后,美國(guó)對(duì)其倫理問(wèn)題的重視程度明顯超越以往,多份文件提出確保人工智能的合倫理性、可信賴(lài)性以及對(duì)公民個(gè)人信息、隱私、公平、自由等基本權(quán)利的保障,并在聯(lián)邦政策與法律框架制定中有所表達(dá),正在形成一種倡導(dǎo)與監(jiān)管并行的倫理治理模式。英國(guó)在生成式人工智能監(jiān)管中注重維護(hù)市場(chǎng)秩序、保障相關(guān)消費(fèi)者合法權(quán)益等,強(qiáng)調(diào)基本倫理秩序維護(hù)與基本權(quán)利保護(hù)。我國(guó)正處于人工智能倫理規(guī)范建設(shè)初期,正在探尋安全發(fā)展、協(xié)同參與的平衡方案?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》等立法對(duì)人工智能應(yīng)尊重社會(huì)公德與倫理道德,堅(jiān)持社會(huì)主義核心價(jià)值觀、防止歧視,尊重他人合法權(quán)益等提出明確要求,未來(lái)還需在組織架構(gòu)、程序設(shè)計(jì)、標(biāo)準(zhǔn)統(tǒng)一和責(zé)任承擔(dān)等方面予以完善。

生成式人工智能應(yīng)用的多重倫理困境

第一,削弱人類(lèi)主體價(jià)值。人類(lèi)被賦予了某種固有價(jià)值或價(jià)值優(yōu)先,倫理秩序圍繞著人類(lèi)展開(kāi),倫理建構(gòu)以“人類(lèi)塑造世界”為核心。但在人機(jī)共存社會(huì)中,人工智能正在成為具有一定自主行動(dòng)能力的實(shí)施者,并且人工智能極易通過(guò)結(jié)論的輸出去分析、識(shí)別和塑造人的觀念和認(rèn)知體系,引發(fā)“人工智能塑造人類(lèi)”的結(jié)果,人類(lèi)主體性將會(huì)遭受挫折。再者,由于個(gè)體能力有差別,“人工智能鴻溝”的出現(xiàn)或?qū)⒓觿∩缛簝?nèi)部分化,弱勢(shì)群體將面臨淘汰或成為算法霸凌受害者,動(dòng)搖普遍意義上的人本主義立場(chǎng)。

第二,加劇算法偏見(jiàn)與歧視。一是作為與人類(lèi)社會(huì)同構(gòu)的大數(shù)據(jù),包含著根深蒂固的偏見(jiàn)。人工智能可從數(shù)據(jù)中學(xué)到刻板聯(lián)想,也會(huì)從訓(xùn)練數(shù)據(jù)集中繼承偏見(jiàn),使部分人群遭受不公正待遇。二是生成式人工智能可以在人機(jī)交互過(guò)程中獲取并分析人類(lèi)回應(yīng),反饋?zhàn)晕覐?qiáng)化學(xué)習(xí),提高準(zhǔn)確性。若使用者傳播虛假或不實(shí)數(shù)據(jù),或回復(fù)本身存有偏見(jiàn)、歧視等個(gè)人價(jià)值觀因素,則會(huì)生成有害輸出。

第三,過(guò)度依賴(lài)擬態(tài)環(huán)境輸出結(jié)果。生成式人工智能使人們習(xí)慣依賴(lài)其輸出結(jié)果來(lái)認(rèn)識(shí)周?chē)挛?,并?duì)其結(jié)果產(chǎn)生信任。這時(shí),傳來(lái)經(jīng)驗(yàn)代替實(shí)踐經(jīng)驗(yàn),擬態(tài)環(huán)境就成了人與世界的一種中介性存在。因此,機(jī)器最終向大眾呈現(xiàn)的并非全然是真實(shí)世界中的客觀事實(shí),其存有產(chǎn)生“象征性現(xiàn)實(shí)”這一擬態(tài)情況的可能。使用者接收到擬態(tài)事實(shí)并經(jīng)大眾傳播渠道輸出后,便會(huì)變成普遍社會(huì)現(xiàn)實(shí)存在,成為人類(lèi)行動(dòng)的標(biāo)準(zhǔn)和認(rèn)識(shí)世界的依據(jù)。

第四,價(jià)值對(duì)齊困難。如果人工智能不能理解人類(lèi)的意圖,在為其設(shè)定多種目標(biāo)時(shí),機(jī)器可能會(huì)作出錯(cuò)誤的選擇,輸出結(jié)果可能不符合人類(lèi)意圖。人機(jī)價(jià)值無(wú)法對(duì)齊,機(jī)器會(huì)選擇執(zhí)行人類(lèi)不需要的目標(biāo),如果不能堅(jiān)守人的價(jià)值立場(chǎng),我們可能會(huì)失去對(duì)它的控制,使機(jī)器應(yīng)用最終凌駕于人類(lèi)之上。

生成式人工智能應(yīng)用的人本主義倫理立場(chǎng)

聚焦于人機(jī)共存關(guān)系,我們亟須秉持人本主義立場(chǎng)來(lái)定位兩者在社會(huì)譜系中的相對(duì)位置。第一,明確人類(lèi)較之機(jī)器所具有的優(yōu)先性,也兼顧人機(jī)交互的優(yōu)勢(shì)。第二,明確機(jī)器的從屬性和次要性,始終把人工智能視作實(shí)現(xiàn)人類(lèi)目標(biāo)的工具,其任務(wù)是協(xié)助而不是取代人類(lèi),更不能操縱和支配人類(lèi),使人類(lèi)異化為工具。第三,無(wú)論是傳統(tǒng)工具,還是人工智能,都是人類(lèi)創(chuàng)造的具有價(jià)值的社會(huì)實(shí)踐物或社會(huì)實(shí)踐活動(dòng),都要遵循“人是目的”的倫理立場(chǎng),不能改變其“屬人性”特征。

筆者認(rèn)為,立足人本主義倫理立場(chǎng),應(yīng)堅(jiān)持福祉、尊嚴(yán)和責(zé)任原則。福祉原則是以人為本的根本目標(biāo),尊嚴(yán)原則是實(shí)現(xiàn)以人為本的前提和必然要求,責(zé)任原則是實(shí)現(xiàn)以人為本的重要保障。上述原則旨在確保生成式人工智能發(fā)展和應(yīng)用為人類(lèi)社會(huì)帶來(lái)正面?zhèn)惱碛绊憽?/p>

生成式人工智能應(yīng)用的人本主義倫理治理機(jī)制

法律具有滯后性,科技創(chuàng)新要考慮倫理先行。在人工智能未來(lái)風(fēng)險(xiǎn)處于不可完全認(rèn)知、風(fēng)險(xiǎn)評(píng)估及成本效益分析等規(guī)制手段不完全有效的情況下,我國(guó)應(yīng)秉持人本主義立場(chǎng),探尋符合中國(guó)實(shí)際的科技向善之道。

第一,建構(gòu)人本面向的人工智能倫理治理組織機(jī)構(gòu)。我國(guó)人工智能倫理治理組織機(jī)構(gòu)應(yīng)當(dāng)立足人本主義立場(chǎng),重視常態(tài)化、場(chǎng)景化評(píng)估生成式人工智能引用的倫理風(fēng)險(xiǎn)與影響,制定倫理安全標(biāo)準(zhǔn)、技術(shù)規(guī)范、風(fēng)險(xiǎn)防控與應(yīng)對(duì)策略。倫理機(jī)構(gòu)應(yīng)協(xié)同發(fā)揮作用,相互協(xié)調(diào)、信息互通、分工明確,搭建倫理監(jiān)督的協(xié)同治理組織框架。應(yīng)秉持預(yù)防原則,對(duì)生成式人工智能的倫理風(fēng)險(xiǎn)及時(shí)干預(yù),對(duì)其發(fā)展方向、發(fā)展戰(zhàn)略作出規(guī)劃,制定安全標(biāo)準(zhǔn)與規(guī)范,提升管理風(fēng)險(xiǎn)的能力。倫理機(jī)構(gòu)也應(yīng)關(guān)注生成式人工智能應(yīng)用中公民基本權(quán)利如何得到有效保護(hù)。

第二,完善人本面向的人工智能倫理規(guī)范機(jī)制。一是明晰技術(shù)應(yīng)用的公平機(jī)制。關(guān)注生成式人工智能應(yīng)用中所產(chǎn)生的歧視偏見(jiàn)等,完善公平保障機(jī)制。解決設(shè)計(jì)道德問(wèn)題,擴(kuò)大技術(shù)系統(tǒng)質(zhì)量的評(píng)價(jià)標(biāo)準(zhǔn),開(kāi)發(fā)符合應(yīng)用者價(jià)值傾向的算法。形成生成式人工智能應(yīng)用真實(shí)性的規(guī)范制度,促成生成式人工智能應(yīng)用過(guò)程可解釋性實(shí)現(xiàn)。二是完善倫理風(fēng)險(xiǎn)的預(yù)警機(jī)制。加強(qiáng)人工智能技術(shù)安全保障,建立倫理風(fēng)險(xiǎn)智能監(jiān)測(cè)、預(yù)警及管控機(jī)制,提升生成式人工智能的安全透明度。三是補(bǔ)足倫理審查的追責(zé)機(jī)制。生成式人工智能輸出的問(wèn)答與信息,其倫理責(zé)任最終應(yīng)指向各環(huán)節(jié)承擔(dān)實(shí)際角色的主體。生成式人工智能仍然是一種“非人化”擬合工具,是基于對(duì)參數(shù)與數(shù)據(jù)的分析,其本身不具有主體自覺(jué)和情感,嚴(yán)格來(lái)講不具有倫理意識(shí)與責(zé)任。故就現(xiàn)階段而言,應(yīng)基于人本主義立場(chǎng),明確提供者、使用者、設(shè)計(jì)者等各方主體倫理責(zé)任,落實(shí)倫理責(zé)任承擔(dān)機(jī)制,完善責(zé)任體系。還應(yīng)建立監(jiān)測(cè)生成式人工智能系統(tǒng)全生命周期的機(jī)制,針對(duì)算法、數(shù)據(jù)與系統(tǒng)運(yùn)行流程進(jìn)行監(jiān)測(cè)與審計(jì),關(guān)注生成式人工智能應(yīng)用可追溯性和可審計(jì)性的實(shí)現(xiàn)。

(原文刊載于《華東政法大學(xué)學(xué)報(bào)》2024年第1期)

編輯:武卓立