中國人民大學法學院丁曉東在《法律科學》2023年第4期上發(fā)表題為《人機交互決策下的智慧司法》的文章中指出:
近年來,提升司法領(lǐng)域的信息化與智能化,利用大數(shù)據(jù)與人工智能技術(shù)解決司法難題,已經(jīng)成為我國司法發(fā)展的重要戰(zhàn)略。研究表明,人工智能司法的實踐應用價值正在不斷提高,但是人工智能司法也可能面臨種種問題:人工智能可能帶來錯誤判決,與司法追求的公平正義價值并不契合;人工智能可能剝奪人們對于司法的親歷感,損害司法權(quán)威等。相比人工智能在電商、資訊、自動駕駛、醫(yī)療等領(lǐng)域的應用,人工智能在司法領(lǐng)域的應用一直存在較大爭議。在實踐中,法官與檢察官也對人工智能輔助司法的機制存在眾多困惑。
人工智能司法是一種“規(guī)范性科技”支持基礎(chǔ)上的司法,而非計算性科技或預測性科技本身。人工智能司法在裁判可接受性、信息整全性、信息篩選、事實評估等方面有一定優(yōu)勢;人機交互決策不僅可能,而且早已通過各類數(shù)據(jù)庫系統(tǒng)成為現(xiàn)實。不過,把人工智能系統(tǒng)引入司法制度,會面臨規(guī)則適用僵化的風險、人機決策權(quán)重如何配置、不同司法層級與不同部門決策趨同、算法黑箱決策等難題。
為了最大程度發(fā)揮人工智能輔助系統(tǒng)對于司法的輔助功能,避免人工智能司法系統(tǒng)所出現(xiàn)的種種問題,有必要從多個層面對人工智能司法中的人機交互決策制度進行設計,應注意處理好智慧司法裁判規(guī)則與個案適用、人機決策權(quán)重、決策標準統(tǒng)一與制衡、算法決策與算法問責等人機交互的關(guān)鍵問題。在人機交互時代,人工智能司法應當堅持人類司法者的決策與主體責任制,堅持法官與檢察官的彌散性決策與主體責任制,允許不同司法機關(guān)對人機決策權(quán)重進行實驗與競爭,堅守基于部門分工與審級分層的決策制衡機制,促進算法解釋的可問責性而非完全公開。對于各類人工智能算法決策體系,應當確保人工智能司法輔助系統(tǒng)從設計到運行的所有階段都有法律專家的參與。在一些核心算法上,人工智能司法輔助系統(tǒng)還應當設立法律專業(yè)委員會進行審查,以保證其設計符合法律共同體的共識。在審判過程中運用人工智能輔助系統(tǒng),應當首先向參與司法的當事人解釋人工智能司法輔助系統(tǒng)的整體運作機制,確保當事人的知情權(quán)與選擇權(quán)。通過設計符合司法原理的人機交互決策制度,智慧司法才可能穩(wěn)步前行。
編輯:武卓立