国产精品久久久久久久久久久久久久|成人婷婷网色偷偷亚洲男人的天堂|天天操夜夜操视频|免费在线观看网站色欲,亚洲AV无码A片一二三区,韩日色在线,人妻丰满熟妇无码区免费

互聯(lián)網(wǎng)法治

理論研究

人工智能司法應(yīng)用亟待回應(yīng)的若干問題

潘瑋璘

人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力,日益成為全球競爭的戰(zhàn)略制高點,但其也帶來前所未遇的風(fēng)險挑戰(zhàn),需要加強人工智能治理。習(xí)近平總書記在主持二十屆中央政治局第二十次集體學(xué)習(xí)時指出:“要把握人工智能發(fā)展趨勢和規(guī)律,加緊制定完善相關(guān)法律法規(guī)、政策制度、應(yīng)用規(guī)范、倫理準(zhǔn)則?!?span style="text-indent: 32px; text-wrap-mode: wrap;">最高人民法院《關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》首先堅持倫理規(guī)則先行理念,提出建成具有規(guī)則引領(lǐng)和應(yīng)用示范效應(yīng)的司法人工智能技術(shù)應(yīng)用和理論體系。依據(jù)中央關(guān)于加強新時代審判工作的意見要求,當(dāng)前人民法院正在全面建設(shè)數(shù)字法院,且不斷向智能法院發(fā)展。一方面,法院人案矛盾壓力大,亟待借助人工智能司法應(yīng)用提升審判質(zhì)效;但另一方面,在司法審判中引入人工智能較為敏感,背后的倫理原則與司法規(guī)律并未獲得充分闡述和共識,特別是人工智能輔助辦案的界限并非技術(shù)的邊界,而是要考慮倫理原則及司法規(guī)律的邊界。因此,人工智能司法應(yīng)用應(yīng)在技術(shù)發(fā)展之上進一步研究理念、方法、規(guī)則、界限等問題。

考察當(dāng)前歐洲人工智能技術(shù)的治理和應(yīng)用情況,其中司法領(lǐng)域主要呈現(xiàn)以下特點:一是思想上極為謹(jǐn)慎。歐洲普遍基于倫理和人權(quán)原則,認(rèn)為人們不可被機器所審判,人們有權(quán)只接受法官的審判,司法裁判是一種獨特的思維過程,必須且只能由人類法官所負(fù)責(zé)。例如法國對外明確宣稱法院不采用人工智能,人工智能輔助辦案的提法也不被允許。二是技術(shù)上限制門檻極高。今年生效實施的《歐洲人工智能法案》將司法列為高風(fēng)險領(lǐng)域,對人工智能應(yīng)用提出極高程度的透明、可控、可監(jiān)管等技術(shù)管制要求,這幾乎客觀上將人工智能驅(qū)離司法領(lǐng)域。三是實踐中曾有所嘗試。如法國法院曾在損害賠償金的計算中運用人工智能系統(tǒng),但立刻引發(fā)了社會極大爭議,人工智能的“黑箱”特性引發(fā)公眾不信任,同時認(rèn)為法官放棄了思考,司法在裁判過程中喪失了其應(yīng)有作用,甚至因無法完全公開所有計算細(xì)節(jié)而認(rèn)為當(dāng)局懷有整體壓低賠償金的陰謀,最終法院棄用了這一系統(tǒng)。四是面向未來有所規(guī)劃。西歐各國也面臨中心城市的法院案件壓力大、審理時間過長等問題,案件平均用時在2年以上,為提高審判效率,一些國家的司法部正在為法院部署智能化技術(shù)支持,但僅涉及案件信息儲存和檢索、程序性文件生成等事務(wù)性工作,目前實施起來還遇到歐洲經(jīng)濟下行政府預(yù)算極為緊張的困難?;跉W洲人工智能治理實踐和經(jīng)驗的啟發(fā),除技術(shù)及資金問題外,我國在司法應(yīng)用人工智能時需要著重考慮并回應(yīng)以下問題:

第一,關(guān)于法官主體的倫理問題。人類法官不可被替代,人工智能僅為輔助,這一點大家已達(dá)成共識。但客觀來看,人工智能在大算力支持下通過深度學(xué)習(xí)可具有強大的判斷決策能力,當(dāng)其比任何一位法官所閱讀過的書籍文章、所閱知的法規(guī)政策、所閱學(xué)的案例事例等都遠(yuǎn)遠(yuǎn)更多時,當(dāng)未來其草擬的裁判建議均能符合法官本意時,甚至其釋法說理的表述更為精彩時,當(dāng)其以其強大功能順利滿足當(dāng)事人、律師、政府等的一些司法需求時,其所積累的社會信任很可能將其無限推近于裁判者之地位。我們必須認(rèn)真審視“AI法官”的問題,必須更為嚴(yán)肅、正式地思考并回答:為什么人類法官不能被替代?一是人與人之間的糾紛本質(zhì)上需要人來化解。服判息訴工作本質(zhì)上是感性工作,在法律邏輯演繹的幕布下,法官需要運用共情力來識別當(dāng)事人之間的“心結(jié)”,需要運用感性的方法來松解他們之間的感性羈絆。二是法院判決有引領(lǐng)社會導(dǎo)向的作用,人類社會要由人類自己來引領(lǐng)。適用法律的過程一定程度上是立法的延伸,法院判決能夠影響形成社會規(guī)范,法是“活的”,人類民族、國家、社會在發(fā)展歷程中產(chǎn)生的司法需求和行為習(xí)慣,需要人類自己去感知、提煉、評判以及指引。三是人類相對于人工智能具有不可被支配的倫理要求。人不可被機器所審判,這與審判結(jié)論是否正確無關(guān)?;谌说闹黧w性原則,每個人有權(quán)要求只接受人對自己進行審判,這已成為人權(quán)保護的基本表述。四是人工智能無法全量掌握法官真實辦案中的所有依據(jù)和因素。人工智能無法真正理解審判,無法真正理解公平正義,人類司法裁判的過程蘊含諸多潛意識,人類意識一定程度上也是一種“黑箱”,法官的“內(nèi)心確信”無法被完全描述為邏輯演繹公式,其決策的所有依據(jù)和因素也無法完全列舉。綜上,無論人工智能發(fā)展到如何“智慧”的水平,也不能代替人類法官作出裁判。

第二,關(guān)于人工智能輔助辦案的界限問題。目前在立法上并沒有明確人工智能可否以及如何應(yīng)用于司法審判,各國司法界都較為謹(jǐn)慎,歐盟法案將其定位為人工智能高風(fēng)險領(lǐng)域而采取強管制模式,最高人民法院在指導(dǎo)意見里確定了人工智能輔助屬性的定位。但問題的復(fù)雜性在于,輔助屬性仍可能與司法規(guī)律相沖突,輔助辦案的平衡與界限在哪里。司法規(guī)律首先要求“讓審理者裁判”,這意味著審理是一個過程,審理的“親歷性”是作出裁判的基礎(chǔ)。人工智能不僅能夠替代機械性、重復(fù)性、執(zhí)行性的體力工作,還具有歸納總結(jié)、分析研判等腦力工作的能力,如果法官的思考過程以及形成內(nèi)心確信的過程很大程度得以輔助甚至替代,則很難保證法官還有能力作出足夠準(zhǔn)確且妥當(dāng)?shù)牟门薪Y(jié)論。實際上,不少案件中法官內(nèi)心確信的天平是很敏感的,一些看似未達(dá)到?jīng)Q定性程度的辦案步驟,例如梳理證據(jù)材料、歸納當(dāng)事人訴求、搜索可參考的類案、檢索可適用的法條、選擇法律解釋方法、草擬裁判理由等,都有可能影響司法判斷與裁量的最終定奪。輔助辦案的界限把握應(yīng)堅持兩方面原則:一是應(yīng)當(dāng)承認(rèn)事物的規(guī)律,即擬稿者或建議者一定程度上參與了決策過程。深度嵌入審判全過程的人工智能必須確保安全、可靠、可信、可控,需要最高法從頂層設(shè)計的角度確定算法模型、數(shù)據(jù)訓(xùn)練、輔助環(huán)節(jié)、使用方法等,以賦予司法人工智能足夠的標(biāo)準(zhǔn)化權(quán)威,讓社會公眾認(rèn)可智能化輔助辦案系統(tǒng)。二是應(yīng)當(dāng)充分論證并劃清“輔助”的界限,這一限制并非技術(shù)的邊界,而是司法規(guī)律的邊界,例如裁判理由自動生成、裁判結(jié)論智能推薦等。一旦劃定,即使未來發(fā)展出足夠成熟且能勝任的人工智能,也不可“越界”應(yīng)用。

第三,關(guān)于數(shù)據(jù)訓(xùn)練的方法問題。除算法與算力之外,數(shù)據(jù)是塑造和決定人工智能水平的關(guān)鍵。當(dāng)前人民法院正在建設(shè)數(shù)字法院,所有案件的全流程各環(huán)節(jié)以統(tǒng)一標(biāo)準(zhǔn)形成高質(zhì)量的司法數(shù)據(jù)。對于輔助辦案的人工智能系統(tǒng),是否要對全量數(shù)據(jù)訓(xùn)練學(xué)習(xí)?或者如何進行訓(xùn)練?具體應(yīng)注意以下四個方面問題:一是體系性問題。成文法的復(fù)雜在于其具有體系性,對于法條之間的體系結(jié)構(gòu)以及背后的審判理念、政策導(dǎo)向、解釋方法等,不能僅交由人工智能自己對法律文本和現(xiàn)有案件予以訓(xùn)練和歸納,而是要直接且明確地設(shè)定好體系結(jié)構(gòu)、司法政策、裁判方法等問題。二是完整性問題。一個案件的信息遠(yuǎn)超裁判書的文本,一項裁判結(jié)論的依據(jù)和考量也往往不限于裁判文書,數(shù)據(jù)訓(xùn)練不能僅限于裁判文書,而是要含蓋完整的卷宗材料,包括影響案件辦理的各類會議記錄或紀(jì)要。三是典型性問題。訓(xùn)練是否以全量數(shù)據(jù)數(shù)量為范圍,或是否僅以典型案例為訓(xùn)練對象?人工智能時代下,不能局限于典型案例庫的思維,大規(guī)模的數(shù)據(jù)訓(xùn)練旨在“涌現(xiàn)”出具有思考能力的智慧體,在學(xué)習(xí)各類層級的典型案例基礎(chǔ)上,還需要對生效案件、被發(fā)改案件以及被評合格、瑕疵或不合格案件等所有情況予以全量學(xué)習(xí)。四是差異性問題。法律在很多條文中賦予法官個案裁量權(quán),這些裁判尺度有的需要在全國范圍統(tǒng)一,有的可以在各省有所區(qū)別,而有的僅限于地方個案處理,且在社會發(fā)展的不同時期也有所不同。故現(xiàn)有大量案件中,有的裁量是合適恰當(dāng)?shù)?,但有的裁量則有待糾正統(tǒng)一或隨著時代發(fā)展而相應(yīng)調(diào)整。這種情況下不宜完全由人工智能自己依靠訓(xùn)練予以判斷,而須由上級法院常態(tài)化地向人工智能明確或更新裁量標(biāo)準(zhǔn)。

第四,關(guān)于司法流程的重塑問題。中央關(guān)于加強新時代審判工作意見提出,要以數(shù)字化、智能化推動審判流程、訴訟規(guī)則、司法模式變革。人工智能場景應(yīng)用首先體現(xiàn)為“人力替代”,最高法提出全流程輔助辦案,意味著從立案、編卷、開庭、合議到案例檢索、文書制作、校對排版、電子送達(dá)等各環(huán)節(jié)均可能運用智能化輔助,這會造成諸多流程節(jié)點的工作方式發(fā)生變化,歸納起來主要涉及三個層次問題:一是關(guān)于是否替代的問題。有些流程節(jié)點可以被替代,甚至向完全替代發(fā)展,例如卷宗歸目,開庭記錄、文書排版等體力性工作;有的僅可輔助性替代或半替代,需要人工檢查核定,例如文書核校、案例檢索、數(shù)字計算、程序文書生成、要素式文書擬寫等事務(wù)性腦力工作;有的領(lǐng)域則不可替代,涉及輔助界線的問題,例如裁判預(yù)測、判決建議、判決說理等判斷決策環(huán)節(jié)。二是關(guān)于替代后的質(zhì)檢問題。替代完成的工作原則上應(yīng)設(shè)置核驗質(zhì)檢人員,以克服人工智能的現(xiàn)有缺陷以及確保符合司法審判規(guī)律。但應(yīng)注意考慮是否對每個被替代的崗位或職責(zé)都設(shè)置質(zhì)檢人員,考量標(biāo)準(zhǔn)是處理同量工作下質(zhì)檢人力應(yīng)當(dāng)明顯少于替代前的人力。三是責(zé)任歸屬問題。崗位職責(zé)原則上不因智能化輔助而改變,無論是院庭長、審判長、主辦法官還是法官助理、書記員等人員均應(yīng)當(dāng)依職責(zé)范圍對案件負(fù)責(zé),其職責(zé)內(nèi)部可包含人工智能輔助及其質(zhì)檢人員,如果智能系統(tǒng)出現(xiàn)差錯或質(zhì)檢人員失職失誤,這些問題均應(yīng)由本來的崗位職責(zé)人所負(fù)責(zé),之后可再追究內(nèi)部責(zé)任。

第五,關(guān)于當(dāng)事人的知情選擇問題。人工智能引入司法審判領(lǐng)域,并不僅限于提高審理效率,還旨在促進裁判質(zhì)量和效果的提升。換言之,人工智能輔助辦案一定程度上會對案件審理產(chǎn)生影響,進而影響當(dāng)事人權(quán)益,故當(dāng)事人主張知情似乎有一定道理。在知情的基礎(chǔ)上,當(dāng)事人又是否有選擇權(quán)?即能否拒絕法官使用人工智能輔助辦理自己的案件,反之能否主動要求使用人工智能?實際上,人工智能是在各個崗位的審判人員自身職責(zé)下的輔助工具,是否運用以及如何運用應(yīng)當(dāng)由其掌握決定權(quán),當(dāng)事人的知情要求不應(yīng)當(dāng)突破現(xiàn)有司法公開制度,辦案方法本身不屬于司法公開范疇,當(dāng)事人主要對案件基本信息、辦理進度節(jié)點、裁判理由及結(jié)論等具有知情權(quán),目的是確保當(dāng)事人充分參與審判過程,而非賦予其審視法官辦案方法的權(quán)利。當(dāng)然,從促進服判息訴的角度,在把握好公開范圍和方式的前提下,法官的審理方式應(yīng)盡可能取得當(dāng)事人的信任和認(rèn)可。此外,當(dāng)事人能否拒絕將自己的案件用于人工智能數(shù)據(jù)訓(xùn)練?對于做了隱名化規(guī)范處理的案件,實際上已成為一種公共資源,應(yīng)該服務(wù)于促進司法公正與審判質(zhì)效的提升,當(dāng)事人不具有處分的權(quán)益。

當(dāng)前人工智能技術(shù)更新迭代極快,從體力替代不斷向腦力替代演進,不僅賦能效率同時也增強能力,各行各業(yè)都在盡可能拓展人工智能的應(yīng)用場景。但我國法院在積極擁抱人工智能技術(shù)革命的同時,必須更為清醒和審慎,既要厘清司法倫理的界限,又要符合司法運行規(guī)律,司法審判權(quán)作為中央事權(quán)還要更加注重人工智能司法應(yīng)用的頂層設(shè)計。

作者系廣西壯族自治區(qū)高級人民法院審管辦主任



編輯:霍悅