人工智慧取代法官是否更能維護公正?

AlphaGo爆紅之後,人類對於人工智慧的認識又提高了一個層次。人工智慧首先不會受賄,繼續研發甚至能比讀心者更細緻準確的分析人類的表情、動作等,也就是它不缺乏表象判斷力,它可以更廣博的分析案例,忠實於法律和指導案例。它的效率更是人類所不能比擬的,不僅通過技術控制可以防止出現重大失誤,也可以通過上訴機制防止誤判,那麼,是不是以人工智慧來取代大部分法官職能會更能維護公正和提高效率?


這個問題很有價值,而且美國人、德國人已經在研究了。

讓電腦完全代替法官還為時尚早,你試試什麼小娜、小冰、siri就知道讓電腦聽得懂當事人、證人的陳述,識別各種各樣的物證、書證還非常難。現實的問題是電腦輔助判決的問題。以往法官要通過大量的檢索,或者只依據個人的知識積累尋找判決依據,現在只要在計算機辦案系統上輸入幾個檢索詞就可以得到自己想要的參考資料。再進一步則是「判決自動化」系統的可能性,即辦案活動是否可以自動化並自動實現。法官辦公自動化或者法律適用自動系統的觀念由來已久,只是現在在技術上已經成為可能,經典的「涵攝」過程轉化成對行為概念的計算機分類和定義。這一系統的一個顯著優勢就是更加有利於保證辦案活動中的法律確定性和一致性。但是,也會帶來「凝固化」問題,即論證過程被縮短,審判組織很容易能從以往的判例中尋找現成的論證過程。更為嚴重的問題是,計算機輔助辦案系統的運用甚至會改變審判組織的判斷。審判組織在運用計算機輔助系統時偏向於搜索一些關鍵詞,但是一系列相關聯的概念卻沒有被證明,一些同義詞之間的「聯想關聯」導致法律適用過程的偏離。在德國就發生了自1990年代以來,裁判中的隱私權問題逐步被數據保護權問題代替的現象。

——

參見[德]阿圖爾·考夫曼、溫弗里德·哈斯默爾著:《當代法哲學和法律理論導論》,鄭永流譯,法律出版社2002年版,第594頁


哈哈居然真有人提了這個問題,那我就不客氣了,貼一篇李世乭與阿爾法狗對戰期間發的文章(本文完成於火車上,請忽略章節附註中的錯別字):

http://mp.weixin.qq.com/s?__biz=MzA5NTMwMDgzMA==mid=407058480idx=2sn=1463d0be87d20f49f18a992042fe24f3scene=0#wechat_redirect


用人工智慧來審判,是一個很危險的想法。

人工智慧已經可以確定在未來是非常有用的一項技術,但是,用AI在法庭上審判來一個人有罪或無罪,真的就是好事嗎?

令人擔憂的是,似乎這可能已經在發生了。

2017年4月11日,美國首席大法官羅伯茨在與紐約倫斯勒理工學院校長的一場對話中被後者問道,「你能否預見將來有一天,AI驅動的智能機器將協助法庭認定事實,甚至頗具有爭議地介入司法裁決程序?」

「這一天其實已經到來,」 大法官羅伯茨說,「而且這已經讓司法實務的運作方式面臨著巨大的壓力。」

這位大法官對AI保持著開放的態度,而且越來越多的法院也在擁抱技術的進步,目前,美國各地的法庭和懲戒部門都使用演算法來確定被告的「風險程度」:從這個人會犯另一種罪行的可能性,到被告會如期出庭的可能性等各個因素。這些演算法為法庭在做出保釋、判刑和假釋等方面的決定時提供數據依據。這套系統叫COMPAS風險評估系統,COMPAS是Northpointe公司設計的一款風險需求評估工具,COMPAS風險評估依據的信息從被告的犯罪檔案和與被告的訪談中採集。

從複印機到DNA指紋識別和複雜的監控技術,技術確實為法庭帶來了許多好處。但這並不意味著任何技術都是完善的。

演算法也可以是種族主義的,AI也會表現出各種偏見和歧視,這些偏見涉及種族、性別、年齡等。

在調查和判刑期間,使用人工智慧可能有助於節省時間和金錢,但這也會帶來一些棘手的問題。來自ProPublica的Compas報告明確地指出,佛羅里達州的黑人被告人比白人被告人被錯誤地判斷為「有罪」的概率更高。

即使是最精密的情報系統,也會多少帶上點創造它們的人的種族和性別偏見。人類的偏見會作為數據被人工智慧「習得」。

2016年,包括英偉達、受微軟支持的青年實驗室(Youth Laboratories)在內的數家機構共同舉辦了第一屆國際人工智慧選美大賽(International Beauty Contest Judged by Artificial Intelligence)。全球範圍內的用戶只需在相關APP上傳自己的自拍照,機器人裁判就會根據面部對稱性、皺紋等因素選出最美的獲勝組。令人尷尬的是,在來自100多個國家的近6000張自拍中,機器人裁判挑選出來的44個最美的獲勝者幾乎全是白人,有一小部分亞洲人,只有一個擁有深色皮膚。

在使用AI來審判之前,我們必須確保有一個評判的標準,並設立監管機制。要確定它可以用在哪種類型的案件,用它的目的是什麼,AI的主動決策過程是什麼,誰來監督AI的審判,人類又如何去服從一個機器的判決。

在這些問題能夠解決之前,我們絕不能任由未受控制的演算法盲目地將刑事司法系統推向懸崖。

嗯,待所有問題都解決了,我們再考慮讓AI審判人類吧。


不是公正與否的問題,而是根本不能取代。百年前名為"概念法學"的一派學者們就已經認識到,案件的判決絕非只是簡單的將法律整合併對號入座,任何案件都不可避免的涉及法官的價值判斷,而這種價值判斷是基於法官個人對整個社會的政治、經濟、文化以及法律的理解,而這些參數是沒辦法量化的。


拉倫茨在《法學方法論》中就已經回答了這一個問題:「只要法律仍以口語撰寫,其仍須解釋,那麼將其轉譯成電腦語言時,仍須對電腦提供適當的解釋。然而,因為不能預見所有的事件情況,規定的解釋仍然可能發生新的疑義,於此仍須對電腦給予新的指示。解釋的任務不會消滅,只會轉移到他處。」

【德】卡爾·拉倫茨:《法學方法論》,陳愛娥譯,商務印書館,2015年,115。


在現實生活中的每一個案件,都不是司法考試的題目。它不會明明白白地將事實羅列在你面前,告訴我們甲做了什麼,乙又做了什麼,他們的主觀都分別又是怎麼樣的?

真實的案件都是虛虛實實,如鏡里看花,管中窺豹。不管是原告被告、控辯雙方,還是行政主體與行政相對人,他們都有一番各自的說辭,往往每一方乍一看均是邏輯自洽,言辭鑿鑿。所以這個時候我們便要分配舉證責任,審查證據真實性、合法性,判斷證據效力及關聯性,在證據相抗的情況下發揮自由心證去定分止爭。

這些事情,都是法官的職責,需要法官將感性、理性、學識、閱歷各方面的素質凝練於一處,做出最精妙的權衡,而這種權衡,我相信不是簡單地數理邏輯運算能達成的,它是值得人類驕傲自矜的力量。

大膽猜測,如果有一天,人工智慧真的進入法庭,它的職責大概也就是幫助法官更精準地適用法律,做出更適當的判決,但整個法庭程序絕不可能被其主導。

想像一下這麼一個場景:辯方律師站起來大聲說:Objection!Suggestive question!Your honor!

三秒後,一個電子合成聲傳來:Overrule.

畫面太美!不敢想!!!


維護公正與智能體物種的歸屬沒有任何的關係,只與群體的公共意識有關。


推薦閱讀:

AlphaGo對戰柯潔:關鍵不是人工智慧勝過人
Google黑科技系列 3 —將圖片變成視頻的技術Deep Stereo

TAG:人工智慧 | 司法改革 |