標籤:

AI研究院 | 法律一視同仁 人工智慧犯罪不能逍遙法外!

編者按:《AI研究院》由網易智能頻道發起,網易杭州研究院等機構共同參與打造,每周五篇,專註AI行業研究與深度分析,並提供技術應用交流。轉載請聯繫我們獲得授權,公號smartman163。

【網易智能訊 4月23日消息】2017年有以下趨勢:複雜演算法可以幫助預防和解決人類的犯罪問題,同時還能幫助預測法庭審判以及人權相關審訊的結果,並協助律師的工作。甚至有人提出,到2040年,先進的機器人將成為「犯罪分子」。比如說去年在加州發生了一起案件,負責安檢的機器人從一個孩子身上碾過去,造成了事故。

我們應該如何理解這一切?我們應該感到害怕嗎?這種擔心通常是徒勞的。那麼,我們應該對此不屑一顧,繼續支持Netflix嗎?這聽起來很吸引人,但答案是否定的。我們應該開始制定計劃來應對所有這些問題嗎?答案是肯定的。

對人工智慧的恐懼是一個熱門話題。當一項新技術非常強大、同時又有些陌生的時候,看起來可能會非常可怕。不過,像《終結者》這樣的電影不僅僅帶著娛樂的目的,通過它們我們還可以窺見未來的世界,或者說,至少對可能出現的未來世界有所了解。

在眾多需要考慮的問題中,有一點值得注意,即法律所能發揮的作用。業內專業人士對未來機器人的生存形態持有極大的分歧意見,但我們必須面對這樣一個事實,即人工智慧技術有能力對人類造成傷害,而且這項技術已經出現在我們周圍。這種傷害可以有多種表現形式:戰爭中滿載武器的軍用無人機,執法機器人殺死爆炸案的嫌疑人或者其他無辜的人,又或者是機器人造成事故、失誤、疏忽等。

在法律上有一個直白的說法:「哪裡有罪行,哪裡就有申訴。」但是,當機器人犯罪的時候,我們應該去告誰呢?這個問題通常看起來過於抽象而不值得擔憂。但是請不要忘記:機器人曾因購買毒品被逮捕,卻並沒有被起訴;一名司機在特斯拉車裡啟用自動駕駛後發生事故死亡,而美國國家公路交通安全管理局卻免除了特斯拉的責任。雖然這些例子的確比較少見,但歷史總會帶給我們很多意外。例如,在萊特兄弟乘坐「小鷹號」兜風之前,沒人想到有一天人類可以飛上天。

隨著技術的發展,法律一次次接受新的挑戰。儘管最初有些反應過度,但最終還是順利得到了完善。簡而言之,法律在發展。

機器人犯罪

雖然法律可以在多方面被定義,但從根本上來說,它是一個用來滿足人們期望的社會系統。因為有法律的存在,所以如果你被搶劫了,你就會很自然地認為搶劫犯會被指控,並因此受到懲罰。但是反過來,法律也對我們抱有期望,我們必須在自己良心允許的範圍內充分遵守它。作為人類,我們通常可以做到這一點。例如在開車時,人類有能力決定是要加速還是遵守限速規定。因此,法律認為人類是「法律上的人」。在不同程度上,企業也被賦予了法律人格,即法人。法律賦予了企業一定的經濟和法律權利,但更重要的是,它也賦予了它們責任。舉個例子,如果某公司推出了自動機器,那麼該公司就有相應的法律責任。而當機器擁有自主意識時,問題就出現了。

智能助手Alexa、Siri、Cortana的技術令人印象深刻,但它們還不夠格成為法人。但是,當新一代人工智慧產品有能力造成真正的傷害時,會發生什麼呢?

人工智慧有犯罪心理嗎?

刑法有兩個重要的概念。首先,它包含了這樣一種概念,即當傷害已經發生,或者某種行為或疏忽可能造成傷害時,就要追究當事人的責任。其次,刑法要求被告對自己的行為負責。這就是所謂的「犯罪心理」或「犯罪意圖」。犯罪意圖是指,被告具有攻擊行為,並且攻擊的意圖是故意傷害他人,或者在行動之前就知道此次行為可能帶來的傷害後果,那麼就可以判定被告具有犯罪意圖。

那麼,如果一台先進的機器人犯了罪,那麼它應該如何受到法律制裁呢?律師如何去證明非人類的機器人有「犯罪心理」呢?這一點可以通過借鑒或調整現有的法律原則來實現嗎?

以無人駕駛汽車為例。無人駕駛汽車能夠在公路上行駛,而法律法規規定至少方向盤後面要坐一個人。然而,一旦全自動駕駛汽車到來,就需要對法律法規進行更加廣泛的調整,以適應人類與自動駕駛系統的新型互動方式。

隨著人工智慧技術的發展,它最終將達到一種成熟的狀態,可能會不受人類的控制。而隨著這一現象變得普遍,關於傷害、風險、錯誤和懲罰等問題就變得更加需要重視。在電影、電視和文學作品中或許會出現機器人犯錯後造成致命後果的情節,但從現實的法律來看,生活沒辦法像好萊塢那麼驚心動魄。

那麼我們不禁要問:機器人能犯罪嗎?簡單回答一下,答案是肯定的。如果機器人殺了人,那麼它就犯了罪,但從技術上來看只能說是一半的罪行,因為很難確定它的犯罪意圖。我們怎麼知道機器人是不是故意的呢?但就目前而言,我們還遠遠創造不出一個完全自主的「類人類」機器人,無法令它的外形、行為、語言和思考方式做到和人類完全一樣。即便如此,人工智慧領域幾次小小的發展,也依然有可能會創造出一個會犯罪的機器人。金融演算法和歧視性演算法出現的錯誤比比皆是。

跟隨我的思路,想像一下,如果《終結者》裡面的機器人真的存在,而且犯罪了,例如謀殺,那麼問題不是要確定它是不是真的殺了人,而是要確定它行為的程度是否符合犯罪意圖的原則。但是,我們要如何證明犯罪意圖的存在呢?我們能不能對機器人進行交叉審查,就像對人類被告那樣?也許可以,但我們需要更進一步,檢查時機器人犯錯的代碼。那麼,「意圖」這個東西在機器的思維中是以什麼形式存在的呢?我們該如何證明機器人是正當防衛還是早有預謀呢?

接下來我們再來討論一下更深層次的問題。畢竟這不僅僅關乎暴力犯罪。想像一下,某一天我們將擁有一個系統,它可以隨意使用你的信用卡在網上買東西。有一天,它買了違禁品。實際上這不是我虛構出來的,而是真實的事件。兩名倫敦專家創造了一個機器人,它在暗網隨便買了點東西。它買了什麼呢?假牛仔褲,有監控攝像頭的棒球帽,儲藏罐,耐克,200根香煙,消防隊的鑰匙,假LV包,10粒迷幻藥。這兩個人應該對自己創造的機器人的行為負責嗎?也許吧。但如果機器人的購買行為是它自行決定的呢?

機器人監獄?

即使上述這些法律問題得到了解決,我們依然面臨如何懲罰的問題。30年的牢獄之刑是否能對機器人構成實質性懲罰?它既不會變老,也不會衰弱,更不會思念它愛的人們。當然,除非在編寫運行代碼時,有設置過它可以反思自己的不當行為,並且這些代碼能夠被重新編寫。那麼,作為機器人的創造者,我們應該賦予機器人什麼樣的情緒作為人類「悔恨」的類似物呢?

當我們談論機器人是否能犯罪這一話題時,我們所談論的是人工智慧的特殊情況,例如一個系統有了某些特別的行為,也許是好的,但也是不可預見的,因此才會給法律帶來挑戰。

事實上,人工智慧對醫學的新發展起到了促進作用,我們也正在通過人工智慧學習更多關於宇宙的知識,而這是斯蒂芬·霍金那樣的科學家也無法做到的。

人工智慧的希望在於,當我們發現了機器人做出的某些特殊卻有益的行為時,我們是可以找到相應的解決方案的,以確保機器人不會觸犯法律、道德,或是做出其他危險的行為。然而,目前連人權的保障都未能在全世界範圍內普及,因此我不禁思考,我們在對人類的行為進行克制時已經竭盡全力,那麼面對機器人,我們是否能夠說自己做好了充分的準備呢?

作者:劍橋大學法學院博士預科生Christopher Markou,本文最初發布在The Conversation。(來源/Inverse 翻譯/機器小易 審校/小ka)
推薦閱讀:

美日巨型機器人對決,今年8月開戰!
最怪怪的5款人工智慧啥樣?
AI前線一周熱聞盤點:NIPS召開Black in AI會議;谷歌訓練CycleGAN可自行創建圖像

TAG:人工智能 |