AI做錯事的話,如何給機器人劃分刑事責任?

AI做錯事的話,如何給機器人劃分刑事責任?

史上第一部科幻小說《弗蘭肯斯坦》相信是很多人小時候的噩夢,講述科學家弗蘭肯斯坦利用死人器官拼湊出一個怪物,用電流激活,當怪「人」終於獲得生命睜開眼睛時,弗蘭肯斯坦被他的猙獰面目嚇得棄他而逃,他卻緊追不捨地向弗蘭肯斯坦索要女伴、溫暖和友情;怪「人」為了報復弗蘭肯斯坦的「遺棄」,犯下一系列命案,殺死了無辜的人。

這部小說創作於1818年,早在那個時候,人類就對於科技進步所創造出的類人的機器人,產生了思考與恐懼。當前,已經進入AI時代,谷歌DeepMind公司2016年研發的「阿爾法狗」,在韓國首爾以4∶1擊敗世界圍棋冠軍李世石。這是一個驚人的成就,「阿爾法狗」使人們認為,不久的將來它將超出計算解決方案的範圍,證明了新型機器學習技術有能力解決困難問題。

作為人工智慧的另一項重要成就,自動駕駛汽車近期造成幾起命案,也引起了大家的思考。另外,隨著深度學習、神經網路、蒙特卡洛樹搜索、類腦智能等技術的不斷發展和完善,使人們越來越覺得科幻小說里擁有自主意識的機器人離我們並不遙遠。

如果機器人做出了損害人類、危害社會的事,該如何給機器人劃分刑事責任?

我們知道,與機器人行為有關的包括兩種主體:機器人設計者或使用者、機器人本身。根據一些法律常識我們知道,究竟是誰的犯罪意圖造成了犯罪,影響了刑事責任的劃分。具體分為以下兩種情況:

弱人工智慧時代的刑事風險與刑事責任:

當前我們已經進入了弱人工智慧時代。弱智能機器人不具有辨認能力和控制能力,其實體現的只是設計者或使用者的意志。因此,我們可以將弱智能機器人看作是人類改造世界的新型工具。相較於普通工具,弱智能機器人的優勢在於其可以在某一方面完全替代人類自身的行為,達到人類預期的目的。

如果這一優勢被犯罪分子所利用,其就會在付出更小代價的同時,帶來更大的社會危害。一方面,藉助弱智能機器人會在一定程度上為犯罪分子實施犯罪行為帶來便利,並使其犯罪行為取得事半「功」倍的效果。另一方面,犯罪分子將智能機器人作為犯罪工具,可能會衍生新類型的犯罪。

但應當看到,弱智能機器人不具有獨立意志,只能在設計和編製的程序範圍內實施行為,相當於設計者或使用者實施犯罪行為的工具。所以,弱智能機器人不可能作為犯罪主體而承擔刑事責任。而應當由弱智能機器人的設計者或使用者承擔刑事責任。此時,對設計者或使用者,可按照其利用弱智能機器人所實施行為的性質進行定罪量刑。

強人工智慧時代的刑事風險與刑事責任:

強智能機器人具有辨認能力和控制能力,其可以在自主意志和意識的支配下,獨立實施嚴重危害社會的行為。此時,完全可以將強智能機器人作為刑事責任主體對待。同時,強智能機器人的設計者或使用者作為創造主體和控制主體,理應對強智能機器人的行為負有監督義務,並對其可能實施的嚴重危害社會的行為負有預見義務並盡其所能避免此類行為的發生。

當然,強智能機器人要成為刑法上的刑事責任主體,還需要刑事立法加以明確。

世界各地區對人工智慧立法的探索:

隨著人工智慧技術的迅速發展,各國政府(比如美國、英國等)以及一些社會公共機構(比如UN、IEEE等)開始積極關注人工智慧的法律、倫理、社會、經濟等影響,密集出台戰略文件和報告。

在人工智慧法律和倫理研究方面,以UN和IEEE最為突出。2016年8月,UN下屬COMEST(科學知識和科技倫理世界委員會)發布《機器人倫理初步報告草案》,認為機器人不僅需要尊重人類社會的倫理規範,而且需要將特定倫理準則編寫進機器人中。2016年12月,IEEE發布《合倫理設計:利用人工智慧和自主系統(AI/AS)最大化人類福祉的願景(第一版)》,就一般原則、倫理、方法論、通用人工智慧(AGI)和超級人工智慧(ASI)的安全與福祉、個人數據、自主武器系統、經濟/人道主義問題、法律等八大主題給出具體建議。

科技的發展給人類帶來巨大的發展機遇,但人類應該同時關注其帶來的挑戰,積極應對,使人工智慧與人類和諧相處,人機共融。

推薦閱讀:

人工智慧真的來了,你拿什麼「拼」職場?
風險投資投什麼?
16年數據科學圈摸爬滾打,能給初學者的話都在這了
機器學習工作流是什麼意思?
銀行圈發生巨變,從未如此猛烈

TAG:人工智慧 | 機器人 | 智能機器人 |