為什麼阿西莫夫的機器人三大定律未被寫入現存的智能機器人的程序中?


現在哪有那麼聰明的人工智慧需要寫三定律進去…

不過,谷歌Deepmind就正在研究如何實現第二定律(機器人必須服從人類的命令)。以下摘自今年Deepmind發表的相關會議文章[1]:

大致翻譯:

可被安全打斷的人工智慧

強化學習中的代理人(agent, 即機器人)處在一個複雜的世界中,不能總是完美的行動。blablabla...

如果正在學習的機器人認為逃避人類的打斷可以增加預期的收益,例如取消「紅色停止按鈕」的作用,它有可能會這樣做。本文探索一種確保機器人不會試圖防止(或尋求!)來自環境或人類的打斷的方法。我們提供【安全可控】的嚴格定義...

我們展示,即使是理想的不可計算的強化學習代理人,在一般可計算的決定論環境中仍可被設計為安全可控的。

[1]: https://intelligence.org/files/Interruptibility.pdf


三大定律是基於人的理解的,比如不得傷害人類,首先要讓機器理解什麼是人類,什麼是傷害。目前這兩個定義的解釋應該說都做不到,比如讓機器圖像識別是不是人類就達不到能保障生命的那個準確度。比如傷害,截肢算不算傷害?


謝邀。

原因很簡單。

阿西莫夫三定律是規定自主機器人的行為模式。

而現實的機器人,屬性是機器,並不具備自主能力。


在代碼里是這樣寫的:

/* 警告:後面維護代碼的人不準刪掉這個注釋!

第一法則:機器人不得傷害人類,或坐視人類受到傷害;

第二法則:除非違背第一法則,機器人必須服從人類的命令;

第三法則:在不違背第一及第二法則下,機器人必須保護自己

*/


目前的情況來說,第一沒必要,第二實現不了。

將來真到了有必要的時候,是不是還用機器人三定律恐怕很難說,有待於機器人倫理學的發展


這三條能算真正的「定律」嗎?只是一廂情願的願望罷了。最多只能作為機器人研發製造的一個公約。

一天到晚想給「別人」制定定律,那是想當上帝嗎~


= =三定律針對的是阿童木水準的機器人吧。。。

如今做出來的機器人最多就是阿童木的殼子


明明就有寫入。

第一條「機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害」,自動駕駛程序在馬路上看到有人橫越馬路,它必須停下來。不但看到有人橫越馬路它需要停下來,連和別的車子有對撞的可能性它也必須停下來。

第二條「除非違背第一法則,機器人必須服從人類的命令」,如果駕駛者啟動/關閉自動駕駛功能,自動駕駛程序必須把控制權轉交給駕駛者。駕駛者要啟動/停止車子,車子也必須做到。

第三條「在不違背第一及第二法則下,機器人必須保護自己。」,車子在後退時,也會因為越來越靠近後面的車子而發出尖銳的聲音,以警告主人(駕駛者)有碰撞危險;在車子機油、剎車系統故障等等,儀錶上都會有警告主人(駕駛者)的。

除非是製作軍事武器或者無良廠商,否則正常廠商怎麼可能去製作可以危害人類生命的程序……


1.你要怎麼定量的寫入這個所謂的定律?

2.如果你做到了第一條,那麼你完全可以製造弱人工智慧了。

3.你能否確定,製造弱人工智慧的人一定就是聖人?

即可以通過道德來約束自己行為的人。

(我是民族主義者,如果我造出來,後果可想而知)


以現在的技術水平,智能機器人暫未達到恐怖谷理論水平,對人類不會產生威脅,阿西莫夫三大定律沒有相匹配的適用對象。但科技水平能在某一個時間點呈指數爆炸,人工智慧屆時可以完全擁有自主意識並且毀滅人類,這個時間點可以是公元20017年,可以是公元2117年,也可能是你的有生之年。


這個定律好像最終沒啥用,沒看電影里這定律就是用來打破的


智慧與智能的區別就是主動發現需求和被動執行設定

現在連執行設定都要使勁整定設計,還怎麼去發現需求?

怎麼去發現「消滅人類」的需求?


推薦閱讀:

人工智慧機器人能夠體現人文作用嗎?
機器人可以擁有人的情感嗎?
如何評價《Science》上刊載的最新研究:人工智慧通過圖靈測試?
學習機器學習有哪些好工具推薦?
對於人工智慧的學習有哪些建議?

TAG:機器人 | 人工智慧 | 艾薩克·阿西莫夫 | 智能機器人 | 機器人三定律 |