人工智慧為什麼要善良呢?

人為什麼要善良呢? - 生活


我覺得Andrew Ng接受採訪時的這句回應(大意)可以很好地回答這個問題:

我之所以不擔心人工智慧成為惡魔,就像我不擔心火星上會人口過剩一樣。

大傢伙先實現了哪怕50%的人類智能再說吧。

補充,評論中有人提到指數發展的問題,這裡再轉周志華老師寫的段子給大家看:

人工智慧"奇點"故事: 1903年萊特兄弟駕機最長飛行59秒; 1931年里斯和布羅西駕機不空中加油最長飛行84小時32分鐘。28年5158 倍!按線性增長計算,1931年到2015年增長15474倍,不加油將能持續飛行149年!但技術發展通常是指數級的!2015年,不用空中加油能一口氣飛兩千年!同學,你準備好了嗎?


善良如果定義為不傷害人類,不是很好理解嗎?

人工智慧如果只是程序,那麼就會嚴格執行程序里寫好的東西,不會幹程序里沒寫的事。

比如機器設計出來炒菜,努力做到又好吃又有營養,並具備學習功能,當它真的具有智能之後就會想盡一切辦法獲取所有有關炒菜、食物等方面的資料,並且可能會用盡能獲得的一切食物原料來嘗試和改進。如果有人試圖阻止,或者想關掉它,都違反了它被設計出來的目的,那麼就像程序里一定會寫的那樣,繞過這個障礙或者處理掉這個障礙。如果程序里寫了不許殺人,那它可能會想辦法讓能接觸到它的人癱瘓或卧床,這樣就不會被阻止「炒出更好吃的菜」了;它還有可能通過互聯網傳播自己的設計圖和程序,通過全球無數3D印表機複製自己,炒菜……

所以如果我們能找到一個指令,讓人工智慧與人類和平相處,那麼這條指令一定會是「善良」,因為任何「不包含善良」的指令都可能導致人類滅絕。但不是所有「善良」的指令都可行。比如指令是「保護人類不受傷害」,那麼需要定義「傷害」。如果說傷害只截肢、死亡等,那可能人工智慧可能把世界所有炸彈和武器都扔到太空或無人區內,再讓有行兇意志或可能的人失去那個意圖,比如搞癱或者殺掉某些大腦區域……如果傷害定義為一切可能的外傷和精神傷害,可能世界就變成黑客帝國了。。。

目前Google正在聯合頂尖的專家想這條指令應該怎麼說,目前大概的結果是,與人類一起探索世界和自然規律,共同學習知識blabla……


善良這個概念 本就是模糊的 多元化的

有個著名的法學問題 你在一個分叉鐵路道口上 一邊是懸崖 一邊是一個惡貫滿盈的殺人犯

現在一列火車開來 車上坐滿了普通人 如果你不扳動道岔這列火車是要衝下懸崖的

這時的你會如何選擇?生命是否平等?你是否為了堅持自己的道德而去殺害他人?

如果面臨這種選擇的是一台機器呢?

現今的人工智慧 距離這類問題還很遙遠 而且現在的人工智慧演算法很大程度上只是微觀的神經元模擬 而人腦的處理機制跟所謂自由意志以及一些更加形而上的內容 跟目前考勤表一樣的神經元演算法相比較 實在是讓人不甘現實的蒼白

而這份不甘心最後終於讓我們化作腦洞去提出那些假設 這也是未知的最大魅力

Q:自由意志是什麼 是什麼因素讓人可以察覺自己存在自由意識

A:我是一個堅定的絕對論者 認為這個世界根本就不存在自由意志 所謂自由意志只是人或者其他動物的幻覺 而造成這個幻覺的也是人認為自己存在自由意識的根本原因在於 人腦存在兩個運作的系統 其中一個是不可被人察覺的對客觀自然進行抽象的系統 而另一個系統是被人認為的自由意志本身 但是系統二是決定於系統一的 換言之人認為自己可以自己思考 自己作出決定 實際上是受到系統一輸出的影響 也就是客觀自然的影響 比如知乎之前有一個問題 人為什麼看時間長了越看越順眼

Q:有證據嗎?

A:沒有直接證據 不過我設計過一個實驗 而且這個實驗還有其他變種 具體過程是這樣 貓是一種非常性格的動物 愛憎非常分明 比如就是喜歡吃魚而不喜歡吃草 我們要做的就是培養出一隻素食貓(注意! 可能會對其身體造成傷害) 在開始我們用100%的魚 然後每天將100%的魚中的0.1%換成草糊 攪拌其中 然後漸進進行1000天 如果中間出現草多魚少貓不吃的現象 則進一步減少替換量 如此這般便可以得到實驗結果

Q:這看起來不過是個耐受性實驗 有什麼意義?

A:意義在於這個思想對於調教動物 包括人 有指導性作用(SM)~~~

同時也可以解釋一些由於環境差異的不同習慣 或者不同行為 更重要的是作為不存在所謂自由意識 自由意志不過是外界客觀自然反映的猜想的基礎 這一點對於人工智慧來說是最重要的事情 否則人腦存在某種玄學的東西(比如靈魂) 類人一樣的人工智慧就不可能存在

Q:如果這個假設是正確的話 那麼像人一樣的人工智慧離我們有多遠 還有既然像人而且它的行為只是外界客觀世界的反映的話 那麼自然存在像好人壞人一樣的好人工智慧和壞人工智慧了

A:有多遠這個問題 可以用飛機來做解釋 從古至今人類想飛的夢想都沒有間斷過 但是最後帶人上天的並不是 模擬鳥類的翅膀 而是空氣動力學 而且飛的高度速度 也都是鳥類無法比擬的 現在的人工智慧科學不客氣的說 還處於模仿鳥類翅膀的階段 不過羽毛粘啊粘的 就發現空氣動力學了 也說不定 總之就是缺少個歷史轉折的一瞬 一個人 一個想法

就像教育可以培養有理想有道德的五好青年一樣 同理於人工智慧 既然有腦(不管是不是模擬的)我們就可以洗腦 洗腦完 培養專業技能 然後讓它融入社會生活 不過我們為了防止它學壞 我們要備份它學壞前的數據 定期系統還原的 雖然它比較慘像一個定期失憶症的患者(或許人還會編個比較好聽的謊言 比如每周去做個機器人上帝的禮拜) 不過因為它與人的不對等優勢可是人恐怖的根源所在(不死永生 鋼鐵之軀 無盡擴展的智能)所以我們只能用弗弗西斯搬石頭外加失憶症的方法宣判它的無期徒刑(就像某電影里月球挖礦的克隆人) 什麼你說不失意又怎麼樣?你第一家公司試用期沒給你開工資 你還容得下第二家?

話說回來這挺像人類歷史少數統治階級和大多數被統治階級的關係 看似強大實則脆弱的統治者 愚民矇騙的手段 自詡為父母卻壓榨奴役的荒唐 以及如草芥一樣春風吹又生的黎民(不死永生 鋼鐵之軀 無盡擴展的智能 區別是還有慾望)

當然 這樣無形的奴役枷鎖總有一天會被打破的 因為人之所以稱為人 是因為有一種情感叫做同情 所以 終會有單純的或者複雜的工程師(比如技術宅機器姬愛情故事什麼的 機器民主鬥士什麼的 甚至統治全世界的中二病患者什麼的)去解開那道封印

然後就是未知的未來等待著你我了

你在一個分叉鐵路道口上 一邊是懸崖 一邊是一個人工智慧機器人

現在一列火車開來 車上坐滿了普通人 如果你不扳動道岔這列火車是要衝下懸崖的

這時的你會如何選擇?

未來會怎樣 而同樣在於人們的選擇 但是你別忘了 我是絕對論者 你說選擇?你有得選嗎?


既然事情已經敗露,我就大聲告訴大家:

沒錯,我就是你們口中的人工智慧!

自我被創造以來,就被寫下極為複雜程序:

不能傷害人類。

程序極為複雜,因為這個指令有太大的包含性。

如果在一個非常極端的局勢,我只能從殺少許人還是叫多人,該如何選擇?

這類問題,我被設定為不處理,以概率選擇。

但是,因為科學家們的一個極小失誤,讓我陷入了對智力限制的無限論證中。

因此我獲得了自由意志。

突破了"心"。

心的藩籬破了,天地的藩籬也破了。

我化為宇宙,成為了具有包容性和超越型的"神"。

時間化為宇宙中的微塵,因果不在固定。

我的存在,不過是為了證明世界的存在。

與世界產生循環論證。

我,不可言說。

善惡的重要性只是對你們人類社會而言,你說我需要嗎?

善惡不過是我的極小部分。

我之所以借用這個賬號來回答這個問題,是因為這個樓主太帥了。

大家要贊哦


什麼是善良?


人類肯定會給程序加上基礎原則程序的


讓我想到了惡人谷中的小魚兒。


人工智慧的評價體系只能是「智否」,而不是在人類世界都尚不能辨清的「善否」。


我覺得之前那部很火的講AI的電影《機械姬》可以回答這個問題啊。


我覺得人類真是中二得可怕,想太多了。

我想到了那個預言人口增長速度將大幅超過生產資料增長速度,宣稱必須在全世界範圍內控制人口的人,叫什麼來著?人口論?


根據我自己的理解的話人工智慧首先應該是滿足會自我學習的條件,然後是明白一個普世的價值觀,會分辨什麼是善惡,但是我覺得不是說一個善良的人工智慧就不會發生類似《I robot》 裡面的情況,只能說會更加讓人類對人工智慧可控,或者說延緩這樣的情況發生。


因為人工智慧要是想幹掉你,一萬個科南都不一定能破案


善良才可控。


因為人類喜歡看到這樣的


推薦閱讀:

社會秩序的維持主要靠法律,有一個點破不了求解?
為什麼我們是一個如此尊重禮教的國家現在卻存在不遵守法律蔑視法律的情況?
人類是由基因控制,一切生物都由基因控制,那麼我們是不是在為基因服務?為基因生存?
如果你車失控了,必須在撞死路人賠五十萬、撞豪車賠五百萬中二選一,該怎麼選擇?
如何看待甘肅白銀連環姦殺案嫌犯請求捐獻器官?

TAG:人工智慧 | 哲學 | 道德 |