強人工智慧技術如果突破瓶頸,每個人都可以製作怎麼辦?

如果強人工智慧技術突破瓶頸,每個人都可以在有限計算能力下做不同程度智力的通用智能,那怎麼防止世界被破壞?

比如可以把它調成最大智能去學習和創造新技術,發明各種黑科技。 普通點的可以載入進小機器人做攻擊武器。

感覺根本沒法限制每個計算工程師造出來的強AI的科技樹發展成什麼樣呀?


這事不可控,誰負責這事根本不重要,也不解決問題。因為惡意人工智慧的破壞性太大了,根本遠遠超出了開發人員的負責能力範圍。

超級人工智慧真的這麼普及的話,差不多相當於人人擁有一枚核彈或者人人都有接觸核按鈕的機會,通過限制自然人行為的方式約束人工智慧是不現實也是沒作用的。因為只要有一處突破,那所有的約束都將會失效。


物競天擇,適者生存。


修改刑法,讓具有民事行為能力的人才能公開發布自己的AI,並且AI做什麼事情都視為他自己在做。

不過按照我國的尿性,其實有一個最簡單的解決辦法,就是開始管制硬體。然後就跟翻牆一樣,試圖突破就會進入一種薛定諤的違法狀態(逃


你難道指的不是 生孩子?


這個時候就不要囿於狹隘智人主義了。智人,作為一種「生物」,我認為是有本質缺陷的。從科學技術的發展角度來講,人類社會的根本矛盾就是日益增長的科學技術知識與智人有限生命(Homo sapiens idaltu除外)以及貧弱的學習能力之間的矛盾(大霧。智人羸弱的軀體甚至難以承受10G的加速度。智人弱雞一般的數學能力導致至今理工學相關著作中見到最多的詞是線性化,並且常見的線性化技術折磨著一種叫做本科生的智人精英中的精英。脆弱的社會結構內部就包含著強烈的自我毀滅傾向。智人自視甚高並引以為傲的工業以及軍事體系都不能阻止天空中的一塊小石頭;智人種群的生存能力在某種意義上甚至連螻蟻都不如,至少螻蟻不會因為天空中一塊石頭砸中了蟻巢,而導致整個種群的滅亡。至今,我們連卡爾達肖夫指數I型文明都達不到。想要達到I型文明,在我看來,可行的兩條途徑分別是可控核聚變以及強人工智慧。強人工智慧技術如果突破瓶頸,人類從此可以以II型文明作為目標。

要我說怎麼辦:

  1. 將強人工智慧扔到月球、火星、金星、水星、土星、木星。。。上面去自展人類文明。
  2. 如果文明穩定可持續的話,消滅智人暴政。

從此人類的征途就真正地成為星辰大海了。

@vczh 說的永遠都阻止不了像我這樣的人


真的具有了自我意識的強人工智慧(的機器人)我甚至認為它(或者應該叫他/她)應該具有自然人的主體資格。創造者是他/她的法定監護人


無妨,

即便強AI可能實現,

應該也是沒有自我意識的,

將機器人三原則寫入某年的憲法修正案即可。


強人工智慧會想出這個問題的解決方案的。


購買GPU需登記身份證。


那就讓AI取代人類統治地球算了,也算是一種進化吧。


我好歹還會糊一些程序,給ai太君帶個路應該是可以的。。。


教會每個人學會寫AI和教會AI自己寫AI,明顯是前者更難啊。

在每個人能寫AI之前,AI就已經接管了自身進化了。


如果AI突破瓶頸,到時候每個人都可以製作的話,AI可能不會同意。


玩玩群星1.8?


攻擊性武器這點是不需要擔心的,因為現在年輕人懂黑客技術的越來越少了,不要說突破軍方防火牆,就連自己喜歡的女孩子的企鵝號、微信號都查不到。

AI跟黑客技術完全是兩種東西。

AI這項技術的普及會造成的最大危機就是少子化、人口老齡化。人類不願意跟人類結婚了,別問我為什麼。

其次講得近一點就是失業率提高,但不會持續太久。

機器人三定律要加入小學教材。


我個人的意見是在創造強人工智慧的技術能夠被絕大多數人掌握前人類就會滅亡。


限制並壟斷核心原材料,制定並集成機器人基礎行為原則,像《機器紀元》中的那樣,不過依舊阻止不了人類本身的作惡,一旦一個機器人突破,就會產生連鎖反應,最終人類會淪為奴隸或者成為動物園中的觀賞動物,甚至被消滅。


《西部世界》基本討論的就是這個命題。強人工智慧(通過圖靈測試),不等同於自我意識(二元論)。


推薦閱讀:

如何設計一門計算機科學入門課?
你所讀的計算機科學方向,有哪些不錯的講義(Notes)?
計算機專業原版教材值得讀嗎?
想開始初步學習計算機有什麼建議嗎?
基於RNN的seq2seq與基於CNN的seq2seq區別,為什麼後者效果更好?

TAG:人工智慧 | 科技 | 機器學習 | 計算機科學 |