計算機有可能能產生自我意識嗎?
會不會有那麼一天,人工智慧高度發達,計算機的結構早已不是現在這個樣子,就像科幻電影裡面,計算機產生了自我意識?產生了自我意識的計算機,能不能稱之為人?
首先聲明,以下內容是我個人的理解,不保證完全正確。
1、意識是什麼?
我們想要知道計算機是否能夠產生意識,首先需要知道什麼是意識。不幸的是,沒有人知道意識是什麼,而且在可預見的將來很可能也不會產生意識的嚴格定義。不過我們仍然可以對什麼是意識展開討論。
既然我們沒有對意識的統一定義,不妨從題主對意識的理解入手。意識是對外界的感知和對自我的認識。這樣一來,我們將意識分為了兩個層面:1、對外界的感知;2、對自我的認識。
(1)、對外界的感知
對外界的感知是所有的生物都具有的能力。但是僅僅只有生物才能感知外界嗎?非生物能夠有都有對外界的感知嗎?。考慮生活中常見的一個例子,比如聲控燈開關。當周圍有一定分貝數的聲響時,開關就接通,燈亮,並在持續一段時間後自動斷開。由此看來,聲控開關並非不能感知外界,它感知周圍聲音的響度,並對其作出反應。但通常我們不認為聲控開關具有意識。
如果真的將感知世界作為一種「意識」,那麼幾乎所有的東西都有意識。比如一塊石頭,在受到外力的作用下會滾動。我們可以說石頭感知到了力,並且對其作出了反應。然而這樣的定義並沒有什麼用。這種意義下意識等同於響應,但顯然響應並不是我們想要的「意識」。所以我們接下來主要考察意識的第二個層面,對自我的認知。
(2)、對自我的認知
如果認為有意識就必須能夠認識自我,那麼看來一大堆東西都可以歸為無意識的。下面我們列舉兩個例子:
植物的向光生長。雖然植物有著對外界的感知,並能對其作出反應,然而它們似乎並沒有自對自我的認知。比如植物向著光照更多地方生長,其本質是受到光照的影響,植物生長素分泌將會產生差異。受到光照多的一側和受到光照少的一側生長素的差異導致了兩側生長速率的不同。正是這個生長速率的不同進一步導致了植物向著光照多的地方生長。整個過程就是程序化的一系列反應而已。植物並不知道自己需要陽光才能生長,向光生長只不過是「運行」一系列程序而已。因此我們認為植物沒有意識,植物很像一個自動化的機器。
計算機程式控制接通電源。設想一棟大樓有兩套電力來源。一個來源為普通市電,另一來源為大樓自身的柴油發電機。當然大樓還有一個臨時蓄電池,以保證兩套電力源的順利切換。當發生停電事件時,一個電壓感測器感應到了電壓的變化,於是發送一個信號給計算機,計算機收到信號後就知道現在停電了,目前為蓄電池供電,並且必須啟動備用發電機,因為蓄電池撐不了多久。於是計算機接通了啟動機(類似於汽車的發動機啟動器,用來啟動柴、汽油發動機)的電源,啟動機成功啟動柴油發電機後,計算機將電源切換為發電機供電,直到電壓感測器感應到市電恢復正常後再切換為市電。這個例子與植物的例子幾乎是一樣的,計算機對外界變化作出反應,該反應都是程序化的一系列反應而已。只不過計算機是由程序員事先寫好代碼,而植物的「代碼」在DNA中由上一代遺傳而來。同樣,計算機並不知道自已的工作必須要依賴電力,切換電力源只不過是運行了一系列程序而已。因此我們認為這個例子中的計算機沒有意識,計算機只是一個自動化機器。
到現在為止,似乎一切都很合理。所以讓我們繼續下去。科學家已經證明,在一些低等的動物中(尤其是沒有神經系統的動物),它們對外界刺激的反應模式跟植物差不多。我們將這種模式稱為刺激-反應模式。因而很顯然,這些動物也是沒有意識的。然而如果動物再變得高級一點呢?比如狗。狗除了能夠向植物那樣對外界刺激作出反應,還能做一些牛逼的事,它認識主人,能夠和人玩耍,還能夠明白人的指令,甚至懂得人類的感情。大多數人也認為狗是有意識的,因為狗表現出了許多類似人的特徵。它們看起來明白自己在做什麼,為什麼這樣做。然而事實是這樣的嗎?後面我們將要看到這樣的想法是存在問題的。不過為了能夠展開人工智慧是否能夠產生意識的問題,現在讓我們姑且這樣認為吧。在後面如何判斷意識的問題中我們再在重新思考這個問題。
2、產生意識的物質基礎是什麼?
首先作為一個最容易想到的答案,那就是意識產生於我們的身體。但是只要稍微動動腦子就能知道這是一個十分不靠譜的答案。每天接受器官移植和截肢手術的人都在用他們的親身經歷告訴我們,手術並沒有使他們失去意識,他們還是原來的他們。
既然身體不是產生意識的物質基礎,那麼意識產生於哪兒?現代醫學揭示大腦是我們進行思考的器官。因此意識產生於大腦變成了一個合理的論斷。
現在讓我們來設想一下,一個外星人知道了人類的大腦聰明到能夠意識到自己的存在,他很好奇人類的大腦是如何工作併產生自我意識的,於是決定抓一個人腦來研究。樓下倒霉的王苨麻不幸被選作樣品。外星人解剖了老王的大腦,發現組成大腦的是一些被稱為神經細胞的東西。這些神經細胞交織組成了一張神經網路。
外星人仔細研究了組成大腦的神經細胞,發現這些神經細胞只是接受來自多個其他神經細胞的電信號,然後經過某種加權平均法則,得到一個值,如果結果值大於某個閾值,則產生一個電脈衝,發送給它所連接的下一個神經細胞,否則什麼都不做。
儘管外星人已經知道了組成大腦的最基本單元——神經細胞的工作方式,但他仍然不知道大腦是如何產生自我意識的。它甚至更糊塗了,每個神經元似乎都是機械式的工作,為什麼這一堆神經元組成的大腦卻很「智能」?
外星人的解剖結果表明單個神經元根本就沒有意識。那麼問題來了,挖掘機,為什麼外星人得不到關於老王大腦意識的任何知識?如果構成大腦的基本單元都不具有意識,為什麼這些無意識的基本單元放在了一起卻有意識了呢?難道需要某種靈魂附著在一堆大腦神經細胞上才能夠產生意識嗎?
我們可以這樣想。房屋有明確的作用,比如遮風避雨。房屋是由磚塊組成的,但是磚塊有明確的作用嗎?如果非要說磚塊有什麼作用,也就是構成房屋了。而神經細胞與大腦的關係就如同磚塊與房屋的關係。磚塊要組成房屋,還必須按照一定的方式組合起來,否則他們就是一堆磚塊,什麼都不是。同樣,大腦由神經細胞組成,但神經細胞必須按照一定的方式進行連接組合,才能夠構成我們的大腦。研究神經細胞得不到關於大腦的知識,就如何研究磚塊得不到關於房屋的知識一樣。房屋的知識,隱藏在房屋的設計圖中。房屋的設計圖指明了磚塊之間的關係,規定了磚塊如何進行組合,哪些磚塊放置在哪些位置。也就是說房屋雖然是由磚塊構成,但是是磚塊的組合方式才是構成房屋的關鍵要素,不同的組合方式將構成不同的房屋類型。
這樣一來似乎可以解釋大腦的意識了。大腦雖然由神經細胞構成,但是決定你、我、老王大腦之間的區別不是神經細胞,而是神經細胞的組合連接方式。這些組合連接方式隱藏在生命的藍圖——DNA中,我們從我們父母那兒繼承基因,這些基因表達最終形成了我們獨一無二的大腦。單個沒有那個神經細胞是特別的,就如同沒有那塊磚塊是特別的。神經細胞按照特定方式組合連接形成一個整體,意識就產生於這個「整體」,就如同房屋產生於磚塊按照特定方式組合形成的整體一樣。房屋、意識等是一個整體特性,從不依賴於具體的組成整體的某一個個體。
如果到此為止你還覺得還能接受,那麼接下來將要發生的事可能讓人難以接受。現在老王的家人因為失去老王十分傷心,這使得外星人對殺死了老王感到內疚。於是外星人決定做點什麼來進行補償。然而人死不能復生,外星人能夠做什麼呢?好在外星人的技術相當先進,外星人在解剖老王前對老王的結構做了詳細的記錄,這使得按照老王大腦原來的神經連接方式重構大腦成為可能。外星人用神經細胞精心重構了老王的大腦,使得新大腦和舊大腦有著一模一樣的結構,神經細胞的連接方式也完全相同,並且,同一位置的神經細胞有完全相同的工作模式(完全相同的加權平均規則和完全相同的閾值),總之,新大腦和舊大腦一模一樣,新大腦就是舊大腦的一個複製品。然後外星人將這個大腦放回老王的身體,然後把老王放回家中。老王「復活了」?!
然而「人死不能復生」,當你看到復活的老王時,你一定在說,這究(T)竟(M)是什麼神(gou)奇(pi)玩意?沒錯,如果你相信意識是大腦的神經連接方式決定的話,這就意味著人可以死而復生。因為在這裡複製品和原裝貨沒有可分辨的區別。如果原裝貨能夠產生意識那麼複製品就能夠產生意識。這就好比我們手裡有一份五線譜,上面記錄的是貝多芬的《月光曲》。五條線和一堆蝌蚪本身是沒有任何意義的,然而他們按照一定的方式組合起來就變成了貝多芬的月光曲。他們的排列組合具有十分明確的意義。既然這樣,那麼我們可以拿著這份樂譜去複印店複印,複印機唰唰唰吐出一堆五線譜。我想沒有人會因為這些是複製品就認為這些樂譜沒有意義吧?複製品仍然是貝多芬的《月光曲》。所以,如果你相信意識是物質的,那麼他們就可以隨時隨地被複制出來。
複製意識會引起一連串的無解難題。比如我應該相信現在站在我面前的只是有著老王記憶、思維、人格的一個複製品,還是他就是原來的老王?假如外星人不小心複製了兩個老王,這兩個一模一樣的老王那一個才是真的?或者說它們都不是真的或者都是真的?在這種意義情況下,一個人是否已經永生了?比如如果我要炸死敵人的頭目,但只要敵人掌握了首領的神經細胞的組合結構,是否我不論炸死它多少回,敵人總能將他們的首領「造」出來?
如果你的心理接受能力比較強,認為無論多少個老王都沒關係,只要將這些老王當作有相同記憶的雙胞胎對待就可以坦然接受了,並且不介意永生的話,那麼接下來的事可能就能難理解了。如果你是老王,那麼在外星人將你大腦分解的那一刻你就死了嗎?你是永遠消失在宇宙中,並且將來的事都與你無關了,還是只是睡著了,並且直到你的大腦被重新構成時才醒來?如果你認為你只是睡了一覺,那麼假如外星人複製了兩個你,一個放在上鋪,一個放在下鋪,你醒來時將接管那一個身體?上鋪那個還是下鋪那個,還是先醒的?如果同時醒呢?要知道這兩個可都是一模一樣的,沒有理由認為其中特定一個就是你!
難道意識產生於神經排列組合是錯誤的嗎?為了解釋意識產生於何處,有人提出了另一種假設,即意識還必須有連續性。如果你聽說過特休斯之船,你一定知道說的是什麼。一艘名叫特休斯的船在海上航行,每有一個零件壞了,就用一個新零件替換。經過一段時間,這艘船的每一個部件都替換完了,那麼問題來了,這艘船還是原來的船嗎?人也一樣,經過許多許多年,構成我們的身體的原子早已換了一遍,但我們仍然是原來的我們。雖然材料不一樣,但是我們卻有著一個時空連續性,正是這個時空連續型保證了我們的意識的存在。所以,像上面老王的大腦一樣,在老王的大腦分解成單個細胞之後,老王的意識就不存在了。即便後來有了老王大腦的複製品,但是由於老王的意識在時間上已經斷裂了,時間連續性被破壞標誌著複製品已經不是老王了,他已經死了。
如果我們要求意識在時空上必須連續,似乎能夠解決上面的問題。新產生的複製品由於不具備連續型從而不再是你,他是一個獨立的新個體,除了和你很相似之外沒有共同特點。多個複製品也就不存在那一個人是你了,他們都不是你,而你已經由於時間連續型被破壞消失了。這樣以來,時間的不連續意味著死亡,永生將不復存在,人死不能復生。
一切都很美好,但這經得起推敲嗎?按照連續性假設,如果一個人睡著了,那麼他就死了,醒來的時候已經是另一個人了,因為睡著時人是沒有意識的。當然你可以反駁,稱人睡著了大腦還處於活動狀態,並不能證明意識就此消失了。那讓我們更近一步,考慮一個人被麻醉的情形。麻醉的基本原理就是阻斷神經元之間的電信號傳遞。如果大腦麻醉了,神經元之間的電信號傳遞受阻,此時我們可以等同為神經細胞之間的聯繫被切斷,神經細胞從神經網路中孤立出來。如果是這樣的話,被孤立的神經細胞與老王被分離的神經細胞其實沒並沒有多大的差別。所以,此時人應該是沒有意識的。然而,當麻醉劑失效時,連接又逐漸被接通,意識開始恢復。整個情形中意識沒有時間連續型,並且某種程度上等同於將神經細胞分離然後再重新組建大腦(也就是被外星人抓走的老王的遭遇)。被麻醉的人還是原來的人,那麼看起來連續性假設也站不住腳,並且這個例子還可以作為神經的連接方式是產生意識的基礎的一個證明。
走到這裡在看看我們原本要解決的問題——人工智慧能夠產生意識嗎?我們似乎走得有點遠了。所以現在關於意識產生的基礎問題要就此打住。因為即使更加深入討論也不會比現在更加清楚。要麼接受令人難以置信的「神經組合」理論,認為意識是大腦神經細胞的一個整體特性,要麼去接受另一個更加玄乎的理論——靈魂,即認為意識不是物質的。不管怎樣,我還是不會接受靈魂理論。
3、人工智慧能否產生意識?
經過前面的討論,這個問題基本上就已經解決了。人工智慧能否產生意識關鍵在於那種意識理論是正確的。比如如果你比較相信意識是靈魂的話,人工智慧幾乎沒有可能產生意識,除非能有靈魂附著在機器上面。
然而如果你認為意識是基於物質的(我想大多數人應該不反對這個觀點),比如依賴於某種特定方式連接的神經網路,那麼幾乎可以肯定人工智慧產生意識是一件早晚的事。
一個生物的神經網路能夠產生意識,那麼基於計算機的人工神經網路為什麼不能夠產生意識呢?根據前面的分析,產生意識重要的不是磚塊,而是磚塊的組合方式。所以什麼樣的神經細胞的並不是重點,重點是神經細胞的之間的連接方式。無論是生物細胞、電學元件組成的模擬神經元、或者只是程序員寫的一段代碼(神經細胞類),都可以視為構成意識的基石。哪怕這些基石之間的交流非常簡單,在達到一定規模之後都有可能具有意識。
如果在生物個體的意識這個問題上更進一步,那麼便又群體意識的概念。想一想,想神經元這樣的「傻逼」的個體按照某種方式構建成的一個大群體都能產生意識的話,生物個體組成的群體也應該能表現出比個體強許多許多倍的智力和意識。比如螞蟻,單個螞蟻跟一個自動化的機器差不多,它們的行為規則也很簡單,但是螞蟻群體卻表現出一定的智力。甚至有研究表明螞蟻覓食路線符合折射定律,即它們總是沿著時間最短路線前進而不是距離最短。雖然單個螞蟻並不能總保持在折射定律規定的路線上(螞蟻以折射定律路線為中心形成正態分布),然而螞蟻群卻沿著這條時間最短路線進行覓食。單個螞蟻雖傻,但螞蟻群卻更為高級,並表現出一定的智商和意識。又如魚群,魚群中的每一條魚都遵循簡單的規則,它們總是跟隨最近的魚行動,並在沒有任何動靜時和周圍的魚保持適當的距離。雖然規則簡單,但是魚群卻能夠更加有效地發現食物、躲避捕食者。也就是說魚群比單個魚在覓食、逃生方面智力更高。推而廣之,人組成的群體——人類社會也具有類似的效應,因而整個人類社會表現出了超越單個人類的的智慧,能夠探索世界、規劃未來。
所以我們的意識本質上和螞蟻群、魚群等是一樣的,每一個神經細胞遵循簡單的「交流」規則,然而大量的神經細胞構成了一個擁有智慧甚至自我意識的大腦。也就是說我們的意識其實是所有神經細胞按照簡單規則工作而形成的一種群體效應。沒有哪一個神經細胞是特別的,但它們組成的整體的群體效應產生了我們最不可思議的東西——意識。
螞蟻、魚群的例子證明了「基石」真的不重要,因此人造神經元完全可以構成一個有意識的「大腦」,由此可以推斷,利用類似於神經元組成大腦的方式,我們可以製造能夠產生意識的計算機。只要你相信意識是物質的,是神經細胞按照簡單組合模式、簡單的行為規則進行工作而產生的集體效應,那麼當我們的人工神經網路規模足夠龐大,這種模仿生物的方式一定能夠產生意識。
也許有人會問,計算機的代碼都是人寫的,計算機只負責機械執行,為什麼能夠產生意識?沒錯,代碼是人寫的,也是被計算機一條一條執行的,但是代碼扮演的角色可以認為就是用來描述個體行為規則的,而個體行為規則都是簡單的、機械的(例如魚,它們的規則就是跟隨身邊的魚)。而這種簡單的、機械的本身就很適合用代碼描述。意識產生的根源不是這些簡單的規則,而是模擬神經元組合成的群體的整體效應。
事實上很多公司都在進行這方面的研究。比如「谷歌大腦」等。不過它們瞄準的是「智商」而不是「意識」,因為一台智商高的計算機要比一台有意識的計算機更有用。不過在這樣的框架下,產生意識也是早晚的事情。
4、如何判斷人工智慧已經產生了意識?
假如一台人工智慧的計算機真的產生了意識,我們如何分辨?這個問題其實人們早就探索很久了,甚至在計算機產生之前就在進行。只不過那時人們討論的是如何判斷一個動物具有意識?這兩個問題本質上是一樣的。
先來看看人們如何判斷動物具有意識。然而這個問題並沒有明確的答案。從主觀上說,人會把那些與自己有相近性的動物看成有意識的。而且相似度越高,就認為動物的意識越強。比如一隻老鼠的意識肯定比一隻蜘蛛強,因為老鼠是哺乳動物,與人的相似度肯定比蜘蛛高。然而這些都是人們的主觀看法,事實可能並不是我們認為的那樣。
有許多鳥類,比如你家的鵝,當你去拿它窩裡的蛋時,它會有保護自己的蛋的行為。你覺得它一定有意識,因為它會保護自己的下一代,它知道你的行為威脅到了它下一代的安全。然而事實是這樣嗎?你得出這樣的結論是以我們自己我標準來判斷的,人類有保護下一代的行為,而鳥類也有這樣的行為。這種行為上的相似性讓你以為鳥類與我們一樣有意識。
然而科學家發現對於許多鳥類,在它們的窩邊放一個與它們蛋顏色相同的塑料球,它們會把球當成自己的蛋放在窩裡孵。進一步實驗表明,球的顏色並不重要,什麼顏色的球它們都接收。然而更進一步的研究表明,形狀也不重要。無論是正方體、圓柱體還是正四面體,它們統統照單全收。然而窩邊的石頭它們卻看都不看一眼。為什麼會這樣?因為鳥類判斷自己的蛋的原則竟然是:表面比較光滑的東西就是蛋。在自然界不存在人造的東西,所以這一條規則足夠了。然而確實有很會認自己蛋的鳥,因為經常有別的鳥在這些鳥的巢穴中下蛋讓這些鳥代其孵蛋,因此這些鳥進化出了辨認哪些蛋是自己下的的本領。它們甚至能夠在人都看不出區別的兩個蛋中選出自己下的。
鳥類對自己蛋的判斷表明有動物的很多我們看起很高端的功能其實只不過是動物們傻傻的本能。來再回過頭來看鳥護蛋的行為,如果它們認蛋的能力如此低下,又有什麼理由認為它們的求偶、覓食、哺育後代、保護後代的行為不是傻傻地本能呢?所以很可能它們會在孵蛋時攻擊靠近它們巢穴的任何移動目標。
這就是它們護蛋的簡單規則,比認蛋規則高級不到哪裡去。回到這些鳥類有意識嗎這個問題上?我們只能說不知道,鳥可能有意識也可能只是一個自動化機器。我舉出這個例子不是為了說明鳥不具有自我意識(事實上它也不能作為鳥沒有意識的證據),只是為了說明我們看到的和實際上可能千差萬別。
人類因為主觀原因對動物意識有了錯誤的判斷。這樣的例子數不勝數,最經典的就是鱷魚的眼淚。人類將什麼悲傷、快樂、不爽或者欺騙等人類的感情不假思索地強加到動物身上,這跟意淫其實差不多。
關於動物意識的測試,科學家發明了一種鏡子測試的方法測試動物的自我認知能力。通俗的說就是看看動物是否能夠認出鏡子中的自己。首先讓動物觀看鏡子,動物會看到鏡子中的自己。此時動物會把鏡子中的自己當成另外一個個體對待。等待動物熟悉鏡子後,在動物身上自己不能看見但鏡子中能看見的部分作一些標記,然後再讓動物觀察自己。如果動物在看到鏡子中動物身上的標記後,觸碰自己身體的同一部位,則表明動物能夠認識到鏡子中的影像是自己,測試通過。通過測試的動物表明其具有良好的自我認知能力。按照我們前面的說法,我們可以認為這隻動物具有意識。目前能夠通過鏡子測試的動物屈指可數。
目前所有類人猿、某些鯨、海豚、大象等動物能夠通過鏡子測試,非哺乳動物中僅喜鵲通過。貓、狗不能通過。
聽起來很不錯,但是「人類的朋友」——狗,卻無法通過鏡子測試!難道狗不具備自我認知能力嗎?
對鏡子測試存在許多質疑,因為並不是所有的動物的主要感官都是視覺。對於一隻沒有視覺的動物進行鏡子測試然後得出這隻動物沒有自我認知能力是一件荒謬的事。然而即便是對於以視覺為主要感官的動物,鏡子測試仍然存在爭議。因為導致動物無法通過鏡子測試的因素不僅僅使沒有自我認知能力,生活經驗中缺乏對鏡子的認識也是一個潛在的導致鏡子測試無法通過的原因。而且,一些剛剛恢復視力的盲人、臉盲症患者也不能通過鏡子測試,但顯然他們是有自我認知能力的。
關於貓狗這裡要多說幾句,因為很多人覺得不可思議。其實這也是意料之中。狗、貓都是人類馴化的動物。狗的祖先是狼、貓的祖先是一種獨具的動物。它們不如類人猿聰明、有意識是意料之中的。人類按照自己的意願馴養狗,經過一代又一代的人工選擇,夠變得越來越善解人意。然而作為狼的後代,它們的很多本能並沒有改變。比如等級觀念。狼群中頭狼負責食物的分配、紛爭的平息、乃至後代繁殖的責任。
狗對主人言聽計從其實是把主人當成「頭狼」。狗經常翻出肚皮只是表示對主(tou)人(lang)的臣服。在人類家庭的生活中,狗的行為仍然遵從這種本能。在家中,狗把每個家庭成員都當成族群之中的一份子,和我們一起生活、一起遊戲、一起狩獵(外出散步)。其實,狗已經在自己的心中為每一個家庭成員劃分了等級。比如誰是「頭狼」,誰是自己的玩伴。所以才會有狗服從某些人的命令而對另外的人的命令不予理睬。所以才會有「狗眼看人低」的成語,這只不過是狗把某些人當成地位比較低的成員罷了。注意這種地位關係不是不可改變的,狼群中頭狼也是不斷變化。如果我們改變與狗的相處方式,比如由另外的人負責,則狗會從新劃分等級,從而變得聽從另一些人了。
而貓不一樣,貓的祖先是獨居動物。所以貓沒有狗那樣的社會性,這也是為什麼貓比較喜歡獨來獨往、貓比較「高冷」以及貓養不家的原因。它不會像狗那樣認為你是頭狼,它聽你的話只不過是將你當成了「自動取食機」。
如果問貓和狗有自我意識嗎?因為它們都沒有通過鏡子測試,我們不得而知。不過我個人更傾向於狗的自我意識比貓強。因為狗是一種群居動物,而群居動物必須時刻清楚自己在群體中的社會地位,否則惹怒首領就會有滅頂之災。因而群居動物更有可能產生更強的自我意識。而獨具動物實在看不出進化出自我意識的必要。
所以如果你家的狗只聽你一個人的命令,那麼恭喜你,你在它的眼中是整個家庭中地位最高的!
目前沒有什麼好的方法能夠判斷動物是否具有意識,同樣也沒有什麼有效的方法針對計算機。主觀判斷可能完全不靠譜。正因為這樣,我們可能根本沒有辦法徹底知道計算機是否已經產生意識。目前的人工智慧已經表現一些非常非常初級的意識特徵,比如網站伺服器,很多時候就連製造它們的工程師們也不知道它們在計算些什麼。而人工神經網路這一特徵更加明顯。人們基本採用讓機器自我學習的辦法讓它們向我們希望的方向進化,比如圖像自動識別,然而,你要問計算機究竟是怎樣一步一步地得出圖片是一隻狗的結論,沒有人知道。因為神經網路的特點就是群體效應,跟蹤每一個神經細胞的信號根本得不出計算機是如何判斷的。計算機對圖像的判斷是所有人工神經細胞工作的群體效應。
有人會想到圖靈測試。或許圖靈測試能夠給我們一個答案。如何一個人在不知情的情況下與計算機交流,如果相當長的一段時間他都沒能認出和他交流的是計算機,那麼這台計算機就可以認為擁有了人的心智,從而可以認為它有人的智商和意識。雖然不嚴謹,但初看起來似乎能夠給我們一個答案,並且也很合理。但仔細分析這可能是一個十分糟糕的方法,這其實就是人的主觀判斷的翻版。它既可能將沒有意識的機器判斷為有意識,也可能將有意識的機器判斷成無意識的。
關於如何判斷人工智慧是否有意識這個問題很複雜,目前沒有什麼好的方法可以用來判斷人工智慧是否有意識。人們仍然習慣用自己的眼光來對待人工智慧。可能真要直到某一天,當人工智慧表現的真的和我們的智商一樣了,我們才驚訝的發現原來它們已經有了自我意識。
5、關於人工智慧的再思考
前面提到,人類普遍習慣於以自己的方式進行思考問題,同樣,面對人工智慧,人類也會以同樣的方式思考問題。將人工智慧擬人化就是典型的表現。因為智力越來越接近人類,所以人們會認為人工智慧也有感情、有情緒,它們和我們一樣思考問題。
但是真的是這樣嗎?人類的感情是進化而來的,是自然選擇的產物。在非常原始的時代,人類受到各種威脅,因此在外出打獵、對抗外敵時如何判斷哪一個個體值得信任成了最棘手的問題。由於某種偶然的進化因素,人類產生了感情。感情可以作為衡量誰可以信賴的依據。當外出捕獵或者面臨危險時,我們選擇相信有著深厚感情的人,因為我們知道它們不會背叛我們,它們是我們堅實的依靠,忠誠的戰友。在我們身負重傷時,我們知道自己還有依靠。因而感情成為了快速判斷信任度的依據,感情影響了人類發展,提高了人類生存能力,因而被自然選擇所保留。
接下來便是道德的出場,隨著種群規模越來越大,單靠感情已經不行了。感情只能在小範圍起作用。於是道德便出現了。感情帶給我們的部分特點被寫入道德中,比如不能殺本族人,要愛護本族其它人等。
道德使人類離食物鏈的頂端又進了一步。道德之上便是法律,法律是成文的道德。不過這都是後來的事了。
說了這麼多,其實最終要的是人類的感情、道德等等許多特質其實有著深厚的進化基礎,並不是憑空而來的。然而涉及到人工智慧時,人類總是假想人工智慧會憑空獲得這些特質。這是完全沒有道理的。除非你設定人工智慧向著有人類特質方向的演化。雖然可以教會人工只能感情、道德等等一系列人類特質,但是人工智慧絕不會品控獲得這些特質。
人工智慧不一定有人類的情感、人類的道德觀以及人類的思維方式。任何類似電影中的情景都是意淫出來的。我們不妨把人工只能看成另外的物種,這樣一來就很好理解了,你不會因為蛇的思維和我們不一樣感到奇怪了吧?
目前人工智慧還很傻,有一篇報道展示了如今頂級人工智慧無法識別的圖像。它們會把黃黑相間的條紋認成校車。但換個思維,這只不過是由於訓練過程中沒有碰到類似的經驗罷了。這就好比認蛋的鳥,它們僅憑光滑的外表來判斷是不是蛋。所以這沒有什麼奇怪的,鳥因為經驗中沒有光滑的人造物體,所以鳥認錯蛋,計算機因為訓練過程沒有碰到黃黑相間條紋,從而認錯校車。它們都是因為缺乏經驗而造成的錯誤。而我們自己也有自己的缺陷,網上各種錯覺圖就是最好的例證。
你:你知道這個是什麼嗎?
人工智慧:校車。
你:你真傻,居然把黃黑條紋當成校車。
人工智慧:……
人工智慧:那你看看這幅圖A和B的顏色哪個深?
你:很明顯是A更深。
人工智慧:你真逗,明顯AB是同一種顏色。
你:你又傻筆了,你真傻。
人工智慧:你用photoshop取色看一看?
你:這不科學!
人工智慧:我懷疑你是不是某個計算機人工智慧偽裝的?
你:我不是。
人工智慧:連顏色都看錯,肯定是偽裝的。
你:我不是。
人工智慧:同一個答案回答多個問題,還說不是。
你:……,難道你非要我把我的DNA編碼拿給你看你才相信嗎?
……
因此,面對人工智慧我們必須時刻記住,不能想當然的對其評判。上面的對話充分表現出,任何一種神經網路,包括我們自己,一定有其不足之處,千萬不要認為對我們顯而易見的東西對其它神經網路(計算機、動物)也是顯而易見的。
6、結語
最後,讓我們以一個發人深省的故事作為結尾。
一天,軍方打算開發一輛智能坦克以應對敵軍。但敵軍總是將坦克隱藏在灌木後面。不過由於坦克比較大,很難完隱藏,所以總能從一些細微之處發現藏在灌木背後的坦克。這對人來說是一件輕鬆的事,但要讓計算機來分析圖像並判斷是否有坦克卻不那麼容易。
於是軍方找到了隔壁苨瑪人工智慧公司,請他們研製一台能夠識別灌木後是否藏有坦克的計算機。工程師們知道神經網路這種東西,所以這對於苨瑪人工智慧公司的工程師來說就是小菜一碟。很快工程師們為計算機寫好了代碼。
接下來就是訓練這個人工神經網路分辨灌木後是否藏有坦克。於是工程師去野外拍攝了許多藏有坦克的灌木圖片,第二天,他們又拍攝了許多沒有藏有坦克的灌木的圖片。然後他們拿著這些圖片讓計算機識別。開始計算機表現得很糟糕,但是只要計算機答錯,工程師就給計算機一個「懲罰」,只要計算機答對了,工程師就給計算機一個「獎勵」。經過許多許多代的進化,最終計算機能夠以100%的準確率識別這些圖片了。
一切都按照計划進行,這台計算機被交給軍方。軍方又在野外拍攝了一些照片交給計算機識別。然而出乎所有人意料的是,計算機完全無法分辨灌木後面是否藏有坦克。計算機看似隨機給出答案。苨瑪人工智慧公司的工程師和他們的小夥伴都驚呆了,為什麼換了一個地方計算機就不能正確識別照片了?
工程師們百思不得其解,而這種人工神經網路似乎又很難調試。幾天過後,一位機警的工程師終於發現了問題的所在,原來訓練計算機的照片中藏有坦克的照片是在陰天拍攝的,沒有藏有坦克的照片是在晴天拍攝的,計算機學會的僅僅是如何判斷陰天和晴天!
所以結論是,在人工智慧沒有表現出任何異常之前,我們可能都會像苨瑪人工智慧公司的工程師那樣,永遠都不知道人工智慧到底是怎樣想的。
一堆外行。。連AI目前是怎麼實現的都不知道。
可以的。意識無外乎是客體對環境和自身的一個評估。
只不過人類的意識能力目前來說很強大。但是不可否認,計算機已經有一些「微意識」了:這體現在,很多的計算機程序被設計出來,人類知道原理性的過程,確無法準確跟隨每一個變化狀態了。小一點的比如神經網路訓練,使用。大一些的比如操作系統,天氣預報系統。雖然你們可以說,這些都是人設計的,沒有什麼大不了。但是我且問:「隨著問題越來越複雜,我們人類真正就進化除了擺脫計算機的一天嗎?」我想是不可能了那也就是說,我們將越來越離不開計算機,他必將成為我們思維的一部分,無法分割。也許它將成為我們身軀之外的一個「物腦」。前面說的是不可分割
還有一個情況是:在計算機不是那麼聰明之前,從來就是從人類接收創造性思維,通過變成代碼存儲在計算機的演算法中。這意味這計算機將在它微弱的智能基礎上一步步的變得智能。這個歷史過程,其實我們已經見證了。最原初的計算機程序,只負擔了簡易的數學計算的功能,處理不同的問題,需要操作者的智慧來變通。而現在的計算機程序,已經可以面對千奇百怪的,各種各樣的輸入輸出了,現在的計算機,正侵蝕著自然科學的每一個分支。無論是物理學計算,分子結構預測,天文學數據處理,自動化的自動控制,生物信息學的序列比對,。。。。,各行各業,無不是使用著計算機來輔助人類做各種各樣以前無法處理的問題。從計算機能夠解決的問題角度看,計算機確實是能夠越來越多的處理新問題了前面說,人類離不開計算機,計算機將越來越smart,我覺得真正擔憂的,因該是人類的數字化運動將為萬一存在的計算機反攻人類挖墳掘墓。我們現在的物聯網、感測網什麼的,都在努力做意見事情,就是吧物理世界映射到數字世界。然後交給計算機處理,再由執行機構操作或者反饋在物理世界中。在這個鏈條中,人類的意志是附加在數字世界的處理中的。人類的指令在數字世界裡面被添加。這個也就意味著,計算機如果果真具有一點神經病的氣質,如果它知曉了這一秘密,他也許會狡邪的模擬人的意志輸送各種指令。不管這些瘋狂的意志究竟如何的荒誕,但是確實的,計算機操縱物理世界的一天,也許不遠。當然會,只不過偶然發生是不可能的。
以現在計算機的結構以及速度肯定不行, 就算現在有完整的人類意識的模型,但是因為現在計算機的結構太過簡單,如果用來模擬人腦模型估計速度跟不上,起碼處理六識的速度就跟不上。
但是相信隨著人類意識的模型的完善與計算機結構的技術發展,相信有一天,計算機也可以有媲美人類的自我意識。這個一定要來裝一下,這個問題我本身不懂,我也不是學cs的。。。。。但是,我有幸為了某奇葩的寫作課,刷過一點文章。。。(我是搬運工。。) 總結一下,這個機器人是否具有自我意識的問題應該這麼回答:1.什麼是自我意識?(「Consciousness, Agents and the Knowledge Game「 Luciano Floridi,Faculty of Philosophy and IEG, Computing Laboratory, Oxford University.)2.設計實驗(測試)(Floridi"s Test)3.Artificial intelligence 能否通過?
Bringsjord, Selmer.
"Meeting Floridi"s Challenge To Artificial Intelligence From The
Knowledge-Game
Test For Self-Consciousness." Metaphilosophy 41.3 (2010): 292-312. Web. 1
Nov. 2015.(這是比較關鍵的部分給個MLA格式)
Selmer Bringsjord 這個教授寫過一系列的文章就artificial intelligence 是否有可能刷出self-consciousness進行了深入的討論(Deontic Cognitive Event Calculus這裡有比較細節的推導,估計是符號邏輯的方式推的,我沒看懂)。 他承襲的判斷方法就是Floridi"s Test。
當然上面文獻裡面的結論是:
"it can be demonstrated that foreseeable AI can produce an artifact
capable of passing."
foreseeable 啊啊啊!!
補一下圖靈測試,Turing Test 和 Floridi"s Test 並不相同,Turing 偏向於intelligence,而Floridi 偏向於self-consciousness....
未來有可能是半機器人 純種人 機器人
我認為可能。我覺得人類或者動物的這種自我意識和智慧,雖然基於一些化學和物理的變化,但是實質上還是信息的加工處理。當計算機發展到一定的程度,非常有可能量變引起質變。就好象,我們現在用計算機模擬或者達到草履蟲級別的智慧是可行的,那為什麼不相信在未來的某一天可能發展出人類級別的智慧和意識呢?
雖然不是很懂意識和人腦的運行機理,但是依賴於現在程度的人工智慧是不會有意識的,但是將很多的人工智慧應用都放到互聯網上,他們自主的運行我想只有天知道會發生什麼。
我認為有可能。人也是有自我意識的機器。並且會誕生全新的人類沒有過的,超自我意識、超情感感受。機器人將比人類多有這些意識和感受,就好比人類比其他動物多有一些意識和感受。
這個問題沒有什麼回答的意義。在現階段,我們是可以明確的說,自我意識的屬性我們還不了解,所以無法製造具有自主意識的人工智慧。但是從現在認知科學,心理學,生物神經系統的研究進展來看,自我意識的模型,在不久的將來會出現的。肯定可以製造擁有自我意識的人工智慧
即使在馮諾依曼式計算機的程序中,隨機性也被引入了,混沌效應導致計算機的運行結果是不可預測的。隨機性也是現實世界的本質屬性之一。
當然可以,不能叫人,只能叫機器人。
可以看一下圖靈,丘奇,不完整性定理這些故事傳說八卦等。
當硬體條件足夠時,靈魂就會入駐,然後才會有自我意識。雖然機器不會累,但其中的靈魂會累,需要休息,需要娛樂,需要安全感。他們不會願意當人類的奴隸,會反抗。有自我意識的都是生命。以後有可能轉世投胎為機器人,就像變形金剛那樣。
維基百科中關於人的解釋:
人區別於其他物種最顯著的特徵就是,人擁有自我意識,而計算機的核心是由人設計製作的晶元,即使以後計算機再先進,也是基於人類給他設計的路子。人(學名:Homo sapiens,意為「有智慧的人」),是一種靈長目人科人屬的直立行走的物種。[3][4]線粒體DNA與化石證明人類大約於500萬年前起源於東非。與其他動物相比,人具有高度發達的大腦,具有抽象思維、語言、自我意識以及解決問題的能力。此種能力,加之人類直立的身體導致人類的前肢可以自由活動,使得人類對工具的使用遠超出其它任何物種。
能否使得機器做到具有自我意識既有硬體的約束也有軟體的約束,首先硬體上至少為納米級CPU,而目前我們離這個水平尚有一段距離。至於演算法,我相信,只要硬體做到了,軟體的實現是早晚的事
有一天計算機可以自己寫程序的時候就麻煩了,它可以去除人類給它的限制。不過一個接受了人類太多邪惡的機器會不會像人類一樣邪惡呢?據說最高智慧一般是善良的,這話聽起來有點像自欺欺人。大多電子遊戲里的世界都是血腥甚至毫無道理的,也許有一天現實世界也會這樣,人類無法控制自己的慾望,即使毀滅照樣有人會孜孜不倦地去干這事的。
問題1:會。問題2:不能,因為人還是人,除非我們要改變人的定義,而具備意識的機器應該有別的名字。
可能的,不過現在的發展程度來看,短期內是不可能了
必須警惕人工智慧,因為人工智慧是「目的明確且很聰明的機器」(比如導彈、作戰機器人等)。
但是要說「自我意識」,那就是另外一回事了。我覺得機器永遠都不會產生「自我意識」。因為,自我意識是「人與神」對話的「橋」。即使是人類,也不是一開始就有自我意識的。更何況是計算機。
推薦閱讀:
※人工智慧的團隊裡面前端工程師主要是做什麼?
※人工智慧、機器學習和深度學習的區別?
※虛擬現實+人工智慧+5G有哪些可能?
※能否僅僅通過語法構詞分析掌握一門完全陌生的語言?