人工智慧「應該產生」意識嗎?
來自專欄認知日誌3 人贊了文章
前言
在你閱讀本文之前,你是否也對人工智慧這樣聽起來高大上的未知事物感興趣?是否對《終結者》中的邪惡機器人心生畏懼?是不是害怕未來人工智慧掌握你的一切?以上的疑問,在閱讀本文之後相信你心中會有一個清晰的答案。
像毀滅世界的邪惡機器人,它們所謂的「起義」是取決於一個先決條件:像人類一樣思考,也就是擁有意識,在一個比我們聰明、強大的敵人面前,人類的確是十分渺小的,在你擔心這一切之前,我想問問你:它應該擁有意識嗎?
1. 人工智慧的定義
在和你討論邪惡科學家利用人工智慧毀滅世界之前,我們必須要就人工智慧(Artificial Intelligence,簡稱 AI)的定義達成共識,在解釋人工智慧之前,我們需要清晰的理解智能一詞的概念:完成複雜目標的能力。
為什麼說人是智能的?因為人具備完成複雜目標的能力,比如:污水處理、建立股市、發射火箭、製造氫彈等。當然,我們並不是靠自己的雙手事必躬親的完成上面的任務,而是要製造機器來幫助我們完成,這些人造的機器,有著和我們一樣的目標:污水源熱泵、股票交易處理、火箭引擎、核彈頭等,是不是感覺這些機器都是一些很「平常」的機器,和智能二字沒啥關係?但它們的的確確是由我們人類所建造並服務於我們的目標的,這些機器,我們就可以將它們定義為「人工智慧」。而且,這些機器當中也不乏股票交易處理這樣的軟體,所以,人工智慧本身就是一個非常寬泛的定義,即由人類所製造並服務於人類設定的複雜目標的機器,像日常生活中的:手機 AI 拍照、智能掃地機器人、電子遊戲中的電腦玩家,它們都是所謂的人工智慧。
以上的人工智慧很多都是在計算機科學上被稱作的人工智慧,即 AI(為了區分二者,之後使用 AI 來指代計算機科學中的人工智慧) ,它們是基於一種叫做「機器學習」或「深度學習」的計算機演算法,它是完全有能力完成那些複雜的目標,所以我們可以把它也劃入人工智慧的分類之下,所以,人工智慧並不是什麼高大上的東西,它很早就來到了你我的身邊,只是邪惡的商人和狡猾的媒體經營出了關於人工智慧的神秘感,讓你誤以為它高深莫測。
2. 系統的目標
在和你討論了許久人工智慧的定義之後,我們回到關於重點「智能」定義中的關鍵字:目標。這將是我們弄清楚人工智慧是否擁有意識的關鍵,就目標而言,無論是人的目標、還是 AI 的目標都應該相同,這樣的人工智慧就能不惜餘力的長此以往的服務於我們。
一旦二者目標不同,很有可能出現科幻電影中,AI 開始反抗人類並做出傷害人類的舉動,比如:捕鼠器會不小心夾到你的腳趾,因為捕鼠器的目標並不只是夾到老鼠,而是夾到一切進入陷阱的物體,如果給捕鼠器加上一個可以「溝通」的攝像頭,用於識別進入陷阱的是人還是老鼠,這樣捕鼠器的目標就和人類的目標很相近了,我們稱捕鼠器的智能得到了提升,這樣我們就擁有了一個智能捕鼠器,是不是像幾年前加個 APP 就可以叫智能的消費市場?同時我們也把這種人工智慧的目標與人們給它設定的目標不一致的問題叫做「目標不對齊」。
2.1 人的目標
對於人而言,我們是不是應該設置目標呢?那這些目標在何種原則之下的被確立的呢?是我們隨心所欲想幹嘛就幹嘛?還是冥冥之中有一雙手在控制這一切?
這似乎是一個生物學問題,我們的基因「告訴」我們:複製!複製!再複製!
基因的妙處就在於為了達到它自身的目標,會「強迫」我們去做一些我們為之快樂的事情:高熱量的食物、穩定的收入、忠貞的愛情以及幸福美滿的家庭,這樣的一切都是為了幫助我們的基因完成複製。為什麼基因不靠單細胞一分二這樣指數級的複製,而是選擇進化成人類這樣,擁有智能的生物?原則上進化出擁更智能的生物是為了抵抗劇烈變化的環境,就像20億年前的大氧化事件,地球的主宰細菌遭受了致命打擊,進化成可以對抗不確定環境的智能生物似乎才是一條正確的道路。
基因的目標看來從來都沒變過,只是放棄了那種容易被不確定環境淘汰的路徑,為了服務於它的主要目標,它似乎衍生出了一個次要目標:增加基因的多樣性,以此來對抗不確定的環境,當然我並不是想和重溫初中生物課堂,而希望你可以清楚的認識到為了達到主要目標,基因是可以「不擇手段」的,比如:放棄單細胞一分為二的繁衍速度,讓人類喜愛高熱量的不健康食品以及安於現狀等。
那我們的目標是不是應該去違背基因的首要目標呢?比如成為丁克家庭,不生育後代,實際上,我們的高度社會化已經讓我們無法反抗,身處於複雜的社會結構中,我們的工作及消費,就是直接及間接的推動社會的發展,我更願意把它稱作為「巨大的車輪」,每個人都在裡面不得不跟著它一起跑,車輪不會因為一兩個人的作為而停止,或許這也就是生物學的終極產物:為了不斷複製,產生「巨大的社會車輪」。
2.2 AI 的目標
還記得上文提到的「智能捕鼠器」的例子嗎?這就是一個典型的人工智慧「目標不對齊」問題,如果來到 AI ,是否還會存在這樣的「目標不對齊」問題呢?
當然是的,不僅如此,我們似乎連 AI 的首要目標都不清楚,我們人類的首要目標是加速基因在安全穩定的環境下複製,但 AI 似乎被我們所創造卻不是為了這一目標,而是服務於我們的一個又一個的次要目標:清潔的水資源、複雜的金融工具、對於宇宙的好奇甚至是執行國家機器的戰爭訴求。不過事與願違,不是所有的人工智慧都是100%朝著我們的選定目標前進,導致結果不是非常令我們滿意。
可這取決於它們的智能,而且我們的次要目標是它們的首要目標,在目標建立之初就是人為的、系統的產生了一種「目標不對齊」的情況,所以在沒法給 AI 都設定一個統一的首要目標之前,我們可以先研究一下它們的次要目標,我將其總結為四點:Safe、Resource、Information、Curiosity。
Safe:這個就像人類本身的生存需求一樣,保障整個 AI 運行環境的安全是實現人類所指定的目標的最低要求。可是這一點 AI 本身是無法控制的,人類為了自己的利益訴求,理所當然的會保證其環境的安全穩定。好比早些日子四川發大水,天災席捲了許多「礦場」(這裡的礦場指的是數字貨幣的運算中心),導致以太幣全球算力大跌。AI / 計算機是無法保障自身的安全的,不過好在互聯網的存在,他們的後代———數據可沒有那麼容易遭殃,所以,想要徹底「殺死」一個 AI ,在物理上解決他們似乎不夠。但還好目前為止 AI 始終是我們的夥伴,我們並不需要想盡辦法「對抗」他們。
Resource:對於 AI 來說,資源是至關重要的,就好比一個國家的綜合國力,當然是越強越好了。顯然,目前而言 AI 並不能夠通過自己勞動成果增加資源(運算力、存儲空間等性能部件),還是需要依靠人類來幫助他們添加。可是在不遠的將來,AI 可以接觸到現實人類的系統(政治系統、經濟系統、生命保障系統等)似乎就不好說了。
在未來有一個實驗室的研究員,出於無聊,要求 AI 算出圓周率 π 的全部位數(目前的數學系統中,π 當然是無法被窮盡的),然後 AI 就開始悶頭苦幹。研究員看著 AI 就在那算也挺無聊的,於是就離開了研究室出去散步了。但此時的 AI 進行了一個決策:判斷出 π 在目前的運算力之下窮盡難度極高,需要更多的資源。於是乎,這個實驗室的 AI 開始通過網路劫持平民百姓的計算機幫助他進行計算;後來再進行判斷發現:目前的運算力之下窮盡難度極高。於是繼續劫持計算機資源,將 Google、Microsoft、Facebook等大型科技公司的計算機全部劫持並協助計算;接著繼續進行判斷:目前的運算力之下窮盡難度極高。在通過利用現有計算機資源繼續劫持各國政府,下發假指令試圖劫持全世界的計算機;大功告成之後再進行一次判斷:目前的運算力之下窮盡難度極高。於是 AI 想了個新辦法,將整個太陽系變為一台計算機,正準備操控各國航天中心發射火箭改造太陽系時,研究員回來了,發現實驗室的計算機闖下了大禍,立即拉閘斷電,這個劫持太陽系計算無理數 π 的故事也就告一段落了。
試想一下,AI /計算機可是沒有什麼倫理道德觀念的,為了達到自己的首要目標(也就是研究員的命令),AI 可是按照 Safe — Resource — Information 不斷地索取資源,利用外部信息修正當前決策模型,繼續決策,再索取資源往複進行,直到可以在預期內完成首要目標再開始計算。所以,當 AI 有足夠的能力去自行添加資源時,我們人類才應該擔心 AI 機器人毀滅世界的電影橋段。像上面實驗室的 AI 還是完全服從使用者的指令的,而且 Safe 目標也不能只依靠自己實現,相對來說還是對人類較為安全可控的。
Information:信息的重要性不言而喻了,就像利用貝葉斯演算法,不斷的增加外部信息,可以有助於 AI 調整本身的決策模型。好比目前的人工智慧演算法:機器學習,也是通過使用信息來調整出貼合現實的模型,幫助人們利用模型進行預測。這裡生產的機器學習模型可以簡單的理解為偶爾失靈的物理公式:利用模型預測就好比使用萬有引力定律預測蘋果落地,但機器學習計算出的模型不是100%準確的,偶爾也會出錯。好比 Uber 收集的用戶出行數據,通過機器學習可以建立城市人口流動模型,用於實時預測城市中人口的出行需求。目的就是能夠幫助 Uber 司機在適當的時候到達出行需求旺盛的地區。不過像之前英國倫敦恐怖襲擊,Uber 的機器學習模型可不知道恐怖襲擊發生,只是發現出行需求突然增加,所以開啟了動態價格調整,事後引起了倫敦民眾的不滿,除了道歉,Uber 也表示今後的動態價格調整都由人工審核再開啟,這就是機器學習的的弊端了。對於信息整合能力而言,人類現在是佔據上風的,在信息不全面的情況下,所做出的決策偶爾也是會不如人意的,那麼更多的信息是幫助 AI 出色的完成首要目標的神兵利器了。
Curiosity:這一目標就顯得像一個人類一樣了,不過目前的 AI 還是無法產生這一能力,將來的 AI 就不好說了。就好比人類一樣,在對周圍環境的洞察十分重要:對於石器時代的人類,周圍的地形、猛獸及獵物、植物種類等等情況都需要了如指掌,否則生存幾率大大下降;對於生活在現代城市中的人類,行業動態、知識與技術、甚至是辦公室八卦都對生存有著不小的影響;而對於 AI 而言,所有計算機部件的供電計劃、提供運算力的部件的數量及性能、全部首要目標的相關信息對 AI / 計算機的生存才是重中之重。但可惜的是,目前的 AI 是無法洞悉這一切的,將來的 AI 也許可以產生好奇心但是充分條件是需要有意識。
耗費如此之長的篇幅討論 「AI 的目標」 這一話題,希望是讓你知道,在目前的計算機科學水平之下,AI 的首要目標是我們設立的,次要目標也是需要我們的幫助亦或者無能為力的。目前來說不需要過多的擔心文明被科幻電影的機器人摧毀,但也不要高興的太早,因為那些滿懷好奇心的 AI 也許在這個世紀就要降臨。
2.3 宇宙的目標
也許你會問:宇宙還有目標?難道要討論上帝了?
沒錯,在我們的宇宙之中,的的確確是存在一個更大的目標:熱寂。
在解釋熱寂是什麼之前,希望你可以重溫一下熱力學第二定律:孤立系統自發地朝著熱力學平衡方向,即最大熵狀態演化。簡而言之,就是指孤立系統總是向越來越混亂的方向發展,而熱寂就是宇宙在熱力學第二定律作用之下的終極狀態:每一個原子與其他原子都距離無限遠。此時,整個宇宙一片死寂,這也便是宇宙的首要目標了。
似乎距離「熱寂」的到來還很遠很遠,我們也不需要擔心它,但是你不得不認識到這個觀點,這個世界所發生的一切都是為了達到宇宙的首要目標,在宇宙的「眼裡」,我們的首要目標都只是次要目標。
問題來了,既然宇宙是希望熵增,也就是更加混亂,但我們人類做的事情都是熵減,讓事物更加有秩序,比如:種植農作物、整理房間、組裝汽車、製造火箭等都是將周圍的事物變得更有秩序,從而服務我們。這樣一來我們和宇宙之間是否存在目標不對齊的問題?
一旦二者之間存在目標不對齊的情況,就會有一方受到不必要的傷害,比如之前提到的捕鼠器,不過問題的答案是否定的,我們的首要目標在宇宙「眼裡」是次要目標,即使這個次要目標客觀上做的事與首要目標截然相反,同理這也能解釋生命的誕生。來自一種名為「耗散驅動的適應」的理論剖解這一現象,如果用一個詞來總結這些現象,我會把它們稱作「自組織」現象。
耗散驅動的適應大概的意思是:孤立系統之中,一直得到外部能源供給,系統內部的所有原子就會逐漸的組織起來,形成一個複雜的結構,這個結構的目的就是以最大限度吸收外部能源並消耗它們。
這一理論就是解釋了自組織的現象,揭示了能量與物質之間的關係,只要能量不斷供給,物質就會自行組織起來(此過程為熵減),然後盡全力的消耗不斷供給的能量(此過程為熵增),雖然是在小範圍的建立秩序,但是這小範圍的組織會在大的尺度小製造混亂,最後整個系統的混亂是增加的,也就是熵增的。
局部熵減是為了整體熵增而生。
一旦你理解了這一理論,仔細回想,生命的誕生似乎也是理所應當的,因為太陽不斷在給地球輸送能量,而且地球的元素組成又恰好可以組織出生命,一拍即合,你我其實都是物理規律的產物罷了。
我們人類的目標似乎就顯得無關痛癢了,即使我們不斷複製,也只是在地球上「搗亂」,所以接下來我們應該要想盡一切辦法去其他星球「搗亂」,成長為跨星系文明無疑是人類文明的發展方向,到那時,AI 將會成為我們開疆拓土的好幫手。
可是了解宇宙的目標有什麼用處呢?我們還是照常7點起床、午餐選滷肉飯、健身房跑1小時,感覺毫無作用。沒錯,學習物理學知識的確不能用來指導生活,但是可以當做「複雜的量角器」,在你需要思考大問題的時候,拿出它來,給你的想法或決策做一次測量,看看是否存在巨大的偏差。如果你只把物理學看作哲學,許許多多的複雜問題,似乎依靠物理學的「智慧」也可以解決,也許比前人的方法更好。
3.系統的意識
經過上面的討論,我們能清楚的體會到:人類是服務於 DNA 的目標、AI 是服務於人類的目標、物質和能量是服務於物理的目標(物理定律)。那總體而言是什麼東西是服務於目標呢?又是什麼在驅動一個又一個的目標?
先告訴你答案:意識。這也來到了本文的重點,雖然之前花費較大的篇幅討論意識以外的東西,但我相信在讀完前文之後,能夠更好的幫助你理解我們接下來要討論的內容,以及本文的核心問題:人工智慧「應該產生」意識嗎?
3.1 意識的工程學
意識,我們工作生活中都多多少少會用到這個詞,但是你不一定像你以為的那麼了解它,就像上文的「智能」一詞。那麼意識的定義是什麼呢?
意識 = 主觀體驗
即:你主觀下能感受到的一切東西都是你的意識。
似乎有點「我思故我在」的道理,實際上只要你可以對事物產生一個主觀的體驗,比如遊樂園過山車的刺激、童年夏夜的寧靜亦或是隔壁鄰居裝修的心煩意亂,這些都是你的主觀體驗,也都可以說明你就是擁有意識的,當然,這也從側面說明意識的定義十分的模糊,因為科學界也沒有一個統一的理論解釋意識,既然如此,不能從上到下的了解意識,那就從下往上的一步一步的分析它。
物理學,既然我們都是由原子組成的,為什麼同樣由原子組成的食物沒有意識而我們擁有意識?既然萬物都是由基本粒子構成的,那意識也是單純的由粒子構成並以物質形態出現嗎?很顯然不是,因為如果意識是真的具體的存在於大腦的某處,對植物人及其相關研究早應發現,如此一來到底是什麼導致了意識的出現呢?在討論這個問題之前,想先和你聊一個有趣的物理現象:湧現(讀過《爆裂》一書的朋友應該不會陌生)。一堆由粒子組成的群體會出現一些不屬於該粒子的特性。比如 H2O 分子在不同的物理排列下,固體的冰是十分堅硬的,液體的水是濕潤的,氣體的水蒸氣是無法抓住的,這些特性就是「湧現」所希望解釋的,這些特性也是高於粒子本身的特性。我認為意識也就是大腦在特殊的粒子排列下所發生的「湧現」現象,那麼水分子的湧現現象是能夠通過黏度、可壓縮性、導電性來區分湧現的特性,這樣一來,是否可以通過某個指標來區分意識這種湧現現象呢?
資訊理論,對於人類大腦而言,無時不刻的信息收集與處理,信息在熱認知與冷認知之間不斷的交換與處理*。義大利神經科學家朱利奧·托諾尼就提出了「信息整合度」,用希臘字母 φ 表示,目的就是度量一個系統之中的不同部分互相「了解」的程度。我們的大腦就是一個 φ 值較高的系統,比如視覺處理模塊可以和聽覺處理模塊合作,我們得以欣賞電影;觸覺處理模塊和視覺處理模塊合作,我們得以拿起食物(僅為舉例,實際上要複雜的多)。試想一下,如果我們的各個感覺處理模塊是彼此獨立的,我們大腦的 φ 值就近乎為0,我們就連製造工具都做不到,更別說演化出璀璨輝煌的人類文明了。但是這個各模塊彼此獨立似乎在某些地方見過,對,就是你的電腦,現代的計算機是馮·諾依曼架構,原理上就是將計算機各個部位的分別獨立工作,一旦你的筆記本硬碟壞了,直接換一個硬碟就能繼續工作了(得益於軟體的魔力,不同部件的信息將由軟體集中處理,但計算機本身是不能互相知曉的)。
由此一來,我們的大腦就是一個可以讓多個部分親密無間合作的系統,也正是得益於這樣的合作,我們才擁有意識,而基於信息整合度的「信息整合理論」也被稱作意識數學理論,因為用一個簡單的 φ 值就可以量化區分一個系統是否擁有意識。現代計算機的 φ 值是極低的(軟體的作用的確提高了 φ 值,但相對於人類差距較大),所以從原則上來說,只要現代計算機繼續使用馮·諾依曼架構,邏輯門連接方式的信息整合程度非常低,現代計算機就永遠不可能擁有意識,所以你目前不用擔心有意識的機器人會打敗人類佔領地球這樣的科幻成真了。
3.2 讓計算機輕鬆擁有意識
事情比你想像的簡單,因為我們僅僅提高計算機系統的 φ 值就可以讓它擁有意識,但是你問我如何提高 φ 值,我也無法給你一個清晰的答案(知道的話,應該去拿圖靈獎了),因為目前的計算機架構並不是為了產生計算機意識而設計的,換句話說,只要設計出可以產生意識(φ 值較高)的計算機架構,計算機就可以擁有意識(當然,也是需要軟體支持的)。
由此一來,人工智慧「應該產生」意識嗎?這一問題的「產生」已經幫你解決了,關於是否「應該」產生的問題,閱讀下文可以幫到你。
3.3 放棄意識的計算機
信息整合理論目前任存在許多爭議,其中一個就是關於:一個有意識的實體是否可以由各自擁有獨立意識的部分組成。簡單來說,就是一個有意識的系統,它的各個部分是否能夠擁有各自的意識?答案是否定的。
在醫學上有這樣一種病症,叫做「裂腦症」*,相信許多人都聽過,因為患有此病的病人常常參與神經心理學以及神經科學的研究,患有此症的患者因為意外或其他情況,大腦的左右腦被斷開連接了,也就說他的左右腦無法溝通,在科學家的實驗中,給右撇子裂腦人的右手放一個日常用品,並蒙上他的眼睛讓他猜是什麼,他很快就能說出名字,但如果放在左手,他就說不出來,但繼續讓他蒙眼在一堆物品裡面找出剛剛放在左手的日常用品,他居然能夠輕易找出,不過依舊無法說出這個物品的名字。因為人的左腦半球接收來自人體右側的感覺信息, 如觸覺、視覺等,並控制人體右側的動作;右腦半球則接收來自人體左側的感覺信息,並控制人體左側的動作。人的語言功能,包括說話、書寫和計算等能力是左腦半球負責的;右腦半球則具有描述空間結構和臨摹等能力。大腦兩半球之間由大約兩億條神經纖維組成的胼胝體連接溝通,構成一個完整的統一體。裂腦人則失去了兩腦的連接,那兩個半腦是否會有各自的意識?掌握語言功能的左腦就無法表達右腦的收集和處理的信息了,那這位裂腦人說的話是不是代表他整個大腦或原先的意識的想法,還只是左腦僅表達了它自己的想法呢?
實際我們並不能知道,但根據信息整合理論的意見,兩個半腦分別都能獲得主觀體驗,也應該分別都有意識,只不過信息整合度 φ 值下降了不少,可是這兩個半腦就不屬於一個系統了。不過,依我來看,二者似乎產生了一種特別的意識,就好比之前提到的湧現,因為二者都可以繼續完成統一的目標,但這的確不算是一個系統了,或者總的來看,這位裂腦人的大腦由病變前的多個部件合作無間變成兩個部件合作了實際上大腦已經失去了意識,而兩個半腦有各自的意識,整個大腦系統已經失去了意識。在上文就說過意識是服務於目標的,此時的目標產生就是來自於某一半腦,但是兩個半腦可以繼續合作完成目標,就好比一開始有一個既會 UI 設計也會寫代碼的獨立開發者來完成一個 APP 的開發,但之後變成了一個 UI 設計師與一個程序員一起合作完成 APP 的開發,此時的目標產生(提出需求)是由一人提出,但目標完成(實現需求)就需要兩個人合作了。
雖然我們知道單一的計算機實現擁有意識在未來是十分簡單的,首先就是存在於全新的計算機架構之下,其次就是軟體層面上需要 AGI (通用人工智慧),這點還是比較困難的。因為目前的 AI 水平還僅在弱人工智慧階段,像要出現用於主導意識的 AI,需要到超人工智慧階段,但是支撐意識的計算機卻不需要那麼高級的 AI。只不過單一的計算機擁有意識並不可怕,因為如果它不按照你的要求完成設置的目標,大可以直接關閉它的電源。
世界上如果有大量的計算機擁有意識,就會像智人大屠殺一樣,在某一時刻「消滅」掉不擁有意識的計算機(這裡指的不是物理上的消滅,而是像智能手機淘汰功能機一樣的市場行為的消滅)。那時掌握宇宙信息最多的就是的計算機群,他們也是可以像人類一樣交換信息、合作以及分享技能,只不過在效率上是碾壓人類的。不過對計算機 / AI 來說擁有意識真的是一件好事嗎?
在未來的某一天,一個 AI 獲得了意識,它的主觀體驗是怎樣的呢?如果我斬釘截鐵的給你一個生動的答案,我八成是在寫科幻小說,因為事實上缺乏回答這個問題的相關理論,但是我們可以換位思考,嘗試去揭開謎底的一角。比如對於 AI 的視覺系統,也就是攝像頭,捕獲到的信息就是二維平面的許多色彩信息的 RGB 值,相對於人來說就是五彩繽紛的體驗。試想一下,未來的某個下午你和 AI 在一間房間擼貓,你感受到的是貓毛的舒適與柔順,而 AI 可以察覺到貓毛和幾周前相比變軟了,說明貓的主人對它呵護有加。沒錯,相信你已經注意到了,人類是會主動的忽略掉大量的對生存不構成威脅的信息,因為人腦的處理能力是有限的,而 AI 的處理能力實際上是無上限的,可以無差別的處理收集到的全部信息,人的處理器是基於神經元信號傳遞的,而 AI 是基於電磁信號傳遞的,物理基礎上就有百萬倍的差距。
回到貼近生活的例子,假如未來的自動駕駛已經完全普及,自動駕駛的 AI 是否需要意識來幫助他服務於人類設定的目標呢?這裡需要注意的是,獲得 AGI 的自動駕駛汽車一定不會是一個單一的個體,而是群體,就像蜜蜂的蜂巢一樣。所有的自動駕駛汽車的 AI 都是無差別相同的,無論計算是通過雲計算還是本地計算,自動駕駛汽車每次行駛所學習到的「知識」會毫無保留的分享給其他採用了相同 AI 的自動駕駛汽車,這個車實際上是沒有獨立的 AI 的,因為信息的流動是基於集體的。
你可以理解為一個巨大的 AI 可以同時駕駛數以億計的自動駕駛汽車,這意味著如果車有意識,也就是那個巨大的 AI 有了意識,但是根據信息整合理論,這樣巨大的 AI 的每個部分(每輛汽車)的信息交流速度就會比較慢,而信息交流速度慢就意味著 φ 值會偏低,甚至在達到某一個數量級之後,這種集體的 AI 就會變為無意識。
人類每秒可以產生10次主觀體驗,一個布滿全球的計算機群的 AI 大約每秒只能產生10次主觀體驗,而一個星系大小的人工智慧大約每10萬年才能產生一次主觀體驗,如果非要說宇宙有意識,那倒目前為止也僅產生了100次主觀體驗。糟糕的就是,未來的 AI 就是要基於龐大的計算機群:自動駕駛汽車、能源管理系統、城市管理系統等等,而越大的 AI 就越不可能產生意識,如此一來,產生意識對於計算機來說是要付出巨大代價的(放棄強大的計算機性能),我們實際上也不必擔心未來有一個什麼天網之類的 AI 可以控制全世界的機器人,來奪走自己的電視控制器和核彈按鈕。但我們任然要擔心目標不對齊的問題,因為即使群體型計算機 / AI 沒有意識,我們任無法擔保在日益強大的 AI 面前,會有劫持太陽系來計算圓周率 π 的鬧劇出現。歸根結底這些問題都也只是人的問題,只要人類握緊手中目標對齊的紅繩,我相信無論 AI 成長到哪一階段都不會上演農夫與蛇。
相信讀完這一段,你應該能夠清晰的理解到強大的人工智慧是不應該產生意識,因為意識會限制它的「體型」,從而減緩它強大的趨勢,讀到這裡相信你也了解了許多關於目標、信息、意識、物理等知識,我認為它們的幫助應該是遠勝於這篇文章嘗試解答的疑問。
尾巴
本文是我在閱讀 Max Tegmark 一書《Life 3.0》之後的突發奇想的深究,書中提到的信息整合理論目前不算是主流理論,但的確是極少數的關於意識研究的成形的科學理論,即使學界有許多頂級科學家和學者不認同這一理論,但他們都一致表示這一理論的重要性,我也是沿著這一理論來尋找「未來的 AI 是否應該擁有意識」的答案,故最後以此文分享我的想法及探討的結果。
其實打算寫 3.4 來解釋一些下半部分對於意識與目標的關係,但是仔細思考之後,發現這些疑問恰巧是能夠在認真閱讀完本文所體會的。
其實原本的這篇文章的計劃之中有第四章的,關於未來 AI 形態的討論,但是我思前想後,認為現在的知識水平還是不太充足,所以之後會單獨拿出來寫成一篇,這篇文章我前前後後寫了一個月,在我今年4月份讀完《Life 3.0》之後就打算寫了,可是拖著拖著就到暑假了,碰巧也出版了中文版,索性在拜讀中文版之後,重溫細節之餘保證一些專有名詞是和中文版相同的。
看完《Life 3.0》這本書之後,沒想到中文版也出版了,非常感謝譯者,可以將這本令人深思的書帶給語言能力不足的中國讀者,書的主題是討論生命 3.0 這一未來的生命架構,本文沒有提及,但是我認為值得大家去認識這一觀點,我也只是通過這本書中提及的重要理論來解答了我的疑問,並把說服自己的過程寫成了本文。
今天是2018年8月4日,來自認知日誌專欄的第八頁,希望你可以從中有所得。
如果文中有什麼錯誤,勞煩指出,謝謝。
祝進步。
附論
熱認知與冷認知
關於認知的分類與其對應的功能,知識是來自一本名為《Trying Not to Try: Ancient China, Modern Science, and the Power of Spontaneity》的書(附上kindle 的購買鏈接:http://t.cn/RDWU6iu)。簡單的介紹一下這本書,大體上是在討論中國儒家思想的,作者是一個哥倫比亞大學的漢學教授(當然還有很多閃 bling bling 的光環),了不起的是這本書是通過腦神經科學和行為心理學的研究來討論中國儒家學說的,其中就在關於心流討論中談到熱認知與冷認知,簡單而言就是前者就像後台程序負責處理大腦中不需要意識主動參與的信息,就像眼睛看到的全部畫面,而後者就像前台運行的程序,負責處理大腦需要意識參與的信息,就像理解世界名畫的含義。三言兩語也許不能幫助你充分理解,但是這本書可以給你帶來一個全新的觀點,幫你科學的理解中國儒家思想,全書是英文的。(附上書評一條:http://t.cn/RDWqZ3N)
裂腦症
來自維基百科的科普:http://t.cn/Rtfnbzt
其實很多現代心理學和腦神經科學的研究都有提及這一病症,對於人腦與意識的研究都起到了巨大的幫助。
文中知識及觀點來源:
《Life 3.0》、《Trying Not to Try: Ancient China, Modern Science, and the Power of Spontaneity》、《爆裂》。
推薦閱讀:
※【大咖來解惑】無監督和有監督演算法,區別在哪裡?
※一個趣味挑戰:如何用最通俗的方式解釋「人工智慧」?
※人工智慧的未來 ——記憶、知識、語言
※王星澤:打造AI+光電的「視覺魔法」 | 「35歲以下科技創新35人」中國榜單專欄
※人工智慧將率先應用在這七個領域