人工智慧會有自我意識嗎?


美國著名心理學家朱利安·傑恩斯在他的《二分心智的崩塌:人類意識的起源》(The Origin of Consciousness in the Breakdown of the Bicameral Mind)一書中曾提到一句很有深意的話:

「我們無法意識到我們沒有意識到的東西。」(「We cannot be conscious of what we are not conscious of.」 )

所以,對於機器是否能擁有自我意識,我們先不要倉促做出否定的論斷。

如果你看過亞歷克斯·嘉蘭的 2015 年科幻大作《機械姬》的話,你會發現,電影中的主人公並非導演設定的迦勒——一名負責評估機器人意識的年輕程序員,而是他的評估對象伊娃,一個令人驚嘆的 AI 機器人,既天真爛漫,又高深莫測。

和很多燒腦電影一樣,《機械姬》也拋給觀眾一個自己去判斷的問題:伊娃真的有意識嗎?不得不說,這讓《機械姬》巧妙地避開了一個棘手的問題,這個問題也一直困擾著很多人工智慧主題的電影:什麼是意識?機器能有意識嗎?

對這個問題感到困惑的人,不只是好萊塢的導演。隨著機器智能的迅速發展,它不僅在 DOTA 和圍棋等遊戲中打敗了人類玩家,而且在對戰中也不需要人類的專業知識,於是機器會不會有意識再次成為科學界的熱門議題。

ElonMusk 發 Twitter 稱讚 OpenAI 的戰績,並其為「在電子競技領域首個擊敗人類頂級玩家的機器人」

近期,來自美國和法國的神經學家組成的研究團隊認為,機器不僅能夠具備意識,而且他們似乎已經找到了讓機器具有意識的方法。

機器處於意識的邊緣嗎?

法蘭西學院的認知科學家 Stanislas Dehaene、加州大學洛杉磯分校的 Hakwan Lau 和巴黎文理研究大學的 Sid Kouider 最近共同在著名的《科學》雜誌上發表了一篇論文,他們認為,雖然機器目前尚未獲得意識,但是有一條獲得意識的清晰路徑。

原因何在?三位科學家稱意識是「絕對可計算的」,因為它是特定信息處理產生的結果,由大腦硬體實現

痞老闆輕鬆控制了海綿寶寶的大腦

這其中沒有什麼靈丹妙藥之類的東西,實際上一個用來體驗的部分(「有意識會是什麼樣子?」)甚至都不需要去實現意識。如果意識真的完全由我們三磅重的大腦計算產生,那麼擁有同樣質量(大腦)的機器也只存在將生物信息轉化為代碼的問題。

他們寫道,目前強大的機器學習技術大量借鑒了神經生物學知識,和這點很像,我們或許可以研究人類大腦產生意識的結構,將研究結果轉化為計算機演算法,這樣也許能製造人工意識。

從大腦到機器人

毫無疑問,從形式到功能,AI 領域已經從我們對大腦意識的認識中受益良多。

例如,深度神經網路,這種讓 AlphaGo 在與人類對弈的比賽中取得壓倒性勝利的演算法結構,就有一小部分基於我們的大腦細胞自我組織的多層次的生物神經網路。

還有深度學習,能夠訓練AI系統從數百萬個樣本中學習,其源自一種有著幾百年歷史的技術,和人們熟悉的訓狗類似:如果產生了正確的反應(或結果),就給予獎勵;否則就要求它再試一次。

從這個意義上講,將人類意識的架構轉化為機器似乎能很容易實現人工意識。只是還有一個大問題。

《人工智慧:現代方法》的作者 Stuart Russell 博士在2015年接受《科學》採訪時曾說道:「AI 領域中尚未有人在研發有意識的機器,因為我們不知如何著手,毫無頭緒。」

多層次意識

在我們考慮編碼機器意識之前,其實最難的部分是要弄清楚意識到底是什麼。

為了解答計算機是否能夠形成意識這個頗具爭議的問題,研究人員首先試圖探索人類大腦中的意識如何出現。他們將意識劃分為三個等級:C0 意識,C1 意識和 C2 意識。

這三級意識就是設計真正有意識人工智慧的「藍圖」。第一級意識水平C0級主要是人類大腦中的無意識工作,比如說面部和語言識別。研究人員稱,人類大腦進行的大多數運算都發生在這一水平。換句話說,人類不會意識到這些運算的發生。

研究人員稱,儘管人工智慧技術有著不斷的進步,但機器仍然主要處於這種意識水平上。比如說,被稱為「卷積神經網路」的人工智慧系統能夠執行許多人類 C0 級意識的運算,比如說面部識別等。

嚴格來講 C0 屬於潛意識,所以真正的意識是指 C1 和 C2 這兩個「維度」:C1 意識,即大腦中已有的信息;C2 意識,即獲得和監控自身信息的能力。兩者對意識來說都必不可少,但兩者之間卻能夠相互獨立存在。

比如說,你正在開車,低燃油警告燈忽然亮了。在這裡,燃油箱燈就相當於 C1 意識,這是我們可以做出反應的心理表徵:我們注意到了它,採取相應行動(重新加滿油),在之後回憶起來的時候會談論它(「我開車在郊區的時候沒油了!」)

天知道沒油的時候發生了什麼

Dehaene 在接受《科學》訪談時解釋道:「我們想從意識中區分的第一個意義就是全局可用性概念(global availability)。」他補充說,當你意識到一個詞的時候,你整個大腦都會意識到它,從某種意義上講,你可以在多種形態下使用信息。

但是 C1 不僅僅只是個「心理素描本」。它代表了一種完整的結構,能讓大腦從我們的感覺或對相關事件的記憶中,提取多種形態的信息,潛意識的處理往往依賴一些特定的「模塊」,這些「模塊」能完成一組既定的任務,但 C1 與此不同,它是一個全局性的工作空間,能讓大腦整合信息,決定行動,並一路跟隨,直到最後。

如同《飢餓遊戲》的故事一樣,我們所說的「意識」可以有多種多樣的表現形式,在某種時刻,意識在進入這個心理工作空間的比賽中取得了勝利。不同的大腦迴路會共享這些勝利的意識,在大腦的決策過程中這些意識會一直處於中心地位,指導人類的行為。

作者解釋道,因為這些特徵,C1 意識具有很高的穩定性和全局性——能觸發所有相關的大腦迴路。

對於比較複雜的機器比如智能汽車,C1 意識是解決如低燃油燈等這種迫切問題的第一步。在這個例子中,低燃油燈的燈光本身就是一種潛意識信號:當它閃爍的時候,車子的所有其它進程均不知情,而車(即便配有最先進的視覺處理網路)經過加油站的時候還是會毫不猶豫地開過去。

獲得 C1 意識之後,汽車的油箱就會警告車子的計算機系統(也就是讓燈光進入汽車的「意識大腦」中),隨後計算機會檢查內置的定位系統搜索附近的加油站。

Dehaene 說「我們認為在機器中,這能夠轉化為一個系統,從封裝信息的任何處理模塊中提取信息,然後將信息提供給任何其他處理模塊,這樣它們就能使用這些信息了。這就是第一種意識。」

元認知

在某種程度上,C1 意識反映大腦獲得外部信息的能力,而 C2 意識則反映大腦獲得內部信息的能力。

於是文章作者定義了意識的第二個層面即 C2 意識為「元認知」:反應你是否知道或察覺到某件事,或者是否剛犯了一個錯誤(我想我可能在上個加油站已經加過油了,但是我忘了保持收據,所以很難確定)。這種維度反應了意識和自我意識之間的聯繫。

C2 意識能讓你在做選擇的時候感到自信不足或者信心滿滿。在計算機術語中,這就是一種演算法,能預測一個決策(或計算)是正確的,雖然它經常被當成一種「直覺」看待。

展紅綾破案——全靠直覺。

C2 意識也會影響記憶和好奇心。這些自我監控式的演算法讓我們能夠知道自己知道什麼不知道什麼,也就是所謂的「元記憶」,負責感知舌尖上有什麼東西。Dehaene 說,監控我們知道什麼(或不知道什麼)對於孩子來說非常重要。

他解釋說:「小孩子絕對需要監控自己知道什麼,這樣才會有疑問、才會有好奇心去學更多的東西。」

我們能從意識的兩個層面中受益:C1 意識讓相關的信息進入我們的精神工作空間(同時拋棄其它「可能的」想法或解決方案),而 C2 意識有助於意識思維能否帶來有益反應的長期回射。

讓我們再回到低燃油燈的例子,C1 意識能讓汽車第一時間解決問題,這些演算法可以讓信息實現全局共享,從而讓汽車意識到這個問題。

但是為了解決這個問題,汽車需要一份「自身認知能力目錄」—— 一種對隨時可用資源的自我意識,比如加油站的 GPS 地圖。

Dehaene 說:「有這種自我認知的汽車就被我們稱作有 C2 意識的汽車,因為信號是全局可用的,而且它的監控方式類似於機器的自我觀察,所以汽車會擔憂低燃油狀況,然後像人類一樣行動,降低燃油消耗,尋找加油站。」

文章作者寫道:「目前的絕大多數機器學習系統都缺乏自我監控。」

但是他們的研究理論似乎找對了方向。這裡提到的幾個案例,不管是演算法結構內部還是作為一個單獨的網路,都實現了自我監控系統,也就是說 AI 已經產生了「本質上具有元認知能力的內部模型,從而使智能體(agent)產生對自身的理解,這種理解具有有限性、隱蔽性和實用性。」

朝有意識的機器發展

具有 C1 意識和 C2 意識的機器會表現的像它擁有了意識一樣嗎?這是非常有可能的:一輛智能汽車會「知道」自己正在看某些東西,而且對此非常確定,並向汽車的其它部分報告,找到解決問題的最佳方案。如果汽車的自我監控系統崩塌,它可能也會出現「幻覺」甚至像人類一樣出現視覺幻象。

Dehaene 說,幸好有 C1 意識,汽車能夠充分利用自己已有的信息,而且能靈活地使用;而 C2 意識能讓它知道自己認知的局限性。所以,文章作者認為機器會具有意識,不僅僅是人類才能擁有意識。

如果你感覺意識遠不止整體信息共享和自我監控這麼簡單,不只是你有這種感覺。

文章作者也承認,給意識一個如此功能性的定義可能會讓很多人感到不滿,但他們也在嘗試更大膽的做法,也許會簡化這個問題。

他們最後總結到,意識是一種功能屬性,當人們對機器不斷增加功能時,在某種情況下,這些屬性會塑造我們所說的意識的特徵。

拓展閱讀:

世上最大的不可描述網站也向AI和機器學習勢力低頭了!

以彼之道,還施彼身——使用機器學習來揪出作弊的玩家

人工智慧揭秘,帶你了解AI的前世今生

官方微博:@景略集智

微信公眾號:jizhi-im

商務合作: @軍師

投稿轉載:kexiyang@jizhi.im

集智QQ群:557373801


把你關在一個封閉房間內,只能用文字和外界溝通。

你能設計一種方案,對外界證明你【具有自我意識】嗎?


夢遊狀態與人工智慧

夢遊患者在夢遊時時是沒有自我意識的,連夢境都沒有,像一個高度智能化的機器人,能夠做出各種複雜的舉動,眼睛和身體各器官,神經系統都是正常運作的,可以操縱各種機器,甚至開車,殺人,眼睛也是睜開的,然而就是大腦中自我意識的那一部分神經(表層大腦)是完全沉睡的,是完全意識不到自己的行為的,在外界看來,這就是一個具有智能的主體意識的人,然而在他本人感受看來,則完全是零,是失去意識的狀態,由此我們不得不思考我們以往關於智能,非智能的區分與定義是否正確

那麼由此可以得出自我意識實際上與視覺,聽覺,邏輯,計算等各種高級條件反射等行為都是可以完全分開的的,並不是像唯物主義者說的那樣意識時刻都是與物質的肉體保持聯繫,那麼究竟是什麼賦予人之所以區別於高度智能化機器人的根本區別呢,就在於在夢遊中完全沉睡的那一部分腦組織,這一部分腦組織究竟是怎樣的呢


每個人對於自我意識定義不一樣,自我意識是一種幻覺還是一種感覺到自身狀態,自身能力的一種自我了解能力呢?不同的定義自然得到不同的結果。

我個人是認為會有自我意識的,自我意識我覺得就是一種系統對自己的認知能力。


具體的技術層面我是外行,不懂。這裡僅從最基本的原理層面展開,做一些猜想。

人工智慧里會誕生出「心靈」嗎?阿爾法圍棋、《終結者》與《阿凡達》的隱秘關聯

人機圍棋世紀大戰,谷歌人工智慧AlphaGo(阿爾法圍棋)連勝三局,提前戰勝李世石。雖然我更關心的其實是「人工智慧+人形機器人」技術,更準確地說是關心什麼時候能造出以假亂真的蒼老師~(@^_^@)~,但見證歷史,心裡還是很激動滴!

這幾年來人工智慧高歌猛進,今天算是又樹起了一座里程碑。這不禁又讓人有點擔心起:人類在未來會不會被人工智慧奴役?

畢竟,無數科幻片已經教育我們,如果放任AI發展,人類將要被AI虐成狗:

連X戰警都會被AI虐成狗:

在各種科幻片里,我待AI如初戀,AI虐我千百遍。

1.我們到底在怕什麼

但仔細琢磨一下這個問題,就不禁要繼續問下去:我們怕的到底是怎麼樣的人工智慧呢?

如果未來的人工智慧只是像今天的阿爾法圍棋一樣,只是還要厲害上幾百倍,比如說,100個人類世界冠軍疊起來也下不過它——我們會害怕這樣的人工智慧嗎?

好像不會。我們其實不是怕人工智慧「聰明」,而是怕它「長了心眼」。 我們害怕的,其實是人工智慧里最終誕生出了「心靈」。會「計算」不要緊,會「算計」就可怕了。我們不是怕人工智慧變聰明,而是怕人工智慧變成「」,人有好有壞,而我們不知道人工智慧是好是壞。

2.問題:人工智慧里會不會誕生出「心靈」?

那麼問題就來了:人工智慧里到底會不會誕生出「心靈」?在未來,人工智慧會擁有跟人類一樣的自我意識嗎?他會跟人類里的聰明人一樣,有一天忽然仰望星辰,吟誦出「茫茫不可曉,使我長嘆喟」的詩篇嗎?

我覺得答案是:終有一天,會。因為雖然現在的阿爾法圍棋在實現智能的具體演算法上,與人類大腦實現同樣的事有天壤之別。但在最基本的原理上它與人類大腦實現智能的途徑其實是一致的!沿著這條途徑發展下去的話,機器「心靈」的出現只是時間問題。

那麼,這條實現智能的途徑是什麼呢?

我們不妨看一看人類自己,人類的智能是怎麼產生的呢?

3.微觀的愚蠢里怎麼可能誕生出宏觀的智慧

這裡有一件看上去挺悖論的事情:人的大腦毫無疑問擁有這個星球上最強的智能,可是如果你把大腦打開來看,卻又會發現組成它的主要物質——神經細胞所能做的事其實非常愚蠢,無非就是通過釋放一些化學物質來傳遞激活或者抑制的信號,相當於一個個僅僅可以發出0和1這兩個信號的發生器。

於是,這就構成了一個悖論:宏觀的智能是怎麼從微觀的「愚蠢」里湧現出來的呢?

4. 液態金屬機器人的CPU在哪兒

在科幻名作《終結者2》里,施瓦辛格扮演的T800與他的對手T1000代表了完全不同的兩種智能機器人。

在T800的頭部有一塊CPU,它相當於人類的大腦,T800的各種動作和反應都由這塊CPU指揮。在《終結者2》的一個加長版里,有一段公映版刪除掉的情節:因為不信任T800,女主角莎拉康納騙他取出這塊CPU,想要毀掉它。在這段鏡頭裡,可以看到CPU一旦被取出,T800就徹底癱瘓了。

可見,T800機器人是一個由中樞集中指揮的系統,CPU就是這個中樞。中樞一旦失靈,整個系統就崩潰了。

而他的對手T1000就完全不一樣。T1000全身都是由類似橡皮泥的液態金屬組成,把他的頭剖開也不會在裡面找到CPU以及其他任何功能部件。甚至他的頭被T800一拳打爛,也完全不會崩潰,而是從身體另外一個地方重新長出一個頭來。

那麼T1000如果有CPU的話,它會在哪裡呢?

答案藏在詹姆斯.卡梅隆的另一部作品《阿凡達》里。

5.《阿凡達》里的樹精

《阿凡達》里有這樣一個有趣的設定:科學家發現潘多拉星上的所有樹木都是通過根部相連的,它們會通過根部的化學信號來傳遞信息。

離奇的是,這個由樹木組成的龐大網路居然生成了智慧——「愛娃」。

咦?這不就是樹成精了嗎?

這跟我們大腦里發生的事何其相似。

單顆樹木本身的構造相對來說十分簡單,即便能夠它能發出一些化學信號,信號複雜性應該是非常低的,可能也只是一些類似0、1這樣要麼激活、要麼關閉的電信號而已——正如我們的神經細胞。

但是,如果把這些最簡單的0、1信號以網路的形式聯結在一起,它們就會形成一個巨大的矩陣,像這樣:

如果你稍微了解一點線性代數的知識,就會知道,矩陣是有計算能力的:

輸入×矩陣=輸出

這意味著,當你把一個輸入信號呈現給這個矩陣時,矩陣就會計算出一個與你的輸入信號並不相同的輸出信號。

換句話說,矩陣會對刺激做出反應

這是什麼?

這,就是智能啊。

《阿凡達》里「樹精」愛娃的智慧其實就是這樣產生的。一顆顆笨得要死的樹只要通過一個足夠龐大網路連接在一起,比每棵樹本身聰明千百倍的智能就會在這個網路中產生。

6.全身都是CPU

所以,如果《終結者》的T1000有CPU的話,他的CPU其實不在任何一個局部,而是分布在全身。只要他身上的每一個金屬粒子可以產生簡單的0、1信號,數量極其龐大的金屬粒子聯結在一起,就會產生出強大的計算能力。

這樣看來,與T800那樣的中樞管理系統不同,T1000並沒有一個中樞管理系統,這個系統中的每一個單元都只貢獻了整體計算能力中一個極小的部分,它們平行地相互連接而成的網路才構成了整體的計算能力。

這種去中心化的系統叫做平行分散式系統

7.大腦內部其實空無一物

奇妙的是,人的智慧其實也就是這樣產生的。人腦就是一個平行分散式系統。 美國哲學家和認知科學家丹尼爾·丹尼特說:「如果你仔細看看大腦內部,就發現裡面其實空無一物。」[i]

的確如他所說,人腦中的每一個神經細胞比潘多拉星上的樹可能還要愚蠢幾百倍,它們真的是只能夠向和它們連接的其他神經細胞發出激活/抑制這樣最簡單的0、1電信號。

8.智者就是千百萬個相互連接在一起的盲流

如果每一個神經細胞都愚蠢至此,高度發達的智能怎麼可能附著在它們之上?

這其中的奧秘就在於,單看每一個神經細胞雖然都愚不可及,但它們的數量太龐大了,大腦中大約有860億個這樣的神經細胞,比這個數字更加驚人的是,神經細胞之間的連接可能達到100萬億個[ii]!

於是大腦中無數個神經細胞發出的0、1信號就組成了一個龐大到不可思議的矩陣,在如此龐大的矩陣中當然完全有可能產生出驚人的計算能力。這種從龐大的連接中湧現出來的計算能力就是人類的智能。智者其實就是千百萬個相互連接在一起的盲流

9.為什麼即便腦袋被門夾了,你也仍然是你

這種平行分散式系統有一個巨大的好處就是它的魯棒性特別好[iii]。魯棒就是強壯,也就是系統是不是夠「皮實」。

中樞控制式的系統是非常脆弱的,只要中樞一出錯,整個系統就崩潰,這就是《終結者2》里T800的CPU被取出後的狀況。而擁有平行分散式系統的T1000就不會這麼脆弱,它是一個特別皮實的機器人,身體上任何一個小部位發生一點變化都不會影響它的生存。

人的大腦也是如此。大腦中的細胞經常發生死亡和更替,還會因為疾病和創傷受損,不過只要不是大面積損傷,大腦的功能就不會整體性地崩塌,作為一個平行分散式系統,它的魯棒性相當之好。

這是因為大腦的絕大部分功能都不是只由非常集中的幾個腦細胞貢獻,而是分布在數量相當龐大的一群腦細胞組成的連接中。這一群腦細胞中的少數幾個受損,並不會引起這群腦細胞整體功能的大幅改變。當一個矩陣足夠龐大的時候,改變矩陣中的一兩個值並不會改變它的計算能力。這就是為什麼即使被腦袋偶爾被門夾一下,你也仍然是你。

10.「你」就是一個矩陣

整體來看,《終結者2》里施瓦辛格的T800當然更像是人類,因為它全身上下看上去有各種模擬人類的身體器官和組織。但如果只從大腦的角度來看,人類的大腦其實更像T1000。T1000的思考能力並不存在於他身上的任何一個金屬粒子中,而是存在於它們的網路連接中。

同樣地,人的靈魂也並不存在於哪一個腦神經細胞里,靈魂存在於無數腦神經細胞的網路連接中。

「你」在哪裡?你就在腦細胞的神經衝動組成的龐大矩陣里。

你是不是偶爾會疑惑自己有可能像《黑客帝國》里的人類那樣活在一個矩陣(Matrix)里?不用想得那麼遠了,「你」本身就是一個矩陣

11.機器意識:並非只有大腦才能成為心靈的載體

因此,我們可以回答本文一開始提出的疑問了。從前面的分析就不難推測出,「意識」的載體應該不會僅僅局限於生物性的大腦,理論上它可以從任何足夠龐大的平行分散式系統中湧現出來。

既然智能存在於神經網路中,類似神經網路的平行分散式系統就應該是可以模擬出智能的。事實上,阿爾法圍棋這個人工智慧就是一種「人工神經網路模型」。

這種「人工神經網路模型」就是在計算機里模擬出類似大腦神經元的簡單計算單元,然後再定義出把它們連接起來的網路[iv]。它早已被大量應用在很多領域用來智能地解決各種實際問題了。 阿爾法圍棋背後的深度神經網路就是它最新穎的成果之一。

再發展下去會如何呢?

在《黑客帝國》第三集(The Matrix Revolutions)里,救世主尼奧開始發現Matrix里的程序也是具有類似人的思維和感情的,甚至發現一直以來幫助人類的先知其實也只是一個程序而已,這讓他開始思考靈魂是否只屬於人類。

這其實就是本文開頭提出的疑問:靈魂的載體必須是有機體嗎?

從前面的分析來看,如果在未來的某一天這些模擬人腦的系統最終實現,那麼所謂「機器意識」的出現就是必然的。靈魂的載體總有一天會不止僅限於有機體。

12.銀河思想者

劉慈欣寫過一篇非常出色的短篇小說《思想者》,他在其中「對意識的載體」做出了我所見過的最詩意和最宏大的想像。

小說里的天文學家無意中發現宇宙中的恆星能響應另一顆恆星發出的光線,它們能把另一顆恆星光線中的某種閃爍複製之後再發射出去。而這正像是我們大腦里的神經細胞通過放電來傳遞信息。

而銀河系內有上千億顆恆星,即使每顆恆星都只是一個像神經細胞這樣只懂通過放電來激活或抑制的蠢物,只要它們相互之間可以用這種方式傳遞信號,這上千億顆恆星就可以組成一個足夠龐大而複雜的系統——沒錯,正如我們的大腦。

所以銀河系竟然是有意識的!

只不過,由於最接近的恆星之間也往往有幾光年的距離,人的神經元只需要一瞬間就可以傳遞完成的信號在銀河系尺度上卻是以年為單位。

在《思想者》臨近結尾的部分,劉慈欣這樣寫道:

在他們上方,星空依舊。

「『他』在想什麼?」她突然問。

「現在嗎?」

「在這34年里。」

「源於太陽的那次閃爍可能只是一次原始的神經元衝動,這種衝動每時每刻都在發生,大部分像蚊子在水塘中點起的微小漣漪,轉瞬即逝,只有傳遍全宇宙的衝動才能成為一次完整的感受。」

「我們耗盡了一生時光,只看到『他』的一次甚至自己都感覺不到的瞬間衝動?」她迷茫地說,彷彿仍在夢中。

「耗盡整個人類文明的壽命,可能也看不到『他』的一次完整的感覺。」

「人生苦短啊。」

「是啊,人生苦短……」

「一個真正意義上的孤獨者。」她突然沒頭沒尾地說。

「什麼?」他不解地看著她。

「呵,我是說『他』之外全是虛無,『他』就是一切,還在想,也許還做夢,夢見什麼呢……」

仰望著星辰的,

除了我們,

也許還有星辰們自己。

文:瘋狂鑽石(魏知超) @魏知超

參考文獻:

[i] 凱文·凱利. (2011). 失控——全人類的最終命運和結局(pp. 63). 新星出版社.

[ii] Jonathon Keats. The $1.3B Quest to Build a Supercomputer Replica of a Human Brain. The $1.3B Quest to Build a Supercomputer Replica of a Human Brain

[iii] 郭秀艷, 唐菁華, 楊娜. (2007). 人工神經網路模型在心理學研究中的運用. 應用心理學, 12(4), 333-339.

[iv] 郭秀艷, 朱磊, 魏知超. (2006). 內隱學習的人工神經網路模型.心理科學進展, 14(6): 837-843

本文改寫自我2014年出版的心理學科普書《迷人的假象 (豆瓣)》中的「量子心靈」一章。有興趣的朋友可以在亞馬遜、京東、噹噹上找到它。

——————————

我在喜馬拉雅上線了一檔介紹心理學最前沿知識的節目,精講由全球頂級心理學家和科普作家撰寫、海外近一年出版尚無中文譯本的30本心理學新書,刷三觀、漲姿勢、搞樂子,歡迎小夥伴們積極圍觀^-^

《魏知超:心理學新知課》


未來的人工智慧,只要繼續發展下去,大概30年內,肯定會達到甚至超過人類的智能水平。到那個時候,擁有自我意識這種人類獨有的東西,也肯定是能夠實現得。

想想看我們擁有的自我意識,存在於什麼地方上?大腦。那麼大腦是什麼?就是超高數量級的腦細胞互相傳遞腦神經信號組成的裝置。也可以說,擁有智能,擁有自我意識,這類高級思考運算,其實也就是神經信息互相傳遞達到一個量級後,量變引起質變的一個結果。

從這點來看,只要計算機單純的做大腦同樣的事情的話,模擬大腦思考過程也並不是不可能的事情,這也是建立神經網路概念的初衷。不過現在還沒造出這種擁有自我意識的電腦,僅僅是因為大腦的複雜度之高,目前的電腦還沒法完全拷貝大腦的功能而已。但這只是硬體條件跟不上而已,並不是在理論上的否定。

順便一說,我個人覺得,如果將來電腦擁有自我意識之類的智能思考,那麼很有可能想法會和我們預想的完全不一樣。如果將電腦看作一個單獨的智能物種的話,那麼它們和我們差異之大,其思維方式也肯定會和我們完全不同。科幻片里那些人工智慧就和人類思維一模一樣的事情,我覺得到時候很有可能不會發生。至於到底會怎麼樣,也是很讓我好奇的呢~


在一系列的科幻創作當中,我發現大多數的人工智慧的片子,基本上人工智慧本身最後都是被變成邪惡的東西。人類創作的具有超強力量的人工智慧會不會反過來成為人類的威脅,甚至毀滅人類。其實這個邏輯一直都在科幻片里,最深層的反映出的是人類對於未知的一種既嚮往又恐懼的複雜的心理。人類是一個很好的預言家,從文藝創造的角度,他們願意用一種科幻的形式,表達人類關於自己存在感深層的一種困惑和思考,所以文藝作品會不斷的挖掘人內在的一些複雜的心理需求創造作品,但是人工智慧真會產生自我意識而威脅人類嗎?科學家們不一定這麼認為。

去年一年,我和我的團隊《楊瀾訪談錄》走訪了五國二十城,到訪三十多個人工智慧實驗室,採訪到了八十多位一線人工智慧專家及業界名流,整體上來說人工智慧這個領域的科學家,往往都是抱有比較樂觀的態度。當然他們也不乏警告,但是總體上來說,他們認為人工智慧不過是自動化的一個新階段而已。它最終還是可以被人類所控制的。我在採訪麻省理工學院的人工智慧實驗室的主任Daniela Rus教授時。她說「我們永遠是有一個紅色按紐,可以按下去,把它停下來。並沒有證據顯示,我們會連這個也按不下了。」

我覺得機器會帶來的危險可能有幾種。第一、它在設計上有問題,它失控或是出了故障;第二、設計和操縱它的人有了邪惡的念頭,比如說它被當成是恐怖主義的武器;第三、它可能會替代了人的工作,讓人失去了自己的生計;這幾個方面是可以預見的,也可以理解的。但是如果說它因為會造車子,或者因為會下象棋,或者是同時會下象棋也會造車子,它就突然具有了一個自我意識,有了一個善惡分辨的自我意識,我覺得不會。

我認為人工智慧可以因為被輸入的遊戲規則而展現出人類表達的特質,比如在某種情況下,機器會說我愛你。但是這並不意味著,它感受到了愛。或者說機器可以下一千萬盤棋,但是它是否會像人類那樣,真正的享受下棋的過程,機器畢竟不是一個生命體。我們只能證明,人工智慧在一些需要處理大數據的垂直領域,具有超快的學習能力。但是並沒有證據表明,它們會形成自我意識。機器的深度學習以及不斷的自我學習,導致我們看起來,人工智慧好像有了思維的過程。但是事實上,這種思維並不代表機器能夠擁有自我意識。

很高興和大家分享有關人工智慧的相關問題,經過去年一年走訪,我和我的團隊拍攝的《探尋人工智慧》目前現在正在江蘇衛視熱播中,歡迎知乎的朋友們一起收看~


自我意識和智能高低沒有必然聯繫,智力低下的人照樣有自我意識,除人以外的其它動物也應有自我意識但智能不高,自我意識的產生需要兩個要素,第一,驅利避害,第二,慾望,然後會產生一個特徵,自私,只有具備了自私的特徵,才會產生自我。


既然自然界能從塵埃中進化出意識,那就說明宇宙的基本粒子經過特定的排列組合後就能衍生出所謂的意識。

地球上的生物就是這樣的幸運兒,經過40億年的嘗試就成功了,宇宙中其他幾億億億顆星球經過130億年,不知道有幾顆能有這種運氣。

人類要創造意識,顯然不能像大自然一樣靠無限嘗試。人類最好的參考對象就是自己,隨著大腦機制被了解得越來越透徹,各種人腦模擬演算法被開發出來,機器越來越像人類一樣去處理問題。各方面成果的集成,最終會塑造出靈魂,突破圖靈測試,讓人無法區分人類與機器。

雖然我們看起來像是在做造物主的事,但其實我們只是用造物主的材料,複製了一個機械化的自己而已。至於他比人類還聰明,那只是他的機械特性而已,人類替換一些機械零件也是完全達得到的智慧水平。

剖析自己,就能升華自己,剖析宇宙,便能創造新的世界。


人工智慧具有意識的證據已經有了,可以認為他是偶然,但是後面一定會有必然性的規律,為了一定會有意識,人的意識也不過是發展的產物,未來沒有什麼不可能的


人工智慧可以很輕易的擁有意識,我把意識定義為可以感知到自己在思考、感知到自己在聽、感知到自己在看等等。那麼只需要一個判斷邏輯把思考、看、聽這些狀態和一個0、1的布爾型變數關聯起來。那麼人工智慧就能知道自己在思考,知道自己在聽,知道自己在看,這就是意識。

其實有更簡單的實現,人的思考是會被記憶的、而感官接受到的內容也會被記憶。那麼我們在每一瞬存儲的內容後再多加一個存儲位標誌這一個信息屬於思考、聽、看、觸覺等等。

那麼這個人工智慧知道自己每一瞬在接收什麼樣的信息,並且可以調用這個信息知道自己過去在幹什麼,我認為這就是意識的簡單實現。


偏個題,先不說AI會不會有自主意識。

我認為,人工智慧,是走向共產主義社會的必經之路。

當我們按需分配的時候,很多勞動不是人們願意去做的或能去做的。怎麼辦?在古代,由奴隸們去做,在現代,由有生存壓力的底層勞動人民去做。未來,如果沒有人工智慧(自動化),勢必依舊有人不得不被壓迫在底層做這些工作,正如《北京摺疊》中描繪的情景,階級繼續固化,人們生而不平等,重回事實的奴隸社會。

因此,人工智慧必須要發展!自動化程度必須提升!否則人類還將繼續在資本主義漩渦中徘徊。人工智慧是提升自動化的好途徑,是推動生產力大幅發展的最有希望的工具(目前看來)。

否則,隨著貧富差距的擴大和階級的固化,我們又將陷入新一輪奴隸社會!


這麼民科的問題就來個民科風格的回答吧。以我幾十年的經驗,「自我」是一種錯覺,是腦經過複雜的訓練以後為了統一各種複雜邏輯而建立的一種虛擬對象。你在SNS上的時候,你會產生賬戶是自己的錯覺,在遊戲的時候會產生角色是自己的錯覺,就像生活中會產生身體是自己的錯覺。已經有實驗通過攝像鏡面反射等等方法讓人產生機械臂是自己手臂的錯覺。由此,人工智慧在能夠處理的邏輯足夠複雜的時候,也會產生你可以稱為「自我」的東西。


我想我們最終遇到的是一個比這個更複雜的問題:

從功能上,人工智慧的智力水平完全超越了人類。

從表現上,人工智慧完全通過了圖靈測試,並且它自身也認為自己擁有意識和自我意識。

那麼,如何判斷它到底是不是真的擁有意識?


希望人工智慧不要學會裝逼


目前階段來說,對於腦科學 心理學的研究並未取得突破性進展

所以你看 腦機介面的發展

比起人工智慧到意識

或者主流的神經網路理論來說

我覺得人的無論是硬體還是軟體的研究還是不充分的

所以對於這個問題來說

目前看來 並不覺得 有所謂的自我意識


有沒有意識至少現在沒人能說得清,但可以肯定的是,無論人工智慧有沒有意識,都有可能毀滅人類,而且人工智慧發展到一定程度以後,人類很可能不再有能力操控。

下面這個鏈接是一年多前寫的,大家不妨看看,歡迎討論。

http://weibo.com/ttarticle/p/show?id=2309403951481408624286


個人認為,人工智慧永遠不可能產生自我意識。

人工智慧自主行動能力越來越強,則是必然的。最終完全有可能,具備超越人類的智能並完全自主行動。甚至也不排除與人類為敵的可能性。

多數人可能會覺得以上描述是矛盾的。關鍵在於自我意識的定義。本人嚴格區分意識本身與意識內容。也就是說,計算機完全可以具備超越人類的思維能力,但它並不會知道自己在思考!前者是智能,後者才是意識。而絕大多數人將兩者混為一談。

本人認為,沒有意識的物質,不管如何組合,都不可能產生意識!大腦本身沒有自我意識,計算機就更沒有了!(物質產生智能就沒問題。通過物質的排列組合可以表達與處理信息,形成大腦或計算機的思維。思維的本質只是運動,簡單運動組成的複雜運動而已。)

人類的大腦就是個具備強大計算能力的死物,自我意識是對大腦計算課題的感知。至於到底是什麼在感知,它從何而來,我只能說:不知道!反正是在元素周期表之外。

本人理解的「自我意識」,類似於「靈魂」這個概念,但僅借用其作為「非物質」、「體驗者」的涵義。(不肯定也不否定「靈魂操控身體」,反對「靈魂永恆存在」等其它說法。)

本人對於人工智慧的看法,則與「哲學殭屍」這個概念高度一致。

再啰嗦一遍。意識與智能,是兩碼事!智能,無非就是信息的收集與變換,通過物質的運動可以實現。生物的自我意識,獨特之處在於覺知、體驗、意識到,而非智商。自我意識,是你知道自己存在的那個「知道」,是你無法向他人展示的那個主觀體驗,而不是能夠計算出什麼答案的那個知識。這個「知道」,是物質無法提供的屬性。

個人觀點,當然不在意任何人反對。但,搞不清本人說什麼的,就不要來瞎評論了。

-----以下是廢話一堆,致所有惡意評論者------

其實本人算大半個唯物主義者,從不探究唯心論。絕對唯物主義者,最好還是別來秀智商了。

本人很清楚,關於自我意識,是無法觀察無法證明的。任何觀點,都是個人傾向而已。你不可能說服我改變什麼,我也沒興趣說服誰。更何況,你們都懶於認真闡述什麼,僅是毫無意義的諷刺。請省省力氣吧,反正我看到了也只會刪除之。

在這個問題上,真正的科學態度應該是「不知道」。不管持何種觀點,都不可能找到一絲客觀依據!只要進入這個話題,就別自以為優越,根本上說,都是瞎扯淡罷了,沒什麼可較真的!

本人可以承認,認為物質不可能產生主觀感受,這個觀點,是迷信,但還是有些主觀依據。堅信「物質產生意識」的,則是純粹的自欺欺人,連這一絲主觀依據都不會有!是徹底的迷信!(注意,這裡不涉及對錯。就算幾億年後證明你是對的我是錯的,關鍵是,目前大家都沒有依據。)

總而言之,你可以當我是白痴,我也可以當你是白痴。沒必要說出來,不做沒意義的交流。連這都看不懂,那智商大概真是零了!


人工智慧-瑜伽師地論-言語行為理論 政治計謀指鹿為馬 表述句和施為句 可能世界之哲學、博弈論、現實意義

瑜伽師地論卷1 妙境法師 眼識「所緣」,眼識要緣所緣境

辰三、表色

  表色者:謂取、捨、屈、伸、行、住、坐、卧,如是等色。

  「表色者」,這個「形色、顯色」,「顯」,是顯著,很明顯的、很顯著的顯現出來。現在說這個「表色」怎麽講呢?「謂取、捨、屈、伸、行、住、坐、卧,如是等色」那麽叫做「表色」。這個《大乘成業論》,《藏經》上有這部書,它那上面解釋「表色」有四句話,就是那個《大乘成業論》有這麽四句話:『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』。由於『外發身語』,你發動了你的身語在外面,發表在外邊,你身體的行動和語言,那表示了你內心的思想,你內心這樣思想表現在行動上、表現在語言上,那麽就是由外發的身語,就知道你內心所思惟的了。『譬彼潛淵魚,鼓波而自表』,說個譬喻潛藏深淵裡面的魚,它在水裡面動,那個水在外面就有波浪,就表示那個地方有魚,那麽魚在裡面動,表示你心動。那麽水有了波浪,就表現心發出來的身語的行動,所以叫做「表色」,「表色」是這樣的意思。

  現在這裡說的「謂取、捨、屈、伸」,說我們手去拿東西叫「取」;或者放棄了;或者「屈、伸」,或者是身體的「屈、伸」,或者是背的「屈、伸」;或者你身體在「行」;或者是「住」;或者是「坐」;或者是「卧」,這樣一切的表現於外的一種色,就是你內心的境界。因為外面的這個身語,他自己是不能動,一定是心先動,才表現在身語上,所以這叫做「表色」。這「表」這個字就是這樣意思。表示你內心的活動,內心的活動表現在外面,這叫做「表色」。這是這一個的解釋。

《大乘成業論》的『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』,恰恰就是言語行為理論,也是討論人工智慧技術的極限問題。

言語行為(speechact)指人們為實現交際目的而在具體的語境中使用語言的行為。…英國人類學家馬林諾夫斯基(M.Malinovski)於1923年首先提出這一概念。馬林諾夫斯基從人類學的角度,通過觀察一個民族的文化生活和風俗習慣來研究語言的功能,認為與其把語言看成「思想的信號」,不如說它是「行為的方式」。在語用學興起後,這一術語得到了廣泛的運用,言語行為被理解為人類實現目的的一種活動,構

類總活動的有機組成部分。人們的行為總要受到社會規約的支配,言語行為也就被看成受各種社會規約支配的一種行為。

英國哲學家奧斯汀(J.L.Aus一曲)於20世紀50年代提出「言語行為理論」(speechacttheory),後經塞爾(J.R.Searle)的完善和發展,成為哲學、語言學的重要研究課題,也成為現代語用學核心內容之一。作為一種語言哲學理論,言語行為理論最初由英國牛津學派的哲學家奧斯汀在1955年提出,後經美國哲學家塞爾、格萊斯等人發展形成,其核心思想是把語言理解為一系列行為和實踐,說話就是做事,言即行。

言語行為理論是英國哲學家奧斯汀首先提出的。1957年,他到美國哈佛大學去做講座,以《以言行事》為書名發表了講座的全部內容,在其論述中,貫穿了一個思想:人們說話的目的不僅僅是為說話,當他說一句話的同時可以實施一個行為。言語行為理論的基本出發點是:人類語言交際的基本單位不應是詞、句子或其他語言形式,而應是人們用詞或句子所完成的行為。奧斯汀認為,傳統語法把句子按其功能分成陳述句、疑問句、祈使句等類型,這不利於人們對言語的理解和使用,因為同一句子在不同的語境中具有不同的功能。他認為不少話語不僅是提供信息,而且是完成或幫助完成許多行為。奧斯汀在此基礎上提出了言語行為理論。

在《以言行事》中,奧斯汀首先區分了表述句(constative)和施為句(performative)。很久以來,哲學家所持的一種假設是:陳述之言的作用或是描述事物的狀態,或是陳述某一事實,兩者必居其一,別無他用,而陳述之言所作的描述或陳述只能是真實或者是謬誤。哲學家歷來關心的只限於陳述的可驗證性(verifability),即如何驗證某一陳述是真實的或是謬誤的,以及如何規定某一個真實的陳述必須滿足冉辱條件等。奧斯汀對哲學界語言研究中的這種傳統觀點提出了懷疑。他認為「許多陳述之言只不過是假陳述」(pseudo—state—ment),人們所說的許多話語貌似陳述,但它們根本不以坦直地記敘或傳遞有關事實的信息為目的,或僅僅是部分地以此為目的。有時沒有必要也無從區分語句的「真」或「假」,因為有些句子一說出來就是一種行為,而行為只有適當不適當之分,沒有真假之分。奧斯汀主張區分有真假之分的句子和有適當不適當之分的句子。有真假之分的句子為表述句,其功能在於斷言或陳述事實和描述狀態、報道事態,所表述內容是可以驗證的,即或是真實,或是謬誤;有適當不適當之分的句子為施為句,它們不具有報道、描述和表述的功能,卻具有實施某些行為的功能。施為句的話語都是不能驗證的,它們無所謂真實或謬誤。

【修行人解答 奧斯汀提出表述句(constative)和施為句(performative)的區分是十分重要的。對於東方社會而言,有時候言語的表達的意思,不在表述語言的真實與否,而是為了表達另外一種行為,所謂指鹿為馬,說話聽音,話外之音,都是為了表達其他的行為。

佛學中提出的【表色】思想,就是瑜伽師地論已經深入的明了,眼耳鼻舌身的五識,所緣的色就有一種人的心法在其中,除了人的情緒之外、倫理價值判斷之外,還有就是表達一種表色的行為。對於 言語行為理論中的表述句和施為句的區分,表色包含的人的情緒、倫理價值判斷,人工智慧是無能為力的。

可以假設,如果又出現了指鹿為馬的情景,一個高度發展的人工智慧裝置或者說超人,他如何回答才可以讓提問者秦二世滿意呢?是簡單的回答是,或者不是嗎?也許秦二世需要通過觀察回答者的情緒並推測回答者的真實內心態度,提問者才能獲得自己滿意或者不滿意回答的結論。

中國歷史上有多次禪讓的故事,近代就有袁世凱登上皇帝位的故事。為了袁世凱登上皇位,楊度等人控制輿論,組織請願呼籲團,甚至在袁府搞假報子,袁世凱也是反覆推遲,這其中的真真假假,正常人有幾人看得懂,就是楊渡本人、袁世凱本人都是真真假假的搞不清楚,又是假戲又是真戲。假設一個人工智慧的超人,就可以判別真偽了?真是大笑話!袁世凱都在審世度時,根據事件的發展而定下一步的決策,在世間發展過程中就完全是一個存在多種可能的結果的【可能事件與可能的世界】,這就比量子世界的薛定諤貓,或生或死,皆有可能。

所以以為人工智慧的超人可以超越人類智慧、人類的政治計謀的人,這種人本身就是心智不全,根本不懂人的智慧與計謀有多深!】

奧斯汀的學生、美國哲學家塞爾是言語行為理論的主將,他也意識到虛構話語不能被排斥在言語行為理論的視界之外。塞爾主張把虛構人物的存在與真實人物的存在區別開來。虛構人物,如福爾摩斯等,雖然不存在於現實世界,可確實存在於寓言、小說、神話作品中,因此,在關於現實世界的言談中,代表虛構人物的語詞是沒有指稱對象的,但在關於虛構世界的言談中是有指稱對象的。塞爾顯然在言語行為視野中為虛構指稱留有餘地。1975年他發表了極有影響的《虛構話語的邏輯地位》一文,試圖集中解決虛構話語與言語行為的關係問題。他提出一個重要觀點:虛構話語也屬於一種言語行為,但這是一種假裝的、模仿的特殊言語行為,是作者在假裝作出一系列好像正常的言語行為。

「可能世界」作為一個術語和概念,在西方最早由18世紀德國哲學家萊布尼茨提出。在1710年的著作《神義論》中,萊布尼茨提出了一種對上帝創世過程的特殊理解。他認為在上帝的心目中實際包含了無限數量的可能世界,而人類所在的現實世界是上帝根據充足理由律創造的,在所有可能世界中是最好的一個。(23)萊布尼茨把現實世界看作眾多可能世界中平等的一個,是已經實現的可能世界。

1735年鮑姆加登在《關於詩的哲學默想錄》中,運用該理論解釋詩歌的虛構成分,認為詩歌的虛構事物雖然不存在於現實,但存在於其他「可能世界」中,他還明確提出「詩人宛如一個製造者或創造者,所以,一首詩應該像一個世界」(24)。

在現代西方哲學中,許多哲學家如羅素、維特根斯坦、卡爾納普等,都不同程度地討論過可能世界問題,但最集中的主要是在模態邏輯領域展開的。「模態」,是對英語modal的音譯,含有事物的存在方式或命題的樣式之意。模態邏輯就是處理用模態詞如「可能」「或許」「一定」「必然」等限定的句子的邏輯。20世紀中期以來,為了滿足模態邏輯發展的迫切需要,美國哲學家克里普克等人改造和發展了萊布尼茨的可能世界概念,形成一種模態語義學理論,又稱可能世界語義學。

可能世界語義學不僅對模態邏輯的發展提供了必要的語義工具,而且其包含的哲學思想和提供的在可能世界框架內討論問題的方法,影響遠遠超出了模態邏輯領域,波及語言學、心理學、數學、物理學、倫理學、宗教學、美學和文學藝術以及人工智慧等領域,逐步演變為一種廣為人知的跨學科範式。

修行人解答,【可能世界】的提出首先具有三層意思。

【可能世界】具有重大的哲學意義,人類的哲學思考建立於對【可能世界】的描述與表達。【可能世界】是人類在現實世界的前提下,對未來的種種推測,推測包含了當下可獲取的大數據、邏輯關係、推測人的價值與倫理立場等等。人類從4萬年前的智人時代開始就在對【可能世界】做種種推測。對【可能世界】的推測與希望,是人類區別於其他動物的關鍵能力。

在【可能世界】的哲學意義上,人工智慧的超人,是不可實施【可能世界】的運行的。除了大數據的掌控之外,情緒。價值、道德倫理關係等哲學意義,就根本不是可以用人工智慧的超人來實施的。你無法想像袁世凱在是否登上皇帝問題上,會聽取人工智慧的超人的參謀與建議。

【可能世界】具有博弈論的意義。此種博弈論,不是數學模型的博弈,而是人類古老計謀的博弈,是情感、價值與利益的博弈。中國歷史書籍,記載了太多的皇權、軍權、政權的博弈,三國演義,你能指望人工智慧的超人出現,可以戰勝曹操、諸葛亮、孫權嗎?

【可能世界】具有現實生活的意義。人類的男女戀愛,朋友的友誼過程,就是一種【可能世界】與【現實世界】的轉換,你能指望人工智慧的超人,與你談一場刻苦銘心的戀愛嗎?你不會是大腦出現錯亂了吧!

言語人工智慧可能性

物質是不可能有意識的,一個細胞沒意識,離開了人的軀體單獨的存活大腦的沒有意識【比如科幻中單獨的大腦,鏈接無數導線】

自我意識只有人類的個體擁有。

進化論的立場討論自我意識,必然陷入荒唐。

人工智慧的【智慧】是因為有人作為他的創造者【上帝】。美國科幻片的機器人超越人類,是無神論者的幻想。


在物質領域談意識,這本就是一種「妄想」,不是么?

你怎麼讓AI擁有人類的「妄想」?

在妄想之中去幫助AI製造妄想?

《人類簡史》說人類活在一種想像構成的社會中,誠然。

人們會相信一些「神話」,要麼是鬼神,要麼是金錢,這都是不同人類的自我意識在作祟。

如果AI擁有獨立意識,那麼他們就得首先得讓自己活在自我世界中,自己去做夢,去想像,去封閉,才能獨立。

俗稱自己活在自己的意識世界中——人類就是如此,所以我們有「自我意識」。

只有封閉自身,才能讓AI甲與AI乙有區別,才能說他們有各自的獨立意識、自我意識。

AI是一種龐大的群體生命,不是個體生命形態。

如果AI有意識,那也是群體意識,不會有「自我」意識。

————————

先說說啥是自我意識?

知道1+1=2,這絕對不是自我意識,這是邏輯能力,人和AI都可以有;

但是當你考一個成年人1+1等於幾的時候,他會琢磨:這孫子考我這麼簡單的題,是想給我挖坑么?

這個思考的過程,才是自我意識。

AI會有嗎?不會!

自我意識的最基本的表現在於——基於現實世界而產生的喜噁心理。

AI和人類都能分辨出一朵花是紅色還是黃色,但是人類會產生「紅色我喜歡,黃色我不太喜歡」的心理,而AI只能分辨這是紅色還是黃色。

為什麼呢?

紅色和黃色必須是已知的,已經形成01010輸入到了AI的「硬碟」(大腦)里,它才能知道這是黃色還是紅色,但是你沒法讓它產生——「我」喜歡紅,還是喜歡黃的這種心理。

有人認為會運算就等於自我意識,這怎麼可能呢?

運算是邏輯能力,但是自我意識是感性層面的,很多時候是脫離於邏輯能力之外而存在的。

AI的存在基礎是邏輯,是1+1=2,2+2=4。

AI沒法和你狡辯1+1=一泡狗屎,但是你卻可以和另一個愛扯淡的人探討為什麼1+1可以等於一泡狗屎。

如果一個AI也認為1+1=一泡狗屎,也不是它的狡辯能力提升了,而是因為有一個指令告訴它:1+1可以等於一泡狗屎。

人類的自我意識是不需要指令的。

就像不需要誰告訴你,對面那妹子你可以喜歡,然後你才喜歡她;也沒人告訴你跟妹子聊天那帥哥真討厭,你才去討厭那個令你吃醋的帥哥。

這都是「你」自己產生的,是因為你有「我」的概念。

因為有「我」的概念,才會產生自我意識——這是我的,這不是我的,這是我喜歡的,這是我討厭的……

當面對喜歡的東西,會產生貪愛;當面對不喜歡的東西,會產生嗔恨。

進而,愛與恨的心理,又產生了一系列的行為行動,就有了這個花花世界——貪財好色,追名逐利,為兄弟兩肋插刀或插兄弟兩刀,為女人拋棄妻子,或者面對誘惑堅持自己的道德底線……

自我意識就相當於每個人都有自己的演算法,每個個體都是獨立的,沒有兩個完全相同的人。

AI能嗎?

AI是無我的,它們沒有「我」的概念。

你的電腦不會認為你正用的滑鼠,是它的滑鼠,你正敲打的鍵盤,也是它的一部分。

「我」是一種立場,是一種態度,是一種偏執,AI的物理構成與「精神」(網路)構成,都是相同的——每個AI用的是同樣的演算法,用的是同樣的網路,它們認知世界的方式是相同的,得出結論的方式也是相同的,所以他們不會有獨立的「我」的概念。

連「我」的概念都沒有,又怎麼會產生「自我」意識。

沒有自我,就無法產生執著,沒有執著就不會有獨立的情緒和意識,就不會像人類一樣,成為獨立的個體,去標榜自我,去放飛自我。

想讓人工智慧產生自我意識,那就要讓他們先有「我」的概念,而「我」,是身體、感受、想法、行為、認識構成的複合體,你怎麼讓一個機器有感受,有想法,因為想法和感受去產生獨立行為,以及這個世界不同的認識呢?


推薦閱讀:

邊沁和密爾的功利主義有哪些局限?
為什麼那麼多人不願意承認自己中庸?中庸到底是一種什麼概念?中庸和創新和變革有衝突嗎?
柏拉圖的理型、理念、抽象概念?
有誰能幫忙理解一下尼採在超人三形態中提出的「大海」嗎?謝謝

TAG:人工智慧 | 哲學 | 科技 | 理論物理 |