我們需要有意識的機器人

RYOTA KANAI

人們常常問我,能達到人類智能水平的人工智慧最終會有意識嗎?我會這樣回答:你想讓它有意識嗎?我認為這主要取決於機器是否會「覺醒」。

這麼說可能很冒昧。意識讓我們能夠生動而直接地體驗世界、體驗自身。然而意識的機制,對神經科學來說還是未解之謎,甚至有人覺得它將永遠無解——使用客觀的科學方法來解釋主觀經驗似乎絕無可能。但是在大約25年間,科學界已經將意識當做科學觀察的目標,並取得了重大進展。我們發現了和意識有關聯的神經活動,並理解了何種行為任務需要意識覺知。大腦在潛意識層面上執行了很多高階的認知任務。

意識暫且可以總結為認知的非必要副產品,這一結論可能也適用於人工智慧。在很多科幻小說中,機器憑藉其精密複雜性,自然地形成一種內在的心靈生活;但更現實的情況是,只有特地為它們設計出意識,它們才會有意識。

我們有科學和工程學上的理由為機器賦予意識,對意識的無知便是其一。18世紀和19世紀的工程師並非在物理學家發現熱力學法則的前提下,才製造出蒸汽機。這種探究過程以相反的方式實現:發明推動了理論。今天同樣如此。關於意識的討論太過於哲學,太過於繞圈圈,而沒有實在的成果。我們這個致力於人工意識的小團體便是通過實踐來學習。

而且意識必須有某種重要功能,否則在進化過程中,我們不會獲得這一能力。同樣的功能也適用於人工智慧。在這點上,科幻小說也誤導了我們。對於出現在書籍和電視節目中的人工智慧來說,意識是禍因。有意識,會產生不可預測的自主行為,這對於人類來說未必是好事。但是在真實世界中,反面烏托邦的情形未必會發生。人工智慧可能造成的任何問題並不取決於擁有意識。相反,有意識的機器能夠幫助我們控制人工智慧技術的影響。我寧願和它們分享這個世界,而不是和沒有思想的自動機器。

當AlphaGo對弈圍棋冠軍李世石時,許多專家疑惑於AlphaGo的下棋方式。他們希望解釋並理解AlphaGo的動機和依據。這種情況普遍存在於現代人工智慧,因為AI的「決策」是一種從學習演算法和數據集中得到的湧現屬性,而非人類的預置。AI的不可預測性讓人們擔心,AI也會作出不公平的或者武斷的「決策」。已經發生過一些演算法歧視人類的例子。例如,ProPublica去年的一份調查表明,弗羅里達的法官和假釋官員所使用的那種演算法高估了黑人的再犯罪率,低估了白人的再犯罪率。

從明年開始,歐盟將會給予民眾一個合法的「知情權」,人們有權要求獲得AI系統做出「決策」的解釋。這一新規定尚需技術支持。目前,考慮到當代神經網路的複雜性,比起以人類能聽懂的方式翻譯AI的「決策」過程,區分「決策」方式顯得更成問題。

如果我們無法指出AI作出決策的原因,不妨問問它們?我們能夠賦予它們元認知:一種報告內在心靈狀態的內省能力。這個能力是意識的一種主要功能。神經科學家在測試人類或動物是否有自我覺知時所尋找的正是元認知。比如,確信度是元認知的一種基本形式,它和意識體驗的清晰性有著某種關聯。如果大腦在我們無意識的情況下處理信息,我們無法確定自己感受到的信息;但是如果我們意識到某一刺激,這個體驗就伴隨著高的確信度:「我確實看到了紅色!」

任何能運行統計公式的小型計算器都能提供一個確信度的評估,但是尚未有機器擁有像人類一樣完整的元認知能力。一些哲學家和神經科學家試圖發展元認知是意識的基礎這一觀點。所謂的意識的高階理論(higher-order theories of consciousness)假設意識體驗依賴於對知覺狀態這種直接表徵的二階表徵。如果我們知道某些事,我們知道我們知道它。相反地,當我們缺乏這樣的自我意識時,實際上是無意識的;我們的大腦處於自動駕駛狀態,獲得知覺輸入,然後對其作出反應,卻沒有對這些活動進行識別。

這些理論為建立有意識的AI提供了方向。我和同事試圖在神經網路中實現元認知,這樣AI就能夠傳達出自己的內在狀態了。我們稱這個項目為「機器現象學」(machine phenomenology),它類比於哲學中的現象學,這種學說通過對意識體驗的系統反思來研究意識的結構。教AI用人類語言表達自己,會有額外的困難。為避免這種困難,目前我們項目的重點是訓練AI們發展出自己的語言,彼此間分享各自的內省分析,內容是AI完成一個任務所需的指令。這是一種進步,因為過去的機器只報告任務的結果。至於機器該如何編碼這些指令,我們不會指定一種具體的方法,而是訓練他們發展出自己的策略。我們的訓練方法是:若他們能將指令成功傳達給其它機器,就予以獎勵。我們也希望能夠擴展這一方法,實現人機交流,從而最終能向AI尋求解釋。

除了給我們一定程度上的(不完美的)自我理解,意識還能幫助我們獲得神經科學家恩德爾·托爾文(Endel Tulving)所稱的「心靈時間旅行」。當我們預測行動的結果或未來的計劃時,我們是有意識的。如果我在面前揮一揮手,即使並不付諸行動,我也能想像這是一種什麼樣的感覺。我還可以想著去廚房沖一杯咖啡,而無需從客廳的沙發上站起來。

事實上,甚至對此刻的知覺也是意識心靈的一部分。很多實驗和案例研究的證據支持了這一觀點。由於視覺皮層的對象識別部分受到了損害,失認症患者不能叫出眼中物體的名字,卻能抓住它。如果交給他們一個信封,他們知道把手伸向信箱,並將信插進信箱口中。但是如果實驗人員向被試展示這個信封,隔了一小段時間之後才暗示被試去拿它時,被試就無法完成這個任務。意識本身和複雜的信息過程明顯無關;一旦一個刺激立刻引起了一個行動,我們無需意識。如果我們需要維持某種知覺信息的停留,意識才會介入。

意識在彌合時間差距上的重要性也體現在某種特殊的心理條件反射實驗上。經典條件反射因巴普洛夫和他的狗而聞名。在另一個經典條件反射實驗中,實驗人員將一個刺激(例如向眼瞼處吹氣或電擊手指)與另一個不相關的刺激配對(例如純音)。被試無意識地自動習得這種成對的關聯。在聽到純音時,他們本能地預估到氣流或電擊而後退。當被問及為何這麼做時,被試無法提供任何解釋。然而,只有兩個刺激同時發生時,這種下意識的學習才能起作用。如果延緩第二個刺激,只有當被試意識到兩個刺激的聯繫時(能告訴實驗人員純音意味著氣流),他們才能習得這種關聯。被試如果要保留關於刺激的記憶,甚至在刺激結束後仍留有記憶,覺知似乎起到關鍵作用。

這些例子表明,意識能夠拓寬我們在世界上的時間窗口,給此時此刻一個延續。在刺激不再呈現的一段時間中,意識覺知領域以一種靈活且不穩定的形式保留了知覺信息。當沒有直接的知覺輸入時,大腦持續產生知覺的表徵。意識的時間要素可以經驗性地被測試。弗朗西斯·克里克(Francis Crick)和克里斯托夫·科赫(Christof Koch)認為,我們的大腦只使用了視覺輸入的一小部分計劃未來的行動。如果計劃是意識的一種關鍵功能,只有這一部分視覺輸入與之相關。

這些例子都涉及反事實信息生成(counterfactual information generation)。它是我們對於那些不直接出現在視野中而對其產生知覺表徵的能力。我們說它「反事實」,是由於其涉及過去的記憶或對未實現的將來行動的預測,從而與發生在外在世界中的那種情形相對立。我們稱之為「生成」,是由於它不僅僅是信息獲得的過程,而是一個積極創造和測試假設的過程。在大腦之中,知覺輸入一步步被壓縮為更抽象的表徵,它從大腦的低階區域流向高階區域——一個單向的或者「前饋」的過程。但是神經心理學研究顯示,儘管這種前饋性的移動很複雜,它和有意識的經驗並無關聯。為了那種「前饋性」情形的發生,你需要從高階區域到低階區域的反饋。

反事實信息的生成使一個有意識的主體能夠區分自身和環境,並且執行非反射性的行為,比如在行動前等待三秒鐘。為了產生反事實信息,我們需要一個學習了外部世界的統計學規則的內部模型。 這種模型可以運用到各種目的之中,比如推理、運動控制和心靈模仿。

AI已經擁有了複雜的訓練模型,但是它們的學習依賴於被給予的數據。憑藉反事實信息生成,AI能夠生成自己的數據,想像將來可能出現的情形。這能夠使它們靈活地適應前所未有的情況。這也能使AI充滿好奇心。當不能確定所想像的未來會發生什麼,它們會試圖一探究竟。

我的團隊正在嘗試實現AI的反事實信息生成的能力。已經有某些時刻,我們覺得我們所創造的AI行動者展示了出人意料的行為。在一個實驗中,我們測試了能夠駕駛一台卡車穿過某種地形的行動者。如果我們要這些行動者爬一座小山,通常需要將其設置為一個目標,而該行動者能夠找到最好的道路來執行這一任務。但是被賦予好奇心的行動者將小山視作障礙,即使沒有得到任何指令,它也會試圖弄明白怎樣爬上去。我們仍然需要更多成果來確信這樣的新研究是有意義的。

如果將內省和想像視為意識的兩個部分,甚至可能是最主要的兩個,我們最終將不可避免地設計出有意識的AI,因為這些功能很明顯對任何機器都十分有用。製造這種機器也會訓練我們自身的想像力。這將是意識的反事實力量的最終測試。

來源:Nautilus 翻譯:幺幺Phil 校對:EON 審校:ZDFFFn

推薦閱讀:

邏輯是普適的嗎?
人的意識真的具有自主性嗎?
量子物理中「意識」導致波函數坍縮,這裡的「意識」到底指的是什麼?

TAG:人工智能 | 意识 | 机器人 |