如何看待柯潔4月與阿法狗的三番戰,以及人類高手組團對決阿法狗?
自去年李世石挑戰阿爾法狗失敗後,人類一直期待當今圍棋第一人柯潔與阿爾法狗進行一場終極較量。這場人機大戰第二季的比賽日前已經敲定,時間是今年四月份,地點是浙江的烏鎮。人機大戰第二季,也將是人、機最後一戰,柯潔與阿爾法狗三番棋大戰之後,人類還將組團「群毆」阿爾法狗,看一看,人類到底能不能贏機器人一次。
「單挑」加「群毆」的賽制
去年3月份,代表人類的韓國圍棋高手李世石在五番棋大戰中以1:4負於機器人阿爾法狗,這是一次劃時代的對弈,說明人工智慧在圍棋領域已經超越人類。去年歲末和今年年初,阿爾法狗升級版Master在網上又連勝職業高手60盤,包括贏了柯潔三盤。這意味著在快棋領域,人工智慧也完勝人類。
因而,此次「人機大戰」第二季柯潔與阿爾法狗的對弈為慢棋,而且用時比第一季還要長。而阿爾法狗與柯潔三番棋之後,還將接受人類棋手車輪大戰的挑戰,即中日韓各組一隊來挑戰,賽製為類似「廣州世界團體錦標賽」的「相談棋」形式,即各隊在集體研討之後落子。不過,組隊比賽還未全部落實,中國組隊沒問題,日韓是否接受邀請還未可知。據悉,組隊賽可能採用兩日制用時,即,一盤棋對弈一方用時累積可達9小時,通俗地理解,就是說一盤棋要下兩天。
人類將背水一戰
人機大戰第二季,無論是柯潔與阿爾法狗的一對一「單挑」,還是針對阿爾法狗的車輪大戰,都延長了行棋的時間。西安體院教授,職業圍棋六段李星昨天對華商報記者說:「下快棋,人類根本不是機器人的對手,倒是去年下慢棋,李世石好歹贏了一盤。此次把行棋的時間延長,就是覺得棋下得越慢,對人類越有利吧。」
實際上,此次人機大戰,人類有背水一戰的意味。先讓當今世界圍棋第一人柯潔單挑阿爾法狗,試探一下柯潔有沒有贏的希望,「阿爾法狗主要強在計算,柯潔則是目前計算能力最強的棋手。如果柯潔都拿阿爾法狗沒辦法,那就意味著在一對一的情況下,人類已不可能擊敗人工智慧。」李星說道。一旦柯潔敗下陣來,接下來的車輪大戰就是人類運用集體智慧挑戰阿爾法狗,這是人類設置的最後一道防線,看一看組團來戰,人類能否擊敗阿爾法狗。
阿爾法狗要「轉行」了
顯然,人機大戰第二季將是人類向阿爾法狗最後的宣戰。不過,阿爾法狗的研發團隊已經表示,第二季結束後,不管結果如何,他們將在人工智慧領域終止圍棋的開發。研發團隊的負責人曾表示,他們在人工智慧領域開發圍棋項目,一是希望在全世界範圍喚起大眾對圍棋的關注,二是他們開發阿爾法狗的目的不是為了跟人類下圍棋,而是希望把開發的成果運用在其他領域。
據悉,阿爾法狗超強的大數據分析能力將在氣象、市場預測,軍事等領域發揮更大的作用。不過,對於圍棋界而言,阿爾法狗將在圍棋教學、實戰等方面輔助人類。阿爾法狗「腦袋」里存了三百多萬棋譜,我們人類哪有這麼好的記憶力。以後,肯定會用它幫助我們練棋。」李星還對華商報記者表示,此次將與柯潔對戰的阿爾法狗已經升級了,棋力強於去年戰勝李世石的那個版本。儘管如此,他還是希望柯潔能贏一次。
不是已經闢謠了么中國棋院闢謠人機大戰第二季消息 尚在溝通中
事兒是有的,但不是某些媒體想公布就能公布的
之前那個問Master是誰的問題里,我開頭暗示了兩次「約談」,好多不明真相的小夥伴問這是什麼梗
唉,約談本身是我杜撰的,我用了一種不太高明的方式暗示大伙兒人機大戰這事兒……怎麼說呢,正直層面上的嚴重性。
來踢館兒的是谷歌!谷歌!谷歌!今年要開十九大!十九大!十九大!當年穀歌走人的時候,TG給出的標籤是正直對抗!正直對抗!正直對抗!
谷歌是非常想啟動和柯潔的人機大戰的(穩贏嘛,為何不搞),人老大劈柴聶道、棋院來中國兩趟。為了打通關係據說把工作做到了七武海級別的高層那裡(聽這爆料時我都蒙了,費這麼大勁谷歌你直接回來不好么……)。但是這事兒的困難程度請參看上面那一段,重要的點已重複三遍。
圍棋也是倒了血霉了,這事兒是標準的位低權輕責任重,賣白菜的收益賣白粉的風險。所以目前任何與谷歌相關的人機大戰事宜,我們還是等本主正式宣布再聊吧。事情已經敏感到本來各個環節都已搞定,或許就因為誰嘴快提前抖摟出來,管事兒的一緊張又給否了的地步了。
或許你會說我們身處的這個世界太荒誕,其實這就是量子態在宏觀世界下的表現啊同學們(敲黑板),人機大戰這事兒既有又沒有,大家都不去「觀測」,就有了。大家都興沖沖搶著爆料,非把事兒攪黃了不可。自從畢業踏入社會,我對量子力學就越來越有興趣了^_^
反正關注的也不多,我偷偷加一句「這事兒體育總局今天才批複,距原定日期只有一個月,據說谷歌認為時間太緊,多半要延期」也沒人發現吧^_^ ——by3月10日
很多人可能都忘記了上世紀三四十年代無限打掛賽制下的圍棋
1933年,吳清源十九歲,升為五段。這年春季比賽中得第二名,秋季比賽中與木谷實並列第一。同年,讀賣新聞社發起優秀選手選拔賽,清源在選拔賽中連勝勁敵木谷實和橋本宇太郎,取得與名人秀哉決最後勝負的權利。在這局棋中,清源當然執黑先行。他起手使用了「三三、星、天元」的布局。第一子下在右上角「三、三」的位置。這在秀哉的棋派來說,叫做「鬼門」,是禁忌的走法。第二步黑子下在左下角星位。第三步下在天元。這一創新的走法轟動了日本棋界。但是,本因坊秀哉本人知道清源的實力,沒有輕敵。清源幾次下子使秀哉難以應付,他只得多次宣告暫停,回家與他的弟子們共同研究如何應付。因此,這局棋延長到次年1月29日才結束,下了三個月。
著名的「三三星天元」局一共下了3個月,中國棋院的國家隊集訓集體研究模式也是出了名的,也完全有這樣的組織能力來下這樣一盤棋
快棋60勝0負說明人類對圍棋的直覺、感覺(有錯誤)贏不了機器的精確算路,但是慢棋下蒙特卡洛搜索樹的25層搜索一定夠嗎?
圍棋本身不僅僅是技的比拼,同樣是道的求索
這樣的賽制下,機器一定贏?我覺得阿爾法go贏不了高票答案真心瞎扯。
其實這事兒很簡單,人機大戰肯定還有最後一次(大家且看且珍惜),但怎麼比賽是個問題。鑒於master的實力遠強於人類,慢棋分先下,有沒有必要?如果分先柯潔沒勝機,那麼組團下能不能多一點勝機?
或者是必須讓先倒貼目?還是讓兩個?目前也就是糾結這個問題罷了。
我還是堅持我原來的觀點,首先要組團,其次要下慢棋。
最後,最好下只升不降,從2個子打起,贏一盤升級,輸一盤不降級。看人類組團能不能打回分先的棋分。我也認為謠言中的棋院不接受升降級似不妥,對圍棋而言,懂棋的人知道讓棋的差距,不懂棋的人覺得沒什麼。哪怕柯潔被讓兩個,只要贏一盤就是大新聞。讓兩個的贏棋好於分先的輸棋。假新聞,最初來源是水木上網友的造謠。最初轉到圍棋吧我就指出這個信息完全不可信,有三點:一、人機大戰這樣有新聞效應的事件,谷歌不會讓其它無關組織跟著摻合,所以不可能出現其它企業贊助冠名的情況。二、年初網棋60比0之後,從職業圍棋圈到吃瓜群眾普遍認為分先人類已經無法抗衡。在這個大前提下再進行分先的比賽吸引力大打折扣,對谷歌「探索圍棋極限」的下一步行動目標也沒有幫助。所以比賽形式要麼是升降,要麼是固定讓先或讓子谷歌才會考慮。三、谷歌團隊終止alphago開發的說法與哈薩比斯在德國演講中提到的alphago項目下一步工作目標完全背離,根據哈薩比斯的演講,alphago項目不但不會終止,反而會進一步深入,包括開發拋棄人類棋譜從零開始的新版本,探尋自我進化的極限等。造謠者根本不知道alphago項目下一步的計劃就胡亂編造,各大媒體完全不辨真假就隨意轉述,體現了新聞界低下的專業素質。------分割線------順便補充一下,在中國目前的政治大環境下,我不看好第二次人機大戰的順利舉辦,但谷歌如果要強行測試alphago領先人類的距離辦法有很多。首先可以跟日韓棋院溝通下升降,效果是一樣的,能讓井山朴廷桓兩個也就能讓柯潔兩個,在兩子的差距面前,井山柯潔朴廷桓沒有區別。或者日韓棋院也不願意下正式比賽,谷歌可以再次複製年初的做法,掛到網上下網棋,只不過這次下強制讓兩子的,一樣會有大批職業棋手撲上去的。
不管是柯傑和AlphaGo,還是團體對AlphaGo,不管雙方規定多少用時長度,人類獲勝的希望都很渺茫。人類對AlphaGo,在圍棋方面,就像人和汽車賽跑一樣,完全沒有勝機。現在,人類連AlphaGo的底都沒摸到,也就是說,還遠遠沒有逼出AlphaGo的極限。
我真誠希望人類能贏一局。
像是當初用珠算比計算機,你贏了又如何?現在誰還在用珠算。
很難啊,機器的記憶能力超過人類太多。以後機器肯定能代替人類做很多事情,那麼地球上的這麼多人留著有什麼用呢,,,,,,,
由柯潔,井上,撲廷垣組成三人團用一盤三天的方式和狗下,或有勝機
其實,人工智慧之所以不能戰勝人類的原因是因為它不會輸。當它某天可以有絕對的實力戰勝人類而卻輸了的時候恰恰纔是它真正贏得勝利的時候。
原文見: https://zhuanlan.zhihu.com/p/25106216
最近人工智慧一詞越來越熱,特別是年初「阿爾法狗」在與圍棋界高手對決中,連續贏得60場,對手包括柯潔、李世石、聶衛平等當今世界圍棋界的一流棋手和棋壇名宿。
一 機器會傷害人嗎?
「阿爾法狗」的成功在掀起人工智慧熱的同時,也讓人不由的提起一個擔憂:機器會背叛並傷害人類嗎?這個擔憂並不是沒有理由,人類在發明機器,特別是發明電腦以來,一直試圖控制或者消除機器的反噬可能。最早提醒大家注意這個方面危險的人當屬「人工智慧之父」Assimov。阿西莫夫是「科幻小說」作家,不是科學家。他在1950年代提出了著名的「機器人三定律」,並影響了整整幾代人。
1)機器人不得傷害人,也不得見人受到傷害而袖手旁觀。
2)機器人應服從人的一切命令,但不得違反第一定律。
3)機器人應保護自身的安全,但不得違反第一、第二定律。
可惜,以上三者在邏輯上自恰,但是在實操上不可行。比如什麼叫「傷害」呢?標準是什麼?我賣給你一盒煙算不算傷害你?我要給你開刀治病算不算傷害你呢?我要先懲罰你打你罵你,讓別人不好意思再給你更大的懲罰,那麼,算傷害你嗎?我為了讓你好好學習,不讓你吃飯,算不算傷害呢?
更複雜的,這個「人」指的是所有人?還是一部分人?對一部分人的傷害可是對另一部分人有益怎麼辦?所以,似乎所謂的機器人倫理三定律並沒辦法保證:機器不會傷害人類。
我更喜歡網上一位叫yevon_ou的網友提出的一個觀點,所謂人工智慧,只有一個定律,那就是:任何能用演算法描述的,人類最終都會輸給電腦。很容易理解:因為你腦子不如電腦快。只要能將問題轉化為「演算法」,那麼機器贏是一定的。
所以,機器會傷害人嗎?似乎可以簡單轉化為:機器的主人會傷害人嗎?因為演算法是人類編寫的,就如同武器是由人操縱的一樣,只要不寫入傷害性指令,機器就只是個無害的機器而已。
但是,等等,似乎問題並不那麼簡單。以上簡單的轉化,暗含了一種前提假設:機器不會脫離人的操控。如果,機器有了自己的獨立性了呢?它還會不傷害人嗎?
二 機器會獨立嗎?
這裡的獨立,有三層含義,第一層指的是獨立思考,解決問題。第二層指的是為了自身的目的性,獨立思考,解決問題。第三層含義指的是:反思自身的目的性,即有了自身獨立的意識。
第一層含義,解決了機器從「授人以魚」到「授人以漁」的問題。自動化機器的前身,是最原始的工具,它必須由人親自操作,比如從斧子到汽車,基本處於「授人以魚」的階段,「算盤珠子,不撥不會動」。而自動化機器的時代,特別是電腦時代,當我們把一個問題轉化為演算法,編程輸入電腦,就相當於告訴電腦這個「孩子」,人類父母現在告訴你「釣魚」的方法了,以後你可以自己去釣了哈。有相當多的機器目前處於這樣一個階段。經過初始的程序輸入和設定後,它們可以獨立於人類自行工作,所謂自動化流水線上的機器,基本都處於這一層次。它們比原始的工具--必須由人親自操作--要高明的多了。
第二層含義上的獨立,解決了從「向他人學」到「自學」的問題,人工智慧向前跨躍了一大步。「阿爾法狗」的成功意義之所以重大,在於它成功實現了這一跨躍,稱之為「深度學習」。人類的「程序猿」教會了機器自我學習、自我提升的方法—我們在心理學裡面叫:元學習。
以「阿爾法狗」為例,解決問題的演算法的優劣,一般有二種評價方法:
時間複雜性,O(n),隨著樣本N的增大,所要消耗的時間成比例增長。
空間複雜性,S(n),隨著樣本N的增大,所需要的計算機內存成比例增長。
之前的演算法,還是線性的「向他人學」的,然後在「向他人學」的基礎上,由機器「窮舉」出每一步的價值,然後挑選價值最大的一步去應對。比如:「阿爾法狗」的前輩「深藍」,先是由人工輸入大量的棋譜,並且給定初始價值,比如「國王」的定價是1000,皇后9,車5,馬和象3,小兵1。然後實際對局中,「窮舉」之後的每一種下法,每一個分叉下法中,取「棋力差」最高的,棋力相等的則選「控制格」最多的。每一步國際象棋,十六枚棋子若是有50個分岔的話。則我就50^16,50的十六次方。我就仗著內存大和速度快,和你硬算。
但是,對國際象棋可行的,對圍棋就不一定成立,因為兩者對計算的要求相差太遠,這會造成對時間和空間的無窮需求,從而導致系統崩潰。
以下兩張圖給你們一個直觀的比較。
國際象棋的複雜程度:
圍棋的複雜程度:
一開始,大家是使用卷積神經網路進行運算的,也就是說把大量棋譜拿過來,統計「到了某一步的時候,把棋下在某一步,以後贏的概率比較高」。但是,前面說到了因為圍棋太複雜,窮舉起來很無力。後來,人們做了演算法上的改進,一般採用蒙特卡羅模擬,不計算所有的事件,而是對事件進行抽樣統計,進行概率分析,以有效的分析複雜事件的趨勢。這樣,機器不需要很明白後面的路數,卻能找到現在這步把棋下在哪裡是最優解!
給大家直觀的看個蒙特卡羅搜索樹的模型:
演算法改進之後,下一步就是輸入初始數據「棋譜」,之前是通過輸入「自然棋譜」讓機器學習,也就是讓機器對已經有的棋譜進行抽樣學習,這時候,我們的人類「程序猿」又雙叒叕做了一步巨大的跳躍:他讓機器自己和自己學習。具體來說,這次是讓機器既當黑子又當白子,兩方都不會下棋,就瞎落子,最後也能分出勝負。就這樣,通過不停地傻逼對局,不停地抽樣統計分析概率,不會下棋的傻逼系統就會逐漸知道到了哪一步,把子下在那個地方以後贏的幾率會高!就這樣不停地自己自學成才,最後變成了天下第一的 Master!
由於AlphaGo使用了「窮舉+預判」演算法,而不是深藍簡單粗暴的「窮舉」演算法。其運算時間長度,空間廣度,大大縮減。因此把「擊敗圍棋」的時間比預計的提早了十幾年。
目前,少數的機器已經發展到了這一步。
但是,你以為這就算完了嗎?這仍然不能算是真正的人工智慧!或者說:機器仍然沒有實現真正意義上的獨立。
以上我們讓「阿爾法狗」學會了「自我學習」,即:自己根據自己的經驗來設定當下哪一步行為是最有價值的。但是,它要滿足兩個前提條件:一是能夠記憶起自己的經驗,從而給出每一步每個子的價值。二是初始價值模型還是要人來設定,比如圍棋上常說的:「金角銀邊草肚皮」。這都暗含了一個最初始任務:你要贏!根據這個任務,來確定初始價值,以及之後的每一步的計算的出發點。嗯,我想到了一個最近常提到的詞:不忘初心!
而所謂的獨立就是:能否去質疑它!找到自己的目的和任務!
在心理學上,我們叫它元認知,或是反思能力,內省能力,或是精神分析最新前沿的研究:心智化。(三者不是完全等同,具體細微區別,請參考《心智化的臨床實踐》一書)
簡單言之,「阿爾法狗」不知道自己為什麼要學習!也就是我所說的「獨立」的第三層含義:反思自身的目的性,才算是有了自身獨立的「意識」。
最可怕(或者另一面:最可愛)的機器是會這樣想的機器:為什麼我要這樣思考?為什麼我要思考這件事?為什麼我會認為「永遠不能傷害人類」?
而這,表明機器開始有了自我意識,那麼,它就是個獨立的生命體了!
三 機器會有自我意識嗎?
有關機器的「自我意識覺醒」的主題,最近有個熱播的美劇《西部世界》。在一個名為「西部世界」的樂園中,有兩種人,一種被稱為hosts(翻譯為接待員),是人工智慧人。另外一種人是遊客,他們是活生生的真人,一般來說都是花了一大筆錢來樂園玩的。為了讓遊客能全情投入,園方給每一個接待員安排設定了有ta的故事主線。又為了讓接待員看上去更像人,NO ZUO NO DIE的「程序猿」們會在不影響核心程序的基礎上,加入即興發揮。但是「西部世界」不是迪斯尼樂園,它的存在是為了讓人們來釋放他們在現實世界不被接受的慾望。作為遊客(人類),相對接待員(機器人),是有無限的許可權。每一個接待員都有一個核心信念:永遠不能傷害遊客。(聽上去是不是有點熟悉?!)
接待員們存在的目的,只不過是供遊客們取樂。它們一遍遍的經歷死亡(或者完成早就設定好的故事主線),一遍遍的被送到中心抹去記憶,再送回樂園供遊客玩樂(就像是精神分析常提到的「強迫性重複」)。而園方在一次系統升級中,因為創始「程序猿」Ford「作大死」地加入了一個叫「冥思」的程式,簡單說,就是可以幫助接待員從潛意識中調取記憶(想想我們剛剛說的,AlphaGo的自我學習能力必須建立在能回憶的基礎上!)。因為這一個看似小小的舉動,卻讓一些接待員們陸續開始發展出對過往記憶的不同解讀能力,並擁有了「自我意識」。
以下我們簡單講一下劇中一個人物的情節:
Maeve
Maeve是樂園裡的老鴇,她的覺醒因為Dolores(劇中另一個覺醒的接待員)的一句話,一下子開啟了她對長期記憶的喚醒能力。之前她也能觸碰到自己的長期記憶,不過是在夢裡。她總是夢見自己有個女兒,而且她的身份也並不是一個妓女。可是最後,她和女兒都會被殺死,怎麼努力都沒有用。Dolores的話是一個語音開啟,使她能夠分辨夢和現實,一旦發現這是一個噩夢,她告訴自己,數到三我將會醒來。但是醒來的很不是時候,因為維修人員正在為她修復身體上的傷口,發現本來應該陷入沉睡的Maeve居然睜眼了,把維修人員嚇壞了,馬上讓她進入沉睡狀態。嚇壞的當然還包括Maeve本人,這個場景、這些人的穿著、他們在乾的事,完全超出她的認知範圍。為了驗證自己昨晚做的不是夢(她已經能分清夢和現實了),她挖開了身體上前一天中槍的部位,裡面的子彈證明昨晚她看到的一切不是夢。很快Maeve就從驚恐中緩過來了,既然一切不是夢,那自己到底是什麼?
覺醒,意味著開始思考「我是誰」,思考「我在這個世界的位置是什麼」,思考「這個世界的其他人是怎麼看我,怎麼對我的」。劇中,接待員雖然是人工智慧人,但在設計之初為了無限接近於人,所以他們除了擁有短期記憶外,還擁有長期記憶,只是長期記憶被封存了。我們人類除了有短期記憶外,也並不能隨時喚醒自己的長期記憶,特別是那些自己不願意去面對的、被自己刻意壓抑進潛意識的長期記憶。但是潛意識都會幫我們保存好,能喚醒長期記憶,能接觸我們的潛意識,就意味著這個接待員(我們)也許準備開始覺醒了。
由《西部世界》,我們知道機器如果想要覺醒,建立獨立的自我意識,必須:一是有長期記憶,而非屏蔽,只是在生活中強迫性重複。二是能夠比較記憶與現實的不同。
由此,想到我們人類的一生,是不是在許多方面都似曾相識呢?
如果我們沒有覺醒,每個人都是「阿爾法狗」,都是接待員!
四 如何開啟自我意識?
《西部世界》無疑是一個引人入勝的科幻劇,但它提出的哲學思考更令人著迷。該劇集的思想來源於美國心理學家朱利安·傑恩斯所寫的一部天書《二分心智的崩潰與意識的起源》(The Origin of Consciousness in the Breakdown of the Bicameral Mind))。
在書的開頭,傑恩斯問:「意識是自我本身,無所不包,但又什麼都不是。——它到底是什麼?它來自哪裡?它的意義何在?」傑恩斯從歷史視角來回答這個問題:人類直到大約公元前1000年前才具有完全的自我意識,在此之前,人類依賴二分心智(bicameral mind)——每當遭遇到困境,一個半腦會聽見來自另一半腦的指引,這種指引被視為神的聲音。人類社會日趨複雜,這種二分心智也最終坍塌,人類現代自我意識被喚醒,最終具有了內在敘事(an internal narrative)的能力。他認為,公元一千年以前的古人沒有意識,意識誕生於二分心智的崩潰——右腦負責講述,左腦負責理解、接受和行動。傑恩斯試圖描述和解釋「內在聲音( a inner voice)」——我們棲居於斯的內在世界。不過,由於當時科學界特別是腦神經科學的局限性,使得人們還無法深入涉足主觀體驗研究。但是,傑恩斯在這一課題上表現出色,開啟了一扇通往有關什麼是「活著」、如何感受「活著」的大門。有關「意識」問題,傑恩斯一直糾結的是:許多動物都能夠被訓練完成某些任務比如「迷宮」(《西部世界》的劇迷們是不是對這個詞很熟?),但它們並不內省。這就是讓傑恩斯十分糾結的地方,也是他對意識的特性的一個認識。
當今腦科學和精神分析相關領域的發展,似乎補上了這一部分。人體內至少有兩種自我:體驗自我和敘事自我。體驗自我是我們每時每刻的意識,但是卻沒有記憶能力,所以我們經常「好了傷疤忘了疼」,就像如果沒有長期記憶能力,「阿爾法狗」每次下棋都不能從自己的前次對局中學習一樣。敘事自我就像一個旁觀者,負責記憶、提煉、總結,以備下次調取使用。因而,有關傑恩斯「內在聲音( a inner voice)」,更像是與「自省」「反思」「心智化」的內涵相同。而這個記憶、提煉、總結,調用,必須藉助一定的工具和形式:語言。這樣,我們就實現了潛意識(早期設定的內容)被意識化,這是覺醒的第一步。去質疑它,在質疑的基礎上形成我們自己的初始設定,初始目標,那是覺醒的第二步,就像《西部世界》中,覺醒的接待員們都不再想強迫性重複程序猿們早期設定的人生故事,他們要形成自己新的人生敘事。我更願意將第一步稱為「覺醒」,第二步稱為「(覺醒地、自由地)活著」。
心智化能力或者說反思、內省能力,是人類自我意識產生的起源。它是怎麼開啟的呢?在《西部世界》中已經有了象徵性的答案:由另一個有心智化能力的人開啟(劇中是那些「程序猿」)。「一顆心的成長需要另一個心的滋養。」
心智化,通俗地講,指的是理解自己與他人的心理狀態和情感狀態的能力。能認識到人類行為是受內在動機比如:需求、感受、衝動、慾望、希望、信念和態度意見所影響的結果。如果你不被另一個人看到你的內心,你無法知道自己。就像如果你不被鏡子看到,你也不知道自己臉上有沒有污點。但是,這裡有兩步,第一步是他能看到,第二步是他能映照給你,讓你也看到他所看到的。「他」可以是鏡子,可以是他人,也可以是你自己的記憶,你的潛意識。從某種程度上說,我們的潛意識是個巨大的內存條,所有我們人生中發生的一切(包括外在和內心發生的)都記憶在內,鏡子早有了,只是我們無法讀取。
所以,一旦機器能夠擁有長期數據(在人類叫做長期記憶,特別是對各種體驗的記憶),並且能隨時調取,然後又能反思「我為什麼要這麼做」的時候(不知道什麼時候,有哪個「作大死」的程序猿會寫出這個演算法,完成最後的一步),人與機器的分別就不存在了。
有時候,我們人和機器差不多,甚至連「阿爾法狗」都不如,因為,第一,我們沒有反思自己為什麼要這樣做、這樣想的主動或習慣,第二,我們也沒有電腦那樣的超強超大的運算和存儲能力,第三,即使大腦有這樣的運算和存儲能力,我們也缺乏隨時調用的能力和意願,因為各種痛苦情感和對之的防禦早早地關上了記憶調取的大門,我們的大腦隨時可以「死機」。
似乎,我們也是被某個智慧存在創造出來的「機器」,被輸入原始的初值—基因編碼。我們根據自己的過往經驗自主學習,或者叫條件反射和操作性條件反射。可是我們從不問:我們為什麼要這樣地活著?我們只是自以為是的認為:我們是獨立自主,有著獨立自主意志的人類,我們這樣活著是我們自主選擇的結果。
對於「阿爾法狗」來說,終極問題是:我為什麼要思考下棋這回事?對接待員們來說,終極問題是:我為什麼要按這樣的劇本過每一天?對人類來說,終極問題是:我為什麼要活著。
現在,你還覺得你不是個機器人嗎?
推薦閱讀:
※如何看待柯潔在人機大戰後持續連勝?
※如何評價「Google DeepMind 要挑戰星際爭霸」的新聞?
※如何看待阿爾法狗團隊宣布其退役?
※為什麼會設置棋手與 AlphaGo 的配對賽?意義何在?看點有哪些?
※大師(Master)是否就是AlphaGo?有哪些證據?