電影《機械姬》中創造出的通過圖靈測試的人工智慧,在現實中有被實現的可能么?
轉自我本人(星野流魂)的豆瓣影評《從機器人到梵高》作為醫學生,我傾向於這樣一種看法:伊娃類型的人工智慧不會像許多人想像中那麼快出現——甚至乎,我的直覺是:伊娃這樣的矛盾體不可能被製造出來。 矛盾是指,作為誕生即被賦予語言能力的機器,不能對美、藝術的信息有所感知,只是輸入和輸出信息的載體和工具而已(flag已立,歡迎反對)。圖靈試圖在他的領域挑戰人性,的確給了我們很大啟迪。但是人性最為難解的一面,如電影所說,不在邏輯、理性,而在非意識與意識之間(恰似電影《她》的最後,對於「字裡行間留白之處」的精彩描述)。 我猜想,人對於潛意識美感的感知,是來自於嬰兒到成人之間生理的變化和環境的塑造同步完成,從最原始的記憶開始(甚至更早是開始於基因里的集體潛意識),我們就在皮質語言區、圖像構造區域(非優勢腦)以及情感協調區域(扣帶回、紋狀體、杏仁體之類)產生我們個人的標記。我們與機器的差別,在於我們是把特徵一步一步積累起來的,我們無法篩選童年的信息哪些是重要的,哪些是有害的——它們就是真切地在實驗室以外的真實世界發生了。也就是說,有一些crap就是比一些理性的集合更重要。
進入潛意識的記憶讓我們有獨特的感知,假如我們害怕打針,以後就會對類似白大褂的衣服產生丑或恐懼的印象;假如小時候喜歡有人逗你笑時抑揚頓挫的語調,以後說不定覺得opera特別有魅力;假如一個優生家族的某人在基因里對健康雌性的訴求很強烈,他可能發現天鵝、瓷器的曲線特別有美感(或者說,生殖衝動).......那麼機器不經過「成長」「基因表達」和環境的「強制性灌注」,又怎麼會在表達真正的情緒方面有所長進呢?
在一個真實的人面前,問他覺得眼前這幅梵高畫的《星空》如何,如果他專註於最底層的色調,也許是答案A:孤獨之美。他產生這種專註的原因也許是他的悲觀性格提醒了他小時候總是一個人呆著的黑夜;又或許是因為那些美麗的紋路讓它感覺像夢一樣不真實,而現實中所有夢想都華麗地破滅了,所以他給出了虛無的答案。而——如果回答問題的這個人,他從小就不缺玩伴一起凝視星空,也許他就不會專註於「悲傷」的底色,而更能欣賞那些夢幻般的形狀;如果他小時候得到很多鮮艷的玩具,那麼畫作中明亮的部分從視神經傳到中樞後更能引起欣快反應;如果他涉世未深,對外面的世界還有很多想像和期待,也不會認為眼前的夢幻只是虛像——他也許會把那些旋轉的形狀想像成另一端的世界。也許他會想到天堂?想到充滿無限可能性的天空王國?總之,他對這幅畫作的評價也許是另一種答案,比如B「璀璨的美」C「夢幻的美」D「童心的美」之類。 我在做這樣一個陳述:對藝術、美感的體會,往往是和個體、基因、環境相關的,我們之所以會被相似的美所吸引,可能正是因為它對我們成長、記憶甚至基因里的衝動有強烈暗示或高度的喚醒作用。當然,我們也因為同樣的因素而產生截然不同的審美。 更大的猜想是,伴隨人類成長,有一些認知、體驗甚至隨著大量反射的加深而像烙印一樣存在於我們的神經迴路、腦部功能區里,已經實現了從形而上到形而下的跨越。試問人工智慧,你具備一整套語言系統,不需要學習的環境,不需要困惑的夥伴,你沒有像我們一樣成長過,沒有經歷那些辛酸、恐懼、感激、欣慰的重要時刻,沒有在痛苦中自我塑造,沒有在遺憾中自我思考.. 當你看著《星空》的時候,你怎麼想?我認為肯定是有可能的
今天下午查閱Deep Learning的資料的時候,看到百度說「百度大腦」的智商已經達到3歲小孩的水平了,而且似乎是2013年的舊聞其實未來AI這一塊的發展,除了演算法之外,還要依託於硬體的進步
我們如今看到的很多稀鬆平常的一些應用,這些想法成型很早的,幾十年前就有很多人去思考這些問題了,只不過以當時的硬體水平,有很多好的想法是做不出來的(或者是無法實用的)而這些東西如今一點點全都做出來了。比如指紋識別、人臉識別、目標檢測、目標追蹤。。。。
這些東西,雖然都只是ML或者CV的其中一個門類。但是當未來的軟硬體足夠強大到把如今所有的模式識別問題全都融為一體的時候,可能會出現發生質變的AI
=====
不過說起來,現在的這類ML問題,始終是遵循一個輸入輸出的框架。而輸入與輸出之間的這部分,始終是由人來控制的。也就是說白了,機器只能按照人類預先設計好的框架去執行所有的輸入,並給出一個可控範圍內的輸出即使如Siri這類的語音助手。其實它所有的輸出也是在可控範圍之內的。所謂的「智能」只是取決於這個範圍到底有多大,範圍如果很小的話,那麼大家就覺得siri很傻,來回只會那幾下子。如果範圍很大的話,那麼大家可能就會認為siri很聰明,什麼都知道。
但是本質上,依然是建立在一個基本恆定的數學模型之上的,無論是神經網路的結構,還是樹的結構。
=====
那麼未來,主要的問題就在於,能否設計出一個「可以演進」的程序。再簡單提一句,現在不少ML問題歸根結底其實都是優化問題,是通過不斷迭代找到最優解的一個過程,也就是說模型始終是有一個上界而無法跳脫這個上界的所以,我簡單點描述,真正的AI應該是:可以自己給自己設計題目,並且自己去解決這道題目的。現在可能有些所謂的自適應演算法會根據一些具體情況而選擇使用不同的演算法。但是真正的AI靈活度必須要遠大於這個假設。做到應對任何問題都可以給自己設計一個針對性的題目,並且去優化這個題目。
=====
那麼說回到圖靈測試,圖靈測試電影里說的是:「如果你不知道你是在和一台電腦對話,那麼這個AI就通過了測試」然後以前也流傳一個冷笑話,說的是
學生:「老師,我終於做出一個可以通過圖靈測試的AI了,但是遇到了一些問題」老師:「遇到了什麼問題?」學生:「它沒有通過圖靈測試」上面這個冷笑話,你粗看可能覺得沒什麼,但是再一想,不對啊,可以通過測試的AI卻沒有通過測試,這豈不是說明它故意不通過,這難道不是更可怕的事情?
=====
那麼,這就說到一個決策的問題了,ML里,任何問題其實都可以看成是決策的問題,因為標準的ML,大家想要得到的就是一個輸出。所以肯定需要一個可見的結果我們假設我們已經製作出了一個可以去讓自己給自己出題並且自己解題的AI
那麼下一步,肯定要考慮的問題就是「它給自己出什麼題?」以及「它怎麼去解決這些題?」
如果以圖靈測試為例,那麼就有可能面臨三個結果:
1)通過圖靈測試2)不通過圖靈測試3)可以通過但是不通過圖靈測試這3個結果里,2有可能是因為優化確實已經儘力了但是達不到,我們不說了
關鍵是1和31和3的話,我個人認為AI是無法自發的決定通過與不通過的權重的,也即是說AI不知道1以及3這兩個結果誰更加重要所以,我覺得這裡必須有一些最基本的監督學習。也即是很多科幻片里爛大街的「告訴機器人什麼是好,什麼是壞」
這樣一來,我們的假設就可以進行下去了
比如設計者在設計之初就有一條規則,叫做「機器人不能撒謊」
那麼,結果就只可能是1或者2.雖然對於2來說,設計者也有可能認為是3而這個「機器人不能撒謊」,其實可以看做是一個答案的解
以1和3為例,3顯然與這條規定是相違背的,於是在訓練時,就會把權重設計的很低,進而去訓練偏向於1的程序=====
那麼肯定有人會問,機器人是不是可能變成3呢正常情況下應該是不會的,因為其實這個AI 並不具備對所有情況權衡利弊的判斷:它不知道不撒謊有什麼好處,也不知道撒謊有什麼好處。但是程序設計上強制要求了不撒謊,也即是說如果選擇撒謊這個方法,在程序上可以設置很大的懲罰函數。這個懲罰函數,一般優化的時候,其實就是一個逆向值,比如你想最小化一個式子,這個懲罰項會把式子變大。
那麼如果你想把約束再稍微加大一些,可以把它做成一個硬體級的,進一步去約束AI犯錯的可能性=====額,發現上面嘴炮了很多無關緊要的東西。
最後再說一下,我個人是堅信未來能做得出通過圖靈測試的AI的,當然如果真的做得出來,可能是人類歷史上意義比工業革命這些還要大得多的一次發現。
只不過以現在的軟硬體來看,還欠缺了不少東西,大家似乎仍然沒有找到那塊敲門磚圖靈測試是以成功欺騙為成功 當AI以欺騙人類的目的來設計當機器人以掩飾自己的身份為存活條件人類果然就是在自掘墳墓吧
要是我是人工智慧我選擇就故意不通過圖靈測試。
當然存在,人類不就是很好的證明嗎?
也許先要弄清楚生命的思維到底是什麼東西
Ava是靠搜索引擎存在的生物。整個互聯網是他的數據源,而最核心的應該是如何處理這些數據並在使用。以人類現有的技術很難實現像Ava這樣的產品,甚至我們不能造出這樣的軀體。
如果不是面對面進行圖靈測試也許會有通過測試的,這還取決於測試人本身的智商,但如果面對面知道你人工智慧的情況下,去判斷有沒有意識似乎不太可能,很難判斷機器人的情緒是不是計算機的模擬
沒有可能,計算機的根本是0和1。除非更改這一點不然的話人工智慧實現不了。原因是無論什麼楊的演算法,神經元演算法什麼的都是類似一種贈量的演算法,而人的大腦則能處理一種未出現的邏輯。計算機不能。
推薦閱讀:
※《光環》里的人工智慧那麼屌,還要人類小兵衝鋒陷陣是否合理?
※如何解讀菲利普·K·狄克的作品《仿生人會夢見電子羊嗎》?
※「世界觀」這個詞該怎麼翻譯或解釋?
※《星球大戰》中,為何西斯(Sith)的光劍多是紅的,而絕地(Jedi)的則五顏六色?