人工智慧的信息局限
回家了,填白天的坑。
我們一直被教育腦子越大越聰明,你大概覺得理所當然,看看人類的演化史,人類腦子比猩猩大,也比猩猩聰明,猩猩腦子比猴子大,比猴子聰明。
這就像是早期的計算機,越大運算能力越強。但其實有很多事實並不支持這個說法。首先,現代人出生時就算腦只有成年時容量的三分之二,和成年人相較並沒有任何認知障礙。而且通常在人腦發育過程中,在認知表現提升時,腦實際上是會縮小的(最值得注意的例子是青春期之間,皮質灰質的體積在10 到20 歲之間減少了15%)。最令人驚訝的是,其他動物比如蜜蜂或是鸚鵡,雖然腦大小只有人腦的百萬分之一(蜜蜂)或是千分之一(鸚鵡),卻也能模仿人類很多的舉動。
所以重點在於大腦這個硬體,而在於裝在硬體里的軟體。事實上,從皮質在青春期減少的現象看來,更精簡的硬體說不定會更好。就像寫得好的軟體,新版本對硬體的要求可能會比舊版本來得少。有一種理論認為,大腦子的好處是有更大的認知儲備空間,這樣當零件損壞或耗盡時,有多餘的容量可以使用。(出生時大腦不幸就特別小的人,更可能在四十多歲時得老年性痴呆。)
上面這番廢話的含義是什麼呢?眼下的人工智慧恐怕有一個很大的問題,也就是機器學習帶來的容錯問題。通過機器學習訓練好的演算法,是否會不斷修補、精簡和自我更新呢?
讓我們想像一個場景,你家裡的牛奶喝完了,你會去超市或者上網訂購。也許未來,語音AI強大之後,你們的對話可能會像這樣:
你:「幫我訂牛奶!」?
EVA:「好,要買什麼牌子的?」
?你:「不知道,有沒有什麼促銷活動?」
?EVA:「京西有活動,五環牛奶現在買二送一。」?
你:「五環牌?沒聽過這個牌子,好嗎?」
然後麻煩就開始了。有了自動化的AI助理之後,大家就會越來越依賴它,就像飛機駕駛員對儀器數據的依賴,買什麼東西前都會問它;但AI的運作是基於現存的信息,而這些信息是可以做手腳的。為什麼AI會推薦這個你沒聽過的「五環牌」牛奶?很可能是因為它的微博粉絲有很多人點贊、購物區有很多好評、有所謂的「科學證據」說它營養好、排行榜上說它是全世界最棒的牛奶……或者知乎某篇熱文中對其大為讚許。
拿一個現實的案例來說明。不管百度還是google,知乎的權重都很高。在百度上搜索「最好的風險投資機構」這個關鍵詞的時候,跳過第一條廣告,是知乎上的一個問題;在google上搜索「最好的風險投資機構」這個關鍵詞的時候,跳過第一條百科,也是知乎上的一個問題。但這兩個問題下提及的風險投資機構,真的很不科學。
產品營銷現在已經演變成玩弄資料的技術,而且一開始時誰都無法取得掌控權。大品牌可以花大錢製造許多資料,餵給AI造成壟斷;小公司或創業公司當然沒有足夠的財力來做一樣的事,所以其產品信息就難見天日。最後營銷人員就無用武之地,被散布資料的人員取而代之。
當然,現在市場還沒走到這步田地,千萬不能低估了AI對營銷行業可能造成的長期衝擊。為什麼AI會有這些問題?答案是因為他們根本就不夠AI。不管是Google、IBM、Apple還是Amazon在做的AI計劃,都是數據挖掘加機器學習,實際上根本不能叫做「人工」智能,而是不折不扣的「工人」智能。以上面那個搜索為例,源頭就是一個提供錯誤信息的人,並不會因為是從AI的「口中」說出來,就變成「智能的」或是更可信。
所以當未來你的某個的AI女友推薦產品時,根據的仍然是來自人類提供的信息。未來也許會出現所謂「AIO(AI-SEO )」,也就是人為操控這些資料,任意創造出各種產品評價。看看藥廠如何包裝新葯研究成果就可得知一二,那些對藥廠有利的研究報告都能登上重要醫學期刊,而對藥廠不利的報告則多半石沉大海。由於信息被人為操弄,所以AI不可能提供確實可信的答案。
所以當AI普及化之後,所有人都會生活在充滿虛假資料的深淵中。當然總有一天,會出現用以對抗假新聞和假資料的事實核查演算法,但還得等上一段時間;而且就算這樣的演算法真的出現了,我們也明白營銷中沒有什麼真正客觀公正的東西,一切都是包裝和話術。所以,掌握了資料的品牌廠商,還是能繼續控制一切。
聽起來很絕望,不過仍有一線生機:即使沒有核查演算法,只要AI能夠擁有越多資料,就越有機會變得更加客觀公正,演算法也越有能力排除錯誤,去蕪存菁,但這段進步的過程註定漫長而痛苦。根本的解決方法,還是要寄希望於演算法本身能夠自行改善和不斷升級。
在這之前,我們還是努力適應這個AIO的世界吧。
推薦閱讀:
※大腦信息加工的拓撲性質:感受野模型
※人類是機器嗎?你怎麼知道你不是?次元書摘@《心智社會》
※AI醫療變現這麼虛!先聊聊學術不好么?
※人工智慧推薦書目
※諷刺蘋果人臉識別做得不好,華為 Mate10 憑什麼叫板 iPhone X?
TAG:人工智能 |