標籤:

雜談人工智慧

「聲明」

此文僅代表個人觀點,不具有普遍性、正確性及權威性。

「詞語定義」

ANI(弱人工智慧)- 普遍指擁有在極有限的範圍內(或某一領域內)的基本決策能力與信息處理能力的人工智慧,我們的生活中充斥著弱人工智慧。

AGI(強人工智慧)- 普遍指擁有寬泛心理能力、計劃與決策能力、自然語言處理、快速學習能力、抽象思維與理解能力,並能將這些能力運用在基本任務上並從經驗中學習的的人工智慧 (Linda Gottfredson)(普遍認為 AGI 應能夠通過圖靈測試),基本上就是人類級別的人工智慧。

ASI(超人工智慧)- 普遍指擁有自主意識、自主學習能力,並擁有遠超人類的知識量與學習能力的人工智慧 (Nick Bostrom)

「序」

早晨八點,你被鬧鐘吵醒,睡眼惺忪地看了眼手機,發現了一條你很喜歡的明星的新聞。而後,你又逛了逛優酷和淘寶,看了些你感興趣的視頻和寶貝。發現快要遲到了,你趕緊打開天氣預報軟體看了看今天的天氣並快速地換好衣服出了門。外出坐車時,你為了消磨時間打了局遊戲。到了中飯時間,你讓 Siri 幫你找了間附近好吃的西餐廳。到了那兒,又用了谷歌翻譯翻譯了些你菜單上看不懂的辭彙。吃著飯,你聽到餐廳的背景音樂是你一直很喜歡但沒有找著的一首曲子,於是掏出手機打開 Shazam,搜到了這首曲子的名字。吃完飯,你發現你迷了路,於是打開了百度地圖導航順利回到了家。

在這聽上去稀鬆平常的短短半天里,你可能不會想到的是,你已經使用了不下 10 次人工智慧技術。人工智慧這個聽起來十分高端大氣上檔次的只在電影里出現並一旦出現就會因為各種原因想要毀滅人類從而遭到各種科學家程序員追殺的科幻名詞,其實早已融入了每個人的生活。

有點緊張?暫時還沒必要。

隨著科技的高速發展,許多曾經幻想中的事物已經成真。在 20 世紀 50 年代中旬的達特矛斯會議中,隨著「人工智慧」這個概念被約翰·麥卡錫首次提出,這項科技就一直是一個很活躍的領域。而近幾年來,隨著人工智慧的高度發展,曾經因為互聯網而有些被冷落的人工智慧,再次成為了一個非常熱門的領域。

在本文中,我將闡述我對於現階段人工智慧領域一些熱門話題的粗淺見解。人工智慧的研究是一個涉及範圍極廣且各分支都互不相通的領域,我在此不會著重於技術層面的內容,而是說一些大眾比較關心的問題。另,在討論某些特定問題時,我將盡量不使用如「精神」、「靈魂」、「心靈」、「自我」等辭彙,我不想讓這篇文章包含形而上的元素。


「正文」

現階段的人工智慧發展是利大於弊的,但隨著人工智慧的進一步發展與 AGI 的出現,人工智慧技術的一些弊端將會逐漸浮現出來。其中令很多人擔心的,就是人工智慧技術所帶來的經濟衝擊,其主要表現為失業率的大幅上升。日本野村總合研究所與美國牛津大學的研究學者共同調查指出,10 至 20 年後,日本有 49%(235 種)的職業可能會被機械和人工智慧替換而消失,直接影響約達 2500 萬人。由此可見,人工智慧的發展一定會對社會中產階級造成很大的影響,其實這個現象目前已經有所體現了(英國脫歐和特朗普當選都說明了中產階級正加速消亡)。據估計,AGI 的出現和發展會導致發達國家失業率上升 60% 之多,到了後摩爾定律時代,這個數字還會上升,而一旦 ASI 出現,幾乎所有的職業都可能被取代。到那時,由於社會上暴增的無業游民的數量,再加上人類生活條件提高甚至生命的延緩,人口膨脹幾乎將是必然的。Tim Urban 對於 ASI 出現後的世界的平衡木理論很有意思——人類要麼滅絕要麼永生。在這裡我並不否認他的理論,但也不能說贊成,畢竟就像後文所提到的,奇點後的世界過於未知。

在我看到和聽到的很多人對於未來的預測中,我發現了一個普遍存在的問題,就是他們低估了人類未來科技的進步速度。這並不奇怪,因為我們會習慣用眼下的進步速度去衡量未來,但這是極為不準確的。如果你想一想,就會發現人類過去 100 年的進步程度可以抵上之前幾千年甚至幾萬年的進步程度。

知道問題所在了吧。

因此,我在這裡要著重強調未來的科技進步速度會有多驚人。事實上,人類的知識量和科技水平是指數級增長的(換句話說,人類科技進步水平增長速度是線性的)。指數級增長在一開始看起來可能和線性增長並無太大區別,但一旦過了某一個階段,其增長便會越來越快,而且其增長速度都有可能以指數增長。雷·庫茲韋爾將這個現象稱為「加速回報定律」,即人類科技的進步會回報給未來的科技進步,從而導致人類的科技進步速度越來越快。

那為什麼即便截取近幾年來的科技進步,並按照指數增長的水平去預測未來,仍舊會低估未來的進步呢?

答案是因為人類發展曲線雖然趨勢是呈指數增長的,但卻不是一個平滑的曲線。如果我們放大這根曲線,你會看到較為凹凸不平的一個個小「S」型的增長。即,人類發展整體是以指數增長,但每一小部分發展都是以 S 曲線增長的。一個 S 曲線增長包含三部分:平緩增長期、快速增長期、平緩增長期(新範式的成熟帶來的,也同時為下一個快速增長期蓄力)。而隨著智能設備與互聯網的普及和信息爆炸,我們現在正處於一個 S 曲線的第一個平緩增長期,也就是說我們即將迎來一個快速增長期。這就是為什麼單以近幾年的發展來預測未來的發展仍然會是錯誤的。

一直有人問我「什麼是奇點」,但其實,就如同對於「智能」的定義十分模糊一樣,對於「奇點」,我們也沒有一個明確的定義。在這裡,我想引用雷·庫茲韋爾對於奇點的解釋:

奇點是未來的一個時期:技術變革的節奏如此迅速,其所帶來的影響如此深遠,人類的生活將不可避免地發生改變。雖然這個紀元既不是烏托邦,也不是反烏托邦的形態,但它將人類的信仰轉變為生命能理解的意義;將事物模式本身轉變為人類生命的循環,甚至包含死亡本身。

隨著奇點的來臨,我們將面對另一個有些可怕的事情——智能爆炸。就像信息爆炸指的是信息量的爆炸性提升,智能爆炸指的是人工智慧的智能的爆炸性提升。由於未來的人工智慧將會擁有自我學習能力,因此就和人類一樣,人工智慧的知識量將會呈指數級上升,而又因為人工智慧擁有人類不可比擬的優勢,他們指數上升的指數也很可能也會是指數級上升的。我這裡想引用謝熊貓君翻譯的 Tim Urban 的描述:

以下的情景很可能會發生:一個人工智慧系統花了幾十年時間到達了人類腦殘智能的水平,而當這個節點發生的時候,電腦對於世界的感知大概和一個四歲小孩一般;而在這節點後一個小時,電腦立馬推導出了統一廣義相對論和量子力學的物理學理論;而在這之後一個半小時,這個強人工智慧變成了超人工智慧,智能達到了普通人類的 17 萬倍。

由這個並不離譜的情景可以看出,智能爆炸有多麼可怕。你可以將奇點理解為是智能爆炸的起始點,因為智能爆炸導致的後果我們現在將無從得知,無法預測。

我並不是相信人工智慧毀滅論,但是我認為如果人類把握不當,我們將玩火自焚,畢竟我們只有一次開發友好的 ASI 的機會,而奇點以後的世界,是充滿著不確定性的。一旦超人工智慧出現,人類任何試圖控制它的行為都是可笑的。

現在很多人都清楚研究人工智慧技術的危害,但是這是無法停止的,在現階段想要停止人工智慧的研究就好像想要在互聯網泡沫時期阻止互聯網的發展一樣可笑,無疑是純粹螳臂當車的行為。然而,現階段的狀態是不樂觀的——研究人工智慧技術的比研究人工智慧安全的要多很多。

要理解為何人工智慧技術的發展有多麼困難,你首先需要了解人類智能是多麼的不可思議。在現在這個甚至能把人送進宇宙、能推測宇宙的起源的世界,要嘗試理解人類那個小小的腦子竟是困難重重。人類的大腦是目前的科學家們認為宇宙中構造最為精密的、最複雜的東西。目前人工智慧領域最為重要的主題之一就是神經科學,因為人腦這樣一個如此小的容器竟然有著能使天河二號都望塵莫及的計算速度,這是十分不可思議的。有些人認為我們不可能複製人腦,我不同意他就讓我說出複製人腦的基本原理,我無言以對。的確,目前世界上最頂尖的科學家也無法說明人腦究竟是如何工作的。但是,就和一個中世紀的人是不可能解釋一個能將人類帶上宇宙的玩意的原理是什麼一樣,人腦如此精密的構造雖然不能以目前人類的理論水平所解釋的。但是隨著科技的進步、新範式的使用,我絲毫不懷疑我們終將有一天能夠將人腦研究透徹,並能夠擁有複製人腦甚至升級人腦的能力。

而你或許有所耳聞,製造人工智慧的難點並不是要在極快的速度內進行十位數的平方計算,也並非是製造一個能夠戰勝世界圍棋冠軍的電腦,而反而是一些我們生活中稀鬆平常的事情,例如分辨一個物體是狗還是貓,例如讀懂7歲小朋友寫的字等等。我認為 Donald Knuth 描述的非常準確:「人工智慧已經在幾乎所有需要思考的領域超過了人類,但是在那些人類和其它動物不需要思考就能完成的事情上,還差得很遠」。那這是為什麼呢?難道就是人類比機器更加聰明?非也。仔細想想就會發現,那些乍看之下很簡單,幾乎不需要我們思考的事情,是那些我們已經進化了幾千萬甚至幾億年的技能。所以,我們在做那些事的時候,好像不需要經過任何思考,但其實,有些人認為機器是永遠不可能達到智能的,但就像丹尼爾·丹尼特在其著作《意識的解釋》中寫道的,人也不過是一台有靈魂的機器,為什麼我們認為「人可以有智能,而普通機器就不能」呢?

最後我想說一說和倫理道德相關的話題:人工智慧是危險的嗎?我們暫且不提人類能否給人工智慧設定一個保護人類的機制。問題是,人工智慧,不論多麼的智能,都也只是人工智慧,他們不是人類,人工智慧可不可能毀滅人類?可能的,但是這就說明人工智慧是邪惡的嗎?並非如此,它們對人類可能根本沒有惡意,「就好像你剪頭髮時對頭髮沒有惡意一樣」,傷害人類可能只是人工智慧滿足它目標的墊腳石(手段目標)。

史蒂芬·霍金、比爾·蓋茨、伊隆·馬斯克、Nick Bostrom 等人都公開表示對於人工智慧的未來感到憂慮。人類是否有能力及時停止人工智慧領域內的「軍備競賽」?若是不能,那隨著不可控的人工智慧發展,人工智慧技術將遠遠脫離人類所能掌控的範圍。伊隆·馬斯克甚至曾經公開表示稱研究人工智慧是「召喚惡魔」的行為,這個觀點也受到了比爾·蓋茨的贊同。如今,英國、以色列與挪威都已經部署了自主導彈與無人操控的無人機,這些導彈都配備有「射後不理」(Fire-and-Forget)的能力,多枚導彈還可互相溝通,分享找到攻擊目標。然而,如果情況更糟,人工智慧技術被犯罪團體開發出來,並將其使用於惡意用途,那麼整個人類物種的安危都將受到極大的威脅,在此不多闡述。

但如果你不贊同我的觀點,不用擔心,因為扎克伯格與許多人工智慧界泰斗級人物都認為人工智慧毀滅論完全是無稽之談,他們認為在我們有生之年超人工智慧並不會出現,而即使出現了,也全然不用擔心,因為它們將完全為人類服務,聽從、服從於人類。

「人工智慧是人類的最後一項發明,最後一個挑戰。」


「一些問題」

我想在最後留一些問題,以供讀者思考和討論。

  • 何謂智能?何謂意識?
  • 人類和機器有本質上的區別嗎?如果有,是什麼?
  • 情感能否被模擬?能否被數字化?
  • 無意識的精神還是智能的嗎?
  • 人工智慧能夠模擬/擁有意識嗎?
  • 一個聰明的人工智慧(AGI 或 ASI)是擁有自我意識還是只是看上去擁有自我意識?
  • 如果人工智慧擁有自我意識,那麼關閉成千上萬這樣的機器是否等於種族屠殺?

「參考」

  • 知乎專欄
  • waitbutwhy.com/2015/01/
  • https://zh.wikipedia.org/wiki/人工智慧

推薦閱讀:

AI,人工智慧的邊界兼談我對達內人工智慧課程的回復
人工智慧浪潮襲來,人才儲備卻成致命短板
獨家對話CMU德撲AI賭神團隊:解密1+2技術架構,不攻反而不敗
腦(標題湊字數)
人工智慧會毀滅人類嗎?

TAG:人工智慧 |