人類害怕人工智慧的哪一點?
即時科學家一再重申人工智慧不會給人類發展帶來威脅,但還是有很多人表現對人工智慧的恐懼。人類到底害怕的是人工智慧的哪一點?
作為一個學機器學習的研究生,我覺得說到AI的話,可能我們腦子裡面是這樣的:
或者這樣的
甚至是這樣的
科學家們不怕人工智慧,是因為他們知道目前的技術只能做到上面這些。
而你們腦子裡出現的是這樣的:
這樣的
誰讓你們不相信科學家,非要自己yy出一個只存在於美國大片里的東西,,害怕人工智慧??怪我咯......
更新:
我寫下這個抖機靈的答案,避免和各位深入探討諸如「強人工智慧到底能不能實現」或者「人工智慧有沒有可能在未來統治人類社會」這樣的問題,是因為我個人認為這些問題暫時是沒有意義的。
我們現在不知道機器學習與深度學習到底將來會走向何方,我們現在不知道對於AI而言統計學習方法是否是絕對正確的一條路。
我們知道的是近年來突然火起來的深度學習,其數學基礎並不是什麼新鮮東西。我們知道機器學習領域裡「統計樣本是真實世界的無偏採樣」和「特徵相互獨立」這些條件是在實際工程中是很難做到的,我們知道現在的模型訓練出來要麼就是偏bias要麼就是variance,很難做到完美,我們知道現在的機器學習/深度學習方法通用性很差。
這麼多的問題,想想就覺得強人工智慧太遙遠了,想想就覺得這個問題帶不來哪怕是一點點的價值,還不如多讀幾本書多寫幾行代碼多搬幾塊磚(逃)
人類的心裡,都覺得我們這個物種,與世間的萬物,是不一樣的。
我們有靈魂,我們有感知,我們會思考,我們喜歡想像,我們擅長製造,我們非常特殊。哪怕說著萬物平等,我們的內心中,也其實覺得人類是「神」,至少與地上的那塊石頭,是不一樣的。
聰明的我們,正在創造另外一種「智能」,我們吃驚地發現,這一種智能也能完成我們能夠完成的一切事物。它似乎也能有感知,也會思考,也有想像,但它運行在晶體管之上,其中的靈魂又來自於何處呢?如果我們所有能做的事情都可以被替代,我們特殊的地方又在於哪裡呢?
我們創造出的東西越智能,越反襯出我們人類並沒有什麼特殊的地方。人類的「去神化」正在發生。我們終將接受,我們也是物質性的,自己的喜怒哀樂無非是大腦中激素的變化,對世界的感知與思索,也無非是腦信號的傳遞。我們人類一切比其他物種更高等的地方,都不存在。我們其實與地上的那塊石頭,並無差別。
但,你真的可以接受嗎?
卡夫卡的小說《審判》里,男主角K與教士的對話里提到一個故事叫《法律門前》——
法的門前有一位看門人在站崗。一個鄉下來的人走到看門人跟前,請求進門見法。但看門人說現在不能放他進去。看門人給了他一條凳子,讓他坐在門邊。他就坐在那裡等了一天又一天,一年又一年。為了能獲准進去。看門人也接受了每次收禮並且說:「我收下這個只是為了不讓你覺得有什麼事情該做而沒做。」在那段漫長的日子裡,鄉下人幾乎是不間斷地觀察著看門人。他忘卻了其他看門人,對他而言,這個人似乎是他與法之間的唯一障礙。
直到臨死前,他在黑暗中看到從法律大門內射出了一道永不熄滅的光,猛然想起一個從未向看門人提出過的問題:「人人都努力想進入法律的大門,可是這麼多年了,除我之外居然沒有一個人要求進去,怎麼會有這種事?」看門人彎下腰扯著嗓子沖意識已經開始模糊的鄉下人喊道:「其他任何人都不能從這裡進入,因為這道門是專門為你準備的。現在我要去把門關上了……」故事至此戛然而止,讀者只能假設,鄉下人就這樣死掉了。
K在聽完這則寓言後,認為整件事就是一場用謊言羅織而成的體制化騙局。卡夫卡式法庭不在乎客觀世界中的真實,而僅在乎維持體系的持續運作。法律的大門理論上向社會敞開,但在卡夫卡的世界裡,看似人人有機會,其實個個沒把握。整個體系不是在追求真理正義,而是在為維護體制的充分與必要條件服務。當偏見已經根深蒂固,只要身在其中,就被推定有罪,取證、詰問、辯論等程序,只是過場套路。恪忠職守的各級官僚不用為受害者負責,更無需內疚自責。因為他們都像那位低階警衛一樣,只是盡看門的本分而已。制度殺人,莫此為甚。
對關注人工智慧進展的人士而言,卡夫卡筆下的絕望困境,象徵著一種反烏托邦式的惡夢。藏在一扇扇森嚴大門之後的法官,是至高無上的絕對權威。整個法律體系彷佛一隻神秘的黑盒子,沒有人敢質疑這套威權體制的運作邏輯,也無法明白黑箱作業的各種技巧。人類知道自己身處黑箱之中,卻不知道黑箱的邊界,只能戰戰兢兢苟活。一但違規,只能逆來順受,無條件服從安排。這個黑箱不是由卡夫卡式的法官、律師與警衛把持,而是由各種人工智慧及大數據演算法操縱。這些用機器語言寫成的軟體程序碼,與用人類語言寫成的法律條文一樣,都不可避免地受到創造者的主觀願望與價值取向影響——一種偏見的結構。偏見隨時間沖刷被體制化,逐漸取得了可被稱為「習慣」、「法律」、「民情」等「正統」地位。
這個自然演進的過程,在前互聯網時代,可能是漸變;在互聯網席捲全球、快速迭代的世界,就是不斷生滅的劇變。隨著社會經濟生活演化愈趨複雜多樣,「法律」作為一種規範的上位概念,其內涵與核心價值也必須與時俱進。當掌控資源的新貴們愈發信奉數理邏輯,而非義理人情,有能力利用人類與機器語言「造法」的行為體,若不受制衡,又無法自我警惕,比卡夫卡世界更冷酷無情的人工智慧專政就可能隨時降臨,所有捍衛自由、民主與人權的努力,在鋪天蓋地的技術進逼之下,將毫無招架之力。
曾在紐約對沖基金德劭集團(D. E. Shaw Group)任職的數據科學家、mathbabe博主Cathy O』Neil在其新作《Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy》中認為,非常可能。
在哈佛大學主修代數數論並取得數學博士學位的Cathy,自幼熱愛數學,在獲得紐約哥倫比亞大學巴納德學院的教職之後,卻毅然決定到德劭擔任量化分析師,通過研究各種數理統計模型與數據分析,在全球資本市場中找尋可持續獲利的交易與投資策略。她與同事所做的工作成果,可以驅動數以兆計的資金在全球市場快速流動,創造巨額財富。
2008年全球金融海嘯,讓她頓覺幻滅:非關道德的數理模型成為華爾街鍊金術士口中的神奇公式,由資產證券化工廠製造出來的金融衍生商品,催生了龐大的房地產信貸泡沫,將金融體系中的槓桿推升到難以為繼的程度,加劇了金融危機的連鎖反應,甚至差一點摧毀全球經濟。
更讓她驚訝的是,金融危機爆發後,新的數據分析技術被應用至更多領域。通過日夜不停地爬梳收集自社群媒體、電子商務網站及各類互聯網平台的海量數據,原本用來套利套匯套差價的演算法被用以研究人類的七情六慾、預測消費口味及監控信用風險,計算個人是否值得受高等教育、獲得工作面試、購買醫療保險、甚至戀愛與犯罪的機率。但這類驅動大數據經濟的應用程序,是基於容易犯錯的人類的主觀判斷所設計的系統。系統工程師們或許出於好意,企圖客觀地找出更有效率的方式解決問題。但很多模型仍然將偏見、誤解和私心納入了演算法,而人類的生活愈來愈受這些系統鋪天蓋地的管控。
在邏輯至上的世界中,數學定律有絕對的權威,數學家、電腦科學家與系統工程師彷佛神壇祭司,通過不透明的卡夫卡式黑箱,對芸芸眾生的未來作出神意的裁決。其決定即使是錯誤或有害,也不容質疑或申訴。
問題來了:這類數理模型之所以會存在且有商業價值,是因為它們一開始都是被設計用來自動化批量處理信息的特定程序,而且很多模型的根源來自於數學、化學與物理學等無機領域,而非生物學、心理學、政治經濟社會學等有機領域。在模型應用與結果詮釋上一旦出現偏差,將會加劇社會兩極分化,讓富者愈富、貧者愈貧,歧視與偏見在演算法的反饋路徑中被保存、複製、放大,往往出現反直覺、甚至反人性的嚴重後果。民營企業若將這類程序視為商業機密,不公開揭露演算法內部細節與誘因機制,往往讓數學公式成為卸除責任與保障官位的掩護與藉口,並且利用信息科技創造出民眾關注的切身問題正在被解決的幻象,收割政治與商業利益。
在最極端的情境,完全可以想像這些程序成為一座座用數學構建的袋鼠法庭(kangaroo court),通過各類物聯網監控技術與不透明的演算法「優化」資源分配,甚至可能在分子生物學的層次對人類進行分類、排序與缺席審判。這些源自人性黑暗面的大數據與人工智慧,如果不受監管,有可能撕裂社會,甚至讓人類文明崩潰。但監管的標準該如何制定?誰來負責監管?如果監管者跟不上時代,甚至不可信賴,人類又該如何在AI專政的世界中維持人性尊嚴?
新芝加哥學派知名法學家Lawrence Lessig曾經提出,法律規範、社會習慣、市場秩序、科技架構是形塑個人與企業的社會經濟活動的四股「治理」(regulator)力量。Lessig指出,人類出生的實體世界受到物理、生化、社會與歷史文化的限制,是一個被給定(exogeneous)的外在環境,人類只能接受;但人類通過軟體工程與互聯網科技所設計建構的虛擬世界,是內稟(endogenous)於人類文明之中。維繫虛擬世界運行的種種行為規範與作業準則,都以代碼形式存在,狀似無形,無所不在。如果程序即法律(Code is Law),那麼法律也是一種計算(Law is Computation)。人世間的各種交易態樣、合約選擇、權利義務關係,可以被視為各種計算理論上的「狀態」(state)。用人類語言寫的法律,與用機器語言寫的程序,定義了在不同狀態之間轉移的規則與相應的處置。
在這個理論框架中,倫理、道德、義理人情等難以量化的概念,其實是環境的一部分。針對智能行為體的規範,不論該行為體是程序、個人或企業,都必須充分考慮行為體之間的博弈、競爭、演化,以及所有基於人性的行為體必然會出現的認知謬誤與系統內稟的統計偏差,並設計出對應的救濟與爭端解決機制。這份工作,人類責無旁貸。
更深一層看,何謂智能(intelligence)?笛卡兒曾說:我思,故我在,但抽象思維是否為證明高等智能存在的充份且必要條件?如何為智能分等級?用智能方法自動做出的選擇是否應該具有最終的法律效力?若把整個互聯網科技的發展視為人類加速己身演化的努力成果,那麼利用智能技術來鑒別、篩選、拔擢人才的嘗試,是否意味著從智人演化出大腦新皮質之後,將尼安德塔人拋棄在演化的歷史斷裂點,即將在互聯網演進的下一階段發生,從而定義出新舊人類之間不可跨越的鴻溝?
如果將智能定義為「在不同環境中實現目標的能力」,那麼人與人創造的程序,都可以被視為智能行為體,行為體之間的互動所導致的權利義務關係,又該如何界定?是否應該承認「AI權」與「人權」都是智能互聯網社會中不可侵犯的基本價值?在互聯網1.0的時代,沒有人知道網路上的你是不是一條狗;在互聯網X.0的時代,誰會保障你不會像卡夫卡《審判》中的K先生,死得像一條狗?
因為互聯網科技跨境的特質,這類議題本質上是全球性的,需要全球範圍的溝通、協調與合作。面對益發混亂的國際局勢與現實主義地緣政治的回歸,霸權級信息大國與互聯網巨頭競逐全球市場的鬥爭,讓通過全球網路的人工智慧治理(AI governance)成為一場不段進行中的革命,構成對人類巨大的挑戰。
日本中央銀行總裁黑田東彥在4月13日舉辦的一場人工智慧與金融前沿研討會上曾說:面對新科技對社會經濟所造成的深層變革,政策制定者不應該過度憂心新科技的負面作用,而不去關注其正面效益。人類與AI應該互補,不能也不該對抗。人類的判斷往往受既有範式影響,有時對變化覺察不足,這正是AI的強項,可以通過客觀地調整因為主觀偏見所忽視的數據關聯性與新趨勢。另一方面,直覺、常識與想像力,是目前人工智慧最大的弱點。
人類真正應該擔憂被AI取代的時候,是人類放棄獨立正面思考的時候。正如在17世紀提出計算機的哲學家帕斯卡在《沉思錄》所言:面對強大有力的宇宙,人是一根會思考的蘆葦。
即使柔弱如蘆葦,仍可秉持高貴。希望難以量化,前途不可限量。命運沒有基因,夢想沒有極限。在《2001太空漫遊》中的HAL出現前,也許人類應該少一些擔心,讓夢想與命運驅使我們繼續航向未知的遠方。
主要還是害怕參數不好調
我覺得真正值得擔心的是,人類進化的速度遠遠趕不上人工智慧。人工智慧的進步一步一個腳印,前幾年大家還覺得AI在圍棋上戰勝人類不太可能,今天就已經實現了,而人類智力的進化在數千年的尺度上微乎其微,而且人類學習知識的速度非常慢,現在人類需要在學校呆將近二十年才能獲得一份體面的工作,而AI呢?開發一個好的程序大家花幾分鐘下載,甚至不用下載直接API就能用了。
被技術革命所淘汰的人類命運是悲慘的。很多人幻想有了人工智慧以後人類就可以不工作,跑步進入共產主義,我覺得這種事情就是
共產主義的實現,生產力水平只是一個很小的因素。目前人類生產的食物養活全人類綽綽有餘,然而不發達國家依然在挨餓,發達國家多餘的糧食要麼進了垃圾箱要麼變成了化工原料。不發達國家幾乎沒有享受到前幾次技術革命給農業生產帶來的巨大變化,反而陷入更窘迫的境地。農業生產力的進步並沒有解決全世界的飢餓問題,同理我也不相信人工智慧的進步能解決廣泛的貧困,讓被數碼鴻溝困住的人口受益。
害怕人工智慧在自己的數據上不work吧。。。
誰這麼厲害能代表人類啊?我就不害怕。
對未知的本能恐懼是我們走到今天的一大依仗
人類並不害怕人工智慧,正如人類不害怕槍炮和核武器一樣,但人類害怕那個掌管著人工智慧的人!
人工智慧最可怕的還是背後的人。比如特斯拉的自動駕駛,不成熟的人工智慧技術,直接商用,搞死好幾個了。
未來再弄點不成熟的人工智慧無人戰鬥機,不成熟的人工智慧作戰機器人什麼的。人類真的就有得受了。
我不知道其他人的想法,但對我來說,最可怕的是,當問題出現時,對每個神經源的敏感度進行反查十分之耗費人力物力。
到日後,層數極多的神經網路出現不預期的結果時,我們可能無法有足夠的算力和智能去反查該模型判斷的邏輯。提到AI很多人可能會想到各種人工智慧威脅論。其實拋開容易把人帶偏的科幻片和非AI從業者們的警告,我們只需要釐清以下兩個問題就能以更客觀的態度看待AI:
1. 現在的AI發展到什麼程度了?
如果要詳細回答這個問題可能幾萬字也不夠,但是用兩句話簡單總結就是:主流和可落地的AI研究目前處於並非常可能長期處於弱AI領域。AI在解決那些可以轉變成規則有限且明確的數學問題的項目上有機會超越人類,但是它們並不具備傳統意義上的智能,在可以預見的將來AI也沒有能力統治人類。
2. 在未來的世界,人類和AI的關係是什麼?
幾乎可以肯定的是,我們未來的世界並不是人類 vs. AI,而應該是善於利用AI的人類 vs. 不善於利用AI的人類。舉一些簡單的例子:
- 利用AI操作資金的基金經理 vs. 普通散戶
- 控制自動化AI武器的士兵 vs. 普通士兵
- 利用AI做輔助診療,疾病預測,病例錄入的醫生 vs. 傳統醫生
- 能利用海量客戶數據優化運營的老闆 vs. 傳統老闆
- 會利用AI技術自動寫稿和生成報告的媒體人 vs. 傳統媒體人
很明顯,在以上的例子中前者對後者擁有著碾壓性的優勢。在不久的將來,能不能利用人工智慧提高自己的效率和競爭力將會成為新的門檻。
即使在AI時代,我們將來的對手還會是我們的同類。
很多人擔心,當人工智慧具備自我意識,會將人類從食物鏈頂端驅逐。
但他們忘了,就算是上帝,也無法創造一塊自己也舉不起的石頭。
人類創造的智能機器,始終將為人類服務,未來將是人類對抗未知的最佳夥伴。
沒有意識的智能機器根本無法對人類造成威脅,科學家已經開始懷疑,也許人類根本就無法創造意識。(不靠譜的)程序員。
害怕人工智慧像貓狗一樣能抓住很多人類的心,這些人會把人工智慧看得比人類更重要……
人類害怕人工智慧表明——這個世界的一切都可以用數學表徵
啥也不說,上圖。
歸根結底,就是害怕被取代!
人類的知識、經驗的延續成本太高了。
哪怕一個高產的科學家,他真正為人類擴寬知識面的時間相比他的壽命也是短暫的。而且,隨著知識樹深度的增加,這個比例將越來越少。
「歷史總是相似的」、「年輕人誰沒犯過老一輩的錯誤」等等,在人文和人類情感上,這些都是寶貴的。但單指科學發展,這些都是包袱,發展中的成本。
更可悲的是,就算可以把晶元植入人腦,瞬間檢索一切已有知識,在第一次使用時,我們能領悟嗎?
如果可以將知識的精髓植入人腦,讓我們不用經歷練就可以熟練使用知識,那還有什麼是不能植入腦中的呢?
人與計算機還有多少區別?人類在王座上坐太久了,害怕被敢下來。
推薦閱讀:
※如何評價2016年日本電影《怒》?
※怎麼做一個虛偽的人?
※如何反駁「陪伴與懂得,比愛情更重要,相互忍、彼此真、過一生」這句話里所表達的觀點?
※對越自衛反擊戰到底有多殘酷?
※喜歡一個人呆著才有能量你能理解嗎?