深度 | 21世紀的希特勒?我為什麼認為AI驅動型政府將成為民主威脅

大數據文摘作品,轉載要求見文末

作者 | Ma?lle Gavet

編譯 | 元元、康璐、Ether、錢天培

面部識別、數據建檔、智能判決…… 人工智慧已悄無聲息地輔助甚至取代政府,對你作出全方位的管理。AI驅動型政府正在逐步成為現實,而這一切將會是民主的福音,還是人類的災難呢?

從澳大利亞政府用「數據驅動分析」對社會福利受益人進行新式的藥物檢測,到美國執法部門採用面部識別技術,以及很多美國法院開始在判決中採用專用軟體,一系列的技術已被悄然實施,卻沒有遭到多少抗議,它們改變著我們的治安管理手段,改變著我們劃分和定義公民身份的方式,可能在不久之後,還會改變我們被統治的方式。雖然我們還處於「演算法管控」的前期——利用大數據,機器學習和人工智慧(AI)等方法來管控人的行為,甚至執行法律,但目前它們已經介入了公民個人和政府之間的關係,併產生了不小影響。

而且,在這些技術崛起的今日,正是很多西方世界國家政府的支持率跌到歷史最低點之時。發達國家的選民們愈發不滿大權在握的政治家們和其利益集團的政治運作,並且在行使投票權時發泄自己的不滿。

AI驅動型政府對民主發展的5大威脅

在這個政治動蕩多變的環境下,人們越來越感覺到技術可以作為一種解決手段。演算法管控的支持者們聲稱,很多人類制定的法律和規則可以交由AI來執行,由於機器學習的能力不斷提高,篩選和理解大量數據(通常是來自智能手機)的能力不斷增強,AI執行法規會比人類更準確更高效。

AI支持者還認為,從歷史趨勢和人類行為發展來看,演算法可能很快就能夠改變我們日常生活的方方面面,從我們的駕駛行為,到我們作為公民的責任和權利,甚至是違背法律時受到的懲處,都會有演算法參與。事實上,我們可以想像在不久的將來,AI可以自動設立法規,預防和避免各種社會問題。

有些人認為這將是民主的重生,但在我看來是對民主的威脅,我們應該對它持深刻懷疑的態度。在法治和決策中引入演算法,存在五個重大問題:

1) 自我強化偏差

總的來說,機器學習和人工智慧擅長的是分析大量實時數據,找出趨勢並給出「如果發生這個,就會出現那個」這樣的結論,這與人類非常不同。它假設曾經發生的事情總是以相同模式再次發生,這就是固有的自我強化偏差。

以犯罪數據為例,收入較低的黑人和少數民族社區里出現犯罪和反社會行為的概率遠高於富裕的白人社區。如果用演算法來制定法規,必然會對黑人和少數民族社區嚴加警力巡查,因此也會發生更多的警匪對峙和逮捕。這樣的自證預言把預期變為了現實,被認為會有高犯罪率的地區,果然發現更多犯罪。

如果你是出生於此類社區的小孩,擺脫環境貼在你身上的標籤的可能性會更渺小。當然,這是已經在發生的事情了。從2010年初,預測式警力監控開始在全美國啟用,因為發生錯誤預測和其中根深蒂固的種族偏見而一直備受譴責。它能否持續地減少犯罪,還有待驗證。

2) 安全性堪憂

第二個很重要的問題是,人工智慧的引入會涉及到信息安全問題。實際上,幾乎所有的大公司,政府部門和機構(包括美國司法部門)都有可能被入侵,主要是因為它們維護數據安全的能力遠不足以防範黑客入侵。

說得委婉些,政府不太可能保護演算法不被攻擊,而且演算法常是一個「黑箱」,即使被篡改了我們也不一定能查出是何時和怎樣被篡改的。舉個例子,據新聞報道稱,去年俄羅斯黑客入侵美國民主黨電腦系統,助力Donald Trump贏得了美國總統大選。同樣,如果我們真的寫代碼把政府和司法權力交給一個機器,代碼一定極其複雜,而且我們幾乎可以肯定,它一定充斥著各種漏洞。

3) 利益難平衡公正

還有利益衝突的問題。執法和監管的軟體不是由政府開發的,而是由一些私人公司,通常是跨國的技術公司開發的。這些跨國技術公司已經在給政府提供軟體,他們不僅有明確的盈利目標,還常和政府有不透明的關係。

這樣的合作也會引起懷疑演算法的公平和透明,因為這會影響人們生活中切實的利益。在我們生活的世界中,政府數據越來越多的向公眾開放。這對公眾是一件好事,我強烈支持。然而,從這些免費數據中獲益最多的公司卻有雙重標準:他們極力倡議政府公布免費開放數據,卻錙銖必較確保自己的程序和數據仍為己有。

4)政府尚不能掌控人工智慧技術

政府掌握數字化技術的能力也讓人存疑。我所了解的大多數政治家,他們對技術的局限毫無認識,不知道它們能做什麼不能做什麼。他們不理解最基礎的原理,更不要說細節了,這意味著他們不能很好的管理這些軟體公司。如果他們不懂為什麼後門和加密不能共用這類基礎問題,就更難認知到演算法管控需要什麼,這個問題比前者複雜很多倍。

好比說,英國和法國政府正在推進的法案中,政府對公民的數據信息有不斷擴張的訪問權,說明他們並不知道自己建立這樣的資料庫所面臨的巨大風險。可以肯定,因政府訪問數據權力的過度擴張而爆發醜聞僅僅是時間問題。

5)演算法沒那麼精妙

而且,矽谷所象徵的技術無所不能,可以說反映出他們的態度是傲慢的,用AI演算法管控的核心要義在於它認為對於任何問題總有最優解。然而,解決棘手的社會問題需要的是耐心,妥協,還有最重要的是仲裁調解。例如加州的水資源短缺,是農業發展和民眾用水之間的競爭。一些人認為應減少水資源消耗以應對氣候變化,而另一些人則認為全球變暖對生存並無威脅。這樣的社會問題也許並不能由演算法得出所謂的最優解。

演算法能在兩方中進行仲裁調解嗎?宏觀上看,演算法能判斷出誰該為氣候變化問題承擔更多責任嗎?是引發了氣候問題的發達國家,還是仍在現代化階段,能源效率低下的發展中國家呢?我的觀點是,演算法只適合做非黑即白的判斷,並不擅長處理灰色地帶,或是做細緻的權衡和妥協,也不擅長做意義和價值評估,或是爭取某種折中和讓步。

雖然我們也許可以建立演算法並用來管理社會,但是我們需要先想清楚我們想要什麼樣的社會。還要想清楚,當社會經歷根本性變化時(快速或漸變),會發生什麼。比如你可以試想一下,如果演算法建立在奴隸制橫行,或是同性戀被禁止,或是女人還沒有投票權的時候,會是什麼樣的演算法,而後會發生什麼?這也就是為什麼我們選舉政府,是希望他們做決策時不是基於過去的社會模式,而是基於大多數選民的發展願景,而且好的決策是會常伴有妥協的。

所謂的公民社會,需要做的就是建立不斷發展改進的共識,關於我們想要怎樣的社會和生活。這件事是不能完全外包給智能機器的。

AI驅動型政府下,民主何去何從

儘管有上述問題,但毫無疑問某種AI驅動的政府一定會出現。我們怎麼才能避免事情像恐怖科幻小說一樣發展呢?首先,我們應該利用AI來探索解決社會問題的新方法,而不是直接應用在舊有的解決方案中。比如說,與其簡單的用AI來更快的找到罪犯把他們送進監獄來維護治安,不如用AI來找到其他潛在的有效解決方案。比如給年輕人更多的文化教育機會,讓他們學會識字、識數和其他技能,可能比嚴厲的執法能更有效和更低成本地減少犯罪。

此外,AI應該用於群體的層面,而非針對某些個人,從而防止因背景、基因或地區給人貼上標籤。比如招聘企業、醫療保險公司、信用卡公司、和抵押貸款提供商,他們更依賴於精細的數據驅動,應當將AI應用在群體而非個人層面。雖然用AI進行人群劃分的商業必要性很明確,但是當它篩選特定人群的時候,將不可避免地把其他人排除在可能性之外。

當然,不是所有公司都用數據損害消費者利益的。2015年哈佛商學院的一項研究表明AIRBNB對於使用共享平台的黑人和少數民族租客有慣性歧視,AIRBNB隨後進行了檢視並採取了系列措施來解決這個問題。但AIRBNB其實可以在這項研究前就發現問題,因為足夠聰明的AI演算法可以更早發現這種歧視,並且可能提出預防的方法。技術應該幫助人類更好地做決定,而不是取代人類成為決定者。

為了了解演算法應用在公共事業上的潛力如何。

首先,政府需要想辦法,讓大家討論清楚我們希望通過應用演算法獲得何種結果,以便我們理解並對期望目標達成一致,從而更好的衡量演算法的表現。

二,政治家們需要儘快學習和理解數字化技術,因為將來我們會有實時且連續的數據流來反饋演算法在每件事上的表現,並通過演算法的不斷改善以適用於變換的環境和需求。

第三,任何AI建議的試行條例或法規,都必須通過傳統人類方法進行嚴格的測試,才能正式採用或立法。

最後,任何使用公共數據來增強和改進演算法的商業公司,應把收益部分回饋給政府,或者承諾演算法為租借使用關係,最終所有權依然歸政府。

毫無疑問,演算法管控已經蓄勢待發。我們必須小心監管AI在政府更廣泛的應用,以確保其使用動機是正確的,必須是以正確的方式和途徑改善社會。如若不然,我們可能招致意外的後果和混亂,以及最終失去民主的風險。


推薦閱讀:

AI技術講座精選:機器學習梯度下降演算法(包括其變式演算法)簡介
《計算廣告》讀書筆記
小白都能理解的數據分析和大數據(一)
谷歌大神帶你十分鐘看懂TensorFlow
通過數據挖掘你有過哪些意想不到的發現?

TAG:人工智能AI酱 | 大数据 |