明天,你會被機器歧視嗎?——新技術中的偏見幽魂

Siri剛剛誕生的時候,我有過一個絕妙的創業想法。

說起來很簡單,就是提供可以定製人工智慧助手聲音的服務。喜歡志玲姐姐的可以用「加油加油加油」來叫自己起床,喜歡星爺的可以聽他歡樂地給你推薦餐廳:「喜歡麻小需要理由嗎?需要嗎?不需要嗎?」

而我想要Benedict Cumberbatch(就是「卷福」,以下簡稱本尼)可以讓人耳朵懷孕的聲音提醒我今天該去買牛奶或者隨便什麼東西。

這個想法當然最後沒有落地,主要原因是我懶。次要原因是,我覺得既然我都想到了,大廠們一定也想得到吧?

後來有了微軟的Cortana和小冰,亞馬遜的Alexa,甚至科大訊飛版智能音箱里的叮咚小學妹,但我一直沒有等到本尼。

這些智能助理性格迥異功能不同,但,她們都默認使用了女聲。

IBM Watson大概是為數不多默認使用男性聲音的人工智慧,但它是「專業人士」,不是個人助理。

這個發現讓我有點兒鬱悶。女權運動搞了一兩百年,最後大家還是決定在自己發號施令的時候找一個女性聽著。這背後當然是有商業邏輯的——根據不少研究,人類似乎天然地對女性聲音的偏好性更高。斯坦福大學傳播學教授Clifford Nass曾經在著作《Wired for Speech》寫到:「人們往往傾向於認為女性聲音會幫助我們解決我們的問題,而男性聲音更像是一個告訴我們問題答案的權威人物。」

所以這些研究在說,這是我們潛意識裡的固有印象,歷史原因造成,並非有意識的偏見或者性別歧視哦。

我不太想反對這些研究揭示的現象本身。我想說的是,就算我們的固有印象是四川人民愛吃辣,也不至於天天要求自己所有的四川小夥伴去吃飯拌老乾媽吧?

在語音助理這件事情上,我,作為一個本身聲音真的很好聽的女性(傲嬌臉),想要一個可以選擇磁性低音炮的機會,也是合理、正當的需求對嗎?

只是我可以選擇的機會太少。(Siri雖然常常被小冰叫做「Siri阿姨」,但確實是可以轉換成男聲的,給它點個贊。)


說回本尼。他最成功的角色之一,是Sherlock Holmes,世界上唯一的諮詢偵探。人們用來形容偵探的常用詞之一,是「machine like」, 推理精密如同機器。

機器,在我們的心中是不被情感和社會習俗所左右的,是理性、邏輯、和公正的代表。

但事實真的如此嗎?

如同女媧當年照著自己的樣子創造了人類,機器,或者說它的代表之一人工智慧,是我們的造物,也必然會如同孩童一樣沾染並學習我們的社會習俗。刻板印象,或者更深層次的偏見,都被包括在其中。

微軟設計(Microsoft Design) 曾經在一篇博客中非常精闢總結了5大類人工智慧產生偏見的類別, 在這兒舉一點中國人民喜聞樂見的例子來幫助大家理解:

1首先是Dataset Bias,也就是用來培訓人工智慧的數據本身帶來的偏見。

這個很容易理解,如果我們把前一陣烏鎮互聯網大會各位大佬的信息給到AI,在未經調整的狀況下它極有可能會覺得互聯網大佬只能是男性。

2然後是Associations Bias, 也就是AI通過大量數據得出的詞語之間強弱聯繫的偏見。

這個在翻譯的場景中很常見,假如我和一個英國小哥哥通過語音翻譯聊天,我和他說,今天認識了一個新朋友,TA是一位醫生,那麼翻譯結果很可能是「He is a doctor.」儘管中文口語中TA沒有性別之分,但是AI的學習會告訴它男性和醫生這個職業的關聯性更強。

3第三種是Automation Bias,指的是AI自動設置的目標忽略了不同文化或個體的偏好。

最好的例子莫過於下圖,特朗普和希拉里都在強大演算法下變成了面若桃花眼若星辰唇紅齒白的「美人兒」。然而「美」的概念本該是多元而個性化的,單眼皮和小麥色皮膚當然也是另外一種美。成年人可能有足夠的判斷力認識到這一點,青春期的小朋友們就很有可能覺的自己沒有歐式雙眼皮而陷入自卑。

4第四種,是Interaction Bias. 簡單來說就是AI生生被我們教壞了。

聊天機器人們最容易受此影響,Tay在上線後不久就開始有了納粹言論就是個典型案例。

5最後一種是ConfirmationBias. 也就是通過不斷自我強化而形成的偏見。

比如說,小明在今日頭條看新聞,給一條「她不能為夫家生孩子自願離婚」的帖子點了贊,演算法就會不斷地給他推送類似的帖子從而進一步強化這個認知。在一定程度上,人工智慧的推薦演算法很有可能會加強我們在社交網路上本就存在的「Echo Chamber」(迴音室,指的是在相近的圈子裡只能看到類似觀點的現象),並且加劇群體間的撕裂。去年轟轟烈烈的美國大選,就是這種Echo Chamber效應的最好展現。


寫到這裡,我已經看到有板磚飛了過來:你們處女座就是事兒多,不喜歡美圖軟體你別用不就行了,Siri是男是女也不影響你用它,翻譯軟體出錯難道不會好好學英語?

2C端的產品我們當然是可以選擇不用的——儘管有些時候這會讓你看起來像個山頂洞人。然而隨著我們對於演算法和人工智慧的依賴性越來越強,以及人工智慧內生的一些特徵(《人工智慧:一個特立獨行的新風口》),會有更多的2B智能方案影響我們方方面面的生活。在這些場景下,個體不再有選擇「用或不用」的權利,而AI能夠造成的影響也比美顏或者聊天更大、更嚴肅。

比如說,找工作。

卡內基梅隆大學的團隊在2015年做了一個實驗,通過1000個虛擬的賬號(一半男性、一半女性)來測試Google 廣告系統的公平性。他們點擊了大概100個招聘網站,相應的,Google的廣告系統會為用戶提供招聘相關的廣告——而男性用戶收到高薪職位招聘廣告的幾率是女性的6倍。

這樣的情況也可能發生在招聘網站本身:如果歷史數據表明女性在職業生涯的中期更容易辭職或停止發展,那麼網站的演算法會更樂意給僱主們推薦男性的簡歷。然而這是一個惡性循環——女性在職場上面臨的諸多挑戰反而進一步造成了她們的求職劣勢。

再比如說,打擊犯罪。

英國達姆勒警方和劍橋共同開發的HART(Harm Assessment Risk Tool)系統,可以將嫌疑犯再次犯法的風險分為三個級別,以決定是否拘留或者允許保釋。背後的數據是2008-2013年間的歷史犯罪數據,而我們都知道,男性、少數族裔很可能會遭受培訓數據集本身造成的偏見。

中東人民更科幻一點,直接走向了《少數派報告》和《疑犯追蹤》的路線,使用一個叫做SIME的公司開發的智能犯罪預測軟體,可以「提前追蹤和預測犯罪將出現的時間和地點,讓警方可以在犯罪行為發生的第一現場第一時間實施逮捕」。

還有一個叫做Faception的公司研究通過面部特徵來識別恐怖分子:

怎麼說呢,這些事情,總覺得透著一股詭異勁兒。那些曾經被我們拋掉的歷史中的幽魂,又通過最新的技術爬了回來。

一邊是「意欲」之罪,明朝的徐有貞要是知道自己給於謙定罪的那句「雖無顯跡,意有之」變成了人工智慧加持的先進工具,不知道會不會義憤填膺地覺得自己白擔了這幾百年幾乎與秦檜不相上下的罵名。

一邊是「面相」的復活,這位少俠,我看你天庭飽滿、地閣方圓,端的是入閣拜相之命;旁邊那個,獐頭鼠目,一看就是犯罪分子,來人吶快把他(看,我在這裡幾乎下意識地用了「他」)抓起來。

下一步,我們還要做什麼的?找一位高科技的占卜師或者靈媒,好幫我們看看對面坐著的那一位是不是自己的靈魂伴侶?

你別笑。目前這個事情,似乎還只是《黑鏡》里的一個劇集,但假若它真的在可見未來的某一天變成現實,我也一點兒不覺得驚訝。


總是寫一些很有憂慮感的文章,你可能會覺得我是個反技術主義者。恰恰相反,從小屁孩時期就開始讀科幻,到現在在科技企業工作,我很希望自己的工作能夠讓技術給更多的人帶來更好的生活。

所謂愛之深責之切,正因為有這樣的願望在,我才想要儘可能地發現並注意技術落地環節中可能存在的風險和問題,提醒大家,美好的願景之外,我們有更多的細節、更隱蔽的問題需要考慮。

與我們之前討論過的道德困境和不平等問題一樣,技術並不是罪魁禍首,也不是解決問題的全部。在這裡,它是一面鏡子,折射出我們的世界裡早已存在的種種不完美之處。我們能做的事情儘管有限,但也仍然值得探索:

1在產品形成階段,我們需要更加多元化的團隊結構。

以Google 2017年的技術崗位為例,女性只佔到其中的20%。我相信在Google的大多數員工並不會有意識地做出性別歧視的舉動,只是人生中有許多細節,非身在其中不能了解。舉一個不那麼高大上的例子,如果沒有經歷過在遊園時女衛生間大排長隊的痛苦,園區的規劃師也可能不會考慮按照1:2或者2:3的比例來設計男女衛生間。我們需要有代表性的產品團隊,來確保有人會提示我們在產品設計中容易遺漏的重要細節。

2我們需要對人工智慧技術可能帶來甚至強化的偏見保持警醒,並設計適合的機制來及時地發現這些問題。

剛才提到的Microsoft Design團隊列舉的五個偏見類別,就是很好的自查工具:是否採用了合適的培訓數據?是否設定了防範性的規則防止AI被教壞?

於此同時,也正在出現一些第三方的監督力量,來幫助我們更好更快地發現問題。美國數學家Cathy ONeil,就一直想要創立一個新的行業,專門用來監督演算法以確保它們不僅可以反映偏見,更儘可能地消除偏見。

3我們需要更好的,可以追溯並尋找原因的演算法和技術。

目前深度學習演算法主要的問題之一,就是它的模式識別過程是一個黑箱,即使是創造它的工程師可能也很難解釋產生某些結果的原因,也就意味著即使發現最終結果出了問題,也很難進行調整。如何了解在黑箱中到底發生了什麼?Google的工程師們在這些方面做出過探索:2015年他們將一個原本用來識別圖像的模型進行了反向調整,使它可以生成某些圖像。這種做法可以使得工程師們了解演算法模型使用了哪些特徵來識別某一物體,並且神奇地形成了無數詭譎夢幻的畫面。有興趣的同學可以去搜索一下Deep Dream可得,甚至可以自行上傳照片創造自己的夢幻照片。

那麼能不能創造一種新的、以邏輯為基礎而非模式識別、可以解釋並準確調整的人工智慧演算法呢?這個問題,UCLA的朱松純教授也做過精彩的闡述。


我們與我們的造物終將共生並互相影響。我非常喜歡的科幻電影《Her》中有這樣一句台詞:

Im so happy I get to be next to you and look at the world through your eyes.

真高興我能在你身邊 ,透過你的目光一起觀察這個世界。

技術透過我們的眼睛學習這個世界,而我們透過技術的眼睛發現自己。在共同成長的路上,我們可以一起讓這個世界變得更好。

原文首發於公眾號:田閣隨筆,歡迎關注

推薦閱讀:

TAG:人工智慧 | 偏見 | 女權思潮 |