麻省理工媒體實驗室:面部識別軟體「更喜歡」白人男性用戶
近日,麻省理工學院媒體實驗室的一項新研究推翻了以往專家的研究成功——面部識別技術基於提供的數據和創建演算法的條件,是會存在偏見的。
最近,麻省理工學院媒體實驗室(MIT Media Lab)研究員Joy Buolamwini,通過收集了政客們的面孔,建立了一組1,270張臉的資料庫,並根據他們國家的性別平等排名(換句話說,麻省理工媒體實驗室充分考慮了政治領域女性的比例)。隨後,Buolamwini測試了三種面部識別系統的準確性:微軟、IBM和中國的Megvii(曠視科技)。這項研究結果最初在《紐約時報》上報道了結果——性別認同的不準確性依賴於一個人的膚色差異。
研究結果顯示:在淺色皮膚的男性中,性別被錯認的比例最低,只有不到1%左右;淺色皮膚的女性被認錯的比例為7%;12%的黑色皮膚男性被三種面部識別技術錯認;而在深色皮膚的女性中,被錯認的這一比例最高,達到了35%。
「總體而言,男性試驗者比女性受試者更準確地被辨認,而較輕膚色的受試者比較暗的個體能更準確地被歸類,」Buolamwini在一篇關於她的研究結果的論文中寫道,該研究由微軟研究員Timnit Gebru共同撰寫,「一項跨部門分類研究顯示,所有的分類器在深色膚色的女性上表現的最差。」
這不是第一次面部識別技術被證明是不準確的了,但是越來越多的證據指向需要不同的資料庫進行印證,以及多樣性的創建和部署這些技術的人進行實踐。為了使演算法來更準確識別每個人,而不應該是針對不同種族和膚色有不同的結果。
2015年,谷歌的一項明顯錯誤被一名軟體工程師發現,因為該技術錯誤地將這位工程師的黑人朋友,在照片應用中被識別為「大猩猩」了。這是該公司承諾要解決的問題之一(實際上,解決辦法可能是從應用程序的搜索結果索引中刪除了「大猩猩」一詞)。
兩年前,《大西洋月刊》(The Atlantic)報道稱,用於執法目的的面部識別技術可能會「嚴重影響非裔美國人」。「這是一個更大的問題在這個不斷發展的技術領域——由於不準確的科技,無辜的人可以成為犯罪嫌疑人」。這中間一些問題Buolamwini和 Gebru也涉及在他們的論文中。在100個警察部門的長達一年的調查中,他們揭露了「非裔美國人更有可能在執法過程中,受到面部識別搜索的影響,這比其他種族的人更加嚴重。」
而且,正如《大西洋月刊》所指出的,其他研究小組發現,在過去,亞洲開發的面部識別演算法更有可能準確地識別亞洲人,而不是白人;在歐洲和美國部分地區開發的演算法能夠更好地識別白人面孔。也就是說,不同膚色地區的面部識別技術,最先適應的是當地人群的。
這些演算法並不是有意為之,但更多的研究支持這樣一種觀點,即需要做更多的工作來限制這些偏見。Buolamwini寫道,「由於計算機視覺技術正被用於醫療和執法等高風險領域,因此,我們需要對各人種的群體視覺演算法做更多的工作。」
看來,面部識別技術的識別能力,依然急需提升。
推薦閱讀:
※微軟、英特爾、IBM 等公司都在中國有數個研發中心,為什麼蘋果卻沒有?
※IBM的主營業務是什麼?在智慧城市建設中,IBM是如何盈利的?
※[商業與技術創新 34] 設備民主,物聯未來 - 《IBM商業價值報告:物聯網+》簡記
※IBM既然賣掉了PC,為什麼賣電腦包?
※IBM 砍掉了 「GTS」 和 「GBS」,現在統一叫「IBM服務」!
TAG:人臉識別 | 微軟Microsoft | IBM |