「Google,不許聯想」

允中 編譯 wired

量子位 出品 | 公眾號 QbitAI

美國科技媒體Wired說:Google的自動聯想功能,至今Bug多多。

比如當你搜索「伊斯蘭主義者」時,Google給出的自動聯想是「伊斯蘭主義者不是我們的朋友」,或「伊斯蘭主義者是邪惡的」。

對於「黑人是」,Google給出的自動聯想是「黑人不被壓迫」。

更可怕的是「希特勒是」,其中有一條自動化聯想是「希特勒是我的英雄」。

「女權主義者」則能引出「女權主義者是性別歧視」的說法。

這種政治不正確的例子還能舉出更多。比如搜索「白色至上」,自動聯想的第一位結果是「白色至上是好的」,而「黑人生命」則出現了「『黑人生命事件』是一個仇恨組織」的引導,還有「氣候變化」,Google提供的潛在導向均是否定性論調。

總之,雖然Google的「人品」有口皆碑,但這樣有圖有真相的事實面前,還是引人思考:

這到底怎麼了?

演算法無情

這種自動化聯想填充的建議,當然並非出自Google強制編碼,這是Google對互聯網上整個內容世界進行演算法掃描的結果,也是對人們日常搜索關鍵詞的具體評估。

於是有一些搜索自動聯想看起來標題黨。

比如「『黑人生命事件』是一個仇恨組織」,搜索指向的最高結果,是一個貧困法律援助中心的聯繫網頁,其中解釋了為啥它不認為「黑人生命」是一個仇恨組織。

但「希特勒是好人」卻並非類似的標題黨了,如果你接受自動聯想並搜索,真能去到一個介紹「希特勒是好人」的內容網頁。

雖然那啥自由,但這種大是大非問題如果置之不顧,想想就令人後怕。

Google也不是沒有動作。

在回應自動聯想的聲明中,Google表示將刪除上述一些特別違反其政策的搜索提示,但沒有指出具體刪除了哪些搜索。

也有其他發言人表示,Google過去一直在努力提高搜索質量,去年還為用戶添加了一種標記自動聯想結果的方式,如果你發現自動聯想的結果不準確或令人反感,可以直接在列表底部反饋。而且,行之有效的方法似乎也只有發動人民群眾了。

「因為演算法不會永遠是完美的,Google自動聯想參考了其他用戶的搜索數據。」

這句話來自Google新聞副總裁Richard Gingras,在上周四於華盛頓舉行的聽證會上,他告訴大家:儘管我們的演算法是完美的,但我不相信它們會永遠完美。

最主要的原因,Google自動聯想背後的參考資料庫,是一個每天都在變化的語料庫。

人民的汪洋大海太大,大到Google的技術也hold不住。

實際上,早在2016年12月,Google就官方宣布過一次人為修復搜索聯想的事件。當時用戶輸入「猶太人是」時,Google自動聯想的問題是:「猶太人是邪惡的」?

所以猶他大學的數據科學倫理方面的教授Suresh Venkatasubramanian就表示,如果自動聯想是人們搜索情況的一個反映,那它就不會存在道德底線。

言下之意是:技術沒有價值觀,會變得非常可怕——畢竟世界大了啥人都有。

然而通過技術解決問題也並不容易。比如Google確實出手對「希特勒」和「猶太人」等搜索的自動聯想結果進行了修改限制,但如何能讓這種「修改限制」規模化、技術化?

這就要讓技術模型「有思想」或者「有原則」。

Google還不夠努力?

目前,Google的嘗試是制定了一攬子方案,比如暴力、仇恨、性暴露或危險的相關聯想預測被禁止。但還是被認為標準太過模糊,機器對於一些常識的理解難於登天,比如「希特勒是我的英雄」出自希特勒自己,是當時這位狂人對自我的一種預言,但歷史進程告訴我們:這是惡的。

此外,Google也確實在遭遇現實挑戰。每天都在有新的搜索出現,而且每天都有高達15%的全新搜索內容,每一個新問題都可能突破Google解決方案的既有設定。

那麼是Google還不夠努力嗎?Wired認為是。

Wired質疑Google已經有足夠的付出去解決當前面臨的挑戰,而只是在糾正個別問題。即便這家母公司市值超過7000億美元的企業,宣稱有7萬名以上的全球員工在不斷審查評估搜索結果,但隨便搜索十幾次,就能發現七八個顯然不受歡迎的自動聯想。

Wired不否認自動聯想的價值,但需要解決它正在損害公共認知和價值的問題。

而且自動聯想也不止於Google搜索本身。在Google產品全家桶體系內,都存在這樣的問題。

比如2015年奧巴馬任職總統期間,如果你在Google地圖上搜索「in a house」,就會被自動聯想引導至白宮。

去年11月,Buzzfeed News則發現,如果你在YouTube上搜索「how to have」時,給出的自動化聯想竟然是「如何與你的孩子發生X關係」。

還有,去年拉斯維加斯大規模射擊事件後,Google搜索的結果中還出現了一個「4chan」頁面,一個無辜的人在這個頁面里被當做了殺手。

毫無疑問,類似的自動化系統接下來如何發展,並不單單是Google或Alphabet面臨的問題。比如去年公益調查機構ProPublica就發現,Facebook允許廣告商可以定向投放對「猶太人」感興趣的用戶,儘管Facebook聲稱並沒有人為創造這個類別——而是智能化工具根據用戶信息創造的。

所以是時候管一管這些演算法了嗎?

Wired最後說:Google有一系列的價值觀來提供公平公正,但對搜索結果缺乏仲裁。

Wired認為,演算法再好,也不該被授予價值判斷的責任。因為演算法不知道哪些問題粗俗無理、政治不正確,或者並不知道希特勒是一個種族滅絕的瘋子。演算法只知道從Google搜索的結果中挑選,卻讓Google搜索的演算法創造者們反受其限。

實際上,這樣的虧早就吃過了,雖然並不是在英語世界中。

Google Autocomplete Suggestions Are Still Racist, Sexist, and Science-Denyingwww.wired.com圖標

歡迎大家關注我們的專欄:量子位 - 知乎專欄

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

量子位 QbitAI · 頭條號簽約作者

?? ? 追蹤AI技術和產品新動態


推薦閱讀:

「一點點」和「喜茶」的這些套路你應該知道
這次人工智慧革命,你不用擔心是否會成功
人工智慧與互聯網的關係研究匯總和案例分析
國內AI陷入自嗨,谷歌發現第二太陽!人工智慧找到外星人已不遠?
世界類腦AI巨系統研究綜述,論ET大腦是不是全球首個類腦架構AI

TAG:人工智慧 | 谷歌Google | 演算法 |