對人工智慧的不信任,該怎麼治?
我們正處於一個新的數字鴻溝的臨界點。有人擁抱人工智慧時代的到來,有人則更願意選擇相信人類專家——即使他們會犯錯。
除非你生活在與世隔絕的深山老林,否則你或許已被淹沒在有關機器學習和人工智慧(AI)的新聞之中。隨著一系列的技術突破,AI似乎已經可以對未來做出預測:警方部門用它來繪製犯罪可能發生的時間和地點;醫生用它來預測病人最可能發生心臟病或中風的時間;研究人員甚至試圖賦予AI以想像力,以便讓其能對意想不到的後果提前做出準備。
當然,我們生活中的許多決策都有賴於優秀的預測,而AI在預測方面幾乎總是勝過人類。然而,面對所有這些技術進展,我們似乎仍對AI的預測缺乏信心。根據最近的調查顯示,人們不喜歡依賴AI,而更願意相信人類專家,即使這些專家們出錯了。
如果我們想讓人類真正受益於人工智慧,就必須找到讓人們信任它們的方法。在那之前,我們需要先了解為什麼人類不願意相信人工智慧。
你該信任機器人醫生嗎?
舉個例子,IBM 對 Watson 腫瘤解決方案項目的推廣簡直是場公關災難。使用世界上最強大的超級計算機系統來向醫生推薦最好的癌症治療方案,似乎是直接從科幻電影中照搬的無畏構想。 這一AI項目可承諾為佔全球病例80%的12種癌症提供最高質量的治療方案。至今全球已有超過14000名患者收到根據計算結果得出的建議。
當醫生剛開始接觸 Watson 時,發現他們自己陷入了一個相當困難的處境。一方面,如果 Watson 提供的治療方案與醫生自己的觀點一致時,他們就無法看到 Watson 的建議有多大價值。
超級計算機只能簡單地告訴醫生一些他們已經知道的東西,並且這些建議並沒能改變實際的治療。這可能使醫生們感到心安,讓他們對自己的決定更有信心。而 IBM 也還未提供能證明 Watson 確實提高了癌症存活率的證據。
另一方面,如果 Watson 提出了與專家相左的建議,醫生們通常會得出的結論是:Watson 能力不夠(或將非傳統的解決方案歸咎於系統故障)。更重要的是,機器無法向人類解釋為何它的處理是合理的,因為人類並不能完全理解它太過於複雜的機器學習演算法。因此,這反而導致了更多的不信任與猜疑,使得許多醫生直接忽視AI的那些看似異乎尋常的建議,而始終堅持自己在腫瘤方面的專業知識。
因此,IBM Watson的主要醫療合作夥伴安德森癌症中心在最近宣布了將要放棄這個計劃的決定。無獨有偶,丹麥一家醫院在發現其腫瘤醫生在2/3以上的病例上與 Watson 有著不同意見後,也放棄了這一人工智慧項目。
信任問題的起源:人類的鍋
許多專家認為未來社會將會建立在有效的人機合作上。但信任的缺乏仍是阻止這種情況發生的唯一最重要因素。
Watson腫瘤解決方案的問題就是由醫生根本不信任它而引起的。人類的信任通常是基於我們對他人如何思考和了解其可靠性的理解上。這有助於創造一種心理安全感。而另一方面,AI對於大多數人來說是非常萌新且陌生的。它使用複雜的分析系統以識別潛在的隱藏模式和來自大量數據的微弱信號,從而進行決策。
即使能從技術上進行解釋(然而事實並非總是如此),對大多數人來說,AI的決策過程通常也是難以理解的。而和我們不理解的東西互動就可能引起焦慮,並讓我們感到正喪失控制能力。很多人也不熟悉AI很多實際工作的內容,因為那常常發生在後台。但相反的是,他們能非常敏銳地意識到AI發生嚴重錯誤的情況:
一種Google演算法將有色人種分類為大猩猩。
一輛自動駕駛的Uber在舊金山闖紅燈。
YouTube的一個自動廣告系列,在反猶太視頻和恐同視頻旁顯示廣告。
亞馬遜Alexa設備開始向兒童提供成人內容。
一個重複並放大種族隔離的Pokémon Go演算法。
微軟的一個聊天機器人在不到一天的時間裡決定成為一個白人至上主義者。
一輛在自動駕駛模式下行進的特斯拉汽車導致了一起致命車禍。
這些不幸的事故收穫了與其不成比例的媒體關注度,向公眾傳遞著人類不能總是依靠技術的信息。最後,所有的一切都會回到機器學習並非萬無一失的這一簡單事實上,部分原因是設計它的人本身就不是萬無一失的。
《終結者》的觀影影響: 被AI分裂的社會?
對AI的感覺也可以往深入了說。但是為什麼有些人能接受AI,而另一些人卻對其深表懷疑呢?
2017年12月,我和同事最近進行了一項實驗,要求有著各種不同背景的人觀看一些關於AI的科幻電影,並在觀影之前和之後分別邀請他們填寫關於他們對自動化看法的調查問卷。我們詢問的內容包括他們對互聯網的總體態度、他們在AI技術方面的體驗、將日常生活中某些任務自動化的意願:哪些任務是樂意用假想的AI助手實現自動化的、以及哪些任務是想要堅持自己執行的。
令人驚訝的是,無論像《終結者》、《雲端情人》或《機械姬》這類電影,為我們描繪的是一個烏托邦還是反烏托邦的未來都並不重要。我們發現,無論他們觀看的電影是以積極還是消極的角度去描繪AI,只是單純的在電影世界裡觀看到高科技未來,就能使參與者的態度變得極端化。樂觀主義者會對AI的熱情變得更盛,他們渴望自動化日常生活中的更多事物。相反,懷疑論者對AI的態度就變得更加謹慎。他們質疑AI的潛在益處,並且更願意積極抵制朋友和家人也使用AI工具。
從這些發現中得到的啟示是令人擔憂的。一方面,這表明人們有偏見地用與AI的相關證據來支持他們現有的態度,這是一種根深蒂固的人性趨勢,被稱為「確認性偏見」。我們認為這種認知偏見是在研究中觀察到的偏見效應背後的主要推手。
另一方面,由於技術進步的步伐不減,拒絕參與到AI所能帶來的優勢,可能會使一大批人處於嚴重的不利地位。隨著人工智慧在大眾文化和媒體暴動中的出現頻率越來越高,它可能會促成一個嚴重的社會分裂,分裂著對AI的信仰者(並因此受益的人)和那些拒絕AI的人。
更有針對性的是,拒絕接受AI提供的優勢,或許也會使一大群人處於嚴重的劣勢。這是因為在AI信任上的差異可導致就業機會的差異,從而導致社會經濟地位的差異。 AI追隨者和AI否定者之間的衝突可能會促使政府採取無情的監管措施,從而遏制了創新。
緩解AI信任危機
對AI的不信任可能會造成最嚴重的社會分裂。因此,如果要想讓AI充分發揮其潛力,我們必須找到讓人們信任的方法,特別是當AI提出的建議與我們通常所用的建議截然不同時。幸運的是,隧道的盡頭畢竟有光——我們已經有了一些如何提高對AI信任的方法了。
體驗:一種解決方案是在日常環境下為自動化應用程序和其他AI應用程序提供更多的實際操作體驗(例如視頻中這個可以從冰箱為你拿啤酒的機器人)。
因此,與其將索尼推出的娛樂機器人「AIBO機器狗」作為上流社會可享有的獨家產品,我們更建議將這些創新變得更容易被大眾接受。正如我們在實驗研究中發現的那樣,擁有對AI的先前經驗可以顯著改善人們對技術的態度。而這對於那些對這項技術沒有很深入了解過的公眾來說尤其重要。類似的證據也表明,你使用更多的其他技術,如互聯網,你就越信任它們。
洞見:另一種解決方案或許就是打開機器學習演算法的「黑匣子」,讓其運作方式稍微變得透明些。 Google,Airbnb和Twitter等公司已經開始定期發布透明度報告。這些報告提供了有關政府要求和監管披露的信息。AI系統的一個類似實踐可以幫助人們更好地理解演算法決策是如何作出的。因此,讓人們對機器學習系統有一個最高層次的理解,或許對緩解演算法厭惡起到很大的幫助。
控制:最後,製造更多的協作決策過程將有助於信任的建立,並讓AI能從人類經驗中學習。在Avantgarde Analytics 公司的工作中,我們也發現讓人們更多地參與到AI的決策過程能提高信任度和透明度。類似的是,賓夕法尼亞大學的一組研究人員最近也同樣發現,給予人們對演算法的控制可以幫助人們增加對AI預測的信任。在他們的研究中,被賦予了稍微修改演算法的權利的人會對它感到更滿意,更有可能相信它的卓爾不凡,並且更有可能在未來使用它。
這些指導方針(體驗,洞見和控制)有助於讓AI系統對受其決策影響的個人變得更加透明和易於理解。我們的研究表明,如果人們對AI的使用擁有更多的體驗和控制,而非簡單地被告知需遵循神秘的計算機系統的命令,那麼人們或許會更加的信任AI。
人們並不需要了解AI系統複雜的內部運作,但如果他們至少得到一些有關和如何執行的信息和控制,他們就會更樂於接受人工智慧。
撰文:Vyacheslav Polonski(牛津大學研究員,研究複雜社會網路和集體行為)
譯:二宗主
原文標題為「AI trust and AI fears: A media debate that could divide society」,首發於2018年1月9日的Oxford Internet Institute。原文鏈接:https://www.oii.ox.ac.uk/blog/ai-trust-and-ai-fears-a-media-debate-that-could-divide-society/。本文經作者授權翻譯。中文內容僅供參考,一切內容以英文原版為準。
推薦閱讀:
※驚呆!孩子我生的,打死怎麼了?
※買褲子尺碼怎麼算褲子尺碼對照表完美解答
※脾胃好不好就寫在你臉上!99%的人不知道怎麼看
※怎麼給照片降噪?這幾招很有用
※胃疼怎麼辦 治胃疼的妙招有哪些