AI若無人性 你我只是被任意曲解的數據碎片

(本文首發於觀察者網)

上一篇談AI與中國倫理,就AI發展現況看來,似乎是有點遙遠的事,畢竟目前仍無法確定通用型AI何時能實現,然而,最近有幾則新聞令人警覺,倫理在AI里的應用,可能比我們想像得更急迫。例如英國《金融時報》中文網3月7日的一篇文章「人工智慧的演算法黑箱與數據正義」。

該文頗長,且充滿許多AI專業用語與法律用語,所以對一般讀者而言不太容易咀嚼,用最簡單的話來描述該文的主旨,就是「AI的判斷造成了歧視與不正義,所以其演算法需要透明,以確保人權」。論述的出發點,則是針對歐盟可能於5月出台的法案《一般數據保護條例》(GDPR),以及其對AI深層學習所可能造成的負面影響。

以下,我試著將重點做些比較清晰易懂的說明,闡述「為何倫理知識可能要在通用型AI階段以前就需要用上」,且不是明天,就是現在。

該文作者將具備知覺與自我意識的通用型AI稱為「強人工智慧」,有限功能的AI則為「弱人工智慧」。由於強人工智慧尚未出現,所以該文所闡述的「AI之亂」,是針對目前許多已在社會各角落被使用的弱人工智慧。

什麼是「演算法黑箱」?

用一個簡單的例子來說明。買新車,許多人會保「車體險」,以期在愛車遭受碰撞時,能取得保險理賠。在台灣,相較於竊盜險或其他,車體險最為昂貴,因為車輛遭受或小或大的碰撞機率,遠高於遭竊。車體險的保費並非固定金額,而是隨著一些條件的差異而有不同。決定保費的要件如車輛的售價,車輛品牌的理賠率,車主的年齡,性別,肇事紀錄等等,甚至車輛的顏色都屬於評估範圍,因為開紅色汽車的年輕男性,發生碰撞的幾率較高。

保險金融業,是以精算來生存的,所以引入能精細評估投保者的AI,理所當然。而若使用AI來評估,決定保費的要件,當然會比上述更為細膩。AI會廣泛地搜羅保險公司的理賠歷史數據,來分析哪一種人或哪一種車的理賠率較高,以作為保費金額的參考。

如果開紅車的年輕男性要交比較高額的保費讓你覺得有點歧視,試想,如果AI分析得出單親家庭的成員肇事率較高,所以應該繳交更高的保費時,你服氣嗎?

問題是,AI如何得知你出身於單親家庭呢?這麼說吧,如果民間徵信社可以查出你是否出身單親家庭,AI當然也查到。我們的個人數據資料,如果沒有受到嚴密的保護,根本無法逃遁於AI的搜查羅網。

這時你會問,誰能決定要將單親家庭這項條件納入保費評估的?當然是透過保險公司與AI科技公司的合作,而且保險人恐怕根本不會知道這項條件其實被納入了考慮。

「單親家庭」納入評估,就是一種AI演算法,而若只有保險評估單位與AI科技公司知道這種演算法,被「算計」的人不知道,就是所謂「演算法黑箱」。

如果以傳統人工來評估保費,某些演算法很可能會受到起碼的道德制約,避免這種歧視性的評估。當然,我們也不能對「人性」打包票,即使完全人工設定評估項,這類問題也未必能完全避免,但沒有「人性」的AI,很可能會肆意地選擇,畢竟它只知如實呈現「客觀」的數據分析結果。

與全人工設定相比,了解並參與AI整個分析過程的人更少,這些人完全可能也有更多的機會「放縱」AI。如果需要他們「監管」AI的工作,對其「人性」的要求更高。甚至當AI的「自動化」發展到一定程度,幾乎無人能知道「黑箱」內部的情況。所以,保險公司若不將AI演算法透明化讓大眾知曉,就會發生數據不正義的現象。

歐盟的《一般數據保護條例》,就是在限制AI可能造成的人權侵害,它要求所有科技公司對其AI演算法的自動決策機制提出解釋。而這種法令出台,也等於直接限制了AI的深度學習技術。

說白了,就是重新以「人性」去審視,限制「非人性」的決策模式。而這將使大量依賴深度學習的AI應用不合法。

大數據的陰暗面

《人工智慧的演算法黑箱與數據正義》一文,也指出了若干已經發生的數據不正義案件,例如美國每周超過1000人被機場AI使用的演算法錯誤辨識為恐怖分子。美國法院用以評估犯罪風險的演算法COMPAS,對黑人族群造成系統性歧視。華盛頓特區某個受到普遍認可的教師,被政府的自動化決定程序篩選為表現不佳,而與其他205人一起被解僱。

數據不正義的例子又如:當你向銀行貸款,不會希望自己所屬的種族,在銀行的放貸評估範圍內。你也不會希望自己在社群網站上的私密發言,在求職或面臨遣散的時候被納入考慮事項。你更不會希望因為自己豐富的性生活經驗,而被性保守的國度拒絕入境。

目前,大數據是沒有人性可言的,它不會按照道德標準去彈性處理分析結果,對於依賴大數據作為決策基礎的AI而言,你我都只是數據碎片,至於要如何組織紛雜零散的數據碎片形塑一個「你」,不在你的控制範圍內,演算法黑箱就是這個意思。在這種狀況下,你很有可能覺得AI曲解了你的人格,經歷,性向,並錯誤預測你可能產生的行為,進而使你的人權遭受不人道的剝奪。

去年,臉書運用AI根據大數據辨識用戶偏離正常貼文的行為模式,並對於可能出現的輕生念頭髮出警訊,此舉引起了廣泛的倫理討論:我們若在臉書表達輕生念頭,會引來警察上門盤查,這是否侵犯了個人隱私?這麼做合乎道德嗎?類似的例子不勝枚舉,大數據侵害人權的質疑已廣泛地出現在各個精準營銷的手段上。

大數據的陰暗面在於,每一個被分析的對象,都被細鎖地分割成許多的數據切片,而我們不會知道哪一分切片會被不當使用。房地產業者會不會根據大數據剔除自殺傾向較高的租房者?企業主會不會根據求職者在網路上貼文的大數據分析,將反社會傾向較高的人剔除?婚姻仲介公司會不會根據你偏好的AV題材大數據,而拒絕為你媒合對象?

歐盟可能即將生效的《一般數據保護條例》設下了兩種規範,其一:AI的自動化決定,除非你同意,或在合約條件上不可少,否則你有權不受該決定的限制。其二:將個人敏感數據排除在自動化決定,也就是AI演算法之外。所謂敏感數據是指種族、政治傾向、宗教信仰、健康、性生活、性取向的數據,或者可唯一性識別自然人的基因數據、生物數據。

法律只是道德的底線,有許多大數據曲解,可能是合法卻不符合人情道德的,故而對AI與大數據的法令限制,也不可能消除所有「科技的不義」,並有法律自身的限制與可鑽的漏洞。

如規範一,當你已被AI貼上了標籤,即便你有權否決AI判斷,但標籤貼上了就是貼上了,他人也可以自由心證地決定是否採納這個標籤,讓你受到隱性的不公平待遇。

再如標籤二,即便種族不在AI的數據分析之內,但它仍可透過你的居住地,收入或前科紀錄推論出你所屬的種族。尤其重要的是,即便法律規定的演算法透明化了,一般人恐怕也難以讀懂複雜的運演算法。

亦即,外在的法律規範是不足的,要更徹底地解決問題,必然要在AI科技的內部,做演算法的自我規範。換言之,即是建立AI決策技術上的倫理規範,用道德、風俗、人情以規範AI的分析路徑。

讓AI主動避免逾越法律界線

就像克隆人科技的發展命運,AI這種同樣牽涉到人類道德的科技,最大的瓶頸不是來自於技術,而是來自於道德束縛。事實上,克隆人,基因治療,太空生活等領域,早已進入了倫理學的範疇。這些與人類生命有關的新興科技,被納入應用倫理學的生命倫理學範圍,並在這些科技領域裡發揮限制或引導的作用。所以AI倫理學遲早也會成為一門嚴肅而專精的學術,而從已然發生的AI誤判或大數據歧視案件來看,這門學問將成為左右人類社會發展的重要知識系統之一。

《一般數據保護條例》對AI產業的發展,無疑是一項重擊,因為它對AI的核心技術產生了人道上的質疑。法律的限制將使得現有技術綁手綁腳,迫使某些重要計劃產生停頓也是有可能的。但從產業面的角度來看,限制技術的法律也應該正面看待,因為產品終究得獲得人們的信任,才得以繼續發展,而法令限制也會迫使產業將技術加速導向人性化。

發展AI的道德自主判斷技術,則是最能確保此項科技逾越法律界線的方式。用最簡單的方式來說,就是讓AI比人還道德。這裡的道德包含對人全面性的綜合評估,寬容、平等,與客觀無私。

上一篇我談到AI的核心是「人的思考模式」。我們的思考運作特徵,是跳躍性思考與綜合式判斷,這也正是AI最難處理的技術問題。

你希望心儀的對象如何看待你?難道樂見她對你的了解僅止於網路上的情緒發言,斷章取義,憤世忌俗,或偏激思想?不會,你希望對方也能綜合性地考慮你良善的一面。對AI而言,綜合式地算出你的各個大數據切片,才是符合人情道德的運演算法。

你希望你任職的公司如何預測你的潛力?難道你樂見只因要求加薪,公司就認為你難以管理,利己主義,或缺乏團隊合作的特質?不會,你會希望公司也能跳躍性思考,考慮「要求加薪」這項行為所需的膽識,積極,謀略等正面特質。

總而言之,AI必須能從人性的角度來判斷一個人,並在各種決策要求上,能適切地篩除不符合人情義理的大數據切片。這就是倫理學等文科知識,在未來科技上所能扮演的關鍵角色。

其實,大數據的倫理問題在2015年時就已受到大陸學術單位的正視,如國家社會科學基金中大項目「高科技倫理問題研究」項目組與湖南省倫理學學會聯合主辦的「第一屆賽博倫理學研討會」。顯示大數據,AI發展的同時,急迫需要倫理規範的知識系統對科技予以引導,以免因弱人工智慧所引發的道德疑慮,一方面使社會進入失序的數據曲解,另一方面阻礙了強人工智慧的發展。

兩岸都有類似的問題,即文科知識正面臨學生、家長與社會的普遍輕視,這是由於工業化與後工業化環境的人才需求,傾向於培養理工科的人力資源。然而,當科技繞了一圈,由數理邏輯發展到非線性思維的應用時,文科終於在適應與啟發現代社會的層次上,派上了用場。

所以,我們都得與時俱進,重新正視文科知識在人類文明發展里應有的高度,也讓學文的人才,能在未來的勞動市場里有更多樣性的選擇,與學理工的人才一起推動社會進步。

雁默:2018台灣地方大選系列?

zhuanlan.zhihu.com圖標雁默:雁默所有文章列表?

zhuanlan.zhihu.com圖標

推薦閱讀:

想去美國學人工智慧該怎麼選學校?這裡有一份詳細的指南
AI將腦電波轉化為圖像
進擊的谷歌 AI:一旦發現形勢不利, 就會變得更具攻擊性
AI同傳PK人類同傳,這或許是兩個職業
中國大智匯——人工智慧與人性的邊界

TAG:人工智慧 | 倫理 | 大數據 |