怎樣應對人工智慧帶來的倫理問題
【摘要】人工智慧的持續進步和廣泛應用帶來的好處將是巨大的。但是,為了讓人工智慧真正有益於人類社會,我們也不能忽視人工智慧背後的倫理問題。現在的人工智慧界更多是工程師在參與,缺乏哲學、倫理學、法學等其他社會學科的參與,未來跨學科的人工智慧倫理測試需要加強研究。在今天這個人工智慧快速發展,人類在諸如圍棋、圖像識別、語音識別等等領域開始落後於人工智慧的時代,對人工智慧進行倫理測試同樣重要,包括道德代碼、隱私、正義、有益性、安全、責任等等,都是十分重要的。
人工智慧時代加速到來,演算法決策興起
第三次AI(人工智慧,以下簡稱AI)浪潮已經開啟。在技術層面,有演算法的進步。當1956年人工智慧開始起步的時候,人們更多是在說人工智慧;在第二次浪潮期間,機器學習成為主流;這一次則是深度學習,是能夠自我學習、自我編程的學習演算法,可以用來解決更複雜的任務。此外,計算能力的提升,包括現在的量子計算機,以及越來越普遍的大數據,對人工智慧的作用和價值也非常大,使得更複雜的演算法成為可能。在應用層面,從語音識別、機器翻譯到醫療診斷、自動駕駛,AI應用在不斷加深、不斷成熟,甚至已經開始超越人類,引發人們關於失業的擔憂。同時也讓人們開始期待具有通用智能的終極演算法。在商業層面,面對可預期的好處和利益,國內外主流的互聯網公司如騰訊、谷歌等都開始向AI看齊,AI領域的創業和投資在如火如荼地進行著。全球已經有超過1000家AI公司,市場規模增長空間是非常大的,未來八年內將超過350億美元。
在此背景下,各種互聯網服務中越來越多地看到人工智慧的影子,人們日益生活在演算法之下,演算法決策開始介入甚至主導越來越多的人類社會事務。比如,人們在互聯網上獲取的內容,諸如新聞、音樂、視頻、廣告等等,以及購買的商品,很多都是推薦引擎個性化推薦給用戶的,而不是有人在背後決策。再比如,在金融領域,演算法可以決定是否給某個用戶發放貸款,以及具體的貸款額度。此外,一家美國投資公司早在幾年前就開始研發管理公司的AI系統,招聘、投資、重大決策等公司事務都由這個AI系統來管理並決策。也許在未來,一家公司的成功不再主要依賴於擁有像喬布斯那樣偉大的CEO,而是一個足夠智能足夠強大的AI系統。更有甚者,英國、歐盟等都在大力推動人工智慧技術在政務和民生方面的更深應用,政府服務不僅是數字化,而且是智能化。
人工智慧倫理問題日益凸顯
人工智慧的持續進步和廣泛應用帶來的好處將是巨大的。但是,為了讓AI真正有益於人類社會,我們也不能忽視AI背後的倫理問題。
第一個是演算法歧視。可能人們會說,演算法是一種數學表達,是很客觀的,不像人類那樣有各種偏見、情緒,容易受外部因素影響,怎麼會產生歧視呢?之前的一些研究表明,法官在餓著肚子的時候,傾向於對犯罪人比較嚴厲,判刑也比較重,所以人們常說,正義取決於法官有沒有吃早餐。演算法也正在帶來類似的歧視問題。比如,一些圖像識別軟體之前還將黑人錯誤地標記為「黑猩猩」或者「猿猴」。此外,2016年3月,微軟公司在美國的Twitter上上線的聊天機器人Tay在與網民互動過程中,成為了一個集性別歧視、種族歧視等於一身的「不良少女」。隨著演算法決策越來越多,類似的歧視也會越來越多。而且,演算法歧視會帶來危害。一方面,如果將演算法應用在犯罪評估、信用貸款、僱傭評估等關切人身利益的場合,一旦產生歧視,必然危害個人權益。另一方面,深度學習是一個典型的「黑箱」演算法,連設計者可能都不知道演算法如何決策,要在系統中發現有沒有存在歧視和歧視根源,在技術上是比較困難的。
為什麼演算法並不客觀,可能暗藏歧視?演算法決策在很多時候其實就是一種預測,用過去的數據預測未來的趨勢。演算法模型和數據輸入決定著預測的結果。因此,這兩個要素也就成為演算法歧視的主要來源。一方面,演算法在本質上是「以數學方式或者計算機代碼表達的意見」,包括其設計、目的、成功標準、數據使用等等都是設計者、開發者的主觀選擇,設計者和開發者可能將自己所懷抱的偏見嵌入演算法系統。另一方面,數據的有效性、準確性,也會影響整個演算法決策和預測的準確性。比如,數據是社會現實的反映,訓練數據本身可能是歧視性的,用這樣的數據訓練出來的AI系統自然也會帶上歧視的影子;再比如,數據可能是不正確、不完整或者過時的,帶來所謂的「垃圾進,垃圾出」的現象;更進一步,如果一個AI系統依賴多數學習,自然不能兼容少數族裔的利益。此外,演算法歧視可能是具有自我學習和適應能力的演算法在交互過程中習得的,AI系統在與現實世界交互過程中,可能沒法區別什麼是歧視,什麼不是歧視。
更進一步,演算法傾向於將歧視固化或者放大,使歧視自我長存於整個演算法裡面。演算法決策是在用過去預測未來,而過去的歧視可能會在演算法中得到鞏固並在未來得到加強,因為錯誤的輸入形成的錯誤輸出作為反饋,進一步加深了錯誤。最終,演算法決策不僅僅會將過去的歧視做法代碼化,而且會創造自己的現實,形成一個「自我實現的歧視性反饋循環」。包括預測性警務、犯罪風險評估、信用評估等都存在類似問題。歸根到底,演算法決策其實缺乏對未來的想像力,而人類社會的進步需要這樣的想像力。
第二個是隱私憂慮。很多AI系統,包括深度學習,都是大數據學習,需要大量的數據來訓練學習演算法。數據已經成了AI時代的「新石油」。這帶來新的隱私憂慮。一方面,如果在深度學習過程中使用大量的敏感數據,這些數據可能會在後續被披露出去,對個人的隱私會產生影響。所以國外的AI研究人員已經在提倡如何在深度學習過程中保護個人隱私。另一方面,考慮到各種服務之間大量交易數據,數據流動不斷頻繁,數據成為新的流通物,可能削弱個人對其個人數據的控制和管理。當然,現在已經有一些可以利用的工具來在AI時代加強隱私保護,諸如經規劃的隱私、默認的隱私、個人數據管理工具、匿名化、假名化、差別化隱私、決策矩陣等等都是在不斷發展和完善的一些標準,值得在深度學習和AI產品設計中提倡。
第三個是責任與安全。霍金、施密特等之前都警惕強人工智慧或者超人工智慧可能威脅人類生存。但在具體層面,AI安全包括行為安全和人類控制。從阿西莫夫提出的機器人三定律到2017年阿西洛馬會議提出的23條人工智慧原則,AI安全始終是人們關注的一個重點,美國、英國、歐盟等都在著力推進對自動駕駛汽車、智能機器人的安全監管。此外,安全往往與責任相伴。如果自動駕駛汽車、智能機器人造成人身、財產損害,誰來承擔責任?如果按照現有的法律責任規則,因為系統是自主性很強的,它的開發者是難以預測的,包括黑箱的存在,很難解釋事故的原因,未來可能會產生責任鴻溝。
第四個是機器人權利,即如何界定AI的人道主義待遇。隨著自主智能機器人越來越強大,那麼它們在人類社會到底應該扮演什麼樣的角色呢?自主智能機器人到底在法律上是什麼?自然人?法人?動物?物?我們可以虐待、折磨或者殺死機器人嗎?歐盟已經在考慮要不要賦予智能機器人「電子人」的法律人格,具有權利義務並對其行為負責。這個問題未來值得更多探討。此外,越來越多的教育類、護理類、服務類的機器人在看護孩子、老人和病人,這些交互會對人的行為產生什麼樣的影響,需要得到進一步研究。
構建演算法治理的內外部約束機制
一是合倫理的AI設計,即要將人類社會的法律、道德等規範和價值嵌入AI系統。這主要是電氣和電子工程師協會、英國等在提倡。可以分三步來實現。第一步是發現需要嵌入AI系統的規範和價值,存在道德過載和價值位階的問題,即哪些價值優先,哪些價值在後。第二步是將所發現的規範和價值加入AI系統,需要方法論,有自上而下和自下而上兩種路徑。第三步是對已經嵌入AI系統的規範和價值進行評估,看其是否和人類社會的相一致。一方面是使用者評估,需要建立對AI的信任,比如當AI系統的行為超出預期時,要向用戶解釋為什麼這麼做。另一方面是主管部門、行業組織等第三方評估,需要界定價值一致性和相符性標準,以及AI可信賴標準。
但是需要解決兩個困境。其一是倫理困境。比如,在來不及剎車的情況下,如果自動駕駛汽車往前開就會把三個闖紅燈的人撞死,但如果轉向就會碰到障礙物使車上的五個人死亡。此時,車輛應當如何選擇?在面對類似電車困境的問題時,功利主義和絕對主義會給出不同的道德選擇,這種衝突在人類社會都是沒有解決的,在自動化的場景下也會遇到這樣的問題。
其二是價值對接的問題。現在的很多機器人都是單一目的的,掃地機器人就會一心一意地掃地,服務機器人就會一心一意給你去拿咖啡,諸如此類。但機器人的行為真的是我們人類想要的嗎?這就產生了價值對接問題。就像Midas國王想要點石成金的技術,結果當他擁有這個法寶的時候,他碰到的所有東西包括食物都會變成金子,最後卻被活活餓死。為什麼呢?因為這個法寶並沒有理解Midas國王的真正意圖,那麼機器人會不會給我們人類帶來類似的情況呢?這個問題值得深思。所以有人提出來兼容人類的AI,包括三項原則,一是利他主義,即機器人的唯一目標是最大化人類價值的實現;二是不確定性,即機器人一開始不確定人類價值是什麼;三是考慮人類,即人類行為提供了關於人類價值的信息,從而幫助機器人確定什麼是人類所希望的價值。
二是在AI研發中貫徹倫理原則。一方面,針對AI研發活動,AI研發人員需要遵守一些基本的倫理準則,包括有益性、不作惡、包容性的設計、多樣性、透明性,以及隱私的保護,等等。另一方面,需要建立AI倫理審查制度,倫理審查應當是跨學科的,多樣性的,對AI技術和產品的倫理影響進行評估並提出建議。
三是對演算法進行必要的監管,避免演算法作惡。現在的演算法確實是越來越複雜,包括決策的影響都是越來越重大,未來可能需要對演算法進行監管。可能的監管措施包括標準制定,涉及分類、性能標準、設計標準、責任標準等等;透明性方面,包括演算法自身的代碼透明性,以及演算法決策透明性,國外現在已經有OpenAI等一些人工智慧開源運動。此外,還有審批制度,比如對於自動駕駛汽車、智能機器人等採用的演算法,未來可能需要監管部門進行事先審批,如果沒有經過審批就不能向市場推出。
四是針對演算法決策和歧視,以及造成的人身財產損害,需要提供法律救濟。對於演算法決策,一方面需要確保透明性,如果用自動化的手段進行決策決定,則需要告知用戶,用戶有知情權,並且在必要時需要向用戶提供一定的解釋;另一方面需要提供申訴的機制。對於機器人造成的人身財產損害,一方面,無辜的受害人應該得到救助;另一方面,對於自動駕駛汽車、智能機器人等帶來的責任挑戰,嚴格責任、差別化責任、強制保險和賠償基金、智能機器人法律人格等都是可以考慮的救濟措施。
在今天這個人工智慧快速發展,人類在諸如圍棋、圖像識別、語音識別等等領域開始落後於人工智慧的時代,對人工智慧進行倫理測試同樣重要,包括道德代碼、隱私、正義、有益性、安全、責任等等,都是十分重要的。現在的AI界更多是工程師在參與,缺乏哲學、倫理學、法學等其他社會學科的參與,未來這樣跨學科的AI倫理測試需要加強研究。因為在某種意義上我們已經不是在製造一個被動的簡單工具,而是在設計像人一樣具有感知、認知、決策等能力的事物,你可以稱其為「更複雜的工具」,但不可否認,我們需要確保這樣的複雜工具進入人類社會以後和人類的價值規範及需求相一致。
推薦閱讀:
※AI重新定義Web安全
※國內首位人工智慧牙醫誕生!
※人工智慧帶給我們的恐懼該終結了
※馬斯克推著霍金找你聊 AI 威脅論,你會....
※第一期 | 人工智慧技術情報分享