Science最新重磅綜述:如何應對人工智慧產生的倫理學危機
來自專欄人工智慧學習筆記4 人贊了文章
導語
AI悄然普及,伴隨而來的倫理挑戰越發不容忽視,其不可見性和影響力威脅著人類的自決能力。為了應對AI帶來的風險,必須確定一套正確的基本倫理準則,來指導AI 的設計、管理和使用,並在尊重個人和社會的前提下從中獲益。當然,這並非易事。這篇文章將對此進行討論。
編譯:集智俱樂部翻譯組
來源:Science原題:How AI can be a force for good
人工智慧(AI)已經不僅僅是一項需要監管的新技術,它也是一種重塑日常實踐、個人和專業的交互與環境的強大力量。這種力量被用在有利的方面對於人類福祉是至關重要的。
倫理在這一進程中發揮著關鍵作用,因為它確保了AI善用其潛力和降低風險的約束。
AI的定義可能有很多種。錯誤地對其進行定義的話,任何AI倫理挑戰的評估充其量只是科幻小說,甚至在最壞的情況下,就像詭辯一樣會使人們不負責任地分心到無關事物上。
一個科學的方法是利用經典的定義:
- AI是一種不斷增長的互動的、自主的、自學的智能體,它可以使得計算硬體執行原本需要人類智能才能成功完成的任務。
- AI可以根據其所依賴的計算模型或技術的結構等特徵來進一步定義。但是涉及到倫理和政策問題時,後面的區別不是必要的。
- 一方面,AI由數據驅動,因此面臨著數據管理方面的倫理挑戰,包括了許可權、所有權以及隱私權。AI可能加劇了與數據相關的挑戰,但是即使沒有AI也會出現這種情況。另一方面,AI是一種獨特的自主和自學的智能體,因此出現了新的倫理挑戰。而後者是本文的重點。
AI作為一種新形式的智能體,其面臨的倫理爭論可以追溯到1960年代了。從那時候開始,許多相關的問題都與授權和責任有關。由於AI從招聘到醫療保健的廣泛使用,了解哪些任務和決策委託到了AI上,以及如何為其表現承擔責任,這些都是迫切的倫理問題。
與此同時,隨著AI悄然普及,新的倫理挑戰就出現了。
人類自決權利的保護(the protection of human self-determination)是最重要的問題,必須要加緊解決。正如"劍橋分析公司干涉選舉"(Cambridge Analytica)事件所揭示那樣,在線服務的提供商將AI應用於建立用戶畫像來做廣告推廣和政治運動,於是AI能夠捕捉用戶的偏好和特徵來塑造他們的目標並在一定程度上推動其行為,從而削弱其自決能力。
委託與責任
AI的應用正變得越來越普遍。用戶依賴它們來處理從貨物交付到國防保障等各式各樣的任務。將這些任務分配給AI將會給社會帶來巨大的好處(見圖片)。它降低了成本和風險,提供了一致性和可靠性,並且能為複雜的問題提供新的解決方案。列如,AI應用可以減低85%的乳腺癌診斷錯誤率,AI網路安全系統可以將網路攻擊的識別和抵禦的平均時間從101天減少到幾個小時。
然而,委託還可能導致有害的意外後果,特別是那些排除人類監督且涉及到敏感的決策和任務。COMPAS是一個臭名昭著的AI法律系統,因為它在做出准予假釋決策時歧視非裔美國人和西班牙人。我們需要強有力的監管程序來盡量減少這種非預期的後果,並糾正AI任何不公平的影響。
儘管如此,如果我們只能做到事後諸葛亮,那麼人類的監管是不夠的。解釋AI並預測其結果的技術也是必要的。DARPA(國防高級研究計劃局)的AI解釋程序就是一個很好的例子。這個程序的目的是定義新的技術來解釋AI系統的決策過程。這使得用戶可以了解AI系統是如何工作的,設計者和開發者可以改進系統以避免錯誤和降低濫用風險。要想獲得成功,類似的項目必須從一開始就進行倫理影響分析,評估AI的利益和風險,並確定AI的設計和使用在倫理上要遵循的準則。
基於人工智慧的決策或行為的影響往往是許多行動者無數互動的結果,其中包括了設計師、開發者、用戶、硬體、軟體。這就是所謂的分散式智能體。因為智能體是分散式的導致了責任分配也是分散式的。現有的倫理框架涉及個體的責任,其目標是根據個體的行為和意圖分配獎懲。但它們並不能處理分散式的責任分配。
直到最近,新定義的倫理理論才考慮到分散式的智能體。它所提出的理論依賴於合約和侵權責任並採用了一個完美無缺的責任模型。這個模型將一個智能體的責任與其採取某種行為的意圖或控制其結果的能力分開,這個模型包括了分散式系統的智能體,比如責任公司等。
這是思考AI的關鍵,因為它在設計者,監管者和用戶之間分配倫理責任。在這樣做的過程中,模型在預防作惡和培養善心方面起著核心作用,因為它促使所有參與者採取負責任的行為。
要抓住AI創造的機會,並應對相關的挑戰,我們必須建立良好的授權實踐方法並建立一個新的模型來歸因倫理責任,但是這些做法仍然不夠。倫理分析必須擴大以解釋AI對人類行為的無形影響。
不可見與影響力
AI的支持服務、平台和設備無處不在而且無時無刻不在運行和使用。2017年,國際機器人聯合會表示,到2020年全球範圍內的工廠需要安裝170萬台AI驅動的機器人。同一年,公司 Juniper Networks 發布了一份報告,估計到 2022 年,全球55%的家庭將擁有像Amazon Alexa這樣的語音助手。
隨著AI的成熟與傳播,它融入了我們的生活、經歷和環境,成為了一個看不見的協調者,並以一種便捷的,幾乎不引人注意的方式來協調我們的互動。在創造新的機會的同時,這種無形地進入我們環境的AI也會帶來更多的倫理問題。
有一些倫理問題是領域特定的。比如,當家庭、學校和醫院要使用AI解決方案時,信任和透明是至關重要的。相同的,在工作場景中結合AI時,平等、公平和保護僱員的創造力和權利是至關重要的。但是AI的整合也帶來了另一個基本風險:由於人工智慧的不可見性和影響力,人類的自決(Self-determination)將受到侵蝕。
這種不可見性提高了AI的影響力。AI系統憑藉其預測能力和不懈的努力,使其無處不在卻又難以察覺,AI系統可以輕鬆、安靜地塑造我們的選擇和行為。這不一定是有害的。例如,它可以促進社會互動和合作。
然而,AI也可能施加超出我們意願或理解的影響力,來破壞我們對環境和社會的控制,最終影響我們的選擇、預測、身份和生活。我們有決定我們自己生活和身份的並保持我們選擇開放性的能力,但是AI的錯誤設計和無形的使用可能會威脅到我們脆弱的自我決定能力。
轉化倫理學
為了應對AI帶來的風險,必須確定一套正確的基本倫理準則,來指導AI 的設計、管理和使用,並在尊重個人和社會的前提下從中獲益。
這不是一項容易的任務,因為道德準則可能會因為文化背景和分析領域的不同而有所不同。這是IEEE全球自主和智能系統倫理協會倡議處理的一個問題,其目的是推動公眾就應該支持AI倫理使用的價值觀和原則進行討論。
更重要的是,一些對基本準則的共識正在形成。最近一項對比分析強調了國際立法機構對AI倫理的原則和生物倫理學的一些關鍵性原則——互惠、非暴力、自主和正義——是有實質性重疊的。
我們有理由對它們的進一步趨同持樂觀態度,因為其他的原則可以從世界人權宣言中提取出來。這種趨同將促進AI的不同倫理框架的一致性和相容性,並為AI這一技術的設計、規章和使用提供總體的倫理指導。
一旦確定了倫理準則,就必須將其轉化為可執行的指導方針,以塑造基於AI的創新。這種轉化是有先例的,特別是在醫學領域,轉化研究是建立在生物學研究進展的基礎上,這樣便可以開發新的療程和療法。
同理,轉化倫理學是建立在學術進步的基礎上形成監管和治理方法的。這種方法支持了即將由 AI4People 項目提出的關於AI設計和倫理規範的建議。
AI4People 於2018年2月在歐洲議會上成立,旨在幫助AI朝向社會和社會中每一個人都有利的方向上去。該倡議由國際專家科學委員會和利益攸關方論壇與歐盟委員會AI問題高級專家組協商,為AI的倫理和社會可持續發展提出一系列具體和可行的建議。
AI的轉化倫理需要制定預見性的方法來表明可能的倫理分析,以防止意外後果。影響評估分析就是這種方法的一個例子。它們對某一組織部署的方法或技術對隱私、透明度或責任等方面的影響進行逐步的評估。
即使是富有遠見的方法也永遠無法描繪AI系統的所有可能性、風險和意外後果,但是可以制定可取的替代方案和有價值的行動方案並確定可能的風險和降低風險的策略。
這有一個雙重優勢。作為一種機會戰略,預見性的方法可以幫助利用倫理的解決方案。作為風險管理的一種形式,它們通過避免倫理上不能接受的決策或行為來幫助預防或降低代價高昂的錯誤。這將降低由於不明確或者害怕反對,而沒有做出的選擇或沒有抓住選擇的機會成本。
AI的設計和使用的倫理規範是一項複雜卻又是必要的任務。另一種選擇可能會導致個人權利和社會價值的貶值,並拒絕以AI為基礎的創新,最終錯失利用AI改善個人福祉和社會福利的機會。人類早期沒有規範工業革命對勞動力的影響,沒有認識到大規模工業化和全球消費主義對環境的影響,才花費了大力氣學到了這些教訓。為了保護工人的權利和建立可持續發展的框架,人類付出了很多代價:幾個世紀的時間、社會動蕩,甚至是革命。
AI革命是同樣重要的,人類不能再犯同樣的錯誤。必須解決關於後AI時代社會的性質以及在這種社會中應支持AI的設計、管理和使用的價值觀。這就是為什麼諸如上述AI4People和IEEE項目、歐盟的AI國際戰略、歐盟AI合作宣言以及AI造福人類與社會等倡議是如此地重要。
民間社會、政治、商業和學術界的協調努力將有助於確定和實施最佳戰略,使得AI成為一股有益的力量,釋放其在尊重人類尊嚴的同時促進人類繁榮的潛力。
參考文獻:
- J. McCarthy et al., AI Mag. 27, 12 (2006).
- A. L. Samuel, Science 132, 741 (1960).
- G.-Z. Yang et al., Sci. Robot. 3, eaar7650 (2018).
- N. Wiener, Science 131, 1355 (1960).
- M. Taddeo, L. Floridi, Nature 556, 296 (2018).
- D. Wang et al., arXiv:1606.05718 [q-bio.QM] (18 June 2016).
- P. Asaro, Int. Rev. Red Cross 94, 687 (2012).
- S. Russell, Nature 521, 415 (2015).
- J. Larson et al., 「How We Analyzed the COMPAS Recidivism Algorithm」 (May 2016);
http://www.propublica.org/article/ how-we-analyzed-the-compas-recidivism-algorithm.
- L. Floridi, Sci. Eng. Ethics 19, 727 (2013).
- U. Pagallo, in Human Law and Computer Law: Comparative Perspectives, M. Hildebrandt, J. Gaakeer, Eds. (Springer, Netherlands, 2013), pp. 47–65.
- L. Floridi, Philos. Trans. R. Soc. Math. Phys. Eng. Sci. 374, 20160112 (2016).
- H. Shirado, N. A. Christakis, Nature 545, 370 (2017).
- IEEE Standards Association, Ethically Aligned Design, Version 2.
- J. Cowls, L. Floridi, Prolegomena to a White Paper on an Ethical Framework for a Good AI Society, Social Science Research Network, Rochester, NY, SSRN Scholarly Paper ID3198732, 19 June 2018.
翻譯:夏佳豪
編輯:王怡藺原文:http://science.sciencemag.org/content/361/6404/751.full
推薦閱讀
Nature:AI可能是性別和種族歧視分子?
三人成虎?看AI如何攔住謠言!
意識機器——AI視野(六)
人工智慧助力神經科學
加入集智,一起複雜!
推薦課程
https://campus.swarma.org/gpac=10553 (二維碼自動識別)
課程地址:https://campus.swarma.org/gpac=10553
集智俱樂部QQ群|292641157
商務合作及投稿轉載|swarma@swarma.org
◆ ◆ ◆
搜索公眾號:集智俱樂部
加入「沒有圍牆的研究所」
推薦閱讀: