65、【轉載】我們擁有的AI技術符合倫理道德嗎?
來自專欄前沿科技的道德哲學反思
我們擁有的AI技術符合倫理道德嗎?
來源: 05-02 17:50
大約五年前,每個人都在談論物聯網將如何改變一切,幻想物聯網鏈接到數以億計的設備時的情景。我們似乎在經歷這樣的循環:一項項的技術被大肆宣傳,而現在輪到了人工智慧。
電子科技在過去三十年的發展中經歷了三大變化。首先是微處理器時代,然後是互聯網,然後是移動時代。到了現在,就像Synopsys的聯合首席執行官Aart de Geus最近所說的,「這是人工智慧時代」。正如之前的報道,de Geus在最近的一項事務中提到,未來幾十年,人工智慧將推動半導體行業的發展,因為大數據需要機器學習,機器學習需要更多的計算,這些將催生更多的數據。
的確,我們現在似乎正處於人工智慧炒作期的上升階段,但又不同於之前引進新技術的時代:我從未見過如此多的關於技術倫理的辯論。現在,人工智慧很可能會改變很多東西。自動駕駛汽車、軍用和工業無人機、機器人以及醫療、政府和城市功能等領域都可能受到影響。
Garter新型技術的發展周期,2017
本周,英國政府發布了一份長達183頁的報告,涵蓋了許多關於人工智慧系統的責任、監管以及倫理的問題,除此之外還涉及了人工智慧研究、創新和商業化應用方面的問題。這是非常有必要的。
「英國有著領先的人工智慧公司、充滿活力的學術研究文化氛圍、活躍的創業生態系統,以及大量的法律、道德、金融和語言優勢。我們應該充分利用這些優勢,但在人工智慧的發展和使用中,倫理是至關重要的。」英國上議院特別委員會主席、人工智慧委員會主席Lord Clement-Jones說。
「人工智慧並非沒有風險,委員會提出的原則將有助於減輕這些風險,」Jones說,「一種道德的方法確保公眾相信這項技術並看到使用它的好處。它也將使他們準備挑戰它的濫用。我們要確保這個國家仍然是研究和發展這項令人興奮的技術的前沿陣地。不過,初創企業可能很難自行擴大規模。
該委員會的報告中有許多建議指出人工智慧需要透明度,當人工智慧被用來做出重大或敏感的決策時,應該建立一個自願機制來告知消費者。報告稱,目前尚不清楚,當人工智慧系統故障或對用戶造成傷害時,現有的法律是否能夠明確相關責任,以及該領域是否需要明確責任。
AI系統能夠透明且易於理解嗎? 是否存在一定程度的技術透明,使系統能夠應對人們對其作出特定決定的質疑?
有關於此的詳細討論以及AI系統的問責制。在很多深度學習系統中,通過許多不同的處理層來提供信息以便得出答案或決定可以使系統看起來像一個黑盒子,即使他們的開發人員也不能總是確定哪些因素導致系統決定比另一個更重要。
Nvidia的EMEA解決方案架構和工程團隊負責人蒂莫西?蘭赫爾(Timothy Lanfear)向委員會提供了證據,他表示自己並不這麼認為。他說,機器學習演算法通常比傳統的軟體編碼更短,更簡單,因此在某些方面更容易理解和檢查。「我們每天都在使用那些我們無法吸收的複雜程度的系統,」Lanfear說。「人工智慧與此沒有區別。它也處於一種無法完全理解的複雜程度。然而,你能做的是把它分解成碎片,找到測試它的方法,檢查它是否在做你期望它做的事情,如果不是,就採取一些行動。
該委員會承認,達到技術上的完全透明是困難的,對於某些人工智慧系統來說甚至是不可能的。然而,在某些對安全性要求高的場景中,技術透明是必須的。這些領域的監管機構必須有權強制使用更技術透明的人工智慧。
「我們相信,部署任何一個對個人生活有潛在影響的人工智慧系統都是不被接受的,除非它能對自己所做的決定給出充分且令人滿意的解釋,這可能意味著要延遲系統內某些特定用途的部署,直到找到替代的解決方案。」英國人工智慧委員會在這份報告中提到。
一直以來,無論是學界還是業界,人工智慧的黑箱性都是詬病的焦點,也是阻礙其發展的關鍵瓶頸。
「我們的系統是完全模塊化的,這對於解釋和調試系統提升技術和服務來說非常關鍵,」英國自動駕駛創業公司FiveAI的CEOStan Boland說到,「任何系統在路演之前都要經過多個版本的迭代。
他補充道,未來自動駕駛在全球不會以一種形式落地,「例如,在倫敦和山景城這兩個地方,由於地理環境和人們的生活方式的不同,自動駕駛系統的運行模式一定是不同的。對我們來說,重要的是能夠設計出歐洲客戶需要的解決方案。」
英國政府的這份報告為全球AI研發提供了一個視角。高盛數據顯示,在2012年一季度到2016年二季度之間,美國國內對AI的投資達到了182億美元,對應的中國和英國的這一數字分別是26億美元和8.5億美元。預計到2030年,中國在AI領域的投資將會達到1500億美元。
考慮到現有資源的差異性,英國在人工智慧領域的投入量級無法和中美比肩。德國和加拿大有更多的可比性。德國的A略受其工業4.0戰略的影響頗深。這種戰略探索用AI提升製造過程,生產出整合了AI的智能商品,例如冰箱和汽車。
同時,泛加拿大人工智慧戰略不太專註於開發任何特定領域的人工智慧。但是加拿大政府已經拿出了1.25億美元用於建立三家新的人工智慧研究所。
處理器瓶頸
雖然過去十年中深度學習在人工智慧的發展中扮演了重要角色,但是深度學習也有著自己的問題。深度學習需要海量的資料庫,費用昂貴,極難獲取,此外對計算能力要求也很高。該報告提到,雖然計算成本逐漸降低,摩爾定律被打破,計算成本的下降也會放緩。量子計算等新計算技術的也會讓計算成本重新獲得優勢,但是現在還為時尚早,有很多不確定性。
深度學習的領先人物Geoff Hinton也發出了深度學習革命可能會很快結束這樣的警告。其他稍微樂觀一點的學者則認為由於各種新型晶元的誕生,給未來的深度學習提供了新的發展動力。
該報告深入研究了犯罪濫用、監管和創新等領域。目前「對抗式人工智慧」領域的研究人員掌握AI系統如何工作,並試圖愚弄其他人工智慧系統做出錯誤的分類或決定。
例如,使用虛假圖像使汽車碰撞,突然停止,或觸發自主武器的射擊。當然,這些情況在非機器學習的系統中也會發生,但是使用非機器學習方法,可以對所涉及的推理進行審問、恢復和調試。很多機器學習系統都無法做到這些。
在監管方面,報告指出,「一些國家雖然在應用落地方面的法規不夠完善,但是這種不完善也從另一方面推動了更快的實驗和創新,包括對於數據的使用和AI」。
我們有人工智慧技術來推動下一代計算機的發展,這些都基於高端AI處理器和晶元。但雖然半導體和計算機行業在不斷前行,但最終會決定該技術在現實世界中的應用有多大的還是整個社會,只有當發生自動駕駛撞車傷亡事件發生後,才能聽見社會的反對意見。而關於AI倫理的討論,會有助於我們思考技術該如何安全有效地部署的,並被社會接受和採納。
本文選自EE Times,原文標題為We Have the AI Technology, But is it Ethical?,作者Nitin Dahad,翻譯邢天航杜夏德,編輯杜雪。
引自:我們擁有的AI技術符合倫理道德嗎?_新華網_新華炫聞
(2018.7.19)
推薦閱讀:
※易經智慧:如何才能獲得晉陞?
※我說哲學|誰說哲學不能定義?(二)
※怎麼用兩袋大蒜,換兩袋金子
※《中論·觀因緣品》與哲學本體論的沉思
※什麼是哲學