ASILOMAR 會議關於AI的23條原則

原文鏈接在此:ASILOMAR AI PRINCIPLES。

翻譯源自個人興趣以及對於自身歷練的追求,NLP初學者,錯誤在所難免,交流學習,煩請多指正。(萬一有轉載請註明出處

以下為正文部分。

此原則經由2017ASILOMAR會議共同得出(會議視頻在此),議程細節在此。

人工智慧(AI)早已向世界各地的人們提供了許多日常使用的便利的工具。經由如下原則所指導的持續發展中的人工智慧,將提供驚人的機遇,在未來的十幾年以及多個世紀中幫助以及增強人類的發展。

研究的問題

  1. 研究目的:人工智慧的研究目的不應是創造無指導的智能體,而是應該創造有益的智能體。
  2. 研究經費:對於人工智慧的投資應該伴隨著建立研究基金以保證其有益的所使用,這包括計算機科學、經濟學、法律、倫理以及社會科學等諸多領域許多棘手的問題,諸如:
  • 我們如何才能讓未來的人工智慧系統擁有高的健壯性,以便其能夠做我們所需要的工作而非發生故障或者被侵入?
  • 我們如何在維持人類的資源以及意志的同時使用自動化技術來保持我們的繁榮?
  • 我們該如何調整我們的法律體系在更加公正、高效地跟上人工智慧的發展腳步的同時能夠應對伴隨人工智慧而來的風險。
  • 人工智慧應當具有何種價值取向,它應當具有何種法律與倫理地位?
  • 科學與政策的聯繫:人工智慧的研究者與政策的指定者之間應當保有具有建設性以及健康的交流機制。
  • 研究文化:人工智慧的研究者與開發者之間應當培養相互合作、信任以及透明的研發文化。
  • 避免競爭:人工智慧系統的研發團隊們應當積極合作,避免在安全標準上偷工減料。
  • 倫理與價值

    1. 安全:人工智慧系統在其生命周期內應當是穩定安全的,並且保證其可用性和可行性。
    2. 失效透明性:如果一個人工智慧系統造成了危害,其應當能夠確定發生此類事件的原因。
    3. 司法透明性:一個自治系統做出的任何與司法決策相關的事情都應向一個權威的審計人士做出令人滿意的解釋。
    4. 責任:高級人工智慧系統的設計建造者是其(系統)使用、誤用以及行為的道德內涵的利益相關者,他們有責任有機會來對這樣的內涵進行塑造。
    5. 價值取向:高度自治的人工智慧系統應當設計為其自身的操作產生的目的與行為都能夠保證與人類的價值觀保持一致。
    6. 人類價值:人工智慧系統的設計和操作應當符合人類對於尊嚴、權利、自由以及文化多樣性的理想化追求。
    7. 個人隱私:在給與人工智慧系統分析使用這些數據的同時,人類應當擁有對其自身產生的數據的訪問、管理以及控制的權利。
    8. 自由與隱私:人工智慧在個人數據上的應用不能無端地削減人們真實的或者感知上的自由。
    9. 共同的利益:人工智慧技術應當造福儘可能多的人。
    10. 共享繁榮:人工智慧帶來的經濟繁榮應當廣泛共享以造福全人類。
    11. 人類的控制:人類應當選擇如何以及是否替人工智慧系統做出決定以完成人類選擇的目標。
    12. 非顛覆性:控制高度先進的人工智慧系統所賦予的權利應當尊重和改善而非顛覆健康社會所依賴的社會和文明的進程。
    13. AI軍備競賽:應當避免致命武器的軍備競賽。

    更加長期的問題

    1. 能力的慎重:目前沒有一個共識表明,我們應當避免對於未來人工智慧的發展上限做出假設。
    2. 重要性:高級人工智慧能夠代表地球上生命歷史的深刻變化,應當給予其相應的關照和資源來進行相關的計劃與管理。
    3. 風險:人工智慧系統所帶來的風險,尤其是災變以及關乎存亡的風險應當根據其預期影響,進行與之相稱的謀劃與緩解的努力。
    4. 遞歸性地自我進步:人們所設計出的能夠以快速提高質量或數量的方式遞歸自我完善或自我複製的AI系統必須施以嚴格的安全和控制措施。
    5. 公益:超級智力體應當僅被設計來為廣大共享的倫理理想而服務,為了全部人類的利益而非單個國家或者組織。

    之後的部分為參與討論的所有成員的名單,略去不翻。

    Trans by lawbda 2017.02.02 00:43


    推薦閱讀:

    Embedding向量召回在蘑菇街的實踐
    機器學習演算法
    [貝葉斯三]之決策函數和決策面
    【精品】12條核心知識帶你了解機器學習
    製作假新聞?AI送你去喝茶!

    TAG:人工智慧 | 機器學習 |