準備應對 AI 的惡意使用
簡評:OPENAI 和美國權威機構,耗時一年撰寫論文,文內詳細提到了即將面臨的 AI 惡意使用的威脅,以及如何應對。(文末有論文下載鏈接,英文版)
以下我們皆代表 OPENAI 和其他研究機構的共同體。
我們合作撰寫了一篇論文,預測人工智慧技術的惡意濫用行為,以及我們可以如何預防和減輕這些威脅。本論文是與我們的「人類研究所未來研究中心」,「風險研究中心」,「新美國安全中心」,「電子前沿基金會」等機構持續工作近一年的結果。
AI 對全球安全性提出了挑戰,因為它降低了執行許多現有攻擊的成本,創造了新的威脅和漏洞,並使特定攻擊的歸因進一步複雜化。鑒於 AI 可能帶來發生變化的威脅形勢,該報告提出了一些高水平的建議,企業,研究機構,個體從業者和政府可以採取這些建議來確保更安全的世界:
- 承認 AI 的雙重用途:人工智慧是一種技術,能夠產生巨大的積極和巨大的負面應用。我們應該逐步形成一個社區來應對惡意行為者;並與決策者接觸以了解特別敏感的領域。正如我們在論文中寫到的那樣:「監視工具可以用來抓住恐怖分子或壓迫普通公民。信息內容過濾器可以用來掩蓋虛假新聞或操縱公眾輿論。政府和強大的私人參與者將可以獲得許多這些 AI 工具,並可以將它們用於公共利益或損害。」這些問題的一些潛在解決方案包括:針對某些研究的發布前風險評估;選擇性地與一些可信賴的組織共享信息;制定相應的規範應對科學界將雙重用途問題。
- 向網路安全學習:計算機安全社區發布了各種與 AI 研究人員相關的實踐,我們應該考慮在我們的研究中實施這些實踐。範圍包括組建故意設法打破或顛覆系統的「red team」,投資於技術預測以在威脅到來之前發現威脅,圍繞 AI 系統中發現的機密漏洞報告等等。
- 擴大討論範圍:人工智慧將威脅並改變全球的格局,因此我們應該在討論中涉及更廣泛的社會部分。締約方可以包括參與民間社會,國家安全專家,企業,倫理學家,普通公眾和其他研究人員。
就像我們在人工智慧安全方面的具體問題的工作一樣,我們已經解決了在具體情況下惡意使用人工智慧的一些問題,例如:AI 系統生成的說蠱惑性廣告被用於對付安全系統的管理員;網路犯罪分子利用神經網路和「模糊(FUZZING)」技術創建具有自動開發能力的計算機病毒;惡意黑客黑入清潔機器人,讓機器人運載爆炸物攻擊重要任務;流氓國家使用無所不在的 AI 增強監視系統搶先逮捕符合預測風險特徵的人。
這份報告調查了惡意使用 AI 的潛在安全威脅,並提出了更好的預測、預防、減輕威脅的方法。在分析 AI 可能影響互聯網、物理、政治領域的威脅之後,我們提出了四項更高級別的建議。我們還建議了一些有希望的領域,以進一步研究,擴大防禦範圍或者是讓進攻執行效率更低下或更難以執行。最後論文討論了攻擊者和防守者的長期均衡。
PAPER 下載
原文:Preparing for Malicious Uses of AI
園長:論文沒翻譯,內容挺精彩,推薦閱讀。
極光日報,極光開發者旗下媒體。
每天導讀三篇英文技術文章。
推薦閱讀:
※2017年你錯過了哪些AI圈大事?最全盤點,值得收藏!
※雞年小結
※Why are you here?
※星際爭霸AI研究相關工具資料整理
※工大高新擬更換公司全稱 人工智慧業務或將「實至名歸」