AI以假亂真已引起美軍方警惕!DARPA將資助人工智慧造假競賽,集結全球頂級數字取證專家共同「作假打假」
來自專欄 DeepTech深科技
有圖已經不一定有真相!相信不少人都看過這樣一則視頻。視頻中,奧巴馬似乎正在進行演講。但其實,這則視頻是 AI 技術通過合成其聲音和面部動作而製成的。這既令人毛骨悚然,又確實引人深思。顯然,最近這段時間,該技術引發了美國國防部高級研究計劃局 (Defense Advanced Research Projects Agency,DARPA) 的思考。
圖丨偽造奧巴馬的視頻
今年夏天,DARPA 將資助一場人工智慧造假比賽,世界頂尖的數字取證專家會齊聚一堂。比賽選手將努力一方面將通過人工智慧技術產生假視頻,假圖像和假音頻,角逐出最為可信的「AI 製品」(也被稱為「Deepfakes」)。同時,在這場比賽中,選手們也將嘗試開發能探測出這些 Deepfakes 的新型高級工具。隨著人們越來越擅長開發專門用來愚弄我們的人工智慧演算法,這些工具也正在變得越來越精良複雜。
在不斷湧現的 AI 新模型中,DARPA 特別關注生成對抗式網路(generative adversarial networks)。這個技術也入選了今年的《麻省理工科技評論》全球十大突破性技術,上榜理由是:它給機器帶來一種類似想像力的能力,因此可能讓它們變得不再那麼依賴人類,但也把它們變成了一種能力驚人的數字造假工具。
GAN 的魔力在於兩個神經網路之間的對抗。它模擬的是一個師出同門的贗品大師與鑒寶專家之間爾虞我詐的過程。師出同門,是因為這兩個神經網路所使用的訓練數據集為同一個。
這兩個神經網路一個叫「生成網路」:它的任務就是試圖學習數據集中的統計模式,例如一組圖像或視頻,然後儘力合成最逼真的輸出,比如一張照片或手寫文字;另一個叫「判別網路」:它的任務是把這些輸出與來自原數據集的照片進行對比,來判斷哪些是真實的,哪些是假的。
判別模型的反饋使生成模型能夠製作出更逼真的例子.。根據判別的結果,生成網路會調整它合成圖片的參數,直到判別網路無法找出真假之間的區別。而且,由於 GAN 的設計目標就是戰勝人工智慧系統,到目前還不清楚是否有系統可以自動捕捉到它們。
GAN 問世相對較晚,但已經風靡了機器學習的場景。它可以創造出非常逼真的虛構名人,或者令人信服地偽造圖像,比如把皺眉變成微笑或把黑夜變成白天。
就拿去年一個廣為人知的例子來說,在那場實驗中,英偉達的研究人員使用明星照片對一個 GAN 系統進行了訓練,讓它學會了如何生成假明星照片。而雖然並不是每一張生成的照片都十分完美,但有些確實可以以假亂真。
此外,與其他機器學習手段所需要的數十萬張圖片來進行訓練不同的是,GAN 系統僅需數百張照片就足夠精通此道。而那些「深度偽造」視頻——即在視頻中將一個人的臉換到另一個人的身體上——已經在互聯網上有所傳播,有人已經用這項技術製作了大量假冒的名人色情視頻。
DARPA 的技術人員特別擔心的是,相對較新的 GAN 技術可能會使人工智慧的造假行為無法被自動發現。「理論上,如果你告訴新的 GAN 網路所有我們知道的檢測手段,它就能繞開所有這些手段,」負責該項目的 DARPA 項目經理 David Gunning 說。「我們不知道 GAN 是否有局限」。
而檢測這種數字化偽造通常包括三個方法。首先是檢查數字化文件是否有兩個圖像或視頻拼接在一起的痕迹。第二種方法是觀察圖像的光照和其他物理屬性。第三個是考慮邏輯上的不一致,比如某個特定日期的天氣錯誤,或者某個地點的背景不正確,這是最難自動完成的,也可能是最難擊敗的。
參與 DARPA 項目的聖母大學數字法醫專家 Walter Scheirer 說,(GAN)這項技術自幾年前啟動以來,已經取得了驚人的進展。「我們正處於一場特殊的軍備競賽中」,他說。
雖然技術嫻熟的圖形專家很久以前就可以製造出看上去令人信服的仿製品,但人工智慧將使造假變得更容易。「無論是大牌演員和好萊塢明星,或者 Reddit 上的某位網友,它都可以仿造」,達特茅斯學院專門研究數字取證的教授 Hany Farid 說。「當務之急是保護民眾。」
Deepfakes 使用了深度學習技術將一張新面孔融入到現有的視頻中。將大量數據輸入到一個很深的神經網路中,可以訓練神經網路執行各種有用的任務,例如精確的人臉識別。但同樣的方法也使得惡意視頻操作變得更加容易。一個線上的工具就可以讓一個略懂技術的人製造出新的造假視頻。這個工具的創建者表示,他們正在研究更能方便用戶使用的版本。
當然,這個問題遠遠超出了換臉的範圍。專家們越來越多地表示,不久之後就會很難知道一張照片、一段視頻或一段音頻是否是由計算機生成的。要知道,最近一次 AI 引起人們的恐慌,就是谷歌開發的語音 AI「Duplex」已經部分通過了圖靈測試,它在和人類打電話預約的時候,人類已經分不出它是人是機器,這也就意味著,它完全可以用於偽造通話。
密歇根大學社交媒體責任中心的首席技術專家 Aviv Ovadya 擔心,目前正在開發的人工智慧技術可能被用來損害某人的聲譽,影響選舉,甚至更糟。Ovadya 在彭博新聞社 5 月 15 日組織的一次活動中說:「這些技術可以用在娛樂方面,也可以用在很多非常可怕的方面。」他說:「在發展中國家,被修改過的圖片可以製造真正的暴力。這是一個現實存在的危險。」
如果技術不能有效捕捉造假和錯誤信息,那麼可能會有人推動使用法律來代替。事實上,馬來西亞今年 4 月出台了打擊假新聞的法律。然而,達特茅斯學院的 Farid 說,這本身就可能會有問題,因為事實本身是一個模糊的概念。
「你如何定義假新聞?」他說:「這並不像你想像的那麼容易。我可以通過裁剪從根本上改變一幅圖像。你拿 The Onion 網站怎麼辦?」
圖丨The Onion被視作虛假新聞的代名詞
但是,Deepfakes 的參與者不僅僅只有愛搞惡作劇的傢伙和仇視國家的視頻創作者。通過瀏覽 Facebook 和谷歌出版的 AI 研究,我們也可以發現,這兩家公司都對學習如何開發能夠處理、分析和修改人的照片和視頻的演算法進行了大量的投資和探索。如果 DARPA 想把這個潛在的數字威脅扼殺在萌芽階段,那麼他們或許應該了解一下這些科技巨頭們正在做什麼。
有些研究是相對有益的,其可以用於消除被更改的或虛假視頻的小故障,比如谷歌的 AI 項目旨在降低視頻噪音,使其更加逼真。但是有些研究則更令人不寒而慄,同樣是谷歌,其 AI 演算法可以通過分析其他照片生成一個人的模糊正面照。
AI 研究員經常會想「我們能將最酷的東西變為可能嗎?」,但他們很少考慮「我們應該這樣做嗎?」這種想法與 Facebook 的一個研究項目尤為相關,他們的一個項目找到了一種能讓用戶照片「活過來」的方法。其背後的研究員稱,公司在構建項目時並沒有考慮任何道德問題或其作品遭到濫用的潛在可能,他們只是想儘可能地製造出複雜的產品。
DARPA 要解決這個問題,就需要改變人們對開發技術的態度,同時也可能需要對掌握巨大資源、擁有熟練技術團隊的科技公司保持更密切的關注。在那之前,我們將能繼續看到越來越完善的 AI 生成的 deepfakes。
推薦閱讀:
※怎麼看待近期107篇中國學者涉嫌造假,論文被撤醜聞?
※怎麼看待神戶牛肉造假事件?
※【剖析】為什麼國內中華假煙猖獗而歐美卻較少?
※港版奶粉罐黑市走俏 業內稱疑地下工廠回收造假
※AR公司Magic Leap宣傳視頻造假,20多年來美國人的預期壽命首次下降 | 風雲時評