愛恨交織 人工智慧「雙刃劍出鞘」
人工智慧(AI)真棒!你看,AI 的翻譯完美無暇;你跟手機對瞅一下就解鎖了,當然就別提阿爾法狗大戰世界圍棋大師的故事了。機器人當伺應生的餐館已經在某地開業,無人駕駛快遞飛機已經上崗。這種事將越來越多。
人工智慧真可怕!你看,那個影星怎麼去拍色情視頻了?你在網上說了句話突然遭圍攻,你確定那些來勢洶洶的不是機器人、機器手?那架萌萌的無人飛機,帶著攝像頭,還裝了什麼?誰在控制它?年邁父母家裡那個打掃衛生的機器人,怎麼語音合成出一堆粗口謾罵的言詞?如果黑客侵入了心臟手術機器人的操作系統呢?
這種事估計也會增多,如果英國劍橋大學生存風險研究中心(CSER)新公布的一份報告里那些令人毛骨悚然的可能性變成現實的話。
這份題為《邪惡的AI》(全名《對人工智慧的惡意使用》,The Malicious Use of Artificial Intelligence)闡述人工智慧這一項利器加入落在歹毒之手,可能被用來造什麼孽,做多少惡。
有人覺得人工智慧比核武器更危險,今天看似可愛、無辜、有用的AI,很可能不久就會變成無法駕馭的大怪物。
最為驚悚的是 AI 強化學習領域,就是讓人工智慧通過強化學習,在沒有人類範本或引導的情況下具備超人類的智能。
有些問題其實已經發生,比如用機器學習軟體篡改色情視頻人物頭像,用語音合成軟體製作假新聞節目。
報告認為,對於AI的潛在威脅,人類再也不能視而不見。危險迫在眉睫。政府、科研和產業界面對「邪惡AI」,必須聯手協同作戰。
鑒於其雙刃劍特性,AI系統設計者應該更多著力於如何防範濫用、誤用和惡意使用,以及如何化解這種情況可能帶來的危害。
政府和立法機構也必須拿出新的法律,制定新的法律框架來規範人工智慧領域的發展。
網媒《連線》(Wired) 作者湯姆·西蒙奈特(Tom Simonite)建議,AI 和機器學習研發人員在發布新成果前多權衡利弊,三四而後行。他寫道,這跟AI領域近年來的開放精神有點出入,但做這個讓步是值得的。
需要共識
AI 儼然已經融入當下人類社會和生活,而且正在以幾何級增長的速度擴展自己的存在,但圍繞人工智慧的爭議非但不見減少,反而日漸高漲。
三、五年前,人們更多談論的是機器人能為人類分擔哪些勞作,而隨著人工智慧越來越"聰明能幹",人類似乎越來越焦慮不安,"威脅"、"危險"之類字眼更頻繁地與AI聯繫在一起。
如果說在不久的將來人類或淪為機器人的奴役,或被毀滅,那是誇張、科幻。但是,科學界已經就人工智慧對人類社會可能構成的威脅形成了一定共識。
英國劍橋大學 CSER 中心最新發布警告,說人工智慧恰似一把利劍,落入壞人手中後果不堪,比如無人飛機變成了導彈、運用假視頻操縱輿論、黑客攻擊自動化,等等。
CSER最新發布的《邪惡AI》 報告的內容來自一年前在牛津舉辦的一次研討會。來自學術、社團和業界的14個機構的26名專業人士參加了研討,涉及數碼、實體和政治這三個AI最可能被惡意使用的領域。
CSER中心本身可以說是人類中較早意識到AI潛在威脅的人做出的應對努力。中心於2012年成立,任務是針對可能導致人類滅絕的四大"惡魔"研究對策,確保人類不毀於自己製造的惡魔手中。
四大"惡魔":人工智慧(AI)、氣候變化、核戰爭、邪惡生物技術(rogue biotechnology)。
這個機構也被戲稱為"終結者研究中心"。
CSER的沙哈·埃文(Shahar Avin)強調,報告討論的風險僅限於已有的和五年內可能出現的AI技術產品,不包括對未來的展望。
雙刃劍
CSER執行總監 Seán ó héigeartaigh博士指出,AI 將改變一切;《對人工智慧的惡意使用》這份報告可以說是對今後5-10年的展望。
那麼,在可以預見的將來,落入邪惡之手的AI可能帶來怎樣的災難呢?《邪惡AI》歸納了一部分:
- 比如,谷歌開發的AI"阿爾法狗"(AlphaGo),就是戰勝國際圍棋大師李世石(Lee Se-dol)的那個,在黑客手裡就可以被用來歸納數據規律,搜索編碼中易於攻破的薄弱環節;
- 歹毒之人或有邪惡目的人可以買無人駕駛飛行器,用人臉識別軟體訓練它,使它能夠自行搜索、攻擊具體目標;
- 可以讓機器人自動化操作,製作和發布假視頻來操縱輿論以達到某種政治目的;
- 黑客可以用語音合成技術來假冒襲擊目標,騙取關鍵信息
末日警告
不斷發出AI威脅警告的知名人士包括英國科學家斯蒂芬·霍金(Stephen Hawking)。他認為AI會是"人類歷史上最重大的事件,不幸的是,也可能會是最後的重大事件"。
埃隆·馬斯克(Elon Musk)讓特斯拉自駕車上路、重型獵鷹可回收火箭上天,卻警告說人類可能毀於人工智慧。馬斯克曾說,AI 之險尤甚於核武。
他們的擔心主要有兩點:一是具備人類決策能力的機器人沒有人類道德約束,將來是否能夠具備也是個疑問;二是人類創造了AI,AI又能創造更高級的超級智能,人類還沒來得及設置防範措施,就可能面臨機器失控的局面。
AI在軍事上的利用是最令人恐懼的情況之一。如果把 AI 的衝擊力跟核彈相提並論,那麼人類對核武的規範、控制或許可以為 AI 提供參照。
法律專家指出,人工智慧軍備競賽已經開始;如果核武競賽有值得借鑒之處,那就是在允許AI機器人上戰場前,必須有某種公約加以約束。
人類2.0版
《人民平台》(The Peoples Platform)一書作者阿斯特拉·泰勒(Astra Taylor)認為,人工智慧對人類社會的影響主要在兩個方面,一個是數據的寡頭壟斷,一個是重新定義人類和人工智慧的關係,屬於哲學層面的衝擊。
人工智慧的進步會加速中心化的趨勢,未來很可能會出現少數幾個龐大的、多功能的、基於雲計算的商業智能寡頭。他們實際上壟斷了數據的收集和構建方式,以海量的信息構建一個框架,引領和影響眾人的決策。這種力量如果不加規範,沒有任何約束,後果堪虞,有史為鑒。
在哲學層面,人工智慧將重新定義人類和機器的關係,尤其是雙方的主從關係和力量對比。簡而言之,一直以來都是
埃隆·馬斯克(Elon Musk)一直在警告人類對機器人切毋掉以輕心,以免淪為機器的奴役或滅絕。
他最經常跟PayPal、特斯拉電動車、重型獵鷹可回收火箭和火星移民計劃聯繫在一起。但較少人知道,他已經開始一項更令常人感到不可思議的事:用人工智慧來「製造」增強版人類。
具體操作的是一家總部在舊金山的神經科技公司,Neuralink。這是馬斯克在2016年與其他八人共同創辦,2017年3月被媒體首次曝光。
2017年,馬斯克對媒體說,短期內,Neuralink 主要研發治療嚴重腦部疾病的儀器,但長遠目標是強化人類(human enhancement)。有報道稱這個公司在研製可以植入人腦的「腦機界面」(brain-computer interfaces, BCIs),人腦和電腦的零接觸交流互動。
嗯,就是說,一個智力平平的普通人,植入一個晶元,然後就瞬間成了功夫大師,輕鬆擊敗歹徒,好像科幻電影里那樣?現在,對此表示「並非沒有可能」的人是越來越多了。
貧富分化
創新工場創辦人李開復2017年曾在《紐約時報》撰文談 AI 的衝擊。他認為,AI 對人類社會的真正威脅並不在於技術層面,因為它們跟人類並不存在智力競爭,只是工具。
AI對人類社會真正的威脅,在他看來,是對工作的含義、財富的創造和分配方式的打碎、重塑,由此"引發前所未有的經濟不平等,甚至改變全球力量均勢。"
這些他認為迫在眉睫的挑戰,包括大量工作被機器人取代,從製造業到服務業,各層面都可能有大量工作崗位消失。掌握AI技術的企業在這個過程中掙得缽滿盆滿。大規模失業的同時,財富迅速並大量集中到少數人手裡。
這些社會、民生和政治問題,必須在政策和立法層面給與及時、妥貼的應對。
REF
果英國劍橋大學生存風險研究中心(CSER)
《邪惡的AI》(全名《對人工智慧的惡意使用》,The Malicious Use of Artificial Intelligence)
BBC
推薦閱讀:
※馬斯克如何做到閱讀量是你的60倍?
※移動互聯網時代,如何塑造品牌?
※中興之殤,乃創新之痛,核心技術是硬菜
※cctv4今日關注該如何創新?
※創新的準備工作