標籤:

人工智慧:夠聰明之前,還需善約束

陳 根

「自然選擇,優勝劣汰。」在過去N萬年中,所有的生物體無不依此規律進化升級,包括我們這些擁有最高智商的人類,也是通過此優勝劣汰,逐步站到了萬物金字塔的頂端,更甚至於地球的主宰。但就在今天,我們已然發現自然選擇可能隨時會被取代,尤其伴隨著人工智慧——非有機生物體——的出現。

人工智慧,由我們親手做出的跳脫天然範疇的人工設計,堪稱為人類實現自我突破與變革的一場「逆天革命」與「瘋狂冒險」。面對人工智慧,與其說我們是對自身的未來抱有多美好的憧憬,倒不如說對未來滿懷「恐懼著的希望」,人工智慧碾壓一切的進步性與潛在的失控風險始終拉扯著我們的終極神經。

如何制衡人工智慧這把「雙刃利劍」,已然成為智慧產業前行的重要課題。何以在人工智慧「夠聰明」之前,為它們樹立並能夠實際遵循的行為準則,以此構建較完善的監管體系或者說是「道德束縛」?

智慧進化 箭在弦上

曾幾何時,人工智慧還只是計算機科學的一個分支,出於對人類意識、思維的信息模擬。自1956年達特茂斯會議誕生「人工智慧」一詞以來, 短短60年,商業動機已經讓與工業力量相關的人工智慧無處不在,互聯網、金融、醫療、教育、物流、娛樂、傳媒等行業都在加速自己智能化的進程。市場研究公司IDC預測,到2020年,AI的市場規模將從今年的80億美元增長到470億美元,而對話機器人、智能語音、人工智慧醫療等則成了人工智慧這一熱點中的熱點。

互聯網及物聯網技術的不斷進步、大數據在數量與內容上的持續性幾何增長與應用,讓人工智慧得以不斷「深度學習和演化」,在具備學習能力的機器眼中,一切「人、事、物」皆可以被數據化,而演算法基於這些數據便可以建立「人、事、物」之間錯綜複雜的關聯關係。當演算法可以充分捕獲描述人事物的關鍵數據後,機器便可以複製甚至超越人類的學習能力。

2016年3月15日,谷歌阿爾法圍棋(AlphaGo)與李世石的五局人機大戰在首爾四季酒店戰罷,人類代表韓國棋手李世石九段執黑不敵AlphaGo,代表人類大腦最複雜領域的圍棋被機器攻略,進一步論證了人工智慧在模擬人腦、基因演化和自我進化的過程中已深度「進階」。人工智慧正在由「弱人工智慧」向「超級人工智慧」高速進化。

人與機器 「相愛相殺」

工業革命將人類從「體力勞動」中解放,當科技的發展進入人工智慧領域,人們不可避免的期待著它來解放我們的「腦力勞動」。當前社會,人工智慧的發展已經在改變很多人的生活方式,在醫藥領域,人工智慧做到了對病毒爆發地的提前模擬,從而提前防控疫情;在教育領域,人工智慧代替人們做到了一對一家教般的精準體貼;在旅遊領域,人工智慧可以實時完成快速調取當前場景信息並實時講解與翻譯……

但是,人類似乎一直糾結於一種矛盾的存在,始終生活在悖論里。我們一邊以科技的進步標榜自己的成就,一邊又焦慮並懼怕著被科技產物所取代甚至毀滅。這種巨大的恐懼和擔憂,在文藝工作者的作品中體現得尤其明顯:電影《終結者》邪惡機器人天網,企圖審判並滅絕人類;《黑客帝國》中機器人要完全控制並奴役人類;《銀翼殺手》里人工智慧複製人與人類對抗……雖然我們還不至於親眼目睹、親身經歷電影橋段中可能出現的危機,但是接下來我們確實很可能會產生一個群體——無用的人群。因為以往人類社會的幾次技術革命在導致失業的同時,也創造了大量新型工作。而人工智慧技術的發展,在替代人類勞動的同時,對創造新工種可能貢獻有限,這將在一定程度上對就業產生負面影響。

充分吸收了人類幾十萬年以來的思維進化成果,並在記憶、計算、邏輯推理上佔據絕對優勢的人工智慧,單從硬體上來看,很可能讓人類大腦望塵莫及。大腦的內部信息傳播速度是每秒120米,相較於電腦的光速已經沒有比較的意義。而且,人工智慧還可以隨意運用更多的硬體以獲得更大的內存,不但容量大而且更精準。甚至,我們覺得困難的事情,對於人工智慧來說未必有多大的難度係數,而這無疑將導致不少工種的在崗人員被替代。與此同時,不少人們圍繞人工智慧可能產生的社會倫理、道德、戰爭等都表現出了深深的擔憂。在尋求矛盾告解之法的旅程中,人工智慧發展將持久地伴隨著人類的自我博弈過程;但不管社會發展最終走向何方,未來人類自身的存在方式甚至人體構成模式都會朝著更加註重高效、實用與低耗、持久的方向演化。

人力智能的「洪荒之力」亟待約束

人工智慧領域的研究和應用在很多方面都取得急速進步,但與之相對應的規範化約束方案卻嚴重滯緩。人工智慧與核武器、生化技術、基因技術等其他影響巨大的技術一樣,潛在的威脅和其潛在的利益是成正比的,想要妥善利用這股洪荒之力,在它們「夠聰明」之前,為其樹立一套可靠的行為準則是十分必要的。我們要的不僅僅是嫻熟的技術以引燃智能爆炸,還需要在更高水平上掌握控制權,以免我們在智能爆炸中「身首異處」。

就如科幻小說作家艾薩克?阿西莫夫在他的短篇小說《環舞》中提出的「機器人三大法則」,可以說是一種保護性設計和內置的道德原則。原則一:機器人不可以傷害人類,或看到一個人將受到傷害而不作為;原則二:機器人必須服從人類的命令,除非這些命令與第一項法則矛盾;原則三:在不違反第一、第二項法則的前提下,機器人必須保護自身生存。時至今日,這對現實中的人工智慧發展同樣具備指導意義。

目前,全球最大的5家科技公司谷歌母公司Alphabet、亞馬遜、Facebook、IBM和微軟都在率先嘗試製定關於人工智慧機器人的道德標準,並規劃成立人工智慧行業組織。雖然尚不清楚,這一行業組織最終會取得什麼樣的成果。但其基本出發點很明確:確保人工智慧的研究專註於造福人類,而非不利於人類。

此外,開發人工智慧已經是全球性的競爭,這樣的競賽機制也許會讓某些害怕落後的團隊通過增加冒險行為的方式趕上競爭者,非良性的循環會讓這一風險直達最高水平。因此,除了圍繞人工智慧研究制定規則,行業內也須制定自我約束框架。而在這一過程中,政府有效並適時的參與到為人工智慧規劃目標、價值觀和道德規範的過程中來,也將是一種必然行為,因為人工智慧已經將技術發展和社會經濟政策更緊密地聯繫在一起。
推薦閱讀:

除了換床單,人工智慧將如何改變酒店業?
全球最聰明的大腦怎麼看AI?他們預測了這13大發展趨勢
裝上AI大腦的無人機要當以機制機,還得在這三方面下功夫
陽獅媒體集團蒞臨科大訊飛參觀訪問 開拓布局智能營銷生態
雜談人工智慧

TAG:人工智慧 |