[探科技]進擊的人工智慧
從第一台計算機問世以來,人類就夢想著有一天可以造出一種可以完美模擬甚至超越人腦思維的智能系統。然而在這之後不斷探索和發展的幾十年里,這一想法也逐漸遭到了許多人關於人工智慧統治世界,毀滅人類的擔憂和質疑,一時間讓人們唏噓不已。人工智慧究竟應該何去何從呢?
一,人工智慧與自然倫理
2013年上映的法國科幻電影《她》講述了傑昆·菲尼克斯飾演的主人公與類似智能個人助理Siri的操作系統相戀的故事。當作為觀眾的我們在驚訝這一情節時或許不會想到,這一情節在不遠的將來或許真的會實現,甚至大眾化直至變成常態。因為人工智慧技術的進步將令機器甚至程序顯得更為逼真足以支持其與人類相戀的所有想法和行動。就算人類始終通過技術加以控制,但機器一旦有了思想,會不會自身演化出情感程序呢?至今沒有人可以對這個問題做出準確的回答,況且最終智能機器人將與人類沒有任何差別,除了它們缺少某些不良習慣、顯得不夠「完美」外。與真人相比,人類行為上更有可能選擇與機器人做伴,而且從心理學角度來看,人類自己是無法抗拒和控制這些情感的,因此如果我們無法區分機器與人類,就不會對自己的任何選擇而感受到倫理和道德的譴責。
除了情感之外,人工智慧與人涉及的自然倫理更多的則是由此而帶來的關於人機資源競爭分配的問題和機器作為個體存在自由的問題等關乎人類繁衍和社會穩定的諸多挑戰。機器和人一樣有自己生存的需求,這是所有意識形態高於物質形態的必然統一性,而人類作為智能機器的締造者從某種意義上來講有義務且必須尊重他們的這些基本需求,提供並分享所有意識生命生存的必需資源。但在資源有限的前提下這樣做對於我們自身無疑是愚蠢的。種種因素終將讓我們在自然倫理面前面臨著一次艱難的抉擇,而這個抉擇也正是考驗我們作為自然智能對自然精神和自然倫理以及對意識生命的真正理解和感悟。「個性化」的人工智慧不可能是工具更不可能是奴隸!這種符合人類倫理觀的命題自然會成為人類社會論調,成為人類政府和社會都無法迴避的抉擇!
二,人工智慧與人類社會
技術是社會的第一生產力,人工智慧的技術遲早要應用到技術,而這引發的社會變化也一直被人們所擔憂。如何處理以人類為代表的"碳文明"與人工智慧為代表的"硅文明"共存共生的社會的關係呢?這或許值得我們仔細考慮一下!
1950年末《我,機器人》在格諾姆出版社出版。阿西莫夫在為這本書新寫《引言》時用的小標題是《機器人學的三大法則》,把"機器人學三大法則"放在了最突出、最醒目的地位。內容如下:
第一法則:機器人不得傷害人類,或坐視人類受到傷害;
第二法則:除非違背第一法則,機器人必須服從人類的命令;
第三法則在不違背第一及第二法則下,機器人必須保護自己。
實際上從1941年的短篇科幻小說《推理》開始,阿西莫夫就開始在這"三大法則"的框架下創作了一系列在機器人有可能違背法則的前提下逐漸展開的故事。這些短篇故事極具邏輯性,情節緊湊,扣人心弦。而三大法則之間互相約束,堪稱完美的處理人與智能之間的關係準則也為後世旨在研究人類和機械之間關係的新興學科"機械倫理學"的研究有很大的指導意義。阿西莫夫之後,人們不斷提出對機器人三原則的補充、修正。這些補充的確有其發生的理由,但大多數存在的一個問題是補充其本身的必要性和必然性必會使它們不斷陷入三原則的怪圈。這裡只以羅傑·克拉克為例,他構思的機器人原則是:
元原則:機器人不得實施行為,除非該行為符合機器人原則。
第零原則:機器人不得傷害人類整體,或者因不作為致使人類整體受到傷害。
第一原則:除非違反高階原則,機器人不得傷害人類個體,或者因不作為致使人類個體受到傷害。
第二原則:機器人必須服從人類的命令,除非該命令與高階原則抵觸。
機器人必須服從上級機器人的命令,除非該命令與高階原則抵觸。
第三原則:如不與高階原則抵觸,機器人必須保護上級機器人和自己之存在。
第四原則:除非違反高階原則,機器人必須執行內置程序賦予的職能。
繁殖原則:機器人不得參與機器人的設計和製造,除非新機器人的行為符合機器人原則。
這是目前較為認可的定律之一,它在「機器人學的三大法則」的基礎上作了較為完備的補充,特別是第零原則和繁殖原則的增加更是在某種程度上伸張了人工智慧存在的權利。體現了強烈的人性關懷。羅傑·克拉克把最後一個原則命名為"繁殖原則",而沒有稱為"第五原則",是有道理的,就其內容看,我們的確很難確定這一個原則到底應該放到什麼位置上。他把機器人按履行內置職能放在執行人類命令之後,認為服從人類命令優先於執行本職工作,總體上也無問題。但把機器人保護自身存在置於執行本職工作之前,頗有值得商榷之處。此外,這些原則除調整人與機器的關係之外,還涉及機器之間的部分關係,這是超出原有三原則的內容。
值得感嘆的是在阿西莫夫提出"機器人三大法則"時世界上還沒有機器人,當然也沒有人曾考慮人工智慧與人類社會的問題。然而隨著智能技術的不斷進步,隨著機器人的用途日益廣泛,阿西莫夫的"機器人三大法則"越來越顯示智者的光輝,以至有人稱之為"機器人的金科玉律"。雖然截至目前,這些定律在現實機器人中並沒有太多應用,但很多人工智慧和機器人領域的技術專家都認同這些準則,我們相信隨著技術的發展,這些定律可能成為未來機器人的安全準則。甚至將是構建未來人工智慧與人類社會的核心支柱。
上述的這些問題將會把我們的文明引向何處或許是一個只有時間可以證實的問題······
附件:人工智慧與人的智力對抗
1.深藍——蠻算的「硬漢」
1997年,美國IBM公司的「深藍」超級計算機以2勝1負3平戰勝了當時世界排名第一的國際象棋大師卡斯帕羅夫。「深藍」的運算能力當時在全球超級計算機中居第259位,每秒可運算2億步。
在今天看來,「深藍」還算不上足夠智能,主要依靠強大的計算能力窮舉所有路數來選擇最佳策略:「深藍」靠硬算可以預判12步,卡斯帕羅夫可以預判10步,兩者高下立現。
比賽中,第二局的完敗讓卡斯帕羅夫深受打擊,他的鬥志和體力在隨後3局被拖垮,在決勝局中僅19步就宣布放棄。IBM拒絕了卡斯帕羅夫的再戰請求,拆卸了「深藍」。卡斯帕羅夫雖然後來多次挑戰電腦戰平,卻無法找「深藍」「復仇」,留下永久的遺憾。
德國人工智慧研究中心負責人登格爾在接受新華社記者採訪時說,「深藍」是人工智慧發展史上一個里程碑,但用卡斯帕羅夫的話說,它不會因為取得勝利而「感到喜悅」。
2.浪潮天梭——以一敵五的「鐵人」
2006年,「浪潮杯」首屆中國象棋人機大戰中,5位中國象棋特級大師最終敗在超級計算機浪潮天梭手下。中國人發明的這項充滿東方智慧的模擬戰爭遊戲,被中國超級計算機獨佔鰲頭。
值得一提的是,浪潮天梭在比賽中,同時迎戰柳大華、張強、汪洋、徐天紅、朴風波5位大師。在2局制的博弈中,浪潮天梭以平均每步棋27秒的速度,每步66萬億次的棋位分析與檢索能力,最終以11:9的總比分險勝。
比賽異常激烈。柳大華在兩局之間中場休息時,直言「艱苦卓絕」。在這場高強度的消耗戰中,電腦最終取勝的關鍵,被認為是其不知疲倦的穩定性。
張強也坦承:「輸的原因主要在體力的過度消耗。以往和人比賽,到了最後時刻就是意志和心態的對決了,看誰能堅持到最後,誰能不犯錯誤。但是計算機沒有這樣的問題。」
從那場比賽開始,象棋軟體蓬勃發展,人類棋手逐漸難以與之抗衡。
3.沃森——察言觀色的全才「學霸」
2011年,「深藍」的同門師弟「沃森」在美國老牌智力問答節目《危險邊緣》中挑戰兩位人類冠軍。《危險邊緣》以答案的形式給出線索,如「小時候砍了櫻桃樹」,選手需要以問題作答,如「是喬治·華盛頓嗎」。
參賽者需要大量歷史、文學、政治、科學及流行文化知識,還需要解析隱晦含義和謎語等。雖然比賽時不能接入互聯網搜索,但「沃森」存儲了2億頁的數據,包括各種百科全書、詞典、新聞、甚至維基百科的全部內容。
「沃森」可以在3秒內檢索數百萬條信息並以人類語言輸出答案,還能分析題目線索中的微妙含義、諷刺口吻及謎語等。「沃森」還能根據比賽獎金的數額、自己比對手落後或領先的情況、自己擅長的題目領域來選擇是否要搶答某一個問題。
「沃森」最終輕鬆戰勝兩位人類冠軍,展示出的自然語言理解能力一直是人工智慧界的重點課題。IBM中國研究院院長沈曉衛介紹說,隨著大數據時代的來臨,今天的「沃森」正在主力向醫療衛生業進軍,通過對患者的個性化數據、大量病例和醫療文獻的「學習」,提供最佳診療方案。
4.阿爾法圍棋——有棋風的「深度思考者」
圍棋一直被看做是人類最後的智力競技高地。據估算,圍棋的可能下法數量超越了可觀測宇宙範圍內的原子總數,顯然「深藍」式的硬算在圍棋上行不通。
2016年1月,美國谷歌公司旗下的人工智慧公司「深度思維」在《自然》雜誌上報告說,該公司研發的「阿爾法圍棋」人工智慧程序去年10月以5:0戰勝歐洲圍棋冠軍樊麾,這是人工智慧程序首次在不讓子的情況下戰勝人類圍棋選手。
「阿爾法圍棋」的核心系統屬於時下最火的基於神經網路的深度學習:模擬人腦神經網路,通過大量數據分析學習了3000萬步的職業棋手棋譜,再通過增強學習的方法自我博弈,尋找比基礎棋譜更多的打點來擊敗人類。「阿爾法圍棋」通過策略網路和價值網路來決定棋路,不去計算每一步的可能性,頗有人類棋手「我感覺這樣會贏」的味道。
樊麾對新華社記者說:「如果沒有人告訴我,我一定不知道它是電腦,它太像人了。它一定是在思考。按照人的說法,它應該有棋風吧。」
而與「阿爾法圍棋」對戰的韓國棋手李世石對記者表示,「阿爾法圍棋」實力難與自己相爭,自己將以4:1或者5:0取勝,如不出現失誤,將100%獲勝。
推薦閱讀:
※兔叨叨——專為兒童設計的人工智慧機器人,陪孩子聊天、伴孩子成長
※醫療手術機器人圖譜
※機器人格鬥運動簡史(一):「史前時代」
※數字化平台、增強現實是今年工博會的主題