【重磅】吳漢東:人工智慧時代的制度安排與法律規制 丨 中法評

吳漢東

中南財經政法大學文瀾資深教授

中南財經政法大學知識產權研究中心主任

對於人工智慧引發的現代性的負面影響,有必要採取風險措施,即預防性行為和因應性制度。面向未來時代的調整規範構成,應以人工智慧的發展與規製為主題,形成制度性、法治化的社會治理體系,包括以安全為核心的法律價值目標、以倫理為先導的社會規範調控體系和以技術、法律為主導的風險控制機制。借鑒國外經驗,立足本土需要,當前應儘快出台 「國家發展戰略」,及時制定「機器人倫理章程」,適時進行機器人專門立法。

目次

導言

一、智能革命圖景:「最後的發明」抑或最大的風險

二、人工智慧技術在挑戰我們的法律

三、面向未來時代的制度構成:法律、政策與倫理

結語

本文原題為《人工智慧時代的制度安排與法律規制》,文章首發於《法律科學》2017年第5期,為閱讀方便,略去腳註,如需引用,請參閱原文,敬請關注!

導言

在人工智慧技術日新月異的時代變革中,人類/機器人關係所引發的各種法律、政策和倫理問題緊迫地擺在我們的面前。如何調整「促進」與「規制」人工智慧發展的法律價值目標?如何應對人工智慧技術帶來的社會風險?如何設計人工智慧時代的調控規範體系?這些問題不僅涉及對傳統法律制度的深刻反思,更是以「未來法學」問題為主旨的有益探索。

智能革命圖景:

「最後的發明」抑或最大的風險

進入新世紀以來,人類社會的文明演化呈現出加速發展的態勢。21世紀的最初十年,以互聯網的普及使用為紐帶,社會結構得以重新組織,人類社會與物理社會廣泛連接,自此開啟了與以往有別的網路社會時代;時至2010年左右,基於廣泛分布的感測技術、大規模數據存儲和通信技術的應用,數據規模呈現指數型上升,地球村由此步入大數據時代;進入新世紀第二個十年的下半段,伴隨著數據處理能力的飛速提高,人工智慧對社會開始深度介入,世界正在走向人工智慧時代。

整體而論,「人類在進入到21世紀的三個關鍵時間點,相繼出現了三個互相聯繫又略有區別的新時代,即網路社會時代、大數據時代、人工智慧時代,三者共同構成了新的社會時代。」

智能時代是以人工智慧(Artificial Intelligence,簡稱AI)來命名的,作為研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學,旨在了解智能的實質,並生產出一種新的能以人類智能相似方式做出反應的智能機器,其研究領域包括機器人、語音識別、圖像識別、自然語言處理和專家系統等。這一技術科學將改變甚至顛覆人類現存生產工作和交往方式,由此出現一個以新的技術結構支撐新的社會結構的人類新時代。

「這是最好的時代,也是最壞的時代」,英國文學巨匠狄更斯在其名著《雙城記》中的開篇話語,一百多年來不斷地被人引用。在這裡,我們再次以此來描繪人工智慧時代的未來圖景。一方面,智能革命無疑將給我們帶來一個更美好的社會,它是智能的、精細化和人性化的「最好時代」。

在雲計算、大數據、深度學習演算法、人腦晶元的催化下,人工智慧模擬和表現了人類的智慧動力,並以高於人類的工作速度、優於人類的工作精度、勝於人類的工作態度,協助人類解決各種各樣的問題,包括危險場合和極端環境的難題,從而形成人類智慧的創造力優勢與人工智慧的操作性優勢之間的強強合作。人工智慧現已成為全球新一輪科技革命和產業變革的著力點,在人類智慧能力無窮增大的「科學夢」背後,是一片蘊藏無限生機的產業「新藍海」。

社會正在從「互聯網+」向「人工智慧+」轉型,舊領域生髮出新的產業形態,多領域催生了新興的細分行業,由此創造出巨大的經濟價值和社會財富。在谷歌、臉譜、IBM等領軍企業的帶領下,全球對人工智慧的關注度不斷提升。截至2015年,人工智慧國際市場的規模為1683億元,預計到2018年將增至2697億元,增長率達到17%。在投資規模方面,2015年為484億元,預計到2020年,投資總量將達到1190億元。

可以認為,人工智慧將從專業性較強的領域逐步拓展到社會生活的各個方面,人類未來會在「萬物皆互聯、無處不計算」的環境下精準生活。但另一方面,智能革命也將給我們帶來諸多麻煩,也許我們面臨著一個社會問題叢生和安全隱患不斷的「最壞時代」。

到目前為止,人工智慧已在全球範圍內逐步建立起自己的生態格局,並開始深度介入人類的社會生活。2016年,距離麥卡錫、明斯基、香農等人提出人工智慧的概念正好過去60年。在過去的一年,人們看到了許多存在於科幻小說的內容成為現實:人工智慧擊敗了人類頂尖棋手,自動駕駛汽車技術日趨成熟,生產線上活躍著「機器人」群體…… 「智能時代,未來已來」。人們在為人工智慧的強大能力感到驚嘆的同時,也激發了對人工智慧安全問題的普遍憂慮,人工智慧是否成為人類「最後的發明」?我們應該如何看待人工智慧的潛在風險?

人工智慧對人類社會的潛在風險,聚焦於威脅人類自身安全的可能性,涉及人類基本權益的生命與健康、尊嚴與隱私、安全與自由。科學家認為,人工智慧存在著威脅人類存續的可能性,但這種風險不是由於自發的惡意所引起,而應來自人工智慧發展過程中出現的不可預測性和潛在的不可逆性。

質言之,人類有智慧能力創造出人工智慧,也應有能力和理智來控制人工智慧。因此,「最好是期待人類的聰明才智,而非低估它;最好是承認風險的存在,而非否認它。」我們應當思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰面前,增強風險認識能力,提高制度風險意識,通過法律和其他社會規範來預防規避風險,引導規範人工智慧技術健康發展,這即是法學家、法律家的任務。

人工智慧的首要問題是安全問題,可以置於風險社會理論的研究範疇之中。德國學者貝克認為,人類面臨著威脅其生存的由社會所製造的風險。現代化正在成為它自身的主題和問題,因此變得具有反思性。風險概念表明人們創造了一種文明,以便使自己的決定將會造成的不可預見的後果具備可預見性,從而控制不可控制的事情。

在風險理論中,人工智慧存在著現代性的負面影響,因此有必要採取風險措施,即預防性行為和因應性的制度。對風險社會問題的法學研究,其重點是法律制度與法律秩序。「法律制度的價值和意義就在於規範和追尋技術上的可以管理的哪怕是可能性很小或影響範圍很小的風險和災難的每一個細節。」而法律秩序則是法律制度實行和實現的效果,即社會生活基本方面的法律和制度化。現代社會是法治社會,制度風險及風險法律控制是風險社會法學研究理論的基本內涵。

人工智慧既是人類文明,亦有社會風險。它或是「技術—經濟」決策導致的風險,也可能是法律所保護的科技文明本身所帶來的風險。換言之,知識問題是現代性風險的根本成因,制度以至法律選擇的實質應是基於風險的決策。正是在這個意義上,貝克提出知識經濟就是「風險經濟」,「風險就是知識中的風險」。具體說來,人工智慧時代的社會風險具有以下特點:

一是風險的共生性。風險社會的內在風險,基於技術性風險和制度化風險而形成,且存在共生狀態。人工智慧時代是一個高度技術化的社會,科學技術的高度發展既是風險社會的特徵,也是風險社會的成因。現代社會中的風險是「被製造出來的風險」,是由我們不斷發展的知識對這個世界的影響所產生的風險。

馬克斯·韋伯形象地指出,人類在不久的將來註定會生活在「技術知識的囚室」。人工智慧是知識革命中最具代表性和影響力的時代技術。「對知識體系和技術性知識的信任,是人們在風險社會中獲得和持有本體性安全的基礎和保證。」從「反思的現代性出發,對法律及其保護的先進技術僅為信任是不夠的,人工智慧在其發展過程中出現的不可預測性和潛在的不可逆性」,其本身就是一種風險。

同時,人工智慧時代的風險含義,還依賴於這樣的一個事實,即文明的決策可能觸發全球化進程中的一系列問題和一連串的風險,直言之,「風險以決策為先決條件」。制度風險可能來自我們的工業制度、科技政策乃至法律規則,或是表現為對新技術無措的「制度缺失」,或是表現為對新技術錯判的「制度失敗」。這些即是規則運轉失靈的風險,其結果形成制度化風險。

二是風險的時代性。在風險社會理論中,風險社會這一概念並不是社會發展類型的某一歷史分期,也不是某個具體社會和國家的現實發展階段,而是對當今人類時代問題的理論概括與形象描述。智能革命是時代的產物,其特點是人類智力與人工智力的結合,智能技術導致智力物質化、社會智能化,最終出現智能社會。

智能社會的形成將是一個長期的過程,或者說是一個時代變遷。以人類思維能力和意識的遷移為表徵,以智能機器人的活動為中心,人工智慧的發展將會遞進呈現出不同階段。如何應對智能時代中現實世界與理念世界的分離,如何防範病毒、黑客對人工智慧產品的侵蝕,這種高科技所引發的高風險會持續整個智能革命的時代過程,它是現實的風險,也是未來潛在的風險。

三是風險的全球性。經濟全球化、科技全球化、信息全球化乃至治理機制的全球化,不可避免地帶來風險的全球性。反全球化主義者認為,全球化正在催生另一種形態的帝國體制:互聯網是「信息帝國主義」,世界貿易組織是「市場帝國主義」,國際貨幣基金組織是「金融帝國主義」,而聯合國是「政治外交的帝國主義」。貝克對此作出了自己的判斷:全世界面臨著社會認同解體、價值利益衝突、主體組織對立、國家立場對峙、生態環境破壞等不確定因素,這些危機與發展遍布全球,形成對人類生存的新威脅。

可以認為,風險社會是一種「全球風險社會」,風險的空間影響超越了地理邊界和社會文化的邊界。正如吉登斯所言,「在全球化的時代里,風險的影響被普遍化了。」在人工智慧風險的國際應對方面,2016年聯合國發布《人工智慧政策報告》,表達了對人工智慧的關注,並針對人工智慧技術發展帶來的各種問題,提出了新的思考方式和解決途徑。報告呼籲世界各國加強在人工智慧技術研究與開發領域的合作,共同應對智能機器人在就業、倫理道德以及法律層面帶來的挑戰。

科學技術在人類的文明進步中總是扮演著最活躍、最革命的角色。面對智能革命,我們不能逃避它、否定它和阻止它。上述判斷依賴於以下兩點事實:

第一,人工智慧技術在造福人類的同時也加大了人類危害自身的可能性,這即是技術的負面性與風險的不確定性的聯繫。

第二,傳統社會治理體系無力解決工業社會過度發展而產生的社會問題,這即是法律的確定性與風險的不確定性的背離。對於現代各國而言,人工智慧發展的政策考量,其實是基於風險的制度選擇和法律安排,我們應「通過法律化解風險」,「通過法律吸納風險」,「將風險社會置於法治社會的背景之中」,即對智能革命時代的法律制度乃至整個社會規範進行新的建構。

人工智慧技術在挑戰我們的法律

智能革命的出現,對當下的倫理標準、法律規則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰。它不僅與已有法律秩序形成衝突,凸顯現存法律制度產品供給的缺陷,甚至會顛覆我們業已構成的法律認知。就調整人工智慧相關社會關係的法律制度而言,人們的擔憂多於期待、疑慮甚於創製。現擇其主要問題分析如下:

1、機器人法律資格的民事主體問題

隨著人工智慧技術的快速發展,機器人擁有越來越強大的智能,機器人與人類的差別有可能逐漸縮小。未來出現的機器人將擁有生物大腦,甚至可以與人腦的神經元數量相媲美。美國未來學家甚至預測:在本世紀中葉,非生物智能將會10億倍於今天所有人的智慧。

是否賦予機器人以虛擬的「法律主體資格」,在過去的一段時期,美英等國的哲學家、科學家包括法律家都為此開展過激烈的爭論。2016年,歐盟委員會法律事務委員會向歐盟委員會提交動議,要求將最先進的自動化機器人的身份定位為「電子人」(electronic persons),除賦予其「特定的權利和義務」外,還建議為智能自動化機器人進行登記,以便為其進行納稅、繳費、領取養老金的資金賬號。該項法律動議如獲通過,無疑使得傳統的民事主體制度產生動搖。

機器人是機器還是人,在法理上涉及到主客體二分法的基本問題。在民法體系中,主體(人)與客體(物)是民法總則的兩大基本制度。主體與客體、人與物之間有著嚴格的區別。凡是人以外的不具有精神、意思的生物歸屬於物,是為權利的客體。主客體之間這種不可逾越的鴻溝現在正發生動搖。

從基因時代到智能時代的一個重要變化是,傳統民法的主、客體框架已然打破:人的遺傳基因物質不能簡單作為客體物看待,而沒有生命但具有人工智慧的機器人也有可能被賦予法律資格。將機器人視為「人」,賦予其相應的主體資格,難以在現有的民法理論中得到合理的解釋。民法意義上的人,須具有獨立之人格(權利能力),該主體既包括具有自然屬性的人(自然人),也包括法律擬制的人(法人)。日本學者北川善太郎認為,在民法上,「法的人格者等於權利能力者」,關於人或法人的規定,「表現了最抽象化層次的抽象的法人格」。

法人格概念的意義在於揭示民事主體的內在統一性和其實質,界定主體與客體的關係。「民事能力概念的意義在於揭示民事主體的差異性,具體刻畫民事主體存在與活動的狀態與特徵。」

從法律技術邏輯層面看,《德國民法典》以權利能力核心概念為中心,進行主體人格的制度設計。在財產權領域,這種構架中的邏輯關係就是「經濟人—權利能力—法律人」。在自然人人格場合,「法律人」的成立是以倫理價值為依據,將倫理價值從人的範疇中抽去之後,即通過權利能力將「生物人」自然本性與「法律人」的法律屬性直接連接的。而在法人人格場合,由於權利能力扮演「團體人格」的角色,從而形成「團體—權利能力—法律人」的邏輯關係,從而使得法人與同為「法律人」的自然人一樣在某些方面享有人格利益成為可能。

基於上述分析,可以認為:機器人不是具有生命的自然人,也區別於具有自己獨立意志並作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處。據多數科技專家研究,由於人造機器沒有自身的目的,其工作目的非常特定,且為人類設計者所設計。質言之,機器人生成的目的行為,與人類有目的、有意識的行為性質完全不同;同時,機器人沒有自身積累的知識,其機器知識庫的知識都是特定領域的,並且都是人類輸入的。

在這種情況下,模擬和擴展「人類智能」機器人雖具有相當智性,但不具備人之心性和靈性,與具有「人類智慧」的自然人和自然人集合體是不能簡單等同的。換言之,受自然人、自然人集合體——民事主體控制的機器人,尚不足以取得獨立的主體地位。

2、人工智慧生成作品的著作權問題

人工智慧的實質,是「讓機器從事需要人的智能工作」,包括下棋、解題、從事數學發現、學習新的概念、解釋視覺場景、診斷疾病、推理條件等。基於此,文學、藝術和科學作品的創作也在機器人的智能範圍之內。從計算機到機器人的發展,在作品創作方面即是一個從閱讀到寫作的跨越。

在機器人時代,某些作品就是人工智慧的生成內容。據美國Narrative Science的預測,未來15年將有90%的新聞稿件由機器人完成,大量的美術、音樂等藝術作品也將出自人工智慧創作。機器人的寫作方式,採取「信息→知識→智能」的技術路徑,基於「人機合作」系統而導致內容生成。該行為是否構成法律意義上的「獨創性」或「主觀能動性」,一些國家和地區的法學家試圖作出正面回應。

有消息稱,日本準備立法保障人工智慧的著作權作品,以防止機器人創作中的抄襲之風;歐盟法律事務委員會提出動議,擬賦予機器人以著作權。

關於人工智慧的生成作品,著作權法有兩個問題需要解決,即機器人設計的作品是否享有權利?該項權利應歸屬於機器還是創製機器的人?據專家研究,人工智慧生成的作品,目前還處於在特定的格式和寫作模板下傳達信息、表達意思的階段,尚不能無限定格式地寫作內容。儘管機器人稿件的表達技巧有限,但仍可以視為著作權法意義上的作品。依世界知識產權組織的權威解釋,作品須具獨創性,即「作品是作者自己的創作,完全不是或基本上不是從另一作品抄襲來的。」

這就是說,人工智慧生成之內容,只要由機器人獨立完成,即構成受著作權保護的作品,至於其用途、價值和社會評價則在所不問。機器人作品享有著作權,但機器人並不能像自然人作者或法人作者那樣去行使權利,換言之,該項著作權應歸屬於機器人的創造人或所有人。

這是因為,機器人是機器而不是「人」,它是依靠數據和演算法而完成寫作,該機器人以及其寫作的技術路徑無一不是人類創製。在這種情況下,法律可以通過保護機器人作品以達到保護機器人的創造人和所有人的目的。具言之,可參照著作權法關於職務作品或僱傭作品的規定,由創製機器的「人」而不是機器人去享有和行使權利。

3、智能系統致人損害的侵權法問題

智能型「新一代機器人」,與傳統的執行重複任務的工業機器人不同,它擁有相對的自主權和更高的人工智慧水平,且將廣泛而深入地參與人類社會的生活。「智能型機器人」的廣泛使用,在帶來高效和便捷的同時也不可避免對人類帶來傷害。

機器人致人損害有兩種情形:

一是侵權人對智能系統進行非法控制而造成的損害。例如,黑客、病毒等人為因素侵入互聯網,進而控制人類家庭的兒童看護機器人、助老機器人、護士機器人或其他智能系統,由此導致危及人類的後果。在這種情況下,發動黑客攻擊或傳輸病毒的侵權人應該承擔法律責任自不待言,這些不是本文研究的主要話題;

二是智能系統自身的產品瑕疵而造成的損害。據報道,早在上個世紀80年代,日本即發生過工業機器在作業現場將工人置入機器壓死的事件;2007年,美國食品藥品監督管理局收到200多份投訴,指控醫療外科手術機器人對病人造成燒傷、切割傷以及感染,其中包含89例導致病患死亡。

上述致人損害的事由,究竟是機器人創製者的技術漏洞,抑或智能機器管理人的不當使用?甚至可能是人工智慧系統超越原控制方案的「自身行為」?在這種情況下,就必須對機器人的過錯行為原因進行分析,以查找侵權主體構成並分擔賠償責任。

關於智能系統致人損害責任的認定,有兩種責任方式可供選擇:

一是基於行為人過失所產生的產品責任。在侵權責任法中,產品責任是指產品生產者、銷售者因生產、銷售缺陷產品致使他人遭受人身損害、財產損失或有致使他人遭受人身、財產損害之虞而應承擔的特殊侵權責任。致人損害的產品,必須存在缺陷,它包括製造缺陷、設計缺陷、警示缺陷、跟蹤觀察缺陷。

上述情形符合智能系統致人損害責任的一般特徵。2016年,聯合國教科文組織會同世界科學知識與技術倫理委員會發布報告指出,由於機器人一般被視為通常意義上的科技產品,機器人以及機器人技術造成的損害,可由民法中產品責任的相關規定進行調整。從產品責任的認定條件來看,機器人造成的損害可歸類於機器人製造者和銷售者的過失,包括產品製造的過失、產品設計的過失、產品警告的過失以及沒有盡到合理的注意義務。

二是基於技術中立原則所產生的替代責任。關於技術產品致人損害,技術中立原則可提供責任規避。所謂技術中立原則,是指任何技術本身原則上都不產生責任承擔,但是一項特定技術的主要商業用途是用來從事侵權或其他違法行為的,那麼該項技術即不適用「技術中立」原則。在這種情況下,適用替代責任較為適宜。替代責任又稱為轉承責任,最初出現在代理關係與僱傭關係中,即被代理人對代理人實施的,得到被代理人「授權」或「批准」的侵權行為承擔責任;僱主對其僱員在「僱傭期間」實施的侵權行為承擔責任,概稱為「為他人侵權行為承擔責任」。

在替代責任情形中,機器人本無瑕疵,符合技術中立原則要求,但機器人的所有人或使用人,或不盡善良管理人之義務,或放任機器人的侵權行為,則不能以技術中立原則免除責任。

4.人類隱私保護的人格權問題

網路空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在這裡,人類實現了與肉體分離的「數字化生存」,擁有了「數字化人格」。所謂數字化人格就是「通過個人信息的收集和處理勾畫一個在網路空間的個人形象」——即憑藉數字化信息而建立起來的人格。

個人信息包括了當事人不願他人知道或他人不便知道的隱私信息,主要類別有:個人登錄的身份和健康狀況、個人的信用和財產狀況、電子郵箱地址、網路活動蹤跡等。在信息化社會,這些零散的和廣泛的個人信息有可能被收集,並進行數據處理,從而拼合成所謂數字化人格——在很大程度上是被迫建立的人格,個人毫不知情的人格。在今天和未來,當移動互聯網、大數據和機器智能三者疊加後,我們生活在一個「無隱私的社會」。

面對大數據對個人隱私潛在的威脅,我們必須重視智能革命時代隱私權的保護,有三點舉措可供採用:

一是增強自我保護意識。在當下的移動互聯和今後的萬物聯網的時代,我們本身就是隱私的泄密者:智能手機安裝了太多而不甚使用的APP,社交網路講了太多而不適宜公開發表的言論,都可能造成隱私泄露;還有各種電子產品,從帶有GPS的照相機到與WIFE相連的智能電器,都精細地記錄私人的行蹤和生活信息。在人工智慧時代,挖掘個人隱私是由機器完成的,因此保護隱私,須從自己做起,對智能電器有防範之心;

二是強化企業保護用戶隱私的責任。企業須負有保護用戶隱私的意願和責任,「這將是用戶隱私是否得到有效保護的關鍵」。在當下,用戶數據日益聚集在大型互聯網或數據處理的企業手中,對其進行保護個人隱私的責任約束就顯得非常重要。在歐盟和美國,根據政府要求,也出於用戶主張,服務條款應特別聲明從用戶獲得的數據屬於用戶本人,如對個人數據有不當處置,應承擔責任。這不僅是合同規定的違約責任,也是違反法律的侵權責任。

三是加強網路、電訊隱私保護的專門立法。隱私權的保護應以民法保護為基礎,明確隱私權的權利屬性、權能內容、保護方式等;同時以專門法律保護為補充,規定特定領域的特定主體隱私保護的原則和辦法。

例如,美國1974年制定《聯邦隱私權法》,是為隱私權保護的基本法,後又於1986年通過《聯邦電子通訊隱私法案》,2000年出台《兒童網上隱私保護法》,此外還頒布了《公民網路隱私權保護暫行條例》、《個人隱私與國家信息基礎設施》等法律。

歐盟則在1997年通過《電信事業個人數據處理及隱私保護指令》之後,又先後制定了《網上個人隱私權保護的一般原則》、《信息公路上個人數據收集處理過程中個人權利保護指南》等相關法規。隱私權的保護,是信息時代特別是人工智慧時代的法律難題。智能革命不斷深入發展的過程,亦是隱私安全風險增大與法律保護強化的過程。

5.智能駕駛系統的交通法問題

人工智慧在交通領域的重要應用是網聯自動駕駛。智能駕駛通過導航系統、感測器系統、智能感知演算法、車輛控制系統等智能技術,實現了「人工智慧+無人駕駛」,顛覆了以往的人車關係、車車關係。為推動智能駕駛產業的發展,美、德、日等國都在探索,甚至出台了有關交通責任分配的法律規範和安全檢測市場准入的監管政策。

無人駕駛汽車可能帶來的法律問題,主要有:

一是法律規制對象的轉變。無人駕駛意味著交通領域的准入資格,不再是駕駛人的駕駛技術,而是無人駕駛汽車的智能化水平。換言之,隨著無人駕駛中駕駛人概念的消失,法律規制的對象不再是車輛的駕駛人員,而將是智能駕駛系統的開發者、製造者;

二是法律責任體系的重構。以過錯責任為基礎而建立的「風險分配」責任體系,在未來的交通法規中將不復存在。對於道路交通事故的認定,其歸責事由只有結果的「對與錯」,而無主觀上的「故意」或「過失」。

三是交通監管重心的變化。以交通安全為目標,以往交通管理部門監管的重點是汽車裝置的安全性能和駕駛人安全駕駛技能;而在智能駕駛中,避險保障和精確駕駛的軟硬體體系,是道路交通檢測、准入的重點。

6.機器「工人群體」的勞動法問題

人工智慧技術發展的基本面向,是對人-機關係的改變。智能機器人的大規模應用,一方面推動了社會生產力的發展,大大提高了生產效率;另一方面也帶來了社會結構的變化,使得人與機器人的關係成為社會生活的重要方面。以保護勞動者利益為宗旨的勞動法,面臨著前所未有的兩個難題:

一是傳統勞動法的調整功能消減。據牛津大學的調研報告,未來將有1000萬非技術工種被機器人取代,其中包括文秘、工人、中介、司機等一大批崗位。報告特別指出,目前軟體工程師所做的工作將會被智能機器人所代替,即創造者被其創造的技術產品所代替。這些都對現有勞動者的權利帶來衝擊。大批勞動者離開傳統崗位,其權益救濟更多是尋求社會保障法,那麼「勞動法是否面臨消亡的命運?」

二是未來勞動法將面臨新的調整對象。機器人搶掉人類的飯碗,人工智慧「工人群體」正在形成。對機器人權利保護或者說禁止對機器人濫用,在當下尚是一個社會倫理問題,而在未來就成為勞動立法問題。

歐盟法律事務委員會動議,主張人工智慧具有「工人」身份,並賦予其勞動權等「特定權利與義務」;韓國政府起草了《機器人倫理憲章》,其要點包括:保證人類能夠控制機器人、保護機器人獲得的數據、禁止人類違法使用機器人、防止人類虐待機器人,應該認識到:智能機器人本質是為機器,但亦有人的屬性,對智能機器人的尊重就是對人類自身的尊重。可以預見,上述倫理規範將成為未來立法的組成部分。

法律制度總是滯後的,但關於法律問題思考應該是前瞻的。面向智能革命時代,我們應在認識和分析現行法律困境的基礎上,探索與科學文明相伴而生的制度文明,創製出有利於人工智慧健康、有序發展的社會規範體系。

面向未來時代的制度構成:

法律、政策與倫理

法律制度的發展與變革,每一過程的路徑選擇和規則設計,其法律思維一般都是客觀事實分析與主觀價值判斷的綜合。就法律制度建設而言,如果總是基於技術及其效應的充分顯現,以此形成以技術事實為基礎的社會規範,那麼法律制度的滯後現象將會十分嚴重,最終導致技術法律對技術「匡正」的失效和無力。

「我們所體驗到的那種無能為力並不是個人失敗的標誌,而是反映出我們的制度無能為力。我們需要重構我們曾經有過的這些制度,或者建立新的制度。」面向未來時代的制度構成,應以人工智慧的技術發展與規製為主題,形成包含法律規則、政策規定和倫理規範的社會治理體系。關於理念、規範、體制與機制的制度設計,筆者擬提出如下構想:

1.以安全為核心的多元價值目標

人工智慧法律的價值分析,源於法律理想與現實,應然與實然的對立。人工智慧時代的法價值即是人類法律理想價值觀的追求,是價值這一哲學範疇的法律化表現。法律的理想價值總是高於法律現實價值,可以為法律制度的演進提供目標指引和持續動力。

人工智慧法律既具有一般法價值的構成要素,又有著其特殊法的價值內容,從而形成自身的法價值體系。其中,「正義是社會制度的首要價值」,也是作為一般法的普適價值,其蘊含的人格正義、分配正義、秩序正義構成了人工智慧法律構建的正當性基礎。在最高法價值指引之下,人工智慧法律還存在著專門法的特別價值,這主要是安全、創新和和諧。

安全是人工智慧時代的核心法價值。安全價值是對整個社會秩序穩定的維護。對此,法哲學家雷加森斯·西克斯言道:「如果法律秩序不代表一種安全的秩序,那麼就不是一種法律」 。安全價值是許多法律部門共同追求的目標,且通過不同的制度或調整方法來實現。例如,刑法、行政法通過刑事責任或行政責任方式來實現社會秩序安全,民法通過侵權法來保護交易安全和財產秩序。人工智慧作為未來時代技術尚在深入發展之中,但在當下已引發人們對其安全問題的普遍擔憂。

人工智慧超越人類智能的可能性,人工智慧產生危害後果的嚴重性,以及人工智慧技術本身內在的不確定性,這些因素足以構成法律以及其他規範防止風險的必要性。關於風險規制的安全規範,包括人工智慧產品的倫理規範、人工智慧技術的應用規範、人工智慧安全的監測規範等,都是相關法律制度設計和安排需要考量的問題。

創新是人工智慧法律的價值靈魂。在特定的時代背景下,特定的法律制度會包含若干不同的價值項,而且其各自的價值側重點也有著不同。當代經濟的發展著重依靠知識和信息的生產、分配和利用,創新業已成為知識經濟時代的主要特徵。面向人工智慧革命,創新不僅反映了人與自然的關係,而且反映了人與人的關係、個人與社會的關係,成為一個具有普遍意義的關係範疇。創新價值體現在人工智慧發展政策制定與立法活動之中,其主要制度設計是:

(1)謀化國家發展戰略。在整體性、全局性的政策層面,對人工智慧技術和相關社會變革作出相應的戰略部署;

(2)制定產業促進與監管的政策法律。在立法和政策層面,推進智能駕駛系統、智能機器人、精確醫療、語言識別、人腦晶元等核心技術的研發和應用,同時明確准入規範,制定安全標準,完善配套設施,營造健康、有序的監管環境;

(3)完善知識產權創新激勵機制。通過權利保護、權利交易和權利限制等制度,促進技術創新和新興產業發展。總得說來,國家通過戰略指引、法律規範和政策安排,將創新這一行為上升為「規劃理性」的法價值,體現了人在價值發現中的能動性干預和控制。

和諧是人工智慧時代的終極價值追求。所謂和諧發展,是一種配合適當、協調有序的理想動態,這是一種涵蓋周延的目標系統,包括人的和諧、社會的和諧、自然的和諧,以及人與社會、自然的和平共存與進步。和諧價值實現的理想狀態,即是人工智慧社會的良性健康和有序。

在智能機器人的發展過程中,和諧價值具有引導性功能。為保證人類社會的和諧穩定,對人工智慧產品進行倫理設計、限制人工智慧技術應用範圍、控制人工智慧的自主程度和智能水平等,都應以和諧價值作為指引方向和評價準則。

2.以倫理為先導的社會規範調控體系

人工智慧時代的文明,需要相應的行為規範作為社會關係的調整器。就整體而言,文明要求社會對自身內部錯綜複雜的關係進行自覺的協調,以不斷完善自身的組織和管理,達到各種社會關係的有序與和諧。

從人類文明創始到現今人工智慧時代開啟,社會行為規範已然成為一種制度體系。社會規範調控體系或系統,是指在一定的國家、地區、領域內存在的,由一定的社會經濟關係所決定的社會規範而構成的相互聯繫、相互制約的統一體。在社會規範體系中,法律與道德作為兩種重要的調整手段,從不同方面、以不同方式、通過不同機制對社會生活的不同領域發揮不同的影響和作用。

對於人工智慧社會關係的調整,倫理規範具有一種先導性的作用。這是因為法律規範基於現實生活而生成,且立法過程繁瑣,因而總是處於滯後境地;而倫理規範可以先行和預設,對已變化或可能變化的社會關係作出反映。

在發達國家,對人工智慧的倫理研究早於立法研究。近年來,歐洲機器人研究網路(EURON)發布《機器人倫理學路線圖》,韓國工商能源部頒布《機器人倫理憲章》,日本組織專家團隊起草《下一代機器人安全問題指引方針》,美國國家科學基金會和美國航天局設立專項基金對「機器人倫理學」進行研究。

此外,一些行業組織、公司企業也在倫理規範方面強化人工智慧專家的專業責任。例如日本人工智慧學會內部設置了倫理委員會,谷歌設立了「人工智慧研究倫理委員會」,旨在強調科研人員的社會責任,並對合理研發人工智慧提供指導。

概言之,倫理規範的調整功能非常獨到且為重要,例如:對智能機器人預設道德準則,為人工智慧產品本身進行倫理指引;規定人工智慧技術研發及應用的道德標準,對科研人員進行倫理約束。上述倫理規範,為後續法治建設提供了重要法源,即在一定時候,倫理規範亦可轉化為法律規範,實現道德的法律化。

3.以技術和法律為主導的風險控制機制

人工智慧技術不僅是高技術,而且是高技術的核心,可稱之為高技術核。智能技術的「核爆炸」,既對社會經濟帶來變革性的影響,也會產生技術性風險,即「人類在利用技術時違背技術自身規律而產生的社會風險」。人工智慧時代的風險防範和治理,可採取技術控制與法律控制的綜合治理機制。

法律控制是風險治理機制的重要手段。立法者必須重視控制風險功能的法治化。例如,專利法具有激勵科技創新的制度功能,其授權客體的擴充及其權益保護,即是激勵人工智慧發展機制的法律表現。與此同時,專利法也要注重權利客體的排除領域,以及禁止權利濫用,限制權利行使等制度規則的適用,限制和排除人工智慧的潛在危害。此外,還應輔之於相關科技法律、法規,對人工智慧的研發、使用和傳播建立限制機制、禁止機制以及懲戒機制。

技術控制是風險治理機制的重要措施。技術規製表現為法律規範、政策規定和倫理規則等。風險社會理論指引下的技術規則有以下特點:風險規避的主要路徑,是事先預防而不是事後補救(即從技術研究開始規制,以預防技術產生的負面效應或副作用);風險規避的基礎範式,是從技術研發到應用過程的責任制度(包括社會道義責任、科學倫理責任和法責任);風險規避的重要措施,是奉行技術民主原則(包括技術信息適度公開和公眾參與、公眾決策)。

防範人工智慧的技術性風險,不僅涉及強化法律規制的傳統制度改造,而且要求建立以社會監管為重要內容的政策體系,同時形成以全面理性(包括社會理性和科學理性)為基本內涵的風險控制機制。

中國正在走向人工智慧時代。世界新一輪科學革命、產業變革與我國轉變經濟發展方式形成歷史性交匯。對人工智慧的發展和規制進行制度安排,是時代新潮流,也是國際大趨勢,更是本土創新發展的內在要求。筆者認為,在制度構建方面,目前有三項重點任務:

一是儘快出台國家發展戰略,以此作為人工智慧政策體系的支撐。從國際層面看,美、德、英、日等國加快人工智慧頂層戰略設計,從國家層面統籌人工智慧發展。在我國,《「十三五」國家科技創新規劃》和《「十三五」國家戰略性新興產業發展規劃》,對人工智慧發展做出重要表述。但總體而言,我國人工智慧政策還沒有上升到國家戰略高度,人工智慧的戰略地位凸顯不足,人工智慧發展的統籌協調部門未予明確,政府、社會以及企業的責任分工尚未釐清。

國家發展戰略應是關於人工智慧問題的整體性謀略和全局性安排,它是一個涉及戰略目標、戰略任務、戰略措施的政策制度體系。中國必須高度關注智能革命發展前景以及引發的相關社會變革,儘快作出相應的戰略政策部署;

二是及時制定《機器人倫理章程》,以此作為人工智慧研發、應用的道德基礎。在一些發達國家,對人工智慧的倫理研究早於法律研究,諸如《機器人倫理憲章》、《機器人倫理學路線圖》等,都是將安全評估和風險防範作為人工智慧倫理規範的重要內容。

我國似可組織政治家、科學家、企業家、法學家參加的專家小組,編寫機器人倫理章程,構建人工智慧倫理規範,其要義包括:設計倫理框架,為機器人預設道德準則;強化科技專家的社會責任,為人工智慧研發、應用提供道德指引;引導公眾接納人工智慧,為調整人—機關係規定道德模式;

三是適時進行機器人專門立法,以此作為人工智慧法律的基本規範。人工智慧技術對傳統法律制度帶來巨大挑戰,以至現有的法律理念與規則在「高技術核」面前幾乎無所適從。在這種情況下,法律制度需要創新變革自不待言,而尋求一個調整人類與智能機器相互關係的專門法將是一個最終的選擇。

對此,歐盟的立法行動最快。據報道,歐洲議會已正式向委員會提出議案,擬制定「人類與人工智慧/機器人互動的全面規則」,這或將是首個涉及機器人的立法草案。我國在人工智慧領域發展相對滯後,但相關立法活動應未雨綢繆,組建專家團隊對機器人專門法律開展研究,其重點包括:人工智慧的法律地位、人工智慧生成內容的權利歸屬、人工智慧損害後果的責任分擔、人工智慧風險的法律控制等。

結語

未來時代已經到來。這是一個創新的時代,創新不僅反映了人與自然的關係,而且反映了人與人的關係、個人與社會的關係,已成為一個具有普遍意義的關係範疇。人們在生產力、生產關係和上層建築所有領域中進行的創造性活動,即技術進步和制度變革都是一種創新過程。

智能革命引發的法律、政策和倫理話題剛剛開始,伴隨人類社會的知識創新,我們需要跟進理論創新和制度創新。法學家和法律改革家們需要秉持理性主義精神,去發現和探索一個理想的法律制度體系。我們有理由相信,科學技術的智慧之光與法律制度的理性之光,將在人工智慧時代交相輝映。

中國法律評論


推薦閱讀:

智慧人生:心靈有家,生命才有路
日本怒批美國退出巴黎協定:與人類智慧背道而馳
【智慧背囊】過 客
沒有智慧也不會有真正的福德
疼老婆的男人,大智慧

TAG:法律 | 人工智慧 | 智慧 | 制度 | 時代 | 安排 | 人工 |