標籤:

人工智慧的倫理問題可能比技術更加複雜……

人工智慧的倫理問題可能比技術更加複雜……

5 人贊了文章

編者按

當下,時不時就會看到關於人工智慧的新聞,意料之中的,這些新聞大多是對人們生活已造成或者可能造成負面影響的消息。比如,這兩天在國內出現的手機任意調動攝像頭事件,令人震驚的是,原來有的手機會自動把攝像頭打開!

顯然,人工智慧的倫理問題比以往技術帶給人類的更為複雜。毫無疑問,人工智慧需要「德才兼備」,那麼問題來了,人工智慧如何能夠「德才兼備」呢?

1956年夏季,當一批年輕的科學家首次提出「人工智慧」這一術語,想必他們是激動的。在經過了緩慢發展的一段時間後,得益於大數據驅動、硬體技術的不斷發展、計算能力的提升、深度學習演算法等帶來的數據智能和感知智能上的突破,近些年人工智慧得以快速發展。

在人工智慧的發展和應用中,倫理必須佔據中心地位。」今年4月,英國上議院出了一份長達183頁的報告《人工智慧在英國:充分準備、意願積極、能力爆棚?》,不僅說了人工智慧在英國的發展,更聚焦於倫理道德問題——那些AI可能為人類帶來的風險。

在機器人原則與倫理標準方面,日本、韓國、英國、歐洲和聯合國教科文組織等相繼推出了多項倫理原則、規範、指南和標準。

2016年,聯合國教科文組織發布了《機器人倫理報告初步草案》,草案不僅探討了社會、醫療、健康、軍事、監控、工作中的機器人倫理問題,最後還對運用機器倫理製造道德機器進行了討論。

2016年至2017年,電氣電子工程師協會(IEEE)頒布了《人工智慧設計的倫理準則》的第一版和第二版。

目前,中國相關部門也正在積極地開展人工智慧的標準研究。

無疑,人們在探討人工智慧帶來的倫理問題的同時,還在思考怎樣才能解決這些倫理問題,儘管離解決問題還有些距離。

機器有偏見

今年5月,滴滴順風車司機殺害女乘客事件發生後,有網友爆出,滴滴順風車司機通過平台軟體,在接單前可以看到以前司機對乘客的全部評價,而這些評價中就包括對女性乘客外貌的評價。這是因為平台軟體上增加了社交功能。

今年2月,《紐約時報》英文網站發表了一篇文章,指出如今非常熱門的人工智慧應用人臉識別,針對不同種族的準確率差異巨大。這讓人們意識到,人工智慧系統確實可能存在偏見。

人工智慧帶來的文化偏見的例子還有很多,如詞語「女性」「婦女」與藝術人文類職業以及家庭聯繫更緊密,詞語「男性」「男人」則和數學、工程類職業更近。尤為危險的是,AI還有強化所習得的偏見的潛能,它們不像人可以有意識地去抵制偏見。

不用說,當下時不時就會看到人工智慧的新聞,且多是對人們生活已造成或者可能造成負面影響的消息。又比如這兩天在國內出現的手機任意調動攝像頭事件,人們震驚於原來有的手機會自動把攝像頭打開。

顯然,人工智慧的倫理問題比以往技術帶給人類的更為複雜。

美國耶魯大學教授溫德爾·瓦拉赫在接受《中國科學報》記者採訪時表示,人工智慧是一種認知技術,是區別於過去的技術發展。過去的技術發展確實能取代一部分人類的勞動,但通常不包括人類的精神活動。而人工智慧可能會在更廣泛的領域內取代人類的工作。

技術帶來的倫理問題本質上是相同的。但隨著新技術的發展,這些問題會以新的形式出現。這裡不僅包括人工智慧,也包括其他新興技術。「但不同的是,人工智慧不僅僅是一個特定的應用,或者一組應用,它是一項幾乎可以應用於生活的每一個方面的技術。」

倫理有缺位

人工智慧和包括機器人在內的智能化自動系統的普遍應用,不僅僅是一場結果未知的開放性的科技創新,更將是人類文明史上影響至為深遠的社會倫理試驗。」中國社會科學院研究員段偉文近些年致力於人工智慧的倫理研究,他表達了自己的擔憂。

對於上文提到滴滴順風車司機殺害女乘客事件,段偉文給《中國科學報》記者分析,作為共享交通平台,它的目標是安全快捷地把乘客送達目的地,現在為了達到商業上的利益最大化,增加了社交軟體,卻沒有考慮到那些女乘客以及潛在受害者的利益。這就涉及到倫理問題。「通過對司機、乘客和平台的利益分析和價值分析,發現其實包含了對各方的利害得失與價值衝突。」

如果說人工智慧對人類的威脅是終極問題,如何解決還未可知,那麼人工智慧在當下活動中體現出來的倫理問題就亟待解決了。

段偉文認為,應當從我們這些年研究科學技術前沿中的、科學技術應用中遇到的實例,去探討人工智慧的倫理問題。「從這個角度,我更願意把它當作未完成的倫理。

與以往不同,人工智慧倫理研究不再是一個高高在上的理論,也沒有一套適用全部情形的普遍原則體系,更多的是針對具體的人類活動或者科技實踐的原則體系,比如說,陪護機器人,就需要一些防止過度依賴機器人的原則。

「從裡面找到一些價值衝突,需要作哪些倫理的決擇,讓我們發現問題、研究問題。」段偉文說。

另外,當下的社會中,大數據讓人們享受了便捷,同時這些數據會受到不良的使用,或者是沒有必要的濫用。而由於大數據的挖掘導致商業智能的運用對人的權利的侵犯,這種侵犯最核心一點就是人的自主權,包括隱私。

因此,歐盟數據保護條例中,針對保護個人數據的態度很強硬,只要能夠識別是個人的,就是個人數據,而且個人能決定他的數據怎麼使用、該不該使用,以及對有些數據要求被遺忘、數據可攜帶等。

「讓技術在社會上更好地運行,就要從倫理上對它進行設計。」段偉文說,比如現在經常提到監控裝置對人的隱私的傷害,將來可以讓使用者看到攝像頭的界面,讓人們在一定程度上了解自己的數據如何被追蹤和使用;這樣既可以促使數據追蹤者規範其行為,也有利於被追蹤對象適當修正其行為方式。「這是數據時代、信息時代一個新的信息對稱的問題,讓不對稱變對稱一點,尋求一種再平衡。」

道德機器是否可期?

美國著名科幻作家阿西莫夫曾在他的小說中提到「機器人學三定律」。以往人們更關注其內容,而忽視了「機器人學三定律」如何在實際操作中來規範機器人的行為。

其實阿西莫夫有很詳細的構想,通過技術直接嵌入到機器人的控制軟體或智能編碼底層,令「機器人學三定律」不只是紙上法則,更可經由技術強制執行——通過內置的「機器道德調節器」使機器人成為有道德的機器人。

阿西莫夫提出了影響廣泛的機器人三定律。他也提到在實際操作中來規範機器人的行為,通過內置的「機器道德調節器」使機器人成為有道德的機器人。

如何解決人工智慧的倫理問題,這是一個科學家、哲學家以及相關領域的研究者都不能忽視的問題。讓機器人有道德或許不是科幻呢?

溫德爾·瓦拉赫和認知哲學家科林·艾倫在10年前共同完成了《道德機器:如何讓機器人明辨是非》一書。他們對能否讓機器有道德進行了研究。溫德爾·瓦拉赫是耶魯大學生物倫理學跨學科研究中心主管,曾開過「機器人的道德和人的倫理」的課程。

科林·艾倫1999年涉足這個領域,他還曾任《斯坦福哲學百科全書》——全球最大的電子哲學詞典的技術總監,指導開發人員,使他同時在哲學和計算機這兩個領域皆有深刻的理解。

2002年,他們在德國巴登巴登召開的一次會議上相識,因共同的學術興趣,兩人開始研究人工道德智能體的技術層面的倫理問題。2008年2月完成了本書,2009年英文版出版。

《道德機器:如何讓機器人明辨是非》北京大學出版社,2017.11

兩位學者在書中提出要設計出符合人類道德規範的機器人。這個聽起來是不大可能實現的目標。他們也認為,完備的機器道德智能體還很遙遠,但是目前有必要,而且有可能開始建構一種功能性道德,從而使人工道德智能體可以具有基本的道德敏感性。

例如,對於前面提到的語言上的偏見,艾倫認為應該考慮的是,「如何在設計理解語言的演算法時既讓其消除偏見,又不喪失其對語言的解釋能力。

兩位學者進行了開創性的研究,並提出了解決方案的三條路徑:一是自上而下,就是把人類已經成熟的倫理系統、道德理論體系灌輸進去,即理論驅動作決策;二是自下而上式的數據驅動的學習和進化的方式;三是混合進路系統,即將前兩種結合起來,使人工智慧體在一定的普遍倫理準則指引下、通過深度學習演算法,在與人類的互動中不斷完善其倫理系統。

西安交通大學計算哲學實驗室中方主任、本書主譯王小紅向《中國科學報》記者介紹,《道德機器》的兩位作者的討論是基於哲學家、科學哲學家、技術倫理學家在交叉領域的深入思考和研究,沒有停留在形而上的討論上,而是提出了可行性方案讓這種自動控制系統機器人有道德的能力。「特別有預見性和超前意識,在10年前就考慮從前端來解決問題。」

王小紅進一步解釋,從前端將倫理演算法嵌入機器,並不代表著其他的社會控制不需要,因為不可能把所有的實際社會場景、生活難題都預測到,後來遇到了還可以通過其他規範去制約。所以,她認為,前端嵌入和後端制約應該是齊頭並進的。

要走的路還很長

像所有開放的和影響深遠的人類活動一樣,人工智慧的不斷發展和加速進步使人們很難明確界定其內涵。同樣的,人工智慧的倫理也沒有相對嚴格的定義和界限。

段偉文認為,當前,有關人工智慧與機器人的倫理研究可大致分為四個進路。

一是面嚮應用場景的描述性研究;二是凸顯主體責任的責任倫理研究;三是基於主體權利的權利倫理研究;四是探討倫理嵌入的機器倫理研究。

段偉文解釋說,第四種相當於溫德爾·瓦拉赫和科林·艾倫的探討,因此說,怎麼讓機器有道德,是前瞻性的探討,也是現在討論的一部分。儘管此進路已有一些探索,但在技術上存在極大困難,理論上也遭遇難以解決的道德困境。

「阿西莫夫所提出的機器人定律可能未必有實質的意義,但其真正的價值可能更多地在於觀念上的超前與突破。」段偉文說,機器人三定律帶來的啟迪是:為了使人所創造的機器人和人工智慧有益人類和免於失控,應致力於從人類價值、利益、安全以及未來發展的角度對其加以價值校準與倫理調適,以此消除人們對其終極創造物的疑慮。

人工智慧的倫理問題要走的路還有很長。「它實際上是一個改變歷史的轉折點,而不僅僅是對過去問題的簡單延續。」溫德爾·瓦拉赫表示,而且這項研究幾乎所有的學科都涵蓋在內,如神經科學、經濟學、心理學、哲學等。「需要考慮的是,哪些方面會影響人類進行決策,以及它們是如何影響人類決策的。」

儘管人工智慧的問題很多,但不能像限制直接對人類造成傷害的技術那樣限制人工智慧的發展,因為沒人會懷疑,如果現在限制了,未來的10年、30年或50年之後,人們又不得不回過頭來重新開始發展這些技術。

在溫德爾·瓦拉赫和科林·艾倫看來,解決終極的人工智慧倫理問題還很遙遠,但需要朝著這個方向走,而且,他們有關「道德機器」的觀點依然非常領先,甚至更具現代化,可作為人們反思這些問題的基礎。

- 版權信息 -

本文作者:溫新紅

本文編輯:王薇 張亞如

本文來源:中國科學報

轉載及合作事宜請聯繫微信:emily_wangwei


推薦閱讀:

美國Flipboard失敗,中國今日頭條成功,為啥?
大佬們為什麼對智能音箱如此青睞
當擎朗機器人遇到西部世界 | 叛亂還是守護
人工智慧這把火,會讓.ai域名成為下一個.com嗎?
你的專業是高危行業嗎?看看未來什麼職業前景好

TAG:人工智慧 |