勸善智能:AI是否能培養同理心與慈善行為

Borenstein, J., & Arkin, R. C. (2017). Nudging for good: robots and the ethical appropriateness of nurturing empathy and charitable behavior. Ai & Society, 1-9.

人機交互值得進一步探討的一個問題是:是否應允許機器人為了用戶的利益影響他的行為。 更具爭議性的做法可能是允許機器人為了社會的利益「微調(nudge)」用戶的行為。 在這篇文章中,我們研究了創建同伴機器人(Companion Robot)的可行性,該機器人將試圖培養用戶對其他人的同理心。 隨著越來越多的計算設備巧妙而明顯地影響人類行為,一個重要的問題是:是否應該在設計機器人時加入允許他們影響人類行為的功能。 我們主要關注的是同伴機器人是否可以鼓勵人類進行慈善行為; 這種設計是否能使機器人誘發用戶產生有益於社會公正的行為,以及會產生哪些相關的道德問題。

機器人與行為微調

泰勒和桑斯坦(Thaler and Sunstein,2008)所定義的「微調」就是企圖在不依賴法律或監管機制的情況下塑造或指導行為。影響用戶行為的許多技術都是關係人工製品(Turkle,2005),但用戶不一定必須感覺到他們與某個對象之間存在某種形式的互惠關係,並促使該人的行為發生變化(例如,汽車顛簸導致司機減速,增強駕駛安全性)。 推薦技術也是一種行為微調。 程序可以通過使用氣味,聲音或圖像或通過引起客戶興趣的某些態度或信念來「推動」他們選擇特定產品(例如,該產品會讓你「更具吸引力」)。

奧巴馬總統的政府已經廣泛利用行為經濟學的見解來推動美國公民採取首選的行動方案,比如使納稅人在納稅申報方面更誠實(2015年白宮)。手段是向納稅人通報其他公民按時準確繳納稅款的記錄,對該人施加同行的壓力(Vinik 2015)。

與其他計算技術(如健身追蹤器或與健康相關的應用程序)類似,機器人有潛力推動用戶行為。 鑒於機器人現在和將來將以各種形式和尺寸建造,他們可以以多種方式與用戶進行互動,從指導到親密的陪伴。 主要可以作為朋友,看護者或人類助手。 這些伴侶機器人可以採取多種形式; 例如Paro,Jibo,Domgy,Nao和Pepper。

儘管機器人長時間與人類進行複雜、持續的互動的能力目前還很缺乏,但它可能已經出現了。 機器人專家預計,他們的技術將比現在更加複雜,數量級更高; 可用於全天候交互的機器人可能在未來出現。

與其他計算技術相比,機器人的獨特之處在於它們超越了單純的口頭和/或二維視覺表達的潛力。 空間接近度(proxemics),肢體語言(kinesics)和觸摸是機器人的物理特質,它使它能夠以手機,平板電腦或其他標準計算設備無法進行交互的方式與人類進行交互。 例如,像Nao或Pepper這樣的機器人可以朝著物理環境中的物體移動,這可以向用戶指示物體應該被拾起並移開。 或者,機器人可以拍拍背後的人以提供舒適感。 機器人的互動可能性在推動用戶行為方面提供了明顯的優勢。

同理心、慈善與機器

根據斯威克(Swick,2005)的觀點,同理心的關鍵組成部分是能夠檢測包括非語言因素在內的線索,並具有「自我關係意識」,這需要認識自己的感受並將其與別人的感受聯繫起來。有趣的是,Konrath等人 (2011)對1979至2009年期間進行的研究進行了薈萃分析,並得出了令人不安的發現,樣本期內,在大學生中的同理心急劇下降。此外,杜比(2014)認為,如果不共同努力培養未來幾代人的共鳴,人類可能無法應對資源短缺和氣候變化帶來的挑戰。

如果機器人能夠在用戶中培育移情,這可能是一個有益的結果。 當然,其他計算設備可以用來實現類似的目標,但重申一下,物理實現的機器人具有的優勢在於它可以用一系列的語言和非語言方式表達自己。 正如Zuckerman和Hoffman(2015)所述,機器人可以試圖「增加人們對他人情緒狀態的自我意識,導致人們行為的改變。」例如,一個機器人可以試圖通過提供消極的口頭反饋和姿勢上的變化,使用戶意識到他們話語中所帶有的性別歧視,種族主義或仇視同性戀傾向。 更一般地說,向用戶提示他人的需求和痛苦,具有在用戶與他人之間建立情感聯繫的效果。

對其他人產生同理心的一個可能結果是,用戶會進行更多的慈善行為。 有時,慈善可以代表捐贈者與他人產生情感的共鳴。 然而就我們所知,移情和慈善之間沒有必然的因果關係。 很明顯,一個人不必為了情感上的共鳴而做慈善; 事實上,罪惡感、經濟原因(例如,接受稅收減免)或獲得心理補償可能是慈善行為的動機。 然而,培養同理心應會導致更多的慈善行為。 即使我們正在設想機器人如何鼓勵用戶執行這些行為,我們也不會認為該技術至少在短期內能夠從根本上改變用戶的性格或個性。

未來,機器人的複雜性可能會進一步提高,以至於它們會融入到人們的日常生活中,甚至可能形成親密關係(Levy 2007; Whitby 2012)。在某種程度上,用戶的心理健康和幸福感可能與技術緊密相關。 然而現在,機器人更有可能成功改變用戶的態度或情緒(Moshkina and Arkin 2005)。因此,我們的主要目標是讓同伴機器人促進用戶的同理心,以推動用戶進行更多的慈善行為。

關於勸善智能可能性的探討

一個在數字時代被人們持續關注的問題是:計算技術是否會削弱個人對於他人的同情心(Turkle,2011)。惡意和殘酷的網路霸凌是一個例子。一位母親使用假名創建了一個在線賬戶,以便與女兒的故友進行交流,導致女兒的朋友自殺(ABC News 2007)。 玩網路遊戲的女性有時會遭受身體暴力和強姦威脅(Mettler,2016)。 互聯網論壇的粗魯行為非常普遍,許多公司依靠用戶標記攻擊性內容進行刪除。 此外,歐盟要求數家社交媒體公司制定戰略,以減少用戶在其網站上的仇恨言論(Hern,2016)。

一段時間以來,學者們警告說,「無風險」的在線行為正在對互聯網用戶的心理和道德發展產生有害影響(參見Dreyfus, 2004)。 Turkle(2011)批評計算機技術對道德產生的影響,因為它可能會降低人與人交往的頻率和質量; 技術的過度使用可能會扼殺有價值的社交技能的發展,並導致對其他人的同理心下降。 在她最近的一本書中(2015),她爭辯說手機正在破壞進行有意義對話的能力。

更先進的機器人的出現將進一步導致人與人之間的接觸減少。 如果與其他人交往確實是獲得同理心的必要條件,那麼人工智慧的進步可能是一個令人深感困擾的事件。 此外,如果用戶認為對機器人的不良行為是「無後果的」,那麼人們當然會認為,與機器互動的將會使人類缺少以往的同理心。

然而,也有理由相信機器人可以促進人類的同理心。 首先,人類與其它物質的交流也有可能使他們產生積極的特質。比如小說作家非常善於引發觀眾的情緒反應; 作家可以通過我們對角色的認同給予我們鼓勵(Carroll,2011),讓讀者對虛構角色投入情感。 此外,擁有寵物可以為兒童的同理心發展做出貢獻(Endenburg and van Lith 2011)。

機器人的設計為複雜的相關反饋提供了途徑; 例如,如果用戶詛咒,則複雜的同伴機器人可以通過口頭和非口頭提示的組合來表達失望。阿金的實驗室為此目的設計了一位道德督察,其中規定了一套特定的規則,以化解兩個參與者潛在的衝突(Shim和Arkin 2015)。Arkin(2014b)也一直在用開發機器人的方法來維護帕金森患者與護理人員互動時的尊嚴感。在這種情況下,機器人具有人類護理員的同理心模式,並監測患者在羞恥感、尷尬程度以及被護理員對待方式上是否存在差異。如果患者的感受存在顯著差異,機器人會採取行動協助恢復患者與護理員之間的關係。

勸善智能:時機很重要

實施勸善的時間與微調是否有效密切相關。 勸善計劃必須根據用戶的個人偏好、容忍度和性格進行調整。 首先,機器人不能使受試者感到厭煩,比如晚餐時間不請自來的推銷電話有時會激怒人們。 首先,用戶必須處於「正確的心境」,才能正確接受來自機器人的信息。 此外,機器人必須足夠清楚,何時說話最合適。 這至少需要一些特殊的建模方法以及心理學原理(Arkin 2014a)。 機器人需要能夠接受一些社交的規律,包括何時適合說話(而不是打斷用戶)。 如果機器人可以檢測到一個「脆弱的時刻」來勸善,用戶的慈善行為將變得更可能。基於案例的推理(Moshkina 2011),一種機器學習模式,也可以吸取以往關於慈善應該何時推動以及找誰推動的經驗。

現在,各種媒體平台的廣告商將機器的技藝磨練了幾十年。 例如,他們已經制定了將某些類型的產品與電視節目的目標人群配對的策略,使這些產品節目在特定的時間段播出。 但是在未來,如果機器人成為持久夥伴的潛力真正實現了,那麼機器人提供服務的時間要比電視或印刷媒體多的多。 舉例來說,移動機器人跟隨用戶的能力引入了在各種設置和情況下影響用戶行為的可能性。 這可能包括用戶正在看電視,吃飯或鍛煉的時候。


推薦閱讀:

覺得自己太可怕了,爺爺去世都沒哭,看葬禮像作秀一樣……我要怎麼改變自己?
熊孩子在父母眼裡叫「調皮」,在外人眼裡便是「作死」
談同理心
也談共情(同理心)

TAG:同理心 | 人工智慧 | 社會學 |