腦機介面四大倫理問題:神經科技和AI將如何重塑人機關係

編譯:祝林華,曹建峰

11月上旬,人們相繼被騰訊的WE大會和全球合作夥伴大會刷屏。科技如何改變著人類,始終是話題的中心之一。藉助神經科技表達自己的霍金似乎依然堅定地認為AI可能是人類文明中最糟糕的事件,在今年的WE大會上開始為了人類種族的持久延續而呼籲太空移民。半機械人(cyborg)Hugh Herr在今年的騰訊全球合作夥伴大會上的輕鬆踱步,讓人們看到神經科技和AI賦能人的心理和身體的巨大潛力。

誠然,在這波AI發展浪潮中,以腦機介面為代表的神經科技、AI以及人類的結合才是真正激動人心的部分,無論是為了治療先天的或者後天的心理、身體疾病,還是為了增強人類身心能力,抑或是為了通過對智能機器的控制來實現人機共存。Facebook、Google、馬斯克等企業和企業家都將腦機介面視為最重要的發展方向之一,足見腦機介面在未來神經科技和AI研究部署中的重要地位。

但另一方面,直接作用在人身體上的神經科技和AI可能帶來比AI在其他領域的應用更深遠的倫理影響。現實的案例已經表明,智能機器和腦機介面設備的運作可能使一個人開始懷疑自己的身份,懷疑自己的行為是自己的意識控制還是其他什麼設備控制,產生身份認同危機。通過操縱腦機介面設備來干預人的神經活動,進而影響人的感知和行為,並非天方夜譚。在軍事領域,通過神經科技和AI來大幅度提供士兵和軍事分析師的身心能力和數據分析能力,也正成為軍事研究部署的議題。電影《阿凡達》中受傷的退役軍人傑克靠意念遠程控制其替身在潘多拉星球作戰的場景,也並非空中樓閣。

鑒於腦機介面、神經科技和AI在人類身體上的應用已經很多(比如半機械人、人類身體修復和增強等),未來可能會有更加變革性的應用,提前探討、研究其中的倫理和法律問題是必要的。近日,《自然》雜誌撰文指出了神經科技和AI的四個首要的倫理事項,並提出了一些具體的建議。這四個首要的倫理事項包括,隱私和知情同意,對個人神經信息和活動的保護甚至可能上升為一項神經權利;個人身份和能動性,如何在技術賦能人類身心的同時確保人類自由和自主性;增強人類,技術增強、賦能人類的邊界問題需要更多探討;以及偏見,其他AI領域已經出現很多偏見,類似的偏見可能蔓延到腦機介面和神經科技領域,對人類身心造成影響。

一、基於神經科技和AI的腦機介面成為投資風口

一些世界上最富有的投資者正把賭注押在神經科技和人工智慧之間的相互作用。全球十幾家公司,包括Kernel和Elon Musk的旗下的創業公司Neuralink,都在投資、研發能夠「讀取」人腦活動和將「神經信息」寫入大腦的設備。據估計,目前營利性企業神經科技的支出已經達到每年1億美元,而且還在快速增長。來自於其他部門的投資也相當可觀。自2013年以來,已經有超過5億美元的聯邦資金流向了美國BRAIN計划下的神經科技發展領域。

這個技術目前的能力已經很強大了。一位因患有肌萎縮性脊髓側索硬化症(ALS)而癱瘓的神經科技家,通過使用BCI來運行他的實驗室,撰寫資助申請書並發送電子郵件。與此同時,北卡羅來納州達勒姆杜克大學的研究已經表明,三隻帶有電極植入物的猴子可以通過形成一個「腦網」來協同移動一個機械手臂。如果信號通過互聯網無線傳輸,這些設備可以在數千公里的範圍內工作。

很快,這種可以刺激和讀取最多幾十個神經元活動的粗糙裝置就會被超越。今年早些時候,美國國防部高級研究計劃局(DARPA)發起了一個名為神經工程系統設計的項目。它的目標是在4年內為無線人腦設備爭取獲得美國食品和藥物管理局的批准,該設備可以同時使用100萬個電極來監測大腦活動,並可以選擇性地刺激高達10萬個神經元。

與此同時,谷歌、IBM、微軟、Facebook、蘋果以及眾多初創企業正在構建越來越複雜的人工神經網路,這些人工神經網路在具有明確定義的輸入和輸出的任務上已經比人類表現得更好。

例如,去年,西雅圖華盛頓大學的研究人員證明,谷歌的FaceNet系統可以從一百萬人中識別一張臉。另一個具有類似的神經網路架構的Google系統在猜測判斷某張街景圖是在世界的哪裡被拍到的時候的表現遠遠優於經驗豐富的旅行者,這些都說明了這種技術的普遍性。今年8月,微軟宣布,在某些指標上,其識別會話語音的神經網路的能力已經可以達到訓練有素的專業人員(這些人可以選擇反覆倒帶和傾聽上下文中使用的詞語)的能力水平。德國弗賴堡大學的研究人員利用腦電圖(EEG)數據在7月份展示了如何利用神經網路來解碼與規劃相關的大腦活動,從而控制機器人。

未來的神經網路將基於對真實的神經網路的工作機制的更深入的理解,並將比上述例子更加強大。目前使用的人工神經網路是受超過50歲的腦迴路模型所啟發,這些模型是基於記錄麻醉動物中單個神經元的活動。在今天的神經科技實驗室中,由於光學方法、計算、分子工程和微電子學的發展,研究人員可以監視和操縱成千上萬的清醒的動物神經元的活動。

我們已經與我們的機器密切相連。谷歌的研究人員今年的計算表明普通用戶平均每年接觸手機近一百萬次(未發表的數據)。人腦控制著聽覺和視覺系統來解讀聲音和圖像,並命令四肢握住和操縱工具。然而,神經科技和人工智慧的發展趨同將會帶來一些本質上不同的結果,即人腦與機器智能的直接聯繫,以及對大腦和身體的正常感官功能的繞過。

二、腦機介面可能帶來倫理挑戰

思考下面這種情況:一個癱瘓的人正在參與腦機介面(brain-computer interface,簡稱BCI)的臨床試驗。與他大腦中的晶元相連接的計算機被訓練來解釋對一個行為的心理演練而產生的神經活動。計算機會生成移動機械臂的命令。有一天,這個男人對實驗團隊感到沮喪和失望。接著,他的機械手就把從一名研究助手的手裡接過來的水杯壓碎了,並傷害到了該研究助手。設備故障一定會成為道歉的說辭,但是他想知道他對該團隊的失望是否也起到了作用。

這種情況是假設的,但卻表明了社會可能面臨的一些挑戰。

目前的BCI技術主要集中在治療結果上,例如幫助脊髓損傷的人。它已經使用戶能夠執行相對簡單的電動任務,例如移動計算機游標或控制電動輪椅。此外,研究人員基本上已經可以從功能性磁共振成像掃描中解釋一個人的神經活動,比如他是在想一個人,而非一輛車。

距離BCI和其他神經技術成為我們日常生活的一部分,可能還需要幾年甚至幾十年的時間。但是技術的發展意味著我們正走向一個新的世界:能夠解碼人們的心理活動並直接控制伏於意向、情感和決策之下的大腦機制。在那種情況下,個體可以僅僅通過思想與他人交流,強大的計算機系統將直接與人的大腦連接以幫助其與世界交流,從而大大提高人類的身心能力。

這種進步可能會對很多疾病治療的條件產生變革性的影響,從腦損傷和癱瘓到癲癇和精神分裂症,並優化人類的治療體驗。但是這項技術也可能加劇社會不平等,為企業、黑客、政府或其他任何人提供新的利用和操縱人的方式。它可以深刻地改變一些人的核心特徵:私人的精神生活,個人能動性,以及將個體理解為被身體束縛的實體。

現在就對可能產生的後果加以考慮是至關重要的。

2017年5月,由神經科技家、臨床醫師、倫理學家和機器智能工程師等組成的Morningside Group在紐約哥倫比亞大學美國國家科學基金會主辦的研討會上,圍繞著神經科技和機器智能的倫理展開了討論。與會者認為,現有的道德準則對於這個領域是不夠的。其中包括1964年的赫爾辛基宣言,這是首份涉及人體對象醫學研究的道德原則的聲明,1979年由美國國家保護生物醫藥和行為研究受試者委員會制定的「貝爾蒙特報告」(Belmont Report),以及今年年初由企業領導人和AI研究人員簽署發表的23條Asilomar人工智慧發展原則。

為了解決這個問題,Morningside Group提出了四個方面的建議:隱私和知情同意;個人身份和自動性;人類增強;以及偏見。不同國家以及不同宗教、種族和社會經濟背景的人將有不同的需求和前景。因此,各國政府必須建立自己的審議機構,對涉及社會各界代表的公開辯論進行調解,並確定如何將這些指導方針轉化為政策,包括具體的法律法規。

三、《自然》雜誌指出神經科技和AI的四個首要的倫理事項及建議

神經網路如果想在一般消費者市場上獲得成功,其設備應當是非侵入性的,風險最小的,並且相較於當前的神經外科手術需要更少的部署費用。儘管如此,即使是現在,開發設備的公司也必須對其產品負責,並遵循一定的標準、最佳實踐和道德準則。

Morningside Group對應該立即採取行動的四個需要被關注的領域進行強調。雖然在神經科技領域提出這些問題,但這也適用於人工智慧。

1.隱私和知情同意(privacy and consent)

現有技術已經可以從人們的數據蹤跡中獲得大量個人信息。例如,劍橋麻省理工學院的研究人員在2015年發現,通過對個人設備上鍵盤打字模式的詳細分析,可以對人類的運動行為進行精細分析,從而使帕金森病的早期診斷成為可能。2017年的一項研究表明,對移動模式的測量,例如從正常日常活動中攜帶智能手機的人身上獲得的測量,可以用來診斷阿爾茨海默病導致的認知功能障礙的早期跡象。

用於定位廣告,計算保險費或匹配潛在合作夥伴的演算法如果利用神經信息(例如,來自與某些關注狀態相關的神經元的活動模式),將會更加強大。連接到互聯網的神經裝置打開了個人或組織(黑客、公司或政府機構)跟蹤甚至操縱個人心理體驗的可能性。

公民應該有能力,也有權利保留其隱私數據(另見「能動性和身份」)。對此,提出以下建議。

對於所有的神經數據,選擇退出共享的能力應該是默認的選擇,並受到嚴格的保護。人們在沒有充分理解他們在放棄什麼的情況下,就輕易地將他們的隱私權利交給了諸如互聯網瀏覽服務、社交媒體或娛樂等商業服務提供商。默認選擇退出意味著神經數據的處理方式與大多數國家的對器官或組織的處理方式相同。個人需要明確選擇分享來自任何設備的神經數據。這將涉及一個安全和可靠的過程,這樣的同意流程應包括明確說明誰將使用數據的、使用的目的和期限。

即使採用這種方法,來自許多自願共享者的神經數據,加上來自互聯網搜索、健身監測等等的大量非神經數據,也可以用來得出關於選擇不共享的個人的「足夠好的」結論。為了限制這個問題,建議嚴格管理神經數據的銷售、商業轉讓和使用。這樣的規定也會限制人們放棄神經數據或為了獲得經濟獎勵而將神經活動直接寫入大腦的可能性,這就類似於例如1984年美國國家器官移植法案之類的禁止出售人體器官的立法。

另一個保障是限制神經數據的集中處理。可以通過部署計算技術,如差別隱私或「聯合學習」,來保護用戶隱私(請參閱「保護隱私」)。使用其他專門設計來保護人們數據的技術也會有所幫助。例如,基於區塊鏈的技術允許對數據進行跟蹤和審計,「智能合同」可以透明地控制數據的使用方式,而不需要集中授權。最後,開放數據格式和開源代碼將使私有信息和傳輸信息的透明度更高。

保護隱私:聯合學習(federated learning)

當技術公司使用機器學習來改進他們的軟體時,他們通常會在伺服器上收集用戶信息,以分析特定服務的使用情況,然後在匯總的數據上訓練開發新的演算法。Google的研究人員正在嘗試一種稱為聯合學習的人工智慧訓練方法。在這種方法下,訓練過程本地化地發生在每個用戶的設備上,而不用集中數據:從數據中匯總的知識(例如,「每周」可以用作形容詞和副詞的知識)被發送回Google伺服器,但實際的電子郵件、文本等則保留在用戶自己的電話上。其他小組正在探索類似的想法。因此,配有改進版設計的信息系統可以用來增強用戶對其個人數據的所有權和隱私性,同時滿足對這些數據執行有價值的計算的需求。

2.能動性(agency)和身份(identify)

有些人通過植入腦部的電極來接受深腦刺激,他們感受到了能動性和身份發生了改變的感覺。在2016年的一項研究中,一個使用大腦刺激器治療長達7年的抑鬱症的男人在一個焦點小組中報告說,他開始懷疑他與他人互動的方式,例如,在印象中,他覺得不恰當的東西是出於設備的影響,他的抑鬱或是否反映了他自己的更深層的東西。他說:「這使我不確定的一些點變得模糊......坦率地說,我是誰。」

神經科技顯然會打亂人們的身份感和能動性,並且動搖了關於自我和個人責任(法律或道德)之本質的核心假設。

如果機器學習和大腦介面設備能夠在意圖和行動之間實現更快的轉換,那麼人們最終不再會以他們自己所聲稱的方式行事,而可能通過使用「自動完成」或「自動糾正」功能。如果人們能夠在更遠的距離範圍內通過意識來控制設備,或者如果有幾個大腦被連接起來協同工作,那麼我們對於我們是誰以及我們在哪裡行事的理解就會被打亂。

隨著神經技術的發展,企業、政府和其他人開始努力賦予人們新的能力,個人本體(我們的身心健全)和個人能動性(我們選擇自身行動的能力)必須作為基本人權加以保護。

建議在1948年「世界人權宣言」等國際條約中增加保護這些權利的條款(「神經權利(neurorights)」)。然而,這可能還不夠,因為國際宣言和法律只是國家之間的協議,甚至「世界性宣言」是沒有法律約束力的。因此,主張制定一項國際公約,以界定與神經技術和機器智力有關的被禁止的行動,類似於2010年「保護所有人不遭受強迫失蹤國際公約」所列的禁止行為。一個相關聯合國工作組可以審查簽字國的遵守情況,並在需要時提出制裁建議。

這些聲明還必須保護人們對神經科技可能產生的認知和情感影響接受相關教育的權利。目前,同意書通常只關注手術的身體風險,而不關注設備對情緒、性格或自我意識的可能產生的影響。

3.人類增強(human augmentation)

如果人們的身體或大腦的功能與大多數人不同,他們經常會遭受偏見。採取加強神經技術的壓力,如允許從根本上擴大人的耐力或感官或智力能力,可能會改變社會規則,引起公平渠道問題,併產生新的歧視形式。

此外,我們很容易設想到一場增強性的軍備競賽。近幾年來,美國國防部高級研究計劃(DARPA)的工作人員和美國情報高級研究項目活動(US Intelligence Advanced Research Projects Activity)討論了為士兵和分析師提供更高智力的計劃(「超級智能體(super-intelligent agents)」)。這些將用於戰鬥設置,並更好地解碼數據流。

由於很難預測哪種技術會對人類生活造成負面影響,所以任何畫線都不可避免地會模糊不清。但是,烈建議國際和國家兩級均制定準則,對可以實施的增強神經技術設定限度,並確定可以使用的背景,類似於人類對基因編輯所採取的措施。

隱私和個性在一些文化中比其他文化更受重視。因此,監管決策必須在具體文化背景下進行,同時尊重普遍權利和全球指導方針。而且,徹底禁止某些技術可能會把它們推到地下,所以制定具體的法律法規的諸多努力中,必須包括有組織的論壇,以便進行深入而公開的討論。

這種努力應該借鑒國際上建立國際共識和將公眾輿論吸收納入科學決策的先例。例如,第一次世界大戰之後,1925年的一次會議導致了制定和批准禁止使用化學和生物武器的「日內瓦議定書」。同樣,第二次世界大戰之後,聯合國原子能委員會的成立是為了和平利用原子能,並控制核武器的擴散。

特別是,建議對神經科技用于軍事目的進行嚴格管制。顯而易見,任何禁令都應該是全球性的,並且由聯合國領導的委員會發起。雖然這樣的委員會和類似的努力可能不能解決所有的增強問題,但是它們是公開承認克制的必要性的最佳模式,並且是為技術的開發和實施提供了廣泛的投入的最佳模式。

4.偏見(bias)

當科學或技術決策建立在一系列系統性/結構性或社會性的概念和規範的基礎之上時,由此產生的技術可以使某些群體享有特權,並損害其他群體利益。2015年的一項研究發現,Google的廣告演算法向女性用戶展示的工作貼子比向男性展示的要少。同樣,ProPublica調查顯示,去年美國執法機構使用的演算法在兩份相似的犯罪記錄的基礎上,錯誤地預測黑人被告比白人被告更有可能重新犯罪。這樣的偏見可能會嵌入到神經裝置中。事實上,研究這類案件的研究人員已經表示,以數學方式嚴謹地界定公平性是非常困難的。

工業界和學術界已經就應對技術內部偏見的實踐展開了討論。對為了給有問題的偏見做出更普適、更標準的定義而言,這種正在進行的公眾討論和辯論是有必要的。

防止產生偏見的措施應當成為機器學習的規範準則,建議可能的用戶群體(尤其是那些已經被邊緣化的用戶群體)對演算法和設備的設計提供投入,以便確保從技術開發的第一階段開始,偏見問題就被解決了。

四、負責任的神經工程和AI工程,倫理教育應當成為神經科技和AI研發人員的必修課

許多建議的背後,是呼籲工業界和學術界的研究人員承擔設計出能夠帶來這種變化的設備和系統的責任。在這樣做的時候,他們可以借鑒為負責任的創新而已經開發了的框架。

除了上面提到的指導方針外,英國工程和自然科學研究理事會還提供了一個框架,鼓勵創新者「以預期,反思,參與和行動」的方式「促進......科學和創新的機會(這些創新在社會上是可取的,是為了公眾利益而進行的)」。為解決AI領域中的這一問題,IEEE標準協會於2016年4月制定了全球倫理倡議,旨在將道德規範融入所有AI和自動化系統的流程設計中。

歷史表明,在企業界,對利潤的追逐往往會壓過對社會責任的承擔。即使大多數技術人員在個人層面上開始造福人類,他們也可能會面對複雜的沒有預先準備好的倫理困境。通過將行為道德準則嵌入工業界和學術界,思維方式可以改變,設備製造商的裝備也會更好。

實現這一目標的第一步是將倫理教育作為工程師、其他技術開發人員和學術研究受訓人員加入公司或實驗室的標準培訓的一部分。可以教導員工更深入地思考如何追求進步和部署可能對社會有建設性貢獻,而不是破壞社會的戰略。

這種方法本質上學習醫學中使用的方法。醫學院的學生要接受關於病人的保密性、無傷害性以及善意和公正的義務等的教育,並且要求秉持希波克拉底誓言以堅持這個專業的最高的職業標準。

神經技術的臨床和社會效益是巨大的。為此,我們必須以尊重,保護和以使人類最大受益的方式來引導其發展。

《自然》文章鏈接:nature.com/news/four-et


推薦閱讀:

TAG:人工智慧 | 腦機介面 | 倫理 |