在飛速發展的AI面前,道德還真是個問題
大約兩周前,斯坦福大學的研究人員在網上發表了一篇關於最新「反烏托邦」 AI (人工智慧)的研究報告:他們發明了一個本質上可以視為「同志雷達」的機器學習演算法。經過成千上萬張在線交友網站上的照片訓練後,該演算法在特定情況下可以比真人的判斷更加準確。例如,當給出從在線交友網站上獲得的一堆白人男性照片時,在猜測其中誰不是直男這一點上該演算法可以做到比參與研究的實際人員更加準確。至於研究人員的動機嘛?別誤會,他們其實是想保護同性戀人群。 「我們的發現揭示了同性戀男女隱私和安全的潛在威脅。」 Michal Kosinski 和 Yilun Wang 在論文中這樣寫到。他們親自造了這顆「炸彈」,以便能夠提醒公眾其危險性。
不過,似乎他們的好意並沒有得到理解。在一份聯合聲明中,LGBT團體、人權運動組織和反歧視同志聯盟譴責了這項工作,上面寫到研究人員建造了一個基於「垃圾科學」(如垃圾食品般毫無營養的科學)的工具,它可以被政府用來識別和迫害同性戀群體。微軟研究院的 AI 專家 Jate Crawford 在推特上則稱之為「 AI 面相學」 。原打算出版這篇文章的美國心理學會的雜誌,現在則稱這項研究正在「倫理審查」中,而 Kosinski 本人已經收到了死亡威脅電子郵件。
但這項爭議揭示出了 AI 領域中比任何一種演算法都要大的問題。數據與社會的倫理學家 Jake Metcalf 說,越來越多的社會科學家正在使用 AI 來解決社會的弊端,但他們卻沒有明確的道德準則來防止誤傷他人。「缺少一致的標準或者透明的審查機制,」他這樣說到。目前管理社會實驗的指導準則是過時的,並且通常是無關緊要的——這意味著研究人員必須在研究過程中制定特定的規則。
現在,如果政府資助的科學家想進行人類研究,法律規定他們必須獲得被稱為機構審查委員會(IRB)的道德委員會批准。斯坦福大學審查委員會批准了 Kosinski 和 Wang 的研究,但這些委員會使用的是40年前制定的用來保護人們在現實生活中的互動的規則,比如抽血或接受採訪。Metcalf 說:「這些規定是針對一種非常具體類型的研究傷害和一組特定的研究方法而設計的,而這些研究方法根本不適用於數據科學。」
例如,如果你在研究中只是使用資料庫而不與真人交互,那麼你並不一定非得諮詢審查委員會,審查委員會也不得根據其潛在的社會後果對研究進行評估。Metcalf 說:「絕大多數所謂的『大數據』研究都並不在聯邦法規的範圍內」。
所以研究人員必須時刻把道德納入考慮中。比如最近的一個例子——上個月,隸屬於石溪大學和幾家主流互聯網公司的研究人員發布了一個免費的 App ,一種通過名字來猜測種族和國籍大約能達80%準確度的機器學習演算法。他們使用來自推特的數百萬名字和由一個未公開公司提供的電子郵件聯繫人名單來訓練該演算法,並且他們製作這個 App 無須通過大學審查委員會。
這個名為 NamePrism 的 App 可以讓你一次分析數百萬個名字以發現社會層面的趨勢。曾經在這個未公開公司工作過的石溪大學計算機科學家 Steven Skiena 表示,你可以用它來追蹤各行各業的招聘傾向。「做這個工具的目的是用來發現和防止歧視。」 Skiena 說到。
Skiena 的團隊希望學者和非商業研究人員來使用 NamePrism(他們並未獲得商業資金來支持 App 伺服器運行,儘管他們的團隊成員包括亞馬遜、雅虎、Verizon 和 NEC的研究人員)。非隸屬於 NamePrism 的加州大學技術預測研究所所長兼心理學家 Siran Young 說,他可以預見到自己在艾滋病預防研究中使用該 App 來有效針對和幫助高危人群,特別是其中的少數族裔男性。
但最終 NamePrism 也只是一個工具,如何來使用它還是掌握在用戶手裡。普林斯頓大學的社會學家和「逐位:數位時代的社會研究」一書的作者 Matthew Salganik 說:「正如你可以用鎚子來建造或是摧毀房屋,你可以用這個工具來幫助識別潛在的歧視,但與此同時你也能用它來進行歧視。「
Skiena 的小組在發布 App 之前已經考慮到可能出現的濫用問題。但由於無須通過大學的機構審查委員會,他們採取了自己的保障措施。在網站上,匿名用戶每小時只能測試不超過一千個名字,並且 Skiena 表示如果有必要,他們還會進一步對用戶加以限制。想要使用該 App 進行大規模研究的研究人員必須向 Skiena 申請許可,他將這個審批流程描述為「非常特別」。他拒絕接觸企業並且接受有「看上去合理的研究課題」隸屬於既有機構的學者提出的申請,他還指出這些人名都是公共數據。
該團隊還對提供訓練名單的公司進行了倫理審查,儘管 Metcalf 表示,對私人公司的評估是「他們可以做的最低水平的審查」。這是因為法律不要求公司也遵循與公共資金資助研究相同的規定。「對你我而言,如何評估以及是否可靠,都不是透明的。」 Metcalf 說到。
但問題不在於 NamePrism 。「這個工具本身不可能造成很大的傷害。」 Metcalf 說。事實上, NamePrism 可以做很多有益的事情。相反,問題是周圍破碎的道德體系。AI 研究人員 ,有時懷以最崇高的意圖,但卻沒有明確的準則來避免潛在的危害。「這不是很性感。」 Metcalf 說,「在這個故事中可沒有天網或終結者。」
Metcalf 以及來自其他六個機構的研究人員最近組建了一個名為 Pervade 的小組來試圖修復這個道德系統。今年夏天,他們從國家科學基金會獲得了三百萬美元的撥款,在接下來的四年里, Pervade 希望為大數據研究制定一個大學和公司都可以使用的更清晰的道德程序。他說:「我們的目標是確定哪些規定實際上是有幫助的。」 但在此之前,我們只能寄望於陌生人的善良和遠見卓識。
也許你還想看
你們都誤會了,王力宏這首A.I.愛其實探討了一個深刻的哲學問題
刷臉的世界可比你想像中要複雜多了
單身宅男的曙光:虛擬現實新娘
Flash動畫的互聯網興衰史
「蠢客馬拉松」到底有多蠢?
互聯網圈的玄學你不懂
↑這是個二維碼你懂的↑
點擊閱讀原文,在天眼通視頻社區發現更多精彩。
推薦閱讀: