如何評價 Facebook 通過操縱 newsfeed 影響用戶情緒的試驗?
Facebook 在用戶不知情的情況下,做了一項試驗,通過操控 newsfeed 的顯示成功影響了用戶的情緒,他們起初非常自豪地宣布此項成果。遭到公眾的一致譴責,後來 Facebook 涉事的研究員也公開發表道歉。
這樣的做法是否違反用戶協議或者道德,或者加州法律?Facebook 作為一間有完善企業部門架構和企業道德規範約束的公司為什麼這樣的做法一開始就能通過?是否大多數公司也會利用龐大的用戶數做這些對用戶安全有風險的試驗(只是大多數沒披露)?
&> 「I wonder if Facebook KILLED anyone with their emotion manipulation stunt. At their scale and with depressed people out there, it』s possible,」 the privacy activist Lauren Weinstein wrote in a Twitter post.
&> 「I can understand why some people have concerns about it, and my co-authors and I are very sorry for the way the paper described the research and any anxiety it caused,」 he wrote.
&> But the social network』s manipulation of its users』 feelings without their knowledge stirred up its own negative reaction. Some Facebook users and critics suggested that the company had crossed an ethical boundary.
Source: Facebook Tinkers With Users』 Emotions in News Feed Experiment, Stirring Outcry - NYTimes.com
鑒於僱主利益相關,匿名回答了。
-----------------聲明:本回答代表我本人個人觀點,不代表我的僱主(包括Twitter和Cornell)----
1) 顯然沒有違反任何法律,在FB這樣的公司,稍有疑慮就會跟PR還有Law諮詢,如果碰到法律的線,那顯然過不了。
2)商業道德不好界定,因為這完全是在對自身的用戶進行操控,而非傳統意義上對競爭公司進行打壓欺騙的「商業不道德」。但是顯然,這會使很多用戶產生懷疑和擔心,這個意義上,顯然是FB本身用戶的不公和欺凌。
3)幾乎*每個*公司都會搜集用戶的信息,即使不使用;幾乎*每個*公司都會額外搜集用戶的信息,即使用戶沒有consent;幾乎*每個*公司都會進行A/B testing來試驗新的功能。在這個意義上,FB只不過是把他們的試驗發表出來了,而其它公司沒有而已。但是可以100%肯定的是,每一家公司都在這樣做,只是有的你知道,有的你不知道而已。我所知道的灣區你叫得上名的公司,全在進行這些試驗。
4)其實更應該問的是,為什麼大學和研究機構內的研究員可以被允許參與這樣的實驗。注意,在美國所有的大學中,如果要進行任何跟人有關的實驗(哪怕是問一個無關緊要的問卷調查),也必須學校的IRB通過。IRB平常的職責,就是審查實驗中的不道德/非倫理,對被試哪怕有一點點的傷害之類的現象。只要IRB覺得這個實驗對被試有影響,那麼教授和研究生是不得參與這個實驗的,更別提發表了(違反這個後果都很嚴重)。因此,注意到第二和第三作者都是學術圈的人,他們參與這個實驗IRB一定通過了。
綜上,這整個實驗整個是一個公司行為,其它很多公司都在做同樣的事情,只是剛巧這個實驗發了出來,讓人們覺得不舒服。但是從前提講,它應該是一個嚴謹的,經過審核決定對被試幾乎沒有損害的實驗。
注意: 我並不是要為FB辯解,我只是在描述這整個現象。沒有人說這個現象完美,我也希望這樣的事情爆光,可以督促掌握我們數據的公司多多用力來增加我們對他們的信任。
-----------------------------------------------------
鑒於樓下有同學懷疑Cornell的研究者沒有通過IRB的猜測,我覺得對他們是不公平的。取消匿名出來說話了(不然似乎沒法修改回答了)
原因有下,我在引文中給出我的理解和相關引用。引用憶記同學的答案在引文中,我的回復在代碼框中。
其實前面說了這麼多,只是想在不完全跑題的情況下,說說這件事對那兩個大學的研究人員以及那兩間大學(UCSF和Cornell)意味著什麼。在我看來,這個實驗絕對違反了和人相關的研究倫理,無論是那兩個人還是那兩間大學,都要為日後可能發生的糾紛負責
1. 違反了參與研究的自願性原則
用戶是在不知情的情況下參與研究的,除了失去了知情權,自願性更是無從談起。正常而言,研究在需要在研究開始前,向參與者講清楚在研究中可能的遇到危險、個人受到傷害的情況,參與者在了解清楚之後,自願決定是否參與研究。
用戶不知情做得的確很糟,但是想想看,如果facebook的實驗是:「用戶點擊如何影響用戶點擊行為」的話,公眾不可能有這麼大的反應。
公平地說,這類實驗會產生觀察者效應【1】,因此,沒有辦法在告知用戶的情況下進行實驗。所以對於此類實驗只有兩種可能:做,或者不做而已。
2. 違反了「研究過程如存在操縱、期滿等情況,需在研究結束後和參與者主動解釋清楚」的原則
用戶是在不知情的情況下結束研究的。由於整個過程Facebook對用戶看到的news feed進行了操控,這種操控根據研究倫理,是有必要向參與者在研究結束後說明的。而顯然這個研究中所有的參與者都沒有收到這個解釋。到目前為止,這個研究的研究者是在研究報告發表的2014年,研究結束後的2年後被動地、對公眾(而非針對性地對曾經參與的研究者)進行解釋的
我同意。
一般而言,這樣的研究如果不作出修改是不會通過大學的Institutional review board的。但是如果再考慮@ Lawrence Li在某個回答下的評論提到的文章(Even the Editor of Facebook"s Mood Study Thought It Was Creepy)的這兩段話,那麼問題就比純粹的違反研究倫理更加嚴重了,可能涉及欺詐
注意:你鏈接的文章中,提到的是FB的review board覺得這個實驗creepy,而你前面又在說IRB沒有通過這個實驗,混淆了概念。
美國的大學中,都會有IRB。而公司的研究機構中,據我所知只有Microsoft有自己的IRB並且要求自己所有的僱員的涉及人參與的實驗(甚至動物)都通過IRB審查。但是,FB本身是沒有IRB審查的。也就是說,程序上,即使FB的editor再不爽覺得再creepy,他也沒法限制強制地指導實驗者進行不進行這個實驗。能說話的完全是公司利益,實驗者的manager,以及FB的公共關係。所以,這完全沒使研究倫理更加嚴重,更別談欺詐了。
這兩段話的大意是,這個研究在提交給Cornell的IRB審查時,研究計劃書描述的這個研究是「利用過去已有的數據進行的研究」,這類型回溯性研究一般是不會涉及操控的。但是實際上,已經發表的研究報告明白地提到,這是一個實驗,涉及到操縱,而且用的不是過去已有的數據,而是在2012年1月11~18日這一周內操控某部分用戶實時上看到的news feed
首先,我本人在康奈爾提交過IRB,以我經過的程序來看,過程之繁瑣細緻,答主完全不必擔心CU的IRB審查力度。
其次,注意到文章的第二,三作者才分別是UCSF和CORNELL的研究者。熟悉跟公司合作的同學都應該清楚,二三作者根本沒有許可權接觸到任何敏感的數據。這可不是鬧著玩兒的,FB的股票各方面評級都那麼好,除了內部交易風險高,是要通過一個實驗就輕鬆給了別人,那扎克伯格還做不做生意了。跟公司合作過的同學老師也應該都知道,通常公司一作的話,實驗完全就倫不到二三作者來說話。況且,一作向來就是默認通訊作者。
至於用「過去已有的數據進行研究」,也是站不住腳的。
因為,如果你為了欺騙IRB,第一次提交實驗,輕描淡寫試圖胡弄過去,第二次再提交實驗描述的時候,IRB還是會慢慢給你審個遍,想混水就別想了。
另外,這裡Fiske指的數據也完全可以是過去「操作搜集」的數據。本來實驗就分擾動性實驗和觀察性實驗,「操作」在這裡這完全沒什麼不合適的(當然操作的內容是什麼,IRB需要擔心)。
我只能猜測,那兩個在大學的研究人員十分清楚如果將研究的實情寫在計劃書里,IRB是不會批的,所以在計劃書里撒了謊,然後和Facebook合作進行了這個研究
寫了這麼多,我主要是想反對你這裡。
我覺得這位答主非常不負責任。為什麼這麼武斷就要推斷他們對IRB撒謊呢?首先從你的回答來看,你並不是很了解大學裡和公司里實驗審查是在怎麼做。另外,你猜測他們對IRB撒了謊,看來只有IRB自己出來說話才能讓您了解好情況了【2】。
UCSF的那位哥們我不知道,但是三作Jeff Hancock作為學院的chair且在CU任職多年,在我跟他有限的合作中,也完全沒覺得他能是一位膽敢欺騙到IRB頭上的教授(老實說,這事可真不敢打馬虎眼,tenure雖然是tenure,但是這種事情要真是像這位答主聲明的這樣,那丟了職位不說,名聲也掃地了)。
至於這件事到最後,Facebook和那兩間大學,我覺得都難辭其咎
Facebook也許吧,但UCSF和Cornell沒什麼好難辭的。
以上。
【1】觀察者期望效應
【2】http://mediarelations.cornell.edu/2014/06/30/media-statement-on-cornell-universitys-role-in-facebook-emotional-contagion-research/?utm_source=hootsuiteutm_campaign=hootsuite
我想起了在這裡(對用戶來說,「免費」的定價模式真的好嗎?)看到的一個回答提到的一句話:
「如果商家為你提供免費服務,那你就不是他們的客戶,而是他們的產品。」
Facebook是這樣,知乎也是這樣,大多數SNS是這樣,大多數網站是這樣
我覺得Facebook沒有違反2013年11月15日更新後沿用至今的用戶協議;但這個實驗本身違反了和人相關的研究倫理
首先說Facebook是否違反用戶協議:
- 沒有違反2013年11月15日更新後沿用至今的用戶協議
- 是否違反實驗進行當時的用戶協議:不得而知
我特地去看了那個基本上沒有人會看的Data Use Policy,下面是我覺得和這件事有關的部分的截圖
因為所有用戶在註冊的時候都同意了這份協議,而顯然其中說明了用戶數據可用作研究用途,所以沒有違反截圖裡的這份協議。但是實驗進行的時間是2012年1月11~18日,這份協議在2013年底更新了。在更新之前有沒有這一條,我不知道
是否違反加州法律:不了解,沒有發言權
是否違反「道德」
如果僅從商業道德來說,我覺得沒有違反。這個推斷源於「是否違反用戶協議」的推斷,即用戶同意Facebook這麼做。但是這方面其實我也不熟,只是沒有太多根據的個人想法
其實前面說了這麼多,只是想在不完全跑題的情況下,說說這件事對那兩個大學的研究人員以及那兩間大學(UCSF和Cornell)意味著什麼。在我看來,這個實驗絕對違反了和人相關的研究倫理,無論是那兩個人還是那兩間大學,都要為日後可能發生的糾紛負責
1. 違反了參與研究的自願性原則
用戶是在不知情的情況下參與研究的,除了失去了知情權,自願性更是無從談起。正常而言,研究在需要在研究開始前,向參與者講清楚在研究中可能的遇到危險、個人受到傷害的情況,參與者在了解清楚之後,自願決定是否參與研究。
2. 違反了「研究過程如存在操縱、期滿等情況,需在研究結束後和參與者主動解釋清楚」的原則
用戶是在不知情的情況下結束研究的。由於整個過程Facebook對用戶看到的news feed進行了操控,這種操控根據研究倫理,是有必要向參與者在研究結束後說明的。而顯然這個研究中所有的參與者都沒有收到這個解釋。到目前為止,這個研究的研究者是在研究報告發表的2014年,研究結束後的2年後被動地、對公眾(而非針對性地對曾經參與的研究者)進行解釋的
這兩段話的大意是,這個研究在提交給Cornell的IRB審查時,研究計劃書描述的這個研究是「利用過去已有的數據進行的研究」,這類型回溯性研究一般是不會涉及操控的。但是實際上,已經發表的研究報告明白地提到,這是一個實驗,涉及到操縱,而且用的不是過去已有的數據,而是在2012年1月11~18日這一周內操控某部分用戶實時上看到的news feed
我只能猜測,那兩個在大學的研究人員十分清楚如果將研究的實情寫在計劃書里,IRB是不會批的。最後提交的計劃書對研究的方法故意做了錯誤的描述(不知道三個研究者是否此時都對此知情),然後進行了這個研究
至於這件事到最後,Facebook和那兩間大學,我覺得都難辭其咎
如果把fb看成一個學術界的實驗室,那顯然「不道德」。
正常的實驗室誠招被試,哪怕只是填個問卷,也要徵求對方同意,講清楚利害關係(意思是這是個協議,你得有知情權),保留你自由選擇和退出的權利。大部分協議里還會包括給被試者八十塊錢什麼的(否則沒哪個有興趣做你的被試)。
不過仍有一些值得討論的問題。
一是關於商業道德。如樓上的匿名用戶所言,商業界都收集用戶的信息啊,有的用來作實驗了,有人直接用它賺流量和廣告費,是不是更惡劣呢?
二是關於大數據時代,挖掘數據和人們常規意義上的實驗有什麼區別呢?用戶被動地被挖掘數據,沒有被打擾(雖然看到廣告很無語但那是挖掘數據的結果而非過程),沒有情緒波動,沒有因為情緒波動產生的利益問題。FB做的事真的只是挖掘數據嗎?某種意義上,是製造並挖掘了數據吧。
反對說兩所大學可能欺詐IRB獲得通過的答案,沒有證據只通過結果返回去摳字眼的指責都是耍(xia)流(bi)氓(bi)。
關於academic,引用一下 The Faculty Lounge: How an IRB Could Have Legitimately Approved the Facebook Experiment 這篇blog最後一句:What corporations can do at will to serve their bottom line, and non-profits can do to serve their cause, we shouldn』t make (even) harder—or impossible—for those seeking to produce generalizable knowledge to do.
何況這篇blog里也解釋的很清楚了,minimal risk的study是可以被IRB通過的,除非你真覺得FB改下news feed的順序就能讓人抑鬱到上天台了?那樣的話還是洗洗睡吧半夜記得不要起床看世界盃。
再說,對FB這次義憤填膺的人就這麼不想了解emotion manipulation到底對人有什麼影響,寧願
被隨機manipulate到也不願別人有控制的給你放幾個廣告搞清楚到底你會不會被manipulate?(貌似結果證明大部分人皮糙肉厚根本不鳥那些廣告...)
推薦閱讀:
※為什麼google和facebook取消了密保問題來找回密碼?
※有人實踐過 Phabricator 以及 Arcanist 作為 code review 的工具么?
※Facebook 是怎麼做反垃圾信息的 (antispam)? 都有哪些可取之處?
※Facebook 的價值到底體現在哪裡?
※Facebook 的「Like」功能,背後有哪幾層考慮?
TAG:Facebook | 信息流廣告NewsFeed | 用戶隱私 | 大數據 |