看照片就知是不是gay? 他們研發出這個判斷性取向人工智慧, 被全世界罵慘了…

?

話說,性取向這事兒,

對很多人來說一直都是一個很私密的話題...

人們可以有各種理由選擇出櫃,也可以有各種理由待在柜子里。

自己到底是直是彎,就像腳板底襪子的破洞一樣,只有自己心裡清楚....

但是....

科學上,能不能從外貌看清一個人的性取向??

終於,在人工智慧的加持下.... 科學往這個方向,進了一步.....

斯坦福的兩名研究員做了一個研究,

僅憑一張照片,AI就能識別出對方是直是彎... 準確率不低...

這兩名研究員是電腦專家Yilun Wang,和Michal Kosinski。

Wang曾經在谷歌工作過,在2016年他在斯坦福大學就專攻人工智慧,是個技術派。

Kosinski是大數據專家和心理學家,愛好是通過人們在社交網路上的足跡來研究人類的行為。

Kosinski以前就搞出過不少有爭議的大新聞,

比如通過分析人們臉書上的自我介紹,來判斷他們的人格;

通過臉書上的活動,來預測人們是選擇脫歐還是留歐;

最有名的是,他的大數據技術幫助川普團隊找到潛在的支持者,被認為成功幫助川普當上總統....

『臉書上留下的所有痕迹,不管是有意還是無意的,其實都是在做心理測試題。』他說。

這一次,Kosinski盯上了約會網站上的...gay們。

他和Wang想知道,在照片數量足夠多的情況下,能不能通過AI,讓它判斷一個人的性取向。

兩人在美國一家很受歡迎的約會網站上隨機挑選了14,776人,其中男女彎直,數量均等。

在這1萬多人中,再隨機挑選他們的照片,最終得到35,326張圖。

因為約會網上上每個人都清楚地寫了自己的取向,只要把照片和取向在電腦上同時輸入就行了。

之後,他們用一種很主流的分析人臉的工具,Face++,將照片上的面部特徵用數據的方式分析出來。

然後讓電腦通過一種叫做『深度神經網路』(Deep Neural Networks)的判別模型,學習這些臉部特徵,最終,AI能夠判斷一個從來沒見過的人,他的性取向是男是女....

以上這些聽上去沒什麼,

但重點是結果.....

他倆發現,AI『鑒gay』這件事,準確率居然真的挺高...

如果,

把一張直男照和一張gay照放到AI面前,它判斷gay的準確率有81%。

如果每人不止給一張圖,而是5張,那麼它判斷出gay的準確率會飆升到91%....

AI在鑒定蕾絲的能力上要差些,

如果只看一張照片,那麼準確率是71%,

如果每人給5張照片,準確率是83%。

(下圖是隨著照片數量的增加,準確率上升)

但是人呢?

人判斷他人直彎的準確率如何,不是號稱有『gay達』嗎?

嗯,Kosinski和Wang隨機找了一幫美國工人,

也是給他們看同樣的照片,但人判斷的準確率,對gay的正確率為61%,對蕾絲,是54%.. (2選1,瞎蒙大概是50%的正確率這樣)

Wang和Kosinski還找到很多有趣的信息:

在電腦分析的時候,他們發現異性戀與同性戀在臉部上的差別,主要集中在幾個地方。

(下圖紅色部分)

對男性而言,鼻子,眼睛,眉毛,臉頰,頭髮和下巴,這些地方的不同能夠讓AI識別出他的性取向;

對女性,則是鼻子,嘴角,眉毛、頭髮和領口。

通過大數據分析,Wang和Kosinski發現,

總體而言,同性戀男人的鼻子比直男的鼻子更窄、更長,他的臉也更瘦長一點;

而和直女相比,同性戀女人的頜骨較大,額頭較小。

(下圖左列為直,右列為彎)

這是他們繪製出的特徵圖,

紅筆畫的是同性戀的臉型,綠筆是異性戀的臉型。

單純看臉???

那麼這件事,有科學理論依據么?

兩人在論文中寫道,他們認為這個結果證明了『胎兒激素暴露理論』。

這幾年來,有這麼一種理論:

當胎兒在媽媽的子宮裡時,子宮裡某些激素的過高或過低,會導致孩子出生後的情緒和行為的不同。

曾經有科學家發現,

胎兒過多地暴露在緊張激素下,成年後更可能有情緒問題...

激素還能影響孩子們的性取向,和童年時不同的行為特徵...

兩位斯坦福研究員認為,

在子宮裡時,因為過少(對男胎)和過多的雄性激素(對女胎),導致一部分人是同性戀,並且這些激素對他們臉部的形成、個人喜好,和行為都有影響。

而激素也有可能影響到臉型,這就是為什麼,性取向和臉可以有聯繫。

兩人的論文經過諸多大牛的同行審核,

在上周在業內頂尖的《人格與社會心理學期刊》上發表....

兩人本來挺開心,

但是在《經濟學人》的記者9號報道了這篇論文後,

他們遭到了來自網友的猛烈抨擊....

人們一開始的態度是:

完全拒絕,同性戀和異性戀不可能長相上有差異。

著名的同性戀權益團體GLAAD和HRC發公告駁斥這篇論文。

他們主要的論點是,這篇論文非常不嚴謹,是一項『垃圾研究』,比如整個研究樣本里都是白人,缺少有色人種,沒有經過同行審核(其實審過了),沒有調查雙性戀,沒有區分性取向和性行為,等等....

所以,他們的結果不可信。

Kosinski覺得,這完全是感情用事。

他轉推了另一個教授的話:

『因為和你的意識形態不一樣,所以全盤否認一項科學結果...你最終可能傷害到你愛的人。』

他們還寫了一篇長長的『作者的話』,把同性戀團體的論點都拆開分析,力證自己沒有錯...

另一群網友的觀點是:

好吧,就算性取向和臉部差異掛鉤,

但是,

我是啥取向就是啥取向,為什麼要讓你知道?

你有什麼權利知道?

這個AI是侵犯個人隱私。

但Kosinski說,他們做這個研究,其實就是想提醒政府,保護現在人們的隱私(論文的結尾里也這麼寫道)。

他說,兩人使用的技術並不稀奇,都是前人用過的,找這些照片也非常容易。

他們想以此來警告政府和廣大公司,是時候保護人們的隱私,不讓這一切信息如此容易得到。

『以前的研究證明,人們可以通過他人在社交網路上的足跡,判斷出他們的性取向。

但是這些信息是可以被掩蓋、被刻意改變的。但一個人的臉不太可能被掩蓋...』

『在約會網站、社交網路、政府官網,有幾十億人的照片。這些信息太容易被得到了。

我們的研究證明了,這些公開的數據,加上傳統的工具,能夠讓人造出判定性取向的儀器,不經過允許就能知道對方是直是彎。

現在政府、社會,和同志團體應當更快地意識到這種危險...不公布這個研究,可能會延緩政府推出法律,保護人們的隱私..

Wang和Kosinski在論文里說,

他們知道這麼做可能會提醒人們去做此類AI,起到反效果,但為了儘快讓政府行動,他們還是選擇公布。

不過由於這些內容標題沒有提,加上寫在太后面,很少有人注意到....

Kosinski不滿地發推:

看來沒有人問問這個問題—— 『假設他們是對的,那麼我們接下來該怎麼保護自己呢?』

Kosinski是非常鬱悶,

他倆的『初衷』也可能確實沒有錯,

但是.....

他們可能忽視了一個大問題:

在全世界,有很多國家把同性戀還當做一項重罪,

這項技術可能被政府使用,通過看人們的臉,就能揪出誰是同性戀,然後把他們剷除乾淨。

(下圖紅色部分,當同性戀要坐牢,黑色部分,當同性戀會被判死刑)

網友憤怒地寫道:

我努力讓我自己平靜下來,但是想到這兩位研究員,Michal Kosinski和Simony Wang,我真想讓他倆被活活燒死。

還有人寄恐嚇信:

...你們絕對知道在世界上的某些國家,當同性戀是重罪。所以我覺得你們肯定是恐同分子,想借他人之手謀殺同性戀!

如果你倆不是的話,拜託馬上把這個項目的研究資料全部銷毀,不然的話我真心祝願有人能把你們殺掉。

求你們了,拿把刀自殺了吧!

對這一切,Kosinski告訴衛報記者,

他沒有向大眾放出過能夠使用的AI程序,他也不會讓其他人使用。

他自己認為,這項研究其實是對LGBT有好處的,因為這證明了同性戀純碎和生物原因有關,而不是個人選擇。

『對那些宗教團體和煽動者,這是一個強有力的論據。』他在採訪中說,『當他們問你『你為什麼就是死活不改變?你為什麼不服從我們?』你就能說,我就是不能,因為我生來如此。』

但也許是吵得太凶,

Kosinski自己對這項研究也有點後悔了。

他多次告訴記者,『我真希望有人重複我的實驗,證明我是錯的....如果我是錯的,我可能是最開心的那個...』

目前,因為抗議太多,

《人格與社會心理學期刊》的主編們表示會對這篇論文重新審核。

ref:

https://theoutline.com/post/2228/that-study-on-artificially-intelligent-gaydar-is-now-under-ethical-review-michal-kosinski

https://amp.theguardian.com/world/2017/sep/08/ai-gay-gaydar-algorithm-facial-recognition-criticism-stanford

https://www.glaad.org/blog/glaad-and-hrc-call-stanford-university-responsible-media-debunk-dangerous-flawed-report

https://docs.google.com/document/d/1UuEcSNFMduIaf0cOWdWbOV3NORLoKWdz3big4xuk7Z4/edit#

https://www.economist.com/news/science-and-technology/21728614-machines-read-faces-are-coming-advances-ai-are-used-spot-signs?fsrc=scn/tw/te/bl/ed/advancesinaiareusedtospotsignsofsexuality

https://www.theguardian.com/technology/2017/sep/07/new-artificial-intelligence-can-tell-whether-youre-gay-or-straight-from-a-photograph

-------------------

我控制不住自己了:能不能幹點兒正事兒?去研究時光機阿!不然我那麼多雙色球中獎號碼別存了!!!

你他媽還學習不:關鍵他那玩意普遍gay比直男好看啊。。。。好了說正經的,比如本來我們常開的,一個沒有惡意的玩笑「gay里gay氣的」,在這種東西出來之後,「以貌判gay」可能就會變成一個真實的傷害,那些反對同性戀的「你看那個人一看就是gay,躲遠點」,本來同性戀生活就如此艱難,還要拆穿別人?

MSatSMTH:覺得文里那些抗議者都是些慫貨,沒膽去對抗那些把同性戀當重罪的國家機器,只敢拿研究者說事。一看那個說要「拿刀」的就知道他們是哪些奇葩……

楊柳樹下的草先生:這倆不是說了他們的目的嗎……從目的上來看我覺得沒啥問題……可能就是這個研究太gg了

白光在黑色上:個人認為這是一個為滿足人的獵奇心理和偷窺他人隱私的研究。冠冕堂皇地說是為了提高警惕個人信息暴露的,可你拿照片判斷gay?!行為和目的驢唇不對馬嘴。並且這項研究帶來的負面影響遠遠大於正面影響。

八塊腹肌七平平:…我的腦子有洞,我居然第一個想的是【按照我修圖喪心病狂的程度也看不出我直還是彎′_>`】

Tiger公子:我覺得這種研究,尤其是所謂對什麼子宮激素影響胎兒未來性取向的研究,會令很多喪心病狂的恐同分子開始打孕婦的主意……不開玩笑

此乃叉叉明是也:假設這個推論有依據且有一定成立的可能,然而雙性戀要算哪一邊呢

-------------------

最後的最後...

給你們貼一個被我逮到隨地亂拉做壞事的破狐狸哼...

-------------------


推薦閱讀:

佛教不是迷信 "是高智慧的哲學
智慧是最大的神通
幽默是人生智慧,培養有幽默感的孩子很重要
有哪些很少被承認或者容易被忽略的事實跟真理?
給予您智慧的禪心佛語

TAG:人工智慧 | 性取向 | 世界 | 照片 | 智慧 | 判斷 | 研發 | 這個 | 人工 |