看照片就知是不是gay? 他們研發出這個判斷性取向人工智慧, 被全世界罵慘了…
?
話說,性取向這事兒,
對很多人來說一直都是一個很私密的話題...
人們可以有各種理由選擇出櫃,也可以有各種理由待在柜子里。
自己到底是直是彎,就像腳板底襪子的破洞一樣,只有自己心裡清楚....
但是....
科學上,能不能從外貌看清一個人的性取向??
終於,在人工智慧的加持下.... 科學往這個方向,進了一步.....
斯坦福的兩名研究員做了一個研究,
僅憑一張照片,AI就能識別出對方是直是彎... 準確率不低...
這兩名研究員是電腦專家Yilun Wang,和Michal Kosinski。
Wang曾經在谷歌工作過,在2016年他在斯坦福大學就專攻人工智慧,是個技術派。
Kosinski是大數據專家和心理學家,愛好是通過人們在社交網路上的足跡來研究人類的行為。
Kosinski以前就搞出過不少有爭議的大新聞,
比如通過分析人們臉書上的自我介紹,來判斷他們的人格;
通過臉書上的活動,來預測人們是選擇脫歐還是留歐;
最有名的是,他的大數據技術幫助川普團隊找到潛在的支持者,被認為成功幫助川普當上總統....
『臉書上留下的所有痕迹,不管是有意還是無意的,其實都是在做心理測試題。』他說。
這一次,Kosinski盯上了約會網站上的...gay們。
他和Wang想知道,在照片數量足夠多的情況下,能不能通過AI,讓它判斷一個人的性取向。
兩人在美國一家很受歡迎的約會網站上隨機挑選了14,776人,其中男女彎直,數量均等。
在這1萬多人中,再隨機挑選他們的照片,最終得到35,326張圖。
因為約會網上上每個人都清楚地寫了自己的取向,只要把照片和取向在電腦上同時輸入就行了。
之後,他們用一種很主流的分析人臉的工具,Face++,將照片上的面部特徵用數據的方式分析出來。
然後讓電腦通過一種叫做『深度神經網路』(Deep Neural Networks)的判別模型,學習這些臉部特徵,最終,AI能夠判斷一個從來沒見過的人,他的性取向是男是女....
以上這些聽上去沒什麼,
但重點是結果.....
他倆發現,AI『鑒gay』這件事,準確率居然真的挺高...
如果,
把一張直男照和一張gay照放到AI面前,它判斷gay的準確率有81%。
如果每人不止給一張圖,而是5張,那麼它判斷出gay的準確率會飆升到91%....
AI在鑒定蕾絲的能力上要差些,
如果只看一張照片,那麼準確率是71%,
如果每人給5張照片,準確率是83%。
(下圖是隨著照片數量的增加,準確率上升)
但是人呢?
人判斷他人直彎的準確率如何,不是號稱有『gay達』嗎?
嗯,Kosinski和Wang隨機找了一幫美國工人,
也是給他們看同樣的照片,但人判斷的準確率,對gay的正確率為61%,對蕾絲,是54%.. (2選1,瞎蒙大概是50%的正確率這樣)
Wang和Kosinski還找到很多有趣的信息:
在電腦分析的時候,他們發現異性戀與同性戀在臉部上的差別,主要集中在幾個地方。
(下圖紅色部分)
對男性而言,鼻子,眼睛,眉毛,臉頰,頭髮和下巴,這些地方的不同能夠讓AI識別出他的性取向;
對女性,則是鼻子,嘴角,眉毛、頭髮和領口。
通過大數據分析,Wang和Kosinski發現,
總體而言,同性戀男人的鼻子比直男的鼻子更窄、更長,他的臉也更瘦長一點;
而和直女相比,同性戀女人的頜骨較大,額頭較小。
(下圖左列為直,右列為彎)
這是他們繪製出的特徵圖,
紅筆畫的是同性戀的臉型,綠筆是異性戀的臉型。
單純看臉???
那麼這件事,有科學理論依據么?
兩人在論文中寫道,他們認為這個結果證明了『胎兒激素暴露理論』。
這幾年來,有這麼一種理論:
當胎兒在媽媽的子宮裡時,子宮裡某些激素的過高或過低,會導致孩子出生後的情緒和行為的不同。
曾經有科學家發現,
胎兒過多地暴露在緊張激素下,成年後更可能有情緒問題...
激素還能影響孩子們的性取向,和童年時不同的行為特徵...
兩位斯坦福研究員認為,
在子宮裡時,因為過少(對男胎)和過多的雄性激素(對女胎),導致一部分人是同性戀,並且這些激素對他們臉部的形成、個人喜好,和行為都有影響。
而激素也有可能影響到臉型,這就是為什麼,性取向和臉可以有聯繫。
兩人的論文經過諸多大牛的同行審核,
在上周在業內頂尖的《人格與社會心理學期刊》上發表....
兩人本來挺開心,
但是在《經濟學人》的記者9號報道了這篇論文後,
他們遭到了來自網友的猛烈抨擊....
人們一開始的態度是:
完全拒絕,同性戀和異性戀不可能長相上有差異。
著名的同性戀權益團體GLAAD和HRC發公告駁斥這篇論文。
他們主要的論點是,這篇論文非常不嚴謹,是一項『垃圾研究』,比如整個研究樣本里都是白人,缺少有色人種,沒有經過同行審核(其實審過了),沒有調查雙性戀,沒有區分性取向和性行為,等等....
所以,他們的結果不可信。
Kosinski覺得,這完全是感情用事。
他轉推了另一個教授的話:
『因為和你的意識形態不一樣,所以全盤否認一項科學結果...你最終可能傷害到你愛的人。』
他們還寫了一篇長長的『作者的話』,把同性戀團體的論點都拆開分析,力證自己沒有錯...
另一群網友的觀點是:
好吧,就算性取向和臉部差異掛鉤,
但是,
我是啥取向就是啥取向,為什麼要讓你知道?
你有什麼權利知道?
這個AI是侵犯個人隱私。
但Kosinski說,他們做這個研究,其實就是想提醒政府,保護現在人們的隱私(論文的結尾里也這麼寫道)。
他說,兩人使用的技術並不稀奇,都是前人用過的,找這些照片也非常容易。
他們想以此來警告政府和廣大公司,是時候保護人們的隱私,不讓這一切信息如此容易得到。
『以前的研究證明,人們可以通過他人在社交網路上的足跡,判斷出他們的性取向。
但是這些信息是可以被掩蓋、被刻意改變的。但一個人的臉不太可能被掩蓋...』
『在約會網站、社交網路、政府官網,有幾十億人的照片。這些信息太容易被得到了。
我們的研究證明了,這些公開的數據,加上傳統的工具,能夠讓人造出判定性取向的儀器,不經過允許就能知道對方是直是彎。
現在政府、社會,和同志團體應當更快地意識到這種危險...不公布這個研究,可能會延緩政府推出法律,保護人們的隱私..
Wang和Kosinski在論文里說,
他們知道這麼做可能會提醒人們去做此類AI,起到反效果,但為了儘快讓政府行動,他們還是選擇公布。
不過由於這些內容標題沒有提,加上寫在太后面,很少有人注意到....
Kosinski不滿地發推:
看來沒有人問問這個問題—— 『假設他們是對的,那麼我們接下來該怎麼保護自己呢?』
Kosinski是非常鬱悶,
他倆的『初衷』也可能確實沒有錯,
但是.....
他們可能忽視了一個大問題:
在全世界,有很多國家把同性戀還當做一項重罪,
這項技術可能被政府使用,通過看人們的臉,就能揪出誰是同性戀,然後把他們剷除乾淨。
(下圖紅色部分,當同性戀要坐牢,黑色部分,當同性戀會被判死刑)
網友憤怒地寫道:
我努力讓我自己平靜下來,但是想到這兩位研究員,Michal Kosinski和Simony Wang,我真想讓他倆被活活燒死。
還有人寄恐嚇信:
...你們絕對知道在世界上的某些國家,當同性戀是重罪。所以我覺得你們肯定是恐同分子,想借他人之手謀殺同性戀!
如果你倆不是的話,拜託馬上把這個項目的研究資料全部銷毀,不然的話我真心祝願有人能把你們殺掉。
求你們了,拿把刀自殺了吧!
對這一切,Kosinski告訴衛報記者,
他沒有向大眾放出過能夠使用的AI程序,他也不會讓其他人使用。
他自己認為,這項研究其實是對LGBT有好處的,因為這證明了同性戀純碎和生物原因有關,而不是個人選擇。
『對那些宗教團體和煽動者,這是一個強有力的論據。』他在採訪中說,『當他們問你『你為什麼就是死活不改變?你為什麼不服從我們?』你就能說,我就是不能,因為我生來如此。』
但也許是吵得太凶,
Kosinski自己對這項研究也有點後悔了。
他多次告訴記者,『我真希望有人重複我的實驗,證明我是錯的....如果我是錯的,我可能是最開心的那個...』
目前,因為抗議太多,
《人格與社會心理學期刊》的主編們表示會對這篇論文重新審核。
ref:
https://theoutline.com/post/2228/that-study-on-artificially-intelligent-gaydar-is-now-under-ethical-review-michal-kosinski
https://amp.theguardian.com/world/2017/sep/08/ai-gay-gaydar-algorithm-facial-recognition-criticism-stanford
https://www.glaad.org/blog/glaad-and-hrc-call-stanford-university-responsible-media-debunk-dangerous-flawed-report
https://docs.google.com/document/d/1UuEcSNFMduIaf0cOWdWbOV3NORLoKWdz3big4xuk7Z4/edit#
https://www.economist.com/news/science-and-technology/21728614-machines-read-faces-are-coming-advances-ai-are-used-spot-signs?fsrc=scn/tw/te/bl/ed/advancesinaiareusedtospotsignsofsexuality
https://www.theguardian.com/technology/2017/sep/07/new-artificial-intelligence-can-tell-whether-youre-gay-or-straight-from-a-photograph
-------------------
我控制不住自己了:能不能幹點兒正事兒?去研究時光機阿!不然我那麼多雙色球中獎號碼別存了!!!
你他媽還學習不:關鍵他那玩意普遍gay比直男好看啊。。。。好了說正經的,比如本來我們常開的,一個沒有惡意的玩笑「gay里gay氣的」,在這種東西出來之後,「以貌判gay」可能就會變成一個真實的傷害,那些反對同性戀的「你看那個人一看就是gay,躲遠點」,本來同性戀生活就如此艱難,還要拆穿別人?
MSatSMTH:覺得文里那些抗議者都是些慫貨,沒膽去對抗那些把同性戀當重罪的國家機器,只敢拿研究者說事。一看那個說要「拿刀」的就知道他們是哪些奇葩……
楊柳樹下的草先生:這倆不是說了他們的目的嗎……從目的上來看我覺得沒啥問題……可能就是這個研究太gg了
白光在黑色上:個人認為這是一個為滿足人的獵奇心理和偷窺他人隱私的研究。冠冕堂皇地說是為了提高警惕個人信息暴露的,可你拿照片判斷gay?!行為和目的驢唇不對馬嘴。並且這項研究帶來的負面影響遠遠大於正面影響。
八塊腹肌七平平:…我的腦子有洞,我居然第一個想的是【按照我修圖喪心病狂的程度也看不出我直還是彎′_>`】
Tiger公子:我覺得這種研究,尤其是所謂對什麼子宮激素影響胎兒未來性取向的研究,會令很多喪心病狂的恐同分子開始打孕婦的主意……不開玩笑
此乃叉叉明是也:假設這個推論有依據且有一定成立的可能,然而雙性戀要算哪一邊呢
-------------------
最後的最後...
給你們貼一個被我逮到隨地亂拉做壞事的破狐狸哼...
-------------------
推薦閱讀:
※佛教不是迷信 "是高智慧的哲學
※智慧是最大的神通
※幽默是人生智慧,培養有幽默感的孩子很重要
※有哪些很少被承認或者容易被忽略的事實跟真理?
※給予您智慧的禪心佛語