目前人臉識別技術的挑戰是什麼?
請問目前業內人臉識別技術的挑戰和難點是什麼。為什麼沒有成熟可靠的商業應用。但是論文中已經接近99.7%了。實踐和論文的差距是什麼。是不是人臉識別的研究沒得搞了。
也是放假太閑,上知乎來鍛煉一下手指。
在回答題主的問題的時候,我覺得應該注意做『科研』和做『產品』之間的區別。論文中彙報的人臉識別技術是屬於科研的行列。比如在LFW上99.7%,這種數字的意義更多是讓搞研究的那個圈子裡面的人更加直觀的了解到一些情況,你也知道,通常來說這個準確率是非常高的了,所以我們可以說『人臉識別技術在LFW上已經很成熟了』,但是一模一樣的技術,拿到真實環境下得到的準確率可能只有75%……也許會有些人覺得這是很可笑的,不,請不要笑,這是科研圈裡朋友的普遍做法,不是沒有苦衷的。
搗騰過LFW的朋友其實心裡都清楚,這並不是一個很好的資料庫。圖片都是從網上下載的,人臉的質量也是千差萬別,有人說這樣才接近真實情況……但實際上距離大部分的實際應用場景還是太遠了。
目前評價科研中演算法的優劣的唯一方法就是找一個數據集,然後大家一起對比,數據集的不同演算法得到的結果也會不同,然而……論文上通常是有報喜不報憂的惡習的,所以常常會有不公平的對比存在,隨著越來越多更大的人臉數據集的慢慢增加,對於演算法的評價會可能會變得稍微公平一些……即便是這樣,論文里所謂的人臉識別技術,跟可用的『產品』之間的差距仍然很大。
這並不是說論文的演算法不好,而是『產品』的天性。大部分產品都是針對性的解決一類或幾類問題,產品講究是速度,穩定性,成本,等等,不同的產品通常可以加入不同的先驗甚至額外的硬體來提升產品的可用性。這是做『產品』和做『科研』的區別。
舉兩個容易理解的例子:
某著名手機廠商想開發一個自己的人臉解鎖功能,在第一次使用手機的時候,經過一個人臉註冊的過程,記錄下手機主人的樣子,在之後的使用中如果被觸發,就進行人臉驗證,解鎖。這裡你如果上來一個幾十層網路的卷積網路,這個是不行的……因為速度很重要,內存也重要,如果你一個網路模型一上來就已經幾十兆幾百兆了,產品經理會瘋的。做產品的往往是想在保證用戶體驗的情況下,使用最少的資源。所以最後的產品可能是……下面是我瞎掰的……檢測到人臉,檢測五官的基本landmark,然後通過幾何關係約束來縮小識別範圍,再用簡單的特徵比如LBP,在一個一千張主人人臉的資料庫進行驗證,驗證里可能有各種trick,並且這個一千張人臉的資料庫也是實時更新的,比如當前識別正確了,那麼就加入進去,如果識別錯了,就把這個數據提取特徵作為反例存起來……一個可用的產品總是包含了很多看似沒有道理的trick的,但是就是這些構成了產品的核心技術。
另外一個例子,做人臉識別,但是是做煤礦工的……請自行腦補一臉煤的辛苦礦工。在這個場景下面,你連人臉檢測都沒法弄啊……加上光照和臉上煤的干擾,論文上的演算法基本上是沒辦法用的。如果是你,你怎麼去做識別?
做一個產品的時候,思路是需要很開闊的。比如人臉的檢測實際上是可以通過雙目視覺來做的,兩個廉價攝像頭,簡單的演算法通過三角化得到一個稀疏的深度圖,利用深度信息來做人臉的檢測,然後基於眼睛和嘴唇來做識別,眼睛和嘴的識別可以用卷積網路來做,但是真是的產品裡面可能還會考慮身高信息,當然,在洞里還需要考慮補光的問題……
說完了這兩個例子之後,再回到題主的問題上來吧:
『請問目前業內人臉識別技術的挑戰和難點是什麼。為什麼沒有成熟可靠的商業應用。但是論文中已經接近99.7%了。實踐和論文的差距是什麼。是不是人臉識別的研究沒得搞了。』
如果題主這裡說的『業內』指的是科研行業,挑戰和難點其實都不好說……有些問題是可解決的,有些問題是不可解決的,比如化妝和雙胞胎的問題,其實長得像也是很普遍的例子。人臉識別這個行業存在一個由大佬們吹出來的硬傷,就是它在真實環境下總是無法達到100%的可靠,但是總被吹成是極其可靠……以至於領域外的人瞪大眼睛激動地要往裡砸錢要項目上線……所以人臉識別在產業界總會給土老闆們帶去失望。
稍微有點偏,別回來。
我假設這裡的業內並不是『科研界』,而是工業界,產業界,『產品』界,那麼有很多地方其實都有成熟應用了,比如海關的過關人臉識別系統,當然人家會加上身份證或者指紋來雙重驗證,比如人臉識別的門禁系統,這個作為產品已經有了,雖然發生了『司機賣掉趙薇豪宅那個事』,但我還是相信在這個應用場景下,這個產品是可以達到可用的程度的。人臉識別技術最大的一個客戶可能就是政府了,這個是讓我有些傷感的事情,同時我也覺得這個東西在公安系統裡面也是『採購了,但是極少用到,領導來了,我們就演示一下Demo,真辦案了,還是要靠人來篩選一下以防疏漏』。
另外最近那些銀行推出一些自動服務機器,裡面有人臉識別功能,道理其實跟過海關一樣,你需要的是身份證,人臉,密碼甚至指紋……即便是把人臉識別關掉了……也是可以正常運作的……我常常好奇,為什麼有些公司,不遺餘力地去集中做一個產品落地很難的人臉識別技術……並且其做法仍然是按照學術那樣,收集大量的數據集,然後交給科研人員,然後搞幾個演算法,提高準確率,然後把代碼交給碼農去優化,碼農優化完,產品經理覺得仍然沒法上線,但是上線壓力太大,於是給科研和碼農施壓,科研人員也煩躁,只能過來給碼農施壓,碼農無處訴苦,開始自我懷疑,失去自信,變得煩躁,更年期早到……
這可能是做科研出身的人,突然跑去做產品的通病。
論文和實踐的差別在於數據和方法。針對數據選擇方法,是用很多種方法融合,針對不同的情況調試不同的參數,使用不同的trick,甚至使用外圍的硬體輔助,最終的目的是提升產品的綜合體驗。人臉識別,實際的產品裡面,最深奧的演算法複雜程度也不會超過那些開源出來的已有演算法,理解那些通用的演算法,再去一線做產品應該足夠了。但是注意,這些演算法也許根本不會構成你產品的核心技術,真正的核心技術是你做產品的時候處理各種情況,各種數據的經驗公式和方法。
在科研里,人臉識別技術還是有很多可以去研究的東西的,比如怎麼用更小的數據更小的模型得到更好的準確率。比如怎麼克服光照的影響,比如怎麼通過局部特徵來完成準確識別……。
但是如果是去做產品的話,我認為不需要遲疑,不要仰望科研成果。貼近一線的數據和場景,花時間分析數據鑽研工程方法,也許就做出來了。
借用一句話:『未來屬於那些願意弄髒自己雙手的人』。最高分已經答的非常的好了。說一點淺見,反正這種小眾問題就算說的不對也不會有那麼多人噴。
首先說說商業應用。
所謂成熟靠譜如果說的是百分之百代替人工那麼目前是沒有的,畢竟就算是人工,面對雙胞胎也會出錯,面對白百何VS王珞丹 or 周迅VS李小璐這樣的組合也難免會臉盲。
但是商業應用上確實已經有很多公司在做了。BAT裡面阿里收購了face++;騰訊有優圖;百度更是有自己的研究院,百度國內應該是LFW上刷分最高的公司了,畢竟吳恩達在百度,成績單還是要漂亮的說,(剩下三個業界大牛一個在FaceBook,一個在谷歌,另一個還在學術界)。其他公司像360請了新加坡國立大學的顏水成(1000w年薪),還有漢王科技,川大智勝,都是有人臉識別的項目在做的。專業做人臉識別或者圖像識別的還有linkface、格林深瞳等等。
所以說商業應用確實是有的。
LFW號稱是最難的人臉圖像庫,很多公司都有專門的人在上面刷分,包括一些大學的研究生也有刷過這個的。確實現在分數已經刷到很高了,但是實際應用上卻完全不是那麼回事。 @李濟深前輩提到了現實落地當中存在產品內存大小和速度以及穩定性的問題,萬分贊同。補一點其他的方面的個人理解:
LFW上刷的是人臉與人臉對比,也就是俗稱的1:1、1:N或者N:N,應用到實際當中所有的公司都在做的是不得不降低那個N的樣本。或者是加入其他的校驗方法來實現人臉識別並且保障它的安全性。
通俗一點說好了,現在很多商家都跟支付寶或者微信合作,吃飯買東西都可以掃二維碼支付,想像一下,假如現在咱們可以刷臉支付的話是什麼樣的場景呢,查了下新聞,支付寶目前的活躍用戶是2.7億,張三對著攝像頭刷了臉準備結賬走人(即驗證的是1:N),結果伺服器跑了半個小時還沒找到他的臉——畢竟要在2.7億張臉裡面搜索呢,用戶體驗不忍直視有沒有,但是如果同時輸入張三的姓名,是不是這個N立馬減少了很多,如果輸入張三的身份證號碼呢,立馬就從1:N切換成了1:1,效率大大提高。
那麼問題來了,如果有人刻意攻擊張三的賬戶呢,畢竟身份證號碼很容易被熟悉的人知道的,連趙薇的豪宅都被司機賣了有沒有,人臉識別要檢驗的部分主要有兩個,第一張三是張三,第二張三是活的,舉個栗子,張三的好基友李四,對著攝像頭 掃一下張三的照片,並且報出他的身份證號碼,是不是就成功支付了,如果這個時候人臉識別要求他對著攝像頭做幾個微表情,是不是一定程度上提高了安全性。當然這也只是在一定程度提高了安全性而已,畢竟還有視頻攻擊等等。
大部分的技術到實際落地的時候都是需要場景的,隨著技術的不斷發展可能會解決越來越多的問題,比如將來我們計算機的運算速度大大的提高了,那麼1:N的速度就會變得非常的快等等。但是在現階段人臉識別確實有很大的局限性,但也不是沒搞頭。不能刷卡支付咱們可以用它來做證券遠程開戶嘛。
all in all,tomorrow will be better人臉識別不是沒得搞,而是有很長的路要走。我本人就做這方面技術。所謂99.7%的準確度,是指在某個有限集合里的測試結果,比如2萬張公開圖片中,90%用於訓練,10%用於識別,這個其實離實際應用還有很大差距,我就舉個簡單應用場景,某大廈需要對來往的人員做白名單布控,也就是說,大廈內部人員進入不報警,外來人員報警。在大廈門口安裝高清攝像機,通過人臉進行識別,但不能要求人員刻意配合刷臉,這樣太影響效率,也就是說,必須是非配合型人臉識別。要求準確度超過80%,室外,而且是實時比對,人臉庫為1萬左右。但攝像機補光和安裝角度等都可以由廠家自己定。我相信,現在還沒有一家公司能做到,而且我認為,業內號稱最牛的幾家公司,在此場景下的準確率應該在50%到70%之間。甚至更低。不信拿出來測測。就不要說識別了,即便是人臉檢測,能達到80%已經是niubility的公司了。有人會問,你為啥要求非配合啊,刷臉不行么?我是客戶的話,我想反問:我為何要人臉識別?我刷卡不行么,如果擔心盜刷,那刷指紋也不是不可以啊。人臉識別,其獨特的優勢,就是理論上可以做到非配合,其他的生物識別,基本上很難,或者基本不可行,比如指紋,虹膜,靜脈,以及DNA等。其實人臉識別大部分應用屬於非配合場景,原因可以自己琢磨。另外,關於深度學習的人臉識別,包括在LFW刷存在感的眾多中國公司,準確地說,他們的技術只適合做圖片1比1人臉驗證,且不說別的,對實時應用來說,性能就是個很大問題。即便是1比1驗證,去年由某部召集的國內100多家人臉識別公司公開測評中,準確度沒有一家能達到70%,幾乎所有國內公司都去了,為啥?用於訓練模型的數據集跟現場實際環境差距很大,不低才怪呢。所以說,要達到商用化,尤其是安全相關,這條路還很長,很長。當然,做娛樂應用還是可以的。說起做娛樂,某公司的明星臉也被歸類於人臉識別,明星海量的照片都在庫里,然後你把其中一張照片丟進去做比對,那當然可以識別了,別說用深度學習,即便用SIFT特徵找相似圖也是可以的。
相關:博士論文相當部分是人臉識別,12年水平。
正向人臉,現在基本95%以上了,很多演算法可以容忍光照變化、眼睛鬍鬚、甚至年齡變化。
正面人臉識別能力是超過(受過訓練)的人的水平的,其實現在人臉識別在門禁領域應用非常成熟廣泛。
------------主要的難點------------
無法(用正向人臉訓練集)去識別側向人臉,包括左右側臉,超過一定上下角度的視角看的人臉,都無法識別。
換言之,在固定場景下的人臉識別(門禁、證件等:正面,光照一致),
技術非常成熟,應用非常廣泛,
硬體簡單,計算迅速,識別度超過人類(接近100%)。
但是實地場景的識別,比如街道攝像頭對感興趣區域路人的識別,識別率非常低。
順便:我博士做的內容是正面人臉,但是在平面內旋轉了,仍然能識別出來,識別率不會下降太多。(然而並沒有什麼實際的卵用)
----------幾個可能的方向-------------
1、3D建模,用部分人臉照片數據,擬合一個3D人臉模型,從而識別各個角度的人臉。
2、生物特徵綜合識別,比如人臉和步態綜合進行識別。姿態識別是場景識別的一個比較有前途的方向
3、神秘學:比如流型、DNN、或者某種詭異的數學方法,說不定直接解決了正面人臉去識別各個側向人臉(不是完全沒有可能,最基本的PCA剛開始感覺也很神秘,但是效果很好,開創了子空間方法。)
免責聲明:我12年之後就不做這方面了,且本人本身學術很水。 上述內容不代表模式識別及機器學習領域任何尖端內容。
雖然人臉識別技術已經很成熟,具有很好的前景,我認為還有一個問題就是存在被偽造合法用戶人臉的攻擊的風險。做了一些調研和分析,傳送門~知乎專欄 ——人臉識別中的活體檢測
我倒是覺得不是計算機技術方面的問題,而是目前為止人類還不能明白大腦的工作方式。
日本的化妝,韓國的整容,中國的自拍。三大難題呀
占坑,有空一定要答
拿到lfw上識別率99.15%的演算法,用作人證比對的識別率55%
如何對韓國人進行人臉識別絕對是一大挑戰!
"韓國小姐(MISS
KOREA)。是一年一度在韓國舉辦的韓國小姐選美大賽,自1955年第一屆至今。比賽分為真、善、美三個競賽選拔部分。三個競賽部分分別選出冠亞季軍一
名。「真」小姐為最高榮譽,是真正的「韓國小姐」。2013年韓國小姐候選人日前曝光。不過多位佳麗看上去樣貌神似,難以分辨,一條整容流水線上的作品,
全無個人特色" .............
看了樓上技術的分析,我從社科倫理的角度來插個嘴么:
挑戰一:隱私的認知與突破
2017年9月9日出版的《經濟學人》指出,人臉和其他生物數據(比如說指紋)的一個巨大區別是,人臉是可以進行遠距離採集的,任何一個人在遠處拍一張照,把照片放在人臉識別的軟體里,理論上就歐了。
此外,很少有人會意識到,自己的臉是隱私,因為人臉是公開的。往往,我們會把隱私和私密劃等號,現在看來,這樣的等號得拆了。
當然,草根民營企業是很難有能力把人的面部圖像和個人身份聯繫在一起的,但是政府可以啊。還記得你16歲時在公安系統留下的丑照么……
當人臉只是一張美照或丑照時,問題還不大,但現在人臉可以用作支付或開鎖工具時,你是不是應該開始慌了。
挑戰二:應用場景中的公平問題
人臉不僅僅是一個name-tag,它呈現出很多機器可以識別的信息。這當然有很多好處,比如一些原本難以通過醫者識別的疾病,可以更早地通過演算法分析人臉、由機器診斷得出結論;再比如機器可以捕捉自閉症的一些表情,這樣我們就知道他們在想什麼了。
硬幣的另一面是,技術也會加劇偏見和不平等。斯坦福大學近期發布的一份報告發現,機器能比人更準確地識別一個人是否為同性戀:機器識別的準確率是81%,人工識別的準確率僅為61%。在一些同性戀還被認為是犯罪的國家,這一技術的存在……還是有點嚇人的。
更本質的一個不平等是——從機器學習的本質考慮,所有的臉部識別系統不可避免地玩的是一個概率遊戲,但是,在白人偏多而少數族裔偏少的數據情況下(特指美國情況),訓練出的結果一定是白人情境下演算法表現更優的。這一類bias,在一些嘗試將機器評估結果引入法院判決中的情況里,已經出現了。
挑戰三:直逼人際關係的基礎
都說,人是其社會關係的總和。能準確讀出面部表情,會很深很遠滴影響人與人之間的關係建立基礎。
Dissembling helps grease the wheels of daily life. 試想,如果你的妻子/丈夫能識破你每次對話中的不耐煩;你的老闆可以識別你工作場合中的每次炸毛,那婚姻和工作的關係確實會更真實,但也會更不和諧。
那所有社會關係的基礎就會變,會從信任變為精準的「算計」。這樣的關係可能是更理性的,但也會是更帶有「功利性」(transactional)的吧。
----------
答案選自:獨家編譯 |《經濟學人》警示:人臉識別會給我們帶來哪些傷害?
挑戰啊(^Д^) 當然是南朝鮮網紅臉咯!
不信識別一下我頭像。
老司機飆車潤物細無聲。
網紅
作為做人臉驗證和分類的小渣碩總結一下說的幾個常見挑戰吧,不一定正確:(對了,聽導師說今年某司有用自己的演算法幫助公安部在火車站成功抓捕到犯罪分子,雖然不知道具體什麼形式採集到的犯罪分子待識別人臉圖片,但是可喜可賀啊~)
1.目前做的lfw刷爛了,但是lfw其實主要是pose,背景變化最大。而且往往大部分論文的實驗是基於嚴格提取關鍵點、矯正後的訓練樣本和測試樣本。但是實際應用中,光照,抖動,模糊,遮擋,解析度都是影響人臉識別的重要因素。特別是在做已註冊樣本為身份證照,待識別樣本為手機或者攝像頭採集的視頻幀時候,圖像在質量(FQI指標)上存在嚴重不同的情況,這時候識別難度是很大的? ????
2.工業界應用中,用CNN train出來的model,往往是比較大的,公司怎麼用一個單機版app做相似性度量?又或者加速卷積和pooling的前向這塊可能比較耗時。當需要已註冊大樣本提取的特徵進行一一匹配的時候。
3.之前有問過導師,某些公司不是都和銀行合作推出了人臉取款流程嗎,這難道不是說演算法效果特別好?實際上,銀行操作人臉也是走了一個實驗室條件的流程。當你進行人臉驗證的時候,實際上人是正臉對著攝像頭採集與已註冊身份證照一樣的高質量的人臉圖像。而且結合身份證原件,安全性才得以保證。
4.人臉圖像輸入是活體嗎?如果拍了A的照片去開鎖A的手機,怎麼樣更好的更有產品經理氣息去做這種問題的檢測。
5.隨著人的年齡、五官本身變化,本人與已註冊身份證照片相似性在變化!!!
在不久的將來,你的豐田汽車可以通過面部識別功能來解鎖——刷臉在開車這事兒上也將成為可能。
此外,還有已開始在汽車領域應用的體感技術,比如車載攝像頭看到你搬著沉重的行李箱後,就會自動打開後備箱——當然,由於汽車未能進化成「大黃蜂」,你應該還是需要自己把東西放進去。
就像手機、可穿戴設備一樣,汽車也可能成為你的健康管理「工具」。豐田和微軟表示,未來的汽車,方向盤和座椅上都會集成不少感測器,它們可以收集關於你的一些身體數據(比如手心出汗程度、體重等),進而判斷你的健康甚至是心情。你現在焦躁不安?那就給你自動放首舒緩的音樂吧!最近體重超標?那麼導航就推薦一家低卡路里的餐廳吧!
海關技術狗一隻(不是邊檢不是邊檢不是邊檢)
大學畢設做的人臉識別,雖然基本是抄的,但也還算是了解一些基本知識吧,基本上那時候(四五年前吧)實驗室裡面識別率就可以到90%以上了,但是為啥到現在也沒有特別好的應用。
拿海關來說吧,國內旅檢口岸流量最大的屬珠海的拱北口岸(一天30萬左右)和深圳羅湖口岸(一天25萬左右),我們也在口岸裝過好幾套人臉識別系統,用來識別水客,但是效果都不理想,最好的識別率也就40-50%吧,分析主要有以下原因:
1、人多,行為無法控制。一天30萬是什麼概念,一年就是一個億,保守估計一年檢測到的人臉也有千萬級,需要對比識別的水客至少也有幾萬個。同時海關通道都是一條大通道,通道大概也就是8米*15米,每秒鐘都有幾十個人向你涌過來,而這些人裡面臉朝各個方向的都有,甚至低著頭的、帶著口罩戴墨鏡的,這對於攝像機數據採集是很大的挑戰。一直認為人眼是最好的人臉數據採集的前端設備,人眼都不能很好的解決這些問題,更別說不能移動的攝像機了。所以這點和邊檢有很大差別,邊檢要麼是自助通關,要麼是人工,這些都是一個一個人過關,然後還會要求摘掉所有的遮擋(墨鏡、口罩等)對準攝像頭,這樣才能保證人的臉部數據採集的準確性。被檢測人員對系統的配合程度是會極大影響識別效果的,而出於某些政策的原因,海關不可能採取邊檢的通關方式,因此難度可想而知。有些人可能會說,那把戴口罩,戴墨鏡,低頭的都叫過來檢查不就好了,但是通常把守一條通道的也就三四個關員,而香港和澳門人又很喜歡戴口罩,更何況水客還有可能一起十幾個人一起過關,這無疑無法實現。
2、現場環境老舊,很難進行改造。口岸的旅檢樓很多都是有著二三十年歷史,整體環境都比較差,而且不能進行大面積改造,例如樓層層高不夠,攝像機可選擇的角度嚴重受限制;燈光昏暗,補光不夠;通道狹窄又短,對系統運算效率較高等等。
3、目前我們能拿到的照片資料庫來源較少,且部分質量一般,增加識別難度。由於某些原因,我們只能拿到一小部分的水客的證件照片,而其他水客的照片主要靠系統進行抓取,這導致資料庫內的模版質量較差,直接影響識別效果。
特么的每次我卸完妝手機就不認識我了。。。
只看論文給出的指標而不看其生產場景的話,你會覺得共產主義都快實現了。
最近和業內兩家比較知名的做人臉識別的公司聊了聊(不是face++和商湯),總結和歸納一下大家的觀點吧,僅供參考:
演算法層面:
(1)深度學習的演算法近幾年看不到革命性的突破,演算法或技術領先的先發優勢將越來越弱,基本上copy的速度可能會達到十天半個月。
(2)論文中接近99.....%是在5000個樣本庫里的數據,在實際操作中,1:1基本可以得到較好的結果,1:n計算量稍大,n:n基本是天眼級別,至今無解。
(3)畢竟足夠的樣本是訓練的基礎,所以可能最終比拼的還是數據量。
應用層面:
(1)金融的身份驗證:銀行、券商、銀聯這樣的企業基本要求私有部署,按項目制收費;互聯網金融公司用戶上限基本在2億,按調用次數收費,目前基本在1-5毛/次不等,然而這個行業調用次數基本有個上限,所以天花板。。。你懂得。
(2)安防領域:這個就不單純是演算法的事兒了,硬體層面有高清攝像頭,晶元感測器,系統層面有伺服器、視頻傳輸,軟體層面才是這些做人臉識別的廠商。現在海康威視、佳都科技還是比較強勢的。一個單純的軟體廠商基本還得抱著大腿玩。
因實驗室的原因,試過很多演算法。現在人臉識別的應用包括識別、驗證和基準點定位。識別指的是有一個人臉庫,來了一個新的人臉,能夠識別出來這個人臉是誰;而驗證指的是來了兩張人臉,判斷這兩個人臉是否是同一個人;基準點定位指的是來了一張人臉,可以檢測出和訓練模板相同結構的坐標點,例如說眼角、鼻翼等特徵點,可以反映出人臉的結構。實際上現在後兩者已經的確可以達到很高的識別率,並且已經在用了,至少之前nexus的人臉識別基準點定位還是比較準確的。並且在更複雜的情況下,例如運動模糊,對焦不準等,識別率都是很不錯的。第一種情況,其實也和人臉檢測的效果也有關係~樓主感興趣其實可以去玩一下網上的demo,現在已經提供了可以直接使用的介面,例如face++。
推薦閱讀:
※研究者July在計算機和機器學習領域的水平怎麼樣?
※機器學習該怎麼入門?
※有哪些你看了以後大呼過癮的數據分析書?
※吳恩達 (Andrew Ng) 是一個怎樣的人?
※偏差和方差有什麼區別?