圖像識別鑒黃之二「阿里綠網VS網易易盾VS圖普科技」
細心的知友可能會發現,之前的題目里還有個「騰訊萬象」,而這次卻沒有。因為經過上次的測試,發現騰訊萬網幾乎不具備鑒黃能力,所以直接被我排除出PK隊列。如果有知友表示懷疑,可以自行搜騰訊萬象,用幾張黃圖測試下便知。
下面是用來測試的圖片10張:
沒錯就是10張嬰兒圖片,將這類圖片歸於非色情類圖片應該不會有太大爭議的吧。鑒於第一次沒有評分標準,難以客觀打分問題。這次建立一個相對客觀的評分標準:每張圖10分,標準答案為非色情,即智能判斷為色情不得分,判斷為非色情或性感可得分。之所以這次只用10張圖,因為網易易盾一次最多只能上傳10張圖,為了截圖方便。當然,10張圖測試量實在有點少,並不能很好的分出高下。而本人的意圖也不是要證明誰家做得最好,只為了揭示神經網路智能鑒黃的缺陷,並由此提出一些改進的建議。
第一個是「阿里綠網」的測試結果:
這裡說明下,為了避免肖像權問題,特意把眼睛部位做了處理。實際測試是不做任何處理的,所有圖片都是直接從網上下載的。請不要問我在哪裡下載的,需要原圖的知友可以私信找我要。阿里綠網的上傳界面明明顯示可以上傳100張圖片,但實際上一次只能識別50張圖,超過50張的部分檢測結果都是0。
阿里綠網得分是70分。從測試結果可以看出,目前的鑒黃系統面對一些特殊的圖,還是不能正確鑒定。
第二個是「網易易盾」的測試結果:
網易易盾的得分是70分。同樣的,也會將非色情圖片鑒定為色情,只是跟阿里綠網的鑒定有點不一樣罷了。
最後是「圖普科技」的測試結果,由於圖普科技將結果分成3塊顯示,一次截圖不完整,所以分3次截圖:
圖普科技的得分是80分。但是他們的測試結果中「色情」部分跟另外兩家完全不一樣,而且從圖片內容來看,非常匪夷所思。
從上面的得分來看,圖普科技第一,阿里綠網和網易易盾並列第二。本次排名並不能真實體現他們之間的優劣,僅說明他們在嬰兒圖片這方面的欠缺。
本人只是初步了解神經網路,對神經網路並不是非常熟悉,有不當的地方請指正。
目前的神經網路可能基本都跟下面的圖差不多,可能只是隱藏層數量上不一樣而已。不妨把下圖看作圖片鑒黃的神經網路。每個小圓圈代表一個神經元,每個神經元都有自己的權值。同一層的神經元是並列關係,根據他們的權值大小,決定他們輸出值的權重。他們的權值也會直接體現在輸出結果中,輸出值實際上就是數字。通過大量的圖片學習只是改變每個神經元的權值,使得輸出結果不斷接近標準值。阿里綠網也好,網易易盾也好、圖普科技也好,他們的神經網路深度學習原理都一樣。他們的輸出結果的不同,實際上是因為他們用來訓練的素材不同,導致了神經元的權值矩陣有所差異。
從神經網路的角度來看,他們之所以出現如此類似的問題,是因為他們對所有類型圖片判斷標準是一致的。不管你用什麼樣的圖片,他們都只是將其劃分為「色情」、「非色情」、「性感」三類而已。但是現實世界中並不是所有的東西都能分得那麼清楚,總會有許多含糊不清的東西存在。就像三原色圖一樣,事物之間往往都會存在許多交集。
所以,用目前的神經網路思維,想用多維空間函數來將事物簡單的劃分為幾個類,是不現實的。無論用多大量的圖片去訓練神經網路,結果都會出現漏洞。因為,從基本原理層面來講,已經是行不通的。
個人認為,目前的神經網路處於「神經」階段或者說「盲目」階段。因為,神經網路的搭建者都無法知道神經網路到底會學習到什麼程度,也無法準確地達到設計目的。甚至搭建者都不清楚神經網路是怎麼實現識別能力。也就是說,神經網路正處於盲目探索的階段。對於下階段的神經網路,本人有些建議。
就圖像鑒黃而言,如下圖所示,如果能夠實現先分類,再鑒黃,那麼結果的準確度將會大大提升。現實中,圖片本來就分很多類型,而且還會存在未知的類型。真的不同類型的圖片,也應該有不同鑒黃標準。與之前提到的神經網路相比,最大的不同是,每個神經元應該有明確的功能,有明確的分工與合作關係。而這裡的每個小圓圈也不局限於單個神經元,而是能實現某一具體功能的神經網路或神經元。在神經網路訓練階段,如果鑒定結果不符合,那麼也可以根據圖片快速地找到問題出在哪裡。從而有針對性地對那個「神經元」進行權值調整,而不是盲目的對整個神經網路的權值進行調整。如此,將大大提高神經網路學習的效率和準確度。
當然,以上鑒黃模型並不絕對,針對不同應用場合可以有不同的結構。圖片鑒黃只是圖片識別技術一個很小的細分支而已,圖片識別能做到的情還多著呢。下圖也只是提出部分圖片識別的應用而已,未來的神經網路將會像今天的互聯網一樣,深入到人類生活的方方面面。當然,神經網路應是人類的輔助工具,不應該用來取代人類。版權所有,轉載請註明出處。推薦閱讀:
※圖像去霧項目中遇到的問題
※Matlab插入高質量無白邊圖
※如果你的內存比較小
※深度反向投影網路(DBPN)--通過Back-Projection來超解析度的新方法
※OTSU閾值分割