50行代碼實現人臉檢測
現在的人臉識別技術已經得到了非常廣泛的應用,支付領域、身份驗證、美顏相機里都有它的應用。用iPhone的同學們應該對下面的功能比較熟悉
iPhone的照片中有一個「人物」的功能,能夠將照片里的人臉識別出來並分類,背後的原理也是人臉識別技術。
這篇文章主要介紹怎樣用Python實現人臉檢測。人臉檢測是人臉識別的基礎。人臉檢測的目的是識別出照片里的人臉並定位面部特徵點,人臉識別是在人臉檢測的基礎上進一步告訴你這個人是誰。
好了,介紹就到這裡。接下來,開始準備我們的環境。
準備工作
本文的人臉檢測基於dlib,dlib依賴Boost和cmake,所以首先需要安裝這些包,以Ubuntu為例:
$ sudo apt-get install build-essential cmake$ sudo apt-get install libgtk-3-dev$ sudo apt-get install libboost-all-dev
我們的程序中還用到numpy,opencv,所以也需要安裝這些庫:
$ pip install numpy$ pip install scipy$ pip install opencv-python$ pip install dlib
人臉檢測基於事先訓練好的模型數據,從這裡可以下到模型數據
http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2
下載到本地路徑後解壓,記下解壓後的文件路徑,程序中會用到。
dlib的人臉特徵點
上面下載的模型數據是用來估計人臉上68個特徵點(x, y)的坐標位置,這68個坐標點的位置如下圖所示:
我們的程序將包含兩個步驟:
第一步,在照片中檢測人臉的區域
第二部,在檢測到的人臉區域中,進一步檢測器官(眼睛、鼻子、嘴巴、下巴、眉毛)
人臉檢測代碼
我們先來定義幾個工具函數:
def rect_to_bb(rect): x = rect.left() y = rect.top() w = rect.right() - x h = rect.bottom() - y return (x, y, w, h)
這個函數里的rect是dlib臉部區域檢測的輸出。這裡將rect轉換成一個序列,序列的內容是矩形區域的邊界信息。
def shape_to_np(shape, dtype="int"): coords = np.zeros((68, 2), dtype=dtype) for i in range(0, 68): coords[i] = (shape.part(i).x, shape.part(i).y) return coords
這個函數里的shape是dlib臉部特徵檢測的輸出,一個shape里包含了前面說到的臉部特徵的68個點。這個函數將shape轉換成Numpy array,為方便後續處理。
def resize(image, width=1200): r = width * 1.0 / image.shape[1] dim = (width, int(image.shape[0] * r)) resized = cv2.resize(image, dim, interpolation=cv2.INTER_AREA) return resized
這個函數里的image就是我們要檢測的圖片。在人臉檢測程序的最後,我們會顯示檢測的結果圖片來驗證,這裡做resize是為了避免圖片過大,超出屏幕範圍。
接下來,開始我們的主程序部分
import sys import numpy as npimport dlibimport cv2 if len(sys.argv) < 2: print "Usage: %s <image file>" % sys.argv[0] sys.exit(1)image_file = sys.argv[1]detector = dlib.get_frontal_face_detector()predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")
我們從sys.argv[1]參數中讀取要檢測人臉的圖片,接下來初始化人臉區域檢測的detector和人臉特徵檢測的predictor。shape_predictor中的參數就是我們之前解壓後的文件的路徑。
image = cv2.imread(image_file)image = resize(image, width=1200)gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)rects = detector(gray, 1)
在檢測特徵區域前,我們先要檢測人臉區域。這段代碼調用opencv載入圖片,resize到合適的大小,轉成灰度圖,最後用detector檢測臉部區域。因為一張照片可能包含多張臉,所以這裡得到的是一個包含多張臉的信息的數組rects。
for (i, rect) in enumerate(rects): shape = predictor(gray, rect) shape = shape_to_np(shape) (x, y, w, h) = rect_to_bb(rect) cv2.rectangle(image, (x, y), (x + w, y + h), (0, 255, 0), 2) cv2.putText(image, "Face #{}".format(i + 1), (x - 10, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2) for (x, y) in shape: cv2.circle(image, (x, y), 2, (0, 0, 255), -1) cv2.imshow("Output", image)cv2.waitKey(0)
對於每一張檢測到的臉,我們進一步檢測臉部的特徵(鼻子、眼睛、眉毛等)。對於臉部區域,我們用綠色的框在照片上標出;對於臉部特徵,我們用紅色的點標出來。
最後我們把加了檢測標識的照片顯示出來,waitKey(0)表示按任意鍵可退出程序。
以上是我們程序的全部
測試
接下來是令人興奮的時刻,檢驗我們結果的時刻到來了。
下面是原圖
下面是程序識別的結果
可以看到臉部區域被綠色的長方形框起來了,臉上的特徵(鼻子,眼睛等)被紅色點點標識出來了。
是不是很簡單?
歡迎點贊~
視點贊情況,後續再另開一篇寫寫怎樣實現人臉識別,告訴你照片里的人是誰。
推薦閱讀:
※1.9【OpenCV圖像處理】平滑模糊濾波
※最近在搞Kinect的指尖識別,手指都可以畫出來了,有什麼方法可以將每隻手指對應的名稱識別出來啊?
※[171103] 基於縮略圖哈希值比較的圖像相似性檢索
※元旦贈書 | 18本紙質書:OpenCV、Python和機器學習,總有一本適合你