最近耗費了巨大的心思為客戶設計了人臉識別系統。這是我第一次利用人工智能技術為客戶和自己產生收益。雖說人臉識別技術到目前為止已經非常成熟,但從“知行合一”的角度而言,很多人并沒有真正掌握其根本原理,之所以有這個結論是因為,我相信絕大多數技術工作者自己無法通過編碼來實現一套可商用的人臉識別系統,對技術而言,你做不到就等于你不懂。
如果你在網上搜索人臉識別,你會得到很多鏈接和文章。此類技術文章知乎上很多,在我看來那全都是假把式。那些人把原理”介紹“得頭頭是道但卻根本沒有給出一行代碼,因此在我看來那些技術文章“裝逼”的性質遠多于技術探討,我想把剛動手實現過的系統,其設計原理,特別是如何編碼實現娓娓道來,在技術實踐上,代碼是唯一的通行證,任何沒有具體可寫代碼的“描述”,“闡述”,“分享”其本質都可能是耍流氓。
言歸正傳,人臉識別基本分為三步。第一步是要掌握如何從圖像中識別出人臉。這部分包括從圖像中框選出人臉的矩形范圍,同時獲取人臉中兩只眼睛,一個鼻子,兩邊嘴角等五個關鍵特征,這些關鍵特征也成為landmark,如下圖所示:
第二部是將識別到的人臉區域圖像進行特定運算最終得出一個高緯度的向量。第三部是將兩個圖片或從不同源頭獲得圖像后進行前兩部,然后將所得的向量進行歐幾里得距離運算,當兩個人臉向量之間的距離小于特定閾值時就認為兩個人臉是同一個人,要不然就是不同人。
我們先從第一步,也就是從圖像中識別人臉所在區域開始。這部分工作也稱為aligment。從圖像中識別人臉這項工作做得做好的來自于中國學者的工作,其中效果最好的則是來自論文<Joint Face Detection and Algment using Multi-task Cascaded Convolutional Networks>,這篇論文的所提算法的基本思想是,使用三個卷積網絡依次對圖片進行識別。第一個網絡叫P-NET,它的目的是識別出圖片中可能包含人臉的區域。算法對它的要求是,可以識別錯誤但不能遺漏,也就是P-NET掃描圖片后會給出一系列矩形區域,它認為這些區域里面的圖像就是人臉。
算法不要求P-NET非常精準。它可以識別出錯,也就是它可以將某部分不是人臉的區域識別為人臉,但它不能遺漏是人臉的區域。接下來還有兩個網絡分別是R-NET和O-NET,這兩個網絡同樣是卷積網絡,它們作用在P-NET結果的基礎上。P-NET賦值篩選出一系列有可能是人臉的區域,R-NET對這些區域進行過濾,去除那些不屬于人臉的區域,O-NET與R-NET作用相同,只不過它作用在R-NET的輸出結果上,O-NET最終輸出結果就是系統識別出的人臉所在區域。
我們先看P-NET的基本結構:
從上圖可以看到,它接收規格為1212的圖像輸入,最終輸出三個結果,第一個結果給出1212區域內的圖像是人臉以及不是人臉的概率。注意它輸出兩個概率,這一點是原來使我困惑的地方,因為我認為你只要輸出一個概率就行,另一個概率簡單計算就可以。后來明白到,這種設計其實是為了提升網絡的訓練效果,讓網絡輸出兩個概率就可以使用cross-entropy函數來進行訓練,其對應的損失函數如下:
公式中下標i指的是輸入的第i個區域。y(i)用于表明該區域是否是人臉,它只有兩個值,如果輸入的12*12區域包含人臉,那么y(i)取值1,如果不是人臉那么取值0.如果區域i是人臉,那么要調整網絡參數,使得輸出的第一個值盡可能的大,如果區域內不是人臉,那么要調整網絡參數,使得它輸出的第二個數值要盡可能的大。
單單讓網絡判斷給定區域是否是人臉還不足以訓練出好效果。該算法的一個特點是,將是否是人臉的判斷與人臉所在區域的計算結合起來,這樣能大大提升網絡識別的效率。因此網絡輸出的第二部分用于計算人臉矩形范圍,它輸出4個值,前兩個是人臉所在矩形區域的左上角坐標,剩下兩個值是矩形的右下角坐標
如果網絡計算的第一部分結果,也就是輸入區域是否包含人臉的概率超過了給定閾值,算法才會進行第二部分運算,假設輸入的數據包含人臉,那么輸入數據中還會給出人臉所在區域的矩形左上角和右下角坐標的準確數據,那么算法會調整網絡參數,使得第二部分輸出的坐標值與給定的準確坐標值的差異盡可能小,因此使用的損失函數如下:
其中第一個y(i)是網絡給出的人臉區域左上角和右下角對應的四個坐標數值,第二個y(i)對應的是正確的人臉所在區域左上角和右下角坐標值,當上面公式計算結果越小就表明網絡給出的人臉區域越準確。
第三部分用于計算五個特征點的坐標。由于每個坐標對應兩個數值(x,y),于是第三部分對應含有10個元素的向量。于是如果輸入的區域包含人臉,那么網絡還要計算人臉五個關鍵特征對應的坐標,并且要讓計算的坐標與訓練數據給定的坐標盡可能相近,其對應損失函數如下:
其中第一個y(i)對應網絡輸出的5個關鍵特征點坐標形成的向量,第二個y(i)是訓練數據給出的關鍵特征點的形成的向量,當上面公式計算結果越小就表明網絡給出特征點坐標越準確。在訓練P-NET時,算法要將這三部分損失以一定的比率結合起來。
回頭看網絡的結構。如果輸入的圖片規格為1212,第一個卷積層的規格為33,它掃描的步長為1,因此輸出結果的數量為(12-3+1)/1 = 10,也就是經過第一層卷積后輸出結果的規格為(10, 10, 10),最后一個10是因為第一層卷積曾有10個卷積核。然后將輸出結果經過內核規格為(2*2)的池化層,這一層會把輸入數據的規格縮小一倍,于是經過池化層后,輸出數據規格就是(5,5,10).
第三層還是一個(33),掃描步長為1的卷積層,長和寬為5的輸入經過它后,輸出的數據規格為(5-3+1)/1=3,由于第二層卷積包含16個卷積內核,于是輸出結果為(3,3,16),最后經過一個規格為(33),掃描步長為1的卷積層,由于輸入數據的規格為(3,3,16),因此經過它后輸出的數據規格為(3-3+1)/1,由于它包含32個卷積核,因此最終輸出結果為(1,1,32),最后這部分輸出再分別與三個規格為1*1的卷積層運算,于是得出上圖的三部分輸出。
當你閱讀了上面的描述后,肯定還會覺得很恍惚,這就是代碼存在的必要。后面我們會用代碼實現上面的算法描述,只有讀了代碼你才能掃清文字描述所產生的困惑。
最后還需要搞清楚的是,網絡針對的輸入數據規格為1212,也就是它只能判斷1212區域內的圖像是否是人臉。但如果圖像中包含人臉,但人臉所占據的區域范圍超過1212該怎么辦。相應的解決辦法是縮放,假設人臉區域范圍是2020,,那么算法會按照一定的比率對圖片進行縮小。例如第一次先將圖片縮小為1616,此時人臉所在區域還是超過圖片所能判斷的區域,于是再次對圖片進行縮小,這次縮小到1212,此時圖片就在人臉所能識別的范圍了,這種將圖片不斷縮小所形成的圖片序列也被算法稱為圖片金字塔,對應論文里就是image pyramid。
在具體應用時,輸入的圖片規格不是1212,而是任意規格。當輸入圖片規格不是1212時,P-NET的作用就相當于使用一個1212的掃描框,先橫向掃描圖片,每次間隔2個像素,然后再縱向掃描圖片,每次間隔2個像素,也就相當于對給定圖像,先橫向依次扣出1212的圖片區域,判斷區域內是否包含人臉,然后回到起點并往下挪動2個像素,然后再橫向依次扣出1212的圖像進行判斷,于是當把規格不是1212的圖像輸入P-NET時,P-NET就相當于一個掃描區域為12*12,掃描步長為2的卷積層。
所以假設當輸入P-NET的圖像規格為1616時,P-NET會選取cell((16-12+1)/2) =3,也就是將圖像分成(3,3)個區域,每個區域規格為(1212),然后P-NET會依次判斷這些區域里面是否包含人臉。
在后面我們使用代碼實現時,當前所有描述的讓你一時無法明白的知識點會變得清晰起來。