注:開源代碼地址(附快速入門示例):https://github.com/tensorflow/models/tree/master/object_detection
此次發布的版本,包含了計算機視覺、卷積神經網絡領域的不少前沿技術。如基于 MobileNets、Inception-V2 網絡的 SSD 檢測算法;基于 Resnet-101 網絡的 R-FCN 檢測算法;基于 Resnet-101、Inception-ResNet-v2 網絡的 Faster RCNN 檢測算法。
此舉對于普通的碼農,或計劃步入AI領域的創業者來說,無疑是重大利好消息。
視覺搜索,是深度學習(或人工智能)領域最重要的研究課題之一,在現實生活中也有著非常廣泛的應用。從簡單的以圖搜圖、車牌識別,到人臉識別、植物或寵物的識別,人體或車輛的跟蹤,無人機、無人汽車的自動駕駛,智能機器人等領域,都離不開計算機視覺搜索技術。
通常,視覺搜索包含了兩步任務:首先,待搜索物體的檢測與定位;其次,從庫(知識圖譜、圖片庫、信息庫等)中搜索該物體,或查詢相關聯的場景。
如觀看電視劇《深夜食堂》時,發現老板端出了一款美味精致的料理,想拍照搜索一下相關的食材和菜譜,視覺搜索就派上用場了。首先,系統需要檢測照片里面涉及的各種食材,并提取食材的特征信息;其次,系統根據待檢測物體的特征,去庫里做相應的搜索和匹配,系統再根據匹配到的食材去搜索相應的菜譜。
對于機器來說,這兩步都不容易,尤其是第一步,這也是此次谷歌開源基于 TensorFlow 的物體檢測代碼的意義所在。這點其實蠻有趣的,因為人類恰好相反,第一步的物體檢測比第二步的搜索匹配容易多了。
這里,照例先吐槽一下百度的以圖搜圖功能,這個號稱國內最好用的搜索引擎,這是百度相似圖片結果:
原圖如下:
下圖是谷歌的搜索結果:
下面,先從簡單一點的第二步說起,聊聊機器怎么實現物體搜索與匹配的。
1、圖像特征提取
圖像特征的提取,是圖像簡化標識的過程,也是圖像搜索、匹配、識別的關鍵和前提。
傳統的全局特征表示方法,如顏色、形狀、紋理等特征,簡單直觀,但易受光照、裁剪、旋轉、噪聲等因素的影響,目前基本只作為輔助手段。
一些局部或特殊的特征點,相對來說有更好的穩定性,不易受外界干擾,所以更適合對圖像進行搜索、匹配。如:
斑點特征檢測,代表性算法有:LOG(高斯拉普拉斯算子檢測)、DOH(利用圖像點的二階微分Hessian矩陣及其行列式);
角點特征檢測,代表性算法有:Harris角點檢測、Shi-Tomasi角點檢測、FAST角點檢測 等;
SIFT(尺度不變特征轉化)特征檢測,是具有劃時代意義的特征檢測算法。由于其具有非常不錯的仿射不變性,旋轉不變性,對于光線、噪點、視角變化等的容忍度也較高,在圖像搜索匹配領域應用非常廣泛,后續也出現了很多基于 SIFT 的改良算法。
SURF(加速魯棒特征)特征檢測,是 SIFT 的高效變種,簡化了 SIFT 特征提取的算法,運算效率更高,基本可實現實時處理。
ORB 特征檢測,主要在 FAST 特征點檢測算法與 BRIEF 特征描述方法的基礎上,做了一些優化和改進,是 SIFT、SURF(兩者都受專利保護)之外一個很好的選擇。
KAZE/AKAZE(KAZE的加速版)特征檢測,比 SIFT 有著更優異的性能和更穩定的表現,是繼 SIFT 之后一個較大的突破,也是目前我在系統中優先采用的圖像特征提取算法。
另外,還有基于 BRISK/SBRISK(二進制魯棒尺度不變關鍵點)、FREAK(快速視網膜關鍵點)等算法的特征提取檢測,由于這些算法我沒有過多的關注,所以暫且略過。
不過,由于 2012 年之后,深度學習首先在語音識別、計算機視覺等領域開始崛起,深度學習算法正逐步蠶食傳統特征檢測算法的領地。
特別是利用深度學習的卷積神經網絡(CNN)訓練輸出的圖像卷積特征,表達能力比前面提到的傳統特征更強,而且還具備很不錯的遷移能力,只是可解釋性弱于傳統特征。如何設計卷積網絡,以及如何結合傳統特征檢測的思路,使得深度學習訓練得到的視覺特征更穩定,可解釋性更強,是當前業界的一大研究課題。
2、圖像物體檢測
圖像中物體檢測與定位的過程,與文本中詞匯自動補全的功能類似,可以極大的提高用戶搜索的體驗。
傳統的做法,一般是由用戶手動裁剪、框定,來指定需要搜索的物體。目前已經有了不少算法來實現物體的自動檢測。
除了前面提到過的,谷歌此次開源版本中已經實現的 Faster R-CNN、R-FCN、SSD 檢測算法之外,還有不少其他檢測算法,如除 SSD 外,另一款端到端的檢測算法:YOLO(You Only Look Once),精度可能略遜于 Faster R-CNN(非絕對,不同的數據、網絡設計會導致差異),但檢測速度較快。后續的 YOLO 9000(YOLO 升級版),論文提到能夠檢測識別超過 9000 類的物體,而且檢測更加快速、準確。
這個領域的初學者,目前可以考慮基于谷歌新開源的《TensorFlow Object Detection API》先做一番嘗試和實踐,后續有機會再一起交流分享。
3、其他相關技術
大規模的項目實踐中,除了物體檢測與特征檢測算法外,還需要結合不少其他的技術,才能讓視覺搜索有更流暢的體驗。
通過特征提取算法,我們可以獲取到圖像離散的特征表示,或轉化為視覺詞匯。項目實踐時會基于局部敏感哈希(Locality Sensitive Hashing)等技術,進一步壓縮數據存儲空間。
類似 Lucene 的文本搜索技術,我們會對視覺詞匯及其相關信息建立倒排索引、B樹索引等,實現高效的信息檢索。同時,類似 Word2vec 這種文字模型,視覺詞匯之間也可以構造類似的相關性矩陣,將查詢映射到附近的相似特征,以實現更好的相似圖片搜索。
4、應用前景
視覺搜索的應用前景顯然是非常廣闊。
譬如,和電子商務結合,搜索同款或相似款的衣物、包包;和社交網絡結合,實現更好的圖像理解與互動;和自媒體結合,更方便的尋找圖像、視頻的素材;和知識產權結合,可以更準確的追溯圖像來源與版權信息;和醫療健康結合,可以更準確的做病理研究;和工業生成結合,實現更可靠的瑕疵物件篩選;和網絡安全結合,實現更好的對圖像、視頻內容的自動過濾審核;和安保監控結合,可以實現更準確的跟蹤定位;和智能機器人相結合,可以實現更好的機器人物體識別和場景定位...
題外話
前些日子,蘋果 CEO 庫克在 MIT 的畢業典禮演講上曾說:我并不擔心人工智能可以讓機器像人一樣思考,我更擔心人會像機器一樣思考。
個人覺得,這句話說的非常精彩和及時。在即將到來的智能時代,技術首要的應該是更多的注入人性中的正直和善良,否則技術帶來的也許是災難,而不是福音。
碼字不易,文筆有限,文中若有不當之處,歡迎交流指正。