「快到沒朋友」的目標檢測模型YOLO v3問世,之後arXiv垮掉了…
安妮 編譯整理
量子位 出品 | 公眾號 QbitAI
今天有三件事挺有意思。
一是以「快到沒朋友」著稱的流行目標檢測模型YOLO推出全新v3版,新版本又雙叒叕提升了精度和速度。在實現相近性能時,YOLOv3比SSD速度提高3倍,比RetinaNet速度提高近4倍。
二是有細心網友發現,模型一作在arXiv上發布研究論文時,腦迴路清奇地將自己這篇論文自引自用了一下。
三是……在小哥自引自用後沒多久,arXiv官方賬號宣布伺服器由於不明原因掛掉了……
更快更強
先說更新這件正經事~
通過調整YOLO模型中的一些細節,v3模型增大了一些準確率也有所提升,速度依舊非常快。
對於320x320的圖像,YOLOv3的檢測速度可達22ms,mAP值可達28.2,與SSD的準確率相當但速度快3倍。
當用舊版.5 IOU mAP檢測指標時,YOLOv3在英偉達TitanX顯卡上51ms達到57.9AP50的性能。相比之下,RetinaNet則用198ms達到57.5AP50的性能,兩者性能相近但速度相差近4倍。
作者,和他的少女心
YOLOv3出自華盛頓大學的Joseph Redmon和Ali Farhadi之手。
Ali Farhadi是華盛頓大學的副教授,一作Joseph Redmon是他的博士生,曾在IBM實習,其實還當過電台DJ。Redmon是一個少女心有點爆棚的程序員,這裡有一份他的簡歷,可以自行感受下。
處於不知名的原因,小哥有一些「獨角獸情結」,可以再次感受下個人網站的畫風——
「論文就該實在點」
如果單單是YOLOv3發布新版本,可能在Reddit上還達不到熱度200的水平。有意思在,論文從頭到尾都透露著「不太正經」的氣息,比如作者自引自用論文,比如這個Introduction的開頭——
自己今年沒怎麼做研究,花了很多時間在Twitter上,搗鼓了一下GAN。
沒錯,這真的是一篇arXiv上的論文。Redmon還在論文中寫了寫自己嘗試但失敗了的方法。結尾,也不忘調侃一下熱點。
「還有一個更好地問題:『我們如何使用檢測器?』Facebook和Google的很多研究員也在做相關研究啊。我認為,我們至少能知道技術被應用在了有利的方面,並且不會被惡意利用並將它們賣給…等一下,你說這就是它的用途??Oh!」
Reddit上網友的稱讚每篇論文都應該這樣實在,小哥在Reddit已收穫大批粉絲……
相關資料
對了,對論文有疑問還是不要去@作者了,反正對方也不會回,論文中都說了~
你可以選擇冒險再回看研讀一下論文和代碼。
論文下載地址:
https://pjreddie.com/media/files/papers/YOLOv3.pdf
項目地址:
https://pjreddie.com/darknet/yolo/
相關代碼:
https://github.com/pjreddie/darknet
不過你得小心。
畢竟……YOLO模型的全稱可是You Only Look Once(只能看一眼),再看可能會被吃掉!
— 完 —
歡迎大家關注我們的專欄:量子位 - 知乎專欄
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
量子位 QbitAI · 頭條號簽約作者
?? ? 追蹤AI技術和產品新動態
推薦閱讀:
※史上規模最大的無人車道德研究:人們更傾向犧牲乘客而非行人
※結合深度強化學習與邏輯結構
※人工智慧將在2018年刷新這五大行業
※HealthIT智能+醫工技術創新合作計劃
※機器學習的數學原理