CVPR 2018獎項出爐:兩篇最佳論文,何愷明獲PAMI 青年研究員獎
來自專欄機器之心88 人贊了文章
昨日,一年一度的計算機視覺頂級會議 CVPR 2018 在美國鹽湖城拉開帷幕,排起長龍的註冊隊伍讓現場參會的機器之心分析師看到了這屆 CVPR 的火熱。據統計,本屆大會有超過 3300 篇的大會論文投稿,錄取 979 篇(接受率約為 29%,其中包括 70 篇 Oral 和 224 篇 Spotlight 論文)。
而在一個小時前,最受關注的 CVPR 2018 最佳論文結果揭曉:來自斯坦福大學和 UC Berkeley 的 Amir R. Zamir 等人獲得 CVPR2018 的最佳論文(Best Paper Award);來自卡內基梅隆大學的 Hanbyul Joo 等人獲得了本屆大會最佳學生論文獎(Best Student Paper Award)。此外,Tübingen 大學教授 Andreas Geiger 與 FAIR 研究科學家何愷明獲得本屆大會的 PAMI 年輕學者獎。
在 19 號上午的主會議上,CVPR 方面先介紹了今年大會的數據信息,除了論文接收量再次超越往年,今年的註冊參會人員也達到了 6512 位。
此外,論文評審人員的數量在今年也達到了新高,2385 名 reviewer,而 2014 年 CVPR 的參會人員也才 2000 人左右。
介紹完大會數據方面的信息,接下來就是揭曉最佳論文得主了:
最佳論文
CVPR2018 的最佳論文(Best Paper Award)由斯坦福大學和 UC Berkeley 的 Amir R. Zamir 等人獲得。他們提出了一個映射視覺任務空間的框架,通過計算不同任務的相關性來確定遷移學習方案,從而可以在保持準確率的同時,大大降低對數據、監督信息和計算資源的需求。
最佳論文:Taskonomy: Disentangling Task Transfer Learning
論文鏈接:http://taskonomy.stanford.edu/taskonomy_CVPR2018.pdf
視覺任務之間是否相關?例如,能否使用曲面法線簡化估計圖像深度的過程?直覺上對這些問題的正面回答暗示著在各種視覺任務之間存在一種結構。了解這種結構具有巨大的價值;它是遷移學習背後的概念,且可為識別任務間的冗餘提供了一種有理可依的方法,比如,為了在相關任務間無縫地重複使用監督或在一個系統中解決多個任務而不增加複雜度。
我們提出了一種完全計算的方法來建模視覺任務的空間結構,通過在一個位於隱空間內的 26 個二維、2.5 維、三維和語義任務中尋找(一階或更高階)遷移學習依賴關係來實現。其成品是用於任務遷移學習的計算分類圖。我們研究了這個結構的成果,比如出現的非平凡相關關係,並利用它們減少對標註數據的需求。比如,我們展示了解決一組 10 個任務所需的標註數據點總數可以減少約 2/3(與獨立訓練相比),同時保持性能幾乎一致。我們提供了一套計算和探測這種分類結構的工具,包括一個求解器,用戶可以用它來為其用例設計有效的監督策略。
該項目也已開源並放出官方的 API 和 Demo:http://taskonomy.stanford.edu/
CVPR2018最佳_騰訊視頻會後,該論文的第一作者、斯坦福大學和加州大學伯克利分校的博士後研究員 Amir Roshan Zamir 告訴機器之心記者,「這篇論文主要圍繞了當前機器學習系統最大的缺點,也就是需要很多標註數據才能完成它們想要的結果。人類是可以借鑒學到的不同技能,也就是遷移學習,你在第一盤棋中學到的技能可以用到第 10、第 100 盤棋,這篇論文的重點就是將這個概念帶去機器學習、尤其是在感知(perception)這塊兒。基本上你用你之前學的技能解決新的問題。」
該論文的共同二作,斯坦福大學計算機科學系的現本科生/准博士生沈博魁告訴記者,他們的目標是找到不同任務之間的關聯,這些任務比如說是深度感知(depth-perception)、surface normal estimation 之類的,發現這些關聯之後就能用更少的數據來解決更多的任務。比如用邊緣檢測和 surface normal estimation 就能更好地學深度感知。
最佳學生論文
本屆大會的最佳學生論文(Best Student Paper Award)由來自卡耐基梅隆大學(CMU)的 Hanbyul Joo、Tomas Simon、Yaser Sheikh 獲得。該研究提出了一種 3D 人體模型,不僅可以追蹤身體的姿勢,還可以追蹤人臉表情和手勢等微小動作。
最佳學生論文:Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies
論文鏈接:http://www.cs.cmu.edu/~hanbyulj/totalbody/totalcapture.pdf
摘要:我們展示了一種用於無標記捕捉多尺度人類動作(包括人臉表情、身體動作和手勢)的統一變形模型(deformation model)。初始模型通過將人體各部位的模型進行局部組合來形成,我們稱之為「弗蘭肯斯坦」模型。該模型能夠通過單個無縫模型完整表達人體部位的動作,包括人臉和手的動作。通過對穿著日常服飾的人們進行大規模數據收集,我們優化弗蘭肯斯坦模型以創建「亞當」(Adam)。亞當是校準模型,它與初始模型具備同樣的基礎層級,但是它可以表現頭髮和衣服的幾何形狀,使之可直接用於查看衣服和人是否相配,就像真的在日常生活中穿了這些衣服一樣。最後,我們展示了這些模型可用於整體動作追蹤,同時捕捉一組人的大規模身體動作和細微的面部和手部動作。
作為計算機視覺的研究,最佳學生論文也有自己的展示頁:http://www.cs.cmu.edu/~hanbyulj/totalcapture/
榮譽提名獎(Honorable Mention)
- 論文:Deep Learning of Graph Matching
- 作者:Andrei Zanfir、Cristian Sminchisescu
- 論文鏈接:http://openaccess.thecvf.com//content_cvpr_2018/papers/Zanfir_Deep_Learning_of_CVPR_2018_paper.pdf
- 論文:SPLATNet: Sparse Lattice Networks for Point Cloud Processing
- 作者:Hang Su、Varun Jampani、Deqing Sun、Subhransu Maji、Evangelos Kalogerakis、Ming-Hsuan Yang、Jan Kautz
- 論文鏈接:https://arxiv.org/abs/1802.08275
- 論文:CodeSLAM - Learning a Compact, Optimisable Representation for Dense Visual SLAM
- 作者:Michael Bloesch、Jan Czarnowski、Ronald Clark、Stefan Leutenegger、Andrew J. Davison
- 論文鏈接:https://arxiv.org/abs/1804.00874
- 論文:Efficient Optimization for Rank-based Loss Functions
- 作者:Pritish Mohapatra、Michal Rol′?nek、C.V. Jawahar、Vladimir Kolmogorov、M. Pawan Kumar
- 論文鏈接:https://arxiv.org/abs/1604.08269
除了以上獲獎論文,大會還公布了今年的 PAMI Longuet-Higgins Prize 與 PAMI Young Researcher Award。前者是頒發給至少 10 年前發布的論文,而後者是頒發給 7 年內獲得博士學位且早期研究極為有潛力的研究人員。今年 Longuet-Higgins Prize 的得主為 CVPR 2008 年的論文《A discriminatively trained, multiscale, deformable part model》;PAMI Young Researcher Award 的得主為 Andreas Geiger 與何愷明。
Andreas Geiger 是德國蒂賓根大學計算機科學系的教授,自動駕駛視覺組成員。今年他們有四篇論文被 CVPR 2018 接收。而另一位獲獎者何愷明大家都比較熟悉,他於 2016 年 8 月加入 FAIR(Facebook AI Research),擔任研究科學家。此前,他曾以第一作者身份拿過兩次 CVPR 最佳論文獎(2009 和 2016)。
最後值得一提的是,恰逢世界盃期間,CVPR 2018 提供世界盃直播。所以,參會者們是看著論文,累了就停下來看會兒世界盃嗎?
cvpr 2018_騰訊視頻推薦閱讀:
※如何使用DeepFake實現視頻換臉
※盤點2017年人工智慧行業大事件,你知道多少呢?
※011智能倉儲物流自動化行業的「中國芯」
※AR和人工智慧,更像一對親密的戀人!
※人工智慧時代,判斷力第一,預測力第二
TAG:深度學習DeepLearning | 計算機視覺 | 人工智慧 |