怎麼能夠有效地知道自己對計算機視覺哪個方向感興趣?
題主現在大四,研究生要做機器視覺(哎呀其實就是計算機視覺- -)。導師想讓我先找下自己在視覺這個方向更具體些的興趣點(比如對虛擬現實感興趣,想做出個設備),然後和他的研究方向找到契合點,再和我商量將來研究課題的問題。
之前自己也在網上大概搜索了下CV有哪些有趣的應用,但是覺得太泛了,針對性不夠強也不夠高效。 還有自己也大概了解了一些書,比如一本綜述性質的書:Computer Vision: Algorithms and Applications...可能有的盆友會建議我看看這種內容很全面的書,但是這裡面貌似主要內容是介紹了很多技術方法而不是應用(好吧也可能是我沒仔細看-。-),而我希望的是先找到興趣點再去往深挖掘它包含的技術知識而不是一上來接觸到的就是技術層面。 因為我個人覺得評判自己是否對某個方向感興趣一方面取決於直觀感受對它是否「心跳」,還有一點就是它內部的技術和原理自己是否能hold住(因為覺得很有可能太難了學著學著就不愛學了=。=可能這觀點欠佳哈歡迎批評指正),所以我希望可以不通過深入學習某個方向的具體技術知識就知道自己是否適合這個方向(因為視覺包含的知識太多了而且時間也不允許(意思就是不要給我推薦大厚書嘿嘿嘿))。 所以有沒有什麼網站或者方法途徑能夠比較適合題主現在這種情況去找到自己喜歡又適合的方向呢,定下這個方向倒也不很著急,但也是希望儘快啦~找到方法後我會認真執行的(認真臉),先謝謝大家啦(好啰嗦我都受不了我自己了orz。。)~
自己的興趣點可能還是要靠自己去找。我來說說計算機視覺在未來可能會有哪些應用吧。
我覺得終極應用就是機器人視覺。現在學術界工業界很大的心思花在如何讓機器人看上去象人這個方向上。比如四足行走或者兩足行走,仿生皮膚,四肢運動。但根本上講,機器人之所以為『人』,是需要有人的智力、聽覺和視覺。
在計算機視覺上這幾年有了很大的突破,但是還遠遠未到解決問題的程度。從機器人視覺的角度,要學會象人一樣看東西,就要達到下面的程度:
1. 即時定位與地圖重建。人是能感知周圍的環境並與之進行交互的。機器人也需要理解他所處的環境,他與所處的物體之間的距離、方位。
2. 對象三維重建與對象識別。與環境中的對象進行交互,必須以三維的方式去感知、理解和互動。此外,要與對象進行互動,就必須理解對象的屬性。你可以想像這樣一個任務,吩咐機器人幫你遞一杯水。要完成這個動作,機器人必須能找到水杯在哪裡,離自己有多遠,知道這是個什麼樣的水杯,從而自己要以什麼樣的握姿和力度去拿起這個杯子。3. 在對象識別中有一類特殊的對象,就是人。對一隻螞蟻,我們只需要只到它的分類和這一類生物的屬性就好了。但對人,機器人必須識別和建立自己與他的聯繫。所以對人的識別還有特殊的目標有待完成。要達成上面的這些目標,我覺得核心技術可能就是SLAM, Face detection/recognition, Object Identification(更多的可以參考知乎上關於AR、Magicleap, hololens的討論)。Face detection/recognition現在沒太大的問題了,怎麼讓機器人與認識的人建立記憶可能是下一步的問題。對象識別就需要做三維重建。現在的三維重建基本上是點雲的思路,這樣重建出來的對象是沒有語義特徵的,是無法交互的(除了可以旋轉觀看),所以需要有新的思路,比如基於對對象的先驗知識,對其進行重建。插播一條廣告,我公司現在就在研究這一課題,就是通過幾張照片完成人體重建。重建出來的人體,四肢會動,眼睛能眨,嘴巴會動,後面還希望她能學會笑容,等等。這裡面要用到的技術,目前來看有CNN系(F-CNN)的,也有RNN系的(LSTM),當然也有三維圖形學的。
中期的目標主要是無人駕駛。有一些路況特徵是雷達、紅外沒有辦法識別的。比如當你的車在高速行駛當中,前面出現一個磚頭,或者出現一個充氣、反光的塑料袋,在這兩種情況下,駕駛員的處理應該是不同的。如果能判斷只是一個充氣塑料袋,可以不減速不變道碾過去;如果是磚頭,那麼可能是另一種處理方法。而這兩個對象是無法使用雷達波、紅外線來區別的(即使這兩種波能描繪物體的表面曲線,但最終還是要以計算機視覺的方法來決定對象是什麼。而且這兩種波描繪出來的表面,還損失了關鍵的色彩信息)。
近期已在應用的就是各類人臉識別相關的安防系統了。如果要講一個能實現,又有價值的應用,你可以考慮一下這個:智能交通燈。現在的交通燈只能按固定的時段調節紅綠燈的時長,無法感知路面的真實情況。比如,也許東西向車流很堵,而南北向基本沒車,但交通燈還是會固定的給南北向車流固定的能行時間。智能交通燈要結合十字路口的攝像頭,識別出道路是空曠還是擁擠,從而決定每個方向上應該給多少能行時間。
計算機視覺必然是未來非常有應用前景的一門科學。我們生活的世界是一個人為世界。人類感知這處世界,最重要的手段就是通過可見光這個狹窄的電磁波波段,從而給這個世界賦予豐富多彩的意義。計算機要徹底地理解這個世界,也必須有人的眼睛。
要有光。
多跟人聊天。
找導師聊,問他想做什麼,為什麼。
找其他教授或者他們的博士後/高年級學生,問他們在研究啥,為什麼。有人來做報告的時候,參加學術交流活動的時候…研究具體問題的動機都是非常私人的,人和人之間的交流才會揭示它們。
另一種選擇是學E Musk從第一性原理出發,前提是你知道你的終極目標是什麼,並且足夠了解這個領域。
比較簡單有效的還是去從人身上找靈感和共鳴。聽題主的描述已經確認了導師,也跟導師溝通過:要在導師研究方向和題主興趣之間找個契合點做一下項目。而題主並沒有明確的興趣,所以問題似乎就變得很簡單了:那就是主要參考導師在CV領域的研究方向和成果,這樣最便於導師指導,能充分利用導師的經驗,站在導師和學長學姐的肩膀上提高能力、擴展視野。
自己的興趣以及強項慢慢在具體實踐里才找得到。
題主你好,我現在也是大四,也剛確定導師,也是計算機視覺。
上周和導師聊了很久,包括我現階段要補充的知識,需要閱讀和學習的演算法,以及未來幾年的規劃,以及讀博與否的見解之類的。
我的建議是,樓主現在還不用著急確定研究方向,也不用直接去讀什麼CVPR之類的文章。把編程基礎,數學基礎打好,英語基礎打好。等研一入學,對自己的各方面基礎有底了,再定方向的時候,才能對方向的難度和自己的能力有所把握。這樣才能發展的順利。
我推薦你一本書,叫做,計算機視覺中的數學方法(吳福朝)。很老的一本書,對咱們專業非常有用,你讀了之後會感謝我的。
題主可以私信我,咱們再做進一步交流。這個回答可能不是很貼切兄弟的問題,就是說下自己的經歷吧,希望有幫助。我是模式識別方向的,也是搞機器視覺,碩士畢設做的多感測器融合,其實就是拿激光雷達指導相機圖像分割,分割出目標區域就完了。說實話,做的真不好。基本功能雖然實現了,但是離自己的期望差太遠。實驗室是做無人車的,本來期望是實現車載的障礙檢測,分割出目標區域後再映射到3維,變成立體的障礙物信息。可惜那時候閱歷不夠,思路不清晰,最後只好糊弄過去了。但是我覺得自己選題方向是對的,一來自己有興趣、有目標;二來動手的工作多、理論工作少,適合我的特點;三來貼合實驗室主線工作,各方面條件完備。
我想選方向就應該這樣吧:P
如果想從事科研,我猜你應該大概已經知道哪個方向是你喜歡和擅長的了。如果想去公司或創業,直接去參加面試,和一線的工程師聊。畢竟興趣和需求是兩件事情。機器視覺包含的內容非常廣,本質上,與光學和機器(演算法)分析相關的內容都可以包含在內。比如,德國的大學把多光譜分析都算在機器視覺的範疇。所以與其問哪個專業方向有興趣,更不如問你想用機器視覺這種手段做些什麼事情。
導師擅長什麼就做什麼,畢業為重。
我導師是做計算機視覺的一個小冷門方向,我(剛研一)和大師兄都是跟著導師做,然後一個師姐做的是另外一個小方向。
現在就出現了一個情況,師姐遇到的一些問題導師無法及時給出有效的解答,相反,我和大師兄的問題一問老師很快都能得到一個答覆。然後畢業論文分3章,導師要求每一章都是一個小體系。大師兄的進度是完成2/3,師姐的進度和我一樣。推薦閱讀:
※除了美帝的學校,哪些國家的哪些學校CS的ML,CV方向的PHD值得去讀?為什麼?
※學習了哪些知識,計算機視覺才算入門?
※ECCV 2016 有什麼值得關注的亮點?
※計算機視覺一般都用什麼語言實現?有什麼好的平台?
※圖像超解析度就業前景如何?