吃貨必備!MIT的神經網路將食物圖片翻譯成食譜
文章來源:機器人家 http://www.robot360.cn
麻省理工學院計算機科學和人工智慧實驗室(CSAIL)的研究人員開發了一種神經網路,可以通過「看」圖像找到圖片所描述的食物的相關食譜。這是包括Pinterest和矽谷在內的類似項目研發中的新成員。
2017年可能是人工智慧在食物鑒定上有重大進步的一年。
CSAIL團隊將這個網路稱為Recipe1M,並在本周發布的一篇論文中詳細描述了這個問題。簡單地說:研究人員向AI提供了超過100萬份的食譜和近100萬張的圖像。在訓練過程中,讓它對食譜和食物照片之間的關係進行了精細的聯想。
這個結果被稱為Pic2Recip的埠讓人想起了TensorFlow項目中的edges2cats和Pix2Pix。
在Google的Tensorflow項目中Christopher Hesse創建的edge2cats
由荷蘭公共廣播公司NPO創建的被稱為Pix2PixAI系統
但是這個網站是根據您上傳的食物照片來抓取食譜,並根據系統的結果是否正確對其進行排名,而不像edges2cats和Pix2Pix的結果那麼可怕。
這個想法很有趣,但是還沒有好的結果。
上述這些都是「理論上」的結果,因為在研究人員短暫的測試中,Pic2Recip基本上沒能正確地生成這些關聯。研究人員拍過的拉麵碗,薯片,teriyaki牛排,甚至米飯和豆子,然而這些都收到了「不匹配」的回復。
一張早餐混合物的模糊照片則搜索出了更多的結果,如「姜杏仁」和「辣椒花生」的食譜。
這個系統目前還不太成熟,但是研究人員希望通過改進這個系統將它開發成一個實際可運用的項目。
有趣的是,在Pic2Recipe上唯一搜索到正確結果的是研究人員上傳的一隻熱狗的照片。
更多有趣內容,歡迎關注機器人家:Robot360
推薦閱讀: