如何解讀 Google I/O 2017 的 Keynote?
本題已收錄至知乎圓桌:Google I/O 2017,更多「Google I/O」相關話題歡迎關注討論
寫這篇文章的時候,Google I/O 的開幕 Keynote 還在進行,毫無疑問,AI 成為了今年 Google I/O 大會的絕對主角。雖然同樣是鼓吹 AI 優先,但是 Google 用了 Keynote 1/3 的時間就給其他的人工智慧助手都上了一課。
如同所有發布會一樣,Sundar Pichai 上場就秀了一把自家在過去一年的成績,簡單做個歸納:觀眾們觀看了 10 億多小時的 YouTube 視頻;Google Drive 的活躍用戶數也達到了 8 億;每天有 12 億張照片上傳至 Google Android 活躍設備數也達到了 20 億。
除此之外最為重要的是:Google 的 AI 進步頗多,無論是語音識別還是圖像識別的準確程度都在快速提升,Google 正在考慮將機器學習和 AI 集成於全部的產品之中。
如果說去年的 Google I/O 大會上,Google 的 AI 用 Google Assistant 的方式初步落地,今年的 Google I/O 上,Google Assistant 的能力得到進一步的加強,專註於聽覺和視覺識別的大方向,也體現了 Google 對人工智慧助手這一角色的理解。
先簡單回顧一下去年的 Google Assiatant 能做什麼。簡單來說,Google Assitant 是一個語音智能助手,它不僅僅能回答你的問題,還能夠完整理解上下文語境,並且圍繞一個話題陪你聊下去,而不是你問一句它回一句。而 Google Home 則是一個集成了 Google Assistant 語音識別助手的智能音箱,除了播放音樂、搜索、建議安排待辦事項等常見功能,Google Home 還能成為智能家居產品的中樞,根據用戶需求,完成調節溫度、開啟燈光等任務。
在今年的 Google I/O 上,智能助手的主角仍然是 Google Assistant 和 Google Home,但經過一年的成長,Google 的人工智慧助手功能性和實用性都增長不少。
Google 先推出了 Google Lens 這一是視覺智能助手,用戶可以通過 Google Lens 的相機掃描身邊的一切,Google Lens 可以識別二維碼,進行實時翻譯,識別環境景色等等。視覺智能識別的功能其實並不是首次出現,但當 Google Lens 這一視覺智能助手集合了 Google Assistant 這一語音智能助手,就如同給原來的盲人管家加上了眼睛,能幫你做更多的事情,覆蓋生活中更多的使用場景。
更全面的功能和第三方支持是今年 Google 人工智慧助手更新的重點,看起來沒有太多新意也不太激動人心,但是對於目前的智能助手來說,最重要的就是盡量拓展功能,增加覆蓋場景才能避免由於技術不成熟而體現出的雞肋定位。
從 Google 官方展示的視頻來看,Google Assistant 幾乎能幫助用戶完成所有的日常任務,更重要的是,70% 的指令都是自然語言。畢竟用固定指令才能指揮人工智慧助手這事兒,本來就不太智能,自然語言的使用會讓用戶淡化自己在對一個機器說話而產生的這種厭惡感,換句話說,究竟怎樣的語音智能助手才會讓人們感覺真正舒適呢?也許是通過了圖靈測試的,能讓你感覺不到你正在與一個機器人對話。這是未來目標。
其實目前人工智慧助手的語音識別準確度都做的不錯,但是最大的問題是功能性太差,你說了一個指令,人工智慧助手也聽出了你說的是什麼,但是就是不能辦到你想做的事情,這其中的最重要原因就是第三方服務的支持不夠廣泛。
所以 Google 在這次發布會上,宣布對第三方服務方開放 Google Assistant SDK,目的就是為了讓 Google Assistant 能夠接入更多的功能。
Google Assistant 需要更為廣泛的硬體支持,除了之前的 Android 手機還有 Google Home,iOS 版的 Google Assistant 也在今天的 Google I/O 上發布。Google 希望基於人工智慧助手的所有硬體能夠全部打通,這樣才能儘可能的讓用戶時刻面對的都是同一個人工智慧助手。
這樣的思路是對的,因為目前市面的人工智慧助手,被人們嫌棄的原因主要就是學習成本太高,且覆蓋場景過於單一,車上的人工智慧助手就是車上的,手機的就是手機的,家裡的就是家裡的。不能打通的交互直接增加了使用的不便捷程度,真是挺不好用的。
Google 希望通過 Google Assistant 串聯起整套設備,Google Home 智能音箱作為家庭智能助手終端,在功能上首先得到了增強,首先是支持完全語音的撥號電話,現在用戶可以直接對它說「撥給xxx」來呼出電話,即使家中不同成員說話也沒有關係,Google Home能夠識別每個人的聲音,自動從每個人的通訊錄中尋找對應的呼出對象。
其次用戶還可以通過 Google Home 來安排會議或設置提醒。一個「積極的助理」(Proactive Assistance)將整合進 Google Home 中,能夠通知提醒、告知航班狀態、以及交通預警。越來越的第三方內容加入到 Google Home 的支持里,可以說,Google 去年 I/O 上給出的美好願景,在今年終於在現實上豐滿些了。
然而從人工智慧助手的角度來講,光能提供語音交互的服務肯定是不夠的,亞馬遜發布的新款人工智慧音箱加入了一個屏幕來提供視覺上的交互,給用戶呈現出更多的內容。
本以為 Google 會發布一款全新的帶屏幕的智能音箱,但沒想到 Google 還是以 Google Home 作為主要設備,提供視覺交互的方式也更為討巧,機智。Google 選擇讓 Google Home 直接連接到你有屏幕的設備之上,直接將視覺內容根據需求推送到你的手機或者電視上。
這樣的設置就如同打通了人工智慧助手的任督二脈,讓人工智慧助手既能跟你說話,還能給你推送內容方便你隨時觀看。最重要的,是能有更多的第三方服務支持,讓用戶的所有操作都盡量在一個平台中能實現,這樣才是真正提供便利的人工智慧。
哦對了,看了上面的內容即使激動也先冷靜冷靜,目前為止這些服務生活在水深火熱之中的美帝用戶專享,我國用戶還要等…等…
人工智慧毫無疑問是如今的風口,然而現在消費者市場上能買到的所謂「智能助手」一個個都不太健全,功能單一,學習成本高,識別準確度底,無法跨場景使用,這些都是人工智慧助手普及的障礙,亞馬遜選擇用加上屏幕的音箱為原本的語音交互加上提供視覺內容的屏幕,而 Google 做的則更加徹底,要讓 Google Assistant 這一智能助手,無縫順滑的出現在你生活中的各種智能設備中,提供隨時隨地的助理式服務。
最後,如果你說理想的人工智慧助手最終應該是什麼樣的?舉個美好的例子,比如....鋼鐵俠中的 Jarvis?
趁著大會中午的空檔,寫了關於這次keynote的一些筆記。
Google I/O 第一天上午的 keynote 剛剛結束,我覺得我至少聽到了500次人工智慧 ,300次機器學習和200次深度學習。 任何新的產品,說著說著就是,感謝機器學習的核心,我們有了這個功能。 如果只能帶回去一個信息,那就是 Mobile first to AI first。
#Google Lens 首當其衝的就是Google Lens
Google Lens可以理解你正在拍攝的場景或以前的照片,並且給你相應的行為推薦。 我個人覺得前半句沒什麼,給image打標題,已經不是什麼新聞了。 基本已經被學術界解決掉了。給你對應的行為推薦,才是真正能解放勞動力/創造生產力的地方,而且會涉及到很多知識圖譜的研究成果。
#Tensor Processing Unit 接下來重點移到了Google自己的硬體 Tensor Processing Units (TPU) 上面。
這完全就是叫板Nvidia的節奏,現在工業界學術界所有深度學習,機器學習的所有人,都在用Nvidia的GPU跑網路。 連Tensorflow也只支持 Nvidia 的 GPU。這本就不合理嘛,怎麼可以把所有的深度學習都綁在一個閉源的東西上面呢。這下都明白了,Google在憋大招呢。Google要推出自己的計算單元,TPU 快到掉渣,而且將整個TPU陣列放到雲端讓所有人可以用到。
#Google.ai 接著就說到了Google.ai
Google.AI 會在科研,工具,應用三個方面都有所建樹。 首先工具方面會有AutoML用神經網路來訓練厲害的神經網路,看來幸苦調參數的日子結束了。
以上內容截取自 知乎專欄-獨家揭秘|Mobile first to AI first, 前進GoogleIO! ,著作權歸優達學城所有。更多精彩內容請參閱專欄文章。
Google Lens大放異彩!!!!!
下面是介紹
Google Lens能利用強大的計算機視覺演算法實時識別用智能手機相機所拍攝的物品,並提供相關內容,這背後是Google強大的知識圖譜和應用生態。
Google Lens可以理解為一個強大的視覺搜索引擎,所見即所得的理解整個視覺世界,並為你提供服務建議。Google Lens會集成到Google Assistant和Google Photos中。
這個是識圖功能,通用場景下檢測以及識別。。只有做的人才知道有多難
通過攝像頭識別路邊的餐館,並且自動調出餐廳信息和地圖信息。
這個不僅有通用場景下檢測識別還包括了檢索,推薦各方面的功能,實在是太厲害了。。
真正的所見即所得!!
很久以前就看上Google Home了,現在終於支持藍牙音頻連接。已經考慮入手了!
一定要把英語學好
從現場發回的報道!
那個super chat簡直完美融入各大直播系統!
不過最讓人激動的還是Google Lens嚕!講Googlr Home的時候真的讓我莫名開始想這是要決定未來人類怎麼生活啊……
全場歡呼聲最響亮的還是發布Kotlin的時候Google starts with understanding web text, now it understands more.
#Google Keynote Developer Keynote
#解決人類問題#
創意無止境
不知道大家有沒有發現,Google IO 開場的倒計時和開場視頻總是那麼有創意,這次也不例外。
貼心防晒
永遠好貼心, 皮查伊開場就提到了防晒油,感覺暖暖的
AI first
無論你在使用谷歌的什麼產品,都是在使用機器學習。能夠有更好的精確度和準確度。在Gmail中,已經有了會話式的機器學習。
關於聲音,語音突破已經有了很棒的突破,即使在嘈雜的環境也可以聽得很棒。還有圖像處理方面等等。
在2017年5月6日,CSDN的蔣總就在中國首屆開發者關係大會上分享了關於AI社區以及人才方面的內容。
不了解AI,就要out了。
Google Lens
基於視覺效果的計算能力,可以理解正在看什麼,根據信息進行協助。目前放在Google Photos的層面。
使用極其方便,掃描一下,你就知道。
Cloud TPU
比CPU和GPU更強而有力,AI環境的超級電腦,上周才發布,進入Google雲端技術。
Google.ai
主要重點在Research、Tools、Applied AI,研究AutoML Learning to learn。希望可以幫助醫學界更好的診斷。
Google助手
Can I help you?
360度Live
客廳360度體驗,看視頻有很酷的體驗
Android
Android O 新系統代號奧利奧
完美的GDG
全球各地的GDG社區,大家都在同一時間觀看直播。
轉一個微博上看到的:
「第二代TPU的速度比Nvidia最新的Tesla V100還快5倍。。Google為啥不直接賣TPU掙錢呢? 」
其實這次大會主要是軟體方面的進步,如OCR圖像技術,注重於讓攝像頭看懂物品。更智能的人機交互,VR,AR,提高雲計算能力。但國內的大環境無法使用,在谷歌進步讓安卓更智能的同時,國內的手機廠商也更尷尬。 更何況國內的百度還沒有真正的成長起來。
"AI First."聽到Google的這個宣布有些熱血沸騰。這是一個幾乎所有行業都共識的未知領域,未來,用戶數據的作用將會繼續得到升華,而手握數據的互聯網/科技公司,也有機會在AI的助力下,上升至一個新的高度。機會大門已經再次打開,這次會由哪些巨頭引領,又會有多少黑馬未可知,但Google這場發布會似乎預示:推動整個行業進步的成員里,已經有一個位置是Google的了。
幾個個人比較在意的點:
AI First:前2/3時間大量的AI相關產品介紹,Android已經不再是重點了,只花了後面一小部分提了一下。
TensorFlow Lite
Kotlin眾望所歸被扶正
各種黑科技Not available in china, 看得想移民。
機器學習的在谷歌各種業務中的大規模應用,各種平台的相互打通。
繼續吸收國內先進經驗的android o版本迭代和面向還沒有android設備的另外40億低收入人群設計的android go。後來的開發者keynote上Kotlin正式成為android親兒子,性能分析工具變態強的android studio 3.0,還有獨臂的美女開發者(困得忘了她說啥了
期待接來了的各種詳細說明。推薦閱讀:
※十年之後Ingress這個遊戲會發展成什麼樣子?
※Android 版 Chrome 瀏覽器為什麼遲遲不支持擴展程序?
※少林寺方丈釋永信為什麼造訪谷歌總部?
※在谷歌北京/上海實習是什麼樣的體驗?