Nuance 不夠好嗎,為什麼蘋果公司要組建自己的語音識別團隊?
7 月 27 日消息,據國外媒體報道,蘋果已經在波士頓組建了一個由語音識別技術賣家組成的小型團隊,目的是強化其 Siri 個人助理服務,開發自主技術,擺脫對 Nuance 的依賴... via 蘋果組建語音技術團隊,或中止與 Nuance 合作?
我覺得一個原因可能是由於更靈活的語音識別功能。比如現在不管是Google、微軟的SAPI或者是Nuance、訊飛的語音識別代碼,覺得大多數都是包裝好的API:整句語音輸入,整句語音識別結果輸出返回。
但有時候公司想要更靈活深層次的定製。比如只識別有限個語音識別命令(限制在有限的命令上的識別精度會大大提升),比如緩存一些語音識別模型(Moto X 的 Google Now 全程待命喚醒功能是如何實現的?),比如載入自定義的聲學模型以幫助識別用戶的方言或者用戶自定義語音命令。等等。如果公司只提供整句輸入整句輸出的黑盒API,這樣的很多功能開發都大大受限。如果蘋果想要提供更好的Siri用戶體驗,勢必需要更緊密地和系統結合,這個時候就需要更靈活的定製語音識別系統。(當然我不排除Nuance和蘋果有更深層次的合作,但再深也不能把所有核心技術公開)
之後,戰略上說,別人的技術畢竟是別人的,核心技術要掌握在自己手裡,這都沒錯,於是趁著現在有錢趕緊做吧。連地圖這麼難啃的骨頭都去了,語音識別這種花點錢把最好的人招進來就可以搞定的「相對簡單」的目標更不是問題。
當然以上回答都是根據我的理解進行的猜測。幾個大公司之間的商業合作我也不知道,不應該在這裡指點江山,該答案只是提供一些啟發而已。:)
以及!報告一下啊,@謝彬歡@黃濤 ,這已經是第3次,我在Android客戶端上寫好答案,然後點擊提交,然後一閃回到問題界面,答案沒有提交,也沒有保存在草稿,就這麼丟了 T.T …… 我還是得用電腦來回答感謝邀請,第一次回答問題。作為Nuance員工的時候,我們也經常會被問及類似的問題。
第一,Nuance在這個領域目前應該是保持著領先者的位置,無論是專利的數量和市場的份額。無論是Siri,還是三星,HTC等手機端的語音助理應用都採用了Nuance的技術,其他行業暫且不用說。對於內部來講,在全球Nuance的主要競爭對手是Google,Microsoft,因為他們都具備了核心技術,廣泛的語言覆蓋,成熟的產品。你能看到,Google,Microsoft也同樣是蘋果的主要競爭對手,而唯獨蘋果目前沒有自己的語音技術團隊。Nuance作為一個市值60多億美元的公司,這些年一直都是熱炒的大公司收購對象,如果Nuance被其他公司戰略收購,這應該是對Apple很有風險的。前年吵得很熱的Apple收購Nuance也應該不是空穴來風,建立自己的團隊,可以作為對未來應變的一種準備吧。
第二,Siri的出現不該單單看到是一個語音助理的應用價值,而是一個新的門戶方式。人們不用再關心我使用什麼搜索門戶,只是用語言告訴Siri我想怎麼樣,背後完成相關的動作,這足以讓人們繞開原有的搜索引擎和查詢方式,建立一個新的門戶。因此,Google會覺得這是一種威脅。在這個領域,Nuance除了與Siri深層次合作,Nuance也有著自己相關的技術方案,在做類似的解決方案給其他終端廠商。包括國內的科大也有類似的方案。所以作為一個注重自有生態的蘋果,建立自己的語音團隊也是勢在必行的。
也許有不周之處,望諒解。
我個人推斷可能有以下理由:
首先,蘋果公司是一家相對非常封閉的公司,公司內部的密級等等非常嚴格。比如實習生或者不同等級的員工的門禁許可權都會有差別。並且蘋果公司內部也有許多保密的項目,比如外界盛傳已久的汽車等等,這些項目在開發過程中在蘋果內部也是嚴格保密的。據說在蘋果語音團隊為Apple Watch開發Siri的時候,他們剛開始也不知道開發的對象是手錶。並且由於語音技術目前依舊遠不夠成熟,通常需要根據具體的應用設備和環境進行深入定製開發,所以語音團隊在一定階段開始一定會深入參與產品的開發,這樣對保密並不是很有利。對於這樣的文化,外購技術或者合作開發當然不如自己研發來得可靠。
其次,Nuance的技術到底如何。無可否認的,Nuance是一家有歷史積累的公司,並且在全球範圍內也和很多機構和大佬合作。但Nuance的組織方式似乎比較特別,他們有許多團隊,這些團隊之間好像重合度比較高,但卻又相對獨立,這樣綜合很難評斷他們的技術水平。相較之下,在企業界,傳統上IBM和BBN公司的技術歷史悠久並且公認非常好;微軟公司研究院和產品部在語音研究中也有很多重要貢獻;新近來說,Google公司在大力投入語音研究後逐漸有一些原創性比較強的重要工作,對語音識別的框架有相當改動;Facebook在收購CMU和Karlsruhe大學的研究團隊後也獲得了在學界較好的語音識別和機器翻譯團隊……可以看到,各大公司在語音技術方面都有很大的投入,並且他們的技術水平從不同方面大概都不一定弱於Nuance公司。蘋果公司的語音識別團隊據說非常強悍,是由一些學界頂尖大佬和業界資深大牛工程師組成的。
第三,進行人工智慧/模式識別相關技術投資的前瞻性。隨著包括計算機視覺、語音識別等在內的模式識別技術以及其它人工智慧技術的逐漸成熟,智能化應用和產品一定會成為未來IT行業發展的重要方向之一,在這時投資各種相關技術的研發,可以在未來的技術(專利)和產品上握有優勢。
最後,外購技術通常也不會很便宜,而建立一支一百人左右的語音團隊的成本並不一定會高於外購技術。謝邀。
首先說,人機交互技術是即雲計算之後的又一個熱點技術,語音識別則是熱點中的熱點,谷歌、百度在這方面都有所投入,蘋果不會坐視這個趨勢於不顧,自然要有所動作。
其二,Nuance的目標不會僅僅是語音技術提供商,至少是要打造一個人機交互技術提供平台。那麼,這個現在的合作夥伴,很有可能成為蘋果未來的競爭對手。
第三,語音識別與腦波等技術相比,演算法相對成熟,可以少走彎路就達到一個不錯的效果。
謝邀。第一次被邀請,似乎也是第一次在知乎回答問題。但是這個問題真不是我的專長,我只是多年從事語音識別技術的研發,題主的這個問題則是關於企業發展戰略的,隨便說兩句吧。
Nuance當然不能稱為不夠好,否則怎麼能成為全球最大的語音技術公司。我想蘋果放棄與Nuance合作,是不希望自己的核心功能受制於人,這應該是蘋果這樣的公司很自然的選擇。另一方面,語音識別技術並非高不可攀,好的語音識別系統性能,很大程度上是停靠一支經驗豐富的團隊。所以蘋果只要挖到牛人,自主研發出不遜於Nuance的語音識別技術並非難事。
借寶地給我供職的公司打個廣告。我們也是做語音識別的,技術團隊成員都有很豐富的經驗,所以成立一年就已經在業界小有名氣,北京雲知聲信息技術有限公司,歡迎關注。nuance很好,但,是別人的。
語音交互是人機交互的趨勢,不僅能應用於手機,還可以應用到智能家居、車載、智能穿戴等智能設備中,這些都是蘋果重點關注的領域。蘋果不希望在關鍵技術上受制於人,自己做是合理的選擇。
做語音技術,需要一定的積累,蘋果的語音要想做到商用,可能要等上兩三年。
個人觀點。
個人認為不是Nuance做的不夠好,而是語音識別技術對於Apple的將來來說太重要了,使得將其依賴於另外一家公司對於Apple來說風險太大,所以Apple必須在這一部分的核心技術要有自己的掌控。正如同Apple義無反顧的開發了地圖,即使和Goolge Map相比還差很遠,同樣Apple也自行開發核心晶元。對於Apple的供應鏈管理來說,「無黑盒」(備註1)是一個非常重要的原則,我想對於核心軟體技術Apple同樣也期望如此。
備註:- 蘋果供應鏈的秘密
我覺得語音數據屬於隱私數據,用戶很可能在使用語音識別功能時,說出了自己銀行卡或者支付寶等帳號和密碼等信息。如果使用Nuance的功能,一般都會要求將語音發給他們進行識別,然後再將識別結果後的結果返回給用戶。這樣用戶的數據就為第三方所擁有,不再安全。即使使用Nuance的功能,Nuance估計不會讓蘋果免費用,蘋果可能需要支付高昂的使用費,這些費用估計足夠蘋果去開發自己的語音識別功能。蘋果產品的特點是高度集成,這麼重要的功能,肯定希望自己來掌控。
還有一個非常重要的問題,就是語音搜索體現著用戶的數據和行為模式,保護了海量的數據,隱含了許多趨勢。但如果蘋果使用第三方的在線識別引擎,那麼如此大量的數據就拱手送給了別人,想利用大數據的巨大潛力,就受到了限制。所以,為了大數據,也需要有自己的語音識別中心。
應該說是趨勢吧,好比全鍵盤到虛擬鍵盤。當互聯網發展到隨處可在時,你要慢慢的打字還是無延遲的用語音技術呢?
謝邀。這也是我第一次在知乎上回答跟工作相關的問題。我覺得蘋果自己做語音識別,肯定與自己將來的戰略發展相關,從手機到客廳,再延伸到其他相關產業,語音識別和語音控制都是發展的趨勢。儘早把這種技術掌握在自己手中,對於蘋果這樣的公司,是應有之需。
同樣也借知乎做個小廣告,我們是做語音助手產品的,哦啦語音助手www.ola.com.cn ,4月份上線,目前還在不斷優化改進中,希望大家多提建議。
一些大企業,尤其是以技術為根基的大企業,都是希望所有核心的技術部分都是把握在自己手中的,作為蘋果,很容易看到這方面的決心和野心,並且,未來的智能化,語音占很大部分江山,蘋果怎會拱手受制於人~
我認為:蘋果公司是因為比較看好語音在未來的發展,尤其是在未來移動端的前景,所以才決定自己創建團隊的。
語音識別領域我不是很了解,中文語音合成領域這些系統的水平我還是較為熟悉。Naunce的中文合成的質量跟訊飛等產品相比差距較大,可懂度自然度都不在一個級別上,而對於英文來說我不是很了解。可能考慮到中國龐大的市場,蘋果需要獨立開發自己的語音合成系統。至於蘋果為什麼要獨立開發語音識別系統,我猜想是因為語音領域是一個比較朝陽的產業,蘋果希望能在其中分一杯羹,同時為了更好的為自己的產品更有針對性地開發一些應用。
推薦閱讀:
※使用Siri等語音助手時,有必要說「謝謝」嗎?
※今天問Siri宇宙的中心在哪裡,為什麼它會回答我隨州,是我理解錯了,還是怎樣。這裡面有什麼梗嗎?
※Apple在人工智慧上是否已經落後了?
※有哪些調戲 Siri 的方法?
※為什麼 Siri 聽懂了我的話,還是不能做出有效的回答或準確的操作?