如何評價搜狗發布的語音交互引擎「知音」?

搜狗發布「知音」引擎 人工智慧戰略再升級


Alex Graves在《Neural Turing Machines》這篇論文中曾經提到一句話讓我記憶深刻,「what is possible in principle is not always what is simple in
practice」,其實就是描述了知易行難的道理,而自2012年搜狗語音團隊創建以來,我們就一直在探索語音交互技術如何能夠走出實驗室,真正走向實用,當一切真的Ready的時候,搜狗知音引擎走到了大家面前。

知音引擎其實就是搜狗提供的人機交互的完整解決方案,目前已經具備了從聽(語音識別)到理解思考(語義理解)再到說(語音合成)的完整閉環能力。其實目前市面上可以提供類似能力的公司不算少,最終的差別在我看來主要體現在3個方面:

1.
技術能力

知音引擎可以實用化的前提在於核心技術的積累和突破,逐項來說的話,

  • 語音識別:已經具備了離在線識別的實力,特別是搜狗輸入法上語音識別日均使用次數已經達到了1.4億次。在我看來,各家的語音識別能力在安靜+固定句式的情況下區別不是特別大,但是面對開放句式、複雜環境(口音、雜訊)的識別任務,性能的差異還是非常明顯的,我們內部也做過橫向的對比,知音引擎在複雜場景下的優勢體現的比較明顯。造成差異的主要原因一個是搜狗持續在提升識別技術研發的深度以及細緻度,另外語音輸入場景累積的海量數據可以很好的覆蓋發音人、發音現象、使用場景的多樣性,技術和數據是目前搜狗語音識別得以快速提升的根本所在;

  • 語義理解:搜狗語義理解的能力其實在2013年發布的搜狗語音助手中就亮相過,當時引起了不小的轟動,儘管語音助手類app的熱潮逐漸消退,但是語義理解本身的能力在團隊內部仍在不斷推進和完善,針對任務型的對話任務結合場景和領域知識進行了深度的優化,加入了記憶機制使其支持多輪對話,同時還支持對話中的語音糾錯等能力,近期的成果就是和搜狗地圖合作在2016年CES Asia上發布了基於語音導航的產品;

  • 語音合成:語音播報的能力在搜狗語音助手上也使用過,當時上線的是離線合成的技術,這方面逐步完善了離線和在線合成的能力,目前在搜狗地圖的導航中已經使用了最新的合成技術。

2. 產品創新能力

語音識別儘管現在可以達到很高的準確率,但是準確率從95%到99%甚至100%的這個跨越是由量變到質變的過程,也是決定語音交互能否成為主流交互方式的重要一環,但是目前語音識別的一些老問題仍然存在,技術上仍然沒有能力完全解決,因此技術之外的產品創新也很重要,可以有效彌補準確率上的缺失。

知音引擎針對這個問題提供了語音糾錯的解決方案,針對識別中出現的錯誤可以使用自然語音的方式進行修正,比如我想說「我叫陳偉」,識別成了「我叫晨煒」,通過語音說出「耳東陳偉大的偉」就會改正識別結果,目前隨著多輪產品的迭代,語音修改已經具備了80%的修改成功率,並且已經應用到了知音引擎的語音交互中。

3. 搜狗全產品線的能力

The last but the
most important,知音引擎在推出前,語音識別、語義理解還有語音合成的技術已經廣泛應用在搜狗的各個產品線上,通過產品的不斷迭代,收集到的用戶反饋、真實場景的數據對於技術能力的提升起到了很強的助推作用,同時搜狗在輸入法、搜索等多個產品上累計的經驗和技術都可以快速應用到知音引擎的性能提升上來,以語音修改為例,為了自然的進行修改,我們使用了

  • 輸入法拆字型檔和用戶輸入語料:立早章、女字旁的她

  • 搜狗海量詞庫:硯台的硯、佳節的佳

  • 百科知識圖譜:清華的邱勇

而語義理解背後對接的服務更是來自於搜狗自有產品矩陣的豐富知識和垂直數據,比如搜狗大搜索、垂類搜索、知立方、問問、百科、知乎搜索等,使得知音引擎能夠準確的理解需求、精準的給出答案。

搜狗知音引擎對於搜狗語音而言是一個全新的開始,希望能夠進一步推動語音交互方式的發展,我們也一直以開放的態度歡迎行業各界的合作和交流,期待未來能夠在提升交互能力的同時,找到更多適合語音交互的剛需場景,做出更多亮眼、溫暖的產品。

利益相關方:搜狗語音團隊


吃瓜路表示,各位大佬能不能別光是大談什麼布局、入口、剛需、風口之類虛的,先說說搜狗這個到底有什麼功能,什麼特別之處,使用體驗如何?


外面搜了一圈,沒有找到公開宣稱應用「知音」引擎的搜狗產品,從目前情況來看知音的部分技術和數據應該來源於搜狗的手機輸入法中,另外搜狗手機語音助手也是之前一段時間有關注的產品。另外從目前搜狗高層的表態來看,應該已經把語音和語義相關的發展作為公司戰略目標作為重點考慮方向。

隨著15年以來百度的賈磊老師應用的CTC + LSTM的深度學習方案應用在語音識別方面,特別在中文處理方向出現了很大的突破,無論是BAT包括其他國內一線互聯網企業在這個應用方向都有很大的進展,特別在實時識別方向已經接近應用階段。相信這塊技術無論從人才儲備還是數據積累來講搜狗都可以足夠笑傲行業。

剛剛仔細翻閱了百科中對於搜狗知音的介紹以及 @陳偉老師的回答,發現了一些語義方向有趣的進展。目前從應用場景來看知音在語義方面有兩個亮點是在百科中有重點體現的。

首先是語義改錯

百科中類舉了「弓廠張」這種對話場景,提到新的語義修正模塊,這部分模塊的設計是從目前的行業通用設計來看新的設計思路,而且很符合搜狗大部分應用所體現的自然語言交互場景,這部分數據的應用說明本身模塊的提煉初衷很可能是從輸入法這類輸入場景中獲取,並且從數據層面的決策來看是有足夠價值提煉成單獨模塊作為系統亮點設計的部分,這模塊的設計決策可以提供給行業內其他小夥伴們借鑒。

另外一部分提到的複雜多輪交互

這部分也一直是業界在處理人機對話中非常頭疼的部分,無論從狀態機中信息的採集、保留與更新的機制設計,最後對話策略的制定上,都有很多細節可以深挖。而在 @陳偉老師的回答中可以看出

針對任務型的對話任務結合場景和領域知識進行了深度的優化,加入了記憶機制使其支持多輪對話,同時還支持對話中的語音糾錯等能力

多輪對話的任務場景還有領域知識兩個方向的優化,從目前的搜狗在技術方向上下注的情況來看,搜狗應該會在智能汽車方向首先應用,而領域知識方向很可能會採用類似百度的領域設計方式,以任務 + 應用的形式在特定場景(如汽車、家居)上發力。

大概就是這樣

利益相關:螞蟻金服客服機器人團隊


百度發布「讀者」搜索引擎

谷歌發布「谷事會」搜索引擎

。。。


謝邀。感覺最近一年狗廠的大小動作不斷,先是投資知乎搞了個大新聞,然後是推出明醫搜索、學術搜索、英文搜索之類頗受好評的產品。最近的「知音」引擎比較偏重技術,發布的也蠻低調(從圖片上看 好像是在一個小型的場地召開),不過看到幾個人工智慧方面的朋友轉發了這條消息,估計技術圈還是有關注度的……

簡單看了一下介紹,從思路上看有點近似已經膾炙人口的搜狗輸入法——將自己在搜索、瀏覽器等方面積累的大數據應用起來,加上一定的演算法,就成為了新的入口。

移動互聯網時代,隨著用戶的時間愈發碎片化,用語音替代打字成為了讓用戶「偷懶」的新選擇。從5年前發布的Siri開始,語音識別從蘋果的特權,到各大手機廠商標榜的噱頭,再到訊飛、搜狗、百度等一眾APP的標配,普及率也越來越高。而隨著智能硬體、智能家居、智能汽車等一眾產物的出現,語音識別技術的應用前景只會越來越廣。

但是,這幾年裡,語音識別技術並沒有太多能夠讓終端用戶真正感受到的突破性進步。至少,在迄今我使用過的語音識別里,相對比較舒服的還是Siri,哪怕很多地方不夠本土化,但是至少能聽懂很多我說的話。微軟的Cortana沒用過,據說相比Siri還有差距。至於谷歌……反正在中國用不了,提他幹嘛?

國內之前號稱比較不錯的是科大訊飛,一家純技術路線的公司。可能大多數用戶還不太了解訊飛是幹啥的,直觀地看,他們的官網是這樣的……

簡單說,這是一家技術驅動的公司,但是並不是互聯網公司。他們最主要的業務是企業級的應用,在2C市場除了訊飛輸入法之外並沒有太多建樹。而即便是針對用戶的訊飛輸入法,在同行里的市場佔有率也落後於搜狗和百度,只能排在第三位。

至於百度,雖然技術實力一直名聲在外,但是如果單單從輸入法的語音識別功能看,真的不敢恭維。這導致我雖然非常非常討厭手機打字,也不願意做這種「微信聊天開口就語音」這種沒禮貌的事情,但還是依舊從來沒真正用過百度輸入法的語音功能。

嗯,舉個例子吧。

我對著百度語音識別說:

情況1:如果麵條死理地說話,只會有菱形的錯誤

實際上我說的是【如果慢條斯理地說話,只會有零星的錯誤】

情況2:魯國刷太快,花有詐,九環亂七八糟……

實際上我說的是【如果說話太快,或者有雜音,就會亂七八糟……】

而這次搜狗的「知音」引擎,抓的也無非就是這兩個痛點:1.語速快了識別不出來 2.識別出來了但是出現了無意義的錯詞。

針對第一個問題,搜狗的方法是將自己在輸入法和搜索積累的數據利用起來,尤其是語音輸入的語料數據,從而最大化地判斷用戶的表達含義。而第二個問題,搜狗引入了機器學習的技術,讓演算法不斷進行自我提升。

從這個意義上講,「知音」引擎的意義就已經不至於語音識別這一個領域,而且可以看做搜狗利用人工智慧技術的一個新「試水」。但是從發布會現場展示的測試數據來看,還算是蠻成功的。

從日常使用的感受看來,數據的真實性問題不大(雖然嚴重質疑百度的準確率真的90%+?)。從圖中能看出,作為產品驅動型公司的搜狗,和技術驅動型公司訊飛不相上下。而百度墊底,我倒覺得未必是公司整體技術實力達不到,而是公司沒有將語音識別技術放在重點位置。

順便說一句,這也解釋了為什麼最近@王小川 這段時間這麼關注人工智慧——如果通過人工智慧和機器學習,將高識別度的語音技術作為入口,打造出的很可能是一個不亞於搜狗輸入法的現象級產品。果然是CEO,套路就是深啊……

最後,對於這個技術,我個人還是蠻期待的。首先,打字可以不那麼浪費時間了;其次,很希望騰訊能把這個黑科技應用到微信上(畢竟是騰訊系),這樣至少能讓「長按語音識別」這個功能沒那麼雞肋——每次開會時收到語音,都要長按一遍之後再聽一遍啊……

如果還有第三的話,就是希望能支持方言比如粵語閩南話川普以及東北二人轉……不過,估計這個要求又足夠攻城獅們忙上很久了……

嗯,就這樣,以上。


從搜狗官方解釋來看,「知音引擎」和「搜索引擎」有點類似,本質應該是語音搜索引擎,之前在知乎看到過關於王小川說語音引擎原理的一個回答,已經說得很明確了。語音搜索引擎實現原理? - 搜索引擎

目前市面上,類似「知音」的語音產品已經不少,諸如:出門問問、科大訊飛、雲知聲、思必馳、百度(度秘)、騰訊(騰訊小鯨)以及Google(GoogleNow)、微軟(小冰、小娜Cortana)、蘋果(Siri)這些都已經小有名氣,這些產品各有特點,但是同樣也各有局限。個人覺得對於人工智慧這個領域來說,語音技術還正處在發展期,還有很多需要改進的地方,包括搜狗「知音」在內的引擎類產品,殺入這個領域算是機遇與挑戰並重。

所謂「機遇」:

這些年隨著語音技術的不斷提升。語音識別、語義理解、人工智慧等幾個領域的進展也有了突飛猛進的發展。但統觀目前市面上的一些老牌玩家均表現平平,有些產品更變得像雞肋,對語音產品的交互邏輯和用戶體驗缺少創新。就拿大家常用的語音導航來說,雖然是剛需但也常常由於語音識別率偏低、反應慢等問題唯大家所詬病。稍好一點的情形,類似蘋果的Siri則更多的時候還是在扮演著被大眾「調戲」的角色,且或多或少在天朝水土不服。

但語音的確是趨勢,Mary Meeker發布的2016《互聯網趨勢》報告就明確指出,目前語音正在侵蝕搜索份額。在美國,安卓上語音搜索佔了20%,在中國,語音搜索的份額也佔到了10%,而且該份額還在逐步擴大。在這種趨勢的帶動下,語音引擎的未來變得可期。

毫無疑問,搜狗也是嗅到了這個商機在加緊布局智能語音,並利用自己在輸入法方面累積的用戶優勢,試圖以語音輸入做為突破口,以點帶面,佔得一席之地。這裡我們其實可以做個大膽的猜測,語音未來極有可能會成為繼搜索引擎、瀏覽器、智能手機OS之後的第四代入口。為什麼這麼說呢?原因很簡單,一旦語音識別將使人機交互能夠以人類最熟悉的方式進行,並與即時通訊、搜索、購物、LBS等垂直應用服務市場聯通,就將形成一個以語音交互技術為核心的全新應用生態鏈,其入口優勢就不言而喻了。誰搶先佔領了這個新高地,誰就掌握了市場的主動權。屆時基於iOS或Android的系統生態完全可能出現新變化,語音操作系統的出現也不是不可能。

但有機遇就會有挑戰,講真,搜狗此時發布語音引擎「知音」在市場上已經有很多競爭對手的前提下,如何使它成為一個高頻使用的產品,對技術來說提出了相當高的要求。

統觀目前國內做智能語音業務的公司,大致可以分為三類:

第一類是BAT,主要圍繞自己的原有核心業務開展語音搜索功能。比如百度針對搜索、阿里針對電商、騰訊針對社交;

第二類,是科大訊飛、雲知聲這樣的垂直領域的To B公司,在垂直行業內紮根很深。比如訊飛是針對教育、會議,雲知聲是針對家居、車載和醫療;

第三類,是To C的公司,比如出門問問、Rokid和Vinci ,主要通過To C的爆款產品來打造語音功能。

對於搜狗來說,目前C端的用戶並不少,產品線也不輸其他互聯網公司,根據搜狗官方最新公布的數據顯示,僅輸入法每天就有1.4億語音請求量產生,可以說本身已經具備了龐大的用戶數據,這就為語音識別率提供了大量的訓練模型,目前搜狗語音宣稱的是識別速度能達到每分鐘400字(這語速普通人是不可能達到的)。如果覺得這樣講起來好像不是很直觀,我們把這個速度和速錄師做個對比就能有個很清楚的了解了。高級速錄師要求每分鐘不低於220字,準確率需要達到95%以上。這樣一對比,搜狗語音的識別速度還是拿得出手的。

但這裡又出現一個問題就是準確率。以大家常用的siri為例來講,當你看著屏幕上siri正處於「傾聽錄音」狀態,是不是心一下子就緊繃了,生怕說錯或者說得不及時,說完以後機器開始識別了,你看著進度條又莫名其妙地開始焦慮起來、它能不能聽懂呢,會不會聽錯呢?結果識別出來,果然是錯的,真是日了狗了……於是原本正常的需求,往往到後來就被帶溝里,甚至都忘記自己最開始想問什麼,忘乎所以然的「玩」了起來。

出現這類情況,並不是「機器們」故意玩你,而是它們也有自己的「苦衷」,外界複雜的環境,並不能讓它們能完全讀懂人類的「小心思」。而針對類似這類問題,搜狗這次發布的「知音」的提到了三種解決方案:

語音修改,說白了就是可以通過語音指令修改輸入內容,讓「半自動」的輸入方式變成了「全自動」。搜狗是這樣描述的:支持用戶使用純粹的自然語言交互的方式進行改錯,並支持豐富的描述方法,例如:立早章,文章的章。支持替換、插入、刪除等幾百種改錯文法。這就相當於又把識別的錯誤率降低了幾個百分點。這個方法個人覺得雖然不算是什麼高明的辦法,但是在目前的技術領域來說,至少是又讓語音識別進步了不少,緩解了不被識別的那3%的尷尬。(搜狗官方數據顯示,目前在線語音識別通用識別準確率已達到97%)。

支持多輪交互。其實目前Siri、微軟的小冰在大家的日常生活中已經給了很多的示範,但是效果往往還是有些差強人意,主要就在於他們只能一問一答,無法進行更複雜的多輪對話,搜狗這次做的更多的是將這種複雜的用戶交互邏輯建立一個有序的秩序,讓機器逐步學會像人類的大腦一樣思考。例如用戶說我要去首都機場,它會問 T1還是 T2,當用戶確定航站樓後,它會問是出發還是接人。 至於效果目前我個人還是持保留意見。

感知用戶的「潛台詞」。就是不止會答,還會自己思考判斷,會猜用戶想要什麼,這和多輪交互其實還是有著異曲同工之妙的,但核心的問題還是在技術方面,需要大量的模型和自然交互與知識計算方面的不斷完善。這個屬於高級人工智慧的範疇,這裡不展開了。

目前第一種解決方案已經在使用過程中逐步得到了驗證了,並取得了用戶的良好反饋。至於後面的2鍾解決方案也是目前大多數致力於智能語音方面研究的公司一直在努力實現的,在這方面誰能成為佼佼者,還得讓我們拭目以待。


這麼重要的事怎麼著也得至少在國家會議中心開發布會啊!看圖片感覺就是公司內部開例會拍幾張拿出來弄個大新聞先→_→


語音搜索是個剛需,特別是在搜索、地圖、社交等領域一直是個強需求,但就我們目前的技術水平來說,需要解決的問題太多,比如,機器對人類語音的識別率、外界環境對語音的影響、是否有足夠多的模型供機器來模擬等,單就從搜狗「知音」這次提出了幾個變化來看,可以關注下。


一、商業公司需要掌控入口

互聯網之前,入口就是操作系統;

互聯網之時,入口就是瀏覽器;

便攜設備年代,入口就是app;

鍵盤交互時代,入口就是輸入法;

非鍵盤交互時代,語音是一種有想像力與前景的入口。

二、商業公司掌控入口之後,要形成商業閉環

搜狗從門戶網站下來,肯定有辦法基於入口形成商業閉環。

所以搜狗搶佔到入口,對自己肯定有利。

三、語音交互的幾個關鍵環節

1、聲音-&>文字

我對這個領域沒有深究。

印象中,訊飛在這一塊做得很不錯。騰訊(至少在之前)的語音交互,底層用的就是訊飛的技術。

總體而言,中國漢字數量有限,地方口音類型也有限,大型互聯網公司還是有資源做好這一步的。

2、文字-&>語意

這一步涉及到語義識別與糾錯。

搜狗在輸入法上有十年左右的積累,在這一步有不錯的基礎。

3、語義-&>機器語言

語音是用於交互的。所以識別語義之後,需要轉換成機器語言,讓「機器」理解用戶要做什麼。

這個需要較好的解析規則,而解析規則需要機器學習積累,這個需要大量的樣本與沉澱。我覺得搜狗在這個環節還是有所欠缺。

但在這個比較新的交互方式上,大家在這一步的起點都沒有太明顯的差異。

四、搜狗的優勢與短板

綜上,搜狗這一步看得很遠,在一部分環節的起點也很高,但在其中一兩個環節環節上未能與同行拉開差距。

所以,最終是誰的天下,不知道。

但中小型公司,短期內真的沒戲。即使模型再好、識別技術再高,缺乏大量的樣本庫一樣成不了氣候。


我後悔35@樂行者


西方的小娜不知道比知音高到哪裡去了,我跟她談笑風生。


知音不是雜誌嗎?


語音功能在社交APP、服務類APP上非常常見,而且行動電話非常普遍,移動外設也越來越多的被人們接受。所以,個人認為以後語音搜索會有很大發展。

但是,現在有個問題就是我們怎麼克服方言帶給語音搜索的技術障礙。如果我們統一語言的話,對於靠方言或者小語種傳承下來的非物質文化遺產怎麼保存。


微信用上這個引擎,直接語音打字就牛逼了。


只是發布了,還沒出來。等出來了用用才好評論。語音就是比文字方便一些。淘寶上的評價 語音就比較好。


1、孫正義收購ARM的邏輯

到2040年,所有人和事情都會通過移動設備連接起來,到時會進入智能設備大爆發時代。如果未來30年人類進入這樣的生活環境,周圍所有物品都加入晶元和智能,什麼公司將在其中扮演地基角色?

軟體領域答案是操作系統,硬體領域答案是晶元。核心晶元正是孫正義描繪那個時代的基礎。現在的情況是,晶元設計廠商如蘋果、三星、高通、MTK、英偉達、海思等都是基於ARM指令集,ARM正在成為智能硬體和物聯網設備的標配。

在那個時代,除了設備增多,非常多,還會發生哪些變化呢?

2、智能設備交互系統

PC時代我們通過鍵盤滑鼠交互,智能手機開始是通過物理按鍵,之後蘋果帶來屏幕觸壓感應系統。我們對這些交互方式已經很熟悉,但在此之外有沒有其他可能呢?例如一直被人忽視的語音

微信打敗米聊,很大程度上憑藉的是發送語音功能的推出。在移動端與人交流,語音是比文字更方便的系統。對文化程度低的中老年人更是如此,他們不會按拼音文字,但是發微信語音信息很容易就教會了,跟之前的電話一脈相承。

現在國內科大訊飛、搜狗、百度等,都在把語音當做重要方向在做。搜狗相比科大訊飛的優勢在於多年的2C產品經驗與龐大的用戶基數。據查詢,搜狗輸入法PC用戶規模已超過5.2億,移動端活躍用戶也已超過2.6億,對詞語出現頻度、錯誤詞語分布、實時熱詞新詞都有更大的資料庫。

眾所周知,早期中文輸入法如智能ABC等非常難用,搜狗輸入法勝出的最重要原因就是用機器學習方式做輸入法。用戶使用搜狗輸入法越多,常用詞推薦越符合個人習慣,輸入法就更「智能」。與現在的今日頭條思路一致,你看的新聞越多,越能洞悉你的趣味,越能向你推薦感興趣新聞。

語音搜索最大的難題在於識別的精準性。尤其在中國這樣方言口音千奇百怪的國家,想要準確識別你說的話,是語音研究的重點。這幾年搜狗在語音搜索上進行了很多探索,早幾年的搜狗語音助手,當時緊貼Siri之後發布,也引起了圈內小轟動。最近更是發布「知音」語音引擎,從官方人員的回答來看,知音引擎主打:語音識別、語義理解和語音合成。發布會給出了詳細的解釋,我就不一一贅述。

在我看來,搜狗知音引擎的發布,不僅僅是簡單的發布一個產品/技術而已。而更深一步的透露出搜狗在不斷的探索新的交互方式,以及在人工智慧領域的創新。

3、語音交互系統的未來

孫正義說的那個時代可能不會到來,更有可能正在到來。看看我們身邊纏繞的智能設備:智能手機、平板、電腦、手環、手錶、汽車、家電……未來更可能出現的如智能頭盔、眼鏡、服裝……

這些設備形態跟之前的PC、智能手機已經大不相同,再想依靠鍵盤滑鼠、按壓交互已不可能。相比之下,語音交互是最方便的方式,也是最具普及性的交互方式,背後的語音識別和深度學習技術將會是下一個制高點,是各大技術公司的研發重點。

誰佔領了語音交互系統,誰在這項技術上取得優勢,誰就在即將到來的浪潮中佔有一席之地。


乾死百度!


單就就從目前市面上的同類產品來說,搜狗這次似乎有的晚了,但是依靠輸入法語音輸入的用戶基礎,還是很有實力的。現在整個語音領域,還並沒有誰特別拔尖,行業普遍還處於語音識別的階段,尚無特別實用的語音服務型產品。搜狗的語音修改功能對於語音輸入來說是一個比較有意思的創新,如果後期技術上繼續優化的話,說不定會帶來意外驚喜。


蘋果,谷歌,微軟,騰訊,百度都盯著語音,看來語音要成為下一個風口。不過技術門檻的確很高,對數據的依賴也很大,普通創業公司估計玩不轉了。


沒有硬體支撐的「技術引擎」,遲早被收購


推薦閱讀:

30到40年後,世界會有什麼新的改變讓現在的我們無法適應?
公有雲和私有雲的主要區別在哪裡,公有雲會不會帶來隱私泄露的問題?
阿北能不能看到我在豆瓣的賬戶對應的密碼?
經濟學博士適合去互聯網科技公司工作嗎?有哪些合適的職位?
想做架構師,不知道實際工作待遇怎麼樣?

TAG:互聯網 | 人工智慧 | 科技 | 語音識別 | 搜狗知音 |