能否訓練一個狗語 AI,讓它理解我的狗在對我說什麼?

本題已收錄至知乎圓桌:人工智慧 · 機器感知,更多「人工智慧」相關話題歡迎關注討論


首先你得確定狗語是否真實存在。也就是狗的叫聲和狗接下來的行為有必然的聯繫。然後,這種聯繫的程度有多深。

我覺得一個簡單的二元語氣分析(Sentimental Analysis)還是能建立起來的,用AdaBoost就可以。但是接下來更深的邏輯聯繫似乎很難找到。

語言的基本要素,語法、語義、構詞什麼的,這些狗叫聲都沒有。語言並不只是表達情緒的,更重要的是邏輯,和抽象。

不過,情緒也是智慧生命誕生的初始條件之一,有情緒證明了該生物有了初步的自我意識。


剛好最近也想過這個問題。。

根據現有技術,需要訓練集和測試集。就像語言翻譯一樣,又想最初互譯中英文的又是怎麼做到的呢?可能是在兩種語言環境下都生活過。如果存在狗自己的語言,那麼說不定深入狗狗的生活也能理解它們的語言。

不過人類有共通的肢體語言,類似的生活習性,更好理解。

有精神病人認為自己是蘑菇,便學著蘑菇的狀態,說不定他真的能聽懂蘑菇。

哈哈哈,腦洞了一波


我覺得這至少應該是個弱監督問題,所以還需要一定label吧,但尷尬的是,label怎麼來呢。

當然,作為一隻萬年單身狗很樂意效勞=_=


首先得有訓練數據集。


淘寶搜《狗語翻譯機》,你馬上就能擁有。

至於其科學性,至今未能得到證實,據我家哈士奇反映:

我也不確定它是在贊同還是說:你就是個二貨主人。。

或者去No More Woof捐點錢,興許哪天真的造出腦電波讀取器。


訓練任何一個ai都得有教材,這個教材可以薄點,讓ai自行領會多一點,也可以厚一點,但必須得有。

所以這個教材怎麼編寫很重要。身為一個養狗人士,我感覺我懂她的很多語言,但也只是我感覺而已,其實很多都是臆想,所以一個人能給的標註太主觀了,雜訊太大了。因此,可以引入多人標註,也可以要一些動物學家做專家標註,再在結果中加入反饋不斷優化這個系統。

不過這個反饋呀,粗略想一下也很難做,翻譯機說狗餓了,你拿了一盆狗糧給她吃,她不吃不一定是翻譯錯了,不一定是因為她不餓,有可能是狗糧不香或者她被外面的響聲嚇著了。

這麼一想,溝通真是很重要呀,不然猜狗說什麼,和猜女人心裡想什麼就在一個複雜度上了。


你都不懂,你怎麼讓機器懂?就算你讓機器懂了,你怎麼確定它確實懂了?

機器懂了你不懂。

萬一它騙你呢?


訓練一個狗語AI,不如直接在狗腦植入納米晶元,這不是不可能但非常難以實現。

馬斯克最近成立的新公司 Neuralink ,一個腦機介面的研發團隊,團隊里包括了神經系統科學家和材料科學家,大拿雲集。未來就是要打造人機結合的共生,下面以這個為基礎,展開討論一下狗狗的層面

這個腦機介面系統主要由四部分流程構成:

1.信息獲取:侵入式和非浸入式

前者不會造成大腦皮層損傷,但是採集效果一般;後者採集效果直接,但會對大腦皮層造成創傷,至於創傷的可逆性現在不得而知。

也就是說需要有足夠多的狗狗被參與到研發當中來,採集足夠多的信息源

2.信號的放大與傳輸:傳送核心

腦電波極其微弱,需要用專門的腦電放大器放大,目前來說成本極高。如果是狗狗的話,聽不聽話,能否穩定

也就是說光研發相關費用就上百萬,還不包括人力成本,創業公司很難承受如此大的支出。更不用說一個有關狗狗AI的市場空間了。

3.信號解析:發現秘密

採集傳輸後,就要對信號進行解碼。從成千上萬條腦電波圖譜中,通過演算法計算整理出腦部在一定情境下的所思所想,然後把最終結果反饋到四肢軀幹。

也就是說需要打通狗狗的任督二脈,認知狗狗的喜怒哀樂。

4.反饋結果:閉環

解析之後,還需要在行動時反饋動作可能的操作性。例如狗狗想要倒杯水喝,但是它不知道水是熱的還是冷的,容易造成燙傷。反饋刺激要感知痛覺、溫覺等,然後傳遞到大腦中樞,判斷可執行性。

結論:需要足夠多的狗狗,足夠多的錢,足夠多的科學家,足夠多的投資回報才可能實現理想的狗語AI

以上是從可實現的角度來討論理解狗語這件事~

——————————————————————————————————————————

若題主真想理解狗狗的話,發一波可實現的相關,請往下閱讀

您想知道狗狗在說些什麼嗎?你想知道狗狗什麼時候想吃食物或者想讓您摸摸它的肚皮?

狗語翻譯機讓這一切都變成小菜一碟!

1. 當您的小狗在狗叫時,按下錄音按鈕。

2. 讓應用程序分析狗叫聲的聲調。

3. 馬上您就能知道狗狗在說什麼了,再也不用揣摩猜測了。

準確率高達70%!DOG2代狗語翻譯機

【使用提示】
1、佩戴方法:紫色金屬平行輕貼脖子,繩子拉緊讓機器不會亂晃。簡單說,就是掛在狗狗脖子上,然後拉繫緊繩子。注意,有些狗狗剛帶時有些緊張,甚至會被聲音嚇到,這是正常現象,狗狗很快就適應。
2、剛帶上時會不太准,機器內部智能晶元需要學習適應不同品種的狗狗。學習4~5天後準確率會越來越高。學習期間請不要頻繁換狗(汪汪汪)

網上搜索了一下有關狗狗的翻譯機,目前市場價300塊左右,出錯率高,翻譯不太準確。

視頻封面狗狗感人自述:我這一條孤獨的狗生iqiyi.com視頻

入手需謹慎,樂趣價更高

了解更多有關馬斯克故事,請移步公眾號 jixieji2017

伊隆·馬斯克 ‖ 一場有關AI終將殺死人類的十億美金阻擊戰

http://weixin.qq.com/r/pjjZwXPEJy5YrTei9220 (二維碼自動識別)


「能理解你的狗在對你說什麼」這樣的東西是有的,別驚訝,是有的。

至於能告訴你你的狗在對你說什麼,那就很困難了………

什麼?你問能理解你家狗的東西是什麼?哦,是另一條狗。


沒有label啊親。對一個網路有input, output還要參考輸出才能通過不斷訓練減小loss。

換句話說…如果你有label那還訓練它幹嘛…


狗和狗之間都是靠肢體語言,氣味交流為主。兩隻狗汪汪叫一般是互相恐嚇

"你瞅啥!"

"瞅你咋滴!"

"今天我主人牽著不削你,別讓我單獨碰見你!"

"誰怕誰啊!來啊!"

貓狗的叫聲大概都是用來和人交流,傳遞信息,博取寵愛用的。裡面的信息量應該不多。


我覺得這樣的前提是,我們先理解每一種狗叫聲的含義,然後將這些數據輸入你說的AI中,然後用AI來辨別你的狗在說什麼。其實回頭看看感覺沒什麼意義了,因為前提條件是已經知道狗的叫聲是什麼意思了


要翻譯狗語,更好的方法不是理解狗叫聲,而是使用腦機交互技術,利用狗腦神經活動產生的腦電信號,實現狗腦與計算機或其他電子設備的直接通信和控制,讓計算機通過腦信號推斷狗的想法。 這幾乎是一定可以實現的。


理論上只有人有語言中樞,也就是動物能夠通過發聲來表達一定的信息,就像蜜蜂通過飛舞的軌跡來表達一樣,但無法形成一種語言。狗叫沒有具體的內容,它只能大概的表達一個目的或情感,如目的上的驅趕,或是情感上的恐懼這樣的


狗大部分交流不是靠聲音的好嘛,我覺得鳥類和海豚倒是有可能弄出這種東西來


其實不用狗語,大多時候每個狗狗的主人很清楚的明白自己萌寵在表達什麼!


狗的語言中很大一部分是氣味,高興難過從我身邊滾開,發情的狗狗氣味迎風百米公狗都能聞到,然後尋味而去。

你咋翻譯,來C我?


狗狗其實是會說話的,只不過表達方式和人們有些不同,它們會靠肢體語言來表達,多了解一下自己家的寵物會明白噠


還不如改進狗的智商和聲帶


從另一個角度回答。狗的叫聲里含義很少,大多數情況下狗是用肢體語言交流的,兩隻狗碰面很少通過吠叫或發出聲音的方式來溝通,它們自有一套身體語言叫安定訊號。況且狗能用語言表達的東西太少了,很多叫聲都是為了吸引注意力,警告等存在的,也就是你翻譯過來不過那幾句話,國外有人專門寫過狗叫聲含義的書。電影里人說一句話狗接著會叫是訓練出來的。

一隻狗的使命里狗的旁白大部分都是狗在做一個動作或表情時出現的。其實狗很像不會說話的孩子,狗能表達的東西大概和牙牙學語的嬰兒差不多,所以這個東西能解讀的大概就是我餓了,我想出去玩,我要出去便便,我不喜歡你滾遠點,主人,那有隻漂亮的狗狗,帶我過去等等,而我還沒吃飽,讓我們再玩會,我心情有點差別煩我,主人好像不開心這些複雜的表達往往在狗的表情和肢體語言里展現,所以,真早開發這種機器也應該是關注肢體表情這塊,類似fbi讀心術這種。


推薦閱讀:

語音識別中區分性訓練(Discriminative Training)和最大似然估計(ML)的區別?
語音識別出現過哪些有趣的「Bug」或失誤?
研一剛接觸語音識別,怎麼運用kaldi工具箱做一個baseline?
未來語音技術或者語音智能助手的發展方向是什麼?

TAG:人工智慧 | 語音識別 | 動物學 | 深度學習DeepLearning |