人工智慧演算法會不會是最了解你的?可以完全信任演算法的推薦嗎?
謝邀
前幾天剛剛看完了英劇《黑鏡》第四季第四集」Hang the DJ」,所講的故事就是對這個問題的一種詮釋,不在這裡劇透,感興趣的可以看一下。
認真回答一下,先放結論:早晚會,可以信任,但是「可以」不代表「應該」
人工智慧演算法這幾年火起來之後,大家逐漸意識到生活中其實充滿了各種演算法,比如搜索引擎的展示結果、歌單推薦、網文推薦等等,更不用提讓人類重新審視自己的圍棋人工智慧阿爾法狗家族了。
甚至,「人工智障」都常出現,比如我之前在淘寶買了個床墊,然後淘寶又給我推薦了好幾個床墊,搞得好像我買床墊是要玩疊疊樂一樣。最常見的人工智障還是汽車導航,最早是各種車載導航,現在是各種手機上的地圖,估計開車用導航的人都有和郭德綱吵架的經歷,我也不例外,經常很無可奈何的原諒志玲姐姐。
其實,企業用演算法來做產品、服務的推薦不是什麼新鮮事,千萬不要以為是移動互聯網/大數據這波才出現的,其實在世紀之交的第一次互聯網浪潮的時候,就有很實際的商業應用了。以沃爾瑪為代表的大賣場早就能通過會員卡記載的購物記錄,來預測各個區域內的用戶的購買需求了,準確度比不上現在網購這麼發達的情況,但是在那個時代對於一些小的零售競爭對手也是妥妥的降維打擊了。
那個時候最著名的一個事情,發生在Target賣場身上。一位父親發現Target賣場給自己還在讀高中的女兒寄去了紙尿布、嬰兒床、嬰兒衣服的產品目錄。這位父親非常憤怒,覺得這好像是賣場在鼓勵自己女兒生孩子一樣,於是打電話去投訴。客服和這位父親溝通後也一頭霧水,做出了道歉。
沒多久後,這位父親又給Target回電,原來在產品目錄事件後,他發現自己的女兒原來真的懷孕了。而這一切是一個叫做Andrew Pole的統計學家在2002年時候幫助Target做出來的預測模型,只通過客戶對於25件商品的採購模式就能預測客戶是否懷孕。
演算法呀,在很久前就開始展示出它的潛力了。
當然,演算法這個東西門檻很高,從業人員也不是全部都是數學天才,自然會出現一些演算法不夠完善的情況。但是隨著足夠的數據量的累積,足夠多的迭代,和足夠的算力增長,肯定是會越來越完善的。
所以這個問題的討論的關鍵不在於「現在的演算法是智能還是智障」,而應該基於「早晚會有牛逼到比你自己更了解你自己的演算法」存在。而當那一天來臨的時候,是否要去信任演算法的推薦才是更實際要考慮的問題。
最近看了一個視頻,是魅族出的叫做《見識》的談話節目,參與談話的是魅族的高級副總裁楊柘、學者余世存和主持人岳路平,裡面談了很多話題,而人工智慧演算法就是其中一個話題。
上善若水道書香 惟精惟一蘊生活(上集)v.youku.com裡面有兩個點我覺得很貼合這個問題
先說下第一個點,是楊柘提出的「人工智慧演算法算出來的「你」,並不是「你」」,他的原話是:
「用一把鑷子,原子級的,把你一粒一粒的捏開,捏成一堆,那個「我」在哪裡?如果你再把那一堆全捏回來了,接著的問題是那個「我」到底回來沒回來 ?如果你捏開了沒有那個「我」,捏回來也沒有那個「我」,那麼,人工智慧推薦的那個東西是你嗎?」
這個很有有點人類終極哲學問題「我是誰」味道的觀點,其實說的是即使你給演算法再多的數據,即使演算法模擬出來的愛好和你本人的偏好沒有沒有任何實質上的差異,也不代表這個演算法模擬出的東西是「你」。
關於這個觀點,我之前翻譯的長文《假如把一個人粉碎成原子再組合,這個人還是原來的人嗎》中探討過
假如把一個人粉碎成原子再組合,這個人還是原來的人嗎?www.zhihu.com感興趣的可以把這篇再讀一遍,絕對值得你的時間,我這裡把長文的結論摘錄一下:
這個90歲的老人可能不解的自己6歲時候的樣子,但是他記得自己89歲的樣子,而那個89歲的人,記得自己85歲時候的樣子。那個50歲的自己,記得自己43歲的樣子。而那個7歲的自己,記得自己6歲時候的樣子。
這是一條長長的不斷重疊的由記憶、性格和物理表徵組成的鏈條。……也就是說,你其實不是一個事物,而是一個故事,一個不斷發展的主題。你就好像一個裝滿了東西的房間,有些東西是新的,有些是舊的,有些你知道在那裡,有些你都不知道——房間的東西一直在變,每天都不一樣。同樣的,你不是一組大腦數據,你是一個內容一直在變換的資料庫,不斷成長和更新。你不是一組原子,你是一套告訴這些原子該怎麼組織的指令。
所以,不用說那些根據你的購物數據、音樂數據等等進行推薦的演算法,即使是把你整個人所有的信息全部複製一遍,那也不是「你」。
如果是第一個觀點比較哲學,第二個觀點則是非常實在,是余世存提出的「計算機算的再好,不能替代這個人去生活」。也就是說即使出現了比你更了解你自己的演算法,即使演算法給出的推薦是值得你信任的,你也未必應該去採用這個推薦。用余世存的原話說就是:
「比如老子、孔子說的再好,我們跟小孩說,你一定要讀孔子的話,一定要讀老子的話,但是小孩還是要按他的邏輯,按他當下的生活去生活。只有過了之後才說,原來孔子說過,挺好的,如果早按他說的,我可能會少走點彎路。但這個彎路他一定要走,這才是他要的生活。」
是的,如果完全依賴演算法,未免太無趣了一點。
志玲姐姐的導航,是否讓一部人人喪失了自己看路牌找路的能力?
完全按照演算法,是否就沒有那麼多驚喜的發現,會錯過一些走彎路的機會呢?
用最通俗的舉例來說,我們假設音樂推薦演算法能夠完善到所有推薦的歌都是你喜歡的,使得你不會再聽到任何你不喜歡的歌,那你你失去的也許就是「那次聽了一首超難聽的歌」的生活經歷了。沒有這種經曆本身始終缺憾,過於依賴演算法推薦來弱化了自己的甄別能力(就好像導航弱化了我們的認路能力),也是種缺憾。
所以說啊,現在一些演算法已經很了解你了。以後會有更多的一些演算法會更加強大,強大到把生活中的選擇留給演算法推薦變成一個實實在在的可行性。但是就好像不聽志玲姐姐的話,開錯路看到一些計劃外的風景,也是一種不應該缺失的生活體驗。
不會 。
多年音樂內容推薦經驗,現人工智慧領域從業者來答一下
原因有兩個
其一:
再厲害的演算法都需要基於大量優秀的數據標註(知識圖譜)和角色畫像
可惜的是,這個行業缺的從來就不是愛因斯坦,而是福爾摩斯
其二:
沒有哪個演算法會掌握你的完整數據。
想像下你每天會在那麼多角落留下數據,將所有的數據拼合在一起,才是完整的你
但現實情況是,你的數據會被不同的幾家公司獲取,每家公司只掌握了你小部分的行為
因而單個演算法只能基於你的小部分行為做推薦,比如:
你在豆瓣看了很多部電影,有些打5星,有些打了1星
然後你會去雲音樂聽些電影原聲帶
假如你放了你評價5星的電影原聲,音樂推薦演算法只會判定喜歡聽電影原聲,接下來會推給你同類型的電影原聲,很可能就是你評價1星的那部電影
只要有這兩個客觀原因存在,演算法離真正的懂你還很遠
眾所周知現在的AI推薦演算法都是基於你在網路上的閱讀、購買、瀏覽等等一系列的行為記錄,通過學習這些記錄的共同特徵為你做推薦。這種AI推薦演算法通常是非常複雜的,我這裡拿電商網站的AI推薦演算法做一個簡單例子。
上面的圖片展示了一個常見電商網站最基礎的推薦系統架構體系,即根據用戶資本資料、瀏覽記錄、購買記錄、商品評分等,計算用戶與物品的相似性、用戶與用戶的相似性,推薦與用戶相關性或者用戶偏好性較大的物品,同時推薦相似性較大的用戶相關性比較大的商品。
比如說我某天在京東商城通過搜索Python web關鍵詞買了一本《Python web開發》這本書,並且在拿到商品之後覺得書還不錯,於是在評論區給了一個五星好評。推薦系統這時候看到我的這一行為特徵,納入它的資料庫。它通過它強大的大腦「資料庫」發現《Flask web開發》這本書與我之前買的這本書《Python web開發》十分相似,並且有80%買過《Python web開發》這本書的人也都會買《Flask web開發》這本書,所以它決定把這本書推薦給我。
這裡就出現了幾個問題:
1、不是我主動意願的行為
我經常給別人送一些書籍,所以這一天我買的這本《Python web開發》其實是送給別人的或者可能是我幫別人買的書,那麼這個時候推薦系統並不會知道這一行為是我主動的行為還是我被動行為。總之,不管你內心是怎麼想法,你在瀏覽器裡面留下來的記錄卻是一樣的。
有人說你這說的有問題,如果你之前的行為記錄表明你跟Python web一點關係都沒有,那麼你這次的購買行為推薦演算法可能認為它是一個異常點把你扔掉。扔掉合理也不合理,如果我恰好是從那時候起轉行做Python web開發呢?
2、我的行為終止於線下
前面我已經提到了推薦系統是基於我們在網路上的行為,然而不幸的是,我們現在還有大部分的生活並沒有在線上。假設我非常想學Python web,所以我那天在瀏覽器上留下了很多Python web的書籍,但是不巧的是我在跟朋友吃飯聊天的時候,朋友說他那有一摞子的Python web相關的書籍可以給我看,所以實際上我的這次購買行為已經終於線下了。但是推薦演算法並不知道,它還是會給我瘋狂的推薦Python web相關的書籍。
3、無意中一次點擊行為
有一個段子「我無意中在今日頭條中看了一次略帶有黃色的新聞,從此家裡的營養快線就沒有斷過」,我把這個理解為一種過度推薦。很多時候只是因為不小心,或者其他目的的一次或者兩次行為,但是卻被推薦演算法記錄了下來跟你較真了。
當然上面這幾個可能碰到的問題並不是說推薦演算法就不好,推薦演算法在很多情況下還是能推薦到很多比較優質的物品的,但前提是你留下的數據足夠多。
這一點我很認同這個觀點:我覺得推薦演算法在做兩件事情。第一,它通過數據來搜索,為你搭配最適合你的生活方式的提案,以及它的工具書,這是橫向它能夠達到最廣。第二,你買的越多,用戶畫像越精準,也是一個往深扎的過程。
歸根到底,人工智慧的發展是智能的發展不是自我意識的發展,人工智慧永遠想不到你在想什麼,他只能猜測你在想什麼。
最後我想以我最近在看的《見識》這個節目中魅族的高級副總裁楊拓在聊到關於「人工智慧能否產生老子、孔子」這一話題時表達的觀點為結尾:人與計算機的較量,實際上是熟練工種與資料庫的較量。計算機和人工智慧最強大的正在於她們有人類無法比及的數據量。給我推薦的這一套東西,應該是一個有意義的參考,不能完全否定,但它是否真的是你所要的?因為那個是他的判斷,他的世界,他的演算法,如果你是類似的,也會給你類似的演算法。我記得在諾華製藥的時候,一個同事描述他是如何苦讀的,他當時在院子里做作業,因為他家是南方,那時候的木頭凳子的漆經常掉,長時間的坐在這兒做作業,一起身漆把皮都粘掉了,毛孔都給粘掉了,屁股底下粘了一堆漆,他的學習能到那個地步。但是我相信經過這樣努力的人,比如他喜歡音樂和藝術,和家裡就是藝術家,拉小提琴、彈鋼琴,可能他們倆行為不一樣,但志趣相同,人生閱歷不同一定會導致對同樣事情的判斷是不一樣的。這種差異,我認為在電腦方面用大數據是很難做到的。
回答這個問題的前提是在於看待這個問題的立場以及推薦的場景。
從基於普羅大眾的分析來看,這個結論是成立的。
但是結合到具體場景和立場,在特殊場景下是不允許被發生的。
成立的最適合場景:購物
判斷力是大眾最為缺乏的能力,同時大部分人的思維體系是單薄的,判斷是否符合自己價值的手段缺乏,大眾價值觀是貧乏且易於捕捉的,這時候的推薦效果最優。
類似於:淘寶系的商品推薦引擎;
存在風險的場景:新聞資訊
同樣由於上述原因,這個場景的價值觀導向如果完全依賴推薦,會出現失控(民粹、暴力、色情、ZZ等),因此會通過手段強力干涉,畢竟對於內容進行價值觀標籤化是一個巨大的挑戰。這也是今日頭條、微博等之前被官媒批評的最重要原因。
同時,演算法的推薦在一定層次的人群上還無法被完全信任。
由於這部分人群擁有自我判斷能力,具有明晰的價值觀取向,目前的模型能力還無法對這些進行明確的特徵化,在這個環節會出現能力掣肘。
AI從業者在面對這類問題時,容易簡單的以數據論、特徵論等方式草率的得出結論。但是最重要的是這些能力的服務對象人和社會,數據、推薦能力的應用的可行性判斷,依然要建立在這些基礎上進行。
以上
當你瀏覽過饅頭這個詞。
- 豆瓣:你要不要來一碗米飯?
- 淘寶:你要不要再來一個饅頭?
- 百度:湖南株洲饅頭機製造廠優質饅頭機
- 騰訊:來我這兒買,一模一樣的饅頭,還買一送一,還加VIP經驗值
- 360:買下我的食堂,保證你有安全的饅頭可以吃
- 頭條:嫩模的饅頭,你感興趣嗎?
- 鹹魚:沒吃完的饅頭可以賣錢
- 微博:#兜售發霉饅頭的高校#,等你參與話題
- UC:震驚!人血饅頭,你遇到了嗎?
當然,上面這些都是網上來的。這只是為了說明一下,大家的推薦邏輯都是不一樣的,很多時候推薦的參考、出發點、業務目標都是不一樣的。
- 有些推薦演算法是為了給你提供你可能喜歡的內容。這些一般是服務類的、內容類的,比如音視頻、漫畫、feed流類
- 有些推薦演算法是為了給你推薦廣告的,比如淘寶、今日頭條、墨跡天氣
基於上述,會細分出更多業務場景,用的演算法都不盡相同,產品狗給的權重也都不一樣。
基於用戶畫像,演算法可能是了解你的,但是也只是從你身上提取出來的一個一個參數,比如男女老少,但是你心裡想的是什麼,演算法是不知道的,只能預設一個可能的結果,然後不斷地去糾正,而人的想法隨著社會/環境/自己的變化,是一直在變的,所以演算法其實不了解你,你也不可能信任演算法。
以「推薦演算法」為例,群眾對演算法常見的幾大理解「誤區」:
- 推薦演算法是根據用戶點擊率來推薦
- 冰箱都買完了還推薦冰箱,點了不喜歡還推薦,演算法一點都不聰明
- 推薦演算法會導致「信息繭房」
- 推薦演算法技術含量不高 按照演算法模型拿 Cookie 信息套一下就行
- 推薦演算法發展的很快,未來可以洞察人性,無所不能
- 演算法都是公開的,競爭壁壘不高
原文:你對推薦演算法的認知,也許都是錯的
作者:池建強,極客邦,總裁
你看看它們的評測過程,優化目標就知道可以信到什麼程度了
既然都叫推薦了,說明這個結果只是供你參考,至於你接受不接受還是看你。以當前技術來講,肯定不能完全信任啊,paper上的那些評價指標,召回率和準確率,都沒到100%,你怎麼完全信任。
QQ音樂,阿里淘寶,喜馬拉雅,給我的推薦我沒一個滿意的。最噁心的就是阿里巴巴的淘寶,你聊天提到的東西,他會給你推薦,你買過的東西他還給你推薦。
喜馬拉雅類似,我過了一個眀穿的小說,他就沒完沒了的推薦眀穿,我喜歡的主播播了一個新的末世生存小說,他就沒完沒了的給你推其它末世生存小說,我懷疑這和數據挖掘,智能沒有半點關係,就是寫了個關係資料庫,把你關注過的內容類型做了一個強制綁定,然後就沒完沒了的煩你,讓你看相同的枯燥乏味的一致內容。
QQ音樂用的少,基本上都是推新歌吧,喜歡的沒有。這個智能性,我目前還沒體會出來。拋個磚。未來可以是,但目前還不能完全信任人工智慧演算法。
如果要分析一個人的喜好,有兩個前提:
1、每個人對不同事物的喜愛程度是有區別的(即不是佛系),這樣TA最喜歡的一些事物就可以稱為TA的喜好——喜好的存在性;2、喜好主要是由個人經歷和生活環境共同決定的,有可能發生改變,但改變的速度相對較慢——喜好的產生原因和確定性。有了這兩個前提,就能得出一個結論:我們可以通過收集一個人生活習慣來猜測他的喜好,並且在收集數據計算分析期間,這個人的喜好沒有發生很顯著的改變。
這些其實就是大數據的基礎之一,和人工智慧沒啥關係。關係比較大的是演算法。
舉個例子。你約妹子出來吃飯,她說她想吃火鍋,但是不能吃辣。於是你知道了,她喜歡吃火鍋,但是仍然不知道她有沒有更愛吃的東西。於是當你下次約她出來的時候,你推薦了1海底撈,因為那是一個很有名的火鍋。第三次約她的時候,你上網查了一下,發現愛吃火鍋的人通常都愛吃亂燉和麻辣燙,但是她不能吃辣,於是帶她去了2東北亂燉,發現她愛吃肉,而不愛吃香菜。於是你問她,你想喝點什麼嗎,她說可樂或者紅茶。現在你知道她喜歡吃火鍋、肉,喝可樂、紅茶,不能吃辣和香菜。於是下一次約會你帶她去了樓下的3家常菜,點了肉菜和鍋,可樂,兩個人吃的很開心。
1是根據用戶自己聲明的喜好選擇產品,比如你告訴QQ音樂你喜歡鄉村音樂,他就會給你推薦Country Road Take Me Home;
2是大多數音樂軟體(比如網易雲音樂)演算法,你喜歡A,而其他喜歡A的人都喜歡B,於是推薦了B;1和2都不需要知道事物到底是什麼。是音樂也罷,食物也罷,通用的演算法。
3你就需要知道樓下餐館的菜單,你能理解裡面哪些菜有肉、哪些菜不辣,類似於推薦類似曲風的音樂。只不過「曲風」挺難定義的,一旦錯了就推薦不準。
更高級的操作需要更多的數據。比如你同時黑了她的手機手錶,然後你看到了她的搜索記錄「好吃不胖」,然後你知道了她想要鮮美(調料、氨基酸多)、低熱量(低糖低脂)的食物,你簡單想了一下,比如蔬菜、水果、瘦肉等。這一瞬間你想起來她吃火鍋時候跟服務員說要瘦肉(數據收集),突然明白了,原來如此。你發現她很愛運動,運動需要補充肉類蛋白,就和她喜歡吃肉聯繫起來了。你發現她有時候會顯得頭疼——運用你豐富的知識,你想起來咖啡因可以緩解頭痛。原來她不是愛喝可樂和茶,是想要裡面的咖啡因啊——而這些,她自己都很有可能不知道。你翻她朋友圈,發現她發過很多歌詞或者唱過歌,你仔細查了查,發現都是同一個歌手——好了,下次直接帶她去4吃飯K歌,記得點咖啡。
4是很高級的騷操作,不僅你掌握了她很多生活數據,還能夠對所有的事物有深刻的了解(比如可樂含有咖啡因、蔬菜熱量少、某句歌詞是xxx歌手的),還要能串聯起來期間的關係(頭疼、咖啡因),這樣就能夠找到她的喜好的根本原因——甚至她自己都不知道——然後以此為根據來推薦新的事物。這其實就是人工智慧的未來:通過收集你的生活習慣、搜索內容等等,變得「比你還了解你自己」,然後推薦你喜歡的東西給你。很美好,早晚會發生。
有一個壞處就是,壞人綁架了你,一頓毒打套出來她的信息,然後在她的火鍋里下毒毒死了她。
所以Google說了,數據安全很重要。忘記是哪看到的了 侵刪
你看到個東西 好奇是不是屎你點進去發現 哎還真是 系統根據演算法 以為你喜歡屎在你的時間線上給你推薦了一堆但其實你不喜歡「可以完全信任演算法的推薦嗎?」
當然不能。你聽說過Elsagate嗎?
(警告:以Elsagate為關鍵詞進行搜索,可能搜索到令人不愉快的內容。)信息繭房和回聲室效應
不是京東,亞馬遜和淘寶上的我是完全不同的三個人
應該問的是推薦演算法。
你可以看一下推薦演算法大規模應用的場景,了解用戶不是其場景的主要需求。
網購中推薦演算法是給你找買更多東西的理由而非幫你找到你需要的東西。所以推薦演算法的目的不是要了解你到底需要什麼,而是要估計什麼樣的推薦組合最容易引發你的購買行為。所以你沒有明確的購物目標是你會發現推薦組合里的東西都比較想買,但是一旦你購買目標明確了,這些結果除了增加你的困擾以外沒有任何意義。
音樂這些推薦演算法的目的也不是找出你會喜歡聽什麼音樂,而是如何增加你使用時間。換句話說其目的不是不是了解你到底喜歡什麼樣的音樂,而是如何將你的注意力長時間的保持在應用上。所以這種演算法一般會有一條基線來估算你使用應用時的狀態,然後根據你不同的心理狀態推薦不同的內容。首先,其結果不能太差,否則用戶會產生厭惡情緒而離開。另外其效果不能太好,因為高潮以後用戶會快速的疲倦。所以推薦系統推薦的內容基本都是相對符合你當前情緒音樂,而不是最適合的音樂。
新聞類的推薦演算法不是很了解,但聽別人說其目標提高點擊量。而提高用戶點擊量最簡單的辦法就是是調動用戶的情緒,換句話說是提供引發用戶強烈情緒並不斷加強該情緒的內容,最後讓情緒拖著用戶不斷的去點擊閱讀新的東西。
總之,用戶不要太多情了,推薦演算法的目標不是了解你,只是宣傳成演算法了解你而已。
現在的大數據-人工推薦就是垃圾,只會給你越來越小,越來越單一的信息。垃圾!垃圾!垃圾!重要的事情說三遍。