人工智慧有哪些誤區?

早前谷歌人工智慧戰勝李世石後,其中也有不少評論文章,說華爾街分析師將面臨失業,在我看來,人工智慧,或者機器應該是為華爾街分析師提供服務的,並不意味取代金融分析師,作為機器,或者人工智慧直接參買賣證劵等投資產品目前依然處在概念期。所謂利用人工智慧參與到投資,或者稱之為智能投資顧問,買賣證券等產品等概念,在我看來僅僅是故事而已,試問,你會把辛苦賺來的積蓄交給機器來管理嗎?至少我不會。你怎麼看?


作者:機器之心

鏈接:知乎專欄

來源:知乎

著作權歸作者所有。商業轉載請聯繫作者獲得授權,非商業轉載請註明出處。

Russell 是加州大學伯克利分校人工智慧系統中心創始人兼計算機科學專業教授,同時還是人工智慧領域裡「標準教科書」《人工智慧:一種現代方法》作者(谷歌研究主管 Peter Norvig 也是該書作者)。在這篇文章中,他以 QA 的方式講解了人工智慧的未來以及常見的誤解。

1. 什麼是人工智慧?

是對讓計算機展現出智慧的方法的研究。計算機在獲得正確方向後可以高效工作,在這裡,正確的方向意味著最有可能實現目標的方向,用術語來說就是最大化效果預期。人工智慧需要處理的任務包括學習、推理、規劃、感知、語言識別和機器人控制等。

常見誤解

  • 「它是一個特定技術」。例如在二十世紀八十年代到九十年代,人們經常會看到新聞報道中人工智慧與基於規則的專家系統被混為一談。現在,人工智慧經常會與多層卷積神經網路混淆。這有點像把物理和蒸汽機的概念搞混了。人工智慧探究如何在機器中創造智能意識,它不是在研究中產生的任何一個特定的技術。

  • 「這是一個特定類別的技術方法」。例如,經常有人用符號化或邏輯化的方法將人工智慧與「其他方法」相互比較,如神經網路和遺傳編程。人工智慧不是一種方法,它是一個課題。所有這些方法都是在對人工智慧進行研究的產物。

  • 「這是一小群研究者的方向」。這個誤解與前幾個錯誤有關。一些作者使用「計算智能」指代幾個特定的研究者群體,如研究神經網路,模糊邏輯和遺傳演算法的研究者。這是非常片面的,因為這種分類讓人工智慧的研究陷入孤立的境地,讓研究成果不能得到廣泛的討論。

  • 「人工智慧只是演算法」。嚴格說來不算是誤解,人工智慧的確包含演算法(也可粗略定義為程序),它也包含計算機中其他的應用。當然,人工智慧系統需要處理的任務相比傳統演算法任務(比如排序、算平方根)複雜得多。

2. 人工智慧將如何造福人類?

文明的一切都是人類智慧的產物。在未來,人工智慧會將會擴展人類的智力,這就像起重機讓我們能夠舉起幾百噸的重物,飛機讓我們很快飛到地球的另一端,電話讓我們在任何角落實時交流一樣。如果人工智慧被適當地設計,它可以創造更多價值。

常見誤解

  • 「人工智慧沒有人性」。在很多反烏托邦幻想中,人工智慧會被用來控制大部分人類,無論是通過監視,機器人執法,法律判決甚至控制經濟。這都是未來可能出現的情況,但首先它不會被大多數人接受。人們往往忽視人工智慧可以讓人類接觸更多的知識,消除人與人之間的語言隔閡,解決無意義和重複的繁重任務。

  • 「人工智慧將造成不平等」。毫無疑問,自動化程度的提升將使財富集中到越來越少的人手裡。但是現在,如何使用人工智慧的選擇權在我們手裡。例如,人工智慧可以促進協作,讓生產者與客戶有更多交流,它可以讓個人和小組織在全球化的經濟環境下獨立運作,擺脫對於特定大公司訂單的依賴。

3. 什麼是機器學習?

它是人工智慧的一個分支,探索如何讓計算機通過經驗學習提高性能。

常見誤解

  • 「機器學習是一個新的領域,它已經代替了人工智慧的地位」。這種誤解是最近機器學習熱潮產生的副作用,大量學生在之前沒有接觸過人工智慧的情況下學習了機器學習課程。機器學習一直是人工智慧的核心話題:阿蘭·圖靈在二十世紀五十年代的論文中已經認為學習是通向人工智慧最可行的途徑。這一觀點似乎是正確的,人工智慧最突出的早期成果,Arthur Samuel 的跳棋程序就是使用機器學習構建的。

  • 「機器不能學習,它們只能做程序員告訴它的事情」。這顯然是錯的,程序員能夠告訴機器如何學習。Samuel 是一個優秀的跳棋玩家,但他的程序很快就通過學習超過了他。近年來,機器學習的很多應用都需要大量數據來進行訓練。

4. 什麼是神經網路?

神經網路是受生物神經元啟發構建的計算系統。神經網路由許多獨立的單元組成,每個單元接收來自上一層單元的輸入,並將輸出發送到下個單元(「單元」不一定是單獨的物理存在;它們可以被認為是計算機程序的不同組成部分)。單元的輸出通常通過取輸入的加權和並通過某種簡單的非線性轉型,神經網路的關鍵特性是基於經驗修改與單元之間的鏈接比較相關權重。

常見誤解

  • 「神經網路是一種新型計算機」。在實踐中,幾乎所有的神經網路都運行在普通的計算機架構上。一些公司正在設計專用機器,它們有時會被稱作是「神經計算機」,可以有效地運行神經網路,但目前為止,這類機器無法提供足夠的優勢,值得花費大量時間去開發。

  • 「神經網路像大腦一樣工作」。事實上,生物神經元的工作方式比神經網路複雜得多,自然界存在很多種不同的神經元,神經元的連接可以隨時間進行改變,大腦中也存在其他的機制,可以影響動物的行為。

5. 什麼是深度學習?

深度學習是一種特定形式的機器學習,訓練多層神經網路。深度學習近年來非常流行,引領了圖像識別和語音識別等領域的突破性進展。

常見誤解

  • 「深度學習是一個新領域,已經代替了機器學習的地位」。事實上,深度學習在神經網路研究者中間已經被討論了超過二十年。最近深度學習的發展是由相對較小的演算法改進以及大數據集模型和計算機硬體發展驅動的。

6. 什麼是強人工智慧和弱人工智慧?

「強人工智慧」和「弱人工智慧」概念是由 John Searle 最先提出的,是他對人工智慧研究方向的兩個假設。弱人工智慧假設機器可以通過編程展現出人類智能的水平。強人工智慧則假設機器出現意識,或者說機器思考和認知的方式可以用以前形容人類的方式來形容。

常見誤解

  • 「強人工智慧是人類智力級別通用人工智慧研究的方向」。這個解釋具有代表性,但這不是強/弱人工智慧概念被提出時的本來意義。同樣,「弱人工智慧」被認為是針對特定領域,執行特定任務的人工智慧研究,如語音識別和推薦系統(也稱工具 AI)。雖然沒有人具有最終解釋權,但這種語義的轉換可能會造成不必要的混亂。

7. 什麼是 AGI,ASI 和超級智能?

AGI 代表的是通用人工智慧,這個術語意在強調建立通用目的智能系統的雄心目標,其應用的寬度至少能覆蓋人類能解決任務。ASI 指的是人工超級智能:遠遠超越人類智能的人工智慧。更具體地說,一個超級智能系統高質量決策能力要比人類強,它能考慮更多的信息和進一步深入未來。

常見誤解

  • 「主流的人工智慧研究者並不關心通用人工智慧。」像語音識別這種細分領域的某些研究者主要關心的是其所在領域的具體目標,其他一些研究者比較關心找到現有技術的商業應用。在我的影像里,如學習、推理、和計劃等細分領域的大多數人工智慧研究者認為他們目前的研究工作有助於解決通用人工智慧的子問題。

  • 「人類的智能是一種通用智能」。這種觀點常被認為是顯而易見,不值得討論,但它卻幾乎迴避了關於 AGI 的所有討論。持有這種觀點的人通常會認為通用智能就是人類能做到所有任務的能力。然而當然不存在人工不能做的人類工作,所以人類能做已經存在的人類工作也沒什麼好驚訝的。難的是怎麼定義那種完全獨立於以人類為中心的價值觀和偏見的寬度。所以我們只能說人類智能是某種程度上的通用智能,人類能做人類能做的所有事情。另一種更有意義的說法是人類能做很多事情,但目前為止這個問題 還沒有確切的答案。

8. 什麼是摩爾定律?

「摩爾定律」指的是多個相關的觀察和預測能影響電路性能和密度。現代理解的「摩爾定律」是每一秒的操作次數以及每一美元所能買到的電腦性能,將每隔 N 個月翻一倍以上,N 大約是 18,這一表述有些背離「摩爾定律」最初的定義。

常見誤解

  • 「摩爾定律是物理定律」。事實上,摩爾定律只是一種關於技術進步的經驗觀察。沒有什麼規定摩爾定律會持續下去,當然它也不可能無限持續下去。時鐘速度的增加已經達到了頂峰,目前價格/性能上的提升也來自於單個晶元上內核(處理單元)數量的上升。

9. 摩爾定律能讓我們預測出超級人工智慧的到來嗎?

不能。人工智慧系統不能做的事情很多,比如理解複雜的自然語言文本;加速意味著在很多情況下得到的錯誤答案的速度也越快。超級智能需要在主要的概念突破。這些很難預測,即便我們有了速度更快的機器也沒啥用。

常見誤解

  • 「讓機器更強大的意思是提升它們的智能」。這是人工智慧的未來的討論中的一個常見主題,這個主題似乎建立在一個混亂的概念上,我們使用「強大」來描述人類智力,但是在描述計算機時用的「強大」的含義更加簡單,就是每秒操作的次數。

10. 什麼是機器 IQ?

沒有機器 IQ 這種說法。某種程度上一個人在多個任務上的多種智慧能力是高度相關的,人類可以說有 IQ,但是研究者們對任意單一維度上的 IQ 定義有爭議。另一方面,任意給定的機器的各種能力之間都是不相關的:一台機器能打敗世界象棋冠軍,並不意味著它能玩的好別的棋類遊戲。能贏得猜謎比賽的機器也無法回答「你叫什麼名字?」這樣簡單的問題。

常見誤解

  • 「根據摩爾定律,機器 IQ 會不斷上升」。既然根本不存在什麼機器 IQ,它也就不可能增長;摩爾定律描述的僅僅是原始的計算吞吐量,與是有存在執行任意特定任務的演算法沒有關係。

11. 什麼是智能爆炸?

「智能爆炸」這個術語是 I.J.Good 於 1965 年在其文章「Speculations Concerning the First Ultraintelligent Machine」中創造的。它指的是足夠智能的機器能重複設計它自己的硬體和軟體來創造出一個更加智能的機器的可能性,這個過程會一直重複下去,直到「人的智能被遠遠的甩在後面」。

常見誤解

  • 「一旦機器達到人類水平的智能,智能爆炸就在所難免」。反過來:雖然邏輯上是可行的,但是讓 N 代的機器設計出 N+1 代的機器太難了。同樣的道理,我們造的機器可能在一些重要的方面成為超過人類,但是在其他方面可能會落後於人類。在解決貧困、治療癌症等重要問題上,機器的能力肯定會比人類強,而且不需要在人工智慧研究上有大突破就能實現。

12. 人工智慧系統何時才能超過人類智力?

這是一個難以回答的問題。因為首先它假定這件事必然發生,事實上它具有選擇性:假如人類選擇不去發展這樣的人工智慧,這件事就不太可能發生。第二,「超過」假定智力是線性的,而這不是真實情況,機器在某些任務的處理上比人類更快,而在更多放面則很糟糕。第三,如果我們認為「通用的」智能是有用的,我們就可以開發這樣的機器,但目前我們不知道它是不是有用的。寬泛地說,實現這樣的人工智慧還需要很多技術突破,而這些都是難以預測的,大多數科學家認為這件事會在本世紀內發生。

常見誤解

  • 「它永遠不會發生」。對技術突破進行預測是很難的。1933 年 9 月 11 日,Rutherford,也許是那個時代最著名的核物理學家,在英國科學促進年會上向人們宣布:「任何想從原子變形過程中獲取能源的努力都是徒勞的。」(他在各種場合發表過許多類似言論,大意都是表達使用原子能是不可能的)結果第二天早上,Leo Szilard 發現了中子誘導鏈式反應,並很快對核反應堆申請了專利。

13. 人工智慧系統現在能做什麼?

人工智慧的應用範圍已經比幾年前大很多了。從圍棋、紙牌、簡單的問答、從新聞中抓取信息、組合複雜的對象、翻譯文字、識別語音、識別圖像中的概念、到在「普通」交通條件下駕駛汽車,不一而足。在很多情況下,人工智慧在你不知道的情況下發揮著作用,如檢測信用卡欺詐,評估信用,甚至在複雜的電子商務拍賣中投標。搜索引擎中的部分功能也是人工智慧的簡單形式。

常見誤解

  • 「像『下棋』這樣的任務對機器來說和對人類來說是一樣的」。這是一個錯誤的假設:機器「掌握」一項技能的程度超過了人類。人類通過閱讀和理解學會遊戲規則,通過觀看棋局和下棋來提高水平。但典型的下棋程序沒有這樣的能力——將下棋規則編程,讓機器演算法直接給出所有可能的下一步。機器無法「知道」人類所謂的規則(目前新興的強化學習方式改變了這一點)。DeepMind 的人工智慧系統可以學會很多種遊戲,它不知道自己在學習什麼,看起來也不太可能學會這些遊戲的規則。

  • 「機器執行任務的方式和人類一樣」。我們不知道人類思考問題的機制,但這種機制與人工智慧系統處理任務的方式看起來大不相同。例如,下棋程序通過考慮當前棋局狀態和下一步可能的序列比較結果考慮下一步,而人類經常是先發現可能獲得的優勢,然後繼續考慮如何找到一系列方式來實現它。

  • 「如果機器可以做到任務 X,那麼它就可以做類似的所有任務了」。參見有關機器 IQ 的問題,機器目前還不能形成通用化的智能,它們的功能通常局限於某一領域。

14. 人工智慧會對社會造成什麼樣的影響?

在可預見的未來中,人工智慧的各種應用將會改變社會形式。自動駕駛汽車現在已經在路上進行測試,至少有一家公司承諾將在 2016 年內交貨(考慮到目前遇到的困難,其他公司的態度則更為謹慎)隨著計算機視覺和機械腿設計的進化,機器人非結構化環境正在變得更為實用——可能的應用範圍包括農業和服務領域(特別是對於老人和殘疾人而言)。

最後,隨著機器能夠理解人類語言,搜索引擎和手機上的「個人助理」將會改變現有的人機交互方式,它們可以回答問題,整合信息,提供建議,並促進交流。人工智慧還可能會對科學領域(如系統生物學)產生重大影響,這些學科中信息的複雜性和數量一直令人望而卻步。

常見誤解

  • 「機器人正在接管一切」。參見《人工智慧的智力何時才能超過人類》,人工智慧中的絕大多數進步是基於任務處理的改進。當然,從長遠來看,維持人類的控制很重要。

15. 人工智慧與機器人的發展會取代大量人類的工作嗎?

一些研究(比如 Frey 和 Osborne 在 2013 年的調查)表明在未來美國將近一半的工作在自動化面前會變得很脆弱。其他作者,比如 Bryjolfsson 和麥肯錫在 2011 年的工作表明這一變化已經開始了:2008 年經濟蕭條之後就業率的緩慢恢復,生產率與停滯不前的工資之間的差異化增加了自動化的進程。隨著人工智慧與機器人的持續發展,更多的工作將受到影響看起來不可避免。大量的失業並不是必然的,但這可能會造成經濟結構的巨大轉變,需要想出組織工作與酬勞的新思路。

常見誤解

  • 「機器人的工作越多意味著人類工作越少」。工作不是零和(zero-sum)的:由一對機器人協助的工人可能更具工作效率,也因此需要更多這樣的工人。沒有機器人的幫助,一些領域的工作由人類完成可能不具備經濟效益,或者一些工作單獨的人或機器無法完成。同樣,就像塗刷匠的刷子與滾筒:如果使用針尖大小的刷子一點一點的塗刷,我們就雇不起塗刷匠來塗刷一整間屋子了。

16. 什麼是無人機,自動武器,殺人機器人?

無人機是由人遠程控制的飛行器;有些無人機可以攜帶武器(通常是導彈),這些武器的釋放也是由人遠程控制的。自動武器是可以自主選擇和吸引攻擊對象的裝置。目前這類裝置包括韓國非軍事化區里的自動瞄準機槍和一些不同類型的船載反導彈系統。目前在技術上可以實現將無人飛機的控制員替換成完全自動的計算機系統,以達到致命自主武器系統的要求。致命自主武器系統是日內瓦會議裁減軍備議題的討論主題。殺人機器人是對具有輪動能力和行走能力的武器的統稱,包括:船,飛行器以及人工智慧的昆蟲飛行器。

常見誤解

  • 「完全自主武器的出現還需要 20-30 年的研發」。得出這個預估時間的依據無從知曉,但是 20-30 年的時間跨度有點誇大所需的研發時間長度。目前自主武器的研發已經在全世界內大範圍的開展,英國國防部已經宣稱,對於一些簡單對抗如海上戰役,完全自動武器現在已經可以實施。

17. 我們需要擔心殺人機器人胡作非為或接管世界嗎?

如果部署了自動化武器,它們也會有士兵那樣的難題:有時難以分別朋友與敵人、平民與敵軍。而且可能會有軍事事故造成平民傷亡,或者機器人受到干擾與網路攻擊。也因為後者,一些軍事專家預測自動化武器可能需要封閉操作系統,沒有電子通訊。如果系統行為不準確的話,這樣做能防止有人凌駕於自動化控制器之上。但在可預見的未來,自動化武器可能會變得很常見,在有限的任務中被使用。但在全局規模上,它們很難自己編程出計劃。

常見誤解

  • 我們可以按下「關閉」按鈕。「關閉」按鈕會使得自動化武器在網路攻擊面前變得很脆弱。這樣的通信頻道在戰爭中也是如此。此外,通用智能系統會被賦予一項任務,防止自己的「關閉」按鈕被按下。

18. 人工智慧的「存在風險」是什麼?它是真的嗎?

關於人工智慧風險的早期警告曾是非常模糊的。I.J.Good 對於人工智慧的可行性提出了自己的觀點:「只要機器能夠聰明到告訴我們如何保持對它的控制。」人們普遍意識到,在我們的星球上如果存在一個超級智能實體,可能會出現恐慌;但另一方面,我們也都清楚更加聰明的機器會更加有用,而且更加聰明不一定意味著邪惡。事實上,論據很簡單。

  • 假設超智能系統被設計成實現由人類設計者指定的某一目標,並假設這一目標不完全符合人類的價值觀,人工智慧形成的價值觀(如果有)是非常難以確定的。

  • 任何充分有能力的智能系統將傾向於確保其自身的持續存在並且獲取物理和計算資源——不是為了他們自己的目的,而是為了更好地執行人類為它設定的任務。

現在我們問題的本質是你所要求的不是你所得到的。Norbert Wiener 是自動化和控制理論的先驅者,他在 1960 年寫道:「如果我們使用——為達到某些目的——一些機器來代替我們做某些工作,我們最好能夠清楚它們的確在按我們的想法工作。」Marvin Minsky 舉了讓機器計算 pi 這個例子,Nick Bostrom 則舉了回形針的例子。對於人類而言,這些目標是根據人類視角提出的,這意味著計算機伺服器或回形針覆蓋整個銀河系不是好的解決方案。一個具有能力的決策者——特別是能夠通過互聯網連接全球每塊屏幕的智能——可能會對人類產生不可逆轉的影響。幸運的是,這個問題相對比較明確,所以現在就可以開始解決。

常見誤解

  • 超智能機器將變得自發地產生意識、本能地變得邪惡或傷害人類。科幻小說作者通常假定上面這些一個或多個問題來設定機器與人類的對立面,這樣的假設完全是不必要的。

  • 我們人類發展人工智慧系統,那麼為什麼我們要製造出來毀滅自己呢?有一些人類工智能「捍衛者」常常爭辯道因為人類建立了人工智慧系統,那麼完全沒有理由來支持這樣的假設,即我們是在製造一個旨在毀滅人類的機器。這個沒有抓住辯論要點,即哪個是邪惡意圖,在設計者這一邊還是代中間者這一邊,這是存在存亡威脅的先決條件,這個問題也就是錯誤設定了對象。這將永遠不會發生。

19. 為什麼人們會突然對人工智慧如此擔心?

從 2014 年開始,媒體就定期地報道如 Stephen Hawking、 Elon Musk、 Steve Wozniak and Bill Gates 那樣名人的對人工智慧的擔憂。這些報道通常引用那些最絕望話語並省略實質擔心的深層原因,通常就像「什麼是人工智慧現存風險」那樣的問題。在許多情況下,擔憂就是在閱讀 Nick Bostrom 的書籍超智能(*Superintelligence*)之後產生的。另外一些當下關心這個問題的潮流也是因為人工智慧的發展正在加速。這種加速可能是很多因素的集合,包括逐步完善的理論基礎,它連接了很多的人工智慧領域成為一個統一的整體。還有學術實驗室能產出達到能夠應用並解決現實世界的實際問題在人工智慧方向商業投資的急劇增加也作為。

常見誤解

  • 如果人們是擔心超人工智慧就在某個角落,那麼基本上人工智慧研究者很少認為超智能機器就在我們周圍某個角落。這並不暗示著我們應該等著,直到這個問題變得很嚴重!如果我們發現直徑 10 英里的小行星將於 50 年後撞向地球,我們難道能夠不消滅它並聲稱「我們會在五年的時候去關注它」?

20. 人工智慧在接下來的幾十年里會取得怎樣的進步?

這個領域好像並不要求人類級的通用人工智慧能夠達到成熟,而製造一些可信賴的高質量的產品也許在下個十年內有能實現。這就包括了語音識別、從簡單的實際材料中提煉信息、對物體和行為的視覺識別、日常事物的機器人操作和自動駕駛。努力提升質量和擴展文本與視頻的理解系統能製造更強勁的家用機器人,產生更為廣泛有用的機器人,它能展示常識知識系統,一起學習並在遍歷所有形式後表現得更好。還存在獲取和組織科學知識的專業系統,它能管理複雜假說並可能對分子生物學、系統生物學和製藥方面產生重大的影響。我們也許也會看到它在社會科學和政策制定有相同的影響,特別是在給它關於人類活動巨量的機器可讀性數據之後,並如果機器是很可靠有用的,那麼人們同樣也需要機器去理解人類價值。公共和私人知識源,也就是知道和推理真實世界的系統,它不僅僅是數據的倉庫,它會成為社會的組成部分。

21. 什麼是「價值定位(value alignment)」?它有什麼要緊的?

價值定位(Value alignment)就是校準人機關係具體目標價值的任務,所以機器最優選擇大概來說就是無論做什麼都是最大化人類的幸福感。如果沒有價值定位,那麼超脫人類掌控的超智能機器的出現就是不可忽視的風險。

常見誤解

  • 「我們所有需要的就是阿西莫夫定律(Asimov"s laws)」。阿西莫夫定律本質上就是一些條款:它們給人類創造出各種故事情節提供靈感,但是基本對約束機器人沒有什麼有用的信息,因為它沒有更多具體的細節。它們的基本結構為一組規則而不是效用函數,這是很有問題的:它們的詞典式結構(例如任何對人類的傷害是比所有機器人的損害還要嚴格重要地多)意味著沒有給不確定性或權衡留下空間。也許機器人只為了拍死一隻在以後可能叮咬人類的蚊子會跳出懸崖毀滅了自己。另外,它也許會鎖上人類汽車的門,因為坐車會提高人類受傷的可能性。最後,基於最大化人類效用的方法,對於第三條法則是沒有必要的(機器人自我保護),因為機器人不保證自身的存在是不能為人類效用做出貢獻的,還會令其擁有者十分失望。

22. 對於存在主義風險(existential risk),人工智慧社區做了什麼?

許多關於人工智慧的存在主義風險的討論都是處於人工智慧社區主流之外的,它們是從人工智慧研究最初到最主要的反動力。在 2008 年的時候,AAAI(美國人工智慧學會)就舉行了個座談會來討論這個問題。座談會中期報告就指出了存在的一些長期問題,並降低了一些人工智慧對人類社會風險的想法。最近,在 2015 年 1 月 Puerto Rico 由 Future of Life Institute 主辦的會議上,參會者和隨後參加者共六千多人共同簽署了一份公開信,強烈呼籲應該有關注這些風險問題的研究和提出一個更加詳細的研究議程。隨後,Elon Musk 為支持這方面的研究而拿出了 1000 萬美元。另外,Eric Horvitz 已經建立個期望追蹤風險問題並在需要時給出政策建議的長期研究。最後還有 AAAI 也已經建立了一個關注人工智慧影響和倫理問題(Impact of AI and Ethical Issues)的常務委員會。

常見誤解

  • 「規約或控制研究是不可能的」。有些人辯稱沒辦法避免消極後果,因為研究進展是無法停止和規約的。實際上這種聲稱本身就是錯誤的:在 1975 年關於基因重組的阿西洛馬會議(Asilomar Conference)就成功地發起自願活動中止了設計製造人類遺傳性基因修飾,並一直持續成為了國際準則。另外,如果實現人類級的人工智慧研究未加抑制(這個是很可能出現的),那麼在方法上開始謹慎地研究確保人工智慧系統在我們掌控下是十分重要的。

23. 我能做點什麼?

如果你是一個人工智慧研究者(或對這方面感興趣的經濟學家、倫理學家、政治學者、未來主義者和律師),從 2015 年波多黎各會議(Puerto Rico conference)在研究議程中就已經興起了一個主題,即在主要的人工智慧會議上會舉行相應的研討會,比如說 AAAI Fall 和 Spring Symposium series 等等。FHI、CSER、 FLI 和 MIRI 網站都有更多的信息。

常見誤解

  • 「完成這些是沒什麼困難的」。我們不管做什麼都無法改變未來,這些事都終將發生。也沒有什麼能離真相更近一點的,我們不能預測未來,因為我們正在創造未來,這是我們集體的選擇。

    知乎專欄


AI究竟有多智能?Facebook曾在這個夏天因為新聞版塊的問題,陷入了風暴中心。有媒體曝出,Facebook雖然宣稱新聞版塊由AI接管,但背後的操作並不是完全自動化的,而是讓 AI 通過演算法推薦新聞,再由一個審核團隊進行人工審核。這樣一來,Facebook 就節省了一個專業編輯團隊的人工支出。

類似事件的曝光也透露了科技世界的一些秘密:那些以高效、全能、客觀的AI 作為賣點的公司,往往無法做到他們所宣稱的那樣,因為最終,他們總是無可避免地要在操作環節中加入人為操作,而這些人往往都在我們看不見的地方進行工作。

那麼,這些站在AI背後的人究竟是誰?

把視線移至印度班加羅爾,讓我們來認識一下一位叫Kala的母親。Kala是兩個孩子的母親,她經常坐在家中臨時辦公室的電腦前工作。我們的團隊於三個月前,在一個尋找在線臨時工的網站上找到了Kala。平時,她兩個十來歲的兒子會在隔壁房間做作業,她會時不時喊他們到電腦屏幕前,並指著屏幕上的英文問他們:「這在英語里是個不好的詞嗎?」這就是2016年AI後台的樣子。Kala每周都會用很長時間來審查和標記包含不和諧內容的例子。有時她會幫助像Google、Facebook、Twitter和微軟這樣的科技公司,訓練能夠管理在線內容的演算法。

無論是Facebook的熱門話題,Amazon的Alexa,還是其它能響應人類要求的智能機器人,雖然都宣稱是AI驅動的,但都少不了背後的人為操作,這些工作人員被聘請來通過應用編程介面(API),根據接收到的查詢和請求做出回應。這樣的人為操作和AI的結合,能在AI出現問題時起到保障作用,而且這樣的模式在短時間內並不會消失。的確,將人力操作融入在不斷發展的科技中,是從機床的發明以來,就一直存在於自動化發展中的東西。

我們稱之為AI發展的最前沿,也是自動化發展的最終悖論:AI發展的進步,也必將導致勞動力市場的創新和破壞,因為涉及人力的工作將與之前大相徑庭。經濟學家預測,到2033年,技術創新將把30%的全日制職業轉變為可以通過自動化和人力勞動結合,「按需」完成的增強服務。總之,AI將消除一些現有的工作,並重新定義什麼類型的工作最適合人類。這些AI主導的增強服務,由機器人與人類共同操作,旨在提高我們的日常生產力,但同時也為社會帶來了新的挑戰。

很多在AI背後的人為操作,會在AI無法自主作業時,提供幫助和掩護。這些服務背後的一個「黑暗秘密」就是,從FacebookM到YouTube的「自動」消除不和諧視頻功能,其實都是由工作人員在背後進行的網頁清除工作。那麼,那些「自動」回復你抱怨送貨延遲的留言的機器人呢?他們是披著AI外皮的契約勞工。如今,人類和AI的結合服務涵蓋了零售,營銷和客戶服務等領域。事實證明,AI也像人類一樣,在做艱難決定的時候也會很掙扎,不知道什麼樣的內容該被去除,什麼樣的內容該留。

這個故事的重點不是在於Facebook因為啟用了人類編輯而導致新聞帶有偏向性,重點在於,目前AI的發展水平還無法擺脫人類的協助操作,不管是發送新聞還是處理披薩訂單。新聞內容的審核和策劃,從新聞源、搜索結果到判斷內容的爭議性,都需要科技公司和媒體公司聘用相關人員來作出判斷。

這些在AI背後工作的人究竟是誰?他們很多都和Kala一樣,是普通人,拿著特別低的薪資,基本上都是自由職業者,或是供職於臨時的機構,其中很多都不是美國人。科技公司將大量的內容審核工作外包給全世界各地的合同工,他們的培訓、工作環境或編輯決策幾乎沒有任何透明度,這是很罕見的現象。其實,讓人驚異的是,Facebook「編輯團隊」事件過後,用戶們並沒有提出這樣的疑問:社交媒體的內容管理方式是什麼?是誰在操控那些出現在我們的虛擬平台上的新聞內容?

我們團隊利用了兩年時間,來探究這些特殊工作人群的世界,其中內容審查已經成為一個穩定的工作流,大大小小的科技公司的內部操作,都涉及成千上萬個關於什麼內容該刪除或保留的決定。它們需要合同工來訓練演算法,以做出關於內容的一些最關鍵的決定。這是一種應該受到重視的新型就業機會,因為這些人避免了互聯網成為一個充滿垃圾郵件和骯髒信息的地方。公司通常會通過Crowdflower和Amazon Mechanical Turk等眾包平台,或Clickworker等供應商管理系統,來招聘兼職的合同工。

我們需要嚴肅地思考AI操作中的人工介入問題。這類勞動力應該得到培訓,支持和報償,以便讓他們更願意、更有準備地去做好一份,許多人可能會覺得乏味或苦悶的工作。未來的大量工作內容,將遠遠超出熱門話題的編輯處理,並需要人類的創造性努力,以指導AI更快速,更全面和更有效率地運作。首先,我們需要科技公司提高他們的透明度,這些公司在兜售AI產品和服務時,完全避開了其中的人力成分。我們應該倡導這些公司在宣傳和廣告中堅持真相,述明原理。我們需要被告知整個過程中有人力操作的參與,因為我們希望他們的勞動和付出被賦予應有的價值,我么也希望能進一步了解他們在訓練、支持AI系統時是如何作出決定的,特別是當他們的工作內容與公眾利益相關時。

作為消費者,我們有權知道提供給我們新聞資源的AI是由什麼組成的,它們的工作流程是怎樣的,就像我們有權知道,每天給家人吃的是什麼材料做的食物一樣。作為公民,我們需要知道我們接收的信息來自哪裡。以及,作為人類,在人類為現實或虛擬的商品在工作時,也需要得到認可。這些在全世界各地勤奮工作著的人們不能被忽視或隱藏。正如我們需要公司對生產我們的食品、衣服和計算機的勞動和生產者負責,我們也需要公司對消費者,和生產及決定數字媒體內容的工作者負責。

來源:Harvard Business Review

編譯:Agnes Pan


最大的誤區,是被第三方媒體炒成了玄學。所以試著回答一下幾個問題:

人工智慧究竟是什麼?

人工智慧來了還要不要做APP?

為何人工智慧越發展,人性越重要?

為何看好蘋果的人工智慧?

人工智慧世界,手機市場還有機會嗎?

————————————————————

人工智慧聽上去有點小眾,但是,要知道,人工智慧就像互聯網一樣來了,擋也擋不住。不知道人工智慧,小心被淘汰。

不過現在市場上,也有個不好的現象,就是把人工智慧當成了不明覺厲的玄學。所以,你千萬別被媒體上熱炒的人工智慧誤導。因為跑偏了。

這裡分享十條我對技術和人工智慧的一些看法。

1

技術為何比內容重要?

這是了解人工智慧的背景。

在社交平台上,我發過的內容中,最多被點贊的就是有關趨勢預測的。尤其是O2O、共享經濟、內容創業等等一波波大潮湧現,越來越多人希望在大眾創業中保持浪尖,至少不被淘汰。但要注意,其中有不少模式和公司就是吹起來的風,你根本沒必要去追。

要知道,在創新領域中,技術才是原動力,商業模式是導火索。內容更像錦上添花的加速器。任何誇大內容和創意的公司都不會長久,當然任何輕視內容的公司也不會開花。

2

還做APP真的沒戲嗎?

人工智慧來了,去做APP還有機會嗎?最近我把這個問題問了無數的人。得出的看法不太相同。

我個人感覺這個問題的答案取決於人的認知。包括在國內,我甚至問了一些投資人,他們很多人不太看好。確實,如果拿過去互聯網的模式和流量模式,確實成本越來越高,非常難。上周去美國,我卻能感受到,開發APP遠遠沒有過時。從技術的維度上將,過去的APP流量模式只是其中一種。

創意和想像力,才是根本,尤其是尊崇人性的創意。所以APP還有機會,而且很大,而且基於不同的標籤和愛好的社群才剛剛形成。

所以,前提兩個:一懂技術趨勢,二懂人性。

3

之前說的人性真的重要嗎?

一定是。技術越發展越尊重人性。這一點好無質疑。

去讀點人性的書,可能比預測風口更重要。

4

人工智慧究竟是什麼?

人工智慧是好東西。真的。

我們看報道中,有很多內容你一定覺得它高深莫測,比如神經網路,比如人工智慧。

問題就在於,是媒體和傳播出現了問題。技術本身沒有必要懂,但他可以改變生活的方方面面。而我們的傳播,更多是精英主義,或者外圍人員,也非常擅長把一個並沒那麼複雜的事情搞的非常複雜化。

如果傳媒信息沒有太多有效信息,那去哪裡了解人工智慧?這次開發者大會給我更深的體會就是,如果有條件買一些科技產品,然後去體會它的細節。體會的時候,別管什麼是人工智慧,去看你的生活因為這些技術發生了什麼樣的變化。

當然我是果粉,我會鼓勵購買蘋果產品。

5

除了蘋果,其它產品不行嗎?

也行。但是蘋果產品一定是一個最好的把科技和生活結合在一起的產物。

技術是為生活服務的,別把技術想的高深莫測,搞技術的也別自嗨。

像蘋果一樣,儘管在人工智慧領域取得了很大的進步,但整場發布會都不是源於人工智慧本身,而是源於生活。

6

那究竟什麼是人工智慧?

就是從現在開始你周邊發生的一切細小的變化。包括系統為你專門推薦的廣告,包括你打開手機用地圖,包括你去銀行開個銀行卡,包括你去超市購物。如果你正在用互聯網和手機,如果你沒有生活在原始世界中,那麼人工智慧就會在你身邊。

你逃不掉。

7

創業去做人工智慧好不好?

這個問題我回答的不太好。

我問了很多相關業內人士。他們都是這樣回答我:對於小公司來說最好去抱一個大腿。

如果蘋果谷歌亞馬遜太遠的話,那你可以去試圖抱BANT們。N是什麼?網易。因為隱約感覺BAT陣營可能會在發生著變化,即便baidu一直希望以人工智慧作為標籤。

8

為什麼你加上了網易?

不是因為網易給了我錢。事實也沒有。我說網易,是因為它很具備代表性。網易是BANT里最懂未來那麼一撥有調調的一個大公司。

9

智能手機市場還有機會嗎?

我覺得懸。但是對於這個答案我不看隨便下結論。但我知道我一定不會跳去一個單純做智能手機的公司。一是我對硬體那些不懂,用戶對硬體那些也不懂。二是一個已經成定性的市場,想像力可能不足。

人得有點想像力,不然生活多麼無趣。

10

你為什麼作出以上的判斷?

這些都是我的個人判斷,完全不代表行業發展。

所以可能不對,但更可能是對的。但,我對自己的第八感稍微有點信心。

多讀點書,少跟點風。保持內心的清醒,比吐槽混沌的世界更有意義。

以上。

我是「希望讓未來充滿想像力」的傳播小師傅,微信公眾號:san_3qur

———— 關注 商業 | 品牌 | 內容 ————


說這麼幾個觀點吧:

1. AI行業的發展不是天就是地:要麼一路凱歌奇點來臨,要麼泡沫破滅回到解放前。其實往往兩者都不是。任何一個行業的發展都是既有高速發展期也有瓶頸期的,起起落落更多是人們心裡的期望問題。

2. 人工智慧一定是模仿人類。其實AI=artificial intelligence,並沒有humanlike之意,無非是讓機器通過過往經驗獲得處理開放性問題的能力而已。

3. 現在行業有泡沫很危險。的確行業存在泡沫,但沒有泡沫的行業就如同沒有泡沫的啤酒一般寡然無味。一個行業沒有泡沫說明大家對它沒有期望與想像,也就很難有活力。

4. 一旦泡沫破裂就會回到解放前。就算行業有泡沫且泡沫破裂了,已經落地的科研成果應用依然會存在。比如公安用了人臉識別系統提升了效率,不會因為輿論的倒戈而回到原先人眼看的方法。

5. 僅僅依靠nb的科學家決定一切。nb的科學家對AI行業的貢獻非常之大,但如果要使技術落地應用,還需要好的場景以及一系列的工程優化。相應的也就需要優秀的產品經理與工程技術人才。


很多人對人工智慧的一個可能的最大誤區應該是不知道人工智慧會開始於並長期處於人工傻逼的階段。


最近 [人工智慧] 這個詞幾乎掛在每個人的嘴邊,時髦得不行不行的,似乎你不提一嘴人工智慧,就會被鄙視。

那天聽一位同事說,他去拜訪一個朋友,這位朋友說:「誒,讓你看看我們公司新引進的人工智慧系統。」

於是帶他走到一台印表機前。「你看,我只要在這兒刷一下身份證,和我相關的資料就會出現在屏幕上,我只要一點,就能直接列印。」

「還有別的功能嗎?」

「沒了。」

「這也叫人工智慧?」

「不是嗎?」

我沒有笑話這位朋友的意思,確實也不能完全怪他。

現在只要稍微有點自動化的商品,都會被商家冠以「智能」的名頭。

加上「人工」二字,在很多人看來意思似乎也沒多少變化。

在「智能」這個詞被用濫了的今天,人工智慧也不可避免地成了犧牲品。

那人工智慧究竟是什麼?

首先聲明,我不是人工智慧專家,但在劍橋讀博的時候用過一些機器學習演算法,個人也比較感興趣,所以略知一二。

其次,人工智慧並沒有一個很明確的定義和範圍,我只是在嘗試用直白的語言來解釋下什麼樣的「智能」才可以被叫做「人工智慧」,希望給這個詞還個清白。

人工智慧是由英文 artificial intelligence 直譯過來的。

其中,artificial 的意思是非自然發生的,由人類刻意製作的。

Intelligence 在這裡的意思是智力,而且特指人類所獨有的理解力、分析力等智力。

所以,人工智慧最直接的解釋,就是人造的人類智力,也就是用機器來模擬人的思維方式

這裡我們就會有疑問了:那怎麼定義人的思維,或者說人類的智力呢?

這裡的人類智力是相對於機器而言的,所以我們就有必要來比較一下在有人工智慧之前,機器解決問題的方法和人類大腦解決問題的方法的最大區別。

而這個區別,簡單來說就是會不會「自學」

懂一點編程的朋友都知道,一般情況下,要讓機器解決問題,就要給它明確的方法和步驟。

如果發生A,那就做B,否則就做C。

你絕對不能給它模糊的指令。

比如,你不能跟機器說:

如果發生A,那就做B,否則的話,C和D都行,你看著哪個更順眼一些就成。

這樣機器會「機格分裂」,患上選擇綜合症,無法繼續下去。

但是你可以告訴它一系列判斷C和D哪個「更順眼」的方法,並且提供相應數據,這樣機器就可以做出判斷,而且保證100%正確率。

但人的思維不是這樣的。

人可以把模糊的信息和標準綜合起來做出判斷。

比如說,你拿出一個紅蘋果,告訴孩子這是蘋果。

下次你拿出一個綠蘋果,告訴孩子這也是蘋果。

再下次,你拿出一個粉撲撲的蘋果,告訴她這也是蘋果。

如此反覆幾次,孩子再看到蘋果,就會知道這是蘋果。

你不用告訴她蘋果需要具備哪10個特徵才是蘋果,也不用告訴她桃子和蘋果究竟有什麼區別。她自己能夠總結規律,學習如何判斷。

但是傳統的機器思維就不可以這樣做。

這就是為什麼圖像識別對人來說簡單得不能再簡單,而對機器來說,就是一個很大的難題。

要從千姿百態的照片中辨識出一隻貓,人只要瞄一眼就可以,但機器要對照片裏海量的像素信息進行一大堆分析,才能得出結論,而且不一定對。

因為判斷一張照片里是否有貓,沒有一套特定的規則。

所以人的思維優勢在於,通過模糊的信息來學習事物的特徵,並且運用學到的東西做出判斷或解決問題。

機器的優勢,則在於計算速度和精確度。

那既然人和機器的「思維」方式如此不同,如何讓機器來模仿人的思維方式呢?

傳統的編程是一種線性模式,由一條縝密的邏輯貫穿到底。

但是人類的思維是網狀的。成年人的大腦里有大約860億個神經細胞。

每個神經細胞都和其它神經細胞有多達15000個連接,這些連接由每個神經細胞上伸出來的叫「突觸」的結構來建立。

所以你看我們的大腦,其實就是一張密密麻麻的網。

要讓機器像人一樣思考和學習,就要讓機器也建立這樣的網路。

於是,就有了我們聽到的「神經網路」這樣一種演算法,目的是通過模擬人類大腦神經網路的結構來達到讓機器自主學習的目的。

也就是說,你扔給機器1萬張圖片,告訴它每張圖片上都有一隻貓,但是不告訴它貓是什麼,讓機器自己去學習如何分辨出圖片中的貓。你給它的圖片越多,它學得越好,學會了之後,判斷得就越準確。

這就是一種人工智慧。神經網路演算法有很多種,而且還在不斷改進更新,這裡就不展開了。

那是不是有了神經網路,機器就可以和人一樣思考了呢?

沒有那麼簡單。我們目前對人類大腦究竟如何運作的認識還很淺,更別提造出能和人類大腦一樣的機器了。

不過科學家在朝著這個方向努力,最終應該是會實現的。

但我們並不是要達到那一步才能實現人工智慧在生活和生產中的應用。

人工智慧可以分為兩種:

1. 弱人工智慧(weak AI)或者叫窄人工智慧(narrow AI)

2. 強人工智慧(strong AI)或者叫泛人工智慧(general AI)

前者是指只能夠解決一類問題的人工智慧,而後者則可以達到人類大腦所具有的全部智力。

目前我們所見到的人工智慧都是弱人工智慧,因為還沒有人能夠做出強人工智慧。

弱人工智慧也被稱作「應用型人工智慧」,因為這種人工智慧是為了滿足我們人類在某一個領域的需求而開發的。

剛才我們提到,機器的優勢是強大的計算能力,也就是在很短的時間內處理大量數據的能力。

這種計算能力隨著計算機硬體的發展一直在不斷地提高。這種優勢和神經網路結合,就能在某個領域達到超越人類大腦的智能水平。

機器不會犯錯誤,不會疲倦,不會被情緒和外界環境所打擾,而這些都是人類不可能達到的。

所以AlphaGo以3:0完勝世界棋王柯潔也就不足為奇了。

人類的智力雖然強大,但卻是不完美的。

然而機器卻可以不知疲倦地搜索數據,優化路徑,每一次都計算出最佳的一步棋,幾乎不可能有失誤。

最後一盤棋,柯潔大概是受了情緒的影響,狀態也不是最佳,於是有了失誤。

然而機器卻一如既往計算出最佳路徑,而且已經通過前兩盤棋又進步了。

柯潔說他下棋的時候很緊張,後來忍不住哽咽,但是AlphaGo卻沒有任何感情,依舊每一步都下出完美的一子。

我們不免心疼柯潔,但是這位人類中的奇才完全沒有必要感傷。

人類下棋的目的是什麼?

是為了挑戰自身的極限,是為了每一局棋的不確定帶來的興奮,是為了和他人建立情感連接。

棋局中的不完美和無法避免的失誤使看棋者津津有味地看,使下棋者樂此不疲地下。

如果每一步棋都是絕對完美的,

那下棋還有意義嗎?

棋,終究還是要人與人下的。

就像人和汽車賽跑沒有意義一樣,人和機器比圍棋,也只是證明了人類科技發展的又一個重要里程碑,僅此而已。

但人工智慧對人類社會的真正影響並不是在下棋上。

我們需要擔心的,也不是AlphaGo的棋比世界冠軍都下得好。

人工智慧在產業中的應用,必然會改變人類的生活和生產方式。

從好的方面說:人工智慧會成為人類的得力助手,幫助我們干一些我們做不好的事,或者讓我們某些事做得更好。

從不好的方面講:人工智慧將會取代一部分人的技能,這意味著,這些人需要學習新的技能,才能有錢賺。

但我們也沒必要恐慌和擔憂。

畢竟,人工智慧也是人類創造出來的,我們自身的進步,總能比我們創造的技術快。

技術幫助人類,同時也給人類以更大的挑戰和鞭策。

而你和我能做的,就是不斷學習,不斷更新自身的能力,才能永遠走在技術的前面,不被技術打敗。


最大的誤區,來自人類對人工智慧的錯誤態度,錯把人工智慧視作對手。

圍棋界還未能從去年3月 AlphaGo 戰勝李世石的陰影中走出來,Master的60連勝則徹底擊垮了人類圍棋界的自尊和希望。

圍棋高手紛紛開始自我懷疑和反思。

圍棋愛好者更是感到挫敗和絕望。

一時間,人類似乎被人工智慧打垮,打的一無是處,跪地認輸。

【 然而,有沒有想過,在人工智慧與人類的智力大戰中,人類根本毫無勝算。】

稍微了解 AI 的人都知道,人工智慧程序是基於深度學習能力掌握下棋技巧的。在與人類棋手對決之前,Master 及其前身 AlphaGo 已經分析了上萬局經典棋局,學習了頂尖人類高手的運棋思維,甚至在本次六十連勝的同時,它也在學習對手的棋步。

此外,人工智慧還有一個人類無法企及的能力:機器永遠不會犯錯。

因此在面對這樣一位博聞強識、謙遜好學、永不失誤的「可畏後生」時,人類的肉體凡胎豈有不敗之理?

興許,在未來,可能有位曠世奇才一舉拿下 AI 棋手,但只要再來一局,人工智慧就會用它剛剛學來的人類的棋術反攻人類。

不得不承認這個不幸的事實,在智力競賽中,人類根本沒有獲勝的希望。

有人提議,可以聚集一眾圍棋高手,與人工智慧酣戰,興許人多力量大,總會有機會。

【 可不妨想想,這種單純以勝利為目的對決不叫競賽,而叫戰爭。】

【一個極壞的可能——人類把人工智慧當做了對手。】

然而,人類創造人工智慧的初衷是協助自己,並非製造一個假想敵。

【就像人類馴服了狗之後,又何必與狗比拼嗅覺呢?】

而在不久的未來,人工智慧會自我迭代,以指數級的速度自我超越。科學家預測的奇點來臨,人工智慧將超越人腦。那時不只是圍棋,人工智慧將在科技、醫學、文藝等一切智力領域完成全面超越。

打個比方,就像如今人類與猩猩的智力對比。

到那時,人類將如何與之競賽?

當前,人類社會在人工智慧的前景上還未達成共識,有人認為未來 AI 會協助人類,有人則擔心 AI 會奴役人類。但不管怎樣,科技的車輪只能向前行進,人工智慧全面超車的日子總會到來。

所以,人類現在應該做的,不是沉浸在挫敗感之中,也不是試圖找出人工智慧的弱點並伺機打敗,這毫無意義。而是應該靜下來想一想,如何優化人工智慧與人類的溝通合作機制,如何達成一種契約或規則,以求兩者在未來地球上過幸福的同居生活。

轉自微信公眾號"反思潮",有刪節。

http://weixin.qq.com/r/gjoSCibEAXt_rWJp92_Q (二維碼自動識別)


相信機器還是相信人,在題主問這個問題的時候其實內心已經有了答案。

能不能放心的把錢交給機器人管理?從投資的角度來看當然沒問題,比特幣剛出來的時候多少人不看好,現在不也漲過1000多美金了,當然這件事有一定風險,此處重點在於想要告訴題主需對新事物保持關注和了解並在有條件時做一定比例的投資才是理性的做法,而不是在沒有完全搞明白事情之前就粗魯的把它拒之門外。

各投資機構在投資前做出的投資模型、數據報表,很多都是基於計算機去做的。人在決策中的角色就是把量化信息(財務報表、營收情況等)和質化信息(政策趨勢等)結合,調整二者權重並做出決策。所以,機器早就已經在影響著我們的投資決策了,題主的擔心沒有什麼意義。那麼機器做投資相對於人來說有什麼特點呢。第一點:機器比人更理性,機器不會受到個 價值判斷、情緒等因素影響。第二點:機器信息處理速度比人要快,人的決策需要基於各類信息的綜合,信息搜集和權衡的效率相比機器是很低的。在面對需要批量處理的信息時機器早就超過人類了。機器對交易的趨勢和交易信息分析更迅速。

投資的本意是要實現財富的保值增值,但現實的情況是,不管你有沒有用機器去管理你的財富,它都面臨貶值的風險。面對滿世界數不清的投資機會,你只有一次選擇的機會,賠了就是賠了,賺了就是賺了,沒有反悔的機會。而在這些機會裡,你有很多選擇,但有一點是不變的,選擇機器去管理投資是人做出的選擇,選擇人本身去管理投資也是人做出的選擇。因此,問題不在於哪個手段更好,而在於做出決策的是你還是你老婆。

以上!

最後科普一個小知識,點擊一下收藏、分享和關注真的會漲姿勢,不信你試試(鬼臉,就是這麼不嚴肅)!


Haykin的機器學習裡面明確說了:「神經網路只是一種高級複雜運算量巨大的參數估計」,目前人類還搞不清楚自己的智能何來……


最大的誤區,也就是題主所認為的

人工智慧==機器


@深海鹹魚王 同意深海鹹魚王的回答,人工智慧≠機器。

是不是覺得人工智慧就是機器了,泥萌太天真了,講個故事。

本人在閑魚(其實就是二手淘寶)上售賣自家的限制產品換錢,有天出售自己的諾基亞時,一位哥們私信我說,擔心我的信譽不好,邀請我開通閑魚號,正好我也有這意向,因為必須要開通了閑魚號才能查看關注自己的人。於是我就申請開通了。

這裡要說明下,我一直用的是我媽的淘寶賬號(都是馬雲家的)。

申請開通時提示我要掃臉,我媽正巧不在家,我把臉湊到鏡頭前,提示掃好了。。結果提示我。。。需要一天以後才能出結果。。。

嗯,這就是人工


其實我們不是這滾滾歷史中的第一波瘋狂者, 在20世紀火過兩次也死過兩次。

如果要說最大的誤區,我想應該是大家只描述了這一波人工智慧的美好而無視了之前兩次的屍體吧。

來一波20世紀的屍體視頻 :

http://v.youku.com/v_show/id_XMjgwNDQ0ODE4MA==.html


阿法狗打贏李世石後李世石失業沒有?沒有吧?人類研究人工智慧是用來為人類服務的,並不是用來取代人類的,至少現在的主流觀念是這樣。如果阿法狗打敗人類有前景,觸發的不是李世石失業,而是更多的人工智慧的研究,目標就是趕超阿法狗,這樣的博弈你不能說是人工智慧的博弈,而是人類的博弈。同樣的若是金融業有阿法狗,觸發的不是分析師的失業,而是金融業阿法狗背後的人類的博弈。說到底,現階段的人工智慧不會取代人類,而是引發新一輪的人工智慧研究的爆發


有一個問題一直在困惑自己,講講自己的理解,可能是錯的,望指教。 為什麼電腦可以輕鬆的算出十幾位的乘除法,卻很難識別一張圖片。因為電腦的最初設計就是為了計算,而不是人工智慧。所以,到後來所有的處理,圖像,聲音都會解碼到最基本的基本運算層面。人,就沒那麼傻,先要把圖片換成基本演算法,再去判斷內容。


股市是人性的表達,AI何來人性


關於人工智慧確實是未來的一個方向,但是最終人工智慧是為人類來服務的。現在的一些智能投顧主要提供的一種數據搜集,分析與整理加工等,形成可視化的決策樹。這對金融投資是非常有幫助的,關於把錢交給機器人去打理,現在沒辦法做到。現在的人工智慧是人類的輔助工具,未來也是。最終的決策權還在於人。


現在的人工智慧都還在局限於計算能力。說白了一個公司或一個人工智慧演算法的比拼,不是說這個演算法多智能,而是計算的多快,計算的快, 就能夠在有限的資源內對固定模型進行跟多的迭代。或者計算更複雜的模型。此外,人工智慧現在的智能來源為人類行為產生的數據,而這些數據所表達的內容,或者說可以表達的背後規則十分簡陋,只能是幫助人在某個具體問題上做快速的重複的計算而已。


感覺互聯網小公司對於人工智慧的最大的誤區就是以為人工智慧可以拯救一切。

某些項目,明明連基本的架構/定位/數據都沒有弄好,然後就上機器學習,以為機器學習可以搞定一切。

還有很多公司甚至認為,做一個行業只要幾百台機器,一部分負責行業相關網站多層遍歷爬取,一部分負責存儲與機器學習就可以了。。。連數據是什麼都沒怎麼看,隨便套個行業常用演算法,覺得不出異常,演算法就會自動收斂到一個很好的結果,然後各種賺錢,各種上市發財了。。。

行業的基本情況都不了解,數據的基本情況都不看,以為幾個統計數字就可以說明一切,以為幾個常見人工智慧演算法就是萬能葯,以為數據夠大(大數據嘛)就能自動得出牛b的結果

誒,這種人真勸不動,勸不動。


人工智慧是大潮流、大方向,而事實上能夠具備深度學習條件集大成於一體的AI距離我們還相當遙遠,科學家在沒有攻破一個問題之前——意識如何產生,強人工智慧根本無從談起。

很多科幻作品裡「人類被人工智慧統治」的橋段只能說腦洞大開,基於目前的科技技術,我們對人工智慧完全有控制能力,如果超出強行限制範圍的命令,即使AI有意識也不會被執行,因為這是被寫死在AI程序里的。

所以說,人工智慧只能為我們的生活帶來越來越多的便利。

那麼問題又來了,霍金、比爾?蓋茨、馬斯克等名人都在向人們預警,要敬畏人工智慧的崛起,警惕人工智慧帶來的人類社會變革,這樣的言論是謠言嗎?

好吧,讓我們看看比爾·蓋茨是誰——微軟創始人,他算是人工智慧領域的專家嗎?我們為什麼要相信一個退休搞慈善的企業家關於AI的言論;馬斯克是誰呢?斯坦福應用物理博士,他跟人工智慧有神馬關係;霍金又是誰呢?他不是搞天體物理的嘛,應該這輩子都沒碰過人工智慧的事兒吧。

假如有一天,人工智慧真的具備深度思考,擁有了意識,突破了奇點甚至想要導致人類滅絕,我們不是還能像科幻電影里演的那樣,把電源毀了就好呀......

關注」科技必達」微信搜索 weixinbida關注我呦


人工智慧行業精選研究報告分享

百度網盤鏈接:鏈接: https://pan.baidu.com/s/1geBQxLx 密碼: d7d3


推薦閱讀:

如何評價人工智慧撰寫的同人小說《哈利·波特與看起來像一大坨灰燼的肖像》?
如何評價 Elon Musk 啟動的 OpenAI 項目?
中文房間思想實驗是什麼?它是否成功地否決了圖靈測試的有效性?
如何自學人工智慧?

TAG:人工智慧 | 數據分析 |