目前世界上有對強人工智慧的嘗試嗎?具體瓶頸是什麼?
如題。
早就想系統的寫一篇相關的文章,今天正好借題發揮下。
重要假定:假定題目中所說的「強人工智慧」即具備類似人類智慧的能力。
一、先來說說目前熱門的深度學習和強化學習的進展以及各自的瓶頸。
1、深度學習目前現狀:
先說進展:深度學習經歷了三起二落,目前處在第三次研究高潮(後期?前期?正高潮?沒人知道),本次興起與互聯網流行產生的大量標籤數據、硬體計算能力的提高有著密不可分的關係,但其應用的演算法技術基礎仍然是基於誤差的反向傳播,但相比之前的研究,越來越多人在超參數調優方面做出了傑出的貢獻,在網路模型的搭建上也開始進行一些突破性的嘗試,比如GAN;同時也有研究人員開始關注神經網路黑盒子里的隱藏層具體表示的特徵,並對其進行理論研究。這些都是非常有意義的工作,也取得了重大進展。像各種CNN網路,具備記憶功能的RNN在圖像處理、語音處理、自然語言處理等領域取得了不少的進步,有些已經形成工業級應用。
再說困局:這要看如何定義「深度學習」了。如果把「深度學習」定義為」使用單個具備深層隱藏層,基於誤差反向傳播的神經網路來進行學習」的話,這樣的深度學習永遠只有特徵檢測的能力,不會具備智能。如果把」深度學習「定義為」使用具備深層隱藏層,不同連接結構的神經網路來進行學習」的話,那麼這樣的「深度學習」則不再是狹義上的神經網路,而是基於神經網路的網路,這樣的深度學習是否具備智能學習能力我還是很期待的。
如何破局:當前沒有人能夠確切知道如何破局,但一個可能的方向是,組建基於「神經網路」的神經網路。說起來簡單,做起來難,如何訓練單個神經網路? 這個要繼續想人類如何學習知識來取經了,下文會再次提及這一點。
2、強化學習的現狀
先說進展:強化學習是一門很早就有的學科,在各個領域有不同的名字,其根本是借鑒了人類初級神經系統中的條件反射機制和高級神經系統的獎勵機制而誕生的。這門學科有一個重要的根基性假設,即:希望具有智能的個體總是在與環境打交道過程中試圖獲取最大化的累積獎勵。」 強化學習之所以最近幾年被重視,其原因大家都懂得。同時其與深度學習結合帶來的深度強化學習又是熱點中的熱點。
再說困局:從近期DeepMind公布宣布在星際爭霸2研究平台訓練智能個體進展不佳來看,其距離實現強人工智慧還是有比較遠的距離。個人覺得其主要原因在於它缺少了人類特有的對知識的吸收再分析以及在此基礎上的靈活決策能力。
如何破局:沒有人知道強化學習能走多遠。單靠(深度)強化學習是不夠的。可能的方向有,不基於獎勵,基於別的因素(比如:能量最省、和諧?只能瞎說了)的學習模式。同樣需要再次向人類的智慧取取經。
3、RNN和CNN
其實不應該把RNN和CNN單列出來講,他們是屬於DNN裡面的,但是把他們列出來說明這兩類網路極其重要,特別是RNN。大家可以看到單靠傳統的DNN網路幾乎沒有非常有意義的實際突破和應用(數據壓縮和還原?)。但基於RNN和CNN的還是有很多亮點的。我要從神經科學領域來解釋了。RNN受到了人類神經元具備記憶狀態功能的啟發,這可是一個不小的突破。可能有人知道一門學科叫「計算神經科學」,該領域的科研人員研究的就是如何去建立真正能模擬神經元功能的計算機模型,但是很不幸,與我們的DL大牛比起來,他們幾乎沒任何有意義的亮點和實際應用。究其原因,我個人認為,計算神經學家要找的神經元模型就是DL大牛們發明的LSTM結構中的一個神經元單元,只不過LSTM中的神經元單元是用各種門機制來模擬神經元脈衝衝動的,有興趣的人可以去可視化一個LSTM結構中的神經元狀態隨時間按步長的曲線,看看是不是像脈衝特徵(我沒有做過類似實驗,但是直覺告訴我是這樣)。再說說CNN。CNN的靈感來自於我從事的領域視覺系統的感受野。這種在空間上具備卷積功能使得CNN網路可以從變化多端的輸入中尋找不變的特徵。也是很牛的,但它仍然只是初步的特徵檢測。最近有人用CNN來代替RNN研究時序數據的分析,認為CNN可以做RNN做的事情,我覺得這樣的研究意義不大,為什麼? RNN理論上能持續接受無限時間步長的數據,可以持續接受數據,對應的就是CNN接受的輸入數據特徵數是動態而且不限上限的,你CNN行嗎?我能理解的CNN只能先把整體時序數據(從開始到結束)確定下來,再送入網路處理。還有人眼可不只是只看靜態圖片,而是看動態的視頻的。解決視頻檢測我個人看要依靠CNN+RNN,當前的計算能力是否能滿足大量數據的訓練任務,我不清楚。
二、再來從宏觀整體層面講講強人工智慧為什麼那麼難以及可能的方向。
1.目前大多數的深度學習網路沒能突破「特徵檢測」這個範疇
我個人覺得目前任何的深度學習網路(不包括強化學習)其實只是模擬了人類複雜神經系統中的感覺系統,離具備決策功能的大腦還差得遠。為什麼這麼說?幾乎所有的深度學習網路最後的目的都歸於一個分類器,用來進行簡單的決策。這偏離了深度學習的精髓。深度學習的精髓是什麼?我認為是特徵的層級表示和提取。最有用的信息其實不是最後的分類機器輸出結果,而是運行中間得到的特徵,輸出層也要從特徵的角度去看待,我們要用這些特徵把他們送入別的神經網路。我們應該化大力氣研究這些特徵,以及想辦法去用好這些特徵。為什麼我把強化學習排除在外,深度強化學習在使用DNN上,利用的就是它的網路的特徵(儘管是輸出層)。
2.知識可能是通過DNN中的權重表示的,而且該網路是可以訓練的,需要監督數據
其次知識的網路表示。知識是什麼,如何在腦中存儲和提取?目前沒有人知道。我個人的猜想是知識是以網路表示的。網路的輸入是別的網路的輸出,網路的輸出又形成了別的網路的輸入。知識表現成網路內層間連接的權重。這樣的網路不必很深,可能三-六層就夠了(人腦皮質就6層),可以有跨層鏈接)。每一個這樣的網路解決某一個小領域的知識表達推理過程。舉個例子來說吧,目前的機器閱讀理解大多數是這樣來工作的:希望通過一個整體的網路來解決問題,上下文和問題作為網路的輸入,輸出是某個詞是對應的答案的幾率。不可厚非這樣的網路已經能回答不少問題,但是還是達不到工業級的水準。有待於繼續研究。我覺得還得從人的學習經歷找靈感。我們來看看每一個人在嬰幼兒期如何學習知識、理解並回答問題的。首先嬰兒在一開始不會說話,他只會聽。他要做的第一件事情就是把聽到的複述出來,這就相當於去設計一個雙層的RNN來完成一個自編碼器功能,一個負責聽,一個負責複述,用輸出等於輸入來進行自編碼。當一個嬰兒開始能把聽到的大多數詞、話複述出來的時候,他就不滿足複述,會和大人互動。有時候大人問一個問題,他給出回答,一開始可能大多數是錯誤的。那我們大人要給他糾正。這就相當於把之前訓練好的兩個RNN拆開來(但鎖定他們的權重),在他們中間插入一個神經網路專門用來訓練問答,這個問答過程中,嬰兒可以不懂問答的含義。關鍵在於這個新插入的DNN網路經過監督訓練完成了從問題(文本序列)到回答(文本序列)的正確轉換。到這個時候就訓練好了兩個網路了。那麼如何體現知識和推理呢?我們把第一個負責接收信息的RNN的輸出提取出來,這個輸出有什麼意義?它是一個特徵,什麼特徵?一個詞、一句話、甚至幾句話的特徵表示。我們把這個特徵再送入一個網路,這個網路的輸出用來表示我接受表示這句話的輸入特徵的幾率。可以設定:網路輸出為1,表示我強烈認同剛才聽到的話所表示的世界知識;輸出為-1表示強烈反對;輸出為0可以表示不具備相關的判別能力。然後我們給出「世界知識」作為監督來訓練這個小網路。訓練好了之後,我們暫時不用該網路隱藏層到輸出層的權重和輸出結果,我們只去用這個網路的隱藏層。隱藏層具備什麼意義?它仍然是特徵,從RNN的輸出到這個隱藏層的變換表示了我具備的知識,把這個特徵聯同第一個負責接受文本(或語音)序列的RNN輸出合併起來,作為我們訓練問答系統網路的輸入,鎖定訓練好的部分權重,開始利用知識進行問答的網路訓練。當然在這個網路中你還可以增加一些其他輸入數據:比如情感特徵、幽默程度特徵等(永遠記住特徵就是網路的隱藏層,是另一個網路通過自編碼或監督訓練得到的)來提供不一樣的回答。這樣的問答系統,我認為可以直接輸出問題的答案,而不去判斷某個詞是正確答案的幾率。我們從小學習知識也是這麼學的。如果哪位DL牛人搭建了這樣的網路並取得積極進展,我祝賀他,能給我署個名就最好了啊。下圖是個概念圖。
3.人類大腦仍然是個謎
最後,我再從物種差異及神經科學角度來講一下大腦皮質到底是用來幹什麼的。人類區別於其他動物具備智慧最主要的是具備了豐富的大腦(端腦)組織。人腦的結構中還有丘腦、腦幹、小腦、脊髓及外周神經纖維等。外周神經纖維負責從外界接受信號和輸出信號給效應器官(肌肉,負責運動,進而表現出說話,行走),脊髓完成基本的條件反射和把複雜信號向腦幹、丘腦、端腦傳達。當你手指碰到火的時候不經大腦思考就把手撤回來使用的僅僅就是脊髓水平的條件反射,信號都沒有經過腦幹。腦幹負責維持人的基本生命活動(心跳、呼吸等),位於後腦勺,因此打人千萬不要打後腦勺,摔倒儘可能避免後仰著地;小腦負責平衡(是否近期發現還有其他功能我不清楚)。我重點要說的是丘腦。丘腦基本是被大腦包裹著的,所有從脊髓、人面部的眼、而、鼻等感覺器官傳來的信息都要經過丘腦,可以說人沒有大腦,不會失去生命(大腦損傷死亡最主要的原因是失血,或由出血引起顱內壓增高壓迫腦幹生命中樞而導致),但是會發生認知和行為障礙。我這麼說是想強調任何動物的丘腦基本都是一樣的,不是產生智慧的地方。而大(端)腦才是。端腦如何產生智慧?個人猜想在大腦里存在一條特徵信息匯流排,類似於計算機的數據匯流排。每一個皮質柱單元相當於一個我剛才說的決策網路,信息會被並行的送入所有(經訓練後,會選擇性)的皮質柱,皮質柱內部的網路根據自身的特點決定是否響應以及如何響應。然後大量皮質柱整體的決策類似於個經驗概率選擇或者是另外一個專門的網路來負責,進而產生高級智慧活動。關於大腦部分純屬個人猜測,不準確程度較大,僅供參考。
三、總結下:
1、強人工智慧還很遠
2、要強調利用神經網路的隱藏層特徵而不是分類器輸出
3、要把研究重點放在搭建不同架構的網路模型及組合網路模型上,調參的事情在目前看來已經不那麼重要了
4、知識可能是以神經網路的形式存儲的。張量變換過程很可能就是基於知識的推理決策過程
5、不要一口氣吃一個大胖子,不要總想著無監督訓練。監督訓練是必要的;分布訓練小網路,鎖定訓練好的參數再在聯合別的網路繼續訓練。
6、不要給簡單的DNN太多的負擔,總希望一個網路從頭走到尾就能解決所有問題,不可能。DNN已經很厲害了,至少會利用誤差的反向傳播在較短時間內精確調整參數。人類的神經系統權重如何調整的還不清楚,有些需要很多年。不過我比較傾向於認為:對應CNN里的權重參數,在人類視覺系統中不是後天訓練得來的,是長期進化已經能從DNA直接獲取的了。
7、要繼續從神經科學取經,單純的數學角度可能可以解決問題,畢竟一切問題都是數學問題,但是數學的發展是要借鑒其他應用科學的;從神經科學取經可能會加快進度,人工神經網路的發展歷程也證明了這一點。
最後:由於對於神經網路知識並不完全精通,因此在理解和表述上可能會存在些問題,歡迎牛人指正。如果我的回答被認為是對某研究領域的人有所冒犯,實屬個人對事不對人的觀點。如果您從閱讀本文中能得到些靈感,那實屬我的幸運。如果你借鑒了本文靈感並發表了高水平的學術論文,那是我的萬分榮幸!
有啊,請自行Google AIXI,這是Hutter在IDSIA時和Schmidhuber合作的工作,現在Jürgen的主頁上也還有這個工作的簡介。那麼瓶頸在哪兒?這個AGI的理論模型不加擾動算不下去。。。
從另一個角度講目前很多做NLP的人,他們都認為NLP和Knowledge Graph是能夠AGI的,之前有道問題問NLP的樂趣和意義是什麼?知識信息檢索啊,這玩意要能自己分析檢索自己,自己構建知識庫,這就是個會思考的機器了,就AGI了。。。但是我覺得這是很難單獨依賴nlp來實現的
DeepMind及加拿大的一大幫人都認為深度強化學習可以實現AGI,所以就拉上暴雪打星際,然後希望這個方法在不久的將來可以AGI了,但不久前他們發了新文章和新平台,很遺憾的沒有成功。
還有一些人在做uncertainty inference,transfer learning,我覺得這個應該是AGI里比較重要的部分,現在主要還是貝葉斯流派在做
顯然是有的。
比如一些公開的研究者:hutter的AIXI,goertzel和pei wang的研究,直接的研究目標就是強人工智慧。當然沒有實現,大部分還停留在理論,與現實的差距慘不忍睹。
另外一些公開的研究,以強人工智慧為願景,以弱人工智慧為路徑,這是一種曲線救國思路。比如deepmind, openAI等。
還有未公開的研究,我認為也會是有的。比如之前美國軍方DARPA發布的L2Learning項目,目標也是下一代人工智慧技術。
至於瓶頸,我認為演算法是核心瓶頸,算力和數據的瓶頸只是因為它們在深度學習這套框架下消耗比較大。顯然不會有人相信深度學習這條路一直走下去,會發展到強人工智慧。未來的技術一定會發生重大的升級和轉折,和深度學習的技術方法產生重大的差別,以至於必須搞個新名詞來包裝一下的。
至於演算法設計上的瓶頸是什麼,這個可以展開非常多了。學習效率,計算效率,自適應結構,終身學習等等,涉及太多專業性知識,就不展開了。我覺得,人類所具有的智能中的相當一部分,來自於「生活經驗」。正是因為有了生活經驗,人類才能根據實際情況隨機應變,並把多種任務融會貫通。
如果要讓機器具有同等的智能,我覺得「生活經驗」是必不可少的。那麼強 AI 就面臨著下面兩個挑戰:
- 如果要用現有的方法教給機器這些「生活經驗」,就需要把它們具體化成數據,而人類的「生活經驗」往往很抽象,難以數據化;
- 如果要讓機器親身獲得「生活經驗」,就需要人類把它們接納到「生活」中來,這在倫理方面有很大的問題,另外可能也發揮不出機器的學習效率。
強人工智慧本身就是一個比較模糊的概念,更沒有任何科學家對實現強人工智慧有任何頭緒。
當前人工智慧的科研正在逐漸趨於模塊化的發展模式,即不同的科學家用不同的方式來實現智能的某一個具體能力,但沒有人能夠說他的方法能夠唯一地實現所有可能的智能現象(包括最近經常上新聞的強化學習)。
現在科學家們已經意識到,到目前為止人工智慧並沒有能夠解決所有問題的瑞士軍刀,那種拿著鎚子覺得什麼都是釘子的方式不會有什麼好結果(說的就是沃森)。
但是未來會不會有一個大一統理論,我的個人觀點比較悲觀,因為我們所知的唯一的智能體是我們人類本身,然而人類大腦的思維(或計算)能力是有物理限制的,不可能全面理解一個物理上等同或超過自身的智能體。模塊兒化的、面向具體問題的人工智慧應該會是未來很長一段時間的發展方式。
- 用最簡單的語言解釋: 現時深度學習能做到(例如視覺上的)模式識別 (pattern recognition),那是 feed-forward neural network 向前運行一次,亦即所謂「一瞥」的認知過程。 複雜的「思維」就是這種「一瞥」的過程的「迴路」或重複 (iteration),亦即一步步地進行推理。 換句話說,將這 feed-forward NN 變成 RNN。
- 其實 AGI 不難。 很久以前 Ben Goertzel 也說 AGI「很易」。 我認為他是對的,很多在某些領域的專家可以「看到未來」,雖然他們暫時未能製造出那技術,但以他們的專業知識,可以看出那技術的實踐上已經沒有 obstruction。
- 在中國,據我觀察,年輕的研究者比較「尊師重道」、「循規蹈矩」,這是封建和農業社會遺留下來的桎梏。 他們會覺得前輩沒有研究的課題是「離經叛道」,但其實所有新的科技,在某些意義上也是離經叛道的。 我發覺國內的強項是一些比較 standard 的技術,他們融會貫通,像一個監犯在牢中只有一本字典或小說,那樣的滾瓜爛熟,但他們較少接觸和 explore 最前沿的 ideas。
- 奇怪的是,在 logic-based 時期,我已經很有自信地說可以研發到 AGI! 回想起來,logic-based 這條路線上,的確存在很大的困難,因為缺少高效率的 learning algorithm。 我在 2004-2014 年,研究並試圖開發 logic-based AGI,當時缺乏了 deep learning 這一關鍵的技術(但在 2010 年起我逐漸脫離 logic 向 neural 方向靠攏)。 我當時覺得可以用某些經典方法解決,但隨著 deep learning 的出現,我已基本上放棄了這條路線。
- 我打算找人合作寫一本《強人工智慧導論》,這是暫時擬定的目錄(頁數是空的):
- 瓶頸? 個人認為,強化學習中 狀態空間 和 action 空間都是 ,這令 Q-learning 出現維數災難。 簡單來說,現有的 DQN 的 actions 是可數的少數集合 A,DQN 輸出空間是 ,例如 也是可以輕易應付的。 但智能系統中的狀態 /actions 個數是 例如 n = 1000,所以 naive DQN 的輸出空間是 ,這高出了整整一個「冪」。 現正在思考解決辦法……
瓶頸是自然語言「語義」(period)。包括建模、學習、處理。目前公開的方法中,沒有具有普遍性的準確的語義模型。Word2vec, LSA之類僅僅能夠進行相似性比較,不能用於語義推理。
邏輯語義模型僅僅能對少數量詞(quantifier)建模。遠不能達到自然語言語義的完備性。
(劇透:完備的、可學習的語義模型的研究正在進行,原型已經通過測試。但是近期技術細節不會公開。比目前公開的深度學習系統,水平至少先進20年。)
大家都把google啊deepMind啊;vicarious啊;OpenAI啊;吹了個遍;我來說個國內的強人工智慧項目吧;
源碼地址:http://www.github.com/jiaxiaogang/SMG
筆記地址:http://www.github.com/jiaxiaogang/SMG_NOTE
相關書籍:https://github.com/jiaxiaogang/SMG_NOTE/blob/master/Book/SUMMARY.md
官方主頁:http://www.j2717.top
///////////////////////////////////////////////////////////////////////////////////
///////////////////////////////////////////////////////////////////////////////////
///////////////////////////////////////////////////////////////////////////////////
前言
早就想將SMG系統寫一本專門的文檔出來,但因為要專註於研發,也得推進項目代碼,所以一直沒有時間。但隨著研究的深入,概念及知識量筆記量起來越多,有時候自己想搜索一些內容也遇到卡殼,所以這份文檔走上日程,今後每天會有30分鐘來寫這份文檔。
本系統是以GPL3.0的方式在github開源開發的,旨在落地真正的強AI系統。
第一梯隊:1950年圖靈提出"可思考的機器"和"圖靈測試",他說:"放眼不遠的將來,我們就有很多工作要做";
第二梯隊:1956達特矛斯會議後,明斯基和麥卡錫等人窮其一生心血,雖未落地,卻為AGI奠定了很多基礎;第三梯隊:隨著bigData,雲計算等成熟,AI迎來DL熱,但DL並不智能,故小僧希望通過此項目將AGI落地;
本書主要有以下幾方面內容:
- 如何實現強人工智慧?
- 代碼設計實現。
- SMG的應用。
- 看本文檔前,需要讀哪些書或者掌握哪些知識技能?
- 情感機器(馬文明斯基)
- 認知神經科學(加扎尼加)
- 生物腦科學
- 哲學心理學國學相關書箱。
- 計算機編程基礎;
///////////////////////////////////////////////////////////////////////////////////
///////////////////////////////////////////////////////////////////////////////////
///////////////////////////////////////////////////////////////////////////////////
SMG
- 項目標籤 (最多6個)
1.AI 2.AGI 3.強人工智慧 4.通用人工智慧
- 特殊經歷和成就,不妨都寫上來讓我們感受下。
- 我的簡介:
- 團隊中職責:
- 負責研發SMG系統的核心架構及核心代碼;
- 個人介紹:
- 哲學和計算機是我的愛好。而通過AI將哲學、心理學、計算機科學融為一體,讓真正的強人工智慧落地,是我的夢想。
- 我從小就愛冥想與思考,曾一度是一個唯心主義的人,也是個打破一切規則的人。
- 都說本性難移,但我早在13歲時把自己性格由內向180度大轉彎成外向;我堅信我強大的思維能力,創造能力和優秀的實踐能力,可以讓我實現夢想。
- 個人主頁:
- http://www.j2717.top
- 請描述你們的項目是做什麼的。建議提供項目鏈接(包括網站、App、公眾號等)。
- 做什麼:
- 通過AI將哲學、心理學、計算機科學融為一體,讓真正的強人工智慧落地;
- 項目鏈接:https://www.github.com/jiaxiaogang/SMG
- 項目筆記:https://jiaxiaogang.github.io/html/SMG_NOTE.html
- 請說說你們項目的目前進展和未來願景。如有不錯進展,建議提供近期的核心業務數據,比如用戶增長情況,營收情況。
- 設計強人工智慧的核心架構;(已完善)
- 項目開發;(6萬行項目代碼)
- 制定突破性的AI系統的理念;
- 意識
- 思維及智能的本質
- 神經網路形成無限維知識表示
- LOP編程思想
- logThink與noLogThink
- 基於理解的NLP
- 深理解與淺理解
- 三維抽象架構
- 樹形知識表示
- 類比,歸納與統計
- 抽象與結構
- 不過度依賴演算法與大數據
- 先天noData
- 等等
- 你們團隊迄今為這個項目付出了多少?
- 每天早上5點起床做開發和思考;晚上相關書籍:如情感機器,認知神經科學,馬斯洛的需求理論,道德經等等;(我現在就是兼職,因為要養家,拿到融資馬上全職);
- 你們的產品直接或間接的國內外競爭對手有哪些?請列舉你們所面對的有力競爭對手,並闡述你們能勝出的方法或壁壘。
- 對手如:
- vicarious
- openAI
- deepMind
- 行業現狀:
- 現在行業幾乎都聚焦在DeepLearning上,而vicarious,openAI和deepMind都在做通用演算法或通用人工智慧系統。我覺得國人在AI上當下也應該以技術創造為首要目標。
- 強人工智慧現狀分析:
- AI至今60多年,如果說達到強人工智慧是100分,目前也就3分左右;我想突破的關鍵並不是對手,而是自己,因為對手可能100年也沒有突破性進展,所以自己的思維,打破常規和多角度看待問題的方式,敢於質疑任何問題的本質;這才是有可能獲得突破的唯一方式;
- 說明:
- 個人主頁:http://www.j2717.top
- 項目代碼:https://www.github.com/jiaxiaogang/SMG
- 項目筆記:http://j2717.top/html/SMG_NOTE.html
- 手寫筆記:https://github.com/jiaxiaogang/SMG_NOTE/tree/master/手寫筆記
///////////////////////////////////////////////////////////////////////////////////
///////////////////////////////////////////////////////////////////////////////////
///////////////////////////////////////////////////////////////////////////////////
目錄
封面
前言
第一部分
SMG如何實現強人工智慧
- 通過SMG的設計原則和理念來介紹本系統的實現原理方式。
- 通過對SMG架構的多種角度解析來加深講解為什麼這樣實現。
第一章 設計理念
第一節 NoData
第二節 淺思考和深思考
第三節 LOP分層編程思想
第四節 三維思維抽象架構
第五節 樹形知識表示
第六節 類比、歸納與統計
第七節 抽象與結構
第二章 基礎架構
第一節 Input
第二節 Output
第三節 Think
第四節 Mind
第三章 知識表示
第一節 Memory記憶
第二節 意識流
第三節 MindValue
第四節 權重
第五節 無限維數據抽象(藉助神經網路)
第四章 數據樹
第五章 思維
第一節 只讀思維
第二節 可寫思維
第三節 數據思維(思考分析)
第四節 後台思維
第五節 權重
第六章 思維方式
第一節 類比
1.1 小樣本分析
1.3 基於類比的識別
1.4 基於類比的思考(解決問題)
第二節 歸納
2.1 歸納常識
2.2 歸納出神經網路的新節點
第三節 統計
第四節 思維的本質
第五節 Demand的解
第七章 意識架構
第一節 無意識
1.1 唯一性判斷
第二節 潛意識
2.1 注意力
2.2 預測
2.3 無聊感
第三節 有意識
3.1 需求
3.2 需求的博弈
3.3 意識的線程
第八章 精神引擎
第一節 Mind引擎
1.1 Mine
1.1.1 Hunger
第二節 Mood
2.1 MindValue
2.2 MoodDurationManager
第三節 MindControl
第二部分
SMG的代碼實現
- 通過LOP分層編程思想來講解SMG系統實現的基礎方式。
- 通過代碼的方式來講解SMG系統的具體實現。
第九章 LOP分層編程思想
第一節 CodeLayer
1.1 函數
1.2 採集到意識流的數據
第二節 DataLayer
2.1 反射調用
2.2 知識表示
2.3 數據邏輯
第三節 AwarenessLayer
3.1 冥想
3.2 意識心跳
3.3 意識流激活
第四節 LOP的特點
第五節 LOP與OOP對比
第十章 第六感 通用感覺演算法
第十一章 抽象
第一節 意識流養料
第二節 常識
第三節 MindValue
第四節 權重
第五節 神經網路(AILine)
第十二章 結構
第一節 神經網路(AILine)
第十三章 AIFoundation
第一節 AIPointer
第二節 AILine
第十四章 神經網路
第一節 網路強度strong
1.1 strong的形成
1.1.1 生成
1.1.2 讀寫
1.1.3 強化之預測反饋
1.1.4 強化之猜測反饋
1.2 strong的共享機制
1.2.1 縱向共享
1.2.2 橫向共享
1.3 遺忘GC
第二節 網路類型Type
2.1 IsA
2.2 Can
2.3 Law
2.4 Logic
第三節 智能神經網路
3.1 歸納_知識表示抽象
3.1.1 表示規律Law
3.1.2 表示邏輯Logic
3.2 性能優化
3.3 統計_strong
3.4 類比_依賴於AILine工作
第六節 區域點亮AreaLight
6.1 橫向點亮
6.2 縱向點亮
6.3 能量點亮
第三部分
SMG的應用
- 通過虛擬的方式,簡單直白的讓讀者看明白SMG的智能體現。
- 通過現實應用讓讀者看到SMG的應對現實世界的通用智能性。
第十五章 虛擬應用
第一節 應用介紹
1.1 場景
1.2 規則
第二節 應用流程
2.1 自然法則
2.2 生存
2.3 經驗
2.4 繁殖
第三節 應用代碼
3.1 代碼
第四節 總結
第十六章 現實應用
第一節 手機學會感知自己想被充電,並學會使用充電常用語。
第二節 學習了解這個世界,並且形成自己的溝通風格,性格及價值觀。
2.1 陪伴SMG個體成長。
第四部分 新生命的思考
第十七章 AI的安全
第一節 溫和友善的朋友
第十八章 AI的生存空間
第一節 生存於人類科技基礎之上
第十九章 AI的法律法規
附錄
致謝
個人關注過一點點人類神經元的相關論文。大致有這樣幾個結論:人類的高級思維其實就是神經衝動傳導形成了一個迴路。人類的短期記憶和海馬區有著非常強的關係。人類的長期記憶是由於建立了新的突觸。並且是由海馬區控制產生的突觸。從仿造人類智能的角度考慮,也許當今那些深度學習,之所以體現出來智能,也許就是因為連接權值形成了複雜的連接迴路。也許訓練的過程實際上就是在強化輸入與輸出結合的反應,把"擬合"的迴路變得更多了。是否可以構想這樣一種網路結構,首先有個主幹,輸入神經元,和一堆相互隨機就近有很多連接的神經元。然後構造一個海馬區,和這些神經元都直接或間接連接。你可以同時輸入兩種類型的數據,從時域上同時。海馬區會接受到形成迴路的信號,並且對比兩個不想乾的迴路,加強他,而且在這兩個迴路之間也一個個的形成連接。這種網路結構有個很大的弊端,你很難證明他有用。但是你可以用"突觸變多"來證明他的確學到了。並且,就比如打鈴和給狗餵食。這兩個事件總同時輸入,它也的確建立了關聯。當僅僅輸入打鈴,會同時形成打鈴的迴路和餵食的迴路。這樣就證明它有一定"聯繫"能力了。再加上幾種神經抑制演算法…是否就能真的模擬智能?是否現在的深度學習有點走偏了。而且…有個很重要的結論…人類大腦分區,可能並不是因為神經元本身不同導致的。而是結構不同…或者簡單點說,就是可能離視覺神經傳入比較近的地方就是視覺區域。或者這個結論還帶來一個結論。就是人腦分區域的神經元是可以通用的…所以我yy的這一套東西,是否是可以通用的?同時用於自然語言處理和視覺?甚至他就是強人工智慧?當然在下學識太淺,醫學了解不多,深度學習也了解不夠深。但是總覺得人腦的海馬區起到了短期和長期記憶的作用,是否意味著,輸入兩個相關數據,在時域上一致,是否很有意義?至少現有的,都是分開的,輸入和輸出嘛。當然分開…是否簡化點就是給"海馬區"設置數據超時時間。兩個數據同時出現,就給她們建立一個突觸。最後突觸越多了,他倆聯繫也就緊密了。如果有更牛的大神,請賜教。尤其希望向學人腦科學神經學相關專業的人士請教。
現在的人工智慧頂多是演算法的優化本質上還是那一套,真正意義上的強人工智慧或許在量子計算機發展起來之後才有機會吧,,就像蒸汽機把時代推向工業時代一樣,或許量子計算機才是人工智慧的基礎吧,答主只是程序員了解一些量子力學的理論。個人想法勿噴
先定義清楚什麼是強人工智慧,如果定義成其智能在各方面都超越人類,那麼強人工智慧出現的一天,也就是人類被取代的一天。因為這個強AI立馬可以創造出更強的AI,如此幾個循環之後,人類跟最終出現的神級AI一比就是智障,人類還不自己去死?難道要等著神級AI親自動手?
沒有,起點幾乎為0,人類在這個問題面前很無力。
不過,胡說八道的人歷來倒是挺多,比如現在那些搞機器學習的
谷歌現在要搞的那個用神經網路做神經網路的項目應該復符合題主所說用人腦子一想就知道,這肯定是瓶頸之一了。反對那些答非所問的回答這不是強AI與弱AI之間的問題而是站在強AI能實現的條件下進行辯答那些弱AI支持者的蠢貨們在一邊看著就好
先把生物學上大腦的工作原理弄清楚後,再談強人工智慧會比較靠譜。可控核聚變,強人工智慧,這兩個技術可以突破的話,意義不亞於蒸汽機的發明。
我覺得,強人工智慧至少要達到超人,近似於神,那問題是,人要怎麼造神?追求強人工智慧約等於追求最終真理,沒有終點。
推薦閱讀:
※目前火熱的Deep Learning會滅絕傳統的SIFT/ SURF的特徵提取的演算法嗎?
※目前主流的attention方法都有哪些?
※CNN為什麼能使用在NLP?
※學習神經網路,需要哪些前導知識?
※基於深度學習的單目圖像深度估計有哪些比較好的參考資料(書籍、博客、論文.....)?求大神指點。
TAG:人工智慧 | 機器學習 | 深度學習DeepLearning |