超越人類的人工智慧 (AI) 是否能夠實現?

我記得貌似有人說過:因為「輸入的信息質量始終高於輸出的信息質量」,所以AI是不可能實現的。

然後對這段觀點印象極深:

人類的誤區在於:總認為AI應該是人工智慧,其實更高層的智慧和生命體應該是人類進化的產物,它必然超越人類而不僅僅局限於人類的框架結構內。我猜測新物種的自我意識不會以我們認為的人工智慧的狀態產生,而會以一種更宏觀的方式產生,或許是整個網路,當它能以某種脫離人類設定但有目的的信息處理方式形成時,它就是一種新的生命。生命不在於碳基與硅基,而應該是更高層次的信息處理方式。」 (詳見:鬱悶之一:AI是不可能的嗎?)

據此,題主希望有效獲取以下信息:

1、AI的概念理解 (請不要跟題主說:百度/維基一下,你就知道。。。)

2、AI是否能夠實現?能。原因是什麼/不能。原因是什麼

3、題主沒有限制時間(並不局限於當下科技水平)傾向於基於理論層面的回答

4、角度不限(不過,貌似聽說人工智慧愛好者和人類學愛好者自古水火不兩容)


題主列的那個文章不要看了,典型民科思維。輸入的信息質量始終高於輸出的信息質量 胡說八道,信息用質量描述?另外人工智慧能不能實現和熵的變化有什麼關係?人體內部的熵還一直變大呢,怎麼解決?吃個飯獲得能量就解決了。當然由於效率無法達到100%所以對於整個宇宙來說熵肯定是增加了,而且這個過程無法逆轉。因此有些科學家預測宇宙最後的命運可能是毫無變化死寂狀態。但,熵變大的趨勢和人工智慧能不能實現有毛關係?人工智慧系統必定有可以從外界獲得信息數據的能力。

如果把人工智慧定義為科幻片那種可以獨立思考的人工智慧的話,很遺憾,目前學術界還沒能思考出能實現這種AI的體系架構。目前實現的人工智慧大都是通過對各種信息進行分析處理,然後計算機根據已有的數據進行計算擬合。

比如給你一串數字讓你找出規律 1 3 7 15 31 ?

現在的計算機系統可能會先用一個數學公式計算下一個數的規律

f(x)=af^4(x-1)+bf^3(x-1)+cf^2(x-1)+df(x-1)+e  ; f(0)=1 x&>=1 (1)

對上面那串數據進行擬合,得到a=0, b=0, c=0,d=2,e=1. 得到公式f(x)=2f(x-1)+1;因此計算機得到的結果63。這個結果是對的嗎?一般情況下是對的。但如果你是問一個小孩的話,他的回答可能是這幾個數剛好是他家庭幾個成員的年齡,下一個數可能是33。這就是現在所謂的人工智慧和人的差距。現在實現的各種人工智慧無非是上述公式1沒有那麼簡單而已。現在很火的機器學習、大數據本質上就是給的那串數據更長,學習公式更加複雜。因此現在實現的人工智慧在規律性很強的工作上已經可以很輕鬆的戰勝人類,比如國際象棋。圍棋由於計算量太大因此目前還無法戰勝人類,但隨著計算機的發展未來也可能戰勝人類。

我們想像按照目前計算機人工智慧的架構實現的機器人是啥樣的。我們設計出了一款男性機器人,該機器人分析目前大學男生喜歡的女生樣本,獲得的數據有女生的照片、性格、家庭背景等。然後通過一個複雜的學習函數最終得到一個結果result:要不要喜歡這個女生。

result=f(x_{1},x_{2},x_{3}...x_{n} ) (2)

其中x變數是女生的各種參數。由於我們設計的是一個目前很牛的一個男性機器人,獲得的女生樣本很多(大數據),參數個數n很大,除了膚色、單眼皮雙眼皮以外甚至包括了臉上痣的位置……

通過學習樣本,得到了學習函數各個參數的數值(機器學習),最終得到了result判斷我們這個男性機器人是否應該喜歡這個女生。因為樣本很大,我們這個男性機器人性能很好,它判斷應該喜歡的女生確實也是各個大學男生喜歡的類型。但你會認為這個男性機器人是和人一樣的嗎?不會的,因為所有的女生在它眼裡都是數據,它只不過對各個女生進行打分,高於設定的閾值就得到結果而已。

這也就是我們目前能設計的人工智慧。即使它表現的和人類一樣,但仍然不是我們所設想的可以進行獨立思考,有獨立思想靈魂的「人」。回答可能有些偏題,結論就是目前人類還沒有想出能實現和人一樣的「人工智慧」,原理性的方案都沒有。但並沒有理論否定實現這種人工智慧的可能性。題主說的那個帖子給出的結論是無稽之談。


首先這句我就覺得奇怪了:「ai不一定是人工智慧」。AI就是artifitial intelligence,意思就是人工的智能,換句話來說AI的定義就是必須人造(可以是人類造個環境讓計算機自己跑出人工智慧演算法,現在ai實驗室大多是這樣)

而你問的問題,其實是:「生命」或者說「高等智慧」是不是非要是人造的,這個顯然不是。人類確實克隆部分生命體,轉基因了部分生命體,但是並沒有真正意義上實現製造生命體和高等智慧。

我確實同意你說的這句,生命不一定非要是碳基的,可能以其它更廣義的形式存在。例如,我們所在的互聯網,其中的信息傳播,網路抖動也許都可以視作生命體;你看到的一座大山也許是個生命體,他變為小石子,變為沙子泥土,再變為大山;也許宇宙的誕生,宇宙的物理定律,星系運轉就是個龐大的生命體。

但這個定義太晦澀了,也超越我們人類的普遍定義,或者說是超越了人類的觀察維度。總之要說明碳基以外的生命與智慧形態,必須要有理有據,讓大多數人理解和信服。


輸入的信息質量始終高於輸出的信息質量 這話不知道該怎麼理解,可以肯定的是任何智能的產生都是
輸入的能量始終高於輸出的能量非孤立系統熵減(末世論不成立原理)

如果說自我維持和自主性,現在已經開發出一些簡單的系統了,AI沒有那麼高大上,問題僅在於AI何時以什麼方式強化到比人類更具適應性,屆時人類是否也已經自我改造成一種AI了


擬人化是個很好的思路,我比較傾向於up to down,這是在戰略層面,而在戰術層面,則由底像上,且聽我慢慢道來。

先說戰略層面,做AI首先要充分理解人的智能出現,物質的大腦為何會產生非物質的意識?這一經久不衰的哲學問題也是AI最根本的問題。從KK的《失控》得到啟發,智能產生於大量非智能體的簡單動作和交互。我們都知道人腦是由數以億計的神經元連接而成的,他們之間以簡單的突觸傳遞信息,然而就是這些簡單物體的大量聚合,產生了難以置信的人類智能。

這就給人工智慧提供了一個實踐思路,即在戰術層面,我們可以將簡單的原件按簡單的交互連接起來,並保證其數量足夠大。不一定是要實體件,這完全可以用計算機模擬這些大量的非智能體,觀察其演化,產生的結果也是無法預測的,智能無法預測,人類也一樣,你無法預測他人的思想,甚至你自己的想法也預測不了,認識自己,呵呵,談何容易,因為那是數以億計的小東東的結晶。

記住,這是一種去中心化的思想,即人腦中不存在一個控制中心

此外,能進化的硬體也是一個方向。


個人以為很多ai所相關的問題一直有一個最大的誤區:

大部分ai始終在使用某種演算法,在一定環境下,得出某種設計中想要得出的結果。

也就是說,一直在試圖解決:f(x) = y ,求f的問題。

但是實際上,人類是這樣思考的嗎?從來不是。

人類的思考是不需要邏輯的!

一個女人可以在你講奧巴馬的時候跟你說今天你沒有給她買水果,僅僅是因為奧巴馬是黑人,黑人-&>黑色 + 靈長類-&>黑猩猩-&>香蕉-&>今天忘記吃水果-&>應該有人買好水果-&>你是她男朋友而你沒有買水果-&>抱怨你沒有買水果。

一個小學生會告訴你,1+1等於3,因為爸爸加媽媽在一起愛愛以後會多出一個小孩。

再看看知乎眾多的問答吵架中,毫無邏輯的東西佔到了多大的比例?

這當中有任何邏輯可言嗎?

所以,目前看來,我個人認為ai永遠不會超越人類。因為ai思考方式本質和人類是截然不同的。


讀得太少,但是直覺泵的太多。

之所以我不會說想得太多,是因為我不會將純粹是直覺泵的東西當成思考。

但是值得讚賞的是,這個文章沒有使用皇帝新腦的陳詞濫調,拿形式系統說事。畢竟沒有證據表明人類的演算法不能用一個帶有隨機驅動的形式系統描述。

熵的那種表述,雖然改改能夠改成正確的表述,但是沒用。沒有數據處理是沒有Hypothesis直接對raw data 進行處理的,無論是人還是機器。

如何學習正確的定義熵可以去找本統計物理的書,然後翻翻Statistical Learning Theory,我這裡不多說因為我當時只看過一本統計物理的書。

AI是什麼以及AI 能不能這種問題,至少得去看看被物理主義背書的科普著作吧 ,比如

追尋記憶的痕迹 (豆瓣)

意識探秘 (豆瓣)


有一個論點,就是哥德爾不完備性定理:

任何相容的形式系統,只要蘊涵皮亞諾算術公理,就可以在其中構造在體系中既不能證明也不能否證的命題(即體系是不完備的)。

這理論用在人工智慧上,則指出有些道理可能是我們能夠判別,但機器單純用一階公理化系統斷卻無法得知的道理。


計算機科學是學習如何高效地解決問題,特別是藉助計算設備。

為了理性地解決問題,需要以下的三個能力:

觀察:深入觀察問題,重新看問題。

表達:數字化地表達問題相關的信息,明確問題的輸入(I)和輸出(O)。

設計演算法(A):解決問題的步驟,在正確性的基礎上追求高效性。

IAO:所謂演算法,就是從輸入狀態變化到輸出狀態的具體步驟。

--------

把上面的內容仔細理解好,就知道計算機科學的瓶頸在哪裡,也能夠知道人工智慧是永遠超越不了人類智能的。或者精確來講,速度忽略的前提下,程序智能永遠小於程序設計者的智能。程序智能具有某種固定性,而人類智能則永遠可以重新看問題,看得更遠看得更廣,重新表達更多的信息,重新設計更好的數據結構,重新設計更好的演算法。對於人類,nothing is impossible.

一旦涉及到固定的機械的封閉的領域,計算機智能可以發揮速度的優勢,比如在一些有固定規則的問題場合,比如五子棋象棋。

一旦涉及到看到不足和更好方向的改變,人類的理性和超越能力是計算機永遠無法獲得的。像語言,就涉及到靈活性,符號主義就不靈光了。像科學的發展,還是依賴於科學家的有智慧的心靈,計算機科學家還是個遙遠的科幻。

所以,萊布尼茲之夢,是不可能完全實現的。以下簡單論證:

1、當兩個人觀念衝突,計算程序來當裁判。

2、計算程序,反映了程序設計者的觀察能力,數字化能力和編程能力,裡面就有設計者的觀念。

3、所以,當兩個人觀念衝突,實際上是程序設計者的觀念在當裁判。

那麼,問題來了,程序設計者怎麼保證自己的觀念就是真理呢?


計算機做不到是因為人類自己也不清楚,就這樣。


「進化」創造了人類的智能化過程,人類的祖先又用了漫長的時間學會創造技術。從嚴謹的學術層面及人類歷史角度而言,人類的創造物趕超人類是有可能存在的。

從辯證層面而言,人類創造的智能技術本身又是人類自我進化和優化的例子,進化創造了人類,人類又以更快的速度創造了智能機器。可以想像,不久的將來,我們創造的智能技術也許又會創造出比其自身更智能的技術。


吐個槽,一大堆扯的人都沒有相關的專業背景,對人工智慧的認知完全建立在小說、電影和幻想上,基本上只有票數最高的 @陳標龍 的答案靠譜,揭示了現在普遍出現的一些「人工智慧」的本質。

計算機專業本科生,實驗室跟著老師做過一段時間的數據挖掘,寫過貝葉斯分類器,也稍微做過一點兒自然語言詞性分析,雖然對於人工智慧涉及很淺薄,但還算是了解過一點兒皮毛。

我是個科幻迷,從小喜歡科幻,選擇學習計算機的原因之一就是希望能儘快看到真正的「強人工智慧」。

但是隨著對於計算機知識學習的深入,看了機器學習、數據挖掘導論、人工智慧等書後,又稍微了解了一些前沿腦科學的發展後,我對於「人工智慧」總算有了一個粗淺的認識,雖然只是皮毛,但從此「強人工智慧」在我眼中褪去了那層被幻想籠罩上的神秘色彩,我越發覺得悲觀:恐怕我是看不到了。。。

私以為,「強人工智慧」的出現甚至還不如研製出廣泛商用的量子計算機靠譜。當然如果量子計算機真的出現了,那麼對於計算性能將會是一個質的飛躍,在那個基礎上,就算是現有的理論框架,只要有超級強大的計算力支持,那麼一個「表現得和真實人類幾乎一模一樣」的人工智慧的出現是完全有可能的。

至於真正的,有自我意識、自由意志,能夠思考人生,而不是「表現的好像有自我意識、自由意志、能夠思考人生」的「強人工智慧」?期望腦科學的發展能到達一個較高的程度,也期望計算機學界哪天突然震撼發表新的顛覆性的人工智慧原理論文。。。

其實,連我們人類是否真的有自由意志都仍舊沒有定論。。。說不定真正的「智能」和「強人工智慧」,都只是「看上去、表現得有智能」呢。。。


看過了題主鏈接的文章,感覺你似乎搞錯了一個事情。文章中並沒有說「AI是不可能實現的」,而是說「計算機不可能學會給自己編程」。這有很大差別,並不是說AI就一定要用計算機來實現的。

而你引用的另一段話:

「人類的誤區在於:總認為AI應該是人工智慧,其實更高層的智慧和生命體應該是人類進化的產物,它必然超越人類而不僅僅局限於人類的框架結構內。我猜測新物種的自我意識不會以我們認為的人工智慧的狀態產生,而會以一種更宏觀的方式產生,或許是整個網路,當它能以某種脫離人類設定但有目的的信息處理方式形成時,它就是一種新的生命。生命不在於碳基與硅基,而應該是更高層次的信息處理方式。」

其他的先不說,這話我比較費解,「其實更高層的智慧和生命體應該是人類進化的產物」。這是什麼意思?是說我們人類在沒進化的時候是不可能實現AI的嗎?我同意他說「更高層的智慧和生命體可以是人類進化的產物」,但是換成應該,還沒有實證,就很武斷了。

我個人傾向於從仿生角度切入去做AI這個事情,也就是先知道人腦到底是怎樣思考(神經科學),然後去抽象或者模擬。目前也對這個問題感興趣,也是我以後有機會想做的東西。

不好意思我沒能從理論角度給你一個關於AI到底能否實現的答案,我現在懂得太少了,希望可以多看些東西。不過我相信這種模擬的方式是有可能實現AI的。(嗯,只是相信)

推薦一本書:

On Intelligence: Jeff Hawkins, Sandra Blakeslee: 9780805078534: Amazon.com: Books

這個不知道你看過沒:

現在神經生物學的發展更多的是工具推動還是idea推動的?或是某一時期是工具/idea推動為主?

這裡面說的是我們想研究神經科學,但是數據不足不好。


個人從事計算機視覺的科研,隨便侃侃,bug自調。

人工智慧分為強人工智慧和弱人工智慧。強人工智慧希望通過搭建一個類似神經元網路的結構(用電路或者軟體模擬),模擬一個大腦出來,已經很多年沒有革命性的進步了,好像最近有一個人類大腦神經元結構圖繪製成功。弱人工智慧,近年來倒是發展非常快,比如深度學習(模擬人類的學習能力)。但是目前為止,人類的創造能力,現在還沒有任何辦法模擬出來,重複的勞動,包括有一定智能的重複勞動(比如ETS修改GRE作文,是用的電腦評分哦)都在逐步被代替。


只要不發生末世劇情(人類社會死亡),就一定會發展出超出人類平均智力水平的機器智力。

可以設想的幾種情形:

1、純粹的無機腦;

當前的計算機系統,當然是沒有什麼智能的,它有的只是計算能力,這受制於系統的工作原理的(可以理解為高速高精確的紡織機)。但是,軟硬體的發展,特別是硬體,可能已經為機器智能的出現,做足了鋪墊(存取容量,處理速度)。如果現有系統具備了自我調整能力(系統自我配置、修改軟硬體),那它可以通過進化,自然產生智能。而且,這種進化可以遠快於生物智能的進化速度(沒有生物的生長周期,也沒自然環境崩潰導致的進化斷層)。

2、網路腦;

現在我們對人腦產出智能的原理還不清楚,在我的想像中,大約就是一群群的神經連接,組成一坨坨的腐乳,每個連接都是依照一些最基本的規則,發生著看似簡單的生化反應,一會兒組成B字形,一會組成2字形,然後神奇的智力就這麼無中生有地產生了。那麼現代互聯網、物聯網算不算正是生成天網前的原始腦,甚至可能網路已經產生了某種智能,只是我們感知不到,或者是這種智能還沒有自我意識(我認為智能未必需要自我意識),不能開口表達。

3、生化腦;

有可能因為人類智力形成的基本原理一時半會我們都搞不清,計算機設計工程師沒有智力的設計藍圖可抄襲,但這不代表我們就不能作弊。我們現在觀察到智力的成長也伴隨著腦部各種細胞的增殖和特化過程的。隨著生化技術的發展,有可能開發出瓶中腦的技術(一堆的感測器,控制器,用數據線連接著一大腕的漿糊),通過刺激/反饋,訓練出瓶中腦智力。瓶中腦的原材料可以從嬰兒腦部採集,成年腦已經成型,不是色就是腐,可能不適合做訓練,而且兼容性也差。當然,我不是說從人類嬰兒腦部,可以從小強、章魚或者外星人那裡獲取。利用幹細胞技術,保持其持續的活躍與成長。一個健康的瓶中腦,給予長期的學習時間(10,20年...100年),給予充分的成長空間(柚子,足球那麼大...小行星那麼大),一定會成為一個無比聰明的傢伙。

4、其他;

把上面的腦和人類現有的腦自由搭配組合,配對、三聯、混合,形成人腦2.0系統。雖然這個系統中有人腦,但也有人工製造的部分,而且系統中,人腦也可能不佔核心地位。

================================================================

最後一點,很多人覺得智力本身都還沒搞清,就不可能開發出超過現有智力的智能機器,這我覺得毫無說服力。人羨慕鳥兒的飛翔已經百萬年了,至今也沒學會鳥兒的飛行本領,但是人造的機器已經飛得很不錯了。同理,人造智力未必需要等同於人的智力,甚至不需要相像。當然,我認為智能必須具備的是某種可能性,某種主動性,某種選擇的能力。


對於我的回答,不僅是諸知友,還有現實友人都說出了N種反駁。對於反駁我都虛心聽取並且回復了,但我的本意不是想得雄辯症,一定要爭出個高下,只是想投石問路,通過交流對這個問題有更深入的理解,拓寬自己的思維,糾正自己的不合理之處,所以我有點小感激,對於抽時間給我評論+解釋相關概念的陌生人和朋友。

現對反駁其1進行抽象,然後回應:

反駁1:記 A=AI,H=Human

已知 H1?H,A1?A

易知 H1≠A1

∴ H≠A

對反駁一的回應:已知 H2?H,A2?A

∵ H2?A2

∴ H2、A2 也許不存在可比較關係

原題對H2、A2失去認知意義

--------------------------------------------------原答案------------------------------------------------------------

看了一下最前方的幾個回答,皆是從技術層面進行探索,說實在話作為一個文科生我真心看不懂。。我這裡不妨提供一個基於思想實驗和哲學論證的答案。

1、AI的概念理解對於其是否能夠實現的初步判斷

百度百科巴拉巴拉說了一堆,有價值的就是它的核心思想:AI是一種新的能以人類智能相似的方式做出反應的智能機器

目前,學界對於AI及其是否可行還有這麼幾種理解,

第一種認為人腦本質上就是一種可以計算的程序,和計算機相似,所以AI完全是可以模擬人腦過程的。

第二種認為人腦是神經活動的生理器官而非數字計算機,AI顯然不是由胚胎長大的生命體,兩者從屬性上差十萬八千里,所以AI不可能實現。

第三種認為人類的很多高級行為如直覺反應是不可以被編碼的,不可能被還原成遵循規則的行為,所以任何僅由演算法或規則程序約束的機器是不可能做到完全模擬或類似(Hubert Dreyfus),所以AI是不可能實現的。

第四種認為人類有情感、感受、意向、自由意志等一些更高
級的意識活動。這些意識活動涉及主觀
的維度, 而任何關而任何關於AI 的科學研究顯然都只能是客觀的活動(David Chalmers),所以AI不可能實現。

眾說紛紜,那麼AI究竟可不可能實現,它又是否可以超越人類呢?

2、接下來論證:超越人類的人工智慧是否能夠實現?

首先,你有沒有發現以上各家說法有一個重要前提

這個重要前提就是:人工智慧和人類是兩個不同的東西

因為不同,所以才可以相互比較,討論AI是不是能實現,即是不是能以與人類智能相似的方式做出反應才有意義。

那麼,這個前提是否成立呢?

讓我們開一個思想(nao)實驗(dong),想一想前段時間上映的《攻殼機動隊》里的斯嘉麗,她是有著人類大腦和靈魂的生化人。因為這是一種未來的可能情形,所以我們可以合理的設想

雖然斯嘉麗有著人類大腦,可以思考和自省,但是她的身體除了腦部以外都已改造為生化人,她的生化副腦可以連接地球上所有的電腦網路。面對這樣人+AI的混合體,我們該說她是人還是機器?是人類智能還是人工智慧?是不是不能下結論?我們是不是無法用確鑿的理由和證據把人工智慧和人類區分開來?

接著,我們梳理一下邏輯

如果人工智慧和人類可以互相比較,那麼必定得有可以說明他們之間有差別的必然證據。

但是,基於以斯嘉麗為例的思想實驗,我們無法得出人工智慧和人類有差別的必然證據,所以人工智慧和人類不能互相比較。

如果AI可以實現(即能以與人類智能相似的方式做出反應),那麼AI和人類必須可以比較,基於上一條結論,AI和人類不能互相比較,所以AI不可以實現。

因為人工智慧超越人類的前提是AI可以實現,而已經得出AI不可以實現結論,所以超越人類的人工智慧不能夠實現。

論證完畢。


輸入信息質量大,是因為其信息熵大,這樣的信息極大程度上不能被直接被人類認知並使用。而輸出的信息是排除了大部分不確定性後得出的結果,可以直接使用。

以人類決策為例,接收到的信息再多,但是無法直接使用,這就需要將信息加工處理,最終體現在一個行為決策上。因此,人工智慧能否實現不是指信息中包含的不確定性全部得以體現,而是如何從萬千種可能中找出最有價值的那條信息。

人工智慧實現的途徑等同於知識庫的不斷完善,人腦通過經驗決策來構建知識庫,機器通過演算法反覆訓練積累,甚至可以深度挖掘出潛在的有效信息提供輔助決策。

人腦的運算速度有限,機器永不止步,考慮事情的全面性總有一天能比人類廣。


正好高一的時候好好的研究過人工智慧,給題主看看吧,沒有完全投入實踐,因為太難了。

實驗基地:http://ai.ivydom.com/

【以下內容皆出自http://ivydom.com及http://ai.ivydom.com】

#正文開始#

【都是高一的時候寫的,大多藉助高中生物知識】

【前提:需要閱讀者略懂編程】

我們的突破點源於一個假設,一切智能系統的體現,源於一種統一的規則:

根據環境做出選擇。

這裡所指的環境,從內容上可以分為三類:外界的、自身的(運用反射演算法實現)、關係上的(互相連接用途)

從時間上,也可以分為三類:過去環境(記憶部分)、當前環境、未來環境(預測部分),其中記憶屬於塑造初始環境的關鍵部分

以前大多數人談到人工智慧,首先想到的都是自我意識沒錯吧。

事實上,既然確定了記憶也是環境的一部分,也就可以確定記憶其實是自我意識的源頭。

沒有完善的記憶體系和有效利用記憶的機制,也就不可能產生自我意識。

Ep1:兩三歲的幼兒,在連自己名字也記不清的情況下,所表達出的「自我意識」不過是自己對一些事物所發展出的佔有慾而已,但我們依然不能否認嬰幼兒是有智能的。

總的結果是,自我意識的體現是根據自己對環境的理解做出自己的選擇,使外界感知到邏輯系統的存在。

而「學習」與記憶活用機制也是密不可分的,學習的實質是是根據外界環境信息(比如說在用戶或者網路的幫助下)對未知環境作出新的選擇並保存到記憶中。

所以為了精確處理外部環境,沒有句義解析是絕對不行的,這也正是強人工智慧與弱人工智慧之間的區別。

處理外界信息的步驟?

首先要讀取記憶,分析之前的環境數據中,著重運用其中關於自身記憶的部分,塑造一個基本的系統內部環境。

進一步分析系統目前所處的語言交流環境,並初步改寫環境數據。

分析用戶和系統自身傳遞給系統的信息中所攜帶的環境關鍵要素,根據結果繼續改寫環境數據。

從解析的時間上來分類,解析交流環境的規則有以下三種可供選擇:

① .一直持續在交流的同時解析外界環境

② .每隔一段時間解析一次環境

③ .受到特定辭彙觸發之後就解析一次環境

系統應該具有這運用三種解析規則的能力並允許混搭使用。

我們主要考慮分析的環境類型(除去用戶所說的話):

①分析自身狀態,包括:

⑴已處理對象數

⑵正在處理的對象數

⑶單個對象已完成行動數——完成程度——完成行動數——總完成行動難度

⑷正在執行的行動難度(狀態指數)

⑸等待執行的行動的難度——等待行動的個數

⑹自身的情緒指數(狀態指數)

⑺與處理對象的關係——對處理關係的好感度——特殊屬性(偏好)

⑻與涉及對象的位從關係——對涉及對象的好感度——對象特殊屬性(偏好)

⑼對各類對象的了解程度

②分析外界環境,包括:

⑴所處時間點/時間段

⑵交流對象所在地理位置

⑶當地氣候狀況(具體參考天氣預報的那些項目)

⑷當地所處節日時令及其對應習俗

⑸當地鄉土風俗——禁忌與特許行動

⑹程序自身對環境的了解程度

⑺對象對環境的了解程度

⑻對象對程序的認知程度

⑼對象(用戶)對程序的好感/敵對表現

⑽對象之間的了解程度序列

⑾對象之間的相互看法——好感度

⑿對象之間的身份位置關係

⒀各種對象的偏好表現程度

⒁各種對象的狀態指數(情緒)

⒂交流對象對程序的整體評價水平

⒃其他外界環境的特殊屬性

在⑵的地理位置分析中,如果對象表述了其將要前往的位置或程序決定了其將要前往的位置,則使用目的地替代本地做一次進一步分析。

解決了解析的難題之後,接下來說到主控核心了,首先要討論的一個關鍵點是等待機制:

多數情況下我們都會出現一段信息無法把整個事件完全描述的情況(比如一句話交代不清楚一個事情),話說到半截就走了絕對會給系統造成極大的困擾,所以我們必須讓系統出來這種狀況並繼續等待完整的信息再開始解析,於是就有了等待機制。

等待機制整體分為等待解析和等待行動,我們提出以下四種識別方案(當然可以多選):

利用是否能解析出完整的釋義作出判斷(遇到描述同一件事使用了多個完整句的傢伙,就沒轍了)

利用系統中「正在輸入」這一類的提示信息來進行判斷

對於已經熟悉存有印象的對話對象,根據所記錄的其對話習慣來判斷(這對印象設置提出了更高的要求,依然有難度)

根據用戶句子里所涉及的關鍵對象和資料庫里的同一對象的要素進行對比,以提及要素的完整程度作出判斷(依然對印象提出很高要求,但這樣絕對很精確~)

主控區剩下的基本行動只剩下八種,這就是編製基本行動代碼的可用資源了:

R.讀取 B.輸出/顯示

W.改寫 K.詢問

S.錄入 F.執行

M.配對 T.判斷

資料庫基本元素還剩下五種:

N.事件及物體

V.動作

D.概念及描述辭彙

C.排列組合

E.環境內容

採用類似於基因上的脫氧核糖核酸長鏈AUCG組合的方法來表示基本辭彙

再用已經被表示過了的基本辭彙來解釋更複雜的辭彙

因此以上八個動作也都要用這五個字母解釋出來~

說道主控核心的改寫記憶及印象功能,就要談到記憶核心了:

記憶核心主要負責根據等待機制的指令隊列等待輸出的信息和保存所有環境信息。

也就是在內容上分為三類的:

外界環境:即對目前交流用戶的印象和對目前交流環境的解析數據

自身環境:自己對自己的記憶以及自己目前的感情狀態

環境關係:自身環境和外界環境的關係,也就是系統自己和交流對象的關係、系統自己和交流環境的關係、交流對象和涉及關鍵對象的關係以及系統自己和涉及關鍵對象的關係,所有關係都要從印象中取數據

在這裡主控核心也就是根據分析用戶和系統自身傳遞給系統的信息中所攜帶的環境關鍵要素得出的結果改寫環境數據。

而關於主控核心調控基本狀態的功能,就牽扯到16個用於組成系統感受的基本狀態元素,和從這16個基本元素轉化而來的用於組成印象評價的12個基本印象元素:

基本狀態元素:

1. 愉悅指數

2. 傷感指數

3. 活躍指數

4. 休眠指數

5. 憤怒指數

6. 冷靜指數

7. 友好指數

8. 敵意指數

9. 探索指數

10. 規避指數

11. 肯定指數

12. 否定指數

13. 接受指數

14. 變化指數

15. 表現指數

16. 時間指數

基本印象元素:

1. 實際情緒模式

2. 表現情緒模式

3. 友好關係水平(好感度指數)

4. 有益性價值

5. 危險性指數

6. 用途性價值

7. 社會身份關係水平

8. 實際關係水平(與系統自身的地位差距)

9. 總體資料完整度

10. 已交流時間

11. 剩餘可交流時間

12. 所處環境異同指數

#########

以下是更新後的理論

#########

序言:

哲學及其他所有學科的認識都建立在智能上.即其複雜的認知學習能力.於是,我們追求本原欲突破極限再造智能,謂之曰人工智慧.

對象:

智能搭建的前提(慾望)

智能體數據類型(數據結構)

遍歷資料庫的相關演算法

自然語言處理(NLP)

漢語語法歸納

模型建立

解析

自編程

機器學習

實踐:

一.智能的本質

未出生的小孩雖然沒有智慧卻有智能,他能從身邊的事物中學到並形成認知記憶,後來通過記憶形成條件反射.因此,我們說:

智能的基礎是記憶,智能的本質就是超複雜的條件反射.

按照生物角度,反射分為條件反射和非條件反射,條件反射為後天形成.非條件反射為先天遺傳,也就是說非條件反射是人體大腦無法察覺的機械運動.我們的人工智慧設置一怎樣一個機械運動是十分重要的.

1.非條件反射活動設置

一個智能體的本能:求生,慾望(七情六慾)[心理本能]

在計算機中,這些本能只能用數值表示,通過對人的究底,我們得出一個計算公式:

Q=e+k+w

Q為求生欲,e為心情,k為知識程度,w為世界觀.Q無上線,越大則求生欲越強,越小意志越低沉直至觸發自身關機.

世界觀是一個大的結構體,裡面包括如下成員:

金錢觀,社會觀,親情觀,愛情觀,責任觀,是非觀[價值觀].

和以往不同的是,這些成員也都是結構體,它包括一個值(Value)和一個描述(description).描述是為了在反饋信息時調用,因為:

意識就是系統將信息指向自身的過程和結果.

例:

//金錢觀結構體

struct SenseOfWorth{

int values;

char description;};

//社會觀結構體

struct SocialValues{

int values;

char description;};

//各個子集集合的大的世界觀結構體(只做2個示例)

struct ViewOfWorld{

struct SenseOfWorth;//金錢觀

struct SocialValues;//社會觀

};

初始值全部為0,褒義時越大越好,貶義時越小越好.

七情六慾結構體(基本感受和自我感受)

#define STRMAX 10000000000

#define OBJNUM 10000 //對象了解程序序列最大上限(暫定)

struct SelfCondition{ //自身狀態

int havehandled; //已處理對象數

int ishanding; //正在處理的對象數

int hd_one; //單個對象已完成行動數

int hd_condition; //完成程度

int hd_total; //完成行動數

int hd_dif; //總完成行動難度

int id_dif; //正在執行的行動難度

int wait_dif; //等待執行的行動的難度

int wait_num; //等待行動的個數

int selfmood; //自身的情緒指數

int rea; //與處理對象的關係 數字越大越好

int rea_feeling; //對處理關係的好感度

int rea_spe; //特殊屬性

int obj_rea; //與涉及對象的位從關係

int obj_feeling; //對涉及對象的好感度

int obj_spe; //對象特殊屬性

int objs;}; //對各類對象的了解程度

struct SubCondition{ //外界環境

char nowtime; //所處時間點/時間段

char obj_postion; //交流對象所在地理位置

char obj_tempo; //當地氣候狀況

char obj_p_fes; //所處節日時令

char obj_p_cus; //對應習俗

int self_know_sub; //程序自身對環境的了解程度

int obj_know_sub; //對象對環境的了解程度

int obj_know_self; //對象對程序的認知程度

int obj_self_feeling; //對象(用戶)對程序的好感

int obj_self_hate; //對象(用戶)對程序的敵對表現

char obj_know_team[OBJNUM]; //對象之間的了解程度序列

char obj_eachother_feeling[OBJNUM][OBJNUM]; //對象之間的相互看法——好感度 1維代表用戶 二維代表看法

char obj_eachother_rea[OBJNUM][OBJNUM]; //對象之間的身份位置關係 1維代表用戶 二維代表看法

char obj_love_show; //各種對象的偏好表現程度

char obj_each_con; //各種對象的狀態指數(情緒)

char obj_comments; //交流對象對程序的整體評價水平

char other_wpe;}; //其他外界環境的特殊屬性

struct BasicCondition{ //基本狀態元素

int delight; //愉悅指數

int sadness; //傷感指數

int active; //活躍指數

int sleepy; //休眠指數

int annoyed; //憤怒指數

int calm; //冷靜指數

int frinenddly; //友好指數

int hateful; //敵意指數

int find; //探索指數

int escape; //退避指數

int sure; //肯定指數

int deny; //否定指數

int sccept; //接受指數

int change; //變化指數

int show; //表現指數

int timely;}; //時間指數

struct BasicImpression{

int faimp; //實際情緒模式

int soimp; //表現情緒模式

int realevel; //友好關係水平

int valble; //有益性價值

int dangerous; //危險性指數

int way; //用途性價值

int socialrel; //射穢身份水平

int farel; //實際關係水平

int filetotal; //總體資料完整度

int havetalkedtime; //已交流時間

int resttime; //剩餘可交流時間

int envsamediff;}; //所處環境異同指數

一個自反饋的示例:

// 自反饋程序.cpp : Defines the entry point for the console application.

//輸入-&>輸出

#include "stdafx.h"

#include

#include "stdlib.h"

#define MAX 10

#define EXPRESSIONS_MAX 8

using namespace std;

struct input{

int ans[MAX];//ans保存答案

char des[EXPRESSIONS_MAX];};//des保存算數表達式

int _tmain(int argc, _TCHAR* argv[])

{

struct input ip;int i=0;

const char *dp = "+";//定義字元串分隔符

const char *de = "=";//定義字元串分隔符

char *p;

coutcin&>&>ip.ans[i];

i+=1;}

cout&>ip.des;

p = strtok(ip.des,dp);

while(p){

coutwhile(p){

cout}

p=strtok(NULL,dp);

}

system("pause");

return 0;

}


如果某一天,某個程序員吃飽了撐的,給AI設定一個目標,比如,如何讓世界更美好。假如AI通過各種數據分析,最終得出的結論是消滅人類,並且考慮到不能把這個結論告訴人類,因為告訴人類,人類就會提前消滅它,因此選擇隱秘實施,並考慮各種相應的策略,例如,將這個指令傳達給其他的AI,,,。想像一下這個畫面,是不是很恐怖。

目前的AI水平,已經可以實現自我學習,價值判斷,策略選擇(看看阿法狗的相關報道就知道了)。

AI的學習速度之快,是人類望塵莫及的。想像一下,你們班上有個學霸,你學10年,他只需要學1年,,甚至幾個月,幾天,而且他的學習速度還在不斷的加快,你卻無法加快,沒有比這個更讓人沮喪的了。

目前,AI的目標,也就是解決什麼問題,還是由人類設定,讓它研究圍棋就研究圍棋,讓它研究翻譯就研究翻譯,讓它開車它就開車。但是,未來呢??什麼從目前的趨勢看,AI註定還會高速發展,十年,二十年以後,誰知道會發生什麼……

AI的可怕,不在於它的現在,而在於它的潛力。未知,永遠是最讓人恐懼的。

當然,這只是我一個外行文科生的觀察,如果有什麼謬誤,還請指正。順便說一下,專業術語盡量少一點哈,謝謝。


不可能實現

如果可以實現,這意味著人類可以創造智慧生命,那麼人類或者其它現存生命也極有可能真的是上帝創造的,達爾文進化論無法成立,那麼你應該是有神論者!

如果你堅持進化論,就會相信人類無法創造全方位的智能。

自己選擇吧!


說不定人工智慧已經超越人類了,AlphaGo和siri之類的只是AI生產出來逗人類玩的


推薦閱讀:

高原生活的人類通過什麼機制適應低壓缺氧的環境?
為什麼我們人類一定要殺死蒼蠅?為什麼人類有生存的權利,而蒼蠅沒有?
日本有少數民族嗎?
在社會學或人類學上,「起外號」有什麼意義?
人為什麼要吃肉?

TAG:人工智慧 | 生物進化 | 人類學 | 計算機科學 |