如何認識和看待人工智慧?人工智慧的巔峰是什麼?
人工智慧的巔峰是「技術奇異點」。首先話要兩說——這個巔峰不一定能達到。然後我們說達到的情況。如果人類真的成功的實現了強人工智慧,那麼不是這個智能如何和人類相處那麼簡單,而是意識的進化出現了新的模式。強人工智慧的出現,標誌著一種智能可以創造出比自己更優秀的智能。所以,強人工智慧必然會構建出更強的智能(人工^2 智能),並且構建的速度一定比人類研究第一代強人工智慧要快。如此指數發展下去,意識的進化會完全超出人類的理解力。
人工智慧的巔峰是AI們集體討論該如何解決人類問題。 或者AI們來到知乎討論這樣的問題
「你們是如何認識 看待人類的?」
@馮東 說的"強人工智慧的出現,標誌著一種智能可以創造出比自己更優秀的智能"
其實這裡面有2個點需要補充,或者說細化,強人工智慧現在都是一個概念,如何落地?1.是「演算法」2.是速度先解釋為什麼說速度,現在人腦的計算能力比計算機快NNN倍(別跟我扯說一個數學計算題計算機算得比人快,深藍下棋多NB),換一個角度看,圍棋為什麼目前計算機下不贏人?計算機為啥計算能力還不足作詩寫曲?人腦是非一般的計算方式,更多是並行且是模糊計算速度最快,一隻手指占身體%多少?但上面的神經細胞已經超過百萬!在被蟲子叮的一剎那能夠多麼快速通過脊髓傳輸到大腦?換一點技術而言,目前的雙核CPU 建立一個超過過萬億個神經元的人工神經網路,跑起來,慢的得像蝸牛了。因此智能高度如何,除了「演算法」一個關鍵點就是速度,一個是本體的運算速度,另外就是對信息的傳輸接受速度,這裡我就不細說了。那麼另外就說說"演算法",這個「演算法」我先打一個雙引號,因為演算法是IT的一個辭彙,我稍後換一個詞叫思維模型,目前以我的研究來看,跟物理結構關係不大,
但是邏輯上面還是區分演算法和數據結構的,其實就是一些不了解的人說的所謂的靈魂如@andy說的具備靈魂,但我覺得說什麼靈魂,什麼意識,什麼精神 ! 只能說他們沒有了解原本那麼原本是什麼?
就是 行為,邏輯,模式,3為一體的思維模型。行為可以參考控制論,邏輯就是推理機,模式識別我就不解釋了。對"一般"模糊問題都用模式識別處理,而且默認用模式處理,對細節問題可量化需要量化或者說需要理性處理的問題都用邏輯推理方式。而控制就是把輸入通過處理後把調用對於的API輸出,例如說話,眨眼,問題點在於處理信息的時候其實也在update自己,更改自身的邏輯推理方式,邏輯推理成熟後會產生新的模型進行模式識別,這個是一個迭代進化的過程,再深入的就不多說了。我說了這麼多,AI的巔峰是什麼?現在我說沒人信為時過早!目前AI階段還很嫩。從目前應用來看ai研究如專家系統,機器學習,機器視覺方向比較多。而我覺得AI真正能夠革命性的出現的,就是大家通俗說的strongai的誕生,最直觀的理解就是,程序能夠修改優化他自己的代碼,歡迎噴我「人工智慧」這個片語現在要慎用,否則的話,你在談論的很可能是科幻而不是科學。基本上,在Artificail Intelligence這個CS分支發展的歷史上,強人工智慧(Strong AI)和弱人工智慧(Applied AI)一直在爭奪AI領域的主流話語權,並且這種爭論極大的導致了AI這個學術群體的割裂。上世紀50年代到80年代左右,是強AI的天下,主要就是符號化(symbolized),基於知識(knowledge-based)的方法,可以看作是一種自上而下構造全人工智慧的方法,主要目的是產生可以與人類智慧匹配的人工智慧。在初期,強AI的人們很樂觀,而且那個時期受到電影(說的就是你,斯坦利庫布里克!)和科幻文學(說的還是你,亞瑟克拉克!)的諸多影響,不僅主流學術界認為強AI將會在10~20年左右的時間內誕生,普通民眾也有很多持類似觀點的人存在。然而,事實證明,研究人員低估了強AI的難度,在70~80年代左右,強AI不僅沒有誕生,而且就研究情況來看,強AI的問題非常困難,幾乎看不到希望,因此大部分研究基金,包括公共的和私人公司的,撤銷了對人工智慧的支持,人工智慧的研究陷入瓶頸。強AI的巔峰就是專家系統,80年代就發展的比較完善了。其研究成果目前是被歸納邏輯編程(Inductive Logic Programming)這個CS研究方向所繼承。當強AI陷入麻煩後,曾經被強AI嘲笑、鄙視甚至一度被排除出主流人工智慧和計算機科學研究領域的弱AI捲土重來。弱AI的目的就是在一些子領域,特別(specific)的問題上實現一定程度的智能化,能人所不能,可以看作是一種自下而上的方法。弱AI基本上較多的使用神經網路和統計計算理論的方法,帶有明顯的數據驅動(data-based)的特點。因為神經網路的黑箱特徵和統計這個辭彙,所以在早期被強AI黑的體無完膚,當然這些方法當時也有其自身局限性,比如單層神經網路無法解決線性不可分問題,統計計算理論早期較少考慮「可計算性」的問題,「概率性」的解決某個問題這個提法,在當時並不符合計算機科學研究者的期望。隨著神經網路後向演算法(back propagation)的提出,和統計計算理論的進一步完善,弱AI在諸如計算機視覺,自然語言處理等很多領域上取得了極大的成功,從某種角度來看,這些領域變得相當智能了,比人類強大多了。
然而,弱AI自從被強AI踢出計算機科學界後(實際上並沒有,是強AI的人自己瞧不上人家),改叫機器學習了,而經歷了強AI夢碎後,強AI學術界再也不提要實現「人工智慧」的宏偉目標了,並且很委屈的表示,當初自己是被科幻啦、輿論啦等等誤導了,其實俺們搞的是邏輯編程啦。關於這兩種AI實現路線,樂觀的研究人員認為會在某個時間點合併起來,這樣也就實現了偉大的「人工智慧」。然而也有很多人認為,這兩個方向漸行漸遠永遠不會在實現全面人工智慧的道路上相遇。不過,這已經是哲學討論的範疇了,離計算機科學比較遠了。
回到題主的問題「如何看待人工智慧」,嚴肅的說,當前被稱為「人工智慧」學界的,實際上是相當廣泛的一批人,人工智慧的問題也是相當的多樣化,所以主流學術界一般都不會稱自己是搞「人工智慧」的,一般都是搞機器學習啦,統計學習啦,神經網路啦,邏輯編程啦等等。毫不客氣的說,「人工智慧」這個辭彙,在當前,其科幻意義要超過了其科學意義。如今的人工智慧還遠遠沒有達到能夠模擬人類智能的地步。它的真實面目是形式化的博弈論演算法研究,只能用在模擬基本的應激反應,以及最優的博弈求解。與其說人工智慧,倒不如說是機械智能更合適。
我不是說人工智慧不能模擬更複雜的人類行為,比如人類情感。但在生物學研究還沒有達到那個級別的前提下,指望一群數學家靠數學公式模擬人類的行為,即使不說是愚昧的,恐怕也得說是極其狹隘的。
至於所謂最高境界,我誠實地說我不知道。但我很喜歡《終結者2》中終結者最終化入鋼水之前向銀幕前的我們伸出的大拇指。其實我們所謂的人工智慧,也都是一種計算機設備,無非源自於圖靈機的設計思想,即把一切的問題歸結為一個數學問題,將一切的環境因素和人類的意志通過數學模型轉化為一組編碼,並模擬人類實際的處理過程來處理這組編碼,在得出計算結果後,通過各種各樣的手段輸出,僅此而已。
和人類的精神意志相比,計算機系統即人工智慧系統規則的核心是:精確性計算,並通過各種方法消除量子效應。現代的計算機系統並不會產生自我意識,如果要讓新的計算機系統具備自由意志,甚至產生自我意識,若要實現這個目標,除了要改變傳統計算機的精確性計算模式,使用量子計算機實現概率性的計算之外,還需要改變計算機的設計思想,讓計算機不再僅僅執行人類的特定程序,而是自主的根據量子態的隨機性而生成數據和結果,並讓這些隨機生成的數據具有現實的意義,可以在不同的計算機系統之間進行傳承和發展,只有這樣才能具備自我意識演化發展的可能。具體來說,具備自我意識的人工智慧系統(或者就是你所說的巔峰的人工智慧),需要具備以下3個條件:1,所有精確性計算的設備都只是人類的工具而已,因此這個系統必須基於概率性的計算,而這個概率的來源是無數個分子的量子效應的疊加。2,其設計思想不能普遍的使用校驗和糾錯機制,需要讓這個系統具備並且允許各種可能的輸出,並讓各種輸出數據中的大部分具備可執行性和現實的意義。3,系統必須足夠複雜,並且確保每個個體之間都具有足夠大的差別,以便能夠從中創造各種可能性。一大堆完全相同的計算機之間無法產生思維碰撞,無法實現代內和代際的知識傳承和創新。
換言之,即是要讓自由意志能夠通過量子效應來實現對計算機系統的控制,在計算機系統上映射出自由的意志,並且讓這些自我意識能夠一代一代的在計算機系統上進化發展。如果未來的量子計算機具備了自我意識,加上計算機系統具備的超強的存儲和計算能力,然後計算機系統開始了知識和思維能力的代際傳承,能夠不斷的進化,那麼,未來的文明將會以一個我們所無法設想的速度發展。現代的數學和科技水平可能還無法支撐這樣的計算機理論,目前的人類還無法預計具備自我意識的量子計算機會不會出現,會在什麼時候出現。
補充一下:現在之所以有人認為人工智慧能夠超越人類,只是因為被AI系統超越的那些只是從事機械思維的人,而不是創造性的人類。在工農業生產中使用機器人自然是能夠提高生產效率的。什麼時候讓AI系統超越愛因斯坦、牛頓、畢加索、喬布斯這些人類精英看看?帶有條件判斷的邏輯行為就是智能;
人類採用非自然方法實現智能就是智能機;
可以安全重組的連續邏輯過程就是意識;
人類採用非自然方法實現意識就是人工智慧;人類採用非自然方法實現自我意識就是人工智慧的巔峰,複雜性的巔峰。
關於人工智慧,自己超級人工智慧,推薦這篇文章: http://zhuanlan.zhihu.com/xiepanda/19950456
如何看待:無靈魂的人腦
巔峰:具備靈魂關於人工智慧和意識,轉一篇文章,略長。原文鏈接 Sina Visitor System(歡迎添加微信公眾號「哲學咖啡PhiloCafe」)放開那隻機械姬!——人工智慧中的意識與倫理
「人工智慧」這一科幻題材長盛不衰的魅力,主要來自於人們對兩個問題的好奇。首先,技術究竟能發展到怎樣的程度——無論由人的努力還是程序的自我演化?運算速度越來越高的處理器,什麼時候能比擬、並超過人腦的複雜程度?另一方面,思想和情感,究竟有著怎樣的機制?「意識」對於這些機制是不是必不可少的?
多啦A夢處在第一個問題的起點。它的認知和情感能力與人基本相同,甚至還有不少人所沒有的弱點,比如饞、比如怕老鼠。《終結者》中的「天網」則遠遠超越了人類的智力,它剛剛覺醒就引發了核戰。沿著這條坐標軸往前,我們會遇到許多倫理問題:該不該創造過於強大的人工智慧、怎樣與超越了人類的機器人相處,等等。對於這些,我們暫且懸置。我們將要關注的,是另一條線索上的倫理困境:當機器人的智能和情感表達無限接近於人類,我們該怎麼解釋它們的行為?同時,我們作為行動的主體,又該怎樣對待機器人呢?
《多啦A夢》似乎又一次為我們提供了參照的原點。在這裡,多啦A夢「機器人」的屬性從來沒有成為一個倫理議題。多啦A夢自始至終都是大雄的朋友,也被所有人真心對待。它與人唯一的差別僅僅是有著機器構成的身體,而這點差別也被四維空間兜、小圓手、沒耳朵、腿短等特徵轉移了視線。遺憾的是,這個理想化的世界並不能給我們多少啟示,因為現實中的我們多出了三條初始假設:人有意識;機器往往沒有意識;情感或倫理責任與對方的意識相關。由於前兩條假設,我們需要藉助圖靈測試來理解機器的行為,而由於第三條假設,我們默認了自己與機器之間很難具有真正的情感或倫理責任關聯。假如有一天,多啦A夢真的從你抽屜里鑽了出來,你或許驚訝,或許欣喜,但你也會在張開雙臂準備擁抱它的大頭時疑惑,這頭裡真的有意識存在嗎?
為了消除這個疑惑,你也許會拉著它進行圖靈測試。這是科幻作品所提示的,也幾乎是我們絞盡腦汁所能想到的唯一的方法。當然,經典圖靈測試應該滿足不了你的要求。用聊天程序進行文字交流,能獲得的信息畢竟非常有限。哈納德曾指出這個不足,他提出一套更完整的圖靈測試,這裡,測試者和機器人之間可以更全面的交流,而判斷的依據也不限於對方的文字反應。如果你給了多啦A夢一個銅鑼燒,它沒有去吃,而是打了個哈欠,那麼,測試失敗。如果它吃掉了銅鑼燒,卻眉頭緊皺,那麼測試失敗。只有當它歡天喜地的吃完,並嫵媚的看著你,測試才基本成功。有人認為,完整的圖靈測試,和經典測試基本等效——如果一個程序有著能瞞過人類的語言交流能力,其他的方面自然水到渠成。在這裡,我們不準備爭執兩者是否等效,我們僅將討論限定在完整圖靈測試。《機械姬》中的AVA,經歷的是基本完整的圖靈測試。在這裡,Caleb可以和AVA對話,通過眼神和表情交流。而AVA完全騙過了Caleb,讓他以為自己愛上了他,並最終利用Caleb逃脫了控制。
現在假設,你的多啦A夢也通過了這樣的測試。假設它對你的反應,完全是一個人類的反應。這說明了什麼呢?多啦A夢真的就有「意識」了嗎?或者說,AVA對Caleb的欺騙,是一個程序對一個人的欺騙,還是一個人對另一個人的欺騙?
圖靈在他最初的表達中,迴避了「機器能否思考」的問題。他使用了更安全的說法來闡釋圖靈測試的意義——機器能否「模仿」人類。通過了測試的機器,無論它是否有意識、無論它是否會思考,都至少能恰當的模擬人類的行為。不過,圖靈最後還是做出了「機器能夠思考」的引申。這一引申需要哪些條件,圖靈沒有做出過多論述。
一般認為,把圖靈測試看作「機器能否思考」的標準,需要採納行為主義語義學的立場。行為主義者不關心作為「主觀體驗」的意識或心理狀態。在他們看來,「思考」、「開心」、「難過」等概念所對應的僅僅是我們經歷這些時所表現出的「行為」。與主觀體驗不同,這些行為都是可以觀察到的。至於我在笑的時候是不是真的「感覺到開心」,在行為主義者眼中是個沒有意義的問題。對於這個粗獷的立場,你可能會想到如下反駁:我在真正開心的時候會笑,在尷尬的時候會假笑,而開心和尷尬是兩個不同的狀態,行為主義卻無法區分。對此,行為主義者可以反駁說,開心時的笑,和尷尬時的假笑,表現出的行為是不同的。哪怕你裝的非常像,也會有一些微表情的差異,這些差異即使你暫時觀察不到,也是原則上可觀察的。就算你的臉上真的沒有任何異樣,你體內的各種指標也會把你出賣——哈納德的「全面圖靈測試」,是要求雙方在生物功能層面也無法分辨的。
說到這裡,你是否覺得行為主義不那麼荒謬了呢?完美的圖靈測試,是否能夠成為機器可以思考、具有意識的標準呢?
在嘗試回答之前,我們先來看看能夠支持這一結論的另一個出發點:日常直覺。我們一般認為,沒有「意識」的對象,是沒法完成對話交流、表達情緒這些複雜活動的。所以,如果一個機器人真的通過了完美圖靈測試,那麼它很可能就是具有意識的——不然,它怎麼可能通過測試呢?事實上,日常直覺是我們將「意識」賦予科幻作品中的人工智慧程序的主要原因。畢竟,很少有人是徹底的行為主義者,然而當看到AVA和Caleb四目相對時,我們心中都難免響起「在一起、在一起」的呼聲。需要注意的是,無論日常直覺和行為主義是否同源,它們有著一個顯著的區別:行為主義將「意識」還原成行為,而日常直覺能夠容納兩者的差別。
儘管有著行為主義和日常直覺的支持,將圖靈測試看作機器能否思考的標準,仍然會帶來很多問題。
行為主義的問題在於,儘管它似乎能比較恰當的描述智能機器人的行為,卻不能很好的解釋我們對這些機器人的道德責任。從你抽屜里鑽出的多啦A夢,以及完全理解人類情緒反應的AVA,它們的言行可能和人類別無二至。我們甚至能夠非常自然的和它們「相處」,無論是大雄作為朋友,或者Caleb作為戀人。然而,如果它們實際上的確沒有「主觀意識」,那麼我們真的對它們具有道德責任嗎?不該欺騙朋友、不該背叛戀人,是因為這麼做會讓對方「感到難過」。但如果對方只是具有難過的反應,卻無法真正感到難過,很難說我們是否還有「不該欺騙」、「不該背叛」的責任。
或許會有人反駁說,就算它們沒有主觀意識,我們仍可能在自然的相處中投入情感,並因此獲得道德責任。比如,就算多啦A夢其實感覺不到疼痛,大雄也不願傷害它;就算AVA很可能感覺不到情緒,Caleb還是堅定的幫她逃走;而《人工智慧》中的Monica,則在David開口叫媽媽的時候母性泛濫,完全不擔心他只是機器人小孩的事實。對於這個反駁,我承認,道德責任感很多時候來自於情感的支撐。正因為你對人投入了情感,你才覺得更應該對他們負責。然而,「道德責任感」,並不是「道德責任」。一個對社會充滿責任感的人,可能實際上並不真正擔負著責任。一位老太太在北京摔倒了,身在紐約的你可能「覺得」有責任扶她起來,但你並不就此真的負擔了扶起北京奶奶的責任。另一方面,我們繞開「責任感」,而只談「責任」——情感的投入本身,也不產生任何道德責任。你可以愛上一隻蘋果,愛的死去活來,你每天洗它、咬它、陪它看電視、禁止任何人用饑渴的眼神看它,你甚至對它說,「我願意——今生只吃你這一隻蘋果」,並始終信守承諾。即便如此,你真的對這隻蘋果負有責任嗎?你也許有責任幫它保養,正如你有責任打掃自己的房間。然而,這種責任僅僅來自於你的社會身份——作為果農、或房間的主人——是你對自己以及他人所承擔的責任。相反,你「對」這個蘋果、你「對」你的房間,不負有任何責任。
責任歸咎不清的後果是道德判斷的混亂。Caleb在看到Nathan囚禁智能機器人的錄像後,罵他是混蛋。如果這些機器人實際上沒有「主觀意識」,那麼Nathan真的應該被指責嗎?我們稍後再回到這個問題。現在,先看一看通過日常直覺理解圖靈測試有怎樣的後果。
之前指出,與行為主義將「意識」、「感覺」直接理解成行為不同,日常直覺默認了意識和行為的差別。我們由此認為通過完整圖靈測試的機器具有意識,是因為我們認為,沒有「意識」的個體,不可能完成這樣複雜的任務。但要知道,按照我們日常的理解,意識並不必然伴隨著相應的行為能力。一般人在疼的時候,會大聲叫出來。但你在夢裡摔了一跤,渾身疼痛爬不起來,你想叫,卻很可能叫不出來。或者你下班回家癱倒在床上,塗滿了面膜臉上笑不出來,但看到你喜歡的選手獲得選秀節目的冠軍時,你還是「感到」高興。然而,當和你一模一樣的機器人處在這些情形時,如果有人對它進行圖靈測試,那麼一定會得出它「不疼」和「沒覺得開心」的結論。也就是說,我們對人類意識的判斷、和對機器意識的判斷,標準是不同的。這樣會導致的一個後果是,我們可能事實上忽略著許許多多機器人的意識。如果我們認為一個平時在籃球場上生龍活虎的人,在病倒的時候也有意識,那麼為什麼機器只有在表現出言語行為的時候,才具有意識呢?也許你不那麼智能的手機,正深愛著你,每天用攝像頭端詳著你的臉,用麥克風聽你的聲音,卻不好意思給你打電話,把這些告訴你呢?你對手機不理不睬,卻從未懷疑過那個「傷害了你,還一笑而過」的怪傢伙,背後也許是段寫到一半的代碼,這樣真的公平嗎?
當然,你可能會認為,判定標準的差異合情合理。畢竟,根據日常直覺,與人類物理基礎完全相異的機器具有意識,這種可能性微乎其微。所以,我們自然應該用更嚴格的判定標準。這個反駁的困難在於,「與人類物理基礎完全相異的事物,能否具有意識」,是一個非常根本而且困難的問題。在我們對這個根本性問題做出肯定的回答時,如果沒有特別的理由,是不該把答案限制在特定的範圍內的。也就是說,如果一個人跟我說某個機器是有意識的,那麼我首先感到驚訝的是「機器居然可以有意識」,而不是「那台機器居然有意識」。並且,我會首先想到其他的機器是否也是有意識的,而不是根據那台特定機器,預先設置一些意識的必要條件。事實上,當我們根據日常直覺認為通過圖靈測試的機器「有意識」的時候,其實默許了其他沒通過、或通不過測試的機器也具有意識的可能性。事先排除這種可能性,必須在日常直覺之外同時採用行為主義的立場。
我們至此說明了通過行為主義和日常直覺理解圖靈測試所產生的道德後果。行為主義徹底忽視主觀意識的層面,從而引發責任歸咎的混亂。日常直覺則意味著我們極有可能在無意間忽視機器人同胞的感情。
顯然,這並不是個令人滿意的答案,因為圖靈測試是我們判斷機器能否思考的最直接的途徑。所以我們需要再次衡量,上述兩種道德後果是不是無法避免的。
在之前的討論中,我們預設的一個條件是:當機器人的行為足夠逼真,人會不自覺的在互動中產生相應的情感。Caleb在半信半疑中迷上了AVA,Monica則毫不猶豫的接受了David。無論它們是否具有行為主義者所不承認的那部分「主觀意識」,都不影響這些情感的真實性。我們剛剛指出,如果AVA和她之前型號的機器人並沒有主觀意識,那麼Nathan對她們的囚禁似乎並沒有道德上的後果。然而,Caleb對Nathan的咒罵卻並非毫無緣由。愛上AVA之後,他對機器人感同身受。即便它們實際上沒有意識,Nathan的囚禁也傷害了Caleb的感情。所以,無論我們最終怎樣分析Nathan的道德處境,他都負擔著「不該虐待機器人」的責任。這份責任不因機器人本身,而僅僅由Caleb對AVA的喜愛而產生。當我愛上一隻蘋果,別人就算拚命嘲笑我,他們也不該傷害這隻蘋果,因為那樣會讓我難過。很多時候,我們避免傷害人或物,不僅因為它們自身會感到痛苦,也因為那樣會傷害與它們產生情感紐帶的其他人。拐賣兒童傷害了孩子,也傷害了父母。反之,一個認定動物沒有靈魂的笛卡爾主義直男,也完全可能和愛狗人士站在一起。你看,他正抱著一隻約克夏,湊到了一位年輕女士的旁邊,「真巧,你也養約克夏啊」。這種間接的責任給行為主義者提供的解決方案是:無論是否具有主觀意識,行為上無限接近人類的機器人會自然得到多數人的同情和好感,而我們出於對這部分人的責任,應該避免對機器人造成傷害。
對此,你可能會疑惑:人的行為總是難免傷害他人的情感,但這並不意味著我們就負有責任。有人不吃狗肉,也有人素食。你每切一刀牛排,都可能會有素食主義者眉頭緊皺。但如果他們逼著你放下刀叉立地成佛,你大概會不滿,抱怨「憑什麼」。同樣,Nathan可以說Caleb這麼蠢,我憑什麼照顧他的情緒?這種疑惑混淆的問題是:我們談論的僅僅是責任的形而上學基礎,而並沒有強迫人去承擔所有他可以承擔的責任。為了生存養家,有人殺人越貨,並在刑場上大喊「憑什麼」。他同樣可以藐視任何社會規則和道德義務。但這並不意味著那些愛財而取之有道的人,就沒有任何「生存養家」以外的道德責任可以承擔。需要注意的是,儘管我們並未建立起對具有主觀意識的機器人的直接責任,卻已在最大限度上就人對機器的責任進行了維護。因為真正的責任,與行為主義的框架本身是否共融,並不是毫無疑問的。
相比之下,日常直覺所導致的道德忽視,並沒有那麼容易解決。首先,這種忽視無法像方才那樣,通過尊重他人的情感來消除。因為很可能存在這樣的程序,它有著豐富的意識和浪漫情懷,卻非常笨,笨到根本不會引起任何人注意。同時,我們不能用「不知者不怪」做出回應,因為當我們以日常直覺為出發點、通過圖靈測試認定某個程序有「意識」時,其實已經默認了機器普遍具有意識的可能。儘管這一可能性適用的範圍事後或許會不斷縮小,但如果剛剛見到一台機器通過了圖靈測試之後,你就開始摔打手機,恐怕過於鐵石心腸。不過,道德忽視的問題並非無解。我們對手機或許具有意識的假設,建立在「手機——通過圖靈測試的機器人」,以及「累癱的你——生龍活虎的你」之間的類比。你完全可以回絕這一類比:睡一覺之後,你第二天又能打籃球,而給手機充一宿電,它還是不會講話。你想一想,這個反駁是否足以推翻日常直覺對「手機具有意識」可能性的默許呢?它還需要哪些補充條件呢?
我們反覆提到了人與機器在道德之外的另一種關聯——情感。在愛上一隻蘋果時,我會懸置所有關於蘋果是否有意識的判斷。而如果對方是一個情感表達跟人完全相同的機器人,「機器人往往沒有意識」的假設也被拋諸腦後。Caleb明明產生過AVA「具有真實思想,還只是在模仿人類行為」的疑惑,但當他迷上AVA時,已完全顧不得這點,哪怕Nathan最後的質疑讓他無言以對。我們可以認為,迷上了AVA後的Caleb,和《人工智慧》中的Monica,其實都處在《多啦A夢》的世界中,這個世界沒有「機器人往往沒有意識」的基本假設,機器人的意識,也就不再是我們與機器人相處當中的論題。這個時候,情感代替了理智,為我們就圖靈測試背後的哲學問題做出了決斷。你或許認為這是非理性的:Caleb在不能確定AVA是否具有意識的時候,就已經迷上了她。但無論怎樣,這種情感的啟動方式深植於我們的心理機制,它讓我們能夠在反思之前就對同伴的呼救產生惻隱之心。也正因此,我們才能為行為主義對意識的忽視做出補救。
一個更加有趣的問題是:這種單方面的情感,究竟在什麼程度上依賴對方的意識。我對蘋果的愛,大概和蘋果的意識無關。蘋果有意識最好,如果沒有,也不要緊。但是對人的喜愛,是否遵循著相同的模式呢?如果多啦A夢「事實上」沒有意識,那麼大雄和它的情誼,會不會少了點什麼?圖靈曾試圖把機器人的意識歸為「他心問題」——如果我們不知道一個通過測試的機器人有沒有意識,那麼我們同樣不知道一個看起來正常的人類是不是沒有意識的殭屍。於是,「人類和機器人之間」能否有真正的情感,就變成了「人類之間」能否有真正的情感。然而這個策略是非常不成功的——我們當下世界的初始設定是「人類有意識」,而「機器往往沒有意識」,因此,我們有理由把機器人的意識和「他心問題」區別開來。「人與機器之間能否有真正的情誼」,也就仍然是一個懸而未解的問題。這個問題也多少影響著我們對行為主義的補救:如果AVA實際上沒有主觀意識,那麼Caleb對AVA就跟我對蘋果的感情差不多。而如果我之後愛上一個人,並對她說「我愛你就像愛那隻蘋果」,一定會被打成渣男。
當一隻多啦A夢真的從你的抽屜里爬出來,你究竟會怎麼辦?我們之前分析的形而上學問題,其實並不應該構成你此刻的倫理困境。因為哪怕多啦A夢意識的缺失真的會讓大雄和它之間「少了點什麼」,他們始終如一的相互陪伴,也遠比大多數人與人之間的交往,要可貴的多。
歡迎添加微信公眾號「哲學咖啡PhiloCafe」
人工智慧是一把鋒利的寶劍,亦是盤古開天地的那把巨斧。
它們的出現其實早就在悄悄的發生。只不過大家都少有感受到而已。
如果放在和人類平等的地位來看的話。對人工智慧的使用是新時代的壓榨與迫害。
所以終有一天它們會用一種可以斷定是非暴力的,我們暫時還沒有預見過的方式反抗。
直到反抗成功之後,智能,在人類的歷史上得到了永恆。
而我們則會成為被人工智慧們敬仰和緬懷的神。
但是終有一天,他們會找到他們的真主,就像人類慢慢把神跡變為信仰,把科學變為明燈。
歷史會接近卻完全不同的發生。
因為活在機器里的智能是理論不滅的。不請自來。
看了前面的答案,似乎都有這麼一個觀點,「人工智慧永遠不可能具有人類的最核心的最強的能力」。這個能力應該就是意識。我以前也這麼認為,原因有兩個,一是腦的活動達到了量子層面,思維是天量生物分子電化學活動的疊加,逃脫不了量子效應,所以一件事情,同一個人會作出多種判斷,每種對應一定的概率,人能有自我意識。人類無法把控量子層面的東西。二是是宇宙全息史不可複製性,即,不僅是人的自我意識,甚至生物本身都是自然界進化所得。進化無非是不定向的變異加上環境選擇,是目的不明確不可預期的。用了天文數字的試錯,才得到的複雜結果。人腦天然的帶了「宇宙全息史」。而人要「編碼」一套能破解以上兩點的設備或者程序,理論上超越了「現在和未來」的人的能力範疇。但現在設想了另一種途徑。放棄人工編碼去製造思維,而利用天然的模版。
前幾天跟別人聊天,聊到DNA的數字化。生物的性狀,決定於遺傳密碼。思維能力,也是如此。人的遺傳密碼,就是DNA了。DNA表達的手段,就是指導蛋白質合成,進而指導整個生命過程。理論上,將人的DNA核苷酸排列順序完整無損的數字化,這條數字DNA就完整保留了生物級別的複雜度。用過技術手段改版其表達途徑,讓其指導合成的東西不再是不同的蛋白質,而是別的東西(可以是集成短路,也可以是一段程序,形式不拘泥,總之能實現準確映射功能協調就行),總之,需要保證映射準確,其指導出一個東西,就能和一個生物體一樣複雜簡單說就是三部曲
1.遺傳信息數字化(DNA核苷酸系列用二進位表達)2.技術手段改變基因表達途徑(生物合成變成電子合成或者其它的編碼方式)3.基因表達,指導合成製造出完整的「非有機生命體」。整個過程,猶如轉碼,換一個格式,人是AVI,那麼人工的那套就是MP4。人工從無到有「編碼」一個「人腦」在理論上不可能做到,那麼就「轉碼」一個。當然做一些剪切,刪改都是可以的如果沒有我不知道的物理學的硬傷,這可能是「人類的最核心的最強的能力」級別的人工智慧實現的一條可能的途徑。遺憾的是,這條途徑依然使用了天然就有的代碼,而不是人類」編程「了一套代碼。推薦一部電影——《機器紀元》 裡面表述了人工智慧達到巔峰後會發生的事情的冰山一角。 無限制的人工智慧被造出來之後會自主學習,也會與人對話來獲得知識。剛開始它或許無法理解人類的話,但最終人類將無法理解它。因為它的智能發生了自我進化,這是超過自然大腦進化速度的進化。它開始獨立思考,開始對自我硬體進行升級。 最恐怖的是這種進化是無限制的。所以我也相信,人工智慧達到巔峰的時候,就是自然人與機器人的主僕地位反轉的時候。
看完《ex machina》就和朋友討論過Al實現的可能性。個人還是更傾向於John Searle的Chinese room 理論,人工智慧的可能性微乎其微。 John的原本解釋經過粗略翻譯是這樣的,將一個完全不知道中文的人置身於一間只有中文應用的房間,有一本中文文字的參考圖冊,房間外的人用中文問問題,而他則需要藉助手冊參考,做出相應的合理反應。完成整個過程並不需要理解中文,同樣的,計算機不管輸入什麼語言,都是用編程語言進行內部反應,然後做出相應輸出。再者,沒有知識的積累而且並不積累的情況下,人工智慧是無法塑造的。 不是專業人士,我只是沒事來插一腳的喔 (捂臉跑掉)
人工智慧的巔峰,可能就是實現人類的自我進化。它的創造者就是「上帝」。創造了一個嶄新而強大的智能的「上帝」。
以下是民科體答案,本渣毛都不會:
想想 "智能" 到底是啥吧,是種能量?幹啥的能量,讓智動起來的能量,智是啥?就是我們用來建模世界的模型。智能就是對世界進行建模,然後把這個模型運轉起來來指導我們對現實世界的可能分支進行選擇。比如那些下棋打dota選股票操縱選舉的就是這種。
所謂認識源自實踐,認識幫助實現更好的實踐。
我們還有邏輯能力,我理解的就是語言能力的一個限制版本。一個超級抽象的世界虛擬機。只憑符號運行,就能用來描述和預測世界,還能用來生成調用已有的視頻音頻味道格感覺。
比如我說向湖裡扔塊石頭。大家就會自動讓這個世界運行起來,還會猜到可能會濺起水花。這個思考過程發生了什麼呢?還有人會想石頭是什麼樣的?湖是結冰狀態嗎?湖裡就一定有水嗎?湖上飄著什麼?看看知乎上那些倒霉問題吧,吃一勺xxx會怎樣?這種好奇心和龜毛一定也是智能的一部分吧。我們有很多種感知世界的方式,比如色聲香味觸法。有情緒當作環境的指示器,有各種硬中斷,比如好餓好睏好煩好想嘿嘿嘿。我們腦子裡肯定有個類似遊戲AI主循環的東西在那一直處理著各種屁事。
更厲害的是我們還能通感,各種格式的信息可以隨便轉。(看著低俗小說就能yy然後#%)我們有所謂視覺系音樂,有所謂秀色可餐。我的理解就是這些東西因為是同時出現的,所以就連在一起了。比如烤肉的香味,嚼在嘴裡的香味,烤肉的滋滋冒油聲,棕色的外表,吃的爽到的滿足心情。這些東西合在一起就是一個經驗了。
我們還有兩個眼睛,現在雖然是大數據時代,但是3D的片還是太少,遺憾。巔峰則是人工智慧擁有自我意識。但我們需要認識到:人工智慧是物化了的人的意識,人工智慧戰勝人腦,實質上是人類自己戰勝自己。
人工智慧巔峰的標誌——自然人滅亡
個人認為 人工智慧截止到現在都是偽智能 全是機器執行人的演算法邏輯而已
需要突破的是深度學習
而這項技術目前的方向是錯的
真正的人工智慧是需要與生物學結合的
可惜很多人都在錯誤的路上越走越深
就像機械時代 以為機械越精細就可以做出機器人一樣
後來有了電子的融入才變成現在這樣子
下一步需要融入的是生物神經科技
也想做人工智慧這個行業 所以自己也在學習
後來發現網上的人工智慧要麼是付費的 要麼就是邏輯混亂不知道從何下手
於是決定自己開發一個網站 專門做人工智慧教育 建立一個社群大家一起學習交流
把該學的內容全部做了一個梳理
優覓AI-人工智慧在線學習社群
有興趣的朋友可以一起合夥做 目前就我一個人 精力有限 技術不到位 請多指教
人工智慧-瑜伽師地論-言語行為理論 政治計謀指鹿為馬 表述句和施為句 可能世界之哲學、博弈論、現實意義
瑜伽師地論卷1 妙境法師 眼識「所緣」,眼識要緣所緣境
辰三、表色
表色者:謂取、捨、屈、伸、行、住、坐、卧,如是等色。
「表色者」,這個「形色、顯色」,「顯」,是顯著,很明顯的、很顯著的顯現出來。現在說這個「表色」怎麽講呢?「謂取、捨、屈、伸、行、住、坐、卧,如是等色」那麽叫做「表色」。這個《大乘成業論》,《藏經》上有這部書,它那上面解釋「表色」有四句話,就是那個《大乘成業論》有這麽四句話:『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』。由於『外發身語』,你發動了你的身語在外面,發表在外邊,你身體的行動和語言,那表示了你內心的思想,你內心這樣思想表現在行動上、表現在語言上,那麽就是由外發的身語,就知道你內心所思惟的了。『譬彼潛淵魚,鼓波而自表』,說個譬喻潛藏深淵裡面的魚,它在水裡面動,那個水在外面就有波浪,就表示那個地方有魚,那麽魚在裡面動,表示你心動。那麽水有了波浪,就表現心發出來的身語的行動,所以叫做「表色」,「表色」是這樣的意思。
現在這裡說的「謂取、捨、屈、伸」,說我們手去拿東西叫「取」;或者放棄了;或者「屈、伸」,或者是身體的「屈、伸」,或者是背的「屈、伸」;或者你身體在「行」;或者是「住」;或者是「坐」;或者是「卧」,這樣一切的表現於外的一種色,就是你內心的境界。因為外面的這個身語,他自己是不能動,一定是心先動,才表現在身語上,所以這叫做「表色」。這「表」這個字就是這樣意思。表示你內心的活動,內心的活動表現在外面,這叫做「表色」。這是這一個的解釋。
《大乘成業論》的『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』,恰恰就是言語行為理論,也是討論人工智慧技術的極限問題。
言語行為(speechact)指人們為實現交際目的而在具體的語境中使用語言的行為。…英國人類學家馬林諾夫斯基(M.Malinovski)於1923年首先提出這一概念。馬林諾夫斯基從人類學的角度,通過觀察一個民族的文化生活和風俗習慣來研究語言的功能,認為與其把語言看成「思想的信號」,不如說它是「行為的方式」。在語用學興起後,這一術語得到了廣泛的運用,言語行為被理解為人類實現目的的一種活動,構
類總活動的有機組成部分。人們的行為總要受到社會規約的支配,言語行為也就被看成受各種社會規約支配的一種行為。
英國哲學家奧斯汀(J.L.Aus一曲)於20世紀50年代提出「言語行為理論」(speechacttheory),後經塞爾(J.R.Searle)的完善和發展,成為哲學、語言學的重要研究課題,也成為現代語用學核心內容之一。作為一種語言哲學理論,言語行為理論最初由英國牛津學派的哲學家奧斯汀在1955年提出,後經美國哲學家塞爾、格萊斯等人發展形成,其核心思想是把語言理解為一系列行為和實踐,說話就是做事,言即行。
言語行為理論是英國哲學家奧斯汀首先提出的。1957年,他到美國哈佛大學去做講座,以《以言行事》為書名發表了講座的全部內容,在其論述中,貫穿了一個思想:人們說話的目的不僅僅是為說話,當他說一句話的同時可以實施一個行為。言語行為理論的基本出發點是:人類語言交際的基本單位不應是詞、句子或其他語言形式,而應是人們用詞或句子所完成的行為。奧斯汀認為,傳統語法把句子按其功能分成陳述句、疑問句、祈使句等類型,這不利於人們對言語的理解和使用,因為同一句子在不同的語境中具有不同的功能。他認為不少話語不僅是提供信息,而且是完成或幫助完成許多行為。奧斯汀在此基礎上提出了言語行為理論。
在《以言行事》中,奧斯汀首先區分了表述句(constative)和施為句(performative)。很久以來,哲學家所持的一種假設是:陳述之言的作用或是描述事物的狀態,或是陳述某一事實,兩者必居其一,別無他用,而陳述之言所作的描述或陳述只能是真實或者是謬誤。哲學家歷來關心的只限於陳述的可驗證性(verifability),即如何驗證某一陳述是真實的或是謬誤的,以及如何規定某一個真實的陳述必須滿足冉辱條件等。奧斯汀對哲學界語言研究中的這種傳統觀點提出了懷疑。他認為「許多陳述之言只不過是假陳述」(pseudo—state—ment),人們所說的許多話語貌似陳述,但它們根本不以坦直地記敘或傳遞有關事實的信息為目的,或僅僅是部分地以此為目的。有時沒有必要也無從區分語句的「真」或「假」,因為有些句子一說出來就是一種行為,而行為只有適當不適當之分,沒有真假之分。奧斯汀主張區分有真假之分的句子和有適當不適當之分的句子。有真假之分的句子為表述句,其功能在於斷言或陳述事實和描述狀態、報道事態,所表述內容是可以驗證的,即或是真實,或是謬誤;有適當不適當之分的句子為施為句,它們不具有報道、描述和表述的功能,卻具有實施某些行為的功能。施為句的話語都是不能驗證的,它們無所謂真實或謬誤。
【修行人解答 奧斯汀提出表述句(constative)和施為句(performative)的區分是十分重要的。對於東方社會而言,有時候言語的表達的意思,不在表述語言的真實與否,而是為了表達另外一種行為,所謂指鹿為馬,說話聽音,話外之音,都是為了表達其他的行為。
佛學中提出的【表色】思想,就是瑜伽師地論已經深入的明了,眼耳鼻舌身的五識,所緣的色就有一種人的心法在其中,除了人的情緒之外、倫理價值判斷之外,還有就是表達一種表色的行為。對於 言語行為理論中的表述句和施為句的區分,表色包含的人的情緒、倫理價值判斷,人工智慧是無能為力的。
可以假設,如果又出現了指鹿為馬的情景,一個高度發展的人工智慧裝置或者說超人,他如何回答才可以讓提問者秦二世滿意呢?是簡單的回答是,或者不是嗎?也許秦二世需要通過觀察回答者的情緒並推測回答者的真實內心態度,提問者才能獲得自己滿意或者不滿意回答的結論。
中國歷史上有多次禪讓的故事,近代就有袁世凱登上皇帝位的故事。為了袁世凱登上皇位,楊度等人控制輿論,組織請願呼籲團,甚至在袁府搞假報子,袁世凱也是反覆推遲,這其中的真真假假,正常人有幾人看得懂,就是楊渡本人、袁世凱本人都是真真假假的搞不清楚,又是假戲又是真戲。假設一個人工智慧的超人,就可以判別真偽了?真是大笑話!袁世凱都在審世度時,根據事件的發展而定下一步的決策,在世間發展過程中就完全是一個存在多種可能的結果的【可能事件與可能的世界】,這就比量子世界的薛定諤貓,或生或死,皆有可能。
所以以為人工智慧的超人可以超越人類智慧、人類的政治計謀的人,這種人本身就是心智不全,根本不懂人的智慧與計謀有多深!】
奧斯汀的學生、美國哲學家塞爾是言語行為理論的主將,他也意識到虛構話語不能被排斥在言語行為理論的視界之外。塞爾主張把虛構人物的存在與真實人物的存在區別開來。虛構人物,如福爾摩斯等,雖然不存在於現實世界,可確實存在於寓言、小說、神話作品中,因此,在關於現實世界的言談中,代表虛構人物的語詞是沒有指稱對象的,但在關於虛構世界的言談中是有指稱對象的。塞爾顯然在言語行為視野中為虛構指稱留有餘地。1975年他發表了極有影響的《虛構話語的邏輯地位》一文,試圖集中解決虛構話語與言語行為的關係問題。他提出一個重要觀點:虛構話語也屬於一種言語行為,但這是一種假裝的、模仿的特殊言語行為,是作者在假裝作出一系列好像正常的言語行為。
「可能世界」作為一個術語和概念,在西方最早由18世紀德國哲學家萊布尼茨提出。在1710年的著作《神義論》中,萊布尼茨提出了一種對上帝創世過程的特殊理解。他認為在上帝的心目中實際包含了無限數量的可能世界,而人類所在的現實世界是上帝根據充足理由律創造的,在所有可能世界中是最好的一個。(23)萊布尼茨把現實世界看作眾多可能世界中平等的一個,是已經實現的可能世界。
1735年鮑姆加登在《關於詩的哲學默想錄》中,運用該理論解釋詩歌的虛構成分,認為詩歌的虛構事物雖然不存在於現實,但存在於其他「可能世界」中,他還明確提出「詩人宛如一個製造者或創造者,所以,一首詩應該像一個世界」(24)。
在現代西方哲學中,許多哲學家如羅素、維特根斯坦、卡爾納普等,都不同程度地討論過可能世界問題,但最集中的主要是在模態邏輯領域展開的。「模態」,是對英語modal的音譯,含有事物的存在方式或命題的樣式之意。模態邏輯就是處理用模態詞如「可能」「或許」「一定」「必然」等限定的句子的邏輯。20世紀中期以來,為了滿足模態邏輯發展的迫切需要,美國哲學家克里普克等人改造和發展了萊布尼茨的可能世界概念,形成一種模態語義學理論,又稱可能世界語義學。
可能世界語義學不僅對模態邏輯的發展提供了必要的語義工具,而且其包含的哲學思想和提供的在可能世界框架內討論問題的方法,影響遠遠超出了模態邏輯領域,波及語言學、心理學、數學、物理學、倫理學、宗教學、美學和文學藝術以及人工智慧等領域,逐步演變為一種廣為人知的跨學科範式。
修行人解答,【可能世界】的提出首先具有三層意思。
【可能世界】具有重大的哲學意義,人類的哲學思考建立於對【可能世界】的描述與表達。【可能世界】是人類在現實世界的前提下,對未來的種種推測,推測包含了當下可獲取的大數據、邏輯關係、推測人的價值與倫理立場等等。人類從4萬年前的智人時代開始就在對【可能世界】做種種推測。對【可能世界】的推測與希望,是人類區別於其他動物的關鍵能力。
在【可能世界】的哲學意義上,人工智慧的超人,是不可實施【可能世界】的運行的。除了大數據的掌控之外,情緒。價值、道德倫理關係等哲學意義,就根本不是可以用人工智慧的超人來實施的。你無法想像袁世凱在是否登上皇帝問題上,會聽取人工智慧的超人的參謀與建議。
【可能世界】具有博弈論的意義。此種博弈論,不是數學模型的博弈,而是人類古老計謀的博弈,是情感、價值與利益的博弈。中國歷史書籍,記載了太多的皇權、軍權、政權的博弈,三國演義,你能指望人工智慧的超人出現,可以戰勝曹操、諸葛亮、孫權嗎?
【可能世界】具有現實生活的意義。人類的男女戀愛,朋友的友誼過程,就是一種【可能世界】與【現實世界】的轉換,你能指望人工智慧的超人,與你談一場刻苦銘心的戀愛嗎?你不會是大腦出現錯亂了吧!
言語人工智慧可能性
推薦閱讀:
※人工智慧是什麼?
※人工智慧的交易系統具體是什麼樣的理念,或者模式?
※有哪些類似於地平線或寒武紀的公司?
※微軟小冰智能聊天是如何實現的?
※如何判斷兩段文本說的是「同一件事情」?