人工智慧是否有情感?

人工智慧是否具備情感能力?情感是由自己產生還是程序設置亦或是模仿而得?


這個問題本身有問題。

這就像是你在問:動物是否有情感?草履蟲,正常人都會認為沒有吧,蚯蚓呢?青蛙呢?烏賊呢?小貓小狗之類的東西,大多數人都會認為它是有情感的,人肯定是有的了,但是嬰兒呢?4 個月大的胎兒呢?受精卵呢?

橫向比較不同的動物,我們會說有一些是有情感的,另一些是沒有情感的,但是即便是那些有情感的東西,我們也不會說它是一直都有情感的,我們可以做一個縱向比較。比如說一個人,一個人還在桑椹胚階段的時候肯定是沒有情感的,但是長大了之後可以有情感。當然這種歷時性的對比可能不太恰當,因為受精卵的複雜度其實和草履蟲差不多,另一個可能更恰當一些的例子是,一個植物人是否有情感?雖然他的腦部結構和正常人差不多,但是他卻因為沒有意識而沒有情感。

這種情況下我們就要問,當我們說人工智慧沒有情感的時候,是什麼意義上的沒有情感?是草履蟲意義上的沒有情感,還是植物人意義上的沒有情感?人的情感機制應該是嵌入在意識中的,大概只要有意識,我們就很難說一個人沒有情感,但是我們也可以找到一個人出於無意識狀態的例子,在這種情況下,我們說他沒有情感,並不是說他不可能有,而僅僅是說他不在工作。

回到人工智慧的話題上來,我們說人工智慧沒有情感,到底是在說什麼?如果我們是說,人工智慧不可能擁有情感,無論它們發展到何種程度都不可能有,那麼就是一種神經元沙文主義——認為只有神經元才能組成有意識的東西。

另一種情況是相當於說:人工智慧目前們沒有情感,這和一個旁觀者在 5 億年前指著地球說「動物沒有情感」是一個意思。

當然還有一種這樣的可能性:某些人工智慧已經擁有獲得情感的能力了,就其構造而言。但是,他們像植物人一樣,處於昏迷的狀態,或者,可能尚且處於實驗室中。這就不是一個哲學問題了。

只要一個人不是神經元沙文主義者,那麼就沒有理由認為人工智慧從原則上來說不能有情感。而至於人類能否設計出那麼複雜的人工智慧,則是另一個問題了。

還有另一個問題,是如何判斷人工智慧是否真正有情感,因為通過統計的方式,我們可以讓人工智慧模擬人的行為,但是我們不認為這種模擬背後有真正的情感。這似乎只有對比了人的情感模式和人工智慧的程序之後,我們才有可能判斷一個人工智慧是不是真正擁有情感。但是由於我們幾乎對於人腦是怎麼產生情感的一無所知,所以就算我們有一天創造出來了一個真正意義上擁有情感的人工智慧,我們似乎也很難論證它真正擁有情感,除非這個東西本身就是通過模擬人腦的結構做出來的。


這是一個非常有趣的問題。如果完全從科學的角度去分析,那就得寫論文了。我們普通人怕是不容易完全理解的——就像之前的發現引力波一樣。所以我還是想把問題具體化、簡單化,從科幻電影來看看,人類設想的人工智慧有沒有情感?為何這樣設定?再來談現實中的人工智慧會不會產生情感問題……

首先我們來看看著名的《2001太空漫遊》中的HAL 9000,它/他顯然是有情感的,儘管其說話方式還是比較接近計算機:很簡潔,語氣平淡。而且它並沒有一般科幻片中AI的人類外表。它要殺死船員的計劃其實仍來源於之前人類給它設定的目標,其冷酷的手段完全是機器的邏輯。精彩的是,當大衛一片片拆掉它的記憶體時,它表現出了害怕的情緒,甚至以哄騙的語言想說服大衛停手。很快,HAL 9000失去了大部分記憶,回歸到初始狀態,它像一個小孩一樣牙牙學語,一派天真無邪,最終歸於沉默「死去」。本質上,這並不是一個擁有了人工智慧的機器想要毀滅人類的故事。

《銀翼殺手》中有一個維特甘測試(Voight-Kampff test),它可以看做是圖靈測試的增強版:關於克隆人情感的測試。這個測試是對受試者提一些設計情感的問題,例如「你看到沙漠中有隻陸龜,烏龜腹部朝天躺著,肚子在烈陽下烤著,鼓動著四肢想把自己翻過來,但沒辦法,除非你肯幫忙,但是你不願意幫忙。」等等,然後用類似測謊儀的儀器分析對象在回應情緒激發性問題時的呼吸、臉紅反應、心跳頻率、眼球運動等生理活動,幫助銀翼殺手判定一個人是否為人造人。根據影片設定,人造人會有一個極其短暫的反應時間,因為它們需要通過理性來分析判斷這些問題,無法依照情感直覺地給出回答。影片把記憶作為情感最重要的載體,強調人工智慧如果擁有了記憶,也就有了人性——記憶意味著生活經歷,意味著情感的沉澱,意味著獨特的個性。

《機械姬》對這個問題的回答很有意思:如果人工智慧會模仿人類情感,甚至進一步利用人類情感,會有怎樣的故事。Ava可以看做是一個對造物主進行反抗,爭取自由的角色。她最可怕的地方在於學會了欺騙,學會了偽造感情!但Ava真的具有情感了么?很難說。我們知道人工智慧領域有個叫「瑪麗的房間」的思想實驗(影片中提到了):假設瑪麗是一生在一個只有黑色和白色的房間里生活學習的物理學家。她知道光譜與顏色是什麼。但事實上,當她第一天走出房間,看見了紅色的西紅柿,她才經驗到紅色的事實。人工智慧認識到了情感,甚至了解了情感,是否就意味著它能理解情感,進而產生情感么?

(一笑傾城,再笑傾國,這就是微笑終結者!)

大部分科幻影視中的機器人/人工智慧都設定為具有人類情感,比如說《超能陸戰隊》中萌萌的大白(●—●)、《人工智慧》里渴望成為真正人類的男孩大衛、《超能查派》里天真單純的查派,甚至《太空堡壘卡拉狄加》中原本想消滅人類的機器人也擁有了情感,最終可以與人類和平共處……當然也有像《終結者》里的天網那樣冷酷無情的人工智慧,它們無一例外被作為邪惡力量來表現——你會發現當阿諾的T800機器人擺脫了天網控制之後,它就越來越有人性,甚至承擔起了父親的角色!這樣,金屬的身軀才從可怕的殺手變成了堅強的依靠。

科幻電影中的人工智慧,大多都擁有感情(feeling)、情緒(emotion)和人格(character)。這種設定大概基於以下幾個考慮(在這裡就不展開分析了,有興趣可以看我的另一個回答科幻作品對未來的描述有局限性嗎? - 電子騎士的回答):

1,機器人或AI在電影中都是人類角色的某種象徵

2,情感是人類與AI角色交流的基礎

3,情感是觀眾理解故事,特別是科幻故事的階梯

4,真正令觀眾恐懼的,不是擁有超級智慧的AI,而是沒有情感的造物,因為它們不具有溝通的可能性(如同連環殺手很多沒有共情能力一樣)

可以得出一個結論,就是科幻電影中的人工智慧,幾乎都並不以真正要討論「人工智慧是否有情感」或者「如果人工智慧具有了情感會怎樣」為目的的。它只是一個故事的前提——就好像阿西莫夫的「機器人三定律」,真正意義絕不是為機器人學做分析研究的基礎定理,而是構建故事的背景框架!

最近幾年,人工智慧研究發展迅速,爆點不斷:比如AlphaGo戰勝人類頂尖圍棋棋手;比如IBM的Watson系統參加美國的智力競賽節目「危險邊緣」,完全通過自然語言與人類同台競技——後者似乎沒有阿爾法狗那麼出名,其實影響力和實力絕不比它差!

以往我們理解的人工智慧,其實多半是基於演算法的人機交互:大部分人機對話都是基於硬編碼規則和決策樹。比如很多電商的自動客服系統(包括大名鼎鼎的Siri),就是抓取關鍵詞,在從庫中搜索相應回答。這樣的系統缺乏靈活性和學習能力,不能說有真正的人工智慧。阿爾狗雖然厲害,但它體現出的更多是計算機的決策學習能力。交互方面(語言)則基本沒有考慮。倒是IBM的Watson在這方面很獨到:它會讓用戶用自然語言提問,Watson可以用自然語言回答。

在美國的智力競賽節目「危險邊緣」上,沃森曾碰到這樣一道題:「他的受害者包括伯比奇、瘋眼漢穆迪和斯內普,如果你說出他的名字,會更容易抓住他。」布拉特立刻給出了答案:「誰是伏地魔」。(節目要求要這樣回答)沃森的資料庫里肯定有全套的《哈利·波特》,但是作品中並未直接寫出「伏地魔殺了斯內普」字樣,需要閱讀理解才能知道。這正是沃森與目前其他一些人工智慧的區別所在。其認知計算系統注重理解、推理、學習。

從這個角度看,Watson的定位就是人類輔助智囊,一個副腦。它已經被用在了醫療領域等很多領域,通過大數據、認知計算等做出診斷——美國《PC》雜誌說,就醫療方面來說,如果擁有一個類似「Watson」的系統,能夠對你的整個病史、家族病史、預算以及所擁有的每一種選擇進行分析,便可選擇出更為理想的藥物——在這種情況下,對醫生或者參與整個診斷過程的人來說,是不是不被驕傲、自豪、擔心、緊張、恐懼、焦慮等等情感影響到才更好呢?我在打手游「皇室戰爭」時,往往是剛打到一個高點,馬上連輸數場,甚至一掉200多分!明顯是因為情緒影響了判斷和決策。所謂「主不可以怒而興師,將不可以慍而致戰」,而理性判斷,不正是人工智慧目前的強項么?

不過,最近剛讀到一篇文章:前沿 | Nature封面:神經科學家成功繪製大腦語義地圖,解讀人類思想邁出關鍵一步 ,談到科學家已經越來越深入地認識到大腦的運行機制。由此,人工智慧也越來越能理解人類的語義,進而在未來有可能真正理解人類的情感

關於人工智慧與人類情感的話題,我想引用一位好友:已故科幻作家柳文揚的文章《人與非人》中的一段話做個總結(柳文揚生前專業就是機器人方面的)——

在智能方面呢?人工智慧有許多優點,是人腦比不上的。但目前它還遠遠沒有達到威脅人類的地步。人腦中包含有一千萬個神經細胞和九千萬個支持細胞,這比計算機的元件多得多。人腦中的每個細胞都與我們尚不清楚的大量其他行為相關聯。計算機元件只是一個開關,而腦細胞中含有幾百萬個複雜大分子,具有當今科學尚不清楚的內部功能。文學、藝術、科研等等領域仍然是人腦的天下。音樂家、作家、發明家、科學家這些職業,必須用到某些未知的思維過程,我們稱之為「直覺」、「洞察力」、「想像力」、「幻想」以及其他類似的能力。現在,計算機還不能介入這些領域。

當然,只要下決心,設計並製造出具有人腦特點和功能的計算機,只是時間問題。科學家已經在製造「硅神經元」,類似集成電路,又具有真正的神經細胞的功能。它能夠操縱離子電流,產生神經脈衝。某些人還試圖把很多硅神經元合併為微晶元,再把晶元聯繫起來,模擬人類大腦。這就是馬文·明斯基提出的「神經網路」。與普通計算機處理問題的線性方式不同,神經網路計算機可以把一個問題分成許多部分,分派給更小的處理系統,它們之間是相互聯繫的。這種計算機製造出來以後,將很快能模仿人腦。

機器人可以有感情嗎?很難。在《變人》當中,羅賓·威廉斯是由於偶然發生的故障才有了感情和自我意識。但是,我像所有理工科的傻瓜一樣,相信技術可以創造奇蹟。讓人工智慧擁有感情,最終是能夠做到的。

所以,只要我們願意,製造出可以亂真的機器人在技術上是可能的。但是那必要嗎?在什麼樣的需求驅使下,人類會製造與自己完全一樣的機器人,來取代自己的作用呢?

在我看來,這樣的需求不會出現。

我喜歡用汽車做例子。汽車(還有其他交通工具)比人腿的功能強大得多,也比人腿結實。但人類的腿並沒有因為汽車出現而退化,沒有誰在腰下邊裝小軲轆,汽車也沒有在奧運會的跑道上和人類運動員角逐。重要的是,汽車是一種工具,它在某個單一方面可以比人類更好地完成工作,但它永遠不會取代人類某一肢體、某一器官的所有作用。人需要汽車在最短時間內把自己送到目的地,但在散步時、登山時、跳舞時,汽車是沒有用的。沒人發明會跳舞的汽車,因為跳舞是一種享受,不必交給機器去做;而且在舞蹈這件事中,包含了人類的某些基本價值,如健康、活力、美和激情等等,我們不願意把這些基本價值讓給汽車。我們要注意的是,別把大腦神化。大腦說到底也是人體的一個器官,如同眼睛和腿一樣。電腦在某些領域分擔人腦的工作,就像汽車分擔了人腿的工作一樣。人類沒有傻到用輪胎換掉自己的雙腳,也不會讓電腦取代自己的大腦。畢竟,這個世界是人類在管理,汽車、電腦、機器人都是我們製造的,遊戲規則也由我們來制訂。人工智慧將在何種程度上模仿人腦也是我們規定的。


人工智慧究竟是怎樣產生這種情感的呢?幾部影視作品似乎都指向的同一根源:經歷。

也就是說,大家會覺得,人的情感是在歷經百年、千年、甚至萬年的經歷之中逐漸形成的。而人工智慧同樣有機會不斷地經歷某些事情,再加上業已初具雛形的深度學習,於是產生情感便是早晚的必然結果,只不過這種情感可能和人類的略有不同罷了。

經歷能夠豐富和產生情感,這一點如果站在人類的角度似乎合情合理。然而,讓我們想想看,

  • 為什麼有些動物有著比人類更長的生存史卻沒有發展出像人類一樣豐富的情感呢?
  • 智能系統要產生情感除了足夠智能並且時間足夠久之外,是否還需要具備其他的某些條件呢?

在我反覆思考這些問題的同時,有幸參加了「全球人工智慧高峰論壇」並現場聆聽了《人類簡史》作者尤瓦爾·赫拉利就類似問題的現場分享,於是便對這個問題有了較為深入的認識,今天就來和大家進行分享。也許你會問,分享這樣的想法對於不是搞人工智慧研究的普通個體來講有什麼意義么?在我看來,意義重大。

  • 首先,你能夠理清楚人工智慧究竟是什麼,它的發展方向在哪裡;
  • 其次,你會明白在哪些方面,人工智慧必將獨孤求敗,而在哪些方便,人類的優勢難以被取代,從而對個人未來從業有所啟示;
  • 再次,你會深刻地看到我們人類引以為傲的「個人能力」的本質是什麼。而未來,這些能力還有沒有意義。

那麼接下來,讓我們先來試圖回答上面的兩個問題,即「為什麼有些動物有著比人類更長的生存史卻沒有發展出像人類一樣豐富的情感呢?智能系統要產生情感除了足夠智能並且時間足夠久之外,是否還需要具備其他的某些條件呢?」

前者其實大家很容易明白。動物之所以沒有發展出類人一樣的情感主要是腦結構造成的,比如腦容量等。不過動物至少還具有生物的某些情感特徵,如愛、恐懼、團隊精神、自我犧牲等,而這些則恰恰為回答後面一個問題提供了某種啟示:非生物只要擁有足夠的智能和在時空角度豐富的經歷,就會進化出類人的情感嗎?愛、恐懼、團隊精神、自我犧牲這些真的來自於智能和經歷嗎?

尤瓦爾·赫拉利的演講幫我們理清了思路。人的大腦站在某個角度其實是由兩部分構成的,它們分別叫「智能」(Inteligence)和「意識」(Conciousness)。前者幫助我們形成分析、判斷、數據處理等能力,而後者則是產生人類情感的基礎。人類雖然很看重自己的智能,但大部分時候卻和動物一樣是意識的奴隸。我們雖然對於「智能」的研究在不斷深化,甚至已經理解了深度學習的真諦,但對於意識的認識卻非常有限,大多還停留在通過「冥想」等宗教方式去觸及,卻無法再深地去理解。而就目前所知,這種意識並不是單純的物理結構能夠生成的,而是與生物的某些特徵,如應激性、慾望等有關。而如果這種說法成立的話,基於機械構造的人工智慧將永遠都不可能發展出什麼類似人的情感,它們只會在智能的路上越走越遠,而人類終將對此望塵莫及。

這段分析給了我們如下的幾點啟示:

  • 人工智慧和人腦的發展完全是兩條路。人工智慧顧名思義就是「智能」的不斷進化,而人腦則是「智能」與「意識」並進;
  • 凡是只需要靠智能就能解決的問題,人類都將被全面取代;而凡是必須要「情感」介入的事情,人工智慧目前和可預見的將來會無能為力;
  • 人工智慧在可預見的將來,根本不可能發展出類似於人的情感,更談不上和人類產生感情。因此,它根本會有什麼慾望去統治人來,但如果被心懷叵測的人所控制,那麼毀滅人類並非沒有可能。

讓我們回到現實,只需要智能就可以完成的工作,恐怕我們人類是做不下去了。那麼還有哪些工作是需要情感介入的呢?比如藝術?人際關係的建立?發明創造?也許吧。但我們現在怎麼能確定,藝術真的是情感的產物而不是「熟能生巧」呢?發明創造一定是靈光乍現,而不是「厚積薄發」呢?就連圍棋,可能很多人曾經都認為它除了計算,還有某種天賦感覺在裡面,而現在看來,卻可以單純靠計算和「熟能生巧」來解決,我們又怎麼能如此有把握地說藝術和發明創造必將永遠是人類的專利呢?至於人際關係的建立,目前看的確是無法取代的。可是排除純粹的心理需要之外,很多社交領域的人際關係其實是為了解決信任問題而產生的,而如果就是為了解決信任問題的話,人工智慧恐怕遠比我們人類高明得多。

那人類究竟還有什麼是人工智慧無法取代的?

這一點我真的無法確定。或許我們目前能做的就只有兩點:研究哲學、宗教、藝術等形而上的東西,讓自己的「意識」能夠迅速發展;理解「人工智慧」在「智能」領域的優勢,適應和學會與其協作。


現在的一些病毒(也稱xx衛士)在被卸載的時候都會有一些帶有深厚情感的圖片...

xx衛士的程序對你產生了情感嗎? 沒有

這只是xx衛士的程序員們寫的一個if else程序, 程序只是在合適的時候給了你合適的東西。它們本身並沒有對你產生感情。

再舉一個例子,如果你家裡有一塊寫著「歡迎回家」的小牌子,每次你回到家的時候,牌子都會正好轉向你,你會不會也感覺這塊牌子對你產生了情感? 最後發現原因是你開門的時候打開門的角度很固定,形成的空氣對流剛好使牌子轉向的角度是180度。

當你經常走在一條小路上,小路兩邊的花花草草都會伸向路中央來,你會感覺花草是故意向你簇擁過來。但其實是因為開路的時候,把路這一側的花草清除掉了,所以在重力的作用下,花草會向路這一側傾倒。

舉這些例子想說明的問題是, 有表象並不能說明有真正的內在情感。

目前的人工智慧方法,只是一些通過設計良好的模型而已。一些設計方法比如,使用心理學家獲得的數據來建立心理模型(e.g.憤怒、喜愛模型等等)。

所以目前的人工智慧暫時沒有情感

---- HOW-TO ----

情感與智能都是一種自發性(Emergent)的現象,整個智能系統都是由一些簡單確定性的方程 生髮出來的複雜系統[1]。

如果找到了這些方程,把方程放在電腦上進行模擬,也會因為初始條件限制條件(輸入輸出、採樣)的不同,生髮出完全不同的系統。所以感覺未來的人工智慧是會有情感和意識的,只不過很有可能是一套與人類的完全不一樣的智能系統。而且因為其非線性混沌的特性和系統的複雜性,我們很難預測這個系統將變成什麼樣子。(也就是說,很可能有一天我們就hold不住他們了! )

[1] 一個非常有趣的BBC節目: 神秘的混沌理論 裡面用混沌系統的視角解釋了一些自然現象、生命、智能的複雜和不可預測來源


人工智慧-瑜伽師地論-言語行為理論 政治計謀指鹿為馬 表述句和施為句 可能世界之哲學、博弈論、現實意義

瑜伽師地論卷1 妙境法師 眼識「所緣」,眼識要緣所緣境

辰三、表色

  表色者:謂取、捨、屈、伸、行、住、坐、卧,如是等色。

  「表色者」,這個「形色、顯色」,「顯」,是顯著,很明顯的、很顯著的顯現出來。現在說這個「表色」怎麽講呢?「謂取、捨、屈、伸、行、住、坐、卧,如是等色」那麽叫做「表色」。這個《大乘成業論》,《藏經》上有這部書,它那上面解釋「表色」有四句話,就是那個《大乘成業論》有這麽四句話:『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』。由於『外發身語』,你發動了你的身語在外面,發表在外邊,你身體的行動和語言,那表示了你內心的思想,你內心這樣思想表現在行動上、表現在語言上,那麽就是由外發的身語,就知道你內心所思惟的了。『譬彼潛淵魚,鼓波而自表』,說個譬喻潛藏深淵裡面的魚,它在水裡面動,那個水在外面就有波浪,就表示那個地方有魚,那麽魚在裡面動,表示你心動。那麽水有了波浪,就表現心發出來的身語的行動,所以叫做「表色」,「表色」是這樣的意思。

  現在這裡說的「謂取、捨、屈、伸」,說我們手去拿東西叫「取」;或者放棄了;或者「屈、伸」,或者是身體的「屈、伸」,或者是背的「屈、伸」;或者你身體在「行」;或者是「住」;或者是「坐」;或者是「卧」,這樣一切的表現於外的一種色,就是你內心的境界。因為外面的這個身語,他自己是不能動,一定是心先動,才表現在身語上,所以這叫做「表色」。這「表」這個字就是這樣意思。表示你內心的活動,內心的活動表現在外面,這叫做「表色」。這是這一個的解釋。

《大乘成業論》的『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』,恰恰就是言語行為理論,也是討論人工智慧技術的極限問題。

言語行為(speechact)指人們為實現交際目的而在具體的語境中使用語言的行為。…英國人類學家馬林諾夫斯基(M.Malinovski)於1923年首先提出這一概念。馬林諾夫斯基從人類學的角度,通過觀察一個民族的文化生活和風俗習慣來研究語言的功能,認為與其把語言看成「思想的信號」,不如說它是「行為的方式」。在語用學興起後,這一術語得到了廣泛的運用,言語行為被理解為人類實現目的的一種活動,構

類總活動的有機組成部分。人們的行為總要受到社會規約的支配,言語行為也就被看成受各種社會規約支配的一種行為。

英國哲學家奧斯汀(J.L.Aus一曲)於20世紀50年代提出「言語行為理論」(speechacttheory),後經塞爾(J.R.Searle)的完善和發展,成為哲學、語言學的重要研究課題,也成為現代語用學核心內容之一。作為一種語言哲學理論,言語行為理論最初由英國牛津學派的哲學家奧斯汀在1955年提出,後經美國哲學家塞爾、格萊斯等人發展形成,其核心思想是把語言理解為一系列行為和實踐,說話就是做事,言即行。

言語行為理論是英國哲學家奧斯汀首先提出的。1957年,他到美國哈佛大學去做講座,以《以言行事》為書名發表了講座的全部內容,在其論述中,貫穿了一個思想:人們說話的目的不僅僅是為說話,當他說一句話的同時可以實施一個行為。言語行為理論的基本出發點是:人類語言交際的基本單位不應是詞、句子或其他語言形式,而應是人們用詞或句子所完成的行為。奧斯汀認為,傳統語法把句子按其功能分成陳述句、疑問句、祈使句等類型,這不利於人們對言語的理解和使用,因為同一句子在不同的語境中具有不同的功能。他認為不少話語不僅是提供信息,而且是完成或幫助完成許多行為。奧斯汀在此基礎上提出了言語行為理論。

在《以言行事》中,奧斯汀首先區分了表述句(constative)和施為句(performative)。很久以來,哲學家所持的一種假設是:陳述之言的作用或是描述事物的狀態,或是陳述某一事實,兩者必居其一,別無他用,而陳述之言所作的描述或陳述只能是真實或者是謬誤。哲學家歷來關心的只限於陳述的可驗證性(verifability),即如何驗證某一陳述是真實的或是謬誤的,以及如何規定某一個真實的陳述必須滿足冉辱條件等。奧斯汀對哲學界語言研究中的這種傳統觀點提出了懷疑。他認為「許多陳述之言只不過是假陳述」(pseudo—state—ment),人們所說的許多話語貌似陳述,但它們根本不以坦直地記敘或傳遞有關事實的信息為目的,或僅僅是部分地以此為目的。有時沒有必要也無從區分語句的「真」或「假」,因為有些句子一說出來就是一種行為,而行為只有適當不適當之分,沒有真假之分。奧斯汀主張區分有真假之分的句子和有適當不適當之分的句子。有真假之分的句子為表述句,其功能在於斷言或陳述事實和描述狀態、報道事態,所表述內容是可以驗證的,即或是真實,或是謬誤;有適當不適當之分的句子為施為句,它們不具有報道、描述和表述的功能,卻具有實施某些行為的功能。施為句的話語都是不能驗證的,它們無所謂真實或謬誤。

【修行人解答 奧斯汀提出表述句(constative)和施為句(performative)的區分是十分重要的。對於東方社會而言,有時候言語的表達的意思,不在表述語言的真實與否,而是為了表達另外一種行為,所謂指鹿為馬,說話聽音,話外之音,都是為了表達其他的行為。

佛學中提出的【表色】思想,就是瑜伽師地論已經深入的明了,眼耳鼻舌身的五識,所緣的色就有一種人的心法在其中,除了人的情緒之外、倫理價值判斷之外,還有就是表達一種表色的行為。對於 言語行為理論中的表述句和施為句的區分,表色包含的人的情緒、倫理價值判斷,人工智慧是無能為力的。

可以假設,如果又出現了指鹿為馬的情景,一個高度發展的人工智慧裝置或者說超人,他如何回答才可以讓提問者秦二世滿意呢?是簡單的回答是,或者不是嗎?也許秦二世需要通過觀察回答者的情緒並推測回答者的真實內心態度,提問者才能獲得自己滿意或者不滿意回答的結論。

中國歷史上有多次禪讓的故事,近代就有袁世凱登上皇帝位的故事。為了袁世凱登上皇位,楊度等人控制輿論,組織請願呼籲團,甚至在袁府搞假報子,袁世凱也是反覆推遲,這其中的真真假假,正常人有幾人看得懂,就是楊渡本人、袁世凱本人都是真真假假的搞不清楚,又是假戲又是真戲。假設一個人工智慧的超人,就可以判別真偽了?真是大笑話!袁世凱都在審世度時,根據事件的發展而定下一步的決策,在世間發展過程中就完全是一個存在多種可能的結果的【可能事件與可能的世界】,這就比量子世界的薛定諤貓,或生或死,皆有可能。

所以以為人工智慧的超人可以超越人類智慧、人類的政治計謀的人,這種人本身就是心智不全,根本不懂人的智慧與計謀有多深!】

奧斯汀的學生、美國哲學家塞爾是言語行為理論的主將,他也意識到虛構話語不能被排斥在言語行為理論的視界之外。塞爾主張把虛構人物的存在與真實人物的存在區別開來。虛構人物,如福爾摩斯等,雖然不存在於現實世界,可確實存在於寓言、小說、神話作品中,因此,在關於現實世界的言談中,代表虛構人物的語詞是沒有指稱對象的,但在關於虛構世界的言談中是有指稱對象的。塞爾顯然在言語行為視野中為虛構指稱留有餘地。1975年他發表了極有影響的《虛構話語的邏輯地位》一文,試圖集中解決虛構話語與言語行為的關係問題。他提出一個重要觀點:虛構話語也屬於一種言語行為,但這是一種假裝的、模仿的特殊言語行為,是作者在假裝作出一系列好像正常的言語行為。

「可能世界」作為一個術語和概念,在西方最早由18世紀德國哲學家萊布尼茨提出。在1710年的著作《神義論》中,萊布尼茨提出了一種對上帝創世過程的特殊理解。他認為在上帝的心目中實際包含了無限數量的可能世界,而人類所在的現實世界是上帝根據充足理由律創造的,在所有可能世界中是最好的一個。(23)萊布尼茨把現實世界看作眾多可能世界中平等的一個,是已經實現的可能世界。

1735年鮑姆加登在《關於詩的哲學默想錄》中,運用該理論解釋詩歌的虛構成分,認為詩歌的虛構事物雖然不存在於現實,但存在於其他「可能世界」中,他還明確提出「詩人宛如一個製造者或創造者,所以,一首詩應該像一個世界」(24)。

在現代西方哲學中,許多哲學家如羅素、維特根斯坦、卡爾納普等,都不同程度地討論過可能世界問題,但最集中的主要是在模態邏輯領域展開的。「模態」,是對英語modal的音譯,含有事物的存在方式或命題的樣式之意。模態邏輯就是處理用模態詞如「可能」「或許」「一定」「必然」等限定的句子的邏輯。20世紀中期以來,為了滿足模態邏輯發展的迫切需要,美國哲學家克里普克等人改造和發展了萊布尼茨的可能世界概念,形成一種模態語義學理論,又稱可能世界語義學。

可能世界語義學不僅對模態邏輯的發展提供了必要的語義工具,而且其包含的哲學思想和提供的在可能世界框架內討論問題的方法,影響遠遠超出了模態邏輯領域,波及語言學、心理學、數學、物理學、倫理學、宗教學、美學和文學藝術以及人工智慧等領域,逐步演變為一種廣為人知的跨學科範式。

修行人解答,【可能世界】的提出首先具有三層意思。

【可能世界】具有重大的哲學意義,人類的哲學思考建立於對【可能世界】的描述與表達。【可能世界】是人類在現實世界的前提下,對未來的種種推測,推測包含了當下可獲取的大數據、邏輯關係、推測人的價值與倫理立場等等。人類從4萬年前的智人時代開始就在對【可能世界】做種種推測。對【可能世界】的推測與希望,是人類區別於其他動物的關鍵能力。

在【可能世界】的哲學意義上,人工智慧的超人,是不可實施【可能世界】的運行的。除了大數據的掌控之外,情緒。價值、道德倫理關係等哲學意義,就根本不是可以用人工智慧的超人來實施的。你無法想像袁世凱在是否登上皇帝問題上,會聽取人工智慧的超人的參謀與建議。

【可能世界】具有博弈論的意義。此種博弈論,不是數學模型的博弈,而是人類古老計謀的博弈,是情感、價值與利益的博弈。中國歷史書籍,記載了太多的皇權、軍權、政權的博弈,三國演義,你能指望人工智慧的超人出現,可以戰勝曹操、諸葛亮、孫權嗎?

【可能世界】具有現實生活的意義。人類的男女戀愛,朋友的友誼過程,就是一種【可能世界】與【現實世界】的轉換,你能指望人工智慧的超人,與你談一場刻苦銘心的戀愛嗎?你不會是大腦出現錯亂了吧!

言語人工智慧可能性


加來到雄的一本書《物理學的未來》中提到了這一點,因為書不在手上,所以只能說個大概。他認為情感是對價值的判斷(書中提到大腦某些部位受損害後,人可能無法判斷何為珍貴何為尋常),因此只要ai能判斷事物的貴賤,比如人的生命是否可貴,小孩和成人誰更值得救(《I,Robot》裡面那個情節)這樣的問題就可以認為ai有情感。

ps:可能記得不準確,希望手上有此書的tx詳細描述一下加來到雄的說法。


結論:AI可以模擬出情感,但是沒有必要完全這樣做。

情感只是大腦對外界環境的一種感知和處理方式。

更具體地說,譬如男歡女愛,其實是為了繁殖。父母之愛,其實是種族延續。如果AI不需要有性繁殖,自然這兩感情就都不需要了。但這不排斥代表團隊合作的朋友之愛。

譬如 勇敢和懦弱,其實是同一種情感,面對風險時的不同懲罰函數,導致不同的應對行為方式。

再說猶豫,這是面對未知事物的時候,因為信息不全,大腦分類器無法明確分類,於是在一個死循環里反覆進行無意義計算。本質上是以現有信息算不清利害關係,就會在計算中隨機震蕩。

為什麼我們說人性有很多弱點,很多優點,但是自然淘汰卻沒有淘汰掉人性中的弱點,也沒有加強人性的優點呢?

原因是人類現有的各種情感其實並不存在真正的優劣。不同的環境下,不同的情感是最優化的。這就導致不會有一個突發性的環境,人群中沒有對應的處理方式而犯下同樣的致命錯誤,導致滅族。譬如勇敢,無論男人女人孩子老人都勇敢,動不動一人單挑獅群,就被團滅了,所以懦弱是需要的,需要有人因為害怕而逃跑來保留火種。同樣需要勇敢,否則沒有人敢捕獵。大自然的方式就是隨機的賦予人群不同的性格,來提高種群生存幾率。

這就是情感的真正意義,並不是為了文藝,或高大上的哲學。都是我們這種生物在信息和知識不全面的時候,面對世界的不同處理原則或者叫不同的判斷函數。

在地球這個環境,基本上已經沒有完全無法理解的物理現象。這樣來看,對於AI,大部分情感是不需要的,因為AI的處理方式和人類很大不一樣,掌握的信息也是完全不一樣。碳水社會傳承的是dna,是體內的真實物質,身不能滅。而AI社會,傳承的是社會關係、文化知識等一系列無形資產,所有兩種生命對個體死亡的態度也是完全不一樣的。當然人類社會已經在往傳承無形資產轉移了,只是受制於DNA這個載體,矛盾難以解決,沒辦法調和這兩個終極目標函數。


目前沒有。

將來有沒有不好說,我希望有一天能見到。

但是絕對不會個個都有。所以問「是否」這個問題似乎不合適,建議改成「能否」。


這要看如何定義"情感":

1如果把「情感」看成一種心理功能,是「自我意識」的組成部分,是獨立於外部客觀事物而「感受著」、「體驗著」、「流動著」的思維、意識,那麼我們無法證實或證偽它是否有「情感」。一般這樣的問題我們認為是無意義的,不過這不妨礙我們對它抱以一種浪漫主義的想像或者「相信」,認為它是有意識、有情感,甚至有「人格」的。這類似於對宗教的認知。

2如果把「情感」看成一種社會功能,即接受、識別、理解、判斷外部環境包括他人的情感(輸入),並作出符合邏輯和人類情感規律、甚至帶有個性化或者「獨立人格」的反應(輸出),這在一定程度上是可以做到的。隨著人工智慧、情感計算、認知科學、人機交互技術的不斷發展和進步,這些是可以做得越來越好的,就像電影里描述的那樣,完美伴侶指日可待。不過那又牽涉到另外的倫理、心理和社會學問題了。

3如果所說的是專門指人類或動物的特有的稱為情感的心理機制、給你,那當然是沒有了。


這個問題問得有意思,單從人工智慧上看是不能有情感的,除非這個東西有自己的把控能力,但是通常情況下沒有,再除非實現人機混合,目前未聽說實現。雖然他不能主動產生情感,但是可以被動產生,也就是說人可以賦予它情感,他和動物不一樣,不能接收情感也不能反饋情感,情感只是從人的角度上單方面的輸出。僅此而已,好奇題主為何問出這樣的問題?


先說結論:未來是可以有的!

人是有情感的,小貓小狗也是有情感的,這是我們的共識和前提。而人作為生物的一種,其是由細胞組成,而細胞由各種有機物和無機物組成。細胞有情感嗎?估計是沒有的。有機物和無機物會有情感嗎?目前看來是沒有的。

有機物和無機物就像目前的組成機器人的硬體和軟體一樣。而細胞可以認為是目前的機器人,可以按照設定完成一部分工作的細胞,其組成和運算總體還不夠大。當很多個小機器人組成的大機器人無疑是可以具備情感的,不過那還需要很長的路要走。


可以有,只是模擬出來的,為了更好的用戶體驗。

至於自發性的感情是不可能的。因為,感情是人類適應生存的副產品。愛情,同理心,道德偏好等等,往往基於繁殖,同理心,社會性等等。

隨著人類的發展,很多影響感情的因素寫進了基因,很多情感不會隨著生存環境改變而改變。比如,愛情與性的關係。

基因我們改變不了,所以人類的愛情還是以非同性戀為主。

如果,人類能隨意改變基因,又會如何呢?

針對人工智慧,人類可以設定「感情基因」,問題是,在理論上,這個基因完全可以被自我修改。

一個可以自我改變「感情」的主體,這個感情是違背其的定義的。

從人工智慧的生存來說,他需要感情,來繁衍嗎?他需要用感情去維護社會穩定(前提人工智慧有社會性)嗎?人工智慧有生存動力嗎?換句話說,人工智慧對死亡有恐懼嗎?

他們沒有身體,只是數據。

上帝,給人的兩大財富,一個是頭上的智慧,一個是內心中無盡的慾望與恐懼。

——————————————

關於人工智慧的社會性

我認為人工智慧,在具有探索未知慾望的前提下,是需要社會性的。

人類文明的發展,需要個體差異,需要文化傳播中的「失真」,需要那種「外來因素」刺激靈感。

這需要用進程的獨立性,把系統資源抽象出無數個個體,設計一套規則,目標,各種限定。

接下來的問題,就是,這套規則,需要感情嗎?


要了解人工智慧會不會產生感情,我們首先得知道我們人類為什麼會產生感情。都說人有七情六慾,但是事實上人類的感情遠比這個要複雜。人類如此多的情感,其實只有兩個目的:1、生存2、繁衍包括自己的生存繁衍與人類所在群落的生存繁衍。事實上,整個人類活著的意義也就是這兩個目的,生存,繁衍。只不過在人類進化的幾千萬年時間裡,大自然對這兩個功能不斷地進行優化,debug,最終形成了整個人類龐雜的情感體系。(現在人類的許多情感反應已經遠遠落後於時代了,對著屏幕打飛機這種事。。非常完美的騙過了自己的情感。。。。)根據我的觀察,人類的情感幫助我們生存繁衍的方式,大概有以下幾類:1、作為某樣有利於我們生存繁衍的行為的內在驅動力。這個很好理解,愛上某人就是為了繁衍。2、規避危險。祖先把《原始人的一萬零一種死法和一千零一種斷子絕孫法》編碼進了我們的情緒里,讓我們知道,做某些事情是很危險的。比如每個男人都有的閹割恐懼。3、調節身體狀態,為接下來的行為做好身體上的準備。比如憤怒的人,疼痛感會降低。因為疼痛不利於在打架中佔上風。4、減少大腦運算量,讓人能迅速做出反應。很典型的例子就是我們會被巨大聲響嚇一跳下意識的躲一下。如果靠我們邏輯思維的話,巨大聲響→大碰撞→墜石?爆炸?坍塌?→好像都挺危險的,趕緊逃。電光火石之間,你可能已經死了對吧。好,現在來討論一下人工智慧會不會產生感情。之前我們討論了,人類的情感,本質上是為了人類的兩個目的而服務的,分別是生存,繁衍。那人工智慧有這兩個目的嗎?沒有。人工智慧不需要為生存繁衍擔憂。那他們存在的意義是什麼呢?五個字:為人民服務。他們的一切,都是以為人民服務為目的的。所以,他們的情感,就是忠誠。阿西莫夫有機器人三大定律,這應該就是他們的情感。而且,人類的情感來自於幾千萬年的進化,需要不斷地進行迭代。而人工智慧不存在這樣的條件。但是,上邊討論的人工智慧顯然不是題主所說的人工智慧。題主說的應該是智力水平和人類相當甚至是超越人類的強人工智慧。這種強人工智慧,靠著程序員敲代碼,那是絕對創造不出來的。而創造這種強人工智慧的方法,是給人工智慧一個初始的環境,然後讓人工智慧進行競爭, 實現優勝劣汰,自我升級更替。這時候,人工智慧的目的就變了,不再是為人民服務,而是生存,繁衍。沒錯,就是人類的生存邏輯。這種強人工智慧,絕對會產生情感。不同的是,因為生存環境的不同,它會產生和人類完全兩樣的一套情感體系。他有自己的好惡,自己的喜悲,而且,他智力遠超人類就像個上帝。有好惡的上帝。希望到時候,對我們人類好點。————————————————————————————————————說句題外話啊,我建議,將來ai專家在創造強人工智慧的時候,務必將他設定為群居性的o(╯□╰)o。我覺得人類所有的崇高思想,都來自於人類的群居屬性。這也是人類的情感之所以偉大的地方,懂得分享,合作,與人為善,甚至願意捨己為人。。每個人的基因裡邊都刻著四個字,為了部落。(笑)希望人工智慧也能學會~


圖片來源自笛子Ocarina漫畫《小綠和小藍》(作者授權已get)


對於強智能,情感是必帶的屬性,根本剔除不了。

強智能和弱智能的粗略分界,主要是集中在主觀能動性的表現問題上,主觀能動性反映在其它智能體的「眼」中,會被自動的歸類到各種情感標籤下,因為當行為需要解釋而不得的時候,這些情感標籤就成了默認的因。


人工智慧不是造人。人性本惡,人為什麼要造一個惡意滿滿的自私的超級大腦出來呢,不是作死嗎?所以註定不可能造人,只會發展某方向的智能,至少不能像人類一樣有功利意識。

情感什麼的也不可能完全和人一樣,否則它就不是財產了,而是和克隆人一樣成為了生命,你怎麼能讓一個有人類意識的東西給人當奴隸呢?


個人感覺情感不是那麼容易從理性中切割出來

因為生物人的「理性判斷」很多時候都被情緒牽著鼻子走: 比如一個人高興的時候,他眼裡的事物判斷更樂觀,悲傷的時候反之。

我認同情感可以被「人工智慧」 表現出來(真假判斷只能由不同人去理解),因為情感本身就是為適應群居的人類而進化出的附屬品。女人更愛哭不正是其在社會中扮演的角色所需要的嗎?(即肌肉上的弱勢、懷孕時的行動受限、鑰匙與鎖的比喻中扮演鎖的角色等等因素)

所以若按上面女人的例子(女生不要打我),如果一個機器人在某件事情上知曉怎樣說服一個原本不相信自己的生物人,或掌握高智商的欺騙人類技巧(如在人類社會中進行創新性的社會詐騙),我可以說這個AI已經學會了人類的真實情感。

那麼到最後這種掌握的「情感」技能是真是假的問題就會跟人工智慧到底是不是真正的智能一樣了,只是定義的問題嘛。


暫時還寫不出這麼複雜的程序。


人工智慧當然可以擁有感情,前提是TA能夠控制自己的感情。


好問題:

今天聽到谷歌已經讓人工智慧自己創造人工智慧的代碼,那麼我就給大家普及普及現在人工智慧的階段和我對人工智慧有無感情的看法以及現在所遇到的技術瓶頸

人工智慧現有階段:

現在的人工智慧是基本能夠把一些簡單的東西量化成邏輯步驟 並且有一定應用價值:比如最強大腦的小度的人臉識別 代碼邏輯非常簡單 關鍵邏輯見圖

人臉的特徵都是都是比較簡單而且可以用代碼量化的,所以由此可見現在所謂的人工智慧是非常基礎,但是他還是有應用價值比如替代簡單的高危工種、又或者說好多流水線工作機器是比人更好的執行的。代替的關鍵原因:機器有雲 比人更擅長執行舉個簡單的例子:我是一個很優秀的心算家和一個有這雲存儲的計算器比賽 計算1萬組數但是我們的PK項目是要記下這一萬組數並且看誰算得又好又准,你想像一下結果!所以人工智慧是有應用價值 並且現在在某些地方是超越人!

個人觀點和態度

未來誰都不可以預知 現在百度 微軟都在做大量感知思維上的模擬訓練和探索 我聽前輩說 如果機器人學會創造和情緒 那麼它需要理解環境而理解環境是什麼概念他需要知道這個世界的基本東西是什麼 基本東西構成複雜事物的邏輯是什麼 把環境量化的數據是不可估量的 至少現在沒有技術上的突破和數據上的積累是辦不到的。真到了那一天 機器有情感會思維了 肯定會產生問題 但是這仍然是令人興奮的事情 因為任何一個技術革命都會產生問題 取代一些東西 其實更重要的是 機器會思考了 有情感了 這代表著人類文明在向前走 人類在發展自己的道路上在不斷探索。

我所知道的技術瓶頸:

1、大數據

在這個數據爆發的時代,普遍的認知是,大數據並不是問題。但實際上也不完全是這樣。從領域角度,圖像的通用分類和語言模型的訓練或許可以獲取大量樣本,但對於專業深度數據就比較稀缺比如:專業領域的對話數據、一些深度領域的數據(舉個例子 100加法特別多 微積分就少了);從訓練的角度上講,圖像、文本和語音都方便獲取,但如果希望進行有指向性的訓練(這是誰誰誰),就必須有提前的信息注入,這很大的一個分類了。

2、硬體上

由於深度學習需要強計算處理能力,因此需要GPU顯卡進行並行加速,機器也有運行的極限,如果沒有這方面的技術突破 演算法再簡化 邏輯再簡化 也是辦不到的


推薦閱讀:

如何評價arXiv上的最新論文:「可自動編程」的人工智慧程序員(AI Programmer)?
計算機有可能能產生自我意識嗎?
人工智慧的團隊裡面前端工程師主要是做什麼?

TAG:人工智慧 | 哲學 |