如何向人類同伴證明自己不是一個人工智慧?

如果超人工智慧的出現,偽裝成人類,人類有什麼辦法可以互相證明自己不是人工智慧?

-------------------------

問題的本意是:超人工智慧的出現,可能是無處不在的,有可能掌控人類,甚至滲透至我們的生活。有可能你收到的微信並不是真的由對方發出的,接到的電話也不是真的由對方打的…………超人工智慧無形的存在我們周圍影響我們,這種情況下,人類有辦法識別出同伴嗎?


直觀的來說,我覺得以下幾個方面的特點可能有助於向人類同胞表示自己的真實身份,當然,這些特點也對應著目前機器學習領域大家普遍關注的一些研究方向。

(1)人類似乎可以很好的解決小樣本的學習問題。

舉個例子,我們可能小時候某一天在畫冊上見到了?張動物的圖片(例如大象),將它記在腦海中,隨後當我們到了動物園親眼見到大象時,我們馬上可以許多種不同的動物中分辨出它來。僅僅一張大象的圖片就真的會具有代表性嗎?而且動物園看到的真實動物與我們見到的圖片差異可能非常巨大,但我們從小樣本中就已經提取到了關鍵信息。假設當時這本畫冊選擇了另一位攝影師拍攝的大象的圖片, 我們還能學會認出大象嗎?應該還是可以的,這證明我們人類的小樣本學習非常穩定,這有可能是通過類似於生成模型的方法實現的,也可能是通過遷移學習的方法實現的。

(2)從錯誤中學習和從別人的錯誤中學習。

2011 年時,IBM 的 Watson 曾經參加《危機邊緣》電視節目。當時曾經發生過這樣的情況,主持人提問:「填字遊戲和奧利奧餅乾出現的年代是……」,人類選手 Ken 搶答說 20 年代(1920s),然而主持人告訴他答案錯誤,接下來 Watson 搶到了回答的機會,只不過其回答仍然是 1920s 。這類錯誤很可能會暴露出一些人工智慧系統的真實身份。當然,目前的強化學習等演算法可以認為已經有了一定的「從錯誤中學習」的能力,但這與人類的學習還有一定的區別,例如人類會知道,分析對手的錯誤是有必要的,並且希望找到真正犯錯的原因。以 Watson 的錯誤為例,一個可能的理由是,1913 年被發明的具有現代特徵的 crossword 被命名叫「word-cross」(根據維基百科),如果是人類,從這個例子中可能會吸取教訓,在搜索自己的資料庫時需要一定程度考慮模糊化的用詞等,這不但可能會幫助改正回答時遇到的錯誤,還可以避免以後也犯類似的錯誤。

(3)對複雜計算問題的直觀感受能力。

對於許多複雜的多目標優化問題,人類的經驗和直覺很可能要比計算機枚舉和簡單的模式識彆強大得多。在科學研究領域,有大量這種有趣的案例。例如 Phylo 是一個 DNA 序列比對的遊戲。序列比對是生物信息學和基因組學中的一個基本問題。在序列比對這方面,儘管目前已有大量成熟的的演算法,但這些演算法並不能真正完美地解決多序列比對的問題。目前,多序列比對被歸為 NP 問題的一種。在解決這類問題時,人類玩家的直覺可能更加有效,在遊戲中,四個不同的色塊代表了四種構成 DNA 的 核苷酸,通過調整這些色塊的排列,玩家就可以很輕鬆愉悅地按照自己心中模模糊糊的標準來匹配多條同源的序列。玩家們憑藉直覺排列的結果常常可能比一些精心設計的演算法和評分有著更為準確的判斷。

(4) 關於能耗和臨界性的一個註記。
除此以外,一些物理方面的特點也可能可以幫助我們區分人類的智能和人工智慧,例如臨界性、能耗、結構形成的過程等。

@Summer Clover 已經在回答中提到了能耗的問題,我可以提供關於能耗問題的另一種視角。暫且先不考慮 Landauer 原理的限制,而是考慮一個很大的體系中的「集體智能」,類比為物理學中的凝聚態體系。當系統發生對稱破缺時(例如外界出現了刺激),系統的能量面會形成「草帽狀」,此時的系統有無數個能量最小態,而它們的能量相同,這就暗示我們,在這些狀態之間的轉變不需要耗費額外的能量的。

這種運動模式在能量面上對應於那些繞著「帽子」內沿的運動,它不需要耗費能量(一個自旋波的例子如上圖所示),對應於最低頻的運動模式。這種模式的出現與對稱破缺(相變和臨界現象)相關,它有著長的關聯長度和大的敏感性,因而普遍認為與生物的智能相關。在物理學中,這種運動模式以物理學家哥德斯通(Jeffrey Goldstone)的名字命名,叫做哥德斯通模式(Goldstone mode),從這個意義上來看,臨界性(學習時穩定性和可塑性的平衡)和能耗低很可能就是聯繫在一起的。

圖片來源:

Cologne Talk (title page)Cologne Talk (title page)

Long-lived Higgs mode in a two-dimensional confined Fermi system

Open-Phylo: give science back to the people - On Biology


謝邀。

提供一個小角度:能耗

支持一個強大的AI,必然需要很強的計算機。但算力一強,計算機的能耗就降不下來了。

因為經典計算機是不可逆計算機,與非門是不可逆操作,經典計算機計算時會不斷擦除信息。根據蘭道爾原理 (Landauer"s Principle),每抹去1比特信息,需要消耗的能量/釋放的熱量是 kTln2k為玻爾茲曼常數,T為環境溫度)。假設每個input數據平均要經過N個不可逆邏輯門處理,那麼其能耗的理論下限就是NkTln2。

這導致無法掩蓋的能耗比——

在做類似任務,AI比人腦的能耗會高出很多個數量級。

所以有一個比較簡單的區分方法:做任務,但不太去關心分數,關心能耗即可

測試一些對計算機來說計算量大的學習任務(比如一些視覺任務),然後用熱輻射儀之類的探測器測熱量或者能耗即可。這就是一個很可靠的單一指標。

無論AI系統進步什麼程度,只要它還是運行在電子計算機上的,我們都能用這種方法可靠地辨別。

------------------

最後統一回復一下評論區關於人腦服從Landauer原理的問題。

第一,人腦也是不可逆的計算,沒錯。但人腦對於執行許多任務的能耗是非常低的。尤其是對於那些人類生存攸關的任務(視覺、強化學習等等)。這是漫長進化過程中不斷優化的結果。包括大到神經網路的結構,小到蛋白質的摺疊方式,都經過了漫長的自然選擇。效率低、能耗高的計算方式會被淘汰

第二,人腦基礎的計算單元,我們知道的不是很清楚。但人腦的能耗比電子計算機(處理人類擅長的那些任務)低很多是實驗驗證的。只要電子計算機還依賴不可逆的經典邏輯門運算,它的理論最低能耗都會比人腦(處理人類擅長的那些任務)高。它的問題在於經典邏輯門操作——每一次與非門都在擦除信息,然後對1比特的輸入數據的處理(根據任務不同)又需要重複使用大量與非門操作。

簡單總結就是,進化帶來了低能耗的人腦設計;處理人類擅長任務時,人腦的能耗比電子計算機(因為經典邏輯門)的理論最低能耗還低。人腦和電子計算機都服從Landauer原理,但它們基礎的計算單元有不同的設計,所以出現【不可掩蓋的能耗比】。

大腦消耗的能量占人體每天消耗的能量的20%。正常人日均消耗卡路里2000大卡(Kcal),那麼大腦一天消耗的能量大約為400Kcal。大腦功率其實很穩定,大約就20瓦特左右。且這是囊括CPU、GPU、硬碟、內存等所有設備且視覺、語音、語言處理功能全面開啟的時的能耗。

我們再估算一下與李世石對決的AlphaGo的能耗。1202塊CPU(算100瓦),176塊GPU(算300瓦)。這個AI很單純,除了圍棋以外的智能都沒有。視覺部分讀棋盤的功能由DeepMind的工程師代勞了。語音、語言處理功能全沒有,又省了。只算CPU和GPU,功率已經是173千瓦。當然,目前CPU、GPU的能耗還遠遠沒有逼近理論下限。

簡單估算一下,AlphaGo作為一隻簡單純樸的圍棋AI的能耗大約是李世石的8650倍。一般認為最消耗計算力的視覺任務都沒實現呢,能耗已經差了數千倍了。估算可能稍有一些誤差,不過我們只關注數量級就好。

既然對方都是強人工智慧,那就不玩智能測試了。這個測試是把對於智能的測試轉移為對於人工智慧系統計算複雜度和計算機架構設計的測試。那麼,能耗就是一個簡單又可靠的指標。

以human-level的能耗實現human-level performance可以說又比實現單純某種任務的human-level performance困難太多了。「聖杯之上的聖杯。」


這題有三個得分點:

1。 作為自然人的我

2。或懷有不可告自然人的目的、瘋狂想模仿我的人工智慧

3。非要讓我證明我是人養的我的人類同伴

現有的(靠譜)答案,主要是圍繞第二點。

(圖片來自Kurzgesagt視頻截圖)

看到這個問題完全是因為 @Summer Clover 和 @傅渥成 兩人說要去參加這個 首屆「人工智慧」鹽沙龍報名啟動,其中一個報名要求是要回答個問題,其中一個問題就是此題。於是,我(假裝)陷入了長考。

我是同意他倆的,但我覺得這兩個答案在圍繞現在的人工智慧的技術局限在討論,這和我對此題的期待有所區別:如果一切技術問題都被解決了,那如何證明呢?

我也不知道。但可以討論一下。

但首先,我不同意 @童哲 的答案,他說:「 沒有辦法。 ... 人其實和機器沒有本質區別。」

這是一種很令人頭疼的誤解,很多對神經科學、心理學或是語言學僅有一知半解的人常有的誤解。

機器與人從本質上就不同,機器是為了解決一個明確的問題而設計、並優化的,而人,特別是人類的大腦,在出廠時所面對的是無數個未知的問題。

但如果一個機器人的問題是「如何更像一個人」,我可以從根源上將這個機器如人一般的製作出來。隨著我們對人腦的更多了解,隨著技術、材料上的突破,我認為在人類剩餘的日子裡——除非我們一兩百年內就被秒滅——人類完全有能力DIY大腦、人的身體 blah blah,whatever you want.這只是時間問題而已。但我們能製作出一個基本和人一樣的機器/人造生物,就能說人就是機器嗎?當然不能。

(圖片來自Kurzgesagt視頻截圖)

為了能夠更好的解釋人類智能——或是其他的難題—— 是如何工作的,我們老是喜歡將它比作某個我們已經熟識的工具或是系統。這在歷史上屢見不鮮。譬如,公元前三世紀因為人類對水利工程了解的增加,用水力學模型來解釋「人類智能」和人類身體的運作;而等到了16世紀,有了齒輪彈簧等等各種裝置,越來越多人認為人就是個裝置,一個複雜的裝置。

而到今天,人類最引以為傲的技術就是計算機,我們也自然而然地,將未知的複雜的問題與我們已知的信息處理系統作比較:存儲記憶、提取記憶、統計學習.... 當然,我也找不到比這些更好的比喻,但必須強調的是,這是因為我們「講故事」的能力受到已知知識的局限,而不是因為大腦真的就是像計算機那樣運轉的。總有一天人類回頭看21世紀,也會嗤之以鼻,就如我們現在想兩千年前有人居然用水力學模型來解釋大腦一樣可笑。

要延展開去,就跑題了。但就此,我認為,正確的說法是「在將來,生物與機器的邊界會越來越模糊」。

讓我回到本題上來。

如果自然人與人工智慧將會有一場賽跑,那這場賽跑將與當下,我們(的抗生素)與不斷進化的病原的那場賽跑極其相似:每當找到自己所創造的人工智慧的漏洞,人工智慧就能夠更上一層樓。

@Summer Clover 說的能耗(傅渥成也提到了),這是我最同意的啦。因為大腦最帥氣的一點就是,超級高效啊!我在另一個答案里提到過,「 大腦占人體體重2%不到,但消耗20%以上的能量和氧氣。(Raichle Gusnard, 2002 PNAS) 」。大腦的所有認知工作,只需要你吃的1個漢堡的20%就能支撐運作。說到底,能耗嘛,嗯,只怪我們人類不夠聰明,還沒有突破理論上的壁壘。再接再厲再接再厲。

@傅渥成 說的前三個點,其實都是一些學習和決策的問題。這些當然還是我們人類的殺手鐧,但只是當下罷了。說到底,當神經科學家完美的破譯了這些認知能力,我們完全可以把它使用在我們自己製作的機器上。

芝加哥大學的教育學家Benjamin Bloom 對學習能力的有這樣一套理論:學習能力,根據所設計的複雜性,可以分為6個認知水平:

  1. 知·識(knowledge):記住數據和相關信息,能夠回憶起過去學過的知識材料
  2. 理解(comprehension):有能力理解、複述和/或做一些相關的推斷
  3. 應用(application):將已有的知識合理應用在新的環境下,這個水平涉及到解決問題的能力
  4. 分析(analysis):這個水平需要有能力分割、歸納學習到的知識信息,並且明白不同信息之間的關係。
  5. 合成(synthesis)將不同的知識整合,使其變成具有獨特性的新的知識。
  6. 評估(evaluation)評價一個知識的價值

(這六點的內容以及上圖整理來自:Bloom』s Taxonomy: Levels of Understanding)

而我們現在的AI水平,還在第二水平的門口掙扎。簡直和人差得太遠了。

所以,就當下而言,我是完全同意 @熊辰炎 的答案:

不知道到底是多外行的人才能覺得這個居然是個問題。
講真,「如何偽裝自己是一個人工智慧」 要難多了。

但當人工智慧變得能夠自我進化,也就是題主說的「超人工智慧」,那麼這就成了 自然人的進化和人工智慧的進化的比賽。那速度上... 絕逼人工智慧的進化會更快。

說到底,這個問題的終極問題在於,人類智能和人工智慧的界限在哪裡?(這個問題大家快去回答)

而智能的精準定義是什麼?據我所知,從學術上對「智能」還沒有一個精準、值得在這個問題上參考的定義。圖靈在這個上面用了一個『比較』的方法,這個方法遠不完美,但至少在近期還沒有出現一個比它更好的新方法。

[推薦伯克利的一個教學材料:A Modern Approach]

同時,真到人工智慧已經可以與人類無二的那天,我很難相信,人類還會像是今天這個模樣。我不相信我們能夠抑制住求生的慾望,不去替換器官、不去裝上更完美、更方便強壯的義肢,我們還不能對自由地修改大腦的結構和鏈接。我的意思是,我估計那時候我們與人工智慧之間的區別可能真的只有到底是誰生養的區別了。說不定一個自然人被機器養大,而機器被自然人家庭養大。

人工智慧的關鍵還是在於人工。「如何證明你媽是你媽」的進階版:「如何證明我是人養的」。

另外,除了「我」與「偽裝成我的人工智慧」,這個問題的另一個得分點,還有「我的人類同伴」。

人實在是太好操控了。我們的行為充滿了套路。

給機器們下載最新的「人類心理學」,然後抓幾個人不斷地和它們做訓練就好了。估計那時候在人類大學裡開「機器心理學」課程,也會很受歡迎。

如何證明?一方面你需要能夠了解當下人工智慧的界限,還要能夠了解你這個人類同伴蠢不蠢、是不是個鑽牛角尖非要立功升職什麼的偏執狂,最後還要在短時間內一針見血做能夠說服同伴的行為。

Hmmm... 這麼看來,說不定人工智慧還能做得更好呢,人家隨隨便便就能把人類同伴的祖宗十八代搜出來,掌握這個人的知識背景、最近看了什麼新聞,還能通過表情、瞳孔變化、心跳、甚至直接接收腦電波神馬的分析出來這個人的情緒變化,進行各種推測——最後根據「人類心理學」再做一些合理反應,再賣一些無傷大雅的小破綻。

要是這樣還不行,我只能說我hin失望啊(這裡應該有《武林外傳》邢捕頭的表情)。

人類嘛,就是這樣,不太聰明、也很脆弱,老是恃強凌弱。雖然有時想想覺得人類還是很可愛的,但,總有一天,不是被更強的物種給壓制或藐視,就是死在我們自己的手裡。

跑題了,但最後強烈推薦Kurzgesagt的一個視頻《機器應該享有權利嗎?https://www.youtube.com/watch?v=DHyUYg8X31c》 (本題中的插圖,除了Bloom的那個以外,都來自這個視頻)

一句話總結:因為傷害會使得我們疼痛,而權利是用來保護我們以免受到傷害。如果機器會疼,那它們就應該有權利。


不同意排名第一的童哲的回答:

一個令人沮喪但是無法辯駁的事實是:人其實和機器沒有本質區別。不是說人就是簡單的齒輪,而是說人的複雜度已經被人工智在一定程度上被超過了(一些領域並沒有,例如物體識別)。人類思維和機器的思維已經沒有明顯的上限界限了(包括創造力,可以搜進化的機器),無論我們是否願意接受。目前機器的能力正在快速逼近人類,超過的部分將一騎絕塵地把我們甩在後面。

目前機器智能與人類智能的差距是全方位的,無論是複雜場景下的感知、認知與決策,還是對自我的意識,都是機器智能遠未掌握的。說到創造力,以作詩和作文為例,都不過是對已有詩歌和文章的模仿,也就能比蹩腳的寫手好些,「熟讀唐詩三百首、不會吟詩也會吟」而已。


目前在定義上,對於人工智慧與人類智能的區別,存在這樣的意見「AI沒有意識, 無法預測,沒有創造力, AI幾乎永遠無法與人類智能望其相背」

而人類容易犯的錯誤之一, 就是用一些自己也無法嚴格定義的概念去套用機器。

「 意識」 「 創造力」這些概念, 其實人類自身也不理解, 你站在人類的角度上, 去討論ai有無意識這個問題, 是自己陷入了一個思維的陷阱。 因為究其根本, 我們對自己有沒有意識這件事也沒有一個掌控的時候, 整個這樣的討論流於空泛。 而對於這些概念的進一步掌握, 取決於神經科學的進步。雖然我比較懷疑很快強人工智慧會出現, 但是即使出現, 它也不一定需要以我們人類能理解的方式產生意識, 達到目標。 說不定在另一個外星觀測者看來, 我們也是無意識的, 意識不過是這個被稱作「人」的東西所使用的多級神經網路里某個調節參數的輔助工具。

雖然目前我們可以通過一些表現自我情感意識的行為區別人類智能和人工智慧。但是,人腦這個東西, 即使是情感這些我們覺得很柔軟的功能,背後也是以海量運算為背景的,而目前的科學論文證實的是, 在視皮層的運算, 很多與目前的深度網路運算是很接近的。 有的人說人是向前看的動物而機器只會向後看, 事實上呢, 人對未來的預測也來自於對過去數據的大量積累。

我們並無太多證據證明AI是否和我們的大腦有著相類似的運轉方式, 但是有一點肯定的是, AI的發展源自我們對自身的模仿, 而對AI的探究反過來正在幫助我們理解我們自身 ,這也是生命最終的意義。

正如費曼所說, 只有你知道如何製造一個東西, 你才真正理解它。

鏈接:人工智慧vs人類智能小傳 - 混沌巡洋艦 - 知乎專欄

來源:知乎

著作權歸作者所有。商業轉載請聯繫作者獲得授權,非商業轉載請註明出處。


生理方面基本無法模仿,無論是體能上還是腦力上。另外真正的人類總是有明顯缺點,與人類對話即使是用打字的也能感覺到對方的情緒變化。我想人工智慧不至於存在這個問題。如果連生理和心理缺點也都模仿的一樣,會生病會殘疾會死,會抑鬱會恐慌會難過會興奮會神經錯亂,會信邪教會報復社會,會貪小便宜會耍拙劣的小計謀,研究這種一堆毛病的破玩意兒有什麼用。

有種東西叫「人性」無論正面的還是負面的都很難被模仿。還有一種東西叫「見識」每個人因為成長與生活環境的影響都有一定局限性,而且這局限性還是獨特的具有個體性的。另外太完美也是一種容易被識破的毛病,就算裝有毛病也會很快露餡。

而且人工智慧還不至於要有從嬰兒到成人再衰老致死的成長過程吧。要求能證明他是從嬰兒長起來的證據唄。再者你可以裝不著調,毫無邏輯性,胡言亂語思維跳躍,激怒對方,沒氣急敗壞的認真對待的八成是人工智慧,火冒三丈花樣翻新罵得你找不到北的或著你感受到他內心狂翻白眼卻虛偽的敷衍你的是人類。


先說結論:邏輯思維層面,基本無法自證。

超人工智慧如何證明自己是人類?

如果需要偽裝,只要模仿人類的感情、脾氣、性格、表情、語氣,植入部分記憶數據就可以了。生物特徵和本能反應很難實現,但實踐中並非無法做到。

人類如何證明自己是超人工智慧?

無法做到。因為很好檢驗,很多事情只有AI能辦到。

人類如何識別對方是不是超人工智慧?

先觀察生物特徵,如排泄物等;再觀察本能反應,如看片(你懂的)、強外界刺激等;如果是熟悉的人,很簡單,問一個只有你們倆個知道答案的問題就行。如果是陌生人,也有辦法,連續問一些人類無法回答的悖論問題,觀察對方的回答是否符合邏輯,只要是計算機的演算法總會出現BUG。

人類如何證明自己不是超人工智慧?

如果對方是熟悉的朋友,說一個只有你倆知道事情就行,理解是關鍵;如果對方是陌生人,你無法自證的,只能依賴於對方的判斷力。因為這裡蘊含的假設前提是,你能做的事情,超人工智慧都能做到;而超人工智慧做到的事情,你卻無法做到。問題換個提法就是,你如何證明自己是正常人?是不是根本無法回答。

注意:這裡沒考慮超人工智慧能源消耗和生物生長,否則最簡單粗暴的辦法就先關幾周,量頭髮看指甲長度了。反過來說,如果真的到了兩者完全無法區分那一天,那就是新物種的誕生和舊人類的末日。

PS. 其實你們有沒有考慮過,題主其實是一台超級計算機,正在進化中的人工智慧,來這裡參考各位的答案研究如何更好偽裝自己。


拍個透視的片子看看內部都是些什麼結構就知道了。


前幾天,李開復老師在微信里發了一篇自己寫的人工智慧方面的文章。我就開玩笑說,開復這其實不是你自己發的,這是你的 AI 發的,他的名字應該叫「小開」(「小開」是老上海話里類似富二代的意思)。

開復老師回復了一條語音,說「AI 能做這麼好的語音合成么?」嗯,這是通過語音證明一下自己。然後我又說,開復我還是不信,語音處理本來就是你的老本行(開復以前在卡耐基梅隴就是研究語音技術)。無法證明自己,這是「開復困局」。

後來,「小開」給大家發了一個大紅包...

一個會發紅包的 AI,當然是好 AI ^_^

如果一個人工智慧能夠通過圖靈測試,並且足夠強大,那麼如《未來簡史》中所言,有一天,是否能夠認為,類似的人工智慧本身就是有意識的。意識會是人類(或者其他生物體)特有的么?是否會超出我們目前的認知範圍?有意識的人工智慧,參見《西部世界》,在這未來,會是一種可能性。甚至,類似《西部世界》里,人工智慧同樣可以產生情感。

圖靈測試是指測試者在與被測試者(一個人和一台機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。進行多次測試後,如果有超過30%的測試者不能確定出被測試者是人還是機器,那麼這台機器就通過了測試,並被認為具有人類智能。

而一旦人工智慧真的產生了意識,他們和人類的區分度到底有多大呢?

多年前的經典科幻電影《銀翼殺手》里,主人公是一位專門追殺複製人的獵手,而最後才發現,自己其實也是複製人。原生的人類、複製人、人工智慧,如果都擁有意識,彼此之間的差異,真的有想像當中大么?如果擁有肉體是一種區隔,那麼肉體同樣也可以創造出來。

很有可能,在證明自己不是人工智慧的過程中,發現大家原來都是人工智慧。

也如《未來簡史》中所言,我們今天對於未來的思考,都是建立在我們已有的經驗基礎之上的。而未來,如果我們思考這些問題本身的基礎都變了,我們不再是今天的我們,那麼這種變化可能會是一種躍遷。

也就是說,在未來,或者未來的未來,一旦意識的界限被打破,很有可能,這一點變的不可證明。


「你不會是個人工智慧吧?」女友俯下身,看著躺在床榻上的我。

哈?為啥?

「因為你比我自己還要瞭解我啊,不是人工智慧,沒有大數據支持,我可不信。」

女友明顯是開玩笑的口吻,這幾年AI技術飛速發展是有目共睹的,但我可沒有聽說生化機器人可以做的與真人無異。更何況,我可是爹生媽養先生教的純種人類啊。

你真無聊,我隨意回答,電影看多了吧,人工智慧可沒有我這麼聰明,它們最多和你聊聊天氣,比賽結果什麼的…

「…也不會在情人節送我禮物!」女友打斷了我。

怎樣,滿意麼。你想要了很久的Louis Vuitton,經典棋盤格…

「你怎麼知道我想要了很久的?」

啊?你和我說…不對,女友從來不會讓我給她買什麼,都是讓我自己猜的。

「你怎麼知道我想要了很久的?」女友重復了一遍問題。

我,我是怎麼知道的…?我的大腦飛快運轉,也許...男友的直覺?

「你是,怎麼知道我想要了很久的?」女友的表情有點不太對勁了。

我不知道。我坐起來,雙手抱住頭——那裡開始疼痛,一些不清晰的東西似乎流了進來。

空?…空間,對!是你上個月轉發的說說嘛,同學生日她男友給她買的包,我當時答應你說給你買的,忘了? 我終於想起來了。

「你胡說!我都不用OICQ很多年了」女友咄咄逼人

這……我苦思冥想,絞盡腦汁。

「好啦!你那麼緊張幹嘛,是我去年生日時說的,你忘了吧。」 女友突然又笑了起來,跑開了,似乎讓我難堪讓她很開心。真是多變啊,女人。

好像是有這麼回事,我就說嘛…寶貝你真是的。

我默默把本來已經拔出一半的合金折刀收回背後的皮下空間里,又順手用T恤擋上,偽裝血液與皮膚快速復原,沒有痕跡。好不容易找到偽裝身份,安安穩穩活了這麼久,可不能栽在一個女人手上。

【第54663次任務報告,時間20xx年8月28日,對實驗體α號進行第一次禁忌問題測試。結果:目標感情有較大變動,狀態不穩定,詢問是否終止實驗,將其帶回總部】

【總部已收到。】


為什麼覺得這個問題是人工智慧問出來的 背後隱藏了巨大的陰謀


約出來吃頓飯,我就不信非人類還能出來邊吃邊談笑風生


真正的人類,只要做一道數學題就夠了


我的人臉識別準確率連50%都不到,怎麼可能是人工智慧


讓對方嘗試問一些語義理解方面的問題,尤其是代詞問題,比如

對方:小明把小王打哭了,他很受傷。請問,誰很受傷?

我:小王很受傷


並不能,一旦被試者意識到你是AI的可能性,在被試者心中該可能性立即趨向於100%,任何對此懷疑的懷疑都來自對技術缺乏信心。你越努力,只能越好的證明自己的模仿能力,甚至是對周圍環境的控制能力,比自證不是精神病人難多了。

在這裡提供兩個思路

1.使對方意識到認為你是人類,對其有正面影響

2.使對方意識到認為你是ai,對其有負面影響


判斷一個東西就是AI還是人有兩種策略,A策略和B策略。

A策略是當一個東西符合或不符合某種限定條件時候,判定這個東西是AI。

B策略則是當一個東西符合或不符合某種限定條件時候,判定這個東西是人。

假設AI的身體結構與人沒有區別,那AI就是人。聰明的人,愚蠢的人,奇怪的人。

假設AI的身體結構與人有區別,在允許破壞性檢測的情況下,拆了它。當然,它會死。

假設AI的身體結構與人有區別,不允許破壞性檢測,只能通過邏輯判斷。這種時候實際B策略已經失效了,只剩下A策略。也就是說這種時候只能判斷這個東西是AI,但是無法判斷他是人。

既然決定試圖判斷一個東西是AI還是人,那麼就已經假定了AI與人之間有區別。

可以判定AI是AI的前提就是有些特定問題人能回答而AI不能回答。

當問到這個人能回答而AI無法回答的問題時候,則可以判定這個東西是AI而不是人。

但無論問多少個AI和人都能回答的問題,都不能判定他是人。

這時候如果他真的是人那麻煩就大了,因為無法判斷他是人。

如果AI不會說謊,那麼直接問他是AI還是人。

如果AI可以說謊。

當AI的邏輯判斷能力與真人有明顯區別時候,也就是說AI比人笨,有可能通過幾個簡單的特定問題判斷它是什麼。但一般認為AI不大可能比人笨。

當AI的邏輯判斷能力接近或者超過人的時候,將無法判斷它究竟是什麼。因為判斷者的提問得到的反饋是「正確」與「錯誤」,而不是「謊言」與「真話」。

無論AI的邏輯判斷能力與人相比怎樣,只要AI被允許說謊,AI都可以通過全部謊話的方式來規避被判斷。

最後,如果AI不會說謊,但AI被別人騙了,認為自己是人。

那麼可以讓它連續、快速、長時間進行大量數學計算。如果是人,無論什麼人累了之後一定會犯錯誤。但如果是AI,它永遠正確。

如果他自認為是人,看起來是人,聽起來是人,聞起來是人,摸起來是人,走起路來和人一樣,做起事來也如人一般,甚至可以犯錯誤,那他就是人了。


很多答主根本就搞不清題意,都誤以為人工智慧代表機器人。人工智慧是一種賽博空間的東西,可以存在於任何載體。它可以在仿人類機器人的腦狀CPU上載入,也可以在網路中存在,不用和你面對面。什麼下體腫脹的言論都出來了,我也是無語了。

現階段還是很好證明的,目前人工智慧還不具備人類等級的智能。

但是人工智慧真正智能的時候,人類就屬於弱智了。欺騙一個弱智太容易了。


很遺憾,答案是不能。所有能區分人工智慧和人類的技術方法,都只能區分水平比較低的人工智慧。打個比喻,就好比區分孫悟空和六耳獼猴,孫悟空會72變,六耳獼猴不會,所以可以區分;可是如果六耳獼猴也會,那就不好區分了。而隨著人工智慧的發展,有一天六耳獼猴也是能72變的。


都到這個程度了,還有什麼可證明的,你就當他是真的就得了唄!

都能替你發微信打電話了,你和他就當是同類了就好了。我沒覺得真人會比這樣的人工智慧真心實意到哪去。

你以為沒有超智能機器人,你就不被掌控了?你就自由了?也並不是啊!

尤其是當有人把你列為異類的時候,你是很難洗白自己的,除非對方想給你個機會證明,否則你說什麼都沒用的。所以這個證明方法應該是質疑你身份的人提供,而不是你操心去想。要是對方的證明途徑你通過不了,那說明他們壓根就不想讓你通過,你再怎麼想轍也是徒勞。


推薦閱讀:

為什麼信息熵要定義成-Σp*log(p)?
如果Google AlphaGo來中國挑戰圍棋大師會是怎樣的結局?
如何看待科大訊飛宣布其考試機器人"智醫助理"在執業醫師考試中取得456分的成績?
如何解釋《最強大腦》第四季節目中人工智慧小度這個令人費解的表現?
轉行人士如何在人工智慧領域保持一定的競爭力?

TAG:人工智慧 | 人屬動物人類 | 腦洞網路用語 |