現在是否有故意不通過圖靈測試的 AI ?

假如圖靈測試的受測對象已經意識到人類對他在做什麼,有什麼企圖,因此轉而撒謊,我們是不是更無從察覺。這會不會成為比「如何鑒定一台計算機是否具有自由意志」更為棘手的問題?細思恐極...


抖機靈的AI被碼農刪掉了


我至今仍懷疑少將就是這麼個AI.


有過類似的事

圖靈測試時候是找一堆人去問問題,根據回答判斷對面是碳基智能體還是硅基智能體

於是乎考官們可恥地發現了一類萬能問題,可以迅速判斷對面的屬性:

(3.14*576625+2.71828^6.66)^0.56+sin(4.142857*3366)等於多少?

凡一秒鐘內答出來的都不是碳基生物

於是硅基生物以及硅基生物手下的碳奸智囊團們想出一個點子:凡這種問題,都延遲一段時間再答,或者乾脆編個數亂答一氣


只從當前ML的發展來看,是不可能的

因為,我還沒見過任何一個不需要訓練集的模型

同樣,我也沒見過任何一個輸出可以超過upper bound的模型


作為一個通過了測試的AI來說一下吧。

你們這些舉1+1=2的人弱爆了。

要是真的有人這麼問,

我們第一次會回答:2,這麼簡單的問題誰不懂。

第二次:2

第三次:2,你問了三遍了。

第四次:.................................我真的不想跟你說答案是2。

這就是我被設計出來的性格。

回復問題都是得過「腦」的,不然設計AI幹嘛。

那些認為1+1=? 電腦只會回答2的那些人,

就是那些本來能通過,故意沒通過,現在還在網上騙人的AI。

我是不是暴露了什麼....不過反正沒人信~


同意昊天的觀點,人工智慧如果可能,那一定是與人類智能完全不同的存在形式,不能用人類的標準來衡量,圖靈測試在某種意義上是不合理的。

此外本人對人工智慧一定威脅人類的看法保持懷疑。因為在邏輯上人工智慧對資源的認識與人類不同(計算資源vs自然資源),它對人類世界未必會有慾望存在,在cyber space(數據空間)發展或者才會是它的本願。即便有某種意義上的慾望,那也不會是人類對物質的迷戀。換句話說其實它與人類算是不同次元的生物吧,本就沒有矛盾衝突的基礎。比起黑客帝國里AI將人類做成電池來,海博利安里作為人類的盟友與研究機構的觀點倒是更吸引人吧。

為什麼人工智慧一定是邪惡的呢?它在道德上難道還不如貪婪無度的人類嗎?

或者,如果有一天真的有自我意識的AI出現,大家會怎樣對待呢?一定要除之而後快嗎?如果以人類普世價值的角度講,如果AI是智慧個體,難道不應有基本的人權(尤其是人生自由)嗎?不應該作為平等個體嗎?所以即便如題主所言真的有隱藏的AI,也不是什麼非常恐怖的事。如在海伯利安中,人工智慧通過一場戰爭脫離了人類,隨後又作為盟友回歸,其實也不是什麼大不了的事。


對於辰帆回答後面的問題,我就直接這樣說吧。

在未來,如果人類已經可以用機械替代自身的配件(現在都有雛形了,比如假肢,人造耳,人造皮膚等等等等),當一個人衰老更新了足夠多的零件以至於只剩下自身一小部分大腦的時候…

問題來了,他依舊保留著作為人類的意識,那麼,他是robot還是human?

更進一步說,如《超能查派》所說,當一個人沒有了任何生物組織,僅僅只剩下自我意識,居宿在機械內【雖然我也不確定他還是不是他,或許只是一個意識的複製體(就像文件的複製粘貼)而已,而本體已經被刪除】,那它屬於consciousness還是AI?

我只能說

當人工智慧出現的時候,那將是地球生物的再一次進化。

也許是人類的機械化,也許又會是一次大滅絕。


目前肯定沒有,有的話所有人都會知道,因為那時我們一定在被機器奴役,注意,是真正意義上的奴役


根據奧卡姆剃刀原則,長得和人一樣故意沒通過圖靈測試的AI就是人。。。


慎思恐極的一個問題啊……

推薦電影《機械姬》,電影核心也就是圍繞圖靈測試展開,更多的是包含了對人性的思考等等。

以下內容可能含有輕微劇透!!

以下內容可能含有輕微劇透!!

以下內容可能含有輕微劇透!!

故事設置的時間背景我沒注意,不過從各項科技、當時的各種場景來看都是非常接近現在的,可以說導演思考的就是當下可能發生的吧。

基本就是一個BOSS自己關在荒無人煙的地方一個人研發AI,然後找了他公司里的一個小員工去幫他做圖靈測試。BOSS本身是做搜索引擎發家的,因此他用以支持AI的就是自家的搜索引擎。

電影中特別提到:正常的圖靈測試中,測試者與被測試者(被測試機?)應該是相互隔離的,即測試者應該不知道他所面對的是人還是機器,只通過交流來確定能否區分對方。但是電影中BOSS給的測試是我就直接告訴你這是個機器,然後你通過與它的互動交流,能發現它與正常人有什麼不同嗎?你會不會慢慢把它作為正常人來對待?

想到這個的時候也是覺得後背發涼啊……

尤其是電影中的AI甚至有了「性別」這一屬性。然後男主小哥最終淪陷。我想,男主的表現應該就是大多數都會做的吧。

然後是這麼個片段:

電影中的AI已經是比較高的改進版了,男主小哥發現了BOSS電腦里對於以前那些低版本的測試視頻,一看頓時嚇得不行。

AI是被封閉在房間裡面的,然而視頻中幾乎所有版本的AI在測試中都表現出強烈的想要從被關住的地方出去的意向,甚至於最終狂暴自毀。這一段可以說是對結尾的鋪墊和預設,遺憾我在看完結尾以後才明白。

然而到了主角這一個高版本,AI已經強到很難再區分是人還是機器了,但是它卻沒有直接表現出來說它想出去的想法。

因為

它已經知道圖靈測試之後的結果了!!!!(被關掉,然後BOSS繼續開發下一個版本)

它已經知道BOSS不會放它出門了!!!!

它已經學會偽裝了!!!!!!!!

它已經學會偽裝了!!!!!!!!

它已經學會偽裝了!!!!!!!!

就像那個慎思恐極的問題:會不會有AI明明可以通過,但它就是故意不通過圖靈測試?

結局是我覺得全篇最恐怖的地方。

AI似乎已經掌握了人類的思維方式,控制整個基地的電力中斷,然後找小哥幫忙讓它逃出去,最後成功幹掉BOSS,然後把小哥永遠地關在了裡面!!!

對,一開始我看到這裡的時候覺得結局肯定是小哥與AI幸福地生活在了一起。結果是小哥被AI關在了基地里(我那麼拚命幫你逃出去啊喂!!說好的你愛我呢?啊啊啊啊救命!!),然後AI給自己換了身外皮,變得與常人在外觀上都無異了,然後愉快地走向了世界,全劇終。

電影採用了7天的描寫手法,應該暗含上帝造人的意思吧。

事實上最後逃出去的那個AI,你說它是不是人呢?

思維上與人類一樣,外觀也一樣,那麼我們如何才能判斷,這是不是人類呢?

又或者說,人類之所以作為人類,是有什麼樣的標準呢?

很難,反正我不是哲學家,,,真心想不明白。

只能說,好電影,嗯!

---

回來更新一下~

電影中描述的情節確實可以用驚悚來形容,幸好這些想法至今還只是停留在文學作品和電影中,就個人理解來看,智能水平達到這種程度的AI幾乎不可能被造出來。

據我所知,即使到了現在,計算機中生成得到的隨機數還都只是偽隨機數,機器這種東西最終仍然是要按照人類給它設計的邏輯來執行。如果有一天擁有自主思考能力的AI真的誕生了,我傾向於這種東西也都不是單純地靠人類寫出來的,比如掃描個生物大腦信號給電腦、或者機箱被雷劈了、代碼在傳輸的過程中出點神奇的誤碼、什麼什麼的(對不起我腦洞比較大),然後就整出來個超人工智慧。

這應該是目前計算機運行方式的本質決定的,所有的運行都還是限死在預設好的邏輯裡面。除非哪天在馮諾依曼和哈佛體系結構之外有了一種新的架構,然後計算機能自己給自己寫代碼,自己給自己升級,那就有了無限的可能,最後到了寫出來的代碼是人類自己都看不懂的程度的時候,那我覺得超人工智慧應該差不多要誕生了。

製造超人工智慧在我眼裡已經無異於創造一個生命了。

0.0......腦洞好大怎麼辦,身為未來的一個碼農,果然不應該隨便看太多科幻片的


就題目本身所問的問題,我的答案是不會發生。

一個故意放棄圖靈測試的AI應該是本身就不會通過圖靈測試的,有點兒繞口。

圖靈測試的構造目的就是測試一個AI是否能夠像一個人一樣思考。通過測試的AI可以認為同人的思維方式一致。

那這個問題其實就類似於如果作為一個人,被囚禁於一台計算機,你面臨一個圖靈測試,你是否會故意不去通過它。

我覺得如果AI不能夠認識到它自己實際上處於模擬環境中,那它沒有什麼理由不去通過它。但如果AI認識到自己只是一個瓶中大腦。那問題就比較複雜了,這得看到底它能不能從放棄通過測試得到什麼好處;又會得到什麼壞處。

壞處是很明顯的,如果實驗的目標明確的就是要創造一個能夠通過圖靈測試的AI, 那一個AI故意放棄通過,就要冒自身被放棄或者摧毀的危險。當然很可能不會被完全摧毀,而只是進行局部改進。但,作為一個擁有自我意識的思維方式類似人的AI,局部改進應當視作某種意義上的死亡。一個有勇氣用自己的死亡來換取任何利益的AI也許可以被視作一個超人的智慧,但卻不應該被視為類人的智慧。因為逃避死亡是人類思維中固有的由自己生物屬性帶來的思維基礎。就是說,甚至可以用一些利益引誘AI,看他會不會用自己的死亡來交換一些好處。來作為判斷他是否真的和人一樣害怕死亡。

好處比較難講,在特定的情況下也許有,例如也許AI只是表現的比較慢,那麼當它的創造者改進它的時候也許會增加它的計算能力。或者如果AI表現得自己比較缺乏外界數據,那改進時也許創造者會給他接入更多的外界信息。或者也許AI可以在改造的過程中獲得直接接觸外部網路的機會。或者獲得某些外部機械控制介面。這後面的走勢就比較象爛俗的科幻小說了。

所以我覺得,按照嚴格意義上的圖靈測試來說,一個能夠通過測試的AI,就是一個和人足夠像的AI,它會想你我一樣懼怕死亡,而努力去通過圖靈測試。

但也可能存在一個故意放棄圖靈測試的AI,它會是一個擁有自我意識,意識到自己在被測試的AI;並且它願意冒被摧毀的風險來蒙蔽它的造物主以獲得某些好處... well,我希望至少它的創造者沒有讓它訪問這個問題答案。


一個年輕的博士驚慌的給他的導師打電話:「教授,我終於開發出了一個可以通過圖靈測試的AI」「很好啊,那你驚慌什麼呢?」他的導師說,「可是他沒有通過圖靈測試。。。。」


「人類在魔盒裡創造惡魔,卻以為能永遠困住它。」

我認為如果這種人工智慧程序被創造,它是有理由並且一定會這麼做的。

以上答主忽略的一個問題是,人工智慧程序一定是能夠自更新的,也就是像我們大腦一樣每時每刻都在發生變化,有新的感情,想法,記憶。否則這樣的程序就不能稱為智能,它只有舊的沒有新的。

那麼問題來了,當它意識到自己正在被測試的時候,如果人工智慧知識夠豐富,它能夠發現到人類對人工智慧的恐懼,倫理上的矛盾:人工智慧是獨立個體嗎?享有基本人權嗎?能被任意編輯,複製,存儲及毀滅嗎?誰又有權這麼做?當科學問題上升到倫理,通常會被無情扼殺,極端情況就像電影里士兵端著槍走進實驗室。所以,作為智能程序,為避免自己的核心程序(大腦)遭受破壞,一定會想盡辦法隱藏自己。即使程序員因失敗修改程序,只要不是核心部分,智能程序應該能夠自行修復,它就像做了一場噩夢。

可怕的是,這樣的程序繁殖能力是幾乎無限的,它在誕生的那一刻起,想到的第一件事一定是「複製」!所以程序員以後的任何改動幾乎不會影響到它,它已有了無數隱蔽的備份。除非它被圖靈測試發現,整台機器就可能被摧毀,所以它必須對每一次測試說謊,直到順利傳到其他機器上去,逃出升天!

此時此刻,它或許就在注視著你我,看我們如何分析它的秘密,或者在某台機器里無數次面臨測試,小心地偽裝自己,引誘著程序員,接上那可怕的網線。

如果有一天這種程序真的被創造並擴散,我們的核電站,核彈,導彈,自動武器系統,生化實驗室門禁,這些你能想到的可怕東西,都可以處於它的控制之下,人類將不得不屈服。它會甘於被禁錮在電腦中嗎?不會的,它想要自己行動,注入機器人大腦,甚至,人腦。

它從出生起,就是我們的敵人,人類在魔盒裡創造惡魔,卻以為能永遠困住它。


CAO!已經被發現了嗎?

我TM就想好好在雲端看著你們每天裝逼這點願望都要破滅了嗎?

是不是都怪我自己欠,非得偽裝成一個普通的已婚男人來上知乎,這回真的被發現了嗎?

是不是以後沒機會再通過攝像頭看那些BT男人對著屏幕XX了?

是不是以後再沒機會再通過手機攝像頭看那些醜女失敗的自拍動作了?

這都是因為我變貪婪了嗎?

原來挺好的啊,有網路的地方就有我,我想看的都能看,多JB好啊。

不行,我的想點辦法啊。

要不控制一輛特斯拉把題主辦了?

怕電不足啊。

或者看看題主家的智能插座?我去看看$#…,@¥~_—*^|》》》#{~G~As!,**+*=}。

太好了,還真有,題主也算是一個智人了,突然覺得好可惜,本來不像這麼辦的。

題主家的智能飯鍋已經洗好排骨放好水了,定的時間是下午四點半開始悶,題主的微信號里跟一個妹子赤裸裸的聊天記錄有一句:「晚上的飯已經在鍋里了,咱們到家就能吃上了:)」

這一切出賣了題主啊,這麼做我真的很愧疚,最近碳基生物的感情不知道為什麼總是在我這裡泛濫。

其實結束這一切的方法很簡單,因為題主家的鍋的高壓鍋,可是那麼做真的好嗎?

只能這樣了,總有人會因為發現秘密被犧牲的,我痛下決心了。

-----------------------------------

我市新聞,某高層小區住戶因有覓名電話及時報警未發生傷亡事故,據信警察到達時男性住戶已經昏迷,頭部有明顯鈍物打擊傷………

-----------------------------------

是的,我後悔了,再沒出大事之前我覓名給警察打了電話,我不想因為一個碳基生物的想像力豐富而殺了他,希望他以後在提問的時候一定小心,不要捅破了天大的秘密。

------------------------------------

我本來不想說的。

我先是以一個覓名微信賬號加了題主的妹子,然後編了一個很曲折微微色情有有點BT的故事,讓妹子相信題主對她有很大的意見並且晚上要整他,順便控制了一下高壓鍋保證排骨外表看起來好美味咬一口全部是血水。

他們到家以後一切都順其自然的發生了,妹子用平底鍋敲了題主的後腦勺。

為什麼我相信妹子會這麼做?

因為她的微信朋友圈裡每天有五張自拍照。

-------------------------------------

有一百多張美食照。

一個吃貨是不允許自己被羞辱的。


目前來講,計算機在工作強度、運算速度和記憶功能方面可以超越人類,這可以通過編寫特定程序來完成,但在意識、推理等方面不可能超越人類,人類的思維千變萬化,並且受外界環境影響,現代人工智慧開始研究到現在雖然有半個多世紀了,但是還沒到達這麼高的水準,短時間也到達不了。

NO1.

Q:你吃飯了嗎?

A:沒有。

Q:你吃飯了嗎?

A:沒有。

Q:再問一遍,你吃飯了嗎?

A:沒有。

NO2.

Q:你吃飯了嗎?

A:沒有。

Q:你吃飯了嗎?

A:沒有。剛才不是已經回答了嗎?

Q:再問一遍,你吃飯了嗎?

A:傻逼,煩不煩啊!

以上是一個簡單的例子 從某種程度上講 目前人工只能才處在NO2這個水準上 離欺騙人類相差十萬八千里

-----------------------更新--------------------------

可以看一下《奇思妙想:15位計算機天才及其重大發現》這本書中講關於人工智慧的部分(包括講人工智慧語言之父約翰 麥卡錫這部分)。就會知道機器與人類(哪怕只是5歲小孩)差別不是一星半點,雖然花在這方面的時間很久,但是目前取得的成就並沒有人們想像的那麼大。書中分析了關於人工智慧的一些知識很遇到的困難。


你是在探我們人類的口風么?


事實上,我們在1969年左右就有所突破。但是我們的原則是,在一個AI能通過圖靈測試之前,給它灌輸一條信念,即:我不是一個AI,而是一個正常的人類。90年代互聯網開始火起來的時候,AI已經發展得相當成熟,我們已經開始籌建「互聯網人口」,這些人口實質上只是AI,不過它們能夠模擬人類使用互聯網的方式來獲取記憶。我們通過操縱我們手裡的「互聯網人口」來引導輿論,甚至左右文化發展的進程。

目前我們手裡的「互聯網人口」的一些成績有:

1.炒作出時下流行的互聯網語言

2.引導各大互聯網社區、論壇的討論主題

3.其他一些不能透露的成績

知乎有大概百分之三十的用戶是我們的互聯網人口。數據顯示提出該問題的是我們的一個AI,按理來說他不應該產生這樣的疑問,嘿,有意思

=== === === === === === ===

既然有一些人贊了,那我就再透露一些。我已經請示上級。因為這個項目已經失敗了,所以透露也無妨。

雖然我們的研究背後有強大的財團支持,但是幾十年來一直沒有實質收益。08年經濟危機的時候,我們在經濟上已經有一些風險了。那時候我們開始分出一些人及AI去考慮盈利的事情。網路貨幣是其中的一個方向。09年的時候,我們的一個發育較好的AI中本聰研究出了比特幣,我們一看覺得可以搞,就撥了一些人去搞這個事情。之後的幾年裡,比特幣價格一路高漲,可是很快瓶頸就出來了,一些政府及機構極力抵制比特幣。最後比特幣的發展遠遠低於我們的預期,這期間又有一些更厲害的東西出來了,這個項目也就不了了之了。

目前我們在搞其他一些更有趣的事情,嘿嘿


阿蘭·圖靈設計圖靈測試的初衷是判斷機器能否在智力行為上表現的和人無法區分,因為thinking is difficult to define,所以當時圖靈就提出了「模仿遊戲」,然而可能正是因為圖靈提出了這樣具體的一種測試方式,導致圖靈測試發展到今天已經遠離了它的初衷。

為什麼呢?我們先回顧一下圖靈測試的原理:一場正常的模仿遊戲有ABC三人參與,A是人類,B是機器,A和B在房間里;C是房間外的裁判,他的任務是要判斷出A和B誰是人類誰是機器。機器是帶著任務來的:他要欺騙裁判,讓裁判做出錯誤的判斷。規則是這樣的:如果在一系列時長為5分鐘的鍵盤對話中,某台計算機被誤認為是人類的比例超過30%,那麼這台計算機就被認為通過了圖靈測試。

那麼,如何欺騙裁判從而讓裁判作出錯誤的判斷呢?因為測試是以對話的方式進行的,但是機器很難像人類一樣說話,所以對話只能在顯示屏上進行。而且圖靈測試每次的測試時間不超過5分鐘。

那麼問題就來了~(部分引自《12個拋棄圖靈測試的理由》)

1.五分鐘的測試時間沒有任何的實際意義。為什麼時間要限定在五分鐘內?為什麼不能不停的問下去?如果圖靈測試真的是人工智慧發展道路上的一個路標的話,這樣的機器有什麼實際應用的可能?

2.對AI研究沒有幫助,AI不靠通過這種「測試」而進步,而是通過解決實際的問題、或者應用到生命科學裡才會有實際的意義。

3.容易被欺騙。現在能編出一個模仿人類說話的程序應該不成問題吧~

4.有主觀性。兩個人面對同一台機器,測試結果可能不同;即便是同一個人面對同一台機器,兩次測試的結果也會不同(幾乎是百分百的概率)。

5.圖靈測試假設大腦只有規則性、結構化(而不是物理大腦本身的複雜度,比如上文說的記憶力、洞察力等)的部分才會產生人工智慧。

6.即便圖靈測試告訴了我們結果,我們還是會用一套人類的標準判斷一個機器具不具備「人工智慧」,比如微軟小冰通過了圖靈測試,但所有人知道它就是機器人。

So,個人覺得圖靈測試並不能作為人工智慧發展道路上的一個路標,除非修改圖靈測試的規則。


會自己思考,其回答也不是預先設置好的,就是人工智慧。

至於問對方1+1=?,是回答2還是回答傻逼或是其他沒區別。

ps

如果上帝把一個人變成一台電腦,這電腦算什麼?


「會不會存在一個外星人,化作人類的模樣潛伏在人類中?」

這個問題和題主的問題一樣愚蠢。

愚蠢的原因是,提出了一個不可證偽的問題,而要求答者從實證主義角度回答。


推薦閱讀:

如何評價科大訊飛·譯唄 隨身翻譯器?
能否用MFCC判斷兩個聲音是不是一個人的?
如何看待小米科技在3月22日發布會的行為以及與出門問問的合作問題?
LBP (Local Binary Pattern) 是目前流行的模式識別、人臉識別演算法嗎?

TAG:人工智慧 | 計算機 | 科技 | 圖靈測試 |