2018年世界經濟論壇的8個科技人文要點
02-01
榮幸作為YGL(Young Global Leader)參加2018年達沃斯世界經濟論壇,作為演講者參加3個論壇的討論,作為聽眾參加5個論壇,以下記錄打動我的8個關於數字和人文的要點:
- 機器和創造: 在「automated creativity」的論壇中,受邀的嘉賓中有DeepMind的聯合創始人之一穆斯塔法。他說:原來深度學習擅長做聚類(Classification),但是過去這18個月,深度學習可以說離生成(Generation)更近了。比如通過學習20小時的某人說話,機器就可以模仿語調、用詞等。當我們面對的是這樣的機器,我們需要關注「人的權利」了,是不是只有人才具有發表某種言論的權利,機器應不應該給這種權利?
- 交互和消費: 在「Online Consumer Marketplace」論壇上,埃森哲的合伙人Oliver說:人機交互模式變為語音後,對消費端企業的影響是,消費者對品牌的依賴會削弱。在「In Technology We Trust」的論壇中,獨立學者Rachel Botsman講了一個她三歲女兒和亞馬遜Alexa的故事——人們正在不知不覺把自己的決策權外包給機器智能(而不只是體力勞動)。
- 剝削和關聯: 在「putting jobs out of works」論壇中,《人類簡史》的作者赫拉利談了機器讓人產生的「焦慮(Anxiety)」:有兩種焦慮,一是剝削(exploitation),但剝削不是問題,因為人被榨取剩餘價值時,依然可以聯合起來進行抵抗和革命,人還是有權力的;二是關聯(relevance),在智能時代其實更大的焦慮是關聯,這些機器是否會讓人類和我們這個社會在沒有關聯了?所以問題不是拯救工作,而是拯救人類;是意義的危機,而不是工作的危機。
- 數據和監管: 不同的論壇都聽到了要對壟斷者(Google、FB、Amazon等)進行監管的聲音。我們已經過於依賴這些壟斷者的時候,這些壟斷者不能再以一個商業實體的方式看待他們的演算法、智能,也就是說,不能再以股東利益最大化的純商業目的來訓練演算法和智能,監管應該進入並且對演算法和智能進行多元的干預。WPP的Martin Sorrell說:我們應該停止把Google、FB看做是科技公司,而應該把他們看做媒介公司,接受作為媒介公司的監管。(我同意監管,但是這又是一個死結,到底怎麼監管,監管本來就是需要時間去醞釀的,而且說要監管的人,比如Salesforce的Marc Benioff也不足以讓人信任背後沒有其他的商業企圖。)
- FB和Mark: 兩個互為矛盾的現實:一方面我們開始對商業壟斷者越來越不信任:在一個現場測試中,參會人最不信任的企業是Facebook;而在另一個演講者分享的研究數據中,作為企業家Eric Schmitt和Mark Zurkerburg確是消費者最信任的商人,超過很多傳統企業。人的信任感是特別主觀的,FB和Mark關係的反面可能是US和Trump,不論US的經濟表現的多堅挺,Trump都是不讓人信任的領導者。
- 聰明和智慧: 參加老YGL(Young Global Leader)馬雲的見面會,他講了聰明和智慧的區別:機器一定比我們具有更多知識,機器也可能會比我們更聰明,但人可以更智慧。聰明和智慧的區別就是:聰明是知道看到什麼,智慧是知道不看什麼;聰明是知道要什麼,智慧是知道不要什麼……這是多麼智慧的話?!
- 教師和商人: 馬老師成為馬老闆,他講老師總是希望學生比自己更好,希望學生成功;而這正是一個作為老師的商人和一個作為商人的商人的區別,Alibaba常常掛在嘴邊的「賦能」就不難理解了。馬老師還評價了教育:應該從向外看(outward looking)的知識型教育(機器一定比人更有知識)轉變為向內看(inward looking)的教育:關於修養、價值、信仰、獨立決定……
- 大腦和思維: 向內看就要理解人的大腦、思維。參加普林斯頓的「Understanding Neural and Digital Network」的論壇,其中一個用人工智慧技術研究人的神經的教授說了一句充滿哲學意義的話:我們的大腦是否強大到可以研究我們的大腦?進入神經、進入思維、進入大腦……這次多個論壇都在追問:什麼時候我們才能攻克大腦?
- FL @ Zurich Airport
推薦閱讀:
※USB介面有哪些缺點?
※關於聽診器的這個段子是真的嗎?
※irobot有些機型帶有虛擬牆和燈塔功能,它們具體是怎麼工作的?
※豫章書院這件事情有多少人知道?