57、【轉載】人工智慧背後的倫理道德
08-14
57、【轉載】人工智慧背後的倫理道德
來自專欄前沿科技的道德哲學反思
人工智慧背後的倫理道德
2017-06-07 18:11中國經濟導報-中國發展網
摘要:「我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。」
「我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。」
「人工智慧的研究與開發正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重點從提升人工智慧能力轉移到最大化人工智慧的社會效益上面。」
——史蒂芬·霍金必須「承認人工智慧的黑暗面」。在思考如何將人工智慧的好處最大化的同時,必須考慮到人工智慧是一把雙刃劍。鑒於當前國家治理和國際管理體系的不足,在沒有經過反對者和支持者平等對話的政治程序之前,就對人工智慧進行大量投資是危險的。——大連理工大學人文與社會科學學部哲學系教授、國家社科基金重大項目「高科技倫理問題研究」首席專家王國豫人工智慧研發者面對的困難就像空間探測器工程師所面對的一樣:一旦你啟動了它,它就在你力所能及的範圍外了。
——機器智能研究所Eliezer Yudkowsky假設你在進行銷售紙夾的業務,你想製造一個用於盡可能多的生產紙夾的人工智慧,這看起來似乎不會有什麼危害。但是,因為這是給人工智慧設定的唯一目標,「聰明」的人工智慧可能會只關注於製造紙夾,而犧牲掉其他你關心的一切事物。當材料用完時,它會很快將周圍的一切能找到的東西回爐,變成紙夾的原料,然後再重新組裝成紙夾。很快,它將毀滅地球上的生命,地球,太陽系,甚至是整個宇宙——僅僅是為了完成一個命令:儘可能多的生產紙夾,永遠也停不下來。開發人工智慧時可能會遇到的錯誤分為兩種:可以日後修復的錯誤,和只會發生一次的錯誤,而後者更令人擔心。——牛津大學哲學家Nick Bostrom包括政府在採用大量的生物指紋,將來和很多信息結合,在這個世界裡,你沒有任何的自由或任何的隱私。我們做人工智慧或者做任何的技術突破之前,法律法規或者說人類的倫理的一些邊界一定要劃分好,馬克思說過科學的入口就是地獄的入口,我們人類不能走向把自己混滅的道路。希望把AI嚴格限制在特別專業的領域,不要和人產生太多的關係。——酷派CEO劉江峰
人工智慧和機器人領域的專家面臨一個重要的倫理決策:必須要決定他們是支持還是反對致命自主武器系統(LAWS)。該領域的風險很高,致命自主武器系統被描述為戰爭的第三次革命,前兩次是火藥和核武器。LAWS通過允許機器選擇殺死誰,可能侵犯人類尊嚴的基本原則,而它們的靈活性和殺傷力將讓人們毫無防禦之力。因此,應對人工智慧武器表明立場。——美國加州大學伯克利分校計算機科學教授Stuart Russel人工智慧在加速生物和醫學領域的科學發現及改變醫療衛生方面有驚人潛力。但人工智慧技術也將加劇目前的醫療衛生不平衡狀況,除非能發現一種方式,讓所有病人受益。例如在美國,只有特殊群體或能支付得起的人,才能獲益於先進的診斷技術,這是不公平、不合理的。另外,臨床醫生理解和解釋高性能人工智慧系統所得出的結果的能力令人擔憂。大多數衛生保健提供者不會接受一個來自決策支持系統的沒有明確描述如何和為何能出現效果的複雜治療建議。因此,研究人員需要讓醫生、護士、患者和其他人明白他們應該如何使用人工智慧,並且如何公平地使用。
——美國斯坦福大學生物工程、基因學、醫學和計算科學教授Russ Altm(本報編輯部整理)引自:人工智慧背後的倫理道德_中國發展網
(2018.7.19)
推薦閱讀:
※人工智慧眼中的世界,竟然如此詭(魔)異(性)?!
※智能音箱是不是下一代互聯網家庭入口?
※清華-中國工程院知識智能聯合實驗室發布2018NLP研究報告
※震驚世界的AI助手預約演示之後,谷歌疑似作假並拒絕回應
※獵雲網:深耕少兒編程教育,貝爾編程致力於培養AI時代的原住民