標籤:

英國皇家學會報告:人們的確擔心人工智慧,但理由卻是錯的

英國皇家學會報告:人們的確擔心人工智慧,但理由卻是錯的

李杉 編譯自Quartz

量子位 報道 | 公眾號 QbitAI

報告原文PDF:royalsociety.org/~/medi

英國皇家學會的最新調查顯示,英國人更害怕把人工智慧整合到家居設備和無人駕駛汽車中,反而不太擔心將其用於預測性治安或疾病診斷之中。這份調查首次讓我們得以深入了解公眾對機器學習相關的風險和利益持有何種觀點。

此次調查的參與者最擔心的問題是,受到機器學習操控的機器人可能令他們身體受傷。也就是說,他們認為那些與用戶親密接觸的家用設備和無人駕駛汽車風險極高。

越發普及的機器學習系統的確蘊含著風險,而且不僅限於發生故障的無人駕駛汽車。數據科學家Cathy O』Neil表示,如果演算法具備一定規模、工作原理保密而且具備破壞能力,那就非常危險。

預測性治安便是一例,因為它有可能因為存在偏見的數據源而產生負面影響。

此外,醫療領域的機器學習也可能產生重要危害。康奈爾研究人員Julia Powles指出,研究人員向受訪者呈現的材料顯示,斯坦福大學用機器學習提升了乳腺癌診斷率,因此受訪者認為,這種技術的誤診率不至於將社會置於風險之中。但Powles卻表示:「計算機診斷尚未得到普遍證明。」

倫敦經濟學院助理教授Alison Powell表示,風險認知和潛在風險之間的脫節在新技術領域很常見。「這是科技前景溝通問題的一部分:新技術往往會被定位成『個人技術』,而對系統性風險的認知則會受到阻礙。」她說。

英國皇家學會也沒有給出較好的解決方案。他們建議機器學習專業的學生在學習技術的同時參加倫理課程,還建議英國政府資助公眾與研究人員展開互動,他們還反對針對機器學習展開監管。

毋庸置疑的是,機器學習如今已經無處不在,影響力還會不斷擴大。英國皇家學會主席Peter Donnelly對發布會現場的記者說:「它有能力而且很有可能會對我們的很多個人活動和休閑活動產生影響。」

===== 分隔線 =====

招聘

我們正在招募編輯記者、運營等崗位,工作地點在北京中關村,期待你的到來,一起體驗人工智慧的風起雲湧。

相關細節,請在公眾號對話界面,回復:「招聘」兩個字。

One More Thing…

今天AI界還有哪些事值得關注?在量子位(QbitAI)公眾號會話界面回復「今天」,看我們全網搜羅的AI行業和研究動態。筆芯~

推薦閱讀:

吳甘沙的四次轉身
美國Flipboard失敗,中國今日頭條成功,為啥?
對話式交互設計的9個關鍵經驗
淺談人工智慧的發展路徑和研究方向
人工智慧離我們有多近(二)

TAG:人工智慧 |