【貝恩觀點】AI商業應用有何暗藏風險?

【貝恩觀點】AI商業應用有何暗藏風險?

作者信息:

韓微文是貝恩公司全球合伙人、大中華區總裁


人工智慧(Artificial Intelligence,簡稱AI)一詞已經越來越普及,當AI的概念逐漸具象化,人們對AI的疑問也變得越來越多。「2018世界人工智慧大會」近日在上海召開,科技大咖們紛紛與會發表觀點:馬雲認為人應敬畏機器,馬化騰預測AI即將進入大社交時代,李彥宏則指出企業在AI化的同時應遵循AI倫理。貝恩公司在AI領域多年積累,對其商業應用有何獨到見解?本文貝恩公司大中華區總裁韓微文將與您分享。

AI能夠在許多領域保護人們免受已知或未知威脅的傷害,幫助人們保持彼此之間的聯繫,能以比人工更快的速度、更低的成本完成工作,並可能提供更好的解決方案。但是隨著AI逐漸滲入到我們的日常工作和生活中,人們開始意識到AI所帶來的一些預期之外的結果,例如人工專業技能的缺失。我們應該如何著手並處理這些問題?

AI六大風險

根據貝恩多年來積累的經驗,我們認為,對商業領袖和技術投資者們來說,了解並處理以下六大風險已成為不容忽視的責任:

1.隱形錯誤

與傳統、以規則為導向的程序不同,AI模型通過自我學習提供答案,但卻並非完美無缺。很多AI模型的不透明性以及快速擴張的能力有可能將真正的錯誤隱藏起來。例如,隨著自動駕駛和飛行系統的訓練數據飛速增長,以這些數據為基礎的模型也在飛速進步,但是人們還是能夠不斷地在演算法中發現錯誤,某些情況下,只有在車毀人亡的悲劇發生後才被發現。

2.技能、判斷性思維和理解能力的缺失

這種情況不僅出現在新手計程車司機身上。一位矽谷工程師曾表示他的網站上的推薦演算法讓他的團隊不再投入太多的思考精力,不了解自己業務的基本要素和真正的需求推動因素,對團隊來說是一件十分危險的事情。

3.新的災難

和傳統員工一樣,AI演算法是可以被操縱的。不同的是,員工在被管理層監督的時候自己所能做的決策相對較少,而AI演算法可以在暗中自作主張。黑客們對AI的攻擊才剛剛開始,隨著AI演算法發揮作用的領域越來越廣(幫助電商平台定價、決定車險費率、招聘等),經理們必須預見演算法被人操縱的可能性並及時進行相應的調整。

4.「慣例化」偏見

大多數AI機器是通過研究編輯好的數據樣本進行學習的。一位AI專家也許能夠理解一套演算法是如何得出結論的,或者這對專家來說也如黑箱一般神秘莫測。這就引發了人們對於偏見的擔憂,因為任何通過歷史數據進行訓練的演算法,會很自然地在自己的結論中體現出數據中存在的偏見。這可能會導致一些嚴重的問題,例如歧視性的借貸演算法,或是一些誤導性的結論,例如從現有客戶數據樣本進行學習的演算法會自然而然地偏向現有客戶群的偏好,從而忽略了潛在客戶群的口味。

5.缺乏同理心

隨著越來越多的企業利用機器人等與消費者進行互動,他們不得不承受與客戶日漸疏遠的風險。對企業高管來說,用演算法代替自己來管理員工,就像讓演算法控制網約車司機一樣,給人一種疏遠感。疏遠感可能會減少管理者感同身受的能力,弱化他們傾聽各個團隊的能力。

6.失控

AI驅動的決策體系既方便又快捷,因此非常具有吸引力,但是有時也需要人為參與。現在,無人機執行某些遠程任務時必須要進行人為判斷,而隨著人們對這項技術越來越熟悉,這一狀況有可能會發生改變。這是一件好事嗎?同樣還有很多關於AI削弱人類控制權的難題。對於商業領袖來說,克服這些問題是十分必要的。

貝恩觀點@AI

貝恩認為,對於AI來說,控制是關鍵。企業的最高管理層需要通過參與目標制定,來為被廣泛應用於公司業務的AI保駕護航。在過去幾十年里,對於信用演算法依賴度極高的金融機構被要求要嚴格管控風險;現在,對於廣泛應用AI技術的機構來說,對於AI的監管要求上升到了同樣的高度。

在企業中,任何重要的演算法都需要有一個產品經理:一個可以檢驗、檢測演算法、審計其結果、評估並改善其性能的角色。

另一個不可或缺的是強而有力的溝通體系。在一套重要的演算法中,定期向客戶、員工和合作夥伴尋求意見和反饋,是一個非常重要的組成部分,在管理和使用任何演算法時必須以「同理心」為導向。

AI技術的普遍性和可擴展性,讓AI演算法可以在很短的時間內影響到上百萬人。企業為了應對行業競爭,取得進步,研發並使用AI技術是必不可少的。但是,技術本身不具備道德,也不會進行自我改善,關鍵依然取決於那些使用技術的人。

推薦閱讀:

TA | 觀察
探秘|戒可樂是不可能的,這輩子都不可能戒可樂!
提問:指甲上有問題,去醫院該掛什麼科?
【中天智領AI前沿】未來的家啥樣?能隱藏在地下!
智拓AI客服,開啟智能營銷客服新模式

TAG:AI技術 | 管理諮詢 |