AI的冷酷與溫情:從人工智慧預測死亡時間準確率90%說起 (AL:人工智慧?)
就在上周,曾經一度為世界上最有錢的比爾·蓋茨又發表了對人工智慧的觀點,核心內容是AI代替人類工作其實是件好事,並且人們很難阻止它的發展。
圖註:比爾蓋茨和馬雲(來自網路)▲
有意思的是,我們更為熟知的「外星人」馬雲幾乎同時也發表了對AI的看法,馬老師認為,AI、大數據對人類構成了威脅,人工智慧和機器人將會代替大量的工作。
以上兩位大佬對人工智的觀點截然不同也旗幟鮮明,先不說對錯,代表了當下最為主流的聲音:AI有益論和AI威脅論。
而就在最近,我們驚奇的發現又一項人工智慧應用問世,拋初功能性,這個AI系統混雜著AI倫理方面的爭議,我們從中也看到人工智慧的冷酷與溫情。以下,Enjoy:
「嚇人的」AI
說起這個AI應用有些嚇人:它可以預測病人的死亡時間,準確率甚至高達90%,出自斯坦福大學。
圖註:出自dailymail▲
雖然聽起來讓人談虎色變,但幕後團隊表示,它可以極大地改善對病人及其家人的年終護理。
通過更準確地預測出絕症或重病患者何時會去世,照顧者可以優先考慮他們的願望,並確保在為時已晚之前進行重要的談話。
「預測死亡AI」的初衷
斯坦福大學的研究小組在一項新的研究中向arxiv發表了一篇論文,解釋說,在病人想要度過餘生的方式和實際發生的方式之間往往存在著巨大的差異。
據研究人員稱,大約80%的美國人希望在家裡度過最後的日子,但多達60%的人最終死於醫院。
而縮小這一差距也成為這個AI系統的最原始動力。
原理:深度學習
這項來自斯坦福的人工智慧應用,演算法依賴於深度學習,使用神經網路來過濾和學習大量數據。
研究人員對斯坦福醫院或盧西爾·帕卡德兒童醫院的二百萬名成人和兒童的電子健康記錄進行了深入學習演算法的培訓,以預測未來3至12個月內特定患者的死亡率。
斯坦福大學人工智慧實驗室(AI Lab)計算機科學博士研究生阿南德·阿瓦蒂(Anand Avati)表示:「我們可以利用在醫療保健環境下常規收集的操作數據建立一個預測模型,而不是精心設計的實驗研究。」「現有數據的規模使我們能夠建立一個全因死亡率預測模型,而不是特定於疾病或人口統計學的預測模型。」
這個工具本身並不是用來指導護理過程的,相反,它可以與人類醫生的評估結合使用,以便在對患者進行生命結束計劃的預篩查中做出積極更精確的決定。
更深的意義
該演算法得到了機構審查委員會的批准。結果發現,它沒有人們想像的那麼可怕。從倫理和醫療的角度來看,深度學習模式在幫助人類醫生篩選病人進行姑息治療方面的幫助通常有很大的益處,但沒有什麼壞處。
肯尼斯·榮格說:「我們認為,讓一名醫生在循環中工作,並將其視為"機器學習+醫生』的組合,是反對盲目基於演算法進行醫療干預的方式,這讓我們在道德和安全方面都有了更堅實的基礎。」。斯坦福大學的研究科學家。
深度學習演算法的一個潛在的複雜性是,即使其創建者也常常無法解釋為什麼深度學習模型會產生特定的結果。這種深度學習的黑匣子意味著,通常很難判斷斯坦福的模型是如何得出結論的,即任何特定患者都可能在一年內死亡。
最後,深度學習模式對死亡預測的關注遠遠不是邪惡的。死亡率恰好是一個非常簡單的有用的指標。「死亡與否」與研究人員的主要興趣相比較,研究人員更想要找出病人從姑息治療小組那裡獲得治療的最佳時機。
斯坦福研發小組的目標是根據結果來評估這項試點研究的成功,比如姑息治療團隊和一線醫療團隊的醫生如何表現不同。他們還想知道人工智慧預選是否能提高病人獲得生命結束護理願望的比率,減少最終死於重症監護病房(ICU)的人數。
Jung說:「我們希望確保病情最嚴重的病人及其家人有機會在他們病入膏肓之前談論他們想要發生的事情。」
In The End
以上,我們看到又一個鮮活的人工智慧應用,與之前我們分享的案例最大的不同是挑戰了人類之間的倫理道德。
看上去讓人不寒而慄,但實際卻是真切的提供了最為可貴的服務,給與病人最後的時光。
雖然只是斯坦福的一個試點,但從找個應用,我們也看到了更多AI在醫療上的廣泛場景帶來的意義:讓醫生從重複勞動中解脫,讓給病人的關懷更為貼切溫暖。
特別聲明:本文為網易自媒體平台「網易號」作者上傳並發布,僅代表該作者觀點。網易僅提供信息發布平台。
推薦閱讀:
※蛋花花客服電話
※偏離的航道:人工智慧,作為「噱頭」的浮華
※教你識別小葉紫檀是人工林還是野生林?再也不用擔心被騙了!
※天然和人工合成水晶鑒別
※城市,一個巨大的人工神話