斯坦福大學李飛飛等人談AI醫療:病床邊的計算機視覺
選自新英格蘭醫學雜誌,作者:Serena Yeung、N. Lance Downing、Li Fei-Fei、Arnold Milstein,機器之心經授權編譯。
近日,世界上最權威的醫學雜誌之一《新英格蘭醫學雜誌》上出現了一篇來自斯坦福大學的文章。其中,來自這所大學多個實驗室的研究員分享了自己對 AI 醫療的觀點,其中包括斯坦福大學人工智慧實驗室主管李飛飛。經授權,機器之心對此文章做了中文編譯。
病床邊的計算機視覺——從輔助駕駛到保護病人安全的人工智慧
1999 年,美國醫學研究所(Institute of Medicine)發布了一份關於醫院中可預防的病人傷害的報告,該報告促使公眾開始要求對醫療機構中出現的可預防疾病和醫療錯誤進行公開記錄與經濟處罰。隨後,陸續出現了各種待辦事項清單、協議、根本原因分析、用於建立關於安全的文化的項目和早期形式的技術輔助方法。然而迄今為止,醫院仍未達成零病人傷害的目標,尤其是涉及到偏離預期的病床邊實踐做法時——其涵蓋範圍從可靠的手部清潔到中心線插入。
通過改進臨床過程、文化和狹隘的技術輔助,我們有可能接近零病人傷害的極限。如果我們認為疲憊的臨床醫生會可靠地執行複雜的醫院治療過程中的每個行為步驟,那我們就忽視了來自認知科學的基本原理,即人類的行為通常是基於易出錯的「快速思考」模式。[1] 即使通過視頻饋送查看重症監護病床的遠程位置的醫院工作人員也不能立即發現和糾正病床邊行為差錯,比如沒有重置床欄、約束帶或充氣式康復靴。
計算機視覺也許能成為臨床輔助方法的一大來源,這是人工智慧(AI)領域中一個快速發展的領域。AI 領域廣義上是指智能機器的發展,其既關注功能(比如理解口語),也重視發展性的方法(比如機器學習)。計算機視覺讓機器可以看到並理解視覺世界。機器學習需要根據數據中的模式構建知識,而不是由人類程序員指定知識。當用於識別人、物體及其運動等計算機視覺任務時,需要相機和成像感測器為學習提供數據。比如,當有數千張根據品種標註的數字化的狗照片時,計算機可以通過機器學習方法在「訓練」階段消化這些數據並設計出一個能準確區分不同犬種的演算法。
計算機視覺不再只是科學幻想,其快速發展可部分歸功於「深度學習」,這是一種使用多層神經網路的機器學習方法,其分層計算的設計靈感部分源自生物神經元的結構。計算機視覺發展速度的一個參照是谷歌用於支持自動駕駛汽車的計算機視覺系統。在近期一個 12 個月的時間段里,其表現就從每 700 英里需要一次人類干預提高到了一次能完成超過 5000 英里的全自動駕駛(見下圖)。如果計算機視覺可以檢測到駕駛員的危險變道並安全控制車輛轉向,那麼它能否類似地通過分析運動來檢測同樣重要的臨床醫生行為,或病人活動中的意外偏差?
用於自動駕駛汽車的計算機視覺的進展,2014-2015 年。
這裡的數據是谷歌自動駕駛汽車在需要人類干預之前自動行駛的平均英里數。數據來自加利福尼亞州車輛管理局的《自動化車輛參與報告(Autonomous Vehicle Engagement Reports)》。
計算機視覺在臨床應用上的價值將會得到證明,我們有理由對此保持樂觀。計算機視覺註定將在臨床分析的醫療圖像篩查方面站穩腳跟。最近有一項研究發現:計算機視覺在分類良性和惡性皮膚病變上的表現可以媲美 21 位經過認證的皮膚科醫生。[2] 還有一些小型研究也在放射影像和病理學影像的解讀上得到了類似的早期進展。除了靜態的醫學圖像之外,研究也正在向解讀臨床醫生和病人行為的視頻數據方面延展。斯特拉斯堡大學的研究者為一間手術室配置了感測器,並在計算機識別手術流程上得到了準確的結果。約翰·霍普金斯大學的研究者在重症監護病房中應用了計算機視覺來量化病人活動能力的進展。
現在,來自斯坦福大學工程與醫學院、露西爾?帕卡德兒童醫院(LPCH)和 Intermountain LDS Hospital 的研究者正合作在一家醫院的全院範圍內部署計算機視覺應用,來實時識別臨床醫生的行為。由於工作人員和病人隱私方面的顧慮,這裡沒有使用視頻相機,而是使用了深度感測器和熱感測器來收集用於機器解讀的數據(http://NEJM.org 上提供了視頻和本研究的全部文本)。深度感測器可以收集反射的紅外信號,基於感測器與人和物體的表面特徵的距離來創建輪廓圖像。但是,這種圖像缺乏彩色視頻所具有的那種表面細節。熱感測器可以檢測人和物體表面的溫度的微小差異,能夠創建揭示運動中的人體外形的熱圖,還能檢測到呼吸微弱和尿失禁發作等生理事件,而且在光照和黑暗環境中都有效。這些研究者正在研究能否在保護隱私的同時,在醫院病房中通過多種圖像感知方法的組合來準確識別臨床上重要的病床邊行為。
斯坦福和 Intermountain 的研究者選擇了手部清潔合規性作為他們的第一個計算機視覺識別的目標,因為這對臨床治療而言非常重要,但在管理上能做的事情很有限。[3] 儘管在識別手部清潔行為上還有使用其它數據類型(比如射頻識別系統產生的數據)的方法,但這些研究者假設由於深度感測器能獲取更豐富的連續圖像數據,所以他們能無需中斷臨床流程就能提供更準確和更精細的識別。為了評估基於計算機視覺的方法的有效性,這些研究者使用深度學習訓練了一個檢測手部清潔事件的神經網路。因為訓練過程需要向神經網路提供它可以學習的有標註圖像,所以研究人員標註了病人房間門口的手部清潔事件和非手部清潔事件的深度圖像。所得到的機器演算法僅使用深度數據就能在 LPCH 以 95.5% 的準確度持續不斷地檢測是否是手部清潔事件。當應用在來自 LDS Hospital 的圖像上時,在 LPCH 開發的演算法無需使用本地收集的圖像進行任何額外訓練就能達到 84.6% 的準確度,儘管這兩家醫院在深度感測器在牆上安裝的位置、洗手液分配器的類型和門口的特徵上都存在差異。
這種使用來自環境感測器的數據的計算機視覺在評估病床邊行為上有相對於當前系統的結構性優勢,比如每月派「神秘顧客」觀察手部清潔合規性或讓護士觀察醫生是否按照規範進行了中心線插入。環境計算機視覺可以不停止地工作且不會疲勞,而且運行的可變成本非常低,也不受不完美的安全文化的影響。因為基於計算機視覺的識別系統可以被訓練用來識別不同的病床邊活動,所以如果與電子病歷整合到一起,可能還能免去臨床醫生的讓人沮喪的文檔和數據錄入任務,從而讓他們能專註以病人為中心的活動。
由於 AI 在臨床方面的某些早期應用效果不佳,所以招致了一些懷疑。[4] 威脅技術成功應用的因素包括數據質量差、機器生成臨床決定的複雜計算步驟導致的低可解釋性、無法配合常規的臨床流程等等因素。通過收集不受人類文檔錯誤影響的數據,計算機視覺有可能緩解其中一個威脅因素。鑒於醫療與信息技術的混合的經歷,AI 應用需要克服這些難題才能從「炒作高峰」快速邁向醫療價值的穩步實現。如果開發和部署成功,環境計算機視覺將有潛力以超越人類的水平實時識別各種病床邊的臨床醫生和病人行為 [5] 並發送用戶設計的提示。這樣的系統可以在醫生或護士進入病人房間前未執行手部清潔時提醒他們,在複雜手術的過程中提醒外科醫生不要漏掉重要步驟,或通知護士一位煩躁不安的病人馬上就要拔出氣管導管的危險情況。使用計算機視覺來持續監控病床邊行為可以讓醫生和護士免去更適合機器的低價值工作,增強臨床醫生的工作——而不會取代他們。
在廣泛採用這樣的技術之前,還有很多情況有待了解。我們可以將其恰當地比作自動駕駛汽車:它們不會立即就主宰道路,然而可以非常確信它們在中期是可行的。儘管安全的醫院護理存在獨特的難題,但如果其它行業所見證的生產力提升能說明問題,那麼計算機視覺可能會給臨床治療的質量和效率帶來顯著的貢獻,同時能讓臨床醫生將精力集中在精細的決策、與病人互動和提供共情式護理(empathic care)上。鑒於計算機視覺在其它行業內準確度和成本問題的快速改善,這種技術可能很快就將讓我們離解決這個看似無法解決的問題更近一步,即:預期臨床醫生行為的日益增長的複雜性和人類的易錯性之間不匹配的問題。
原文鏈接:http://www.nejm.org/doi/full/10.1056/NEJMp1716891?rss=searchAndBrowse&
推薦閱讀:
※MWC2018:阿里雲發布8款雲計算AI產品,中國科技已領先世界一步
※不忘初心,牢記使命!
※「高燒不退」的人工智慧,誰更具話語權?
※人工智慧培訓費一般多少?
※無需iPhone X,用AI即可生成Animoji!