請問各位大大現在的放療計劃系統在做自動化計劃時用的是神經網路嗎?

現在varian,pinnacle都在做自動化計劃,那有沒有人知道他們用的是什麼演算法呀?是神經網路嗎?使用神經網路作為演算法的話,可行嗎?


首先,感謝題主提出這個問題,這也是我一直感興趣的問題。

背景介紹:目前博士課題就涉及到ELEKTA Oncentra brachy TPS的進一步開發,主要也是劑量優化部分。

目前的結合點:目前人工智慧吹擂自己時提到的醫學中應用主要還是computer aided diagnosis,很多資金科研投入在這裡面,因為早期診斷很關鍵,而且也因為同屬圖像處理大類里吧。這也衍生出類似電腦能否取代醫生這類的問題。

但除了應用在腫瘤診斷,接下來能不能和放療完美結合呢?畢竟放療中存在大量的黑科技(直線加速器,GPU,雲計算等)

首先根據我的理解從演算法上簡單介紹下:放療計劃系統(Treatment Planning System,TPS)。

TPS主要由兩大部分構成:劑量計算與劑量優化。

  1. 劑量計算的兩個極端是快速的公式型演算法與複雜的Monte Carlo演算法,後者由於劑量計算最精確,是一個重要賣點,但因為單機速度很慢,所以有時談到Monte Carlo時也經常談到GPU運算或者雲計算。
  2. 劑量優化主要是用到數學上的優化演算法,主要分為快速的基於gradient的優化演算法(與AI重疊的部分)與隨機性全局優化演算法(模擬退火,基因演算法。。)。這部分的文章都被玩爛了,個人覺得多半都沒什麼實際應用意義,因為TPS運算的優化部分時間相差不大,基本都是幾秒鐘。但人工智慧與放療TPS的結合點肯定是優化部分。

放療中,優化問題可以簡單理解為多目標函數優化,

這裡舉個簡單的兩個目標的例子:

f(x) = w1*f1(x)+w2*f2(x)

最終求的解x,是個長度為100的數組,代表外照射放療中照射野的某個參數,或者內照射放療中粒子源的停留時間。

f1(x) 為圖1,代表前列腺腫瘤接受的劑量,存在一個最大值點,劑量越大越好。

f2(x)為圖2,代表需要保護的器官膀胱接受的劑量,存在一個最小值點,劑量越小越好。

單獨求f1(x),f2(x)的極值點或者優化點很容易的,但問題是兩個函數是相互影響的

所以通常來說,解決辦法是用權重因子把兩函數合併成一個函數,來求極值點。

w1與w2是權重因子,分別代表前列腺腫瘤與健康膀胱的重要程度。

比方說,對於患者1,膀胱很敏感,所以w1=0.7, w2=0.3

對於患者2,膀胱相對來說無所謂,所以w1=0.9, w2=0.1

把函數f1(x)與f2(x)用兩個正的權重聯繫起來並相加,得到f(x) 。

f(x) = w1*f1(x)+w2*f2(x)

電腦要做的是用上面提到的優化演算法來求f(x)的極值點所對應的x數組。


這裡面的關鍵是權重因子的選擇,因為不同患者的器官形狀不同,各器官的敏感程度與相對位置也不同,所以不可能存在明確的w1與w2適用所有患者。

目前的業界水平或賣點是哈佛MGH David Craft的MCO,multi-criteria optimization,Raystation 把它商業化了,其他巨頭也在追求類似的功能。MCO相當於聰明的嘗試所有可能的w1,w2,並因此構建Pareto surface解空間。主要賣點是利用convex hull使得最後選取的解均勻,有代表性(聰明的地方)。

個人認為:以後的發展肯定是人工智慧,大數據什麼的。我猜現在各大公司應該都全開活力在研究吧。

我覺得結合點就是權重的選擇,根據患者特點通過某個高效的模型(包括某個經驗型公式或者是神經網路)來準確預判出w1,w2的取值範圍,這樣可以快速的在Pareto surface上找到臨床上可行的解。

但挑戰也很多:

  1. 速度要快,現在MCO好像需要兩小時,這在臨床上很不現實的。
  2. 目前TPS廠商有Varian,Philips,Elekta,Raysearch吧,各個TPS特點不同,壟斷市場,圈子小且沒IT屆開源。所以也沒太多動力去開發吧。
  3. 而且就算開發出來很智能的TPS,最終治療效果是不是得到提升也是存在疑問的,因為物理放射劑量(目前技術)與生物劑量(因為不可能做人體實驗,缺乏研究)的關係並不是很明確,也就是很可能在不敏感的腫瘤部位給的劑量多。所以最後的模型是不是真的有效,很值得推敲的。

不要說自動計劃,目前大部分甚至絕大部分的AI都是基於資料庫的應用、例如語音識別等。神經網路目前來說、我覺得不適合做自動計劃,將來可能會。我覺得神經網路目前的水平最多還處於兒童期、如果不算幼兒期的話。當然,計算機不是我的本行,這個只是我個人的感覺。


You may, and should be able to as a graduate student, find tons of paper on Varian"s knowledge based planning and Pinnacle"s auto planning. Neither uses neural network. Some have been trying to use neural network for endpoint predicting, like the groups in Johns Hopkins, which is similar to knowledge based planning, however the results have so far remained preliminary.


現在做的本科生研究題目剛好是這個,主要接觸的是varian的rapid plan,大概是基於Kevin Moore和Jackie Wu的兩篇文章,他們都是基於歷史計劃(最優秀的物理師做的或批准的計劃),來生成一個achievable的優化目標。具體來講,就是假定訓練集里的計劃都是最優而非次優的,然後利用回歸模型來預測相同條件下新計劃可能的最優DVH在什麼範圍內,前面提到的兩人都利用了OAR的幾何特徵作為回歸的自變數,Kevin Moore用到的是OAR與靶區表面不同距離處的differential DVH,Jackie Wu用到的是DTH(Distance to Target Histogram)的前幾個主成分。以上思路均沒用到神經網路,且都是基於DVH prediction。

而神經網路的prediction model其實Kevin Moore幾年前就做了,這次是3d dose prediction而不是DVH prediction了,據說很快也會用到Varian新的TPS了。


不是,計划算是個比較蛋疼的非凸優化問題,不知道這玩意兒怎麼用神經網路表達,要是真能這麼干,感覺能發幾篇medical physics了


推薦閱讀:

TAG:放療 | 放療物理師 | 卷積神經網路CNN |