論文:MICCAI BrainLesion Workshop 2020
代碼:pytorch--BrainTumorSegmentation
Abstract
三維核磁共振圖像(MRIs)中腦腫瘤分割的自動化是評估該病診斷和治療的關(guān)鍵。近年來,卷積神經(jīng)網(wǎng)絡(luò)在這一課題中取得了較好的效果。然而,在三維cnn中,內(nèi)存消耗量高仍然是一個問題。而且,大多數(shù)方法都不包含不確定性信息,這在醫(yī)學診斷中尤為重要。本文是3D encoder-decoder的結(jié)構(gòu),采用基于patch方法訓練 ,以減少內(nèi)存消耗,減少不平衡數(shù)據(jù)的影響。然后,使用不同的訓練模型創(chuàng)建一個集成,利用每個模型的屬性,從而提高性能。此外,提出了一種混合分割方法,提高了分割的準確性。數(shù)據(jù)集為BraTS 2020。
Method
數(shù)據(jù)集統(tǒng)計
腦腫瘤分割的最大復雜性來自于類的不平衡。腫瘤區(qū)域占腦組織的5-15%,每個腫瘤區(qū)域的比例更小。圖1提供了每個腫瘤類別的分布的圖示:ET、NCR、ED;沒有健康的組織。可以看出,ED比ET和NCR更可能發(fā)生,NCR標簽中受試者之間的差異很大。另一個復雜性是膠質(zhì)瘤分級之間的差異,因為LGG患者的特點是血液濃度低,轉(zhuǎn)化為ET體素出現(xiàn)率低,NCR和NET區(qū)域的體素數(shù)量較多。
Data Pre-processing and Augmentation
MRI強度值沒有標準化,因為數(shù)據(jù)來自不同的機構(gòu)、掃描儀和協(xié)議。因此,我們將每個患者的每一個模態(tài)獨立地標準化,使其僅基于代表大腦區(qū)域的非零體素具有零均值和單位std。
我們還應用了數(shù)據(jù)擴充技術(shù),通過盡量減少對數(shù)據(jù)的破壞來防止過度擬合。為此,我們以50%的概率應用隨機翻轉(zhuǎn)(所有3個軸),以50%的概率在兩個軸上旋轉(zhuǎn)90°,Random Intensity Shift between (?0.1..0.1 of data std) and Random Intensity
Scale on all input channels at range (0.9..1.1).。
Sampling Strategy
三維cnn的計算成本很高,而且在許多情況下,輸入數(shù)據(jù)不能直接傳送到網(wǎng)絡(luò)。基于Patch訓練有助于釋放內(nèi)存資源,以便在一批中輸入更多圖像。但是,Patch大小和批處理大小之間有一個權(quán)衡。更大的批將有更準確的數(shù)據(jù)表示,但需要更小的Patch(由于內(nèi)存限制),提供本地信息,但缺乏上下文知識。
在這項工作中,我們根據(jù)補丁大小使用了兩種方法。
–二元分布:隨機選擇小于等于的小Patch,50%的概率集中在健康組織上,50%的概率集中在腫瘤上[10]。
–隨機腫瘤分布:隨機選擇較大的大小,或
,但始終集中在腫瘤區(qū)域,因為Patch將包含更多健康組織和背景信息。
Loss
Generalized Dice Loss (GDL)
Network Architecture
這項工作提出了三種網(wǎng)絡(luò),即V-Net和3DU-Net結(jié)構(gòu)的變體,用于腦腫瘤分割,并創(chuàng)建了一個集成來減輕每個獨立模型中的偏差。
V-Net實現(xiàn)已經(jīng)被調(diào)整為使用四個輸出通道(Non-Tumor、ED、NCR/Net、ET),并使用 Instance Normalization,與Batch Normalization形成對比,Instance Normalization是針對每個訓練示例而不是整個批處理跨每個通道進行規(guī)范化。我們已經(jīng)將最高分辨率下的特征映射數(shù)量增加到32個,而不是最初實現(xiàn)中提出的16個。圖2顯示了輸入補丁大小為64x64x64的網(wǎng)絡(luò)體系結(jié)構(gòu)。
V-Net實際使用的Patch大小和隨機腫瘤分布策略進行訓練,batch size = 2
3D-UNet我們使用了原始的實現(xiàn),只是做了一些小的修改。BN改為GN,并且,和V-Net一樣,我們使用了32個最高分辨率的特征圖。
網(wǎng)絡(luò)結(jié)構(gòu)分為對稱編碼器和解碼器兩部分。編碼器由兩個卷積塊組成,采用3DConv+ReLu+GroupNorm結(jié)構(gòu)。使用2x2x2 MaxPooling執(zhí)行下采樣,使用插值執(zhí)行相應的上采樣。所有卷積層的內(nèi)核大小均為3,但最后一個層的內(nèi)核大小為1x1x1,并輸出4個特征映射。在這種情況下,我們使用ReLu非線性,concat拼接。該網(wǎng)絡(luò)輸出一個帶有訓練標簽的四通道分割圖以及一個softmax。詳細的體系結(jié)構(gòu)如圖3所示。
Basic 3D-UNet 實際使用的Patch大小和隨機腫瘤分布策略進行訓練,batch size = 2
Residual 3D-UNet 通過殘差連接擴展了先前的網(wǎng)絡(luò),以允許具有較深的網(wǎng)絡(luò),并且減小了梯度消失的風險。在加入殘差模塊的基礎(chǔ)上,該網(wǎng)絡(luò)還引入了對Basic 3D-UNet的一些修改:(1)add;(2)轉(zhuǎn)置卷積;(3)由于resnet連接,它增加了網(wǎng)絡(luò)的深度。
這個網(wǎng)絡(luò)是按照兩種不同的策略訓練的。
第一種方法,Residual 3D-UNet在整個訓練過程中使用的Patch大小和隨機腫瘤分布策略進行訓練,batch size = 2。
第二種方法, 3D-UNet-residual-multiscale改變了采樣策略,使得網(wǎng)絡(luò)能夠看到局部和全局信息。為此,訓練的前半部分使用個補丁大小,batch size =1。然后,將補丁大小減少到
,batch size = 2。
Post-Processing
為了糾正以小的和分離的連接成分的形式出現(xiàn)的假陽性,本工作使用了一個后處理步驟,如果兩個最大的連接成分的比例大于通過分析訓練集獲得的某個閾值,則保留它們。在這個過程中,可能是假陽性的小連接成分被移除,但足夠大的成分被保留,因為一些受試者可能有幾個腫瘤。
此外,這一挑戰(zhàn)的最大困難之一是提供最小子區(qū)域ET的精確分割,這在LGG患者中尤其困難,因為幾乎40%的患者在訓練集中沒有增強腫瘤。在評估步驟中,如果基本事實和預測中都沒有標簽,BraTS會給骰子1分。相反地,在一個沒有增強腫瘤的患者中,只有一個假陽性體素會導致骰子得分為0。因此,以前的一些工作[15,16]建議,如果增強體素的總數(shù)小于某個閾值,則替換增強腫瘤體素來進行壞死,每個實驗都是獨立的。然而,我們無法找到一個閾值來改善表現(xiàn),因為它有助于一些受試者,但使其他一些結(jié)果更糟。