天天看點

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

摘要

與前列腺癌和乳腺癌等常見癌症不同,罕見癌症的惡性良性腫瘤分級很困難,而且很大程度上是不确定的,因為樣本量小,承擔這樣的任務需要大量的時間和經驗,而且提取人類觀察到的模式本身就很困難。最具挑戰性的例子之一是肝内膽管癌(ICC),這是一種起源于膽道系統的原發性肝癌,其惡性良性腫瘤異質性是公認的,并且沒有分級範例或預後生物标志物。本文提出了一種新的基于無監督深卷積自動編碼器的聚類模型,該模型基于視覺相似性将246張數字化整張幻燈片中的惡性良性腫瘤細胞形态和結構形态組合在一起。基于這種組織學模式的視覺字典的群集被解釋為新的ICC亞型,并通過訓練Cox比例風險生存模型進行評估,進而導緻統計上顯著的患者分層

簡介

惡性良性腫瘤亞型是判斷疾病預後和指導治療的重要工具。常見的癌症,如乳腺癌和前列腺癌,都有确定的亞型,并在大樣本大小上得到驗證[4]。通過識别不同的組織學模式,并利用它們将患者分成不同的風險組,對癌症進行亞型所需的體力勞動是一項極其複雜的任務,需要多年的努力和對大量視覺資料的重複審查,通常由一名病理學家進行。

一種罕見的癌症的亞型構成了一系列獨特的挑戰。肝内膽管癌(ICC)是一種起源于膽管的原發性肝癌,在美國的發病率約為每16萬人中就有1例,而且還在上升[14]。目前,還沒有普遍接受的基于組織病理學的ICC亞型或分級系統,将ICC分為不同風險組的研究也不一緻[1,12,15]。ICC分型的一個主要限制因素是,每個機構隻有少量的隊列可用。迫切需要從有限的罕見癌症(如ICC)的組織學資料集中有效地識别與預後相關的細胞和結構形态學,以建立目前許多癌症類型都缺乏的風險分層系統

計算病理學提供了一套新的工具,更重要的是,提供了一種使用基于計算機視覺的深度學習、利用病理切片的數字化以及利用計算處理能力的最新進展來應對癌症亞型的曆史挑戰的新方法。本文提出了一種新的基于深度學習的模型,該模型使用一種獨特的基于神經網絡的聚類方法對基于視覺相似性的組織學進行分組。利用這一視覺詞典,我們将簇解釋為亞型,并訓練生存模型,首次在ICC中顯示了顯著的結果。

2 材料和方法

癌症組織病理學圖像由于其大小(大到數百億像素)表現出很高的内部和内部異質性。惡性良性腫瘤的不同空間或時間采樣可以有具有獨特基因組的細胞亞群,理論上導緻不同的組織學模式[3]。為了有效地将這些極大量的高方差資料聚類成基于相似形态的子集,我們提出将基于神經網絡的聚類代價函數與一種新的深卷積結構相結合,該代價函數在手寫數字圖像上的性能優于傳統的聚類技術[16]。我們假設,在圖像重建的限制下,由濾波器的自适應學習驅動的k-均值類型的聚類代價函數将産生與患者預後相關的組織病理學聚類。最後,我們通過進行生存分析,使用Cox比例風險模型和Kaplan-Meier生存估計來評估這種聚類模型的性能和實用性,以衡量每一類組織形态是否與惡性良性腫瘤切除術後複發有顯著相關性。雖然其他研究已經基于圖像特征對整個幻燈片進行了非監督聚類,但是它們已經被用于解決圖像分割問題[11],并且依賴于對發展的潛在空間進行聚類[7,8]。我們的研究随着聚類的每一次疊代而調整潛在空間。

2.1深度聚類卷積自動編碼器

卷積自動編碼器由編碼器和解碼器兩部分組成。編碼層将圖像投影到低維表示中,通過一系列卷積、合并和激活函數進行嵌入。這在公式1a中描述,其中xi是通過fθ()變換的輸入圖像或輸入圖像批次,而zi是結果表示嵌入。解碼器層嘗試使用類似的函數從嵌入的原始輸入圖像重建原始輸入圖像。均方誤差損失通常用于優化這樣的模型,更新相對于原始(輸入,Xi)圖像和重建(輸出,x?)之間的誤差的模型權重(θ)。i)N個圖像集合中的圖像。這如等式1b所示

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

雖然卷積自動編碼器可以學習一組圖像的有效低維表示,但它不會将具有相似形态的樣本聚集在一起。為了克服這一問題,我們利用由Song等人首次提出的重構聚類誤差函數對傳統的均方誤差損失函數進行了修正。

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

其中zi是公式1a中定義的嵌入,c∗i是從前一個訓練時期配置設定給樣本xi的質心,而λ是權重參數。通過找出嵌入自曆元t的樣本和從曆元t−1跨越j個質心的質心之間的最短歐幾裡德距離來确定聚類配置設定。

該算法通過向每個樣本配置設定随機簇來初始化。按公式4計算每個簇類的質心位置。每個小批量通過模型轉發,并分别更新網絡權重。在由所有小批次的前向傳遞定義的曆元結束時,給定新的嵌入空間,簇配置設定由公式3更新。最後,根據新的群集配置設定更新質心位置。重複此過程,直到收斂。圖1顯示了此訓練過程的可視化。

資料集

完整的幻燈片圖像是從紀念斯隆·凱特林癌症中心(MSK)和伊拉斯谟醫學中心獲得的,并得到了各自機構審查委員會的準許。總共有246名沒有接受新輔助化療的切除ICC的患者被納入分析。

在MSK使用Aperio AT2掃描器(徕卡生物系統公司;德國Wetzlar)。同時也獲得了手術後無複發存活率的最新回顧性資料。雖然目前與常見癌症相比樣本量較小,但這一收集是世界上已知的最大的ICC資料集。

從所有數字化幻燈片中生成提取的圖像平鋪庫。首先,将每張幻燈片縮小為一個縮略圖,其中縮略圖中的一個像素表示幻燈片中的224×224px平鋪,放大倍數為20倍。接下來,在縮略圖上使用Otsu門檻值,生成組織(正)與背景(負)的二進制掩模。組織中10個縮略圖像素以下的連接配接部分被認為是背景,以排除數字化幻燈片中的灰塵或其他無關緊要的腫塊。最後,利用數學形态學對組織蒙版進行一個縮略圖像素的侵蝕,最小化帶有部分背景的瓷磚。為了将癌症亞型問題從惡性良性腫瘤分割問題中分離出來,使用基于Web的整個幻燈片檢視器對惡性良性腫瘤區域進行了手動标注。使用觸摸屏(Surface Pro 3,Surface Studio;微軟公司,雷蒙德,華盛頓州,美國),病理學家在惡性良性腫瘤區域上繪制,以确定應該在哪裡提取瓷磚。如果瓷磚完全位于已識别惡性良性腫瘤的這些區域内,則将其添加到訓練集中。

品質控制。掃描僞像(如圖像的焦外區域)可能會影響較小資料集上的模型性能。訓練一個深度卷積神經網絡來檢測模糊瓷磚,以進一步降低資料集中的噪聲。在真實的模糊資料上訓練檢測器超出了本研究的範圍,因為擷取幻燈片中模糊區域的注釋是不可行的,并且還會在模糊和銳化瓷磚之間造成強烈的類别不平衡。為了準備訓練模糊檢測器的資料,我們使用了一種與[6]中描述的方法類似的方法:首先,通過應用随機半徑從1到10的高斯模糊來人工模糊一半的瓷磚,另一半貼上“銳化”的标簽,并且不對其進行任何改變。ResNet18被訓練成通過使用MSE回歸所應用的濾波器半徑值來輸出圖像品質分數。值0用于夏普類中的圖像。最後,根據檢測器的輸出值手動選擇門檻值以排除模糊的瓷磚。

2.3架構和教育訓練

我們提出了一種新的卷積自動編碼器結構來優化圖像重建的性能。編碼器是在ImageNet[13]上預先訓練的ResNet18[9]。在病理資料上訓練完整模型時,編碼器所有層的參數都更新了。解碼器由五個卷積層組成,每個卷積層的填充和步長均為1,用于在每次卷積運算時保持張量大小恒定。在每個卷積步驟之前使用上采樣以增加特征地圖的大小。根據經驗,批歸一化圖層不會提高重建性能,是以被排除在外

模型的兩個屬性需要優化:首先,網絡的權重θ,然後是嵌入空間Cj中聚類中心或質心的位置。為了将等式2最小化并更新θ,之前的教育訓練使用EPOCH的質心組Ct−1j。在第一訓練時段的情況下,質心位置在初始化時被随機配置設定。訓練時期由所有小批次通過網絡的一次前向傳遞來定義。在更新θ之後,使用公式3将所有樣本重新配置設定到最近的質心。最後,在下一個訓練時段的計算中使用公式4a n u s e d來更新所有質心位置。圖1說明了此過程和體系結構

為了節省計算時間,從完整的圖檔庫中随機抽樣100,000個圖塊來訓練每個模型,平均每張幻燈片産生大約400個圖塊。下節分别描述了超參數λ和J、聚類權重和簇數的選擇過程。

實驗。Calinski-Harabaz指數(CHI)[5],也稱為方差比标準,被用來衡量叢集性能,其定義是通過測量叢集間分散平均和叢集内分散的比率來定義的。較高的CHI表示較強的聚類分離和較低的每個聚類内的方差。

進行了一系列實驗,以優化λ和J進行模型選擇。将λ設定為0.2時,使用從5到25的不同J群集對5個不同的模型進行訓練。其次,用不同的λ訓練5個模型,f_r_o_m為0。2到1,其中J設定為與前一實驗中的最高CHI相對應的值。使用優化的J和λ對最終模型進行訓練,對資料集中的所有瓷磚進行聚類。每張幻燈片都被配置設定了一個類,根據哪個簇被測量為占據幻燈片中最大的區域。之是以使用這種方法,是因為它類似于病理學家根據最常見的組織學模式将癌症分類為亞型的方式

**生存模組化。**為了衡量聚類形态學模式的有用性和有效性,我們根據配置設定給相關結果資料的類别進行了幻燈片級别的生存分析。生存資料通常包括右審查的持續時間。這意味着一些患者不知道感興趣的事件發生的時間,在我們的病例中,放射學檢測到的複發時間是未知的。然而,測量到患者最後一次随訪日期的無複發持續時間仍然是有用的資訊,可以用于模組化。Cox比例風險模組化是處理右删失資料的常用模型:

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

其中H(T)是依賴于時間t的危險函數,Ho是基線危險,協變量Xi由系數bi權重。危險比,或死亡的相對可能性,由EBJ定義。風險比大于1表示群集類别導緻較差的預後。相反,風險比小于1有助于良好的預後因素。為了衡量生存模型中的重要性,每個模型都給出了基于Wald統計量、似然比和對數秩檢驗的p值。

訓練了五個單變量Cox模型,每個模型都有一個聚類類别作為參考,以衡量相對于其他類别的生存影響。此外,通過估計生存函數S(T),我們展示了Kaplan-Meier曲線來說明每一類内的生存結果:

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

其中dir是在時間t的複發事件的數量,nii是在時間t之前有死亡或複發風險的受試者的數量。

3 結果

通過改變λ和J進行模型選擇的結果如表1所示。最佳性能由CHI測量,λ設定為0.2時,J設定為5時。

當根據無監督模型産生的聚類對患者的組織進行分類時,Cox比例風險模型在患者之間的複發生存率中顯示出很強的意義。表2詳細說明了在五個不同模型中,每個群集相對于其他群集的風險比率。每個模型都有一個簇作為參考,以産生危險比。圖2顯示了使用Kaplan-Meier分析的生存模型的可視化。

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

表1.當模型設定為5個聚類(J)并且聚類權重(λ)設定為0.2時,Calinski-Harabaz指數(CHI)最高。這表明哪個模型最能産生密集且彼此分離良好的聚類。

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

表2.通過三種不同的統計測試測量的危險比率顯示出很強的顯著性。這表明由無監督模型産生的聚類類别具有臨床實用性。如果每個聚類都被認為是一個癌症亞型,那麼五個亞型是迄今為止文獻中看到的最強的分層。

Unsupervised Subtyping of Cholangiocarcinoma Using a Deep Clustering Convolutional Autoencoder

圖2.Kaplan-Meier可視化每個患者的生存機率,這些患者被歸入由無監督模型産生的五個聚類類别中的一個。組3中組織高度存在的患者比組2或4組的患者有更好的無複發生存率。

4結論

我們的模型提供了一種新的方法來識别具有潛在預後意義的組織學模式,避免了繁瑣的組織标記和費力的人類對多張整張幻燈片的評估任務。作為一個比較點,最近的一項研究表明,通過使用監督學習首先将幻燈片分割成八個預定義的分類區域,可以獲得結直腸癌的有效預後評分[10]。這類模型将模型限制為預定義的組織成分(惡性良性腫瘤、脂肪、碎片等)。而且該方案可能不會擴充到缺乏類似惡性良性腫瘤特異性間質互相作用的結腸外解剖部位[2]。相反,我們的模型設計缺乏預先定義的組織類别,并且能夠分析任意數量的聚類,進而消除了訓練帶來的潛在偏差,增加了模型應用的靈活性。我們真心希望像這樣的新的亞型方法能帶來更好的膽管癌分級,并改善患者的治療和預後。

繼續閱讀