同時具有Transformers和U-Net的優點,性能優于AttnUNet、V-Net等網絡,代碼剛剛開源!(按這樣搞,TransVNet、TransYOLO應該也快來了,手動狗頭)
注1:文末附【Transformer】和【醫療影像】交流群
注2:整理不易,歡迎點贊,支援分享!
TransUNet: Transformers Make Strong Encoders for Medical Image Segmentation

- 作者機關:JHU, 電子科大, 斯坦福大學等
- 代碼:Beckschen/TransUNet
- 論文:https://arxiv.org/abs/2102.04306
醫學圖像分割是開發醫療保健系統(尤其是疾病診斷和治療計劃)的必要先決條件。在各種醫學圖像分割任務中,U形架構(也稱為U-Net)已成為事實上的标準,并取得了巨大的成功。但是,由于卷積運算的固有局部性,U-Net通常在明确模組化遠端依賴關系方面顯示出局限性。
設計用于序列到序列預測的transformer已經成為具有先天性全局自注意力機制的替代體系結構,但由于low-level細節不足,可能導緻定位能力受到限制。
在本文中,我們提出了TransUNet,它同時具有Transformers和U-Net的優點,是醫學圖像分割的強大替代方案。
一方面,Transformer将來自卷積神經網絡(CNN)特征圖的标記化圖像塊編碼為提取全局上下文的輸入序列。另一方面,解碼器對編碼的特征進行上采樣,然後将其與高分辨率的CNN特征圖組合以實作精确的定位。
我們認為,借助U-Net的組合,通過恢複局部的空間資訊,可以将Transformers用作醫學圖像分割任務的強大編碼器。
算法細節,建議去看原文
實驗結果
TransUNet在各種醫療應用(包括多器官分割和心髒分割)上均比各種競争方法具有更高的性能。
CVer-Transformer交流群
建了CVer-Transformer交流群!想要進Transformer學習交流群的同學,可以直接加微信号:CVer6666。加的時候備注一下:Transformer+學校+昵稱,即可。然後就可以拉你進群了。
強烈推薦大家關注CVer知乎賬号和CVer微信公衆号,可以快速了解到最新優質的CV論文。
CVer-醫療影像交流群
已建立CVer-醫療影像微信交流群!想要進醫療影像學習交流群的同學,可以直接加微信号:CVer9999。加的時候備注一下:醫療影像+學校+昵稱,即可。然後就可以拉你進群了。
強烈推薦大家關注CVer知乎賬号和CVer微信公衆号,可以快速了解到最新優質的CV論文。