天天看點

看病排隊難,閱片機器人什麼時候才能讓我們加快腳步?

還記得你上次為了看一個X片的結果在醫院排隊排了多久嗎?

在傳統醫學上,醫生需要把片子對着燈光一張一張來看,費時費力,而且一旦疲勞,閱片的成功率會有所下降,産生判斷錯誤的機率。

不過這個問題很快可能會得到解決。日前在央視一套一檔人工智能節目《機智過人》中,一閱片機器人幾秒内看了三百多張CT片,連撒貝甯都驚詫懵了。

如果你對于醫學影像識别領域有所關注的話,2017年最有趣的事莫過于杭州健培科技與阿裡巴巴iDST視覺計算團隊,在國際權威肺結節診斷大賽LUNA16的世界記錄之争。最終,健培的“啄醫生”閱片機器人以91.3%的平均召回率重回第一,并且創造了新的世界紀錄。通過這場世界記錄之争,其所反映出的是我國閱片機器人這一細分領域的蓬勃發展。

看病排隊難,閱片機器人什麼時候才能讓我們加快腳步?

 (“啄醫生”閱片機器人)

事實上,從肺部影像人工智能診斷系統“天肺一号”的推出,到騰訊的“騰訊覓影”、阿裡巴巴“ET醫療大腦”紛紛入場攪局再到閱片機器人“視診通”大戰84位影像科的專業醫生、“啄醫生”閱片機器人與15名三甲醫院主治醫師打成平手,方興未艾的閱片機器人已經博得社會各界陣陣熱議,人們也在對它無限遐想。

閱片機器人真的能做到既快又準 ?

AI機器人憑什麼能做閱片?

随着AI在醫療領域的深度落地,AI機器人在大資料和算法技術的支撐之下,能夠對MRI圖像、CT圖像、超聲圖像等醫療影像進行識别和處理,并且通過進行自主學習,來不斷提高處理的能力和效率,進而能夠輔助醫生來進行閱片診斷。

看病排隊難,閱片機器人什麼時候才能讓我們加快腳步?

(阿裡巴巴通過人工智能進行超聲甲狀腺結節檢測)

一般來說,在喚醒機器人後,閱片機器人的運作會經過圖像輸入、圖像分割與識别、圖像分析和資訊輸出四個步驟。圖像輸入是指将張數不等的醫療影像輸入進閱片機器人,例如一整套CT圖像大概由200到600張切片組成;圖像分割與識别是指閱片機器人會對于輸入的序列圖像進行算法分割與識别,标注病竈等;圖像分析是指對于病竈進行相關分析,包括磨玻璃的密度、實性成分占比等等,如阿裡巴巴“ET醫療大腦”的智能診斷功能就是基于深度學習之後,發掘病竈的内在規律;資訊輸出指将所得出資料進行彙總,得出報告。

通過對閱片機器人的運作路徑觀察,我們不難發現其具有高效率、客觀性等特征,能夠在提高醫生診斷效率的同時,減少人為失誤率。

閱片機器人的“爆紅”為什麼是在這個時候?

另外,閱片機器人的快速發展其實是與算法技術在此領域的成熟應用分不開的。閱片機器人的核心就是醫學圖像的處理技術,包含圖像的去噪、增強和分割等,而這背後則是算法技術的支撐。智能相對論(微信id:aixdlun)查詢諸多文獻後,發現目前比較常用的算法有蟻群算法、模糊集合論、卷積神經網絡算法以及各種算法之間的融合等。

1.蟻群算法(Ant Colony Optimization)

蟻群算法是在研究螞蟻覓食的過程之中,所得出的用來尋找優化路徑的機率型算法。在醫療圖像處理之中,常常是基于區域内部灰階相似性和區域之間灰階的不連續性來進行圖像分割的。是以能夠利用蟻群算法的“正回報”效應以及分布式的計算方式,來完成對于輸入圖像的分割。

2.模糊集合論(Fuzzy Sets Theory)

待考察的對象及反映它的模糊概念作為一定的模糊集合,建立适當的隸屬函數,通過模糊集合的有關運算和變換,對模糊對象進行分析。目前基于模糊集合論的圖像處理方法包括模糊連接配接度割法、模糊聚類分割法等。

3.卷積神經網絡算法(Convolutional Neural Network)

卷積神經網絡由人工神經網絡發展優化而來,是一個多層的神經網絡,每層由多個二維平面組成,而每個平面由多個獨立神經元組成。卷積神經網絡采用了局部連接配接和共享權值的方式,避免了對圖像的複雜前期預處理,可以直接輸入原始圖像,并且還具有良好的容錯能力、并行處理能力和自學習能力,可處理複雜的環境資訊。據悉,“啄醫生”采用的算法就是運用了中科大的安虹教授團隊基于影像識别的3D卷積神經網絡算法上進行的優化。

正是這些算法的成熟,才促成了這些“閱片機器人”性能的快速提高,也讓它“飛入尋常醫院”加快了腳步。

閱片機器人在普及之前,還需要解決這三個問題

不過,盡管閱片機器人有着科學和強大的技術支撐,但要全面進入醫療應用階段,讓所有人都不用再去排隊苦等醫生診斷,還需要一點時間。目前主要的三大不确定因素主要表現在程式設定、資料學習和資料保護三個方面。

第一,程式設定上的失誤,可能促使誤診的大規模發生

閱片機器人目前仍然達不到100%的精确判斷,正如開頭所提到,目前肺結節診斷正确率的世界紀錄為91.3%,“視診通”在進行“甲狀腺結節超聲圖像的性質判定”時正确率也隻有76%。其原因一方面是受到目前客觀科技水準的限制,另一方面則是人的主觀失誤。

正如前文所介紹,支撐閱片機器人運作的是一整套由人預設好的程式,程式的各個環節緊密相連,前後相繼,最終完成閱片機器人的工作。而人的主觀失誤正是展現在程式的預設上,如果其中任何一個環節設定出現了纰漏,會使得最終的資料報告出現偏差,進而會導緻醫生的診斷和治療方案失誤。此前強生CTC檢測儀器Cellsearch系統就被爆出存在包括X、Y、Z軸移動逾時、複位錯誤等共37個類别的問題,所幸儀器在問題發現之前還未造成嚴重事故。

第二,急需更多有質有量的案例,提升學習能力

AI閱片機器人實作自我學習功能的根基是大量的學習資料輸入,學習資料的質和量都對AI閱片機器人産生重大的影響,學習的數量越多、案例越典型,識就别的速度和品質會越高。相較而言,目前醫療相關資料在質和量上都存在着問題。其一是大量的醫療資料未進行電子化,其二則是醫院與醫院之間存在藩籬,缺失共享、開發的資料庫。在《機智過人》的節目之中,健培科技CEO程國華透露其閱片機器人學習的醫療影像資料為十萬套以上,而同場競技的主治醫師都為二十萬套以上。再來一個資料可能會更為直覺,戰勝人類棋手的AlphaGo一共學習了數百萬人類圍棋專家的棋譜。

第三,醫療資料監管力度不足,個人隐私保護成疑

閱片機器人進行診斷的醫療影像資料報告在輸出給醫生的同時,也通過資訊傳輸技術,儲存在了機器生産商的雲平台之中。經過時間的積累,機器生産商所擁有的個人資料會非常龐大。而這也就意味着,在目前我國醫療資料監管乏力的情況之下,個人的隐私将受到極大的威脅。

在去年浙江松陽所破獲的一起特大侵犯公民個人資訊案件中,犯罪嫌疑人入侵某部委的醫療服務資訊系統,擷取各類公民個人資訊達7億餘條。正如和美醫療控股有限公司創始人林玉明所提倡的一樣,希望國家對資料立法來保障個人的隐私安全。

 目前閱片機器人所取得的成就,标志着我國在AI部分細分領域的突破性發展。盡管有些問題待解,但我們依然期待機器人能縮短我們看病排隊的時長,去醫院不再“難于上青天”。