腾讯在乳腺癌影像AI诊断方向的探索
導讀:4月12日,2018中國“互聯網+”數字經濟峰會在重慶召開。當天下午的醫療AI分論壇吸引了眾多國內頂尖的學術科研人士參與,×××院士、國家消化病臨床醫學研究中心主任李兆申,中國醫學科學院、北京協和醫學院教授喬友林,中國人民解放軍軍事醫學研究院信息中心主任趙東升等名家受邀發表演講,騰訊技術工程事業群架構平臺部總監朱建平也發表了題為“打開人工智能乳腺疾病診斷的黑盒”的演講,全面介紹了騰訊在乳腺癌影像AI診斷方面的進展,以下為演講實錄。
各位嘉賓大家好,今天給大家分享下我們在乳腺癌影像AI診斷方面的探索。這幾年隨著硬件計算能力的提升,以及深度學習模型的不斷發展,AI在圖片和語音識別方面取得了顯著的進展。那AI應用在醫療里面,是不是只要把圖像樣本換成醫療影像就可以了呢?接下來基于我們在乳腺鉬靶影像方面的實踐,給大家分享下我們的一些認識和思考。
剛才前面幾位專家介紹了×××診療的一些背景,現在讓我們聚焦一下乳腺癌。在×××里面,肺癌是我國發病率最高的×××,而乳腺癌在我國女性惡性腫瘤發病率中是第一位的,它的年發病率在萬分之四左右,并且發病率每年還在以3%~4%的速度增長。對于74歲以下的女性而言,一生中會有3%的概率患乳腺癌。另外一個事實是,對于發達國家而言,比如美國,在發現乳腺癌以后,患者的五年生存率達到了89%,但是據有關數據統計,我國乳腺癌患者的五年生存率不到60%。對于提升乳腺癌的生存率來說,乳腺癌的早篩早診非常重要,醫學影像AI診斷能輔助醫生提升篩查效率,有效降低漏診和誤診,有助于我國基層醫院普及基于醫學影像的乳腺癌篩查。
乳腺癌鉬靶
在乳腺癌的診療過程中,主要有超聲,鉬靶,核磁共振(MRI),病理和基因等醫學手段用于輔助診斷和治療。其中超聲和鉬靶主要用于乳腺癌的初篩,MRI用于治療效果的評估,病理用于×××的確診以及治療方案的評估。近年來,基因分析在腫瘤診療方面也得到了快速發展,主要用于遺傳性乳腺癌的篩查以及個性化的精準醫療。目前我們團隊完成了乳腺鉬靶AI診斷產品的研發和落地,并且在核磁共振和病理方面,相關的研發的工作也已經展開。
乳腺鉬靶的AI診斷要實現什么功能呢?主要是兩類功能,第一個是疑似病灶的定位,我們需要鉬靶圖片中給出腫塊灶和鈣化灶兩類病灶的位置。
第二個是病灶良/惡性的判別,給出病灶是惡性的概率是多少。這個項目得到了中山大學附屬第一醫院、廣東省婦幼醫院、安徽省婦幼醫院等國內數十家醫院的支持。感謝他們對本項目的大力幫助和支持。
首先,我們認為醫療AI在技術上主要分為三個層面,第一個層面是醫學知識,第二個層面是醫學影像的計算機視覺處理,第三個層面是AI的學習模型。具體到乳腺鉬靶影像的AI識別上,我們的技術實現框架如圖所示:
當拿到一份鉬靶影像圖片以后,首先進行醫學影像的前處理,這個前處理是做什么呢?我們知道醫學影像圖片一般比較大,有時候有5000×5000像素這么大的圖片,包含的信息也非常多,如果直接用于AI模型的訓練,對于樣本的數量和質量要求非常高,在實際中很難滿足。為此,我們通過醫學圖像的前處理來實現數據的降維,減少無關信息的干擾。接下來,我們設計了符合鉬靶圖像診斷規律的AI模型——TMuNet,用于鉬靶圖像的腫塊檢測,鈣化檢測以及病灶的良惡性判別。最后,醫學影像AI模型的研發不是一蹴而就的過程,它需要結合醫生的反饋不斷迭代,并加以改進和優化。
醫學影像前處理這一層主要解決兩個問題,第一個是做不同設備的適配問題,醫院的鉬靶設備來自包括西門子、GE等不同廠商,成像參數各不相同。我們設計了一個設備適配層來對不同廠商的鉬靶圖像進行了歸一化處理,保證下游算法是統一的。第二個問題是影像圖片中信息量過大的問題。我們向專業醫生請教了不少醫學先驗知識,設計了一個感興趣區域(ROI)提取層,結合病灶的醫學特征,利用計算機視覺的技術把疑似病灶的區域提取出來,進行一個數據降維處理,以減少無關信息的干擾。
接下來是學習模型,雖然現在的學習模型很多,但是這些模型不能簡單地在醫療AI領域直接使用,于是我們專門針對乳腺鉬靶影像診斷的特點研發了TMuNet模型。TMuNet的第一個特點是支持Multi-View。一次鉬靶檢查得到的影像數據,包含左右乳房的MLO位和CC位共四張圖片,這四張圖片是有關聯的,只用一張圖片進行診斷的話,又面臨“同影異病”和“同病異影”的問題。醫生一般通過左右乳以及CC位和MLO位的對比來進行診斷。傳統的CNN模型,只支持一張圖片作為輸入,無法利用圖片之間的關聯信息。TMuNet支持輸入4張圖片,較好地利用了4張圖片的關聯信息,融合了醫生的診斷方式。
TMuNet的第二個特點是它是一個非形變多尺度的網絡。傳統的AI模型,圖片的輸入尺寸一般是固定的,比如inception模型要求輸入圖片的尺寸是299*299的,一般通過縮放圖片來滿足這個要求。而醫學圖像中病灶的紋理信息非常重要,如果實施圖片縮放會導致這些信息的丟失,嚴重影響病灶識別的效果。病灶的大小不是固定的,如果不縮放圖片,那么需要結合多大區域的局部信息以識別出病灶是接下來面臨的問題。TMuNet是非形變多尺度的網絡,支持原始醫學影像圖片輸入,不做縮放,同時根據病灶的特征設計了多個尺度,以識別出不同大小的病灶。
?TMuNet的第三個特點是漸進式的網絡構建方式。在鉬靶AI模型的訓練的過程中,現有的樣本量不足以直接訓練出一個復雜的神經網絡。TMuNet采用了漸進的網絡構建模式,開始時僅利用圖片的局部信息訓練出一個相對比較簡單些的網絡,然后在這個網絡的基礎上進行疊加,漸進式地訓練出我們需要的目標復雜網絡。
為支持產品上線后的快速模型迭代,我們使用了一個在線學習的模型。這個模型由兩個部分構成,一個是基礎模型,一個是實時模型。之所以需要實時模型是雖然我們基礎模型在上線以后按照一兩周迭代一次,但是速度還是太慢。所以用一個實時模型做了一個附加,能夠根據醫生的反饋實時的調整模型不準確的地方。
? ??
目前,鉬靶AI識別在腫塊檢測和鈣化檢測方面已經達到90%以上的準確率,與人類專家醫生的水準相當。在病灶的良惡性判別上,AI模型可以做到87%的敏感度和94.5%的特異度,而影像科專家一般只能做到82%的敏感度和62%的特異度。能夠實現這個效果,一個非常重要的原因是,我們采用了被譽為×××診斷金標準的病理報告來輔助鉬靶圖片做標注,使得AI識別的效果能夠超越影像科專家醫生的水平。
接下來的鉬靶AI研發方面,我們發現不同的訓練樣本對模型訓練的價值是存在差異的,我們會在當前已有的模型的基礎上,利用主動學習進一步補充標注樣本,同時應用弱監督學習的技術來進一步挖掘數據的價值,提高樣本標注的精準性,從而進一步提升AI模型識別的精度。
乳腺癌MRI&病理
接下來還有一點時間給大家講一下我們團隊在MRI和病理方面的一些工作。在MRI方向上,目前我們做的工作是借助AI技術去做一個半自動的標注工具。為什么要這樣做?因為核磁共振的數據是一個多維的數據,數據非常復雜,在這樣的數據上面做標注成本是非常高的。我們開發了一個標注工具,提高了醫生的標注效率。具體來說,這個工具在醫生標注前,先給了醫生呈現了一個AI模型的標注結果,醫生可以采用一個類似于PHOTOSHOP中魔棒工具一樣的工具,非常簡單高效的修正AI標注的結果,從而得到一個準確的標注數據。接下來,在MRI方向上,我們還會實現疑似病灶的定位,和病灶良惡性判別兩個功能。
在病理方向上,我們計劃開發3個功能。它們分別是有絲分裂檢測,免疫組化和組織學分級。現在做的就是有絲分裂檢測,這個功能主要是將病理圖片中的有絲分裂細胞檢測出來,提示給醫生,提高醫生的閱片效率。
剛才講的病理和核磁共振的功能還在進一步研發,期待未來能夠有機會跟大家做更詳細的分享。今天我分享的內容就是這些,感謝大家!
轉載于:https://blog.51cto.com/13591395/2103507
總結
以上是生活随笔為你收集整理的腾讯在乳腺癌影像AI诊断方向的探索的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 南京印象之出租车司机
- 下一篇: 缝的是鞋,连的,却是人心。