導讀:全球有50萬人因乳腺癌死亡,他們當中有90%都是轉(zhuǎn)移性腫瘤。圣地亞哥海軍醫(yī)療中心的研究人員,以及致力于的Google人工智能部門研究人員,目前開發(fā)出了一種可期的解決方案,該解決方案采用癌癥檢測算法,可自動評估淋巴結(jié)活檢。
轉(zhuǎn)移性腫瘤,指的是癌細胞脫離其原始組織,通過循環(huán)或淋巴系統(tǒng)穿過身體,并在身體的其他部位形成新的腫瘤,這是眾所周知非常難以檢測的一種腫瘤。2009年,在波士頓,兩家醫(yī)療中心對102名乳腺癌患者進行的一項研究發(fā)現(xiàn),有四分之一的患者都由于醫(yī)療過程中“照護程序”失敗,而受到了不同程度的影響,例如可能是因為身體檢查不充分和診斷檢查不完整。
全球有50萬人因乳腺癌死亡,他們當中有90%都是轉(zhuǎn)移性腫瘤。圣地亞哥海軍醫(yī)療中心的研究人員,以及致力于的Google人工智能部門研究人員,目前開發(fā)出了一種可期的解決方案,該解決方案采用癌癥檢測算法,可自動評估淋巴結(jié)活檢。
他們的AI系統(tǒng),又被稱為淋巴結(jié)助手(LYNA),一篇發(fā)表在《美國外科病理學》雜志上,題為《基于人工智能的乳腺癌淋巴結(jié)轉(zhuǎn)移檢測》的論文中對該系統(tǒng)有所描述。在測試中,它的接收器工作特性(AUC)下面積(一種檢測精度的測量)能達到99%,這是病理檢驗師所做不到的。根據(jù)最近的一項評估,病理檢驗師在時間限制下有62%的時間發(fā)現(xiàn)不了個別載玻片上的小轉(zhuǎn)移現(xiàn)象。
該論文的作者寫道:“人工智能算法可以詳盡地評估幻燈片上的每個組織切片。我們提供了一個框架,以幫助實踐中的病理學家評估這些算法,并把它們納入自己的工作流程(類似于病理學家如何評估免疫組織化學結(jié)果這樣的內(nèi)容)?!?/p>
LYNA模型是一種開源的基于Inception-v3的圖像識別深度學習模型,在斯坦福的ImageNet數(shù)據(jù)集拎已經(jīng)被證明可以實現(xiàn)78.1%的準確率。正如研究人員所解釋的那樣,它需要一個299像素的圖像(Inception-v3的默認輸入大小)作為輸入值,然后在像素大小的級別上顯示出腫瘤的輪廓,并且在訓練過程中,得到標簽——即預測該組織切片是“良性”還是“腫瘤”,并調(diào)整模型的算法權(quán)重以減少誤差。
該團隊通過將LYNA模型置于正常切片比腫瘤切片為4:1比例的這樣一個訓練環(huán)境中,并提高訓練過程的“計算效率”,改進了他們先前公布的算法,這使得通過該算法可以“看到”更多的組織多樣性。此外,他們還對活檢玻片掃描的變化進行了標準化,他們認為這可以將模型的性能提升到更高的程度。
研究人員將LYNA模型置于2016年淋巴數(shù)據(jù)集中(Camelyon16)的癌癥轉(zhuǎn)移數(shù)據(jù)環(huán)境里進行訓練,該數(shù)據(jù)集來自于Radboud大學(Nijmegen, the Netherlands)和Utrecht大學(Utrecht, the Netherlands)的醫(yī)學中心,里面包含了399個淋巴結(jié)切片的玻片圖像,以及來自20名患者的108張圖像。它對270個載玻片(160個正常,110個腫瘤)進行了訓練,并使用了兩個評估集——一個由129個載玻片組成,另一個由108個載玻片組成,來進行性能評估。
在測試中,LYNA模型實現(xiàn)了99.3%的載玻片級精度。當調(diào)整模型的靈敏度閾值,來檢測每張載玻片上的所有腫瘤時,其靈敏度為69%,能準確識別評估數(shù)據(jù)集中的全部的40個轉(zhuǎn)移灶,沒有任何誤報。此外,它不受載玻片中的人工制品的影響,例如氣泡,加工不良,出血和過度涂抹等現(xiàn)象。
LYNA模型并不完美,它偶爾會錯誤地識別巨細胞,生發(fā)癌和骨髓,他們來源于被稱作組織細胞的白細胞,但在評估相同載玻片時,它的表現(xiàn)的確比病理學家們更好。在谷歌AI和Verily(谷歌母公司Alphabet的一個生命科學子公司)發(fā)表的第二篇論文中,該模型檢測淋巴結(jié)轉(zhuǎn)移的時間,與一個由六位權(quán)威認證的病理學家組成團隊相比的話,縮短了一半。
未來的工作將圍繞調(diào)查該算法是否能提高效率或診斷準確性。
研究人員寫道,“LYNA模型與病理學家相比,監(jiān)測腫瘤敏感度水平更高。這些技術(shù)可以提高病理學家的生產(chǎn)力,減少腫瘤細胞形態(tài)學檢測方面的假陰性數(shù)量?!?/p>
Google已廣泛投資于人工智能醫(yī)療保健的相關(guān)應用程序。今年春天,Mountain View公司的Medical Brain團隊聲稱創(chuàng)建了一個AI系統(tǒng),可以預測再入院的可能性,并且他們在6月份使用它來預測了兩家醫(yī)院的死亡率,準確率達90%。2月份,谷歌和Verily的科學家創(chuàng)建了一個機器學習網(wǎng)絡,可以準確地推斷出一個人的基本身體信息,包括他們的年齡和血壓,以及他們是否有患心臟病等重大心臟類疾病風險。
DeepMind,Google在倫敦的人工智能研究部門,參與了幾項與健康相關(guān)的人工智能項目,其中包括美國退伍軍人事務部正在進行的一項試驗,旨在預測患者在住院期間病情的惡化實踐。此前,它與英國國家健康服務中心合作開發(fā)了一種可以尋找早期失明跡象的算法。今年早些時候,一篇發(fā)表于Medical Image Computing & Computer Assisted Intervention會議上的論文中,DeepMind的研究人員表示,他們已經(jīng)開發(fā)出一種能夠以“近乎人性化”的方式對CT掃描進行劃分的AI系統(tǒng)。