前幾天,德國和法國的幾位研究人員在Oxford Academic上發(fā)表了一篇名為Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists的文章,這個長長長長的標(biāo)題告訴我們,這又是一篇讓人去跟機器比賽的故事,目的是看誰識別皮膚黑色素瘤的準(zhǔn)確度更高。最終結(jié)果表明深度學(xué)習(xí)模型優(yōu)于人類醫(yī)生。
但今天,澳大利亞的醫(yī)學(xué)博士、放射科醫(yī)生Luke Oakden-Rayner在推特上質(zhì)疑論文的嚴(yán)謹性,認為結(jié)論過于草率,低估了人類表現(xiàn)。到底雙方哪種說法更合理呢?我們先看看這篇論文到底講了什么。
CNN vs 人類
過去幾十年,黑色素瘤成為威脅公共安全的一大主要挑戰(zhàn),連續(xù)攀升的發(fā)病率以及死亡率,讓早期發(fā)現(xiàn)及預(yù)防成為診斷的關(guān)鍵。多項分析表明,皮膚鏡的應(yīng)用大大提高了診斷準(zhǔn)確率。然而,每位醫(yī)師接受的訓(xùn)練不同,水平也參差不齊,目前黑色素瘤的平均診斷準(zhǔn)確度還不到80%。
最近幾年,一些自動計算機圖像分析技術(shù)的出現(xiàn),意在幫助提高醫(yī)療診斷準(zhǔn)確率和效率。但這些方法都有限制,它們都使用人類規(guī)定的皮膚鏡診斷標(biāo)準(zhǔn)進行的判斷,例如是否有多色、特殊形態(tài)例如條紋狀和結(jié)節(jié)狀,或不規(guī)則血管結(jié)構(gòu)。
2017年,Esteva等人發(fā)表論文,宣布他們創(chuàng)建了一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,可以對圖片進行分類,其中CNN無需被人類的標(biāo)準(zhǔn)所限制,它可以將數(shù)字圖片分解成像素級水平,并最終進行診斷。這篇論文也被看作是革命性的作品。
而本次德國和法國的研究者目的是訓(xùn)練、驗證并測試一個深度學(xué)習(xí)CNN,讓它對皮膚鏡成像進行診斷分類,判斷是黑色素瘤還是良性的痣,并將結(jié)果和58位皮膚科醫(yī)生相比較。
具體方法
谷歌的Inception v4 CNN架構(gòu)是用皮膚鏡圖像和對應(yīng)的診斷結(jié)果訓(xùn)練并驗證的。在橫向的人類醫(yī)生驗證中有100張圖片組成的測試集(其中第一步只用皮膚鏡觀察,第二步會加上診斷信息和圖片)。對輸出進行測量的標(biāo)準(zhǔn)主要有敏感性(sensitivity)、特異度(specificity)和CNN對病變處的診斷分類的ROC曲線的AUC值與讀者研究中58名人類醫(yī)生的對比。
次要評估指標(biāo)包括皮膚科醫(yī)生在管理決策時的診斷表現(xiàn),以及在兩個不同階段上診斷的差異。除此之外,CNN的性能還會與2016年國際生物醫(yī)學(xué)成像研討會(ISBI)挑戰(zhàn)賽上排名前五的算法進行比較。
對比結(jié)果
在人類醫(yī)生的第一階段表現(xiàn)中,他們的得分較接近平均水平,在對病變的分類上,敏感性為86.6%(±9.3%),特異度為71.3%(±11.2%)。第二階段增加了更多信息后,敏感性上升至88.9%(±9.6%,P=0.19),特異度升為75.7%(±11.7%,P<0.05)。
而CNN的ROC曲線在第一階段中,特異度就高于人類醫(yī)生,為82.5%。而CNN的ROC AUC分數(shù)也比醫(yī)生的平均ROC面積要高,為0.86 vs 0.79,P<0.01。CNN的最終分數(shù)與2016 ISBI挑戰(zhàn)賽上前三的算法分數(shù)接近。
結(jié)論
在包括30名專家的58位皮膚科醫(yī)生團隊中,這是我們首次將CNN與人類進行對比。大多情況下,CNN的表現(xiàn)要優(yōu)于人類醫(yī)生。研究者并不否認醫(yī)生的經(jīng)驗和努力,而是認為在CNN圖像分類技術(shù)的幫助下,診斷率會更高。
AI贏了?
這篇論文發(fā)表后,獲得了許多大V轉(zhuǎn)發(fā),其中就包括卷積網(wǎng)絡(luò)之父Yann LeCun。
雖然只重復(fù)了一遍對比結(jié)果,LeCun的轉(zhuǎn)發(fā)也獲得了300多點贊。
同時,華盛頓郵報、醫(yī)學(xué)網(wǎng)站等媒體也紛紛報道了這一結(jié)果,聲稱“AI打敗了人類”,但有人卻針對其中的統(tǒng)計方法提出了質(zhì)疑。
論文很好,但有瑕疵
今天,放射科專家、醫(yī)學(xué)博士Luke Oakden-Rayner在推特上表示:這篇論文有瑕疵!簡單地說,他認為論文研究者低估了人類醫(yī)生的表現(xiàn)。論智君將具體原因編譯如下:
我認為,研究者們在對比人類和機器時用的是兩種不同的指標(biāo)!對機器用的是AUC,對人類用的是“ROC區(qū)域”得出的平均敏感性和特異度。除了指標(biāo)不同,“ROC區(qū)域”整體就比AUC要低。實際上,皮膚科醫(yī)生表現(xiàn)的越好,它就越偏離假設(shè)的AUC。
根據(jù)論文數(shù)據(jù),我們可以也計算一下模型的“ROC區(qū)域”,結(jié)果如下,跟人類的分數(shù)一樣都是79。
在特異度方面,對比的缺陷就更不易察覺了。專家醫(yī)生分布在ROC曲線上,所以平均敏感性和特異度把醫(yī)生的平均值放在了曲線內(nèi),同時模型還是在曲線上測試的。再說一遍,人類被低估了。下面是ROC曲線的其中一個例子,粉點是平均分。
另外,我不確定研究者是否選擇了合適的操作點(OP),在CNN和醫(yī)生對比的過程中,研究人員似乎是基于測試數(shù)據(jù)進行選擇的。在它們的ROC中,一個合理選擇的OP大大降低了敏感性和特異度的值。下圖中紫色的點是他們的OP,黑色的點只是靠近OP所在區(qū)域。
注意這個ROC曲線看起來有點奇怪,因為前部支持的點很少,也就是說這個區(qū)域比上部更缺少數(shù)據(jù)支持。
最后,我不清楚他們是怎么計算p-value的。在給定操作點(平均醫(yī)生的敏感性)的情況下,研究者認為特異度在小于0.01的p-value下更好,但是在ROC數(shù)字表現(xiàn)在曲線上時置信區(qū)間竟然有68%!即使是圖表解釋的有問題,或者存在±2的標(biāo)準(zhǔn)差,95%的數(shù)值還是在曲線上的。我不知道這跟p-value<0.01有什么關(guān)系。
要說明的是,我并不全盤否定這篇論文,我認為這種討論很有意義。只是其中有一些我認為不嚴(yán)謹?shù)牡胤?,希望我的建議有用。
結(jié)語
說到最后,其實是在對比方式上存在質(zhì)疑。也許論文的研究者需要考慮一下他們的統(tǒng)計測試是否公平,因為只對醫(yī)生們的檢測敏感性和特異度取平均值說服力還是不夠。這也給我們提了醒,在閱讀論文時不要一味地迷信,要勤于思考,在發(fā)現(xiàn)論文閃光點的同時還要確保邏輯上的準(zhǔn)確。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4717瀏覽量
99999 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5422瀏覽量
120588
原文標(biāo)題:這篇被Yann LeCun轉(zhuǎn)發(fā)的論文,被質(zhì)疑了
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論