0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)模型優(yōu)于人類醫(yī)生?

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-30 08:40 ? 次閱讀

前幾天,德國和法國的幾位研究人員在Oxford Academic上發(fā)表了一篇名為Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists的文章,這個長長長長的標(biāo)題告訴我們,這又是一篇讓人去跟機器比賽的故事,目的是看誰識別皮膚黑色素瘤的準(zhǔn)確度更高。最終結(jié)果表明深度學(xué)習(xí)模型優(yōu)于人類醫(yī)生。

但今天,澳大利亞的醫(yī)學(xué)博士、放射科醫(yī)生Luke Oakden-Rayner在推特上質(zhì)疑論文的嚴(yán)謹性,認為結(jié)論過于草率,低估了人類表現(xiàn)。到底雙方哪種說法更合理呢?我們先看看這篇論文到底講了什么。

CNN vs 人類

過去幾十年,黑色素瘤成為威脅公共安全的一大主要挑戰(zhàn),連續(xù)攀升的發(fā)病率以及死亡率,讓早期發(fā)現(xiàn)及預(yù)防成為診斷的關(guān)鍵。多項分析表明,皮膚鏡的應(yīng)用大大提高了診斷準(zhǔn)確率。然而,每位醫(yī)師接受的訓(xùn)練不同,水平也參差不齊,目前黑色素瘤的平均診斷準(zhǔn)確度還不到80%。

最近幾年,一些自動計算機圖像分析技術(shù)的出現(xiàn),意在幫助提高醫(yī)療診斷準(zhǔn)確率和效率。但這些方法都有限制,它們都使用人類規(guī)定的皮膚鏡診斷標(biāo)準(zhǔn)進行的判斷,例如是否有多色、特殊形態(tài)例如條紋狀和結(jié)節(jié)狀,或不規(guī)則血管結(jié)構(gòu)。

2017年,Esteva等人發(fā)表論文,宣布他們創(chuàng)建了一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,可以對圖片進行分類,其中CNN無需被人類的標(biāo)準(zhǔn)所限制,它可以將數(shù)字圖片分解成像素級水平,并最終進行診斷。這篇論文也被看作是革命性的作品。

而本次德國和法國的研究者目的是訓(xùn)練、驗證并測試一個深度學(xué)習(xí)CNN,讓它對皮膚鏡成像進行診斷分類,判斷是黑色素瘤還是良性的痣,并將結(jié)果和58位皮膚科醫(yī)生相比較。

具體方法

谷歌的Inception v4 CNN架構(gòu)是用皮膚鏡圖像和對應(yīng)的診斷結(jié)果訓(xùn)練并驗證的。在橫向的人類醫(yī)生驗證中有100張圖片組成的測試集(其中第一步只用皮膚鏡觀察,第二步會加上診斷信息和圖片)。對輸出進行測量的標(biāo)準(zhǔn)主要有敏感性(sensitivity)、特異度(specificity)和CNN對病變處的診斷分類的ROC曲線的AUC值與讀者研究中58名人類醫(yī)生的對比。

次要評估指標(biāo)包括皮膚科醫(yī)生在管理決策時的診斷表現(xiàn),以及在兩個不同階段上診斷的差異。除此之外,CNN的性能還會與2016年國際生物醫(yī)學(xué)成像研討會(ISBI)挑戰(zhàn)賽上排名前五的算法進行比較。

對比結(jié)果

在人類醫(yī)生的第一階段表現(xiàn)中,他們的得分較接近平均水平,在對病變的分類上,敏感性為86.6%(±9.3%),特異度為71.3%(±11.2%)。第二階段增加了更多信息后,敏感性上升至88.9%(±9.6%,P=0.19),特異度升為75.7%(±11.7%,P<0.05)。

而CNN的ROC曲線在第一階段中,特異度就高于人類醫(yī)生,為82.5%。而CNN的ROC AUC分數(shù)也比醫(yī)生的平均ROC面積要高,為0.86 vs 0.79,P<0.01。CNN的最終分數(shù)與2016 ISBI挑戰(zhàn)賽上前三的算法分數(shù)接近。

結(jié)論

在包括30名專家的58位皮膚科醫(yī)生團隊中,這是我們首次將CNN與人類進行對比。大多情況下,CNN的表現(xiàn)要優(yōu)于人類醫(yī)生。研究者并不否認醫(yī)生的經(jīng)驗和努力,而是認為在CNN圖像分類技術(shù)的幫助下,診斷率會更高。

AI贏了?

這篇論文發(fā)表后,獲得了許多大V轉(zhuǎn)發(fā),其中就包括卷積網(wǎng)絡(luò)之父Yann LeCun。

雖然只重復(fù)了一遍對比結(jié)果,LeCun的轉(zhuǎn)發(fā)也獲得了300多點贊。

同時,華盛頓郵報、醫(yī)學(xué)網(wǎng)站等媒體也紛紛報道了這一結(jié)果,聲稱“AI打敗了人類”,但有人卻針對其中的統(tǒng)計方法提出了質(zhì)疑。

論文很好,但有瑕疵

今天,放射科專家、醫(yī)學(xué)博士Luke Oakden-Rayner在推特上表示:這篇論文有瑕疵!簡單地說,他認為論文研究者低估了人類醫(yī)生的表現(xiàn)。論智君將具體原因編譯如下:

我認為,研究者們在對比人類和機器時用的是兩種不同的指標(biāo)!對機器用的是AUC,對人類用的是“ROC區(qū)域”得出的平均敏感性和特異度。除了指標(biāo)不同,“ROC區(qū)域”整體就比AUC要低。實際上,皮膚科醫(yī)生表現(xiàn)的越好,它就越偏離假設(shè)的AUC。

根據(jù)論文數(shù)據(jù),我們可以也計算一下模型的“ROC區(qū)域”,結(jié)果如下,跟人類的分數(shù)一樣都是79。

在特異度方面,對比的缺陷就更不易察覺了。專家醫(yī)生分布在ROC曲線上,所以平均敏感性和特異度把醫(yī)生的平均值放在了曲線內(nèi),同時模型還是在曲線上測試的。再說一遍,人類被低估了。下面是ROC曲線的其中一個例子,粉點是平均分。

另外,我不確定研究者是否選擇了合適的操作點(OP),在CNN和醫(yī)生對比的過程中,研究人員似乎是基于測試數(shù)據(jù)進行選擇的。在它們的ROC中,一個合理選擇的OP大大降低了敏感性和特異度的值。下圖中紫色的點是他們的OP,黑色的點只是靠近OP所在區(qū)域。

注意這個ROC曲線看起來有點奇怪,因為前部支持的點很少,也就是說這個區(qū)域比上部更缺少數(shù)據(jù)支持。

最后,我不清楚他們是怎么計算p-value的。在給定操作點(平均醫(yī)生的敏感性)的情況下,研究者認為特異度在小于0.01的p-value下更好,但是在ROC數(shù)字表現(xiàn)在曲線上時置信區(qū)間竟然有68%!即使是圖表解釋的有問題,或者存在±2的標(biāo)準(zhǔn)差,95%的數(shù)值還是在曲線上的。我不知道這跟p-value<0.01有什么關(guān)系。

要說明的是,我并不全盤否定這篇論文,我認為這種討論很有意義。只是其中有一些我認為不嚴(yán)謹?shù)牡胤?,希望我的建議有用。

結(jié)語

說到最后,其實是在對比方式上存在質(zhì)疑。也許論文的研究者需要考慮一下他們的統(tǒng)計測試是否公平,因為只對醫(yī)生們的檢測敏感性和特異度取平均值說服力還是不夠。這也給我們提了醒,在閱讀論文時不要一味地迷信,要勤于思考,在發(fā)現(xiàn)論文閃光點的同時還要確保邏輯上的準(zhǔn)確。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:這篇被Yann LeCun轉(zhuǎn)發(fā)的論文,被質(zhì)疑了

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    大語言模型:原理與工程實踐+初識2

    的一系列變革。 大語言模型深度學(xué)習(xí)的應(yīng)用之一,可以認為,這些模型的目標(biāo)是模擬人類交流,為了理解和生成
    發(fā)表于 05-13 00:09

    labview調(diào)用深度學(xué)習(xí)tensorflow模型非常簡單,附上源碼和模型

    本帖最后由 wcl86 于 2021-9-9 10:39 編輯 `labview調(diào)用深度學(xué)習(xí)tensorflow模型非常簡單,效果如下,附上源碼和訓(xùn)練過的模型:[hide][/h
    發(fā)表于 06-03 16:38

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    什么是深度學(xué)習(xí)?使用FPGA進行深度學(xué)習(xí)的好處?

    什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的計算模型。作為具體示例,讓我們考慮一個輸入圖像
    發(fā)表于 02-17 16:56

    “人工智能醫(yī)生”會取代人類醫(yī)生嗎?

    “人工智能醫(yī)生”究竟是如何“思考”的?以慢病管理為例,看似簡單的“百分比”,背后其實有一整套算法模型。第四范式創(chuàng)始人戴文淵說,對于深度學(xué)習(xí)而言,慢性病的數(shù)據(jù)量相對比較小,可能只有萬級的
    的頭像 發(fā)表于 02-21 16:38 ?4184次閱讀

    如何使用深度學(xué)習(xí)實現(xiàn)語音聲學(xué)模型的研究

    的分析識別更是研究的重中之重。近年來深 10 度學(xué)習(xí)模型的廣泛發(fā)展和計算能力的大幅提升對語音識別技術(shù)的提升起到了關(guān)鍵作用。本文立足于語音識別與深度學(xué)習(xí)理論緊密結(jié)合,針對如何利用
    發(fā)表于 05-09 08:00 ?41次下載
    如何使用<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>實現(xiàn)語音聲學(xué)<b class='flag-5'>模型</b>的研究

    谷歌深度學(xué)習(xí)如何處理人類語言?

    具有語言能力的深度學(xué)習(xí)系統(tǒng)已經(jīng)廣泛應(yīng)用于人們的生活當(dāng)中。其中一些系統(tǒng)使用了 Google 發(fā)布的特定深度學(xué)習(xí)模型 —— 多語言 BERT(M
    的頭像 發(fā)表于 03-01 15:31 ?1259次閱讀

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載
    發(fā)表于 04-07 16:21 ?3次下載
    <b class='flag-5'>深度</b><b class='flag-5'>模型</b>中的優(yōu)化與<b class='flag-5'>學(xué)習(xí)</b>課件下載

    模型為什么是深度學(xué)習(xí)的未來?

    與傳統(tǒng)機器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)中學(xué)習(xí),而大模型則是通過使用大量的模型來訓(xùn)練數(shù)據(jù)。
    的頭像 發(fā)表于 02-16 11:32 ?1957次閱讀

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用 深度學(xué)習(xí)算法被認為是人工智能的核心,它是一種模仿
    的頭像 發(fā)表于 08-17 16:03 ?1859次閱讀

    機器學(xué)習(xí)深度學(xué)習(xí)的區(qū)別

      機器學(xué)習(xí)深度學(xué)習(xí)是當(dāng)今最流行的人工智能(AI)技術(shù)之一。這兩種技術(shù)都有助于在不需要人類干預(yù)的情況下讓計算機自主學(xué)習(xí)和改進預(yù)測
    發(fā)表于 08-28 17:31 ?1336次閱讀

    基于深度學(xué)習(xí)的情感語音識別模型優(yōu)化策略

    情感語音識別技術(shù)是一種將人類語音轉(zhuǎn)化為情感信息的技術(shù),其應(yīng)用范圍涵蓋了人機交互、智能客服、心理健康監(jiān)測等多個領(lǐng)域。隨著人工智能技術(shù)的不斷發(fā)展,深度學(xué)習(xí)在情感語音識別領(lǐng)域的應(yīng)用越來越廣泛。本文將探討
    的頭像 發(fā)表于 11-09 16:34 ?496次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?455次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-01 16:13 ?488次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?417次閱讀