0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于樹的方法和神經(jīng)網(wǎng)絡(luò)方法

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 作者:新機(jī)器視覺 ? 2022-07-27 16:17 ? 次閱讀

樹模型和神經(jīng)網(wǎng)絡(luò),像一枚硬幣的兩面。在某些情況下,樹模型的性能甚至優(yōu)于神經(jīng)網(wǎng)絡(luò)。

由于神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,它們常常被認(rèn)為是解決所有機(jī)器學(xué)習(xí)問題的「圣杯」。而另一方面,基于樹的方法并未得到同等重視,主要原因在于這類算法看起來很簡單。然而,這兩種算法看似不同,卻像一枚硬幣的正反面,都很重要。

樹模型 VS 神經(jīng)網(wǎng)絡(luò)

基于樹的方法通常優(yōu)于神經(jīng)網(wǎng)絡(luò)。本質(zhì)上,將基于樹的方法和基于神經(jīng)網(wǎng)絡(luò)的方法放在同一個類別中是因為,它們都通過逐步解構(gòu)來處理問題,而不是像支持向量機(jī)或 Logistic 回歸那樣通過復(fù)雜邊界來分割整個數(shù)據(jù)集。

很明顯,基于樹的方法沿著不同的特征逐步分割特征空間,以優(yōu)化信息增益。不那么明顯的是,神經(jīng)網(wǎng)絡(luò)也以類似的方式處理任務(wù)。每個神經(jīng)元監(jiān)視特征空間的一個特定部分(存在多種重疊)。當(dāng)輸入進(jìn)入該空間時,某些神經(jīng)元就會被激活。

神經(jīng)網(wǎng)絡(luò)以概率的視角看待這種逐段模型擬合 (piece-by-piece model fitting),而基于樹的方法則采用確定性的視角。不管怎樣,這兩者的性能都依賴于模型的深度,因為它們的組件與特征空間的各個部分存在關(guān)聯(lián)。

包含太多組件的模型(對于樹模型而言是節(jié)點(diǎn),對于神經(jīng)網(wǎng)絡(luò)則是神經(jīng)元)會過擬合,而組件太少的模型根本無法給出有意義的預(yù)測。(二者最開始都是記憶數(shù)據(jù)點(diǎn),而不是學(xué)習(xí)泛化。)

要想更直觀地了解神經(jīng)網(wǎng)絡(luò)是如何分割特征空間的,可閱讀這篇介紹通用近似定理的文章:https://medium.com/analytics-vidhya/you-dont-understand-neural-networks-until-you-understand-the-universal-approximation-theory-85b3e7677126。

雖然決策樹有許多強(qiáng)大的變體,如隨機(jī)森林、梯度提升、AdaBoost 和深度森林,但一般來說,基于樹的方法本質(zhì)上是神經(jīng)網(wǎng)絡(luò)的簡化版本。

基于樹的方法通過垂直線和水平線逐段解決問題,以最小化熵(優(yōu)化器和損失)。神經(jīng)網(wǎng)絡(luò)通過激活函數(shù)來逐段解決問題。

基于樹的方法是確定性的,而不是概率性的。這帶來了一些不錯的簡化,如自動特征選擇。

決策樹中被激活的條件節(jié)點(diǎn)類似于神經(jīng)網(wǎng)絡(luò)中被激活的神經(jīng)元(信息流)。

神經(jīng)網(wǎng)絡(luò)通過擬合參數(shù)對輸入進(jìn)行變換,間接指導(dǎo)后續(xù)神經(jīng)元的激活。決策樹則顯式地擬合參數(shù)來指導(dǎo)信息流。(這是確定性與概率性相對應(yīng)的結(jié)果。)

信息在兩個模型中的流動相似,只是在樹模型中的流動方式更簡單。

樹模型的 1 和 0 選擇 VS 神經(jīng)網(wǎng)絡(luò)的概率選擇

當(dāng)然,這是一個抽象的結(jié)論,甚至可能是有爭議的。誠然,建立這種聯(lián)系有許多障礙。不管怎樣,這是理解基于樹的方法何時以及為什么優(yōu)于神經(jīng)網(wǎng)絡(luò)的重要部分。

對于決策樹而言,處理表格或表格形式的結(jié)構(gòu)化數(shù)據(jù)是很自然的。大多數(shù)人都同意用神經(jīng)網(wǎng)絡(luò)執(zhí)行表格數(shù)據(jù)的回歸和預(yù)測屬于大材小用,所以這里做了一些簡化。選擇 1 和 0,而不是概率,是這兩種算法之間差異的主要根源。因此,基于樹的方法可成功應(yīng)用于不需要概率的情況,如結(jié)構(gòu)化數(shù)據(jù)。

例如,基于樹的方法在 MNIST 數(shù)據(jù)集上表現(xiàn)出很好的性能,因為每個數(shù)字都有幾個基本特征。不需要計算概率,這個問題也不是很復(fù)雜,這就是為什么設(shè)計良好的樹集成模型性能可以媲美現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò),甚至更好。

通常,人們傾向于說「基于樹的方法只是記住了規(guī)則」,這種說法是對的。神經(jīng)網(wǎng)絡(luò)也是一樣,只不過它能記住更復(fù)雜的、基于概率的規(guī)則。神經(jīng)網(wǎng)絡(luò)并非顯式地對 x》3 這樣的條件給出真 / 假的預(yù)測,而是將輸入放大到一個很高的值,從而得到 sigmoid 值 1 或生成連續(xù)表達(dá)式。

另一方面,由于神經(jīng)網(wǎng)絡(luò)非常復(fù)雜,因此使用它們可以做很多事情。卷積層和循環(huán)層都是神經(jīng)網(wǎng)絡(luò)的杰出變體,因為它們處理的數(shù)據(jù)往往需要概率計算的細(xì)微差別。

很少有圖像可以用 1 和 0 建模。決策樹值不能處理具有許多中間值(例如 0.5)的數(shù)據(jù)集,這就是它在 MNIST 數(shù)據(jù)集上表現(xiàn)很好的原因,在 MNIST 中,像素值幾乎都是黑色或白色,但其他數(shù)據(jù)集的像素值不是(例如 ImageNet)。類似地,文本有太多的信息和太多的異常,無法用確定性的術(shù)語來表達(dá)。

這也是神經(jīng)網(wǎng)絡(luò)主要用于這些領(lǐng)域的原因,也是神經(jīng)網(wǎng)絡(luò)研究在早期(21 世紀(jì)初之前)停滯不前的原因,當(dāng)時無法獲得大量圖像和文本數(shù)據(jù)。神經(jīng)網(wǎng)絡(luò)的其他常見用途僅限于大規(guī)模預(yù)測,比如 YouTube 視頻推薦算法,其規(guī)模非常大,必須用到概率。

任何公司的數(shù)據(jù)科學(xué)團(tuán)隊可能都會使用基于樹的模型,而不是神經(jīng)網(wǎng)絡(luò),除非他們正在建造一個重型應(yīng)用,比如模糊 Zoom 視頻的背景。但在日常業(yè)務(wù)分類任務(wù)上,基于樹的方法因其確定性特質(zhì),使這些任務(wù)變得輕量級,其方法與神經(jīng)網(wǎng)絡(luò)相同。

在許多實際情況下,確定性建模比概率建模更自然。例如,預(yù)測用戶是否從某電商網(wǎng)站購買一樣商品,這時樹模型是很好的選擇,因為用戶天然地遵循基于規(guī)則的決策過程。用戶的決策過程可能看起來像這樣:

我以前在這個平臺上有過愉快的購物經(jīng)歷嗎?如果有,繼續(xù)。

我現(xiàn)在需要這件商品嗎?(例如,冬天我應(yīng)該買太陽鏡和泳褲嗎?)如果是,繼續(xù)。

根據(jù)我的用戶統(tǒng)計信息,這是我有興趣購買的產(chǎn)品嗎?如果是,繼續(xù)。

這個東西太貴嗎?如果沒有,繼續(xù)。

其他顧客對這個產(chǎn)品的評價是否足夠高,讓我可以放心地購買它?如果是,繼續(xù)。

一般來說,人類遵循基于規(guī)則和結(jié)構(gòu)化的決策過程。在這些情況下,概率建模是不必要的。

結(jié)論

最好將基于樹的方法視為神經(jīng)網(wǎng)絡(luò)的縮小版本,以更簡單的方式進(jìn)行特征分類、優(yōu)化、信息流傳遞等。

基于樹的方法和神經(jīng)網(wǎng)絡(luò)方法在用途的主要區(qū)別在于確定性(0/1)與概率性數(shù)據(jù)結(jié)構(gòu)。使用確定性模型可以更好地對結(jié)構(gòu)化(表格)數(shù)據(jù)進(jìn)行建模。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)算法終極對比:樹模型VS神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)專用硬件實現(xiàn)的方法和技術(shù)

    神經(jīng)網(wǎng)絡(luò)專用硬件實現(xiàn)是人工智能領(lǐng)域的一個重要研究方向,旨在通過設(shè)計專門的硬件來加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和推理過程,提高計算效率和能效比。以下將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)專用硬件實現(xiàn)的方法和技術(shù),并附上
    的頭像 發(fā)表于 07-15 10:47 ?881次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的壓縮方法

    ,CNN模型的參數(shù)量和計算量也隨之劇增,這對硬件資源提出了嚴(yán)峻挑戰(zhàn)。因此,卷積神經(jīng)網(wǎng)絡(luò)的壓縮方法成為了研究熱點(diǎn)。本文將從多個角度詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的壓縮方法,包括前端壓縮和后端壓縮兩
    的頭像 發(fā)表于 07-11 11:46 ?273次閱讀

    神經(jīng)網(wǎng)絡(luò)辨識模型具有什么特點(diǎn)

    神經(jīng)網(wǎng)絡(luò)辨識模型是一種基于人工神經(jīng)網(wǎng)絡(luò)的系統(tǒng)辨識方法,它具有以下特點(diǎn): 非線性映射能力 :神經(jīng)網(wǎng)絡(luò)能夠處理非線性問題,可以很好地擬合復(fù)雜的非線性系統(tǒng)。 泛化能力 :
    的頭像 發(fā)表于 07-11 11:12 ?364次閱讀

    BP神經(jīng)網(wǎng)絡(luò)樣本的獲取方法

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種基于誤差反向傳播算法的多層前饋神經(jīng)網(wǎng)絡(luò),廣泛應(yīng)用于模式識別、分類、預(yù)測等領(lǐng)域。在構(gòu)建BP神經(jīng)網(wǎng)絡(luò)模型之前,獲取高質(zhì)量
    的頭像 發(fā)表于 07-11 10:50 ?443次閱讀

    怎么對神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    發(fā)生變化,導(dǎo)致神經(jīng)網(wǎng)絡(luò)的泛化能力下降。為了保持神經(jīng)網(wǎng)絡(luò)的性能,需要對其進(jìn)行重新訓(xùn)練。本文將詳細(xì)介紹重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)的步驟和方法。 數(shù)據(jù)預(yù)處理 數(shù)據(jù)預(yù)處理是重新訓(xùn)練
    的頭像 發(fā)表于 07-11 10:25 ?402次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)的實現(xiàn)方法

    (Recurrent Neural Network,通常也簡稱為RNN,但在此處為區(qū)分,我們將循環(huán)神經(jīng)網(wǎng)絡(luò)稱為Recurrent RNN)不同,遞歸神經(jīng)網(wǎng)絡(luò)更側(cè)重于處理樹狀或圖結(jié)構(gòu)的數(shù)據(jù),如句法分析、自然語言的語法結(jié)構(gòu)等。以下
    的頭像 發(fā)表于 07-10 17:02 ?261次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測模型的構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)模型作為一種強(qiáng)大的預(yù)測工具,廣泛應(yīng)用于各種領(lǐng)域,如金融、醫(yī)療、交通等。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)預(yù)測模型的構(gòu)建方法,包括模型設(shè)計、數(shù)據(jù)集準(zhǔn)備、模型訓(xùn)練、驗證與評估等步驟,并附以代碼示例。
    的頭像 發(fā)表于 07-05 17:41 ?575次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?463次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?596次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的設(shè)計方法

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為人工智能領(lǐng)域的重要技術(shù)之一,通過模擬人腦神經(jīng)元之間的連接,實現(xiàn)了對復(fù)雜數(shù)據(jù)的自主學(xué)習(xí)和智能判斷。其設(shè)計方法不僅涉及網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 13:13 ?370次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的原理、結(jié)構(gòu)及 訓(xùn)練方法

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種基于梯度下降算法的多層前饋神經(jīng)網(wǎng)絡(luò),具有強(qiáng)大的非線性擬合能力。 BP神經(jīng)網(wǎng)絡(luò)的原理 1.1 神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:08 ?469次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類方法有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測、語義分割等計算機(jī)視覺任務(wù)。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的分類方法
    的頭像 發(fā)表于 07-03 09:40 ?368次閱讀

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模中的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來描述和分析現(xiàn)實世界問題的過程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計算模型,可以用于解決各種復(fù)雜問題。在數(shù)學(xué)建模中,神經(jīng)網(wǎng)絡(luò)可以作為一種有效的工具
    的頭像 發(fā)表于 07-02 11:29 ?782次閱讀

    基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)算法,廣泛應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、語音識別等。本文詳細(xì)介紹了基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法,包括數(shù)據(jù)預(yù)處理、網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計、訓(xùn)練過程優(yōu)化、模
    的頭像 發(fā)表于 07-02 11:21 ?411次閱讀

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型方法有幾種

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型是深度學(xué)習(xí)領(lǐng)域的核心任務(wù)之一。本文將詳細(xì)介紹構(gòu)建神經(jīng)網(wǎng)絡(luò)模型的幾種方法,包括前饗神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)
    的頭像 發(fā)表于 07-02 10:15 ?295次閱讀