0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

監(jiān)督學習和無監(jiān)督學習

倩倩 ? 來源:云溪初閣 ? 2020-04-15 14:21 ? 次閱讀

監(jiān)督學習

監(jiān)督學習,小編有個簡單的理解方式,按照這個順序來理解

1、有兩撥人,一撥人是好人,一撥是壞人

2、好人的行為特征有:扶老奶奶過馬路,撿到一分錢交給警察叔叔,當志愿者等等

3、壞人的行為特征有:偷東西,搶劫,欺負好人等等

4、有個審判官,根據(jù)你的行為來進行判斷是好人還是壞人

5、新進來一個小伙伴,由于此人經(jīng)常扶老奶奶過馬路,當志愿者等等,因此審判官就把你判斷為好人

這五點,融入到機器學習里面,用機器學習的話來說

好人與壞人:標簽

好人或者壞人的行為:特征值

審判官:訓練好的模型

新來的小伙伴:未知類別,待打上標簽的數(shù)據(jù)

這樣子是不是就比較好理解了,機器學習里面,先根據(jù)已有數(shù)據(jù)進行模型訓練從而得到一個函數(shù),當有新的數(shù)據(jù)到來的時候,根據(jù)這個函數(shù)預測結果。

監(jiān)督學習里面的訓練集合包含了輸入與輸出,代表著特征值與標簽值。

在一般情況下,用來訓練的訓練集的標簽都是由業(yè)務方來標記,在工作中,最常見的其實就是數(shù)據(jù)分類了,通過已有的訓練的樣本去訓練得到一個模型,我們會采用K折交叉驗證來進行調(diào)參,從而得到參數(shù)的局部最優(yōu)解,再根據(jù)這個模型去預測數(shù)據(jù)。

在監(jiān)督學些中,最常見的是回歸與分類,常見的算法有KNN,SVM,隨機森林等

無監(jiān)督學習

相比于監(jiān)督學習,無監(jiān)督學習,其實就是少了這個監(jiān)督,也就是沒有標簽。

還是那兩撥人,但是這兩撥人沒有實現(xiàn)標記誰是好人,誰是壞人,他們聚在一起,這時候,上帝之手出現(xiàn)了,它讓這些人喜歡干嘛就去干吧,不要猶豫,于是乎,好人們開始去扶老奶奶過馬路,壞人們開始去當小偷,上帝之手成功把這兩撥人給分離開來,接著,給他們分別打上標簽:好人,壞人。

這個上帝之手,就是計算機。

無監(jiān)督學習中,有兩種方法

1、基于概率密度函數(shù)直接評估:其實就是根據(jù)每一個類別的特征在空間的分布情況得到分布參數(shù),根據(jù)這些分布參數(shù)來進行分類。

2、基于數(shù)據(jù)樣本之間的相似性進行度量的聚類方式:假定每一個類別都有核心(當成黑幫老大來理解),以這個核心的特征為標準,把其他樣本的特征與這個核心的特征進行比較,當發(fā)現(xiàn)這是一類人的時候,就整合在一起好了,這樣子,不同類別就出來了。

這就是聚類,算法中,K-Mean,PCA,很多深度學習的算法,都是無監(jiān)督學習。

兩者的區(qū)別

1、監(jiān)督學習必須有訓練樣本及測試樣本,對訓練樣本進行訓練得到規(guī)律,再用這個規(guī)律來運用在測試樣本上;當時無監(jiān)督學習就不用,一組數(shù)據(jù),啥都沒有,直接就扔給計算機,讓它自己算。

2、監(jiān)督學習必須有標簽,無監(jiān)督學習不用標簽,讓計算機自己去分類,然后我們?nèi)斯じ鶕?jù)業(yè)務情況打上標簽。

兩者的使用場景

這個說簡單也挺簡單,根據(jù)業(yè)務方來定,如果業(yè)務方給了一組數(shù)據(jù),然后還告知了類別,那就用監(jiān)督學習,反著,則用無監(jiān)督學習。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關注

    關注

    3

    文章

    4284

    瀏覽量

    62325
  • 機器學習
    +關注

    關注

    66

    文章

    8353

    瀏覽量

    132315
  • 無監(jiān)督學習

    關注

    1

    文章

    16

    瀏覽量

    2751
收藏 人收藏

    評論

    相關推薦

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數(shù)據(jù)作為訓練材料。這些數(shù)據(jù)集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學習:模型采用自監(jiān)督學習策略,在大量標簽文本數(shù)據(jù)
    發(fā)表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節(jié)最后總結了機器學習的分類:有監(jiān)督學習監(jiān)督學習、半監(jiān)督學習、自監(jiān)督學習和強化
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡如何用監(jiān)督算法訓練

    神經(jīng)網(wǎng)絡作為深度學習的重要組成部分,其訓練方式多樣,其中監(jiān)督學習是一種重要的訓練策略。監(jiān)督學習旨在從未標記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結構、模
    的頭像 發(fā)表于 07-09 18:06 ?677次閱讀

    深度學習中的監(jiān)督學習方法綜述

    應用中往往難以實現(xiàn)。因此,監(jiān)督學習在深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的監(jiān)督學
    的頭像 發(fā)表于 07-09 10:50 ?391次閱讀

    基于FPGA的類腦計算平臺 —PYNQ 集群的監(jiān)督圖像識別類腦計算系統(tǒng)

    STDP 監(jiān)督學習算法,可運用于圖像的 監(jiān)督分類。 從平臺設計角度: (1)本設計搭建的基于 PYNQ 集群的通用低功耗的大規(guī)模類腦計算平臺,搭載 PYNN,NEST 等
    發(fā)表于 06-25 18:35

    機器學習基礎知識全攻略

    監(jiān)督學習通常是利用帶有專家標注的標簽的訓練數(shù)據(jù),學習一個從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓練樣本的大小,x和y分別是變量X和Y的樣本值。
    發(fā)表于 02-25 13:53 ?201次閱讀
    機器<b class='flag-5'>學習</b>基礎知識全攻略

    OpenAI推出Sora:AI領域的革命性突破

    大模型的核心技術是自然語言處理(NLP)和深度學習。具體而言,它基于Transformer架構,使用了大規(guī)模監(jiān)督學習方法,例如自回歸語言建模和掩碼語言建模,來訓練一個龐大的神經(jīng)網(wǎng)絡模型。
    發(fā)表于 02-21 16:36 ?978次閱讀
    OpenAI推出Sora:AI領域的革命性突破

    Meta發(fā)布新型監(jiān)督視頻預測模型“V-JEPA”

    Meta,這家社交媒體和科技巨頭,近日宣布推出一種新型的監(jiān)督視頻預測模型,名為“V-JEPA”。這一模型在視頻處理領域引起了廣泛關注,因為它通過抽象性預測生成視頻中缺失或模糊的部分來進行學習,提供了一種全新的視頻處理方法。
    的頭像 發(fā)表于 02-19 11:19 ?908次閱讀

    2024年AI領域?qū)心男┬峦黄颇兀?/a>

    傳統(tǒng)的機器學習需要大量的標記數(shù)據(jù)進行訓練,但自監(jiān)督學習可以通過監(jiān)督的方式從大規(guī)模未標記的數(shù)據(jù)中學習到更有用的表示形式,從而提高模型的性能。
    的頭像 發(fā)表于 01-24 09:58 ?1934次閱讀

    使用自監(jiān)督學習重建動態(tài)駕駛場景

    無論是單調(diào)的高速行車,還是平日的短途出行,駕駛過程往往平淡無奇。因此,在現(xiàn)實世界中采集的用于開發(fā)自動駕駛汽車(AV)的大部分訓練數(shù)據(jù)都明顯偏向于簡單場景。 這給部署魯棒的感知模型帶來了挑戰(zhàn)。自動駕駛汽車必須接受全面的訓練、測試和驗證,以便能夠應對復雜的場景,而這需要大量涵蓋此類場景的數(shù)據(jù)。 在現(xiàn)實世界中,收集此類場景數(shù)據(jù)要耗費大量時間和成本。而現(xiàn)在,仿真提供了另一個可選方案。但要大規(guī)模生成復雜動態(tài)場景仍然
    的頭像 發(fā)表于 12-16 16:05 ?624次閱讀
    使用自<b class='flag-5'>監(jiān)督學習</b>重建動態(tài)駕駛場景

    基于transformer和自監(jiān)督學習的路面異常檢測方法分享

    鋪設異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標記和處理的壓力。本論文描述了一種基于Transformer和自監(jiān)督學習的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1383次閱讀
    基于transformer和自<b class='flag-5'>監(jiān)督學習</b>的路面異常檢測方法分享

    監(jiān)督域自適應場景:基于檢索增強的情境學習實現(xiàn)知識遷移

    本文對比了多種基線方法,包括監(jiān)督域自適應的傳統(tǒng)方法(如Pseudo-labeling和對抗訓練)、基于檢索的LM方法(如REALM和RAG)和情境學習方法(如In-context learning)。
    發(fā)表于 12-05 14:14 ?534次閱讀
    <b class='flag-5'>無</b><b class='flag-5'>監(jiān)督</b>域自適應場景:基于檢索增強的情境<b class='flag-5'>學習</b>實現(xiàn)知識遷移

    動態(tài)場景下的自監(jiān)督單目深度估計方案

    監(jiān)督單目深度估計的訓練可以在大量標簽視頻序列來進行,訓練集獲取很方便。但問題是,實際采集的視頻序列往往會有很多動態(tài)物體,而自監(jiān)督訓練本身就是基于靜態(tài)環(huán)境假設,動態(tài)環(huán)境下會失效。
    發(fā)表于 11-28 09:21 ?649次閱讀
    動態(tài)場景下的自<b class='flag-5'>監(jiān)督</b>單目深度估計方案

    基于單一LLM的情感分析方法的局限性

    LLM的發(fā)展為情感分析任務帶來的新的解決方案。有研究人員使用LLM,在上下文學習(in-context learning, ICL)的范式下,僅使用少量的訓練示例就能夠?qū)崿F(xiàn)與監(jiān)督學習策略旗鼓相當?shù)男阅鼙憩F(xiàn)。
    的頭像 發(fā)表于 11-23 11:14 ?761次閱讀
    基于單一LLM的情感分析方法的局限性

    Backbone之戰(zhàn):計算機視覺任務模型大比較

    盡管Vision Transformer(ViTs)和自監(jiān)督學習(SSL)越來越受歡迎,但在大多數(shù)任務中,文章發(fā)現(xiàn)在大型訓練集上以監(jiān)督方式預訓練的卷積神經(jīng)網(wǎng)絡仍然表現(xiàn)最好。
    的頭像 發(fā)表于 11-13 15:41 ?918次閱讀
    Backbone之戰(zhàn):計算機視覺任務模型大比較