0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

人的大腦和自監(jiān)督學習模型的相似度有多高?

OpenCV學堂 ? 來源:新智元 ? 作者:新智元 ? 2022-08-19 09:50 ? 次閱讀

【導讀】人的大腦和自監(jiān)督學習模型的相似度有多高?

我們都知道,人類的大腦90%都是自監(jiān)督學習的,生物會不斷對下一步發(fā)生的事情做出預測。

自監(jiān)督學習,就是不需要外部干預也能做出決策。

只有少數(shù)情況我們會接受外部反饋,比如老師說:「你搞錯了」。

而現(xiàn)在有學者發(fā)現(xiàn),大型語言模型的自監(jiān)督學習機制,像極了我們的大腦。

知名科普媒體Quanta Magazine近日報道,越來越多的研究發(fā)現(xiàn),自監(jiān)督學習模型,尤其是大型語言模型的自學方式,與我們的大腦的學習模式非常類似。

cf1e76c0-1f09-11ed-ba43-dac502259ad0.png

過去常見的AI系統(tǒng)都是使用大量標記數(shù)據(jù)進行訓練的。

例如,圖像可能被標記為「虎斑貓」或「虎貓」,用以訓練人工神經(jīng)網(wǎng)絡來正確區(qū)分虎斑和虎。

cf336a6c-1f09-11ed-ba43-dac502259ad0.png

這種「自監(jiān)督」訓練需要人工費力地標記數(shù)據(jù),而神經(jīng)網(wǎng)絡通常會走捷徑,學習將標簽與最少、有時甚至是膚淺的信息聯(lián)系起來。

例如,神經(jīng)網(wǎng)絡可能會使用草的存在來識別奶牛的照片,因為奶牛通常是在田野中拍攝的。

加州大學伯克利分校的計算機科學家阿列克謝·埃弗羅斯 (Alexei Efros) 說:

我們正在培養(yǎng)的算法,就像是一整個學期都沒來上課的本科生,雖然他們并沒有系統(tǒng)學習這些材料,但他們在考試中表現(xiàn)出色。

此外,對于對動物智能和機器智能的交叉感興趣的研究人員來說,這種「監(jiān)督學習」可能僅限于它對生物大腦的揭示。

許多動物,包括人類不使用標記數(shù)據(jù)集來學習。在大多數(shù)情況下,他們自己探索環(huán)境,并且通過這樣做,他們對世界獲得了豐富而深刻的理解。

現(xiàn)在,一些計算神經(jīng)科學家已經(jīng)開始探索使用很少或沒有人工標記數(shù)據(jù)進行訓練的神經(jīng)網(wǎng)絡。

最近的研究結果表明,使用自我監(jiān)督學習模型構建的動物視覺和聽覺系統(tǒng)的計算模型比監(jiān)督學習模型更接近大腦功能。

對一些神經(jīng)科學家來說,人工神經(jīng)網(wǎng)絡似乎開始揭示用大腦來類比機器學習的途徑。

有缺陷的監(jiān)督

大約10年前,受人工神經(jīng)網(wǎng)絡啟發(fā)的大腦模型開始出現(xiàn),同時一個名為AlexNet的神經(jīng)網(wǎng)絡徹底改變了對未知圖像進行分類的任務。

cf4c75de-1f09-11ed-ba43-dac502259ad0.png

這項成果在Alex Krizhevsky、Ilya Sutskever和Geoffrey E. Hinton 的論文「ImageNet Classification with Deep Convolutional Neural Networks」中發(fā)表。

cf5ed044-1f09-11ed-ba43-dac502259ad0.png

論文地址:https://dl.acm.org/doi/10.1145/3065386

與所有神經(jīng)網(wǎng)絡一樣,該網(wǎng)絡由多層人工神經(jīng)元組成,其中不同神經(jīng)元之間連接的權重不同。

如果神經(jīng)網(wǎng)絡未能正確分類圖像,學習算法會更新神經(jīng)元之間連接的權重,以降低在下一輪訓練中錯誤分類的可能性。

該算法重復此過程多次,調整權重,直到網(wǎng)絡的錯誤率低到可以接受的程度。

之后,神經(jīng)科學家使用AlexNet開發(fā)了第一個靈長類視覺系統(tǒng)(Primate Visual System)的計算模型。

cf70fd50-1f09-11ed-ba43-dac502259ad0.png

當猴子和人工神經(jīng)網(wǎng)絡顯示相同的圖像時,真實神經(jīng)元和人工神經(jīng)元的活動顯示出類似的反應。

在聽覺和氣味檢測的人工模型上也取得了相似的結果。

但隨著該領域的發(fā)展,研究人員意識到自監(jiān)督訓練的局限性。

2017年,德國蒂賓根大學的計算機科學家Leon Gatys和他的同事拍攝了一張福特T型車的照片,然后在照片上覆蓋了豹皮圖案。

人工智能神經(jīng)網(wǎng)絡將原始圖像正確分類為Model T,但將修改后的圖像視為豹子。

原因是它只專注于圖像紋理,不了解汽車(或豹子)的形狀。

自監(jiān)督學習模型旨在避免此類問題。

瑞士巴塞爾弗里德里?!っ仔獱柹镝t(yī)學研究所的計算神經(jīng)科學家弗里德曼·岑克 (Friedemann Zenke) 說,

在這種方法中,人類不會標記數(shù)據(jù),相反,標簽來自數(shù)據(jù)本身。自監(jiān)督算法本質上是在數(shù)據(jù)中創(chuàng)建空白,并要求神經(jīng)網(wǎng)絡填補空白。

例如,在所謂的大型語言模型中,訓練算法將向神經(jīng)網(wǎng)絡顯示句子的前幾個單詞,并要求它預測下一個單詞。

當使用從互聯(lián)網(wǎng)收集的大量文本進行訓練時,該模型似乎可以學習語言的句法結構,展示出令人印象深刻的語言能力——所有這些都沒有外部標簽或監(jiān)督。

計算機視覺方面也正在進行類似的努力。

2021年底,何愷明及其同事展示了著名的掩碼自動編碼器研究「Masked Auto-Encoder」(MAE)。

cfba4e60-1f09-11ed-ba43-dac502259ad0.png

論文地址:https://arxiv.org/abs/2111.06377

MAE將未掩碼部分轉換為潛在表示——壓縮的數(shù)學描述,其中包含有關對象的重要信息。

在圖像的情況下,潛在表示可能是一種數(shù)學描述,其中包括圖像中對象的形狀。然后解碼器將這些表示轉換回完整的圖像。

cfcc1604-1f09-11ed-ba43-dac502259ad0.png

大腦也是「自監(jiān)督」的

在這樣的系統(tǒng)中,一些神經(jīng)科學家認為,我們的大腦實際上也是自監(jiān)督學習的。

麥吉爾大學和魁北克人工智能研究所(Mila)的計算神經(jīng)科學家布萊克-理查茲(Blake Richards)說:「我認為毫無疑問,大腦所做的90%都是自監(jiān)督學習?!?/p>

生物大腦被認為是在不斷地預測,例如,一個物體在移動時的未來位置,或一句話中的下一個詞,就像自我監(jiān)督學習算法試圖預測圖像或一段文字的間隙一樣。

理查茲和他的團隊創(chuàng)建了一個自監(jiān)督模型,暗示了一個答案。他們訓練了一個結合兩種不同神經(jīng)網(wǎng)絡的人工智能。

第一個,稱為ResNet架構,是為處理圖像而設計的;第二個,稱為遞歸網(wǎng)絡,可以跟蹤先前的輸入序列,對下一個預期輸入進行預測。

為了訓練聯(lián)合AI,該團隊從一連串的視頻開始,比如說10幀,讓ResNet逐一處理。

然后,遞歸網(wǎng)絡預測了第11幀的潛在表示,而不是簡單地匹配前10幀。自監(jiān)督學習算法將預測值與實際值進行比較,并指示神經(jīng)網(wǎng)絡更新其權重,以使預測效果更好。

為了進一步測試,研究人員向AI展示了一組視頻,西雅圖艾倫腦科學研究所的研究人員以前曾向小鼠展示過這些視頻。與靈長類動物一樣,小鼠的大腦區(qū)域專門用于靜態(tài)圖像和運動。艾倫研究人員在小鼠觀看視頻時記錄了小鼠視覺皮層的神經(jīng)活動。

理查茲的團隊發(fā)現(xiàn)了AI和活體大腦對視頻的反應方式的相似之處。在訓練過程中,人工神經(jīng)網(wǎng)絡中的一條途徑變得與小鼠大腦的腹側、物體探測區(qū)域更加相似,而另一條途徑則變得與注重運動的背側區(qū)域相似。

這些結果表明,我們的視覺系統(tǒng)有兩條專門的通路,因為它們有助于預測視覺的未來;單一的通路是不夠好的。

人類聽覺系統(tǒng)的模型講述了一個類似的故事。

6月,由Meta AI的研究科學家Jean-Rémi King領導的團隊訓練了一個名為Wav2Vec 2.0的人工智能,它使用一個神經(jīng)網(wǎng)絡將音頻轉化為潛在的表征。研究人員對這些表征中的一些進行了屏蔽,然后將其送入另一個稱為轉化器的組件神經(jīng)網(wǎng)絡。

在訓練過程中,轉化器預測被屏蔽的信息。在這個過程中,整個人工智能學會了將聲音轉化為潛在的表征,同樣,不需要標簽。

該團隊使用了大約600小時的語音數(shù)據(jù)來訓練網(wǎng)絡?!高@大約是一個孩子在前兩年的經(jīng)驗中得到的東西?!菇鹫f。

Meta AI的讓-雷米-金幫助訓練了一種人工智能,它以模仿大腦的方式處理音頻--部分是通過預測下一步應該發(fā)生什么

一旦該系統(tǒng)被訓練出來,研究人員給它播放英語、法語和普通話的有聲讀物部分,然后將AI的表現(xiàn)與412人的數(shù)據(jù)進行了比較(這些人都是以這三種語言為母語的人),他們在核磁共振掃描對自己的大腦進行成像時,聽了同樣長的一段音頻。

結果顯示,盡管fMRI圖像有噪音且分辨率不高,但AI神經(jīng)網(wǎng)絡和人類的大腦「不僅相互關聯(lián),而且還以系統(tǒng)的方式關聯(lián)」。

AI早期層的活動與初級聽覺皮層的活動一致,而AI最深層的活動則與大腦中較高層的活動相一致,比如前額葉皮層。

「這是非常漂亮的數(shù)據(jù),雖然算不上是決定性的,但算得上是令人信服的證據(jù),表明我們學習語言的方式在很大程度上是在預測接下來會說的話?!?/p>

有人不同意:模擬大腦?模型、算法都差的遠

當然,也并非所有人都認同這種說法。

MIT的計算神經(jīng)科學家喬希-麥克德莫特(Josh McDermott)曾使用監(jiān)督和自監(jiān)督學習研究視覺和聽覺的模型。他的實驗室設計了一些人工合成的音頻和視覺信號,對于人類來說,這些信號只是難以捉摸的噪音。

然而,對于人工神經(jīng)網(wǎng)絡來說,這些信號似乎與真實語言和圖像沒有區(qū)別。這表明,在神經(jīng)網(wǎng)絡的深層形成的表征,即使是自監(jiān)督學習,也與我們大腦中的表征不一樣。

麥克德莫特說:「這些自我監(jiān)督的學習方法是一種進步,因為你能夠學習能夠支持很多識別行為的表征,而不需要所有標簽。但仍然有很多監(jiān)督模型的特征?!?/p>

算法本身也需要更多改進。比如在Meta AI的Wav2Vec 2.0模型中,AI只預測了幾十毫秒的聲音的潛在表征,比人發(fā)出一個噪音音節(jié)的時間還要短,更不用說預測一個詞了。

要真正實現(xiàn)讓AI模型和人類大腦相類似,我們還有很多事情要做,金說。

如果目前發(fā)現(xiàn)的大腦和自我監(jiān)督學習模型之間的相似性在其他感官任務中也成立,將更有力地表明,無論我們的大腦有什么神奇的能力,都需要以某種形式進行自監(jiān)督學習。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    29813

    瀏覽量

    268109
  • 人工智能
    +關注

    關注

    1789

    文章

    46659

    瀏覽量

    237094
  • 模型
    +關注

    關注

    1

    文章

    3115

    瀏覽量

    48660

原文標題:人腦90%都是自監(jiān)督學習,AI大模型離模擬大腦還有多遠?

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數(shù)據(jù)作為訓練材料。這些數(shù)據(jù)集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 監(jiān)督學習模型采用
    發(fā)表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節(jié)最后總結了機器學習的分類:監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習、
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡如何用無監(jiān)督算法訓練

    神經(jīng)網(wǎng)絡作為深度學習的重要組成部分,其訓練方式多樣,其中無監(jiān)督學習是一種重要的訓練策略。無監(jiān)督學習旨在從未標記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內在的結構、模式或規(guī)律,從而提取有用的特征表示。這種訓練方式對于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?677次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    深度學習作為機器學習領域的一個重要分支,近年來在多個領域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領域。然而,深度學習模型的強大性能往往依賴于大量
    的頭像 發(fā)表于 07-09 10:50 ?387次閱讀

    Al大模型機器

    金航標kinghelm薩科微slkor總經(jīng)理宋仕強介紹說,薩科微Al大模型機器哪些的優(yōu)勢?薩科微AI大模型機器由清華大學畢業(yè)的天才少年
    發(fā)表于 07-05 08:52

    發(fā)布首款百文心大模型學習

    近日,小科技推出了一款基于文心大模型學習機——小學習機Z30。這款學習機針對
    的頭像 發(fā)表于 05-29 09:10 ?700次閱讀

    全球首款基于文心大模型學習機—小學習機Z30重磅發(fā)布

    AI時代,大模型成為推動智能教育升維發(fā)展的新質生產力。5月27日小科技召開新品發(fā)布會,全球首款基于文心大模型學習機——小
    的頭像 發(fā)表于 05-28 09:30 ?603次閱讀

    優(yōu)必選宣布人形機器Walker S接入百文心大模型

    優(yōu)必選宣布人形機器Walker S接入百文心大模型,共同探索中國AI大模型+人形機器的應用。
    的頭像 發(fā)表于 04-07 10:17 ?837次閱讀

    OpenAI推出Sora:AI領域的革命性突破

    模型的核心技術是自然語言處理(NLP)和深度學習。具體而言,它基于Transformer架構,使用了大規(guī)模無監(jiān)督學習方法,例如回歸語言建模和掩碼語言建模,來訓練一個龐大的神經(jīng)網(wǎng)絡
    發(fā)表于 02-21 16:36 ?978次閱讀
    OpenAI推出Sora:AI領域的革命性突破

    2024年AI領域將會有哪些新突破呢?

    傳統(tǒng)的機器學習需要大量的標記數(shù)據(jù)進行訓練,但監(jiān)督學習可以通過無監(jiān)督的方式從大規(guī)模未標記的數(shù)據(jù)中學習到更有用的表示形式,從而提高
    的頭像 發(fā)表于 01-24 09:58 ?1933次閱讀

    使用監(jiān)督學習重建動態(tài)駕駛場景

    無論是單調的高速行車,還是平日的短途出行,駕駛過程往往平淡無奇。因此,在現(xiàn)實世界中采集的用于開發(fā)自動駕駛汽車(AV)的大部分訓練數(shù)據(jù)都明顯偏向于簡單場景。 這給部署魯棒的感知模型帶來了挑戰(zhàn)。自動駕駛
    的頭像 發(fā)表于 12-16 16:05 ?624次閱讀
    使用<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>重建動態(tài)駕駛場景

    大規(guī)模語言模型的基本概念、發(fā)展歷程和構建流程

    大規(guī)模語言模型(Large Language Models,LLM),也稱大規(guī)模語言模型或大型語言模型,是一種由包含數(shù)百億以上參數(shù)的深度神經(jīng)網(wǎng)絡構建的語言模型,使用
    的頭像 發(fā)表于 12-07 11:40 ?3586次閱讀
    大規(guī)模語言<b class='flag-5'>模型</b>的基本概念、發(fā)展歷程和構建流程

    基于transformer和監(jiān)督學習的路面異常檢測方法分享

    鋪設異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標記和處理的壓力。本論文描述了一種基于Transformer和監(jiān)督學習的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1377次閱讀
    基于transformer和<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>的路面異常檢測方法分享

    動態(tài)場景下的監(jiān)督單目深度估計方案

    監(jiān)督單目深度估計的訓練可以在大量無標簽視頻序列來進行,訓練集獲取很方便。但問題是,實際采集的視頻序列往往會有很多動態(tài)物體,而監(jiān)督訓練本身就是基于靜態(tài)環(huán)境假設,動態(tài)環(huán)境下會失效。
    發(fā)表于 11-28 09:21 ?649次閱讀
    動態(tài)場景下的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>單目深度估計方案

    Backbone之戰(zhàn):計算機視覺任務模型大比較

    盡管Vision Transformer(ViTs)和監(jiān)督學習(SSL)越來越受歡迎,但在大多數(shù)任務中,文章發(fā)現(xiàn)在大型訓練集上以監(jiān)督方式預訓練的卷積神經(jīng)網(wǎng)絡仍然表現(xiàn)最好。
    的頭像 發(fā)表于 11-13 15:41 ?915次閱讀
    Backbone之戰(zhàn):計算機視覺任務<b class='flag-5'>模型</b>大比較