0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于神經(jīng)科學的Numenta介紹

Astroys ? 來源:Astroys ? 2023-09-21 09:10 ? 次閱讀

人腦以高效著稱,它以稀疏的表征方式存儲和處理信息。在任何時刻,只有一小部分神經(jīng)元處于活躍狀態(tài)。神經(jīng)科學家相信,他們可以將大腦啟發(fā)的邏輯映射到運行AI模型的算法、數(shù)據(jù)結(jié)構(gòu)和架構(gòu)中,從而提供一個讓AI降低功耗的配方。數(shù)據(jù)科學家是否愿意改變他們基于蠻力計算的AI實踐,這一點尚未確定,因為這種方法似乎越來越難以為繼。

正自籌資金起家的初創(chuàng)公司并不多見,更不用說這家公司在神經(jīng)科學研究領(lǐng)域玩了18年的長線游戲之后,突然推出了一款商業(yè)軟件產(chǎn)品。

更重要的是,這家初創(chuàng)公司的新產(chǎn)品直接向炙手可熱的大語言模型(LLM)AI市場發(fā)出了挑戰(zhàn)。

這家公司就是Numenta,它承諾其受神經(jīng)科學啟發(fā)的軟件可以大幅降低在CPU上運行LLM的功耗。

持懷疑態(tài)度的人可能會認為這種策略是投機取巧。Numenta的CEO Subutai Ahmad認為,這種說法并不用準確。

Numenta將數(shù)十年的神經(jīng)科學研究應用于商業(yè)產(chǎn)品的手段、動機和機遇都出現(xiàn)在AI領(lǐng)域。Numenta的研究人員特別注意到了AI科學家依靠蠻力計算來實現(xiàn)transformer的方式。

當然,神經(jīng)科學和AI并非完全形同陌路。這兩個學科在二十世紀五六十年代相互影響,后來逐漸分道揚鑣。不過,Ahmad表示,神經(jīng)科學和AI一直孤立地存在著,這點令人驚訝。

以ChatGPT為例。

盡管ChatGPT已是當紅炸子雞,但Ahmad認為,ChatGPT消耗的能源太多,最終將難以為繼。他認為,只有應用神經(jīng)科學的基本原理,開發(fā)者才能改變AI邁向死胡同軌跡。

了解Numenta

Numenta與其它大多數(shù)初創(chuàng)公司的區(qū)別在于,其聯(lián)合創(chuàng)始人Jeff Hawkins、Donna Dubinsky和Dileep George的履歷、經(jīng)驗和專業(yè)知識。

Hawkins在90年代是著名的Palm Pilot PDA的設(shè)計師。之后,他又在Handspring開創(chuàng)了名為Treo的智能手機

Dubinsky曾在1980年代負責管理Apple的部分分銷網(wǎng)絡(luò),又曾任Palm的CEO,后來與Hawkins共同創(chuàng)辦了Handspring。

2005年,AI和神經(jīng)科學研究員Dileep George與Hawkins和Dubinsky合作。

每位聯(lián)合創(chuàng)始人都為Numenta帶來了技術(shù)、創(chuàng)業(yè)和激情方面的獨特面向,而Hawkins則因癡迷腦科學而聞名,他是Numenta的公眾導師。他撰寫了兩本書,“On Intelligence”(2004年與Sandra Blakeslee合著)和“A Thousand Brains: A new theory of intelligence”(2021 年)。他在科學雜志上發(fā)表的許多論文經(jīng)常被大量引用。

但具有諷刺意味的是,神經(jīng)科學的進步主要局限于研究機構(gòu),對商業(yè)市場影響甚微。據(jù)Numenta的CEO Ahmad稱,只有極少數(shù)實驗室積極將神經(jīng)科學應用于AI。“我們可能是唯一一家嘗試這樣做的公司。”

他說,Numenta很幸運能走到今天,但他認為ChatGPT是一個“巨大的功耗”。Ahmad堅信,Numenta基于神經(jīng)科學的數(shù)據(jù)結(jié)構(gòu)和算法能為LLM帶來更高的效率。

Numenta的商業(yè)產(chǎn)品

Numenta上周推出的第一款產(chǎn)品是AI軟件“NuPIC(Numenta Platform for Intelligent Computing)”。

NuPIC是為現(xiàn)有transformer設(shè)計的即插即用軟件,可以在CPU上以“極高的吞吐量和低延遲”運行LLM,該公司稱,“速度明顯快于Nvidia A100 GPU”。

Ahmad解釋說,NuPIC將作為“企業(yè)軟件”授權(quán)給“希望將LLM納入工作流程的企業(yè)”。他強調(diào)說,Numenta不提供云服務,因此這不是SaaS。NuPIC授權(quán)用戶將在自己的基礎(chǔ)設(shè)施中安裝該軟件,因此“數(shù)據(jù)和模型對他們來說是完全私有的”。

Numenta產(chǎn)品的關(guān)鍵之一是它可以“直接插入”現(xiàn)有的transformer。Ahmad說:“在外界看來,它并沒有什么不同。因此,下圖中的中間部分和界面看起來與AI世界已經(jīng)知道的完全相同。你甚至可以把傳統(tǒng)的transformer換成我們的transformer,整個東西仍然可以工作?!?/p>

wKgaomULmKmAbG2MAADcM3d2HX0684.jpg

Numenta聲稱,其基于神經(jīng)科學的AI解決方案“能讓客戶實現(xiàn)10到100倍以上的性能提升”。這些數(shù)字似乎好得不像真的,但該公司并非憑空捏造。Numenta有與Intel合作完成的案例研究為證。

與Intel和Xilinx的合作

Intel今年在其Xeon Max系列和第四代Intel Xeon可擴展處理器上發(fā)布了x86指令集架構(gòu)的新擴展,稱為AMX(Advanced Matrix Extensions)。AMX設(shè)計用于矩陣,以加速AI工作負載的矩陣乘法。

Numenta的團隊從去年開始與Intel合作,當時Intel正在開發(fā)AMX。Ahmad解釋說,Intel正在“利用CPU并添加類似于GPU的指令來進行矩陣乘法運算。但它仍然是CPU,而這些CPU非常靈活”。

Ahmad說,這種靈活性使Numenta“可以將我們的算法移植到這些芯片上”。Intel的一份文件指出:“Numenta展示了他們定制訓練的LLM在Intel Xeon CPU Max系列處理器上運行時,與當前一代AMD Milan CPU的實現(xiàn)相比,在處理器上配備高帶寬內(nèi)存的LLM在大型文檔(長序列長度)上的運行速度要快20倍。”

Intel總結(jié)說,Numenta已經(jīng)證明“有能力大幅降低在Intel上運行語言模型的總體成本,為客戶釋放全新的自然語言處理能力”。

wKgaomULmKmAZF0VAAKMQBF81X4252.jpg

Numenta的Ahmad則更進一步說:“我們可以讓transformer運行得比Nvidia GPU更快?!?/p>

現(xiàn)在判斷Numenta的軟件是否真的是Nvidia GPU Killer還為時尚早。但在Ahmad看來,Numenta從神經(jīng)科學中學到的基本原理讓公司處于優(yōu)勢地位?!斑@并不是說我們有什么魔法能讓速度提高100倍。我們所做的是減少計算量。這就是大腦的工作。這就是我們提高效率的方法?!?/p>

Numenta技術(shù)的應用范圍包括計算機視覺、語音識別機器人技術(shù)。

在語音識別領(lǐng)域,Numenta已經(jīng)與Xilinx(已被AMD收購)開展了合作。Numenta演示了其大腦啟發(fā)的稀疏算法如何輔助機器學習,該算法在Xilinx現(xiàn)成的FPGA和GSC(Google Speech Commands)數(shù)據(jù)集上運行。根據(jù)Numenta提交的案例研究,該公司展示了“利用稀疏性擴展深度學習模型的巨大優(yōu)勢”。

神經(jīng)科學與AI

那么,究竟什么是神經(jīng)科學,它與AI有何不同?

神經(jīng)科學側(cè)重于了解神經(jīng)系統(tǒng)(大腦、脊髓和外周神經(jīng))的基本特性以及它們?nèi)绾伟l(fā)揮作用。相比之下,AI的興趣在于開發(fā)機器來完成通常與人類智能相關(guān)的任務。

正如Ahmad所解釋的,在人工神經(jīng)網(wǎng)絡(luò)的早期,AI在很大程度上受到了神經(jīng)科學的啟發(fā)。Ahmad說:“20世紀40年代,Donald Hebb提出了神經(jīng)元可以學習的最初想法,而且神經(jīng)元可以學習模式。這啟發(fā)了最早的人工神經(jīng)元,當時被稱為感知器(perceptron)?!?/p>

他補充說,神經(jīng)科學還啟發(fā)了“反向傳播(backpropagation)”,這是深度學習的核心學習算法,一直沿用至今。

David Hunter Hubel和Torsten Wiesel共同獲得了1981年諾貝爾獎,他們研究了視覺皮層的結(jié)構(gòu)和功能。Ahmad解釋說,他們極大地增強了人類對視覺系統(tǒng)如何按層次學習物體特征的理解,首先從邊緣到角落,然后到形狀,最后到物體。

Ahmad強調(diào)說:“這種對層次結(jié)構(gòu)和特征檢測的理解直接啟發(fā)了卷積網(wǎng)絡(luò),這種核心架構(gòu)甚至被用于當今的計算機視覺領(lǐng)域?!?/p>

直到Ahmad感興趣的90年代初,神經(jīng)科學家和深度學習研究人員之間的互動還很普遍。

不知從何時起,AI開始專注于GPU和計算。隨著GPU速度越來越快,網(wǎng)絡(luò)也越來越大。隨著計算機越來越強大,數(shù)據(jù)科學家依賴的數(shù)據(jù)也越來越多。AI成了更強大和更多閃存的代名詞。

Ahmad援引這一背景,認為當今的AI存在兩個基本問題。其弱點在于“無法持續(xù)學習”,以及對“過多數(shù)據(jù)”的貪得無厭。

根據(jù)他的定義,真正的智能系統(tǒng)是“不斷學習”的。他說,AI系統(tǒng)首先在實驗室中接受訓練,然后部署到現(xiàn)實世界中。但它們不會不斷學習。

與人類不斷漸進地學習不同,代碼還不能真正地“學習”。Ahmad在最近的一篇文章中寫道:“如果一個AI模型今天犯了一個錯誤,那么它將繼續(xù)重復這個錯誤,直到使用新的數(shù)據(jù)對它進行重新訓練。”

他說:“作為人類,我們通過四處走動來學習,我們了解世界的結(jié)構(gòu),甚至做出預測?!?/p>

想想AI模型是如何學會識別一種新車型的。

Ahmad說,人類只需要看到“一個例子。我會從另一個角度、一天中的不同時間或在下雨天都可以認出那輛車”。Ahmad說,深度學習系統(tǒng)沒有真實的世界模型,“你必須向它們展示數(shù)以千計的各種圖像”?!八仨氂涀∵@輛車的每一個可能的角度”。

神經(jīng)形態(tài)(neuromorphic)計算與神經(jīng)科學有何不同?Ahmad解釋說,神經(jīng)形態(tài)計算是“神經(jīng)科學和AI這一更廣泛領(lǐng)域的一個子集”。雖然神經(jīng)形態(tài)工程的重點通常是構(gòu)建新的、能效極高的硬件系統(tǒng),但Ahmad說:“我們正在開發(fā)更多的軟件和算法。我們將能夠利用芯片行業(yè)正在進行的所有創(chuàng)新,包括CPU、GPU以及所有SIMD指令和架構(gòu)?!?/p>

融資情況

Ahmad說,Numenta的資金主要來自董事會內(nèi)部,其中包括Hawkins和Dubinsky,但也有一些外部投資者。

目前,Numenta規(guī)模仍然很小,只有20名員工。Ahmad補充說:“現(xiàn)在,Numenta正在走向商業(yè)化,我們將在明年的某個時候,很可能是今年晚些時候,進行一輪大規(guī)模融資。”

過去二十年來,神經(jīng)科學家和數(shù)據(jù)科學家之間的分化很有啟發(fā)性。硅谷通過一個非常男性化的方式實現(xiàn)了驚人的發(fā)展,更大更快的CPU和GPU永遠是贏家。但如今,他們需要想辦法從拼肌肉的死胡同過渡到基于效率的模式。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19118

    瀏覽量

    228861
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    303

    瀏覽量

    5770
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    603

    瀏覽量

    13487
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1547

    瀏覽量

    7384
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    264

    瀏覽量

    299

原文標題:基于神經(jīng)科學的Numenta能否挑戰(zhàn)強大的Nvidia?

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學創(chuàng)新

    活的世界? 編輯推薦 《AI for Science:人工智能驅(qū)動科學創(chuàng)新》聚焦于人工智能與材料科學、生命科學、電子科學、能源科學、環(huán)境
    發(fā)表于 09-09 13:54

    人腦芯片是什么?植入人腦神經(jīng)元的芯片能做什么?

    人腦芯片,作為一種前沿的科技概念,指的是一種可以嵌入人類大腦中的微型電子設(shè)備。這種設(shè)備結(jié)合了微電子技術(shù)與神經(jīng)科學,旨在通過直接與人腦神經(jīng)元接口,實現(xiàn)信息的接收、處理與傳輸。人腦芯片的研發(fā)旨在增強
    的頭像 發(fā)表于 07-12 11:50 ?1307次閱讀

    生物神經(jīng)元模型包含哪些元素

    生物神經(jīng)元模型是神經(jīng)科學和人工智能領(lǐng)域中的一個重要研究方向,它旨在模擬生物神經(jīng)元的工作原理,以實現(xiàn)對生物神經(jīng)系統(tǒng)的理解和模擬。 神經(jīng)元的基本
    的頭像 發(fā)表于 07-11 11:21 ?769次閱讀

    人工智能神經(jīng)元的基本結(jié)構(gòu)

    人工智能神經(jīng)元的基本結(jié)構(gòu)是一個復雜而深入的話題,涉及到計算機科學、數(shù)學、神經(jīng)科學等多個領(lǐng)域的知識。 引言 人工智能(Artificial Intelligence,簡稱AI)是計算機科學
    的頭像 發(fā)表于 07-11 11:19 ?960次閱讀

    如何利用Matlab進行神經(jīng)網(wǎng)絡(luò)訓練

    Matlab作為一款強大的數(shù)學計算軟件,廣泛應用于科學計算、數(shù)據(jù)分析、算法開發(fā)等領(lǐng)域。其中,Matlab的神經(jīng)網(wǎng)絡(luò)工具箱(Neural Network Toolbox)為用戶提供了豐富的函數(shù)和工具
    的頭像 發(fā)表于 07-08 18:26 ?1585次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?469次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的工作原理和基本特征

    通過模擬大腦神經(jīng)網(wǎng)絡(luò)處理、記憶信息的方式來進行信息處理,是現(xiàn)代神經(jīng)科學研究成果基礎(chǔ)上提出的一種非線性、自適應信息處理系統(tǒng)。人工神經(jīng)網(wǎng)絡(luò)在工程與學術(shù)界被廣泛應用,成為涉及神經(jīng)科學、思維
    的頭像 發(fā)表于 07-04 13:08 ?962次閱讀

    人工智能神經(jīng)網(wǎng)絡(luò)芯片的介紹

    人工智能神經(jīng)網(wǎng)絡(luò)芯片是一類專門為深度學習和神經(jīng)網(wǎng)絡(luò)算法設(shè)計的處理器。它們具有高性能、低功耗、可擴展等特點,廣泛應用于圖像識別、語音識別、自然語言處理等領(lǐng)域。以下是關(guān)于人工智能神經(jīng)網(wǎng)絡(luò)芯片的介紹
    的頭像 發(fā)表于 07-04 09:33 ?544次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、語音識別、自然語言處理等領(lǐng)域。本文將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)的原理,包括其
    的頭像 發(fā)表于 07-02 14:44 ?530次閱讀

    多光子顯微鏡探究斑馬魚的社會行為

    。 照片由多倫多大學的 Neil Merovitch 提供。 挑戰(zhàn) 多倫多大學兒童醫(yī)院的博士生 Neil Merovitch 是一位神經(jīng)科學研究員,從事此工作的部分原因是他曾患有肌張力障礙,這是一種運動障礙
    的頭像 發(fā)表于 05-22 06:39 ?184次閱讀
    多光子顯微鏡探究斑馬魚的社會行為

    神經(jīng)刺激器有望改善克羅恩病患者生活質(zhì)量

    據(jù)澳大利弗洛里神經(jīng)科學與心理健康研究所(The Florey)報道,澳州奧斯汀衛(wèi)生中心的臨床醫(yī)師們率先使用神經(jīng)電刺激器成功防治克羅恩病術(shù)后炎癥復發(fā)現(xiàn)象。
    的頭像 發(fā)表于 04-02 14:15 ?353次閱讀

    世界最小超緊湊熒光顯微鏡TINIscope助全腦區(qū)動物協(xié)同

    這項突破性的科研成果為神經(jīng)科學家提供了一種前沿的研究方法,有助于深入理解動物感知、認知和行為過程中的神經(jīng)元級跨腦區(qū)協(xié)同作用。研究結(jié)果已發(fā)至《國家科學評論》期刊。
    的頭像 發(fā)表于 02-29 10:24 ?585次閱讀

    基于可拉伸、自卷曲微流控電子器件的高適形性神經(jīng)接口開發(fā)

    開發(fā)植入式神經(jīng)電子接口在長期腦機接口和神經(jīng)科學治療中具有重要意義。
    的頭像 發(fā)表于 01-08 16:19 ?793次閱讀
    基于可拉伸、自卷曲微流控電子器件的高適形性<b class='flag-5'>神經(jīng)</b>接口開發(fā)

    一種具有高度柔性與可塑性的超香腸覆蓋式神經(jīng)元模型

    神經(jīng)科學的研究表明,神經(jīng)元的學習能力是生物神經(jīng)系統(tǒng)完成學習和記憶任務的重要基礎(chǔ),這些機理可促使我們在神經(jīng)元設(shè)計和優(yōu)化方面進一步提高DNN的性能。
    的頭像 發(fā)表于 12-04 11:12 ?384次閱讀
    一種具有高度柔性與可塑性的超香腸覆蓋式<b class='flag-5'>神經(jīng)</b>元模型

    植入式超柔性微電極陣列實現(xiàn)大規(guī)模單細胞水平的神經(jīng)信號采集

    靈長類皮層長期埋植的超柔性微電極及配套植入方案,在實驗猴的視皮層和運動皮層進行了長期埋植及單細胞水平神經(jīng)信號記錄,并進行了運動腦機接口等功能驗證。該研究首次實現(xiàn)了使用超柔性微電極在非人靈長類中進行長期大規(guī)模單細胞水平的神經(jīng)信號采集,為靈長類的基礎(chǔ)
    的頭像 發(fā)表于 11-23 17:00 ?689次閱讀
    植入式超柔性微電極陣列實現(xiàn)大規(guī)模單細胞水平的<b class='flag-5'>神經(jīng)</b>信號采集