0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT的核心算法為何如此強(qiáng)大?

新思科技 ? 來(lái)源:未知 ? 2023-03-17 18:10 ? 次閱讀

ChatGPT近期成為了全球話(huà)題中心。短短兩個(gè)月,ChatGPT注冊(cè)用戶(hù)數(shù)已經(jīng)破億,成為史上用戶(hù)破億速度最快的軟件之一。它不但可以回答問(wèn)題,還能寫(xiě)詩(shī),寫(xiě)代碼,提供旅游攻略…而ChatGPT的核心結(jié)構(gòu)正是Transformer模型。

Transformer是一種能夠同時(shí)處理所有輸入數(shù)據(jù)的深度學(xué)習(xí)模型,最初是為翻譯和自動(dòng)問(wèn)答等自然語(yǔ)言處理應(yīng)用開(kāi)發(fā)的。計(jì)算機(jī)視覺(jué)應(yīng)用領(lǐng)域過(guò)去主要采用卷積神經(jīng)網(wǎng)絡(luò)(CNN),現(xiàn)在Transformer模型則更為流行,但它不會(huì)取代CNN,而是與之配合來(lái)提高視覺(jué)處理應(yīng)用的準(zhǔn)確度。

比如,當(dāng)自動(dòng)駕駛汽車(chē)在行駛過(guò)程中遇到障礙物,它是如何判斷馬路中間的是人,而不是電線(xiàn)桿呢?自動(dòng)駕駛汽車(chē)的物體檢測(cè)和防撞系統(tǒng)必須正確識(shí)別前方路況并給車(chē)輛發(fā)出相應(yīng)的指令。在現(xiàn)代汽車(chē)的計(jì)算機(jī)視覺(jué)處理應(yīng)用中,深度學(xué)習(xí)模型就發(fā)揮著重要作用。

除了汽車(chē)會(huì)采用AI驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)技術(shù)外,攝像頭如今已經(jīng)在很多系統(tǒng)中都普及開(kāi)了,手機(jī)和安防系統(tǒng)等大量基于攝像頭的設(shè)備都已經(jīng)在使用神經(jīng)網(wǎng)絡(luò)來(lái)提高圖像質(zhì)量和準(zhǔn)確性了。

為何Transformer是嵌入式計(jì)算機(jī)視覺(jué)的理想選擇呢?Transformer又將如何改變深度學(xué)習(xí)架構(gòu)的發(fā)展方向?哪些技術(shù)可以?xún)?yōu)化這些模型來(lái)獲得更出色的結(jié)果?本文將帶著這些問(wèn)題與大家共同探討。

更專(zhuān)注的注意力機(jī)制

更好的情景感知

10多年來(lái),CNN一直是視覺(jué)處理的首選深度學(xué)習(xí)模型。隨著技術(shù)的不斷發(fā)展,CNN現(xiàn)已能夠準(zhǔn)確地完成圖像分類(lèi)、物體檢測(cè)、語(yǔ)義分割(對(duì)圖像中的每個(gè)像素進(jìn)行分組或標(biāo)記)和全景分割(識(shí)別物體位置以及對(duì)每個(gè)物體中的每個(gè)像素進(jìn)行分組和標(biāo)記)。

但Transformer除了需要將語(yǔ)言塊替換為圖像塊外,不需要任何其他修改就可以在準(zhǔn)確性方面超越CNN。

2017年,Google Research將Transformer定義為一種基于自注意力機(jī)制的新型神經(jīng)網(wǎng)絡(luò)架構(gòu),特別適合用于語(yǔ)言理解。到2020年,Google Research的科學(xué)家們發(fā)表了一篇關(guān)于Vision Transformer(ViT)的文章,ViT是一個(gè)基于原始Transformer架構(gòu)的模型。據(jù)該文章表示,當(dāng)有足夠的數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),ViT表現(xiàn)出了優(yōu)異的性能,超過(guò)了先進(jìn)的CNN,而所需的計(jì)算資源卻只有CNN的四分之一。這些Transformer雖然需要龐大的數(shù)據(jù)集進(jìn)行訓(xùn)練,但確實(shí)非常擅于處理圖像分類(lèi)和物體檢測(cè)等視覺(jué)任務(wù)。

Transformer之所以能夠在視覺(jué)應(yīng)用中游刃有余,其專(zhuān)有的注意力機(jī)制是關(guān)鍵,該機(jī)制讓模型能夠?qū)μ囟ㄇ榫秤懈钊氲睦斫?。Transformer和CNN一樣都可以檢測(cè)到前方道路上的物體是行人,而不是電線(xiàn)桿或者一棵樹(shù),但不同的是,Transformer并不會(huì)同等處理所有像素,它更多關(guān)注的是數(shù)據(jù)中微小但重要的部分,比如那個(gè)行人,而不太會(huì)去過(guò)多關(guān)注代表道路其余部分的那些不重要像素。

在處理每幀數(shù)據(jù)時(shí),CNN通常并不會(huì)考慮該幀之前和之后的數(shù)據(jù)。而相比CNN,Transformer更擅于學(xué)習(xí)較為復(fù)雜的模式,因此所需的計(jì)算也就更多,所以在速度方面Transformer沒(méi)有CNN快,但它也在努力的奮起直追了。

GPU目前可以支持這二種模型,但如果在實(shí)際應(yīng)用中需要以更小的尺寸和更低的功耗來(lái)實(shí)現(xiàn)更高的性能,那么NPU或神經(jīng)處理單元等專(zhuān)用AI加速器將會(huì)是更好的選擇。

為了提高推理效率,視覺(jué)處理應(yīng)用可同時(shí)使用CNN和Transformer。要想實(shí)現(xiàn)全方位視覺(jué)感知,僅靠純視覺(jué)模型可能無(wú)法輕松獲得所需的信息,而多模態(tài)學(xué)習(xí)可以提供更詳盡的視覺(jué)信息。此外,Transformer等基于注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)非常適合像汽車(chē)應(yīng)用這種集成了多個(gè)傳感器的應(yīng)用。

利用NPUIP優(yōu)化

Transformer和CNN的性能

Transformer包括以下幾種運(yùn)算:

  • 矩陣乘法

  • 逐元素加法

  • Softmax數(shù)學(xué)函數(shù)

  • L2歸一化

  • 激活函數(shù)

目前大多數(shù)AI加速器都針對(duì)CNN進(jìn)行了優(yōu)化,但它們并非全都適合Transformer。Transformer需要龐大的計(jì)算能力來(lái)執(zhí)行大量計(jì)算并支持其注意力機(jī)制。

新思科技的ARC NPX6 NPU IP就是一款能夠同時(shí)處理CNN和Transformer的AI加速器。ARC NPX6 NPU IP的計(jì)算單元包括一個(gè)用于矩陣乘法(對(duì)這兩種深度學(xué)習(xí)模型都非常重要)的卷積加速器,以及一個(gè)用于處理Transformer運(yùn)算和激活函數(shù)的張量加速器。該IP提供高達(dá)3,500 TOPS的性能和高達(dá)30 TOPS/瓦的出色能效。

設(shè)計(jì)團(tuán)隊(duì)還可以使用新思科技的MetaWare MX開(kāi)發(fā)工具包來(lái)加速其應(yīng)用軟件開(kāi)發(fā)。該工具包提供了一個(gè)綜合的軟件編程環(huán)境,其中包括神經(jīng)網(wǎng)絡(luò)軟件開(kāi)發(fā)工具包和對(duì)各種虛擬模型的支持。

ChatGPT安全嗎?

在ChatGPT爆火的背后,我們也要知道,ChatGPT或者其他AI軟件所產(chǎn)出的內(nèi)容或做出的決策并不是無(wú)懈可擊的。這些工具提供的結(jié)果往往會(huì)和現(xiàn)實(shí)有所偏差,而只有人類(lèi)才能基于現(xiàn)實(shí)去對(duì)結(jié)果進(jìn)行檢查和驗(yàn)證。

而且是否會(huì)有人利用ChatGPT編寫(xiě)惡意代碼來(lái)進(jìn)行網(wǎng)絡(luò)攻擊呢?自從人類(lèi)開(kāi)始編寫(xiě)代碼以來(lái),開(kāi)發(fā)人員一直都在無(wú)意或者有意地編寫(xiě)出可被利用的代碼。幸運(yùn)的是,有很多安全測(cè)試工具可以幫助開(kāi)發(fā)者們進(jìn)行安全防護(hù)。無(wú)論編碼者是誰(shuí),都應(yīng)該使用安全工具掃描源代碼發(fā)現(xiàn)漏洞。

總結(jié)

Transformer擁有強(qiáng)大的計(jì)算能力,且一直在自然語(yǔ)言處理應(yīng)用中被廣泛采用?,F(xiàn)在,因Transformer模型基于其注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)擁有更出色的情感感知能力,智能手機(jī)、安防系統(tǒng)、自動(dòng)駕駛汽車(chē)等實(shí)時(shí)視覺(jué)處理應(yīng)用也開(kāi)始采用此模型。以后,各種基于攝像頭的產(chǎn)品會(huì)越來(lái)越先進(jìn),提供的圖像質(zhì)量也越來(lái)越高。在深度學(xué)習(xí)中加入Transformer后,嵌入式視覺(jué)攝像頭系統(tǒng)勢(shì)必能夠提供更清晰的圖像和更準(zhǔn)確的物體檢測(cè)。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 新思科技
    +關(guān)注

    關(guān)注

    5

    文章

    775

    瀏覽量

    50191

原文標(biāo)題:ChatGPT的核心算法為何如此強(qiáng)大?

文章出處:【微信號(hào):Synopsys_CN,微信公眾號(hào):新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    空載時(shí)為何OPA454如此發(fā)燙,這個(gè)發(fā)燙是正常現(xiàn)象嗎?

    Supply voltage, VS = (V+) – (V–) 120 V,是不是意味著我使用(V-)=-12V,(V+)=95V供電是在其允許范圍內(nèi)的?在空載時(shí)為何OPA454如此發(fā)燙,這個(gè)發(fā)燙是正?,F(xiàn)象么?
    發(fā)表于 08-02 10:08

    深度學(xué)習(xí)的基本原理與核心算法

    處理、語(yǔ)音識(shí)別等領(lǐng)域取得了革命性的突破。本文將詳細(xì)闡述深度學(xué)習(xí)的原理、核心算法以及實(shí)現(xiàn)方式,并通過(guò)一個(gè)具體的代碼實(shí)例進(jìn)行說(shuō)明。
    的頭像 發(fā)表于 07-04 11:44 ?1087次閱讀

    神經(jīng)網(wǎng)絡(luò)反向傳播算法的優(yōu)缺點(diǎn)有哪些

    是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計(jì)算模型,具有強(qiáng)大的非線(xiàn)性映射能力和泛化能力。反向傳播算法是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的核心算法,通過(guò)梯度下降法優(yōu)化網(wǎng)絡(luò)權(quán)重,使網(wǎng)絡(luò)輸出盡可能接近目標(biāo)值。然而,反向傳播算法
    的頭像 發(fā)表于 07-03 11:24 ?327次閱讀

    網(wǎng)絡(luò)延遲為何如此重要

    網(wǎng)絡(luò)延遲是指數(shù)據(jù)在網(wǎng)絡(luò)上從一點(diǎn)傳輸?shù)搅硪稽c(diǎn)所需的時(shí)間。它是影響任何基于網(wǎng)絡(luò)的系統(tǒng)(包括網(wǎng)站、應(yīng)用程序和云服務(wù))的關(guān)鍵因素。 以下是網(wǎng)絡(luò)延遲很重要的一些原因: 體驗(yàn) 延遲會(huì)影響基于網(wǎng)絡(luò)的系統(tǒng)的用戶(hù)體驗(yàn)。例如,在瀏覽網(wǎng)站時(shí),延遲可能會(huì)導(dǎo)致頁(yè)面加載時(shí)間延遲,從而導(dǎo)致用戶(hù)感到沮喪,甚至可能導(dǎo)致用戶(hù)離開(kāi)。 生產(chǎn)力 網(wǎng)絡(luò)延遲會(huì)嚴(yán)重影響生產(chǎn)力。例如,網(wǎng)絡(luò)速度慢會(huì)導(dǎo)致訪(fǎng)問(wèn)文件或應(yīng)用延遲,從而浪費(fèi)時(shí)間并降低效率。 收入 對(duì)于依賴(lài)
    的頭像 發(fā)表于 05-28 10:39 ?302次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來(lái)了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會(huì)的演示中,OpenAI展示該模型的高級(jí)
    發(fā)表于 05-27 15:43

    FPGA能實(shí)現(xiàn)什么樣的算法?

    FPGA功能如此強(qiáng)大,請(qǐng)問(wèn)用FPGA能實(shí)現(xiàn)或者比較適合實(shí)現(xiàn)什么樣的算法
    發(fā)表于 05-26 20:18

    環(huán)保又高效:365nm固化燈為何如此受歡迎?

    在追求綠色發(fā)展和高效生產(chǎn)的當(dāng)下,一款產(chǎn)品若能在滿(mǎn)足性能需求的同時(shí),還兼具環(huán)保與高效兩大優(yōu)勢(shì),無(wú)疑會(huì)受到市場(chǎng)的熱烈追捧。而在工業(yè)固化領(lǐng)域,365nm固化燈便是這樣一款備受矚目的產(chǎn)品。那么,為何
    的頭像 發(fā)表于 05-15 11:19 ?245次閱讀
    環(huán)保又高效:365nm固化燈<b class='flag-5'>為何如此</b>受歡迎?

    RISC-V為何如此重要?

    什么讓RISC-V如此受歡迎,為什么從NVIDIA到微軟的每個(gè)人都在投資它?什么是RISC-V?RISC-V是一種指令集架構(gòu)(ISA)。ISA是CPU必須能夠解釋和處
    的頭像 發(fā)表于 04-29 08:28 ?247次閱讀
    RISC-V<b class='flag-5'>為何如此</b>重要?

    機(jī)器學(xué)習(xí)六大核心算法深度解析

    算法歷程:線(xiàn)性回歸是一種古老的統(tǒng)計(jì)方法,它試圖找到最佳擬合數(shù)據(jù)的直線(xiàn)或超平面,最早可以追溯到19世紀(jì)初的高斯最小二乘法理論。
    發(fā)表于 04-23 16:25 ?1038次閱讀
    機(jī)器學(xué)習(xí)六大<b class='flag-5'>核心算法</b>深度解析

    什么是邊緣計(jì)算?它為何如此重要?

    ,什么是邊緣計(jì)算?它為何如此重要?本文將對(duì)其進(jìn)行詳細(xì)的解析。 邊緣計(jì)算,簡(jiǎn)而言之,是指在靠近物或數(shù)據(jù)源頭的一側(cè),采用網(wǎng)絡(luò)、計(jì)算、存儲(chǔ)、應(yīng)用核心能力為一體的開(kāi)放平臺(tái),就近提供最近端服務(wù)。它的核心思想是將計(jì)算任
    的頭像 發(fā)表于 04-22 15:25 ?282次閱讀

    在FPGA設(shè)計(jì)中是否可以應(yīng)用ChatGPT生成想要的程序呢

    當(dāng)下AI人工智能崛起,很多開(kāi)發(fā)領(lǐng)域都可看到ChatGPT的身影,F(xiàn)PGA設(shè)計(jì)中,是否也可以用ChatGPT輔助設(shè)計(jì)呢?
    發(fā)表于 03-28 23:41

    【國(guó)產(chǎn)FPGA+OMAPL138開(kāi)發(fā)板體驗(yàn)】(原創(chuàng))6.FPGA連接ChatGPT 4

    : ChatGPT 4說(shuō):\'優(yōu)化硬件設(shè)計(jì)需要考慮很多因素,如功耗、性能、成本等。你可以從改進(jìn)算法、優(yōu)化數(shù)據(jù)路徑、減少冗余操作等方面入手。\'\"); // 7. 關(guān)閉與ChatGPT 4服務(wù)器的連接
    發(fā)表于 02-14 21:58

    電機(jī)啟動(dòng)電流為何如此之???

    后話(huà):直接啟動(dòng)時(shí)電機(jī)用鉗安表測(cè)的瞬間電流是53A左右,而實(shí)際滿(mǎn)負(fù)荷工作的電流只有23A,很可能是大馬拉小車(chē),電機(jī)選型選大了。當(dāng)然鉗安表測(cè)得的瞬間電流可能也不準(zhǔn)。經(jīng)過(guò)這次教訓(xùn),深切感受到學(xué)電氣的基礎(chǔ)一定要扎實(shí),接觸面一定要廣,不要像我這次遇到問(wèn)題才去查資料上網(wǎng)請(qǐng)教專(zhuān)家。再次感謝論壇各位大佬,謝謝! 困擾我們的有兩個(gè)問(wèn)題(為簡(jiǎn)單化,將電機(jī)在空載狀態(tài)討論) 1.如何精確測(cè)出電機(jī)啟動(dòng)電流峰值和啟動(dòng)時(shí)間。 2.發(fā)電機(jī)的短時(shí)電流系數(shù)150%兩分鐘,那么在10-15秒內(nèi)是不是允許達(dá)到200%,甚至更大呢? 我想,如果電機(jī)廠(chǎng)提供啟動(dòng)電流峰值,發(fā)電機(jī)廠(chǎng)提供15秒內(nèi)電流最大過(guò)載系數(shù)。有了這兩個(gè)關(guān)鍵參數(shù),電機(jī)能不能直接啟動(dòng),要不要軟啟動(dòng),不就迎刃而解了嗎! 不幸的是,發(fā)電機(jī)廠(chǎng)家為經(jīng)濟(jì)效益考慮,他不會(huì)告訴你過(guò)載系數(shù),而且推薦的發(fā)電機(jī)功率至少為電機(jī)容量的2.5倍以上,造成了巨大的資源浪費(fèi)。就像變頻器和軟啟動(dòng)廠(chǎng)家,推薦的都比電機(jī)功率大一檔,而不是從電流來(lái)考慮。
    發(fā)表于 11-22 06:30

    ChatGPT是怎么實(shí)現(xiàn)的

    ChatGPT 能夠自動(dòng)生成類(lèi)似于人類(lèi)寫(xiě)作的文本,這一點(diǎn)非常引人注目,也令人意外。但它是如何實(shí)現(xiàn)的?為什么它能夠如此出色地生成我們認(rèn)為有意義的文本?我的目的是在這里概述ChatGPT內(nèi)部的運(yùn)行
    的頭像 發(fā)表于 10-16 11:31 ?787次閱讀
    <b class='flag-5'>ChatGPT</b>是怎么實(shí)現(xiàn)的

    ChatGPT Plus怎么支付 開(kāi)通ChatGPT plus有什么功能?

    全球的專(zhuān)業(yè)人士提供了強(qiáng)大的工具。如果你也想體驗(yàn)這一創(chuàng)新的AI技術(shù),下面是關(guān)于如何開(kāi)通ChatGPT 4.0付費(fèi)服務(wù)的教程: 1?? 訪(fǎng)問(wèn)OpenAI官方網(wǎng)站 首先,你需要訪(fǎng)問(wèn)OpenAI的官方網(wǎng)站
    的頭像 發(fā)表于 10-10 16:01 ?4373次閱讀
    <b class='flag-5'>ChatGPT</b> Plus怎么支付 開(kāi)通<b class='flag-5'>ChatGPT</b> plus有什么功能?