0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在GPU資源受限的情況下訓(xùn)練transformers庫(kù)上面的大模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:Lukan ? 2022-08-31 18:16 ? 次閱讀

前言

自BERT出現(xiàn)以來(lái),nlp領(lǐng)域已經(jīng)進(jìn)入了大模型的時(shí)代,大模型雖然效果好,但是畢竟不是人人都有著豐富的GPU資源,在訓(xùn)練時(shí)往往就捉襟見(jiàn)肘,出現(xiàn)顯存out of memory的問(wèn)題,或者訓(xùn)練時(shí)間非常非常的久,因此,這篇文章主要解決的問(wèn)題就是如何在GPU資源受限的情況下訓(xùn)練transformers庫(kù)上面的大模型。

這篇文章源自Vadim Irtlach大佬在kaggle的開(kāi)源notebook,感謝原作者的分享,本nlp小白覺(jué)得受益良多,因此搬運(yùn)到知乎分享給大家,已取得作者授權(quán),大部分內(nèi)容是照搬翻譯過(guò)來(lái)的,小部分內(nèi)容結(jié)合自己的理解進(jìn)行了補(bǔ)充和修改,不對(duì)的地方請(qǐng)大家批評(píng)指正,正文開(kāi)始!

盡管Huggingface開(kāi)源的Transformers在自然語(yǔ)言處理(NLP)任務(wù)中取得了驚人的成功,但由于里面的模型參數(shù)數(shù)量龐大,即使是使用GPU進(jìn)行訓(xùn)練或者部署,也仍具有非常大的挑戰(zhàn)性,因?yàn)橛萌绱舜蟮哪P瓦M(jìn)行訓(xùn)練或推理,會(huì)很容易發(fā)生顯存不足(OOM)以及訓(xùn)練時(shí)間過(guò)長(zhǎng)的問(wèn)題。(這里想吐槽一句的是,kaggle上面的nlp比賽現(xiàn)在動(dòng)不動(dòng)就用五折debert-large-v3,沒(méi)幾塊V100根本玩不起這種比賽,所以這篇文章對(duì)我這種只能用colab的p100來(lái)跑實(shí)驗(yàn)的窮學(xué)生來(lái)說(shuō)真的是福音?。。?/p>

然而,有很多方法可以避免顯存不足以及訓(xùn)練時(shí)間過(guò)長(zhǎng)的方法,這篇文章的主要貢獻(xiàn)就是介紹了這些方法的原理以及如何實(shí)現(xiàn),具體包括以下幾種方法:

梯度累積(Gradient Accumulation)

凍結(jié)(Freezing)

自動(dòng)混合精度(Automatic Mixed Precision)

8位優(yōu)化器(8-bit Optimizers)

梯度檢查點(diǎn)(Gradient Checkpointing)

快速分詞器(Fast Tokenizers)

動(dòng)態(tài)填充(Dynamic Padding)

均勻動(dòng)態(tài)填充(Uniform Dynamic Padding)

其中1-5是神經(jīng)網(wǎng)絡(luò)通用的方法,可以用在任何網(wǎng)絡(luò)的性能優(yōu)化上,6-8是針對(duì)nlp領(lǐng)域的性能優(yōu)化方法。

梯度累積

梯度累積背后的想法非常簡(jiǎn)單,就是為了模擬更大的批量(batch)。有時(shí),為了更好地收斂或提高性能,需要使用大批量進(jìn)行訓(xùn)練,但是,這通常需要更大的顯存。這個(gè)問(wèn)題的一種可能的解決方案是使用較小的批量,但是,一方面,小批量訓(xùn)練會(huì)增加訓(xùn)練和推理時(shí)間,另一方面,梯度下降算法對(duì)批量大小的選擇非常敏感,小批量可能會(huì)導(dǎo)致不穩(wěn)定的收斂和性能降低。所以,我們可以先執(zhí)行幾次前向傳播和反向傳播,使得梯度進(jìn)行累積,當(dāng)我們有足夠的計(jì)算梯度時(shí),再對(duì)參數(shù)進(jìn)行優(yōu)化,從而利用小顯存,模擬大批量的效果,并且訓(xùn)練時(shí)間也不會(huì)大幅增加。

be53a41c-2915-11ed-ba43-dac502259ad0.png

代碼實(shí)現(xiàn)

steps=len(loader)

##performvalidationloopeach`validation_steps`trainingsteps!
validation_steps=int(validation_steps*gradient_accumulation_steps)

forstep,batchinenumerate(loader,1):

#prepareinputsandtargetsforthemodelandlossfunctionrespectively.

#forwardpass
outputs=model(inputs)

#computingloss
loss=loss_fn(outputs,targets)

#accumulatinggradientsoversteps
ifgradient_accumulation_steps>1:
loss=loss/gradient_accumulation_steps

#backwardpass
loss.backward()

#performoptimizationstepaftercertainnumberofaccumulatingstepsandattheendofepoch
ifstep%gradient_accumulation_steps==0orstep==steps:
torch.nn.utils.clip_grad_norm_(model.parameters(),max_norm)
optimizer.step()
model.zero_grad()

#performvalidationloop
ifstep%validation_steps==0:
validation_loop()

凍結(jié)

凍結(jié)是一種非常有效的方法,通過(guò)取消計(jì)算模型某些層中的梯度計(jì)算(如embedding層,bert的前幾層),可以大大加快訓(xùn)練速度并且降低了顯存占用,而且?guī)缀醪粫?huì)損失模型的性能。

深度學(xué)習(xí)中的一個(gè)眾所周知的事實(shí)是,網(wǎng)絡(luò)的底層學(xué)習(xí)輸入數(shù)據(jù)的通用特征,而網(wǎng)絡(luò)頂層學(xué)習(xí)目標(biāo)任務(wù)特定的高級(jí)特征,所以在對(duì)預(yù)訓(xùn)練模型進(jìn)行微調(diào)時(shí),一般網(wǎng)絡(luò)底層的參數(shù)都不怎么需要變,這些都是通用的知識(shí),需要學(xué)習(xí)的是頂層的那些參數(shù),當(dāng)使用某種優(yōu)化算法(如SGD、AdamW或RMSprop)執(zhí)行優(yōu)化步驟時(shí),網(wǎng)絡(luò)的底層的梯度就都很小,因此參數(shù)幾乎保持不變,這也被稱為梯度消失,因此,與其花費(fèi)大量的時(shí)間和算力來(lái)計(jì)算底層這些“無(wú)用”梯度,并對(duì)此類梯度很小的參數(shù)進(jìn)行優(yōu)化,不如直接凍結(jié)它們,直接不計(jì)算梯度也不進(jìn)行優(yōu)化。

PyTorch為關(guān)閉梯度計(jì)算提供了一個(gè)舒適的API,可以通過(guò)torch.Tensor的屬性requires_grad設(shè)置。

代碼實(shí)現(xiàn)

deffreeze(module):
"""
Freezesmodule'sparameters.
"""
forparameterinmodule.parameters():
parameter.requires_grad=False

defget_freezed_parameters(module):
"""
Returnsnamesoffreezedparametersofthegivenmodule.
"""

freezed_parameters=[]
forname,parameterinmodule.named_parameters():
ifnotparameter.requires_grad:
freezed_parameters.append(name)

returnfreezed_parameters
importtorch
fromtransformersimportAutoConfig,AutoModel


##initializingmodel
model_path="microsoft/deberta-v3-base"
config=AutoConfig.from_pretrained(model_path)
model=AutoModel.from_pretrained(model_path,config=config)


##freezingembeddingsandfirst2layersofencoder
freeze(model.embeddings)
freeze(model.encoder.layer[:2])

freezed_parameters=get_freezed_parameters(model)
print(f"Freezedparameters:{freezed_parameters}")

##selectingparameters,whichrequiresgradientsandinitializingoptimizer
model_parameters=filter(lambdaparameter:parameter.requires_grad,model.parameters())
optimizer=torch.optim.AdamW(params=model_parameters,lr=2e-5,weight_decay=0.0)

自動(dòng)混合精度

自動(dòng)混合精度(AMP)是另一種在不損失最終質(zhì)量的情況下減少顯存消耗和訓(xùn)練時(shí)間的方法,該方法由NVIDIA和百度研究人員在2017年的Mixed Precision Training論文中提出。該方法背后的關(guān)鍵思想是使用較低的精度將模型的梯度和參數(shù)保留在內(nèi)存中,即不使用全精度(float32),而是使用半精度(例如float16)將張量保存在內(nèi)存中。然而,當(dāng)以較低精度計(jì)算梯度時(shí),某些值可能太小,以至于被視為零,這種現(xiàn)象被稱為“溢出”。為了防止“溢出”,原始論文的作者提出了一種梯度縮放方法。

PyTorch從1.6的版本開(kāi)始提供了一個(gè)包:torch.cuda.amp,具有使用自動(dòng)混合精度所需的功能(從降低精度到梯度縮放),自動(dòng)混合精度作為上下文管理器實(shí)現(xiàn),因此可以隨時(shí)隨地的插入到訓(xùn)練和推理腳本中。

be81854e-2915-11ed-ba43-dac502259ad0.png

代碼實(shí)現(xiàn)

fromtorch.cuda.ampimportautocast,GradScaler


scaler=GradScaler()

forstep,batchinenumerate(loader,1):

#prepareinputsandtargetsforthemodelandlossfunctionrespectively.

#forwardpasswith`autocast`contextmanager
withautocast(enabled=True):
outputs=model(inputs)

#computingloss
loss=loss_fn(outputs,targets)

#scalegradintandperformbackwardpass
scaler.scale(loss).backward()

#beforegradientclippingtheoptimizerparametersmustbeunscaled.
scaler.unscale_(optimizer)

#performoptimizationstep
torch.nn.utils.clip_grad_norm_(model.parameters(),max_norm)

scaler.step(optimizer)
scaler.update()

8位優(yōu)化器

8-bit Optimizers的思想類似于自動(dòng)混合精度(模型的參數(shù)和梯度使用較低的精度保存),但8-bit Optimizers還讓優(yōu)化器的狀態(tài)使用低精度保存。作者(Meta Research)在最初的論文8-bit Optimizers via Block-wise Quantization中詳細(xì)介紹了8-bit Optimizers,表明8-bit Optimizers顯著降低了顯存占用,略微加快了訓(xùn)練速度。此外,作者研究了不同超參數(shù)設(shè)置的影響,表明8-bit Optimizers對(duì)不同的學(xué)習(xí)率、beta和權(quán)重衰減參數(shù)的效果是穩(wěn)定的,不會(huì)降低性能或影響收斂性。因此,作者為8位優(yōu)化器提供了一個(gè)高級(jí)庫(kù),叫做bitsandbytes。

beb68046-2915-11ed-ba43-dac502259ad0.png

代碼實(shí)現(xiàn)

!pipinstall-qbitsandbytes-cuda110
defset_embedding_parameters_bits(embeddings_path,optim_bits=32):
"""
https://github.com/huggingface/transformers/issues/14819#issuecomment-1003427930
"""

embedding_types=("word","position","token_type")
forembedding_typeinembedding_types:
attr_name=f"{embedding_type}_embeddings"

ifhasattr(embeddings_path,attr_name):
bnb.optim.GlobalOptimManager.get_instance().register_module_override(
getattr(embeddings_path,attr_name),'weight',{'optim_bits':optim_bits}
)

importbitsandbytesasbnb


##selectingparameters,whichrequiresgradients
model_parameters=filter(lambdaparameter:parameter.requires_grad,model.parameters())

##initializingoptimizer
bnb_optimizer=bnb.optim.AdamW(params=model_parameters,lr=2e-5,weight_decay=0.0,optim_bits=8)
##bnb_optimizer=bnb.optim.AdamW8bit(params=model_parameters,lr=2e-5,weight_decay=0.0)#equivalenttotheaboveline

##settingembeddingsparameters
set_embedding_parameters_bits(embeddings_path=model.embeddings)

print(f"8-bitOptimizer:

{bnb_optimizer}")

梯度檢查點(diǎn)

有時(shí)候,即使用了上面的幾種方法,顯存可能還是不夠,尤其是在模型足夠大的情況下。那么梯度檢查點(diǎn)(Gradient Checkpointing)就是壓箱底的招數(shù)了,這個(gè)方法第一次在 Training Deep Nets With Sublinear Memory Cost ,作者表明梯度檢查點(diǎn)可以顯著降低顯存利用率,從降低到,其中n是模型的層數(shù)。這種方法允許在單個(gè)GPU上訓(xùn)練大型模型,或者提供更多內(nèi)存以增加批量大小,從而更好更快地收斂。梯度檢查點(diǎn)背后的思想是在小數(shù)據(jù)塊中計(jì)算梯度,同時(shí)在正向和反向傳播過(guò)程中從內(nèi)存中移除不必要的梯度,從而降低內(nèi)存利用率,但是這種方法需要更多的計(jì)算步驟來(lái)再現(xiàn)整個(gè)反向傳播圖,其實(shí)就是一種用時(shí)間來(lái)?yè)Q空間的方法。

bee416d2-2915-11ed-ba43-dac502259ad0.pngbef5e5e2-2915-11ed-ba43-dac502259ad0.png演示梯度檢查點(diǎn)如何在正向和反向傳播過(guò)程中工作

PyTorch框架里也有梯度檢查點(diǎn)的實(shí)現(xiàn),通過(guò)這兩個(gè)函數(shù):torch.utils.checkpoint.checkpoint和torch.utils.checkpoint.checkpoint_sequential

這邊引用一段torch官網(wǎng)對(duì)梯度檢查點(diǎn)的介紹:

梯度檢查點(diǎn)通過(guò)用計(jì)算換取內(nèi)存來(lái)工作。檢查點(diǎn)部分不是存儲(chǔ)整個(gè)計(jì)算圖的所有中間激活以進(jìn)行反向計(jì)算,而是不保存中間激活,而是在反向過(guò)程中重新計(jì)算它們。它可以應(yīng)用于模型的任何部分。

具體而言,在前向傳播中,該函數(shù)將以torch.no_grad()的方式運(yùn)行,即不存儲(chǔ)中間激活。然而,前向傳播保存了輸入元組和函數(shù)參數(shù)。在反向傳播時(shí),檢索保存的輸入和函數(shù),然后再次對(duì)函數(shù)進(jìn)行前向傳播,現(xiàn)在跟蹤中間激活,然后使用這些激活值計(jì)算梯度。

此外,HuggingFace Transformers也支持梯度檢查點(diǎn)。梯度檢查點(diǎn)可以通過(guò)PreTrainedModel實(shí)例的gradient_checkpointing_enable方法執(zhí)行,一行代碼直接搞定!

代碼實(shí)現(xiàn)

fromtransformersimportAutoConfig,AutoModel
##https://github.com/huggingface/transformers/issues/9919
fromtorch.utils.checkpointimportcheckpoint

##initializingmodel
model_path="microsoft/deberta-v3-base"
config=AutoConfig.from_pretrained(model_path)
model=AutoModel.from_pretrained(model_path,config=config)

##gradientcheckpointing
model.gradient_checkpointing_enable()
print(f"GradientCheckpointing:{model.is_gradient_checkpointing}")

快速分詞器

HuggingFace Transformers提供兩種類型的分詞器:基本分詞器和快速分詞器。它們之間的主要區(qū)別在于,快速分詞器是在Rust上編寫(xiě)的,因?yàn)?a href="http://ttokpm.com/tags/python/" target="_blank">Python在循環(huán)中非常慢,但在分詞的時(shí)候又要用到循環(huán)??焖俜衷~器是一種非常簡(jiǎn)單的方法,允許我們?cè)诜衷~的時(shí)候獲得額外的加速。要使用快速分詞器也很簡(jiǎn)單,只要把transformers.AutoTokenizer里面的from_pretrained方法的use_fast的值修改為True就可以了。

bf0a1f58-2915-11ed-ba43-dac502259ad0.png

分詞器是如何工作的

代碼實(shí)現(xiàn)

fromtransformersimportAutoTokenizer

##initializingBaseversionofTokenizer
model_path="microsoft/deberta-v3-base"
tokenizer=AutoTokenizer.from_pretrained(model_path,use_fast=False)
print(f"BaseversionTokenizer:

{tokenizer}",end="
"*3)

##initializingFastversionofTokenizer
fast_tokenizer=AutoTokenizer.from_pretrained(model_path,use_fast=True)
print(f"FastversionTokenizer:

{fast_tokenizer}")

動(dòng)態(tài)填充

通常來(lái)說(shuō),模型是用批量數(shù)據(jù)輸入訓(xùn)練的,批中的每個(gè)輸入必須具有固定大小,即一批量的數(shù)據(jù)必須是矩陣的表示,所有批量數(shù)據(jù)的尺寸都一樣。固定尺寸通常是根據(jù)數(shù)據(jù)集中的長(zhǎng)度分布、特征數(shù)量和其他因素來(lái)選擇的。在NLP任務(wù)中,輸入大小稱為文本長(zhǎng)度,或者最大長(zhǎng)度(max length)。然而,不同的文本具有不同的長(zhǎng)度,為了處理這種情況,研究人員提出了填充標(biāo)記和截?cái)?。?dāng)最大長(zhǎng)度小于輸入文本的長(zhǎng)度時(shí),會(huì)使用截?cái)?,因此?huì)刪除一些標(biāo)記。當(dāng)輸入文本的長(zhǎng)度小于最大長(zhǎng)度時(shí),會(huì)將填充標(biāo)記,比如[PAD],添加到輸入文本的末尾,值得注意的是,填充標(biāo)記不應(yīng)包含在某些任務(wù)的損失計(jì)算中(例如掩蔽語(yǔ)言建?;蛎麑?shí)體識(shí)別)

bf2fd37e-2915-11ed-ba43-dac502259ad0.png

固定長(zhǎng)度填充

然而,填充標(biāo)記有明顯的缺點(diǎn)。比如在輸入文本相對(duì)于選定的最大長(zhǎng)度非常短的情況下,效率就很低,需要更多的額外內(nèi)存,比如我有一條文本長(zhǎng)度512,然后其他文本長(zhǎng)度都在10左右,那么如果將max seq設(shè)置為512,就會(huì)導(dǎo)致很多無(wú)效計(jì)算。為了防止額外的計(jì)算操作,研究人員提出了一種非常有效的方法,就是將批量的輸入填充到這一批量的最大輸入長(zhǎng)度,如下圖所示,這種方法可以將訓(xùn)練速度提高35%甚至50%,當(dāng)然這種方法加速的效果取決于批量的大小以及文本長(zhǎng)度的分布,批量越小,加速效果越明顯,文本長(zhǎng)度分布越不均,加速效果也越好。

bf62fa24-2915-11ed-ba43-dac502259ad0.png

動(dòng)態(tài)填充

均勻動(dòng)態(tài)填充

還有一種基于動(dòng)態(tài)填充的方法,叫做均勻動(dòng)態(tài)填充。其思想是在分batch時(shí),先按文本的長(zhǎng)度對(duì)文本進(jìn)行排序,這樣同一個(gè)batch里面的文本長(zhǎng)度就都差不多。這種方法非常有效,在訓(xùn)練或推理期間的計(jì)算量都比動(dòng)態(tài)填充要來(lái)的少。但是,不建議在訓(xùn)練期間使用均勻動(dòng)態(tài)填充,因?yàn)橛?xùn)練時(shí)數(shù)據(jù)最好是要shuffer的,但是推理時(shí)如果一次性要推理很多文本的話可以考慮這么做

c04e742c-2915-11ed-ba43-dac502259ad0.png

均勻動(dòng)態(tài)填充

總結(jié)

即使在現(xiàn)代GPU上,優(yōu)化內(nèi)存和時(shí)間也是開(kāi)發(fā)模型的必要步驟,因此,本文介紹了加速訓(xùn)練和減少transformers等大型模型內(nèi)存消耗的最強(qiáng)大、最流行的方法。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4673

    瀏覽量

    128594
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    600

    瀏覽量

    13484
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    486

    瀏覽量

    21987
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2279

    瀏覽量

    2360

原文標(biāo)題:一文詳解Transformers的性能優(yōu)化的8種方法

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語(yǔ)言模型(LLM)是一個(gè)復(fù)雜且資源密集的過(guò)程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識(shí)。以下是訓(xùn)練LLM
    的頭像 發(fā)表于 11-08 09:30 ?257次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度學(xué)習(xí)框架,提供了豐富的工具和
    的頭像 發(fā)表于 11-05 17:43 ?408次閱讀

    何在 PyTorch 中訓(xùn)練模型

    PyTorch 是一個(gè)流行的開(kāi)源機(jī)器學(xué)習(xí)庫(kù),廣泛用于計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理等領(lǐng)域。它提供了強(qiáng)大的計(jì)算圖功能和動(dòng)態(tài)圖特性,使得模型的構(gòu)建和調(diào)試變得更加靈活和直觀。 數(shù)據(jù)準(zhǔn)備 在訓(xùn)練模型
    的頭像 發(fā)表于 11-05 17:36 ?210次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?176次閱讀

    模型發(fā)展,國(guó)產(chǎn)GPU的機(jī)會(huì)和挑戰(zhàn)

    電子發(fā)燒友網(wǎng)站提供《大模型發(fā)展,國(guó)產(chǎn)GPU的機(jī)會(huì)和挑戰(zhàn).pdf》資料免費(fèi)下載
    發(fā)表于 07-18 15:44 ?6次下載
    大<b class='flag-5'>模型</b>發(fā)展<b class='flag-5'>下</b>,國(guó)產(chǎn)<b class='flag-5'>GPU</b>的機(jī)會(huì)和挑戰(zhàn)

    llm模型訓(xùn)練一般用什么系統(tǒng)

    LLM(Large Language Model,大型語(yǔ)言模型)是近年來(lái)在自然語(yǔ)言處理領(lǐng)域取得顯著成果的一種深度學(xué)習(xí)模型。它通常需要大量的計(jì)算資源和數(shù)據(jù)來(lái)進(jìn)行訓(xùn)練。以下是關(guān)于LLM
    的頭像 發(fā)表于 07-09 10:02 ?330次閱讀

    何在UDP的情況下監(jiān)聽(tīng)自己通信是否中斷?

    請(qǐng)教大佬一個(gè)問(wèn)題。 我如何在UDP的情況下監(jiān)聽(tīng)自己通信是否中斷? 不知道有沒(méi)有什么可以參考的?
    發(fā)表于 06-24 06:04

    谷景揭秘如何在色環(huán)電感封裝尺寸不變的情況下升級(jí)電感性能

    谷景揭秘如何在色環(huán)電感封裝尺寸不變的情況下升級(jí)電感性能 編輯:谷景電子 色環(huán)電感作為電子電路中的一種特別重要的電感元件,它對(duì)于電路運(yùn)行的穩(wěn)定性有著重要影響。色環(huán)電感的種類很多,不同的電路需求對(duì)色環(huán)
    的頭像 發(fā)表于 06-23 09:45 ?347次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    具有以下三個(gè)非常顯著的特點(diǎn),一個(gè)就是模型參數(shù)規(guī)模更大,訓(xùn)練數(shù)據(jù)更多。當(dāng)然,對(duì)計(jì)算資源的要求也會(huì)更高。 構(gòu)建強(qiáng)大的語(yǔ)言模型時(shí),模型的選型至關(guān)
    發(fā)表于 05-07 17:10

    盤點(diǎn)國(guó)產(chǎn)GPU在支持大模型應(yīng)用方面的進(jìn)展

    ,近些年國(guó)內(nèi)也有不少GPU企業(yè)在逐步成長(zhǎng),雖然在大模型訓(xùn)練和推理方面,與英偉達(dá)GPU差距極大,但是不可忽視的是,不少國(guó)產(chǎn)GPU企業(yè)也在AI
    的頭像 發(fā)表于 03-29 00:27 ?5884次閱讀
    盤點(diǎn)國(guó)產(chǎn)<b class='flag-5'>GPU</b>在支持大<b class='flag-5'>模型</b>應(yīng)用方<b class='flag-5'>面的</b>進(jìn)展

    何在幅度頻率不變的情況下將正弦波變?yōu)榉讲ǎ?/a>

    何在幅度頻率不變的情況下將正弦波變?yōu)榉讲ǎ?方波是一種特殊形式的波形,它的波形在周期內(nèi)由兩個(gè)值之間的突然跳變組成,通常是由高電平和低電平組成。與之相反,正弦波是一種平滑連續(xù)的波形,其幅度變化是沿著
    的頭像 發(fā)表于 02-06 15:51 ?4128次閱讀

    何在沒(méi)有HAL的情況下使用SEGGER eMusb-Device嗎?

    我很喜歡 SEGGER eMusb-Device,因?yàn)樗膶?shí)現(xiàn)方式非常全面。 但是,我想退出 HAL,我觀察到 SEGGER eMusb-Device 嚴(yán)重依賴它。 我有辦法在沒(méi)有 HAL 的情況下
    發(fā)表于 01-25 08:31

    什么是always on buffer?什么情況下需要插always on buffer?

    相比普通的buffer cell,always on buffer(AOB)有secondary always on pin,可以讓AOB即使在primary power off的情況下保持on的狀態(tài);AOB在secondary pg pin off的情況下也是off的。
    的頭像 發(fā)表于 12-01 15:31 ?2270次閱讀
    什么是always on buffer?什么<b class='flag-5'>情況下</b>需要插always on buffer?

    何在電壓不穩(wěn)的情況下保障SSD的穩(wěn)定性能?

    何在電壓不穩(wěn)的情況下保障SSD的穩(wěn)定性能?
    的頭像 發(fā)表于 11-24 15:50 ?575次閱讀
    如<b class='flag-5'>何在</b>電壓不穩(wěn)的<b class='flag-5'>情況下</b>保障SSD的穩(wěn)定性能?

    GPU訓(xùn)練大型模型資源分配與優(yōu)化技巧|英偉達(dá)將推出面向中國(guó)的改良芯片HGX H20、L20 PCIe、L2 PCIe

    。為了解決這個(gè)問(wèn)題,英偉達(dá)將針對(duì)中國(guó)市場(chǎng)推出新的AI芯片,以應(yīng)對(duì)美國(guó)出口限制。本文將探討如何在多個(gè)GPU訓(xùn)練大型模型,并分析英偉達(dá)禁令對(duì)中國(guó)AI計(jì)算行業(yè)的影響。
    的頭像 發(fā)表于 11-16 11:39 ?1659次閱讀
    多<b class='flag-5'>GPU</b><b class='flag-5'>訓(xùn)練</b>大型<b class='flag-5'>模型</b>:<b class='flag-5'>資源</b>分配與優(yōu)化技巧|英偉達(dá)將推出面向中國(guó)的改良芯片HGX H20、L20 PCIe、L2 PCIe