0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型太貴?找找自己的原因好吧?

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-10-07 09:25 ? 次閱讀

什么?

煉個大模型還嫌貴?

到底哪里貴了???

大模型算力貴?哪里貴了!?

爭先恐后訓(xùn)練大模型,

搞得現(xiàn)在“算力慌”“一卡難求”,

算力當(dāng)然水漲船高了!

“特供版”GPU又貴又縮水,

大家自己愿意當(dāng)“冤大頭”囤卡,

還好意思埋怨貴了?

這么多年有沒有認(rèn)真工作?

為什么這么多算力還依賴進(jìn)口!

自己為什么不能制造芯片?

有沒有在自主化上想想辦法?

解決算力難題,

廠商們可以選擇AI云服務(wù)。

在社會層面進(jìn)行算力集約,

讓算力普惠。

同時支持國產(chǎn)AI算力,

讓國內(nèi)市場活躍起來。

大模型基礎(chǔ)設(shè)施貴?哪里貴了!?

數(shù)據(jù)需要存,接入AI模型需要網(wǎng),

部署AI模型需要終端。

哪個不需要投入了!

任何一個地方出現(xiàn)短板,

就會出現(xiàn)木桶效應(yīng)!

加一加算一算,當(dāng)然不便宜了!

有時候找找自己的原因!

綜合成本那么高,

是不是盲目追求高配置了?

IT設(shè)施能不能跟上大模型發(fā)展?

是不是IT采購做得東一榔頭,西一棒槌?

有沒有做過全盤的數(shù)字化設(shè)計?

想要把基礎(chǔ)設(shè)施的綜合成本打下來,

就需要選擇和大模型

適配的存儲、網(wǎng)絡(luò)產(chǎn)品。

統(tǒng)籌規(guī)劃自己的ICT基礎(chǔ)設(shè)施,

讓大模型獲得良好的數(shù)字化土壤。

大模型數(shù)據(jù)貴?哪里貴了???

專用數(shù)據(jù)從采集、清洗到標(biāo)注、驗證,

每一個環(huán)節(jié)都需要成本。

有的企業(yè)整理3TB數(shù)據(jù)成本就高達(dá)數(shù)十萬。

通用數(shù)據(jù)便宜!

不擔(dān)心大模型差異化問題你去買啊!

平時有沒有重視自有數(shù)據(jù)?

全員通宵埋頭標(biāo)注數(shù)據(jù)的時候,

高價買數(shù)據(jù)的時候,

就沒想想怎么能剩下一筆數(shù)據(jù)成本?

想降低數(shù)據(jù)成本,

首先就要重視自身的數(shù)據(jù)資產(chǎn),

加強數(shù)據(jù)資產(chǎn)的收集保存,

同時強化流通,

數(shù)據(jù)流通起來才有價值!

大模型運維貴?哪里貴了?。?/p>

大模型數(shù)據(jù)規(guī)模大、迭代版本多、算力節(jié)點多。

多就代表復(fù)雜,復(fù)雜就代表故障率高。

一出故障要推倒重訓(xùn),

一次訓(xùn)練恢復(fù)就要一星期以上,

項目進(jìn)度停滯,人工和算力開銷照舊,

整體成本咔咔上漲!

運維成本上漲,

有時候找找自己的原因!

為什么一邊抱怨人工貴,

一邊還要讓員工加班?

為什么不找找運維“平替”?

想要找人工運維的“平替”,

當(dāng)然就是AI運維了 !

用AI來運維AI,

提升運維智能化水平,

實現(xiàn)故障精準(zhǔn)定位,快速恢復(fù)。

讓運維能力秒變省錢超能力!

大模型人才貴?哪里貴了???

也就是應(yīng)屆生比其他T人才溢價個50%左右,

算法工程師年薪50萬起步,

多一點的100萬也夠了!

有時候挖一個專家,

還要把他學(xué)生、助手、

親戚七大姑八大姨都給挖過來,

1000萬起步差不多吧。

有些時候找找自身原因!

這么多年有沒有認(rèn)真工作?

自己能不能變成AI人才?

有沒有讓員工都去研究學(xué)大模型?

有沒有送自己小孩去學(xué)AI?

破解AI人才難題,

需要產(chǎn)學(xué)研協(xié)同努力,

加大人才培養(yǎng)力度,

豐富相關(guān)崗位分工,

推進(jìn)AI資質(zhì)考核標(biāo)準(zhǔn)化

校園培養(yǎng)、在職培養(yǎng)、

社會培養(yǎng)共同發(fā)展。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29824

    瀏覽量

    268118
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2279

    瀏覽量

    2362
收藏 人收藏

    評論

    相關(guān)推薦

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的LLM將用
    的頭像 發(fā)表于 11-08 09:30 ?269次閱讀

    如何訓(xùn)練自己的AI大模型

    訓(xùn)練自己的AI大模型是一個復(fù)雜且耗時的過程,涉及多個關(guān)鍵步驟。以下是一個詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的AI模型
    的頭像 發(fā)表于 10-23 15:07 ?389次閱讀

    用TINA-TI仿真LM4871模型無法有效輸出是什么原因?

    TI工程師你好,我從TI官網(wǎng)上下載了一個LM4871的模型進(jìn)行仿真,但是無法有效輸出,請問是什么原因
    發(fā)表于 10-22 06:20

    DAC8568 IBIS模型轉(zhuǎn)換成spice模型無法顯示所有引腳是什么原因導(dǎo)致的?怎么解決?

    你好,下載的DAC8568 IBIS模型,在cadence中生成spice模型時無法顯示所有引腳,只有一個INPUT引腳,沒有其他引腳,導(dǎo)致無法進(jìn)行電路繪制和仿真,請問是什么原因,應(yīng)該怎么解決?
    發(fā)表于 09-09 06:14

    人臉識別模型訓(xùn)練失敗原因有哪些

    人臉識別模型訓(xùn)練失敗的原因有很多,以下是一些常見的原因及其解決方案: 數(shù)據(jù)集質(zhì)量問題 數(shù)據(jù)集是訓(xùn)練人臉識別模型的基礎(chǔ)。如果數(shù)據(jù)集存在質(zhì)量問題,將直接影響
    的頭像 發(fā)表于 07-04 09:17 ?508次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)集

    PyTorch是一個廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強大的動態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時,數(shù)據(jù)集是不可或缺的組成部分。然而,很多時候,我們可能需要使用自己的數(shù)據(jù)集而不是現(xiàn)成
    的頭像 發(fā)表于 07-02 14:09 ?1193次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    能力,它缺乏真正的“思考”過程。對于任何輸入,大語言模型都會產(chǎn)生輸出,但這僅僅是基于計算和預(yù)測下一個Token出現(xiàn)的概率。模型并不清楚自己的優(yōu)勢或劣勢,也無法主動進(jìn)行反思和糾正錯誤。提示工程
    發(fā)表于 05-07 17:21

    maixcam如何無腦運行運行別人的模型(以安全帽模型為例)

    =333.999.0.0 該模型整個的壓縮包在該文件附件中 如何修改為自己模型應(yīng)用 從主函數(shù)代碼可以看到我導(dǎo)入了sipeed退出圖片,使用了ts.read()去讀取觸摸坐標(biāo),再次感謝Neucrack大佬,具體細(xì)節(jié)可以
    發(fā)表于 04-25 14:51

    ad19中3d模型不顯示?

    封裝庫導(dǎo)入3d模型不顯示,但導(dǎo)入3d模型后的封裝庫生成pcb文件時顯示3d模型,這是什么原因導(dǎo)致的。
    發(fā)表于 04-24 13:41

    如何優(yōu)化深度學(xué)習(xí)模型?

    因為大部分人使用的模型都是預(yù)訓(xùn)練模型,使用的權(quán)重都是在大型數(shù)據(jù)集上訓(xùn)練好的模型,當(dāng)然不需要自己去初始化權(quán)重了。只有沒有預(yù)訓(xùn)練模型的領(lǐng)域會
    發(fā)表于 01-29 14:25 ?2854次閱讀
    如何優(yōu)化深度學(xué)習(xí)<b class='flag-5'>模型</b>?

    教您如何精調(diào)出自己的領(lǐng)域大模型

    BERT和 GPT-3 等語言模型針對語言任務(wù)進(jìn)行了預(yù)訓(xùn)練。微調(diào)使它們適應(yīng)特定領(lǐng)域,如營銷、醫(yī)療保健、金融。在本指南中,您將了解 LLM 架構(gòu)、微調(diào)過程以及如何為 NLP 任務(wù)微調(diào)自己的預(yù)訓(xùn)練模型
    的頭像 發(fā)表于 01-19 10:25 ?1063次閱讀
    教您如何精調(diào)出<b class='flag-5'>自己</b>的領(lǐng)域大<b class='flag-5'>模型</b>

    求助,請幫忙找找直流調(diào)速器損壞的原因?

    的,沒有什么問題。更換直流調(diào)速器后使用又是正常的,可使用了三個月后又再次造成直流調(diào)速器損毀,檢查還是差查不出什么原因來,再次更換直流調(diào)速器還是能正常使用,另外的幾臺同型號都能正常使用, 電機廠家的人認(rèn)為
    發(fā)表于 12-19 07:28

    什么是AI模型漂移 AI模型表現(xiàn)下降的原因

    IEEE會員Eleanor “Nell” Watson解釋說,人工智能模型的準(zhǔn)確性經(jīng)常會因為現(xiàn)實世界中不斷變化的環(huán)境而發(fā)生變化。
    的頭像 發(fā)表于 12-08 11:30 ?1254次閱讀

    AD8422的spice模型使用報錯是什么原因?

    在ADI官網(wǎng)下載AD8422的spice模型,在multisim中使用一直報錯,信息如下: SPICE 網(wǎng)列列表在示意圖 RefDes *** *** 中出錯, 元素 ***: 無效
    發(fā)表于 11-23 07:39

    ADCMP580為什么沒有SPICE模型?

    我想問一下,ADCMP580為什么沒有SPICE模型?還是忘了給鏈接了(雖然這種可能性很?。?,而且很多快速比較器都沒有給出SPICE模型是什么原因?
    發(fā)表于 11-23 06:51