0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

應(yīng)用大模型提升研發(fā)效率的實踐與探索

AI科技大本營 ? 來源:AI科技大本營 ? 2024-02-22 11:47 ? 次閱讀

【導(dǎo)讀】在當(dāng)今軟件開發(fā)和科學(xué)研究領(lǐng)域,項目的復(fù)雜性日益增加,提升研發(fā)效率已成為行業(yè)迫切需求。本文深入探討了大模型技術(shù)在研發(fā)效率提升方面的應(yīng)用與實踐,以實戰(zhàn)摸索的方式,真實揭示了大模型究竟能夠如何助力企業(yè)實現(xiàn)數(shù)智化轉(zhuǎn)型。

本文精選自《新程序員007:大模型時代的開發(fā)者》,《新程序員 007》聚焦開發(fā)者成長,其間既有圖靈獎得主 Joseph Sifakis、前 OpenAI 科學(xué)家 Joel Lehman 等高瞻遠(yuǎn)矚,又有對于開發(fā)者們至關(guān)重要的成長路徑、工程實踐及趟坑經(jīng)驗等,歡迎大家點(diǎn)擊訂閱年卡。

隨著軟件開發(fā)和科學(xué)研究的復(fù)雜性不斷增加,人們對提高編程及研發(fā)效率的需求也越來越迫切。傳統(tǒng)的編程工具和方法已經(jīng)無法滿足這一需求,因此人們開始探索新的技術(shù)手段來提升編程和研發(fā)效率。大模型作為一種新興的人工智能技術(shù),被廣泛應(yīng)用于輔助編程和研發(fā)效率提升領(lǐng)域。

例如,美國科技巨頭谷歌利用大模型技術(shù)提升內(nèi)部研發(fā)效率,通過在代碼自增長工具中集成大模型,輔助完成部分重復(fù)性工作(如自動導(dǎo)入包、自動生成構(gòu)造函數(shù)等),縮短了工程師的編碼時間。同時它還開源了基于大模型的代碼搜索引擎,可以自動匹配代碼片段并提供相關(guān)文檔,大幅提高了工程師的開發(fā)效率。微軟研究院則開發(fā)了基于大模型的自動測試工具,它可以自動檢測代碼中的 Bug,并生成相應(yīng)的測試用例。經(jīng)過實測,該工具在發(fā)現(xiàn)錯誤率和測試覆蓋率上都能超越人工編寫的測試用例。目前它正在幫助微軟各產(chǎn)品線提升測試質(zhì)量。

中興通訊以大模型為中心賦能企業(yè)數(shù)智化轉(zhuǎn)型,堅持先自用再外溢。除自研大模型之外,我們還基于開源的大模型開發(fā)微調(diào)后在研發(fā)效能領(lǐng)域進(jìn)行應(yīng)用,并分析其優(yōu)勢和挑戰(zhàn)。通過對相關(guān)研究和實踐案例的綜述,發(fā)現(xiàn)大模型在輔助編程和研發(fā)效率提升方面具有巨大潛力。在本文中,我將分享我們在研發(fā)類大模型的一些應(yīng)用與實踐,希望對開發(fā)者們有所裨益。

研發(fā)類 AI 場景分析

研發(fā)流程非常繁多,從項目立項到需求分析,再到產(chǎn)品設(shè)計、研發(fā),再進(jìn)行測試,進(jìn)而投產(chǎn)和運(yùn)維,貫穿了復(fù)雜的管理流程。

基于大模型的需求管理

對需求進(jìn)行自動拆分,即把用戶需求拆分成產(chǎn)品需求。

大模型能對用戶提出的需求進(jìn)行語義理解,識別其內(nèi)在結(jié)構(gòu)與邏輯關(guān)系,自動將需求拆分成獨(dú)立的子需求。比如從一個用戶定義的需求,自動提取出多個具體的產(chǎn)品需求點(diǎn)。

自動補(bǔ)全

(1)對需求進(jìn)行自動介紹,指出需求背景、用戶痛點(diǎn)以及實現(xiàn)該需求能為用戶帶來的價值。

(2)將用戶用簡單語言說明的需求,轉(zhuǎn)化為標(biāo)準(zhǔn)的產(chǎn)品需求格式,詳細(xì)描述功能點(diǎn)和約束條件。

(3)根據(jù)需求類型和項目階段自動生成驗收標(biāo)準(zhǔn)與測試用例。

自然語言查詢/定義

具體包括:

(1)用戶能通過日常話語式描述搜索到相關(guān)工作任務(wù)。例如搜索“如何實現(xiàn)單點(diǎn)登錄”。

(2)用戶通過在線對話的方式與系統(tǒng)交互,利用自然對話流程定義需求內(nèi)容。

此外,大模型還可以為需求管理提供以下能力:

(1)識別需求之間的依賴關(guān)系,繪制需求關(guān)系圖。

(2)利用主觀概率算法為每個需求點(diǎn)評估重要程度與難易程度。

(3)通過對歷史需求數(shù)據(jù)進(jìn)行學(xué)習(xí),提出可行性評估與風(fēng)險識別。

分析設(shè)計

內(nèi)容生成

(1)根據(jù)需求內(nèi)容自動提煉重點(diǎn),生成不同層級的內(nèi)容提綱供瀏覽。

(2)根據(jù)產(chǎn)品類型和功能,繪制系列設(shè)計原型圖或流程圖,標(biāo)識主流程和交互點(diǎn)。

(3)通過創(chuàng)意思維自動編寫故事情景,展現(xiàn)產(chǎn)品如何解決用戶痛點(diǎn)。

(4)對文檔內(nèi)容進(jìn)行翻譯、注釋或解釋,協(xié)助設(shè)計人員更好地理解需求細(xì)節(jié)。

內(nèi)容結(jié)構(gòu)化

(1)將圖片、表格等非文本內(nèi)容引用至正文,生成文檔框架。

(2)在設(shè)計文檔中自動標(biāo)注待完善部分,給出改進(jìn)建議或待定事項。

(3)檢測文檔風(fēng)格與格式是否統(tǒng)一,給出轉(zhuǎn)換建議供修改。

(4)將結(jié)構(gòu)化設(shè)計文檔自動生成到各類格式文檔中,如 Word、PDF 等。

此外,分析設(shè)計階段還可以利用大模型:

(1)檢測設(shè)計方案創(chuàng)新性及可行性,給出評價建議。

(2)將歷史優(yōu)秀案例自動歸納提取,運(yùn)用到當(dāng)前設(shè)計中。

開發(fā)流水線

資源智能分配

(1)根據(jù)歷史任務(wù)資源使用狀況,針對不同類型任務(wù)動態(tài)設(shè)置資源上下限。

(2)根據(jù)任務(wù)并發(fā)情況實時調(diào)度任務(wù)到不同規(guī)模的資源池,聚焦于提高整體利用率。

故障定位

(1)通過對比歷史錯誤日志,識別重要提示詞進(jìn)行分類,快速定位錯誤原因。

(2)調(diào)用相關(guān)開源工具分析異??煺?,給出反向跟蹤步驟以幫助修復(fù)。

一鍵生成

(1)根據(jù)用戶自然語言自動創(chuàng)建符合用戶需求的流水線。

(2)根據(jù)代碼庫結(jié)構(gòu),結(jié)合部門代碼庫和流水線規(guī)范,自動生成流水線。

(3)通過 API 調(diào)用底層工具,完成流水線的執(zhí)行。

此外,開發(fā)流水線優(yōu)化還可以:

(1)在不同階段進(jìn)行分支管理與合并。

(2)監(jiān)控流水線狀態(tài)并發(fā)送實時提醒,追蹤任務(wù)進(jìn)度。

(3)支持流水線模板管理和多項目重復(fù)應(yīng)用。

CCA

漏洞自動治理

(1)針對代碼漏洞、引入組件、開源合規(guī)、安全漏洞等問題提供一站式解決方案。

(2)當(dāng)前代碼存在哪些漏洞/問題,推薦如何治理,無需人工搜索。

組件版本依賴

即當(dāng)某個組件要升級,AI 推薦建議升級版本和依賴版本,減少人工版本探索時間。

測試管理

測試用例代碼生成,即不同粒度的自動化測試用例代碼生成,包括函數(shù)級、模塊級、功能級、API 級、性能級。

自動創(chuàng)建測試環(huán)境,即自動創(chuàng)建測試環(huán)境、測試執(zhí)行任務(wù)并執(zhí)行,最后生成測試報告。

自動生成測試文檔,包括:

(1)自動創(chuàng)建測試計劃。根據(jù)接口文檔自動創(chuàng)建基準(zhǔn)場景和邊界條件測試計劃。

(2)實例化測試記錄。測試通過后自動更新通過率及接口文檔,實時反饋測試進(jìn)度。

版本管理

實現(xiàn)版本發(fā)布無人化,包括文檔自動生成,和版本發(fā)布審批決策智能化。

研發(fā)大模型應(yīng)用平臺整體架構(gòu)和思路

基礎(chǔ)模型選擇思路

對于基礎(chǔ)模型的選擇,在參數(shù)上有以下一些考慮:

10B 參數(shù)級別

這是目前綜合性能與部署成本的平衡點(diǎn)。像 10B 左右的微型模型,在保留很強(qiáng)生成能力的同時,參數(shù)量相對較小,易于部署和精調(diào)。

25B - 50B 參數(shù)級別

如果有一定預(yù)算,可以選擇略大一些的模型,像 GPT-J 25B,具有更全面強(qiáng)大的語言理解和應(yīng)用能力。若重視研發(fā)投入且需要應(yīng)對更復(fù)雜任務(wù),選擇 50B 以下大模型也未嘗不可。

不宜超過 100B

超過 100B 的天然語言處理大模型,由于其部署和使用成本還不可控,當(dāng)前尚不宜直接應(yīng)用于產(chǎn)品。

總體而言,當(dāng)前 10B - 50B 之間的模型規(guī)模是一個比較適宜的選擇窗口。它可以滿足大多數(shù)日常需求,同時考慮到成本和易用性的因素,超過這個范圍就需要根據(jù)實際應(yīng)用場景具體權(quán)衡。

其次,還需要考慮模型的開源程度。半開源模型信息不對稱度高,我們優(yōu)先選擇完全開源的模型,可以推進(jìn)后續(xù)定制和社區(qū)研發(fā)。

綜上所述,對基礎(chǔ)模型選擇的標(biāo)準(zhǔn)如下:

具備編程領(lǐng)域能力,在編程類模型評估中各類語言得分越高越好(HumanEval/Babelcode 指標(biāo))。

考慮模型參數(shù)量,參數(shù)量過大,會導(dǎo)致精調(diào)和部署成本的提升。

在編碼能力基礎(chǔ)上,最好具備一定中文能力,當(dāng)然其選擇的優(yōu)先級低于編碼能力。

當(dāng)前主流的基礎(chǔ)模型如表 1 所示,最終我們選擇 Code LLaMA 作為基礎(chǔ)模型。

表 1 主流模型對比

5cf9ba9a-d070-11ee-a297-92fbcf53809c.png

增強(qiáng)預(yù)訓(xùn)練

模型選好后,接下來就是對模型進(jìn)行增強(qiáng)預(yù)訓(xùn)練。增強(qiáng)預(yù)訓(xùn)練的框架要解決兩個問題:資源和速度。我們采用以下優(yōu)化方式:

對于模型訓(xùn)練,我們可以采用 3D 并行訓(xùn)練的方式來實現(xiàn)。將模型參數(shù)和梯度張量劃分為多個分區(qū),分配到不同 GPU 卡上進(jìn)行計算。每張卡負(fù)責(zé)自己分區(qū)的梯度和參數(shù)更新工作,間隔時同步到其他卡上。這樣可以很好地利用更多計算資源,降低單卡資源需求。

同時,我們還可以采用 Distributed Data Parallel 的方式,將訓(xùn)練數(shù)據(jù)并行讀取和樣本處理工作分發(fā)到各節(jié)點(diǎn),充分利用多卡資源進(jìn)一步提升訓(xùn)練速度。對于節(jié)省 GPU 資源,我們使用 ZeRO 技術(shù)。這個技術(shù)通過對靜態(tài)和動態(tài)參數(shù)/張量進(jìn)行精細(xì)地分區(qū)存儲,有效減少顯存占用。同時它支持異步參數(shù)更新,計算和參數(shù)傳輸可以重疊進(jìn)行,有效縮短迭代周期。

對于模型訓(xùn)練加速,我們采用 FlashAttention 技術(shù)。它通過對注意力操作進(jìn)行分塊并進(jìn)行融合,如將 QK 乘積和后續(xù)運(yùn)算融成一個算子,可以大幅減少數(shù)據(jù)傳輸次數(shù),從而提升計算吞吐。

訓(xùn)練數(shù)據(jù)組織及語料庫建設(shè)

訓(xùn)練數(shù)據(jù)組織

明確訓(xùn)練數(shù)據(jù)的來源、用途和特點(diǎn)。在組織訓(xùn)練數(shù)據(jù)前,要了解數(shù)據(jù)的來源,確認(rèn)其可靠性和有效性。同時,要明確這些數(shù)據(jù)將用于哪些任務(wù),并了解其特點(diǎn),如數(shù)據(jù)量的大小、數(shù)據(jù)類型等。

進(jìn)行數(shù)據(jù)預(yù)處理。預(yù)處理是組織訓(xùn)練數(shù)據(jù)的關(guān)鍵步驟,包括數(shù)據(jù)清理、去重、變換等。數(shù)據(jù)清理主要是去除無效、錯誤或重復(fù)的數(shù)據(jù);去重則是去除重復(fù)的信息,以避免模型過擬合;變換則是對數(shù)據(jù)進(jìn)行必要的轉(zhuǎn)換,以便于模型的學(xué)習(xí)和訓(xùn)練。

合理組織訓(xùn)練數(shù)據(jù)。首先要將數(shù)據(jù)進(jìn)行分類,按照不同的任務(wù)需求劃分不同的數(shù)據(jù)集。例如,可以將數(shù)據(jù)集分為訓(xùn)練集、驗證集和測試集,以便于模型的訓(xùn)練和測試。同時,要合理存儲數(shù)據(jù)文件,可以選擇常見的存儲格式,如 CSV、JSON 等,并確保文件的安全性和完整性。

5d047c82-d070-11ee-a297-92fbcf53809c.png

圖 1訓(xùn)練數(shù)據(jù)組織及語料庫建設(shè)架構(gòu)

語料庫建設(shè)

語料庫是語言學(xué)研究的基礎(chǔ),為自然語言處理任務(wù)提供豐富的語料信息。建設(shè)語料庫的目的是為了滿足特定語言任務(wù)的需求,如文本分類、情感分析、信息提取等。

選擇合適的語料庫構(gòu)建方法。常用的語料庫構(gòu)建方法有手工采集、自動化采集和混合采集。手工采集適用于小規(guī)模、高質(zhì)量的語料庫建設(shè);自動化采集則可以快速地獲取大量語料信息;混合采集則是結(jié)合前兩種方法的優(yōu)勢,以獲得高質(zhì)量且大規(guī)模的語料庫。

做好語料庫的管理和維護(hù)。為了確保語料庫的安全性和可靠性,需要對語料庫進(jìn)行科學(xué)的管理和維護(hù),這包括文件管理、關(guān)鍵詞提取、數(shù)據(jù)備份等。要建立完善的文件管理制度,對語料庫進(jìn)行合理的分類和存儲;同時,要定期對語料庫進(jìn)行關(guān)鍵詞提取,以便于檢索和使用;此外,還要定期備份語料庫數(shù)據(jù),以防止數(shù)據(jù)丟失或損壞。

精調(diào)方法選型

接下來,需要對大模型進(jìn)行精調(diào)。針對已經(jīng)預(yù)訓(xùn)練好的研發(fā)大模型,在具體應(yīng)用任務(wù)上進(jìn)行優(yōu)化和微調(diào),以適應(yīng)研發(fā)領(lǐng)域和應(yīng)用場景的需求。在精調(diào)中,面臨的問題包括:

顯存占用量超過預(yù)訓(xùn)練需求

大模型通常需要大量的顯存來存儲模型參數(shù)和中間狀態(tài),而顯存的有限性限制了模型的規(guī)模。在進(jìn)行精調(diào)時,如果使用的數(shù)據(jù)量較大或者模型的復(fù)雜度較高,顯存占用量可能會超過預(yù)訓(xùn)練的需求,導(dǎo)致模型訓(xùn)練失敗或效率低下。

計算量超過預(yù)訓(xùn)練需求(單位數(shù)據(jù)量)

大模型通常需要大量的計算資源來進(jìn)行推理和訓(xùn)練,這包括 CPU 核心數(shù)、GPU 內(nèi)存和顯存等。在進(jìn)行精調(diào)時,如果使用的數(shù)據(jù)量較大或者模型復(fù)雜度較高,計算量可能會超過預(yù)訓(xùn)練的需求(單位數(shù)據(jù)量),導(dǎo)致模型訓(xùn)練速度變慢或者無法收斂。

此外,大模型精調(diào)還可能面臨其他問題,如模型復(fù)雜度過高導(dǎo)致調(diào)參困難、數(shù)據(jù)量過大導(dǎo)致過擬合風(fēng)險增加等。因此,在進(jìn)行大模型精調(diào)時,需要根據(jù)實際情況進(jìn)行權(quán)衡和優(yōu)化。

5d3c8f50-d070-11ee-a297-92fbcf53809c.png

圖 2精調(diào)方法選型

精調(diào)需要達(dá)到降低計算和存儲成本、提高泛化能力和輕便性、克服災(zāi)難性遺忘的問題、根據(jù)不同任務(wù)動態(tài)地調(diào)整額外參數(shù)的效果。因此,我們需要在保持預(yù)訓(xùn)練模型的大部分參數(shù)不變的情況下,只微調(diào)少量額外的參數(shù)。在資源足夠的情況下,也可以選擇全量精調(diào)(選型可參見圖 2)。

研發(fā)大模型實踐結(jié)果

截至 2023 年三季度,我們針對研發(fā)場景的大模型在公司內(nèi)部上線在短短兩個月的時間里就取得了顯著的效果。用戶超過 3000 人,30 日留存率超過 50%,產(chǎn)品成功完成冷啟動。在這背后是僅使用了 4 張 A800 卡,這意味著 AI 編程成本完全可以被企業(yè)所接受。需要注意的是,AI 編程對人員能力有比較高的要求,需要對員工進(jìn)行系統(tǒng)性培訓(xùn),才可能用得更好。

當(dāng)然,大模型的使用也面臨一些挑戰(zhàn),如計算資源需求和數(shù)據(jù)隱私問題。這些挑戰(zhàn)主要來自于大模型龐大的計算規(guī)模和對大量個人敏感數(shù)據(jù)的依賴。經(jīng)典的大模型需要大量 GPU 資源進(jìn)行訓(xùn)練與推理,離線部署效率低下;同時由于學(xué)習(xí)自大量的互聯(lián)網(wǎng)數(shù)據(jù),模型內(nèi)可能含有用戶隱私信息。

因此,未來的研究應(yīng)重點(diǎn)關(guān)注如何利用分布式計算和隱私保護(hù)技術(shù)等手段,來解決大模型計算資源和數(shù)據(jù)隱私的問題。例如采用 Model Parallel(模型并行)和 Data Parallel(數(shù)據(jù)并行)方法降低單機(jī)硬件需求,使用關(guān)注點(diǎn)機(jī)制和微分隱私等隱私算法來保護(hù)用戶數(shù)據(jù)等。同時也應(yīng)探索如何設(shè)計支持在線增量學(xué)習(xí)的大模型架構(gòu),有效應(yīng)對業(yè)務(wù)需要持續(xù)迭代優(yōu)化模型的需求。只有解決這些建設(shè)性的挑戰(zhàn),大模型才能在軟件研發(fā)深度應(yīng)用和持續(xù)推廣。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4591

    瀏覽量

    128144
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2136

    瀏覽量

    1980

原文標(biāo)題:大模型在研發(fā)效率提升方面的應(yīng)用與實踐 | 新程序員

文章出處:【微信號:AI科技大本營,微信公眾號:AI科技大本營】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    我在大模型應(yīng)用之RAG方向的探索、實踐與思考

    。 本文將從背景、核心工作、業(yè)務(wù)實踐與反饋以及未來展望等幾個方向進(jìn)行介紹。 背景介紹 大語言模型(LLM)在自然語言處理和自然語言理解方面取得了重大突破。大模型與應(yīng)用場景的結(jié)合有助于可以在降低成本的同時提高
    的頭像 發(fā)表于 06-28 16:20 ?1056次閱讀
    我在大<b class='flag-5'>模型</b>應(yīng)用之RAG方向的<b class='flag-5'>探索</b>、<b class='flag-5'>實踐</b>與思考

    如何提升單片機(jī)開發(fā)技術(shù)?

    地優(yōu)化程序的代碼,提高程序的運(yùn)行效率和響應(yīng)速度。 4. 不斷進(jìn)行實踐和研究,探索新的優(yōu)化方法和技巧,能夠更好地提升自己的技術(shù)水平。
    發(fā)表于 01-05 10:14

    【大語言模型:原理與工程實踐探索《大語言模型原理與工程實踐

    的未來發(fā)展方向進(jìn)行了展望,包括跨領(lǐng)域、跨模態(tài)和自動提示生成能力方向,為讀者提供了對未來技術(shù)發(fā)展的深刻見解?!洞笳Z言模型原理與工程實踐》是一本內(nèi)容豐富、深入淺出的技術(shù)書籍。它不僅為讀者提供了大語言模型
    發(fā)表于 04-30 15:35

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    超出預(yù)期的能力和表現(xiàn)。這種能力主要體現(xiàn)在學(xué)習(xí)能力提升、語言理解和生成能力,以及創(chuàng)新和探索等方面。大語言模型擁有更大的參數(shù)空間和表征能力,能學(xué)習(xí)更復(fù)雜、更抽象的模式和特征,從而在各種任務(wù)中展現(xiàn)出優(yōu)秀的泛
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐探索《大語言模型原理與工程實踐》2.0

    《大語言模型“原理與工程實踐”》是關(guān)于大語言模型內(nèi)在機(jī)理和應(yīng)用實踐的一次深入探索。作者不僅深入討論了理論,還提供了豐富的
    發(fā)表于 05-07 10:30

    《開關(guān)電源設(shè)計與調(diào)試》課程建設(shè)實踐探索

    《開關(guān)電源設(shè)計與調(diào)試》課程建設(shè)實踐探索,《開關(guān)電源設(shè)計與調(diào)試》課程建設(shè)實踐探索
    發(fā)表于 06-15 23:36

    阿里巴巴敏捷研發(fā)探索實踐

    教練何勉、張迎輝、張燎原為大家分享阿里巴巴的敏捷實踐,從中大家可以了解到互聯(lián)網(wǎng)產(chǎn)品全生命周期的探索和創(chuàng)新方法,看板方法如何助力阿里健康醫(yī)藥B2B業(yè)務(wù)發(fā)展,以及與敏捷教練一起互動交流如何將敏捷理念實施
    發(fā)表于 03-07 17:26

    如何提升模型能力?

    目標(biāo)檢測的模型集成方法及實驗常見的提升模型能力的方式
    發(fā)表于 02-24 07:10

    體驗最新測量應(yīng)用技術(shù),提升產(chǎn)品研發(fā)效率

    體驗最新測量應(yīng)用技術(shù),提升產(chǎn)品研發(fā)效率 泰克2004-2005年示波器新產(chǎn)品發(fā)布暨測量技術(shù)系列研討會全面展開。中國,北京2005年1月2
    發(fā)表于 08-15 08:09 ?430次閱讀

    移動通信 雙語教學(xué)探索實踐

    移動通信 雙語教學(xué)探索實踐,很好的網(wǎng)絡(luò)通信資料,快來學(xué)習(xí)吧。
    發(fā)表于 04-19 11:30 ?14次下載

    廈門航空牽手阿里云打造航空業(yè)移動研發(fā)中臺,研發(fā)效率提升50%

    11月4日,廈門航空與阿里云宣布合作打造航空業(yè)“移動研發(fā)中臺”。該項目將基于阿里云企業(yè)級移動研發(fā)平臺EMAS,結(jié)合廈門航空在航空業(yè)數(shù)字化探索實踐聯(lián)合
    發(fā)表于 11-14 23:06 ?393次閱讀

    AI環(huán)境探索模型升級 縮小搜索范圍效率更高

    近日,卡內(nèi)基·梅隆大學(xué)、臉書等機(jī)構(gòu)的研究人員提出了一個新的AI環(huán)境探索模型。這個新模型綜合了傳統(tǒng)環(huán)境探索模型和基于學(xué)習(xí)方法的環(huán)境
    的頭像 發(fā)表于 02-13 10:31 ?1947次閱讀

    魔方大模型在智能汽車領(lǐng)域的應(yīng)用實踐探索

    汽車領(lǐng)域最新的應(yīng)用實踐探索。 當(dāng)前,大模型的出現(xiàn)正在加速信息技術(shù)進(jìn)入智能原生時代,并使得人機(jī)自然交互真正成為可能。而混合AI,端云協(xié)同等人工智能技術(shù)新的發(fā)展趨勢,為大模型在汽車領(lǐng)域的
    的頭像 發(fā)表于 08-30 10:01 ?1399次閱讀

    軟通動力受邀參加“昇思MindSpore AI框架”主題論壇,持續(xù)探索模型創(chuàng)新實踐

    、云集成業(yè)務(wù)部總經(jīng)理楊磊受邀參加,并發(fā)表“軟通動力基于昇思MindSpore的大模型產(chǎn)業(yè)創(chuàng)新實踐”的主題分享,持續(xù)探索模型創(chuàng)新實踐。 會上
    的頭像 發(fā)表于 09-21 21:20 ?717次閱讀

    潞晨科技Colossal-AI + 浪潮信息AIStation,大模型開發(fā)效率提升10倍

    的潞晨科技Colossal-AI系統(tǒng),用戶可實現(xiàn)在本地算力平臺一鍵訓(xùn)練、微調(diào)、推理、部署大模型,將大模型開發(fā)效率提升10倍以上,并將算力效率
    的頭像 發(fā)表于 03-01 09:43 ?379次閱讀
    潞晨科技Colossal-AI + 浪潮信息AIStation,大<b class='flag-5'>模型</b>開發(fā)<b class='flag-5'>效率</b><b class='flag-5'>提升</b>10倍