0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在時間序列預(yù)測的總結(jié)和未來方向分析

穎脈Imgtec ? 2024-02-24 08:26 ? 次閱讀

來源:DeepHub IMBA


2023年是大語言模型和穩(wěn)定擴(kuò)散的一年,時間序列領(lǐng)域雖然沒有那么大的成就,但是卻有緩慢而穩(wěn)定的進(jìn)展。Neurips、ICML和AAAI等會議都有transformer 結(jié)構(gòu)(BasisFormer、Crossformer、Inverted transformer和Patch transformer)的改進(jìn),還出現(xiàn)了將數(shù)值時間序列數(shù)據(jù)與文本和圖像合成的新體系結(jié)構(gòu)(CrossVIVIT), 也出現(xiàn)了直接應(yīng)用于時間序列的可能性的LLM,以及新形式的時間序列正則化/規(guī)范化技術(shù)(san)。

我們這篇文章就來總結(jié)下2023年深度學(xué)習(xí)在時間序列預(yù)測中的發(fā)展和2024年未來方向分析


Neurips 2023

在今年的NIPs上,有一些關(guān)于transformer 、歸一化、平穩(wěn)性和多模態(tài)學(xué)習(xí)的有趣的新論文。但是在時間序列領(lǐng)域沒有任何重大突破,只有一些實(shí)際的,漸進(jìn)的性能改進(jìn)和有趣的概念證明。1、Adaptive Normalization for Non-stationary Time Series

657dd9de-d2ab-11ee-9118-92fbcf53809c.jpg

論文介紹了一種“模型不可知的歸一化框架”來簡化非平穩(wěn)時間序列數(shù)據(jù)的預(yù)測。作者讓SAN分兩步操作:訓(xùn)練一個統(tǒng)計預(yù)測模型(通常是ARIMA),然后訓(xùn)練實(shí)際的深度時間序列基礎(chǔ)模型(使用統(tǒng)計模型對TS數(shù)據(jù)進(jìn)行切片、歸一化和反歸一化)。統(tǒng)計模型對輸入時間序列進(jìn)行切片,以便學(xué)習(xí)更健壯的時間序列表示并去除非平穩(wěn)屬性。作者指出:“通過對切片級特性進(jìn)行建模,SAN能夠消除局部區(qū)域的非平穩(wěn)性?!盨AN還顯式地預(yù)測目標(biāo)窗口的統(tǒng)計信息(標(biāo)準(zhǔn)差/平均值)。這使得它在處理非平穩(wěn)數(shù)據(jù)時,與普通模型相比,能夠更好地適應(yīng)隨時間的變化。采用transformer 模型作為基本預(yù)測模型,對典型的時間序列預(yù)測基準(zhǔn)(如電力、交換、交通等)進(jìn)行指標(biāo)驗(yàn)證。作者發(fā)現(xiàn)SAN在這些基準(zhǔn)數(shù)據(jù)集上持續(xù)提高了基本模型的性能(盡管他們沒有測試Inverted Transformer,因?yàn)檫@篇論文是在Inverted Transformer之前發(fā)布的)。由于該模型結(jié)合了一個統(tǒng)計模型(通常是ARIMA)和一個普通的transformer ,我認(rèn)為調(diào)優(yōu)和調(diào)試(特別是在新的數(shù)據(jù)集上)可能會很棘手和麻煩。因?yàn)閹缀跛械臅r間序列模型都將序列輸入長度作為超參數(shù)。另外就是“切片”的切片與普通的序列窗口有何不同?作者還是沒有說清楚。總的來說,我認(rèn)為這仍然是一個相當(dāng)強(qiáng)大的貢獻(xiàn),因?yàn)樗膶?shí)驗(yàn)結(jié)果和即插即用屬性。2、BasisFormer658229e4-d2ab-11ee-9118-92fbcf53809c.jpgBasisFormer使用可學(xué)習(xí)和可解釋的“basis”來改進(jìn)一般的transformer 體系結(jié)構(gòu)。這里的“basis”指的是創(chuàng)建一個類似于NBeats的神經(jīng)“basis”(例如,為基于多項(xiàng)式的函數(shù)學(xué)習(xí)趨勢、季節(jié)性等的系數(shù))。該模型分為三個部分:基礎(chǔ)模塊、系數(shù)模塊和預(yù)測模塊?;K試圖以自監(jiān)督的方式確定一組適用于歷史和未來時間序列數(shù)據(jù)的數(shù)據(jù)基礎(chǔ)趨勢。basis模塊通過對比學(xué)習(xí)和一個名為InfoNCE loss的特定損失函數(shù)(該函數(shù)試圖學(xué)習(xí)未來和過去時間序列之間的聯(lián)系)。coef模型試圖“模擬時間序列和一組基礎(chǔ)趨勢之間的相似性”。對于coef模型,作者使用了一個交叉注意力模塊,該模塊將basis和時間序列作為輸入。然后將輸出輸入到包含多個MLP的預(yù)測模塊中。作者在典型的時間序列預(yù)測數(shù)據(jù)集(ETH1, ETH, weather, exchange)上評估他們的論文。發(fā)現(xiàn)BasisFormer比其他模型(Fedformer、Informer等)的性能提高了11-15%。BasisFormer還沒有被拿來和Inverted Transformer比較,因?yàn)樗€沒有發(fā)布。似乎Inverted Transformer和可能的Crossformer 可能會略優(yōu)于BasisFormer。還記的去年我們看到了“Are Transformers Effective for Time Series Forecasting?”這篇論文批評了許多Transformers 模型,并展示了一個簡單的模型“D-Linear”如何超越它們。在2023年從BasisFromer開始,已經(jīng)開始緩慢的解決這些問題,并超越上面提到的基準(zhǔn)模型。這篇論文模型的技術(shù)是可靠的,但這篇論文優(yōu)點(diǎn)難理解。因?yàn)樽髡呓榻B了學(xué)習(xí)“basis”的概念,但并沒有真正解釋這種方法的新穎性以及它與其他模型的不同之處。

3、Improving day-ahead Solar Irradiance Time Series Forecasting by Leveraging Spatio-Temporal Context論文提出了一種基于混合(視覺和時間序列)深度學(xué)習(xí)的架構(gòu),用于預(yù)測第二天的太陽能產(chǎn)量。太陽能的生產(chǎn)經(jīng)常受到云層覆蓋的影響,這在衛(wèi)星圖像數(shù)據(jù)中可以看到,但在數(shù)值數(shù)據(jù)中沒有很好地體現(xiàn)出來。除了模型本身外,論文的另外貢獻(xiàn)是研究人員構(gòu)建并開源的多模態(tài)衛(wèi)星圖像數(shù)據(jù)集。作者描述了一個多級Transformers 架構(gòu),同時關(guān)注數(shù)值時間序列和圖像數(shù)據(jù)。時間序列數(shù)據(jù)通過時間Transformers 圖像通過視覺Transformers 。然后,交叉注意力模塊將前兩個模塊的圖像數(shù)據(jù)綜合起來。最后數(shù)據(jù)進(jìn)入一個輸出預(yù)測的最終時態(tài)Transformers 。作者在論文中提到的另一個有用的想法被稱為ROPE或旋轉(zhuǎn)位置編碼。這將在編碼/位置嵌入中創(chuàng)建坐標(biāo)對。這是用來描述從云層到太陽能站的距離。作者對他們的新數(shù)據(jù)集進(jìn)行評估和基準(zhǔn)測試,比較了Informer、Reformer、Crossformer和其他深度時間序列模型的性能。作者還在整合圖像數(shù)據(jù)方面區(qū)分了困難和容易的任務(wù),他們的方法優(yōu)于其他模型。這篇論文提供了一個有趣的框架,ROPE的概念也很有趣,對于任何使用坐標(biāo)形式的地理數(shù)據(jù)的人都有潛在的幫助。數(shù)據(jù)集本身對于多模態(tài)預(yù)測的持續(xù)工作非常有用,這是一項(xiàng)非常有益的貢獻(xiàn)。

4、Large Language Models Are Zero-Shot Time Series Forecasters這篇論文探討了預(yù)訓(xùn)練的llm能否直接以整數(shù)形式輸入時間序列數(shù)據(jù),并以零樣本的方式預(yù)測未來數(shù)據(jù)。作者描述了使用GPT-3和GPT-4和開源LLMs不進(jìn)一步修改結(jié)構(gòu)直接與時間序列值交互的情況。最后還描述了他們對模型零樣本訓(xùn)練行為起源的思考。作者假設(shè),這種行為是提取知識的預(yù)訓(xùn)練的普遍通用性的結(jié)果。在上面提到的標(biāo)準(zhǔn)時間序列基準(zhǔn)數(shù)據(jù)集評估他們的模型。雖然模型沒有達(dá)到SOTA性能,但考慮到它完全是零樣本并且沒有額外的微調(diào),所以表現(xiàn)還是很好的。

llm可以開箱即用地進(jìn)行TS預(yù)測,因?yàn)樗鼈兌际窃谖谋緮?shù)據(jù)上訓(xùn)練的。這一領(lǐng)域可能值得未來進(jìn)一步探索,這篇論文是一個很好的一步。但是該模型目前只能處理單變量時間序列


ICML 、ICLR 2023

除了Neurips之外,ICML和ICLR 2023還重點(diǎn)介紹了幾篇關(guān)于時間序列預(yù)測/分析的深度學(xué)習(xí)的論文。以下是一些我覺得很有趣的,并且對未來一年仍有意義的建議:1、Crossformer6586cc06-d2ab-11ee-9118-92fbcf53809c.jpg

該模型是專門為多元時間序列預(yù)測(MTS)開發(fā)的。該模型采用維度分段嵌入(DSW)機(jī)制。DSW嵌入與傳統(tǒng)嵌入的不同之處在于它采用二維格式的數(shù)據(jù)。并且跨變量和時間維度顯式地從MTS數(shù)據(jù)生成段。該模型在標(biāo)準(zhǔn)MTS數(shù)據(jù)集(ETH, exchange等)上進(jìn)行了評估:在發(fā)布時時優(yōu)于大多數(shù)其他模型,例如Informer和DLinear。作者還對dSW進(jìn)行了消融研究。這篇來自ICLR的關(guān)于的論文在預(yù)測河流流量時表現(xiàn)不錯,但是是在一次預(yù)測多個目標(biāo)時,性能似乎會下降很多。也就是說,它的表現(xiàn)肯定比Informer和相關(guān)的Transformers 模型要好。

2、Learning Perturbations to Explain Time Series Predictions658b9f10-d2ab-11ee-9118-92fbcf53809c.jpg

大多數(shù)用于深度學(xué)習(xí)解釋的擾動技術(shù)都是面向靜態(tài)數(shù)據(jù)(圖像和文本)的。但是對于時間序列特別是多元TS需要更大范圍的擾動來學(xué)習(xí)隨機(jī)影響。作者提出了一種基于深度學(xué)習(xí)的方法,可以學(xué)習(xí)數(shù)據(jù)的掩碼和相關(guān)的擾動,更好地解釋特征的重要性。然后將掩碼和擾動的輸入傳遞給模型,并將輸出與未擾動數(shù)據(jù)的輸出進(jìn)行比較。據(jù)兩個輸出之間的差值計算損失。越來越多的研究人員正在深入研究解釋深度學(xué)習(xí)模型這是件好事。本文概述了現(xiàn)有的方法及其不足,并提出了一種改進(jìn)的方法。我認(rèn)為使用額外的神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)擾動的想法增加了不必要的復(fù)雜性,因?yàn)槊慨?dāng)我們增加更多的層和額外的網(wǎng)絡(luò)時,就會增加發(fā)生問題的概率,特別是在已經(jīng)很大的網(wǎng)絡(luò)上。別忘了奧卡姆剃刀定律如無必要,勿增實(shí)體

3、Learning Deep Time Index Models65908624-d2ab-11ee-9118-92fbcf53809c.jpg

本文通過光流和元學(xué)習(xí)來討論預(yù)測,描述了學(xué)習(xí)如何預(yù)測非平穩(wěn)時間序列。對于那些不熟悉的人來說,元學(xué)習(xí)通常被應(yīng)用在計算機(jī)視覺數(shù)據(jù)集上,像MAML這樣的論文可以對新的圖像類進(jìn)行少量的學(xué)習(xí)。MAML和其他模型都有一個內(nèi)部循環(huán)和一個外部循環(huán),其中外部循環(huán)教模型如何學(xué)習(xí),內(nèi)部循環(huán)對其進(jìn)行微調(diào)以適應(yīng)特定的任務(wù)。論文的作者采用了這一思想,并將其應(yīng)用于幾乎將每個非平穩(wěn)性視為一個新的學(xué)習(xí)任務(wù)。新的“任務(wù)”是長時間序列序列的塊。作者在ETH,temperature和exchange 數(shù)據(jù)集上測試了他們的模型。盡管他們的模型沒有達(dá)到SOTA的結(jié)果,但它與當(dāng)前的SOTA體系結(jié)構(gòu)具有競爭力。這篇論文為時間序列預(yù)測提供了一個有趣的角度,相對于常規(guī)方法有了一個新的突破,我想就是他雖然沒有超過SOTA但是還是被錄用的原因之一吧。

4、Inverted Transformers are Effective for Time Series Forecasting6594ab50-d2ab-11ee-9118-92fbcf53809c.jpg

《Inverted Transformers》是2024年發(fā)表的一篇論文。這也是目前時間序列預(yù)測數(shù)據(jù)集上的SOTA。基本上,Inverted Transformers采用時間序列的Transformers架構(gòu)并進(jìn)行了翻轉(zhuǎn)。整個時間序列序列用于創(chuàng)建令牌。然后,時間序列彼此獨(dú)立進(jìn)行嵌入表示。注意力對多個時間序列嵌入進(jìn)行操作。它有點(diǎn)類似于Crossformer,但它的不同之處在于,它遵循標(biāo)準(zhǔn)Transformers架構(gòu)。作者在標(biāo)準(zhǔn)時間序列數(shù)據(jù)集上評估模型目前優(yōu)于所有其他模型,包括Informer, Reformer, Crossformer等。

這是一篇強(qiáng)大的論文,因?yàn)槟P偷谋憩F(xiàn)優(yōu)于現(xiàn)有的模型。但是在某些情況下,它優(yōu)于模型的數(shù)值并不是那么顯著。所以可以優(yōu)先看看這篇論文并且進(jìn)行測試。


TimeGPT

最后說說TimeGPT,它沒有在任何主要會議上被接受,而且它的評估方法也優(yōu)點(diǎn)可疑,由于它不幸地在互聯(lián)網(wǎng)上獲得了相當(dāng)多的介紹,所以我們要再提一下:

1、作者沒有將他們的結(jié)果與其他SOTA類型模型進(jìn)行比較,只是引用“測試集包括來自多個領(lǐng)域的30多萬個時間序列,包括金融、網(wǎng)絡(luò)流量、物聯(lián)網(wǎng)、天氣、需求和電力?!辈⑶覜]有提供測試集的鏈接,也沒有在他們的論文中說明這些數(shù)據(jù)集是什么。

2、論文中架構(gòu)圖和模型體系結(jié)構(gòu)的描述非常糟糕。這看起來就像是作者復(fù)制了其他論文的圖表,強(qiáng)加上注意力的定義和LLM相關(guān)的流行詞匯。

3、作者的Nixtla公司非常小,可能是一家小型初創(chuàng)公司,它是否有足夠的計算資源來完全訓(xùn)練一個“成功的時間序列基礎(chǔ)模型”。雖然這樣說法優(yōu)點(diǎn)歧視,但是如果我說我一個人用一周訓(xùn)練了一個LLM,那估計都沒人相信,對吧。OpenAI、谷歌、亞馬遜、Meta等公司提供足夠的計算資源來創(chuàng)建龐大的模型。如果TimeGPT真的是一個簡單的Transformers 模型,并在大量的時間序列數(shù)據(jù)上訓(xùn)練它,為什么其他機(jī)構(gòu),甚至個人不能用它的大量gpu做到這一點(diǎn)呢?答案是,事情肯定沒那么簡單。時間序列創(chuàng)建“基礎(chǔ)模型”的能力目前還不夠完善。多元時間序列預(yù)測的一個重要組成部分是學(xué)習(xí)協(xié)變量之間的依賴關(guān)系。MTS的維度在不同的數(shù)據(jù)集之間差異很大。對于具有文本數(shù)據(jù)的Transformers ,我們總是將一個單詞映射到一個數(shù)字id,然后創(chuàng)建一個特定維度的嵌入。對于MTS,不僅值可以更改,而且在一個數(shù)據(jù)集上可能有100個變量,而在另一個數(shù)據(jù)集上只有10個變量。這使得幾乎不可能設(shè)計所有用途的映射層來將不同大小的MTS數(shù)據(jù)集映射到公共嵌入維度。所以還記得我們前幾天發(fā)的Lag-Llama,也只是單變量的預(yù)測。

在其他時間序列(即使是那些具有相同數(shù)量變量的時間序列)上預(yù)訓(xùn)模型不會產(chǎn)生改進(jìn)的結(jié)果(至少在當(dāng)前架構(gòu)下不會)。


總結(jié)及未來方向分析

在2023年,我們看到了Transformers 在時間序列預(yù)測中的一些持續(xù)改進(jìn),以及l(fā)lm和多模態(tài)學(xué)習(xí)的新方法。隨著2024年的進(jìn)展,我們將繼續(xù)看到在時間序列中使用Transformers 架構(gòu)的進(jìn)步和改進(jìn)??赡軙吹皆诙嗄B(tài)時間序列預(yù)測和分類領(lǐng)域的進(jìn)一步發(fā)展。

作者:Isaac Godfried

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29809

    瀏覽量

    268108
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    501

    瀏覽量

    10236
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5463

    瀏覽量

    120891
收藏 人收藏

    評論

    相關(guān)推薦

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA
    發(fā)表于 09-27 20:53

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】時間序列的信息提取

    個重要環(huán)節(jié),目標(biāo)是從給定的時間序列數(shù)據(jù)中提取出有用的信息和特征,以支持后續(xù)的分析預(yù)測任務(wù)。 特征工程(Feature Engineering)是將數(shù)據(jù)轉(zhuǎn)換為更好地表示潛在問題的特征,
    發(fā)表于 08-17 21:12

    【《時間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 時間序列的信息提取

    本人有些機(jī)器學(xué)習(xí)的基礎(chǔ),理解起來一點(diǎn)也不輕松,加油。 作者首先說明了時間序列的信息提取是時間序列分析
    發(fā)表于 08-14 18:00

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 鳥瞰這本書

    清晰,從時間序列分析的基礎(chǔ)理論出發(fā),逐步深入到機(jī)器學(xué)習(xí)算法時間
    發(fā)表于 08-12 11:28

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時間
    發(fā)表于 08-12 11:21

    【《時間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 了解時間序列

    。 可以探索現(xiàn)象發(fā)展變化的規(guī)律,對某些社會經(jīng)濟(jì)現(xiàn)象進(jìn)行預(yù)測。 利用時間序列可以不同地區(qū)或國家之間進(jìn)行對比分析,這也是統(tǒng)計
    發(fā)表于 08-11 17:55

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時間序列概述

    的應(yīng)用也很廣泛,用機(jī)器學(xué)習(xí)時間分析帶來新的可能性。人們往往可以通過過往的時間序列數(shù)據(jù)來預(yù)測
    發(fā)表于 08-07 23:03

    深度學(xué)習(xí)算法嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法各個領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺上,仍然是一個具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?1097次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是一個復(fù)雜但強(qiáng)大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時間序列
    的頭像 發(fā)表于 07-14 14:21 ?1795次閱讀

    深度學(xué)習(xí)中的時間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動特征提取和分類能力。本文將從多個角度對深度學(xué)習(xí)
    的頭像 發(fā)表于 07-09 15:54 ?653次閱讀

    基于深度學(xué)習(xí)的小目標(biāo)檢測

    )的廣泛應(yīng)用,小目標(biāo)檢測的性能得到了顯著提升。本文將詳細(xì)探討基于深度學(xué)習(xí)的小目標(biāo)檢測技術(shù),包括其定義、挑戰(zhàn)、常用方法以及未來發(fā)展方向。
    的頭像 發(fā)表于 07-04 17:25 ?703次閱讀

    名單公布!【書籍評測活動NO.35】如何用「時間序列與機(jī)器學(xué)習(xí)」解鎖未來?

    的火熱,全球金融市場的金融時間序列(如黃金價格、股票、期貨等)也應(yīng)用以深度學(xué)習(xí)(DL)為首的現(xiàn)代人工智能模型不斷進(jìn)行分析
    發(fā)表于 06-25 15:00

    時間序列分析的異常檢測綜述

    時間序列不同時點(diǎn)記錄一個或多個變量值的數(shù)據(jù)。例如,每天訪問網(wǎng)站的人數(shù)、每月城市的 average 溫度、每小時的股票價格等。時間序列非常
    的頭像 發(fā)表于 03-11 09:36 ?566次閱讀
    <b class='flag-5'>時間</b><b class='flag-5'>序列</b><b class='flag-5'>分析</b>的異常檢測綜述

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測,主要是通過對YOLOv8姿態(tài)評估模型自定義的數(shù)據(jù)集上訓(xùn)練,生成一個工件切割分離點(diǎn)
    的頭像 發(fā)表于 12-22 11:07 ?725次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置<b class='flag-5'>預(yù)測</b>

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測與圓心位置預(yù)測

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測與圓心位置預(yù)測,主要是通過對YOLOv8姿態(tài)評估模型自定義的數(shù)據(jù)集上訓(xùn)練,生成一個自定義的圓檢測與圓心定位
    的頭像 發(fā)表于 12-21 10:50 ?1673次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型訓(xùn)練實(shí)現(xiàn)圓檢測與圓心位置<b class='flag-5'>預(yù)測</b>