0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)是如何幫助我們提高噪聲消除的質(zhì)量的

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-11-18 09:07 ? 次閱讀

想像一下,你正在機(jī)場(chǎng)候機(jī),突然來了一通重要的商務(wù)電話,而你身處的背景有嘈雜的交談聲、飛機(jī)起飛的噪音、甚至還有機(jī)場(chǎng)廣播。這個(gè)時(shí)候打電話就很尷尬,生怕對(duì)方聽不清自己的聲音。

現(xiàn)在,英偉達(dá)推出了一款名為2Hz的產(chǎn)品,讓你接起電話并開始講話時(shí),噪聲突然消失,電話那頭的人聽不到任何干擾聲音。接下來論智將對(duì)這一技術(shù)詳細(xì)介紹,首先通過下面的視頻了解下這款產(chǎn)品的效果吧:

兩年前,我們決定創(chuàng)建一種技術(shù),當(dāng)人與人溝通交流時(shí),能完全屏蔽背景噪聲,讓溝通的過程更愉悅、智能。從那時(shí)開始,這個(gè)問題就一直成為我們關(guān)注的重點(diǎn)。

在這篇文章中,我們會(huì)了解,為什么噪聲抑制這么難、想創(chuàng)建實(shí)時(shí)的低延遲噪聲抑制系統(tǒng)都需要些什么、以及深度學(xué)習(xí)是如何幫助我們提高噪聲消除的質(zhì)量的。

目前的噪聲抑制技術(shù)

首先,我們要知道什么是噪聲抑制。在這篇文章中,噪聲抑制表示,當(dāng)你與他人通話時(shí),消除來自你所處背景中的噪聲,同時(shí)也會(huì)消除對(duì)方背景中的噪聲,如下圖所示:

噪聲抑制是雙向的

傳統(tǒng)的噪聲抑制方法

傳統(tǒng)的噪聲抑制技術(shù)通常用于一些設(shè)備的邊緣,例如手機(jī)、筆記本電腦、會(huì)議系統(tǒng)等等。這種方法看起來很直接,因?yàn)樵O(shè)備的邊緣是最先捕捉到用戶聲音的位置。一旦捕捉到聲音,設(shè)備會(huì)將雜音過濾掉,傳遞到對(duì)話的另一端。

十年前,手機(jī)通話的體驗(yàn)還非常差。但現(xiàn)在,越來越多的手機(jī)會(huì)配有多個(gè)麥克風(fēng),可以幫助抑制環(huán)境噪聲。

如下圖所示,現(xiàn)在的手機(jī)通常有兩個(gè)甚至多個(gè)麥克風(fēng),最新一代的iPhone有4個(gè)。第一個(gè)麥克風(fēng)在手機(jī)前面下部,最靠近用戶的嘴巴,可以直接捕捉用戶聲音。手機(jī)設(shè)計(jì)師將第二個(gè)麥克風(fēng)設(shè)計(jì)得盡量遠(yuǎn)離第一個(gè)麥克風(fēng),通常在手機(jī)背部的下方。

pixel 2016,黃色區(qū)域是麥克風(fēng)的位置

這兩個(gè)麥克風(fēng)都能捕捉到背景聲音,不過第一個(gè)能捕捉到更多人類聲音,第二個(gè)收到的人類聲音更少。之后通過軟件處理,生成一種接近清晰的人聲。

這種方法聽起來很簡(jiǎn)單,但事實(shí)上失敗的次數(shù)也很多。例如,當(dāng)通話者沒有說話時(shí),麥克風(fēng)接收到的全是噪音?;蛘哒f話者在打電話過程中會(huì)不斷晃動(dòng)手機(jī)等等,這種情況就難以處理了。

此外,兩個(gè)或兩個(gè)以上的麥克風(fēng)設(shè)計(jì)會(huì)給生產(chǎn)廠商增加難度,音頻/硬件/軟件工程師們必須在工業(yè)設(shè)計(jì)和語音質(zhì)量上做取舍。

目前,手機(jī)已經(jīng)能在嘈雜的環(huán)境中表現(xiàn)得不錯(cuò)了,雖然現(xiàn)在的噪聲抑制技術(shù)還不夠完美,但是的確在用戶體驗(yàn)上有了極大提升。

當(dāng)使用分離的麥克風(fēng)時(shí),尺寸因素又成為了一大問題,如圖所示,第一個(gè)和第二個(gè)麥克風(fēng)之間的距離必須符合最小距離要求,只有這樣才能既讓用戶聽得清,也能讓手機(jī)捕捉到清晰的人聲。

但是,直板似的手機(jī)不是唯一的通訊設(shè)備。可穿戴設(shè)備(智能手表、附著在胸部的麥克風(fēng)等)、筆記本電腦、平板電腦和智能語音助手等都和手機(jī)的設(shè)計(jì)有所不同。用戶會(huì)從設(shè)備的任意角度、距離進(jìn)行通話。在大多數(shù)情況下,很難有通用的噪聲抑制技術(shù)。

從多麥克風(fēng)設(shè)計(jì)轉(zhuǎn)移到單一麥克風(fēng)設(shè)計(jì)

多麥克風(fēng)的設(shè)計(jì)有幾點(diǎn)重要的缺點(diǎn):

它對(duì)尺寸有一定要求,只能用于手機(jī)或頭戴設(shè)備上;

多麥克風(fēng)的設(shè)計(jì)會(huì)導(dǎo)致音頻路徑非常復(fù)雜,需要更多硬件和代碼的支持。除此之外,第二個(gè)麥克風(fēng)打孔的位置也對(duì)工業(yè)生成有較高要求;

音頻只能在設(shè)備邊緣處理,所以算法可能無法支持過于復(fù)雜的計(jì)算。

那么是否有一種方法,可以將多個(gè)麥克風(fēng)合成一個(gè),將所有的后期處理都交給軟件?從而硬件設(shè)計(jì)更簡(jiǎn)單,也更高效。

傳統(tǒng)的數(shù)字信號(hào)處理(DSP)算法嘗試持續(xù)尋找噪聲模式,逐幀處理音頻。這些算法在特定案例中表現(xiàn)得很好,但是無法擴(kuò)展到日常場(chǎng)景中。

基礎(chǔ)噪聲的類型有兩類:靜止和非靜止的,如下圖所示:

白噪聲(靜止)和Chirp噪聲(非靜止)的聲譜圖

我們可以將靜止的噪聲想象成一直重復(fù)、但和人類語音不同的聲音。傳統(tǒng)的DSP算法(自適應(yīng)過濾)在消除這類噪聲時(shí)很有效。

而非靜止噪聲的模式非常復(fù)雜,和人類聲音的模型很相似,難以區(qū)分。它們的信號(hào)很短,并且出現(xiàn)的速度很快(類似在鍵盤上打字)。

如果想同時(shí)解決以上兩種噪聲,可能就要突破傳統(tǒng)數(shù)字信號(hào)處理技術(shù)了。我們認(rèn)為,深度學(xué)習(xí)是解決這一問題的重要方式,所以提出了2Hz。

用深度學(xué)習(xí)分離背景中的噪聲

2015年,Yong Xu等人曾發(fā)表論文,提出用深度學(xué)習(xí)進(jìn)行噪聲抑制。Yong提出一種回歸方法,通過學(xué)習(xí)為每個(gè)音頻率生成比例掩碼。生成的比例掩碼完全與人聲分離,并且可以刪除外部噪聲。雖然這種方法還不夠完美,也算一個(gè)很好的基礎(chǔ)了。

在接下來的幾年時(shí)間里,很多不同方法相繼出現(xiàn),高級(jí)別的方法幾乎相同,它們常常分為三步:

數(shù)據(jù)收集:將純凈的語音和噪音混合,生成大量合成的嘈雜數(shù)據(jù)集;

訓(xùn)練:將數(shù)據(jù)集輸入到DNN中,得出清晰的語音輸出。

推理:創(chuàng)建掩碼,將人聲與噪聲分離開。

在2Hz中,我們嘗試了多種DNN,最終得出了唯一的DNN架構(gòu),可以在多種場(chǎng)景下得出可靠的結(jié)果。平均MOS分?jǐn)?shù)上升了1.4,是目前最佳成績(jī)。

能否實(shí)現(xiàn)實(shí)時(shí)DNN?

延遲是實(shí)時(shí)對(duì)話中的重要問題。人類可以忍受的上限為200毫秒的延遲,否則的話就會(huì)影響通話效果。

影響端到端延遲的因素有三個(gè):網(wǎng)絡(luò)、計(jì)算和編解碼器。通常網(wǎng)絡(luò)延遲是主要因素。編解碼器的延遲根據(jù)不同模式可能會(huì)有5—80毫秒的延遲,但是目前所用的編解碼器已經(jīng)非常高效了。而計(jì)算的延遲則有多方面因素。

計(jì)算延遲讓DNN更具挑戰(zhàn)性。如果你想用DNN處理每一幀,結(jié)果很可能會(huì)造成嚴(yán)重的延遲。計(jì)算延遲取決于以下幾點(diǎn)因素:

計(jì)算平臺(tái)的能力

我們不可能在一臺(tái)頭戴設(shè)備中運(yùn)行大型DNN,因?yàn)橛?a target="_blank">CPU電源的限制。所以想做到實(shí)時(shí)處理非常困難,除非平臺(tái)有一臺(tái)加速器,可以快速進(jìn)行矩陣相乘,并且還不那么費(fèi)電。

DNN架構(gòu)

DNN的速度取決于有多少個(gè)超參數(shù)、DNN的層數(shù),以及節(jié)點(diǎn)進(jìn)行的什么操作。如果你想生成高質(zhì)量結(jié)果,那么DNN就不能太小。

音頻采樣率

DNN的表現(xiàn)取決于音頻采樣率,采樣率越高,得到的超參數(shù)就越多。

如何測(cè)試噪聲抑制算法?

測(cè)試聲音是否得到改善也是一個(gè)難題,因?yàn)槿硕茈y分辨細(xì)微的差別??墒?,目前也沒有公開的針對(duì)噪聲抑制效果的基準(zhǔn),所以對(duì)結(jié)果進(jìn)行比較比較有挑戰(zhàn)性。

大多數(shù)論文采用PESQ、MOS和STOI衡量結(jié)果。你提供一個(gè)原始聲音音頻和經(jīng)過處理的音頻,算法會(huì)生成一個(gè)分?jǐn)?shù)。

ETSI Room

另一種更專業(yè)的發(fā)方法是進(jìn)行主觀音頻測(cè)試,在不同標(biāo)準(zhǔn)體上測(cè)試看它們能否符合標(biāo)準(zhǔn)。

EGPP通訊組織創(chuàng)建了ETSI Room,如果你想將算法應(yīng)用到實(shí)際中,就必須在設(shè)備中安裝這一裝置。

這一設(shè)置能完美地將噪聲分離。它其中有一個(gè)智能機(jī)器人,內(nèi)置的揚(yáng)聲器會(huì)模擬聲音,另外在一定距離之外還有麥克風(fēng)。

這一設(shè)備能讓測(cè)試者用周圍的揚(yáng)聲器模擬不同噪聲,從機(jī)器人的揚(yáng)聲器里發(fā)出人聲,最終用算法處理捕捉到的音頻。這一切都能自動(dòng)進(jìn)行。

輸出噪聲和輸入噪聲

假設(shè)現(xiàn)在你正在和團(tuán)隊(duì)參加電話會(huì)議,總共有4人。所以潛在的噪聲就有4種,每個(gè)人都有可能制造背景噪聲。

傳統(tǒng)來說,噪聲抑制都在邊緣設(shè)備上,也就是僅限于麥克風(fēng)。你從麥克風(fēng)中得到信號(hào),一直噪聲,然后對(duì)信號(hào)進(jìn)行上采樣。

由于單一麥克風(fēng)的DNN方法只需要一個(gè)源流,你可以將它放置在任意地方。假設(shè)現(xiàn)在你想過濾掉麥克風(fēng)的信號(hào)(輸出噪聲)和聽到的揚(yáng)聲器中的信號(hào)(輸入噪聲)。我們創(chuàng)建了APP——Krisp,它可以處理兩種噪聲:

以下視頻演示了非靜止噪聲是如何被DNN過濾掉的:

對(duì)輸入噪聲抑制來說,問題變得越來越復(fù)雜了。你需要處理算法不常見的聲音和人聲變體。例如,你的團(tuán)隊(duì)可能會(huì)用到會(huì)議設(shè)備,或者離設(shè)備距離較遠(yuǎn)?;蛘哌h(yuǎn)程的人是從車?yán)锎虻碾娫?,帶來更多環(huán)境噪聲。另外,可能會(huì)有幾個(gè)人同事說話的情況,這樣又該怎樣判定哪些是噪聲呢?

有時(shí)聽到手機(jī)鈴聲響起,他應(yīng)該算是噪聲還是鈴聲?

轉(zhuǎn)向云計(jì)算

了解了噪聲抑制技術(shù)所需要的條件,而算法又是完全基于軟件的,那么它可以遷移到云上嗎?如下圖所示:

在云上進(jìn)行噪聲抑制有多種優(yōu)點(diǎn)

答案是肯定的。首先,基于云的噪聲抑制技術(shù)能在多種設(shè)備上運(yùn)行,另外,它能進(jìn)行雙向甚至多向工作。在過去,這是不可能的事,因?yàn)閭鹘y(tǒng)方法需要多個(gè)麥克風(fēng)。然而,深度學(xué)習(xí)技能支持單個(gè)麥克風(fēng),也能用云進(jìn)行計(jì)算。

現(xiàn)在,最大的問題就是算法的可擴(kuò)展性了。

GPU vs CPU

如果我們想讓算法足夠服務(wù)真實(shí)的因特網(wǎng)語音(VoIP)負(fù)載,我們就需要了解算法是如何工作的。

目前的大型VoIP設(shè)備可以支持10K—100K的流。有很多因素會(huì)影響媒體服務(wù)器可以支持的音頻流,其中最主要的因素就是服務(wù)器平臺(tái)。如下圖所示,基于云的媒體服務(wù)器和經(jīng)過優(yōu)化的裸機(jī)服務(wù)器相比,裸機(jī)服務(wù)器明顯勝出:

服務(wù)器必須價(jià)格實(shí)惠,才能讓消費(fèi)者看到優(yōu)勢(shì)。我們首先用CPU對(duì)2Hz做了實(shí)驗(yàn),單個(gè)CPU核可以處理最多10個(gè)平行流。

之后,我們?cè)贕PU上做了實(shí)驗(yàn),結(jié)果非常驚人。一個(gè)英偉達(dá)1080ti在沒有優(yōu)化的情況下可以擴(kuò)展到1000個(gè)流,經(jīng)過優(yōu)化最大可以達(dá)到3000個(gè)流。

用CUDA進(jìn)行批處理

讓我們來研究下,為什么GPU能比CPU強(qiáng)這么多。

CPU供應(yīng)商們一直以來將大量的時(shí)間和精力用于優(yōu)化和加速單線程架構(gòu),用算法和各種技術(shù)盡可能縮短單線程的時(shí)間。因?yàn)榇蠖鄶?shù)應(yīng)用都只需要一個(gè)線程,所以CPU制造者只需要發(fā)展結(jié)構(gòu)即可讓應(yīng)用發(fā)揮最大性能。

而GPU供應(yīng)商需要對(duì)很多平行任務(wù)進(jìn)行優(yōu)化,大量平行都需要3D圖形處理。

批處理(Batching)就是在GPU中平行處理的意思,你講一批數(shù)據(jù)輸入進(jìn)GPU中,經(jīng)過平行處理后再返回,這是音頻流處理的理想工具:

這里,我們用英偉達(dá)的CUDA庫(kù)直接在英偉達(dá)GPU上運(yùn)行這一過程。下方的代碼表示CUDA的矩陣相乘過程。

void kernelVectorMul(RealPtr dst, ConstRealPtr src1, ConstRealPtr src2, constsize_t n)

{

constsize_t i = threadIdx.x + blockIdx.x * blockDim.x;

if (i < n)

dst[i] = src1[i] * src2[i];

}

voidUtils::vectorMul(RealPtr dst, ConstRealPtr src1, ConstRealPtr src2, constsize_t n)

{

dim3 gridSize(n / getDeviceMaxThreadsX() + 1, 1, 1);

dim3 blockSize(getDeviceMaxThreadsX(), 1, 1);

kernelVectorMul <<< gridSize, blockSize >>> (dst, src1, src2, n);

}

voidUtils::vectorMul(Vector& dst, constVector& src1, constVector& src2)

{

vectorMul(dst.getData(), src1.getData(), src2.getData(), dst.getSize());

}

voidUtils::matrixMulRowByRow(Matrix& dst, constMatrix& src1, constMatrix& src2)

{

vectorMul(dst.getData(), src1.getData(), src2.getData(), dst.getSize());

}

下面是用CUDA進(jìn)行快速傅里葉變換的過程。

FFT::StatusType FFT::computeBackwardBatched(ComplexTypePtr src, RealTypePtr dst)

{

StatusType s = cufftExecC2R(backward_handle_, reinterpret_cast(src), dst);

dim3 gridSize((getBatchSize() * getForwardDataSize()) / thr_max_ + 1, 1, 1);

dim3 blockSize(thr_max_, 1, 1);

float val = getForwardDataSize();

kernelDivide <<< gridSize, blockSize >>> (dst, val, getBatchSize() * getForwardDataSize());

return s;

}

FFT::StatusType FFT::computeBackwardBatched(ComplexVector& src, Vector& dst)

{

return computeBackwardBatched(src.getData(), dst.getData());

}

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3637

    瀏覽量

    89864
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120593

原文標(biāo)題:英偉達(dá)用深度學(xué)習(xí)消除背景噪聲

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何消除噪聲干擾,提高測(cè)量的精準(zhǔn)度?

    如何消除噪聲干擾,提高測(cè)量的精準(zhǔn)度?
    發(fā)表于 05-10 06:29

    如何使用MATLAB幫助相關(guān)人員執(zhí)行深度學(xué)習(xí)任務(wù)

    MATLAB支持的模型有哪些呢?如何使用MATLAB幫助相關(guān)人員執(zhí)行深度學(xué)習(xí)任務(wù)呢?
    發(fā)表于 11-22 07:48

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的計(jì)算模型。作為具體示例,讓我們考慮一個(gè)輸入圖像
    發(fā)表于 02-17 16:56

    窺一窺深度學(xué)習(xí)這一黑盒子

    為了處理好視覺信息,我們引入結(jié)構(gòu)化學(xué)習(xí),學(xué)習(xí)輸出結(jié)構(gòu)化的信息在我們打開深度學(xué)習(xí)黑盒子的過程中是很
    的頭像 發(fā)表于 05-23 11:30 ?6575次閱讀
    窺一窺<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>這一黑盒子

    深度學(xué)習(xí)陷困境_人工智能遇瓶頸

    現(xiàn)在,深度學(xué)習(xí)面臨著無法進(jìn)行推理的困境,這也就意味著,它無法讓機(jī)器具備像人一樣的智能。但是真正的推理在機(jī)器中是什么樣子的呢?如果深度學(xué)習(xí)不能幫助我們
    的頭像 發(fā)表于 12-01 09:41 ?3196次閱讀

    深度學(xué)習(xí)和普通機(jī)器學(xué)習(xí)的區(qū)別

    本質(zhì)上,深度學(xué)習(xí)提供了一套技術(shù)和算法,這些技術(shù)和算法可以幫助我們對(duì)深層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行參數(shù)化——人工神經(jīng)網(wǎng)絡(luò)中有很多隱含層數(shù)和參數(shù)。深度學(xué)習(xí)
    的頭像 發(fā)表于 06-08 14:44 ?4351次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>和普通機(jī)器<b class='flag-5'>學(xué)習(xí)</b>的區(qū)別

    機(jī)器學(xué)習(xí)算法幫助我們做出更好的決定

    機(jī)器學(xué)習(xí)算法,可以幫助我們做出更好的決策,通過將人類的偏見最小化,使用更完整的數(shù)據(jù)集,或者彌補(bǔ)我們決策軟件中已知的缺陷。
    的頭像 發(fā)表于 08-14 16:47 ?2806次閱讀

    基于深度學(xué)習(xí)的視頻質(zhì)量評(píng)價(jià)方法及模型研究

    視頻質(zhì)量評(píng)價(jià)(VQA)是以人眼的主觀質(zhì)量評(píng)估結(jié)果為依據(jù),使用算法模型對(duì)失真視頻進(jìn)行評(píng)估。傳統(tǒng)的評(píng)估方法難以做到主觀評(píng)價(jià)結(jié)果與客觀評(píng)價(jià)結(jié)果相一致?;?b class='flag-5'>深度學(xué)習(xí)的視頻
    發(fā)表于 03-29 15:46 ?81次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的視頻<b class='flag-5'>質(zhì)量</b>評(píng)價(jià)方法及模型研究

    我們在如何基于深度學(xué)習(xí)做實(shí)時(shí)噪聲抑制

    在實(shí)時(shí)通訊技術(shù)迅猛發(fā)展的今天,人們對(duì)通話時(shí)的降噪要求也不斷提高。深度學(xué)習(xí)也被應(yīng)用于實(shí)時(shí)的噪聲抑制。本次LiveVideoStackCon 2021 上海站中,
    的頭像 發(fā)表于 05-13 10:28 ?2811次閱讀
    <b class='flag-5'>我們</b>在如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>做實(shí)時(shí)<b class='flag-5'>噪聲</b>抑制

    消除工廠中的噪聲

    消除工廠中的噪聲
    發(fā)表于 11-02 08:16 ?0次下載
    <b class='flag-5'>消除</b>工廠中的<b class='flag-5'>噪聲</b>

    RFID 技術(shù)幫助我們跟蹤幾乎任何事物

    新技術(shù)星期二:RFID 技術(shù)幫助我們跟蹤幾乎任何事物
    的頭像 發(fā)表于 12-29 10:02 ?766次閱讀

    靜電測(cè)試儀如何在生產(chǎn)中幫助我們

    靜電測(cè)試儀在生產(chǎn)中可以幫助我們進(jìn)行靜電防護(hù)和質(zhì)量控制。以下是它在生產(chǎn)中的具體幫助: 1. 靜電防護(hù):靜電測(cè)試儀可以用來測(cè)量物體表面的靜電電荷,通過監(jiān)測(cè)靜電電荷的大小和分布情況,預(yù)防靜電產(chǎn)生和積累
    的頭像 發(fā)表于 07-04 09:52 ?425次閱讀
    靜電測(cè)試儀如何在生產(chǎn)中<b class='flag-5'>幫助我們</b>

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?? 深度學(xué)習(xí)框架是一種軟件工具,它可以
    的頭像 發(fā)表于 08-17 16:03 ?2479次閱讀

    基于機(jī)器視覺和深度學(xué)習(xí)的焊接質(zhì)量檢測(cè)系統(tǒng)

    基于機(jī)器視覺和深度學(xué)習(xí)的焊接質(zhì)量檢測(cè)系統(tǒng)是一種創(chuàng)新性的技術(shù)解決方案,它結(jié)合了先進(jìn)的計(jì)算機(jī)視覺和深度學(xué)習(xí)算法,用于實(shí)時(shí)監(jiān)測(cè)和評(píng)估焊接過程中的焊
    的頭像 發(fā)表于 01-18 17:50 ?605次閱讀

    日常生活中,IP代理中的哪些功能可以幫助我們?

    IP代理作為一種網(wǎng)絡(luò)通信技術(shù),具有多種功能,可以幫助我們在多個(gè)方面提升網(wǎng)絡(luò)使用的便利性和安全性。IP代理在保護(hù)隱私、提高網(wǎng)絡(luò)訪問速度和性能、提供網(wǎng)絡(luò)安全保障、方便網(wǎng)絡(luò)管理以及支持爬蟲和數(shù)據(jù)采集、網(wǎng)絡(luò)營(yíng)銷等方面都具有重要作用。
    的頭像 發(fā)表于 09-14 08:04 ?77次閱讀