0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SiATL——最新、最簡(jiǎn)易的遷移學(xué)習(xí)方法

電子工程師 ? 來(lái)源:lp ? 2019-03-12 15:13 ? 次閱讀

EHR(電子健康記錄)數(shù)據(jù)中的持續(xù)AKI(急性腎損傷)預(yù)測(cè),全新、簡(jiǎn)單的遷移學(xué)習(xí),提高了圖像到圖像的翻譯,增強(qiáng)視頻中主體和行為分割,基于模型的強(qiáng)化學(xué)習(xí)應(yīng)用于Atari游戲,幾何感知的深度LiDAR測(cè)距,基于屬性的行人重識(shí)別,等等。

新模型可以不斷預(yù)測(cè)EHR數(shù)據(jù)中住院病人的AKI

一組來(lái)自美國(guó)的研究人員最近提出了一個(gè)模型,可以根據(jù)住院患者的EHR數(shù)據(jù)持續(xù)自動(dòng)預(yù)測(cè)AKI。AKI是指住院患者在幾天內(nèi)腎功能突然喪失,可導(dǎo)致極為嚴(yán)重的醫(yī)療并發(fā)癥,因此需要立即治療。好消息是,如果被發(fā)現(xiàn)的及時(shí),AKI是可以被預(yù)防的。更好的消息是,如果被快速診斷并治療,AKI或許是可痊愈的。

由于AKI的成功治療依賴于快速診斷,因此它是預(yù)測(cè)分析的完美候選。幾個(gè)機(jī)器學(xué)習(xí)預(yù)測(cè)模型已經(jīng)被建立,用于通過(guò)EHR數(shù)據(jù)預(yù)知住院病人AKI的情況。但是現(xiàn)有的模型只能在固定的時(shí)間范圍內(nèi)預(yù)測(cè)住院病人AKI,這個(gè)時(shí)間范圍可以是病人入院后24小時(shí)、48小時(shí)或更長(zhǎng)時(shí)間。這是一個(gè)挑戰(zhàn),因?yàn)椴∪饲闆r在幾個(gè)小時(shí)內(nèi)就可以顯著變化,這使得很多的AKI情況變得難以預(yù)測(cè)。

模型為住院病人持續(xù)預(yù)測(cè)AKI

在上述挑戰(zhàn)的激勵(lì)下,研究人員開發(fā)了一種新的模型,可以在患者住院期間出現(xiàn)AKI之前不斷預(yù)測(cè)AKI。新的模型方法可以在病人的數(shù)據(jù)每次發(fā)生變化時(shí)預(yù)測(cè)AKI,而不需要“等待”特定的時(shí)間來(lái)做出預(yù)測(cè)。這個(gè)模型被設(shè)計(jì)成使用EHR數(shù)據(jù)自動(dòng)工作,在需要時(shí)可以觸發(fā)警報(bào),因此不需要持續(xù)監(jiān)控。測(cè)試結(jié)果顯示,對(duì)比之前的傳統(tǒng)預(yù)測(cè)模型,該模型具有較高的預(yù)測(cè)精度和實(shí)時(shí)性。

潛在應(yīng)用與效果

這是醫(yī)療診斷里令人印象深刻的研究!由于能夠進(jìn)行連續(xù)的AKI預(yù)測(cè),新模型可以應(yīng)用于回避過(guò)去的預(yù)測(cè)模型所面臨的諸多缺點(diǎn),將住院患者從直接腎衰竭引起的眾多痛苦中拯救出來(lái),并從根本上降低之后的醫(yī)療成本。另外,該框架具有廣譜性,也可用于從EHR數(shù)據(jù)持續(xù)預(yù)測(cè)其他疾和障礙。

原文:

https://arxiv.org/abs/1902.10228v1

SiATL——最新、最簡(jiǎn)易的遷移學(xué)習(xí)方法

許多傳統(tǒng)的遷移學(xué)習(xí)方法都是利用預(yù)先訓(xùn)練好的語(yǔ)言模型(LMs)來(lái)實(shí)現(xiàn)的,這些模型已經(jīng)非常流行,并且具有翻譯上下文信息的能力、高級(jí)建模語(yǔ)法和語(yǔ)義語(yǔ)言特性,能夠在對(duì)象識(shí)別、機(jī)器翻譯、文本分類等許多任務(wù)中生成高質(zhì)量的結(jié)果。

然而,現(xiàn)有的LMs也面臨著一些缺點(diǎn),包括計(jì)算成本高和對(duì)特定任務(wù)架構(gòu)的需求。另外,很多模型需要對(duì)手頭任務(wù)進(jìn)行預(yù)訓(xùn)練和參數(shù)調(diào)整。然而,現(xiàn)在情況不同了,因?yàn)檠芯咳藛T最近發(fā)布了一種新的單步遷移學(xué)習(xí)方法,不需要預(yù)訓(xùn)練或參數(shù)調(diào)整。此外,新方法在所有任務(wù)中都優(yōu)于包括ULMFiT在內(nèi)的最先進(jìn)的轉(zhuǎn)移學(xué)習(xí)方法。

單步輔助損失遷移學(xué)習(xí)(SiATL)

SiATL是一種簡(jiǎn)單而有效的遷移學(xué)習(xí)方法,它解決了災(zāi)難性遺忘的問(wèn)題。SiATL結(jié)合了一個(gè)特定任務(wù)的函數(shù)和一個(gè)在訓(xùn)練過(guò)程中進(jìn)行調(diào)整的、基于預(yù)訓(xùn)練的LM的輔助LM損失,并將其權(quán)重重新分配給分類器。這項(xiàng)改變使得它能夠保存由語(yǔ)言模型捕獲的語(yǔ)言規(guī)則,同時(shí)為解決任務(wù)提供足夠的適應(yīng)性。

正如在介紹中提到的,SiATL并不要求預(yù)訓(xùn)練或參數(shù)調(diào)整,因此要使用起來(lái)真的非常便捷。該模型已經(jīng)在大量有挑戰(zhàn)性的文本分類任務(wù)中進(jìn)行測(cè)試,并且產(chǎn)生了相當(dāng)有競(jìng)爭(zhēng)力的結(jié)果,表現(xiàn)出其優(yōu)于尋常遷移學(xué)習(xí)方法的能力。

潛在應(yīng)用與效果

正如你已經(jīng)知道的,模型訓(xùn)練不必從零開始。SiATL能夠利用為一個(gè)任務(wù)訓(xùn)練的模型,并以一種相對(duì)直接的方式將其應(yīng)用到另一個(gè)領(lǐng)域。在數(shù)據(jù)不充分的情況下,它也可以派上用場(chǎng)。

對(duì)數(shù)據(jù)科學(xué)家和開發(fā)人員來(lái)說(shuō),SiATL提供了一種簡(jiǎn)單、廉價(jià)和實(shí)用的方法來(lái)加速模型訓(xùn)練,并具有遷移學(xué)習(xí)能力,從而為各種應(yīng)用程序(如語(yǔ)音識(shí)別智能視頻分析、問(wèn)題回答系統(tǒng)、醫(yī)學(xué)成像等)提供了更高的性能。

原文:

https://arxiv.org/abs/1902.10547v1

用一個(gè)簡(jiǎn)單的查詢分割視頻的主體和行為

受CV和NLP對(duì)對(duì)象檢索、對(duì)象跟蹤、人員搜索等領(lǐng)域的最新進(jìn)展啟發(fā),研究人員新提出了一種算法,能夠?qū)⒁曨l中的參與者及其動(dòng)作從自然語(yǔ)言查詢輸入中分割出來(lái)。現(xiàn)存的模型主要是通過(guò)主體或成對(duì)動(dòng)作的固定詞匯表來(lái)學(xué)習(xí)分割的,而新方法則是從自然語(yǔ)言輸入的查詢來(lái)推斷出分割的。不論你的輸入是一只飛翔的鳥或者跳躍的人,這一新模型都能結(jié)合視頻和語(yǔ)言信息來(lái)進(jìn)行高層次的像素級(jí)分割。

通過(guò)一個(gè)句子分割視頻中主體和行為

提出的全卷積模型實(shí)現(xiàn)了一種針對(duì)視頻進(jìn)行優(yōu)化的編解碼器體系結(jié)構(gòu),主要組件包括文本編碼器、視頻編碼器和解碼器。新模型不是在圖像分割中,而是在視頻分割中對(duì)參與者及其行為進(jìn)行優(yōu)化,使其能夠同時(shí)利用流和RGB。

研究人員擴(kuò)展了A2D和J-HMDB標(biāo)準(zhǔn)數(shù)據(jù)集,其中包含7000多個(gè)描述視頻內(nèi)容中出現(xiàn)的角色和動(dòng)作的文本語(yǔ)句,以展示新模型的潛在能力。結(jié)果表明,句子引導(dǎo)的像素級(jí)性能明顯優(yōu)于最先進(jìn)的算法。

潛在效果與效應(yīng)

實(shí)驗(yàn)證明了模型的實(shí)用性和魯棒性,這一成果能夠幫助研究人員和實(shí)踐者理解視頻中分割成對(duì)的主體和行為。該模型具有泛化特征,是實(shí)現(xiàn)在視覺信號(hào)處理、高級(jí)視頻分析與處理、醫(yī)學(xué)成像、三維結(jié)構(gòu)等方面更高效應(yīng)用的重要資源工具。

原文:

https://arxiv.org/abs/1803.07485v1

針對(duì)Atari游戲的基于模型的強(qiáng)化學(xué)習(xí)

當(dāng)涉及到學(xué)習(xí)執(zhí)行復(fù)雜任務(wù)的有效策略時(shí)(例如玩Atari游戲)無(wú)模型的強(qiáng)化學(xué)習(xí)很合適。然而,雖然人類玩家可以在幾分鐘內(nèi)學(xué)會(huì)如何玩Atari游戲,但為機(jī)器開發(fā)基于模型的RL模型是復(fù)雜的,因?yàn)樗枰獰o(wú)數(shù)的交互和大量的訓(xùn)練時(shí)間。

雖然這些方法的復(fù)雜性在近年來(lái)有了很大的降低,但與人類玩家學(xué)習(xí)Atari游戲所需的經(jīng)驗(yàn)相比,它的復(fù)雜性仍然要高得多。有一些基于模型的RL成功案例,比如TD-gammon。但是,后來(lái)的大多數(shù)嘗試,包括國(guó)際象棋和圍棋,都沒有這么成功。

針對(duì)Atari的模擬策略強(qiáng)化學(xué)習(xí)(SimPLe)

研究人員專注于探索學(xué)習(xí)視頻模型如何在Atari學(xué)習(xí)環(huán)境(ALE)基準(zhǔn)中實(shí)現(xiàn)學(xué)習(xí),預(yù)算限制在10萬(wàn)步(大約2小時(shí)游戲時(shí)間)。

他們提出了一個(gè)完整的基于模型的深度RL算法SimPLe,它在基于模型的強(qiáng)化學(xué)習(xí)中超越了最先進(jìn)的模型。經(jīng)過(guò)與現(xiàn)有方法的簡(jiǎn)單測(cè)試和比較,新方法只用10萬(wàn)次交互即可獲得有競(jìng)爭(zhēng)力的結(jié)果,相當(dāng)于兩個(gè)小時(shí)的實(shí)時(shí)游戲。

潛在應(yīng)用與效果

SimPLe有潛在的隨機(jī)隱變量并因此可以被應(yīng)用于隨機(jī)領(lǐng)域。基于隨機(jī)預(yù)測(cè)模型的基于模型的RL是一種很有前途的、高效的替代無(wú)模型RL的方法,因?yàn)樗梢杂糜谏筛弑U娴哪M環(huán)境,以及用于機(jī)器人自動(dòng)駕駛等高端應(yīng)用的真實(shí)世界數(shù)據(jù)。

原文:

https://arxiv.org/abs/1903.00374v1

幾何感知的深度激光雷達(dá)測(cè)程法

通常,測(cè)程法模塊是基于模型的,主要使用RGB-D相機(jī)和激光雷達(dá)。雖然這樣的模塊具有很高的性能,但基于模型的方法面臨著很多挑戰(zhàn),包括易受環(huán)境干擾和參數(shù)選擇問(wèn)題等等。也就是說(shuō),在使用激光雷達(dá)進(jìn)行基于學(xué)習(xí)的測(cè)距問(wèn)題上,人們的努力已經(jīng)達(dá)到一定瓶頸了。

基于學(xué)習(xí)的激光雷達(dá)深度學(xué)習(xí)方法已經(jīng)在過(guò)去的許多研究工作中得到了回顧,研究人員使用一個(gè)有監(jiān)督的學(xué)習(xí)框架,并面臨著將密集點(diǎn)云處理成深度神經(jīng)網(wǎng)絡(luò)的挑戰(zhàn)。由于以前的方法依賴于有監(jiān)督的學(xué)習(xí),這種學(xué)習(xí)需要有標(biāo)記序列的基本事實(shí),因此研究人員現(xiàn)在已經(jīng)提出了一種無(wú)監(jiān)督的深度激光雷達(dá)測(cè)程法。

深度學(xué)習(xí)測(cè)程方法

DeepLo是一種新的方法,它代表了LiDAR中第一個(gè)無(wú)監(jiān)督的基于學(xué)習(xí)的測(cè)程法。DeepLo將迭代最近點(diǎn)(ICP)技術(shù)整合到深度學(xué)習(xí)框架中,可以使用有監(jiān)督或無(wú)監(jiān)督的方法進(jìn)行訓(xùn)練。它還集成了兩個(gè)損失函數(shù),允許在訓(xùn)練階段中根據(jù)參數(shù)將模型在有監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)之間切換。為了有效的進(jìn)行無(wú)監(jiān)督訓(xùn)練和預(yù)測(cè),研究人員將頂點(diǎn)和法向圖作為輸入,并將其用于損失計(jì)算。

DeepLo已經(jīng)使用著名的Kitti和牛津Robotcar標(biāo)準(zhǔn)基準(zhǔn)數(shù)據(jù)集進(jìn)行了評(píng)估。新的方法被證明具有更高的性能和效率。

潛在應(yīng)用及效果

自主的研究人員和工程師,以及整個(gè)人工智能社區(qū),無(wú)論配置或硬件類型如何,都可以將DeepLo用于激光雷達(dá)點(diǎn)云,以在模型訓(xùn)練期間實(shí)現(xiàn)可擴(kuò)展性和靈活性。

DeepLo還為他們提供了實(shí)現(xiàn)有效的同時(shí)定位和繪圖(SLAM)的能力,可用于各種應(yīng)用,如自動(dòng)汽車、機(jī)器人、3D繪圖等。

原文:

https://arxiv.org/abs/1902.10562v1

統(tǒng)一集成方法提高Q-Learning性能

集成方法通過(guò)裝袋或增強(qiáng)來(lái)減少誤差或提高準(zhǔn)確性,從而改善機(jī)器學(xué)習(xí)(ML)模型。集成方法也被用于強(qiáng)化學(xué)習(xí)(RL),即在不同的RL操作上使用聚合機(jī)制來(lái)實(shí)現(xiàn)穩(wěn)定性,提高收斂速度或改進(jìn)探索行為。

但是,如果你能使用集成方法來(lái)獲得更高的性能和準(zhǔn)確性呢?新的研究表明,你可以通過(guò)社會(huì)理論來(lái)改善Q-Learning。

組合集成方法有助于提高模型性能

一組研究者已經(jīng)證明,可以通過(guò)平行引入社會(huì)選擇理論中的委員會(huì)投票規(guī)則來(lái)實(shí)現(xiàn)很多集成方法。他們已經(jīng)將在集成方法中設(shè)計(jì)動(dòng)作聚合機(jī)制的挑戰(zhàn)映射到具有不同投票規(guī)則的投票問(wèn)題中,這些投票規(guī)則已經(jīng)產(chǎn)生了流行的基于集成的RL算法,例如多數(shù)投票Q-Learning或自舉Q-Learning。

與傳統(tǒng)方法不同,新的統(tǒng)一方法允許人工智能設(shè)計(jì)者創(chuàng)建性能更好的集成RL算法。例如,研究人員將兩個(gè)以多樣性為中心的委員會(huì)投票規(guī)則(包括單一不可轉(zhuǎn)讓投票規(guī)則和Chamberlin-Courant規(guī)則)映射到全新的RL算法中,這些算法在測(cè)試實(shí)驗(yàn)中表現(xiàn)出了出色的探索性行為。

潛在應(yīng)用及效果

由于計(jì)算能力不斷增強(qiáng),開發(fā)人員可以在合理的時(shí)間范圍內(nèi)訓(xùn)練大型集成學(xué)習(xí)模型,因此其應(yīng)用潛力會(huì)不斷增強(qiáng)。

統(tǒng)一集成方法可用于減少訓(xùn)練數(shù)據(jù)過(guò)度擬合的挑戰(zhàn)。此外,它們還可用于增強(qiáng)遙感,航拍制圖,計(jì)算機(jī)安全,欺詐檢測(cè),人臉識(shí)別,基于財(cái)務(wù)的決策,健康應(yīng)用,災(zāi)害監(jiān)測(cè)中的變更檢測(cè)等方面。

原文:

https://arxiv.org/abs/1902.10646v1

屬性輔助部分檢測(cè)和人員再識(shí)別的改進(jìn)

近年來(lái),人員的再識(shí)別受到了研究界和業(yè)界的廣泛關(guān)注。而且,雖然這一領(lǐng)域已經(jīng)相對(duì)成熟并吸引了許多人工智能研究人員,但視覺視角的變化、被檢測(cè)者姿態(tài)的不確定性仍然給它的應(yīng)用帶來(lái)了巨大的挑戰(zhàn)。當(dāng)試圖判斷兩個(gè)圖像是否具有相同的身份時(shí),這些挑戰(zhàn)可能會(huì)使結(jié)果出現(xiàn)較大偏差。

此外,由于人體目標(biāo)檢測(cè)仍然使用傳統(tǒng)的方法,邊界框可能是不準(zhǔn)確的,當(dāng)這一缺陷結(jié)合到人體的姿勢(shì)變化時(shí),會(huì)導(dǎo)致兩個(gè)圖像之間出現(xiàn)空間錯(cuò)位。同樣,我們也不能忽視在現(xiàn)實(shí)的視頻監(jiān)控場(chǎng)景中經(jīng)常出現(xiàn)的遮擋問(wèn)題。

為了解決這些問(wèn)題,研究人員一直在繼續(xù)尋找更好的人員再識(shí)別模型,包括采用深度學(xué)習(xí)特征表示。

屬性輔助部分檢測(cè)和改進(jìn)(APDR)模型

在過(guò)去的研究中,人員再識(shí)別任務(wù)的屬性學(xué)習(xí)已經(jīng)被研究過(guò)了,并且在被視為中級(jí)語(yǔ)義特征時(shí)顯示出了巨大的潛力。

研究人員使用屬性學(xué)習(xí)過(guò)程作為定位器來(lái)處理偏差問(wèn)題。這是算法史上首次將屬性學(xué)習(xí)的感知能力公開地運(yùn)用到人的識(shí)別任務(wù)中。

他們?cè)O(shè)計(jì)了一個(gè)簡(jiǎn)單但有效的模型來(lái)通過(guò)屬性識(shí)別人。為了進(jìn)行有效的表示,模型會(huì)利用融合后的屬性信息過(guò)濾掉不可用的信息。APDR已經(jīng)在兩個(gè)流行的基準(zhǔn)上進(jìn)行了全面的測(cè)試,其中包括Market-1501和DukeMTMC-reID。與最先進(jìn)的模型相比,該模型具有有效性和競(jìng)爭(zhēng)力。

潛在應(yīng)用及效果

這一新方法能夠促進(jìn)人員再識(shí)別任務(wù)的執(zhí)行。它對(duì)正在進(jìn)行的研究工作、圖像檢索任務(wù)和視頻監(jiān)控應(yīng)用具有重要意義。

原文:

https://arxiv.org/abs/1902.10528v1

通過(guò)轉(zhuǎn)換矢量學(xué)習(xí)實(shí)現(xiàn)圖像到圖像的轉(zhuǎn)換

過(guò)去一段時(shí)間里人們對(duì)圖像到圖像的轉(zhuǎn)換越來(lái)越感興趣。這主要是因?yàn)榛谘h(huán)一致性假設(shè)的無(wú)監(jiān)督模型成功地推動(dòng)了這一領(lǐng)域的發(fā)展。然而,上述成功僅限于特定的子領(lǐng)域類別,如以樣式或紋理差異為標(biāo)志的領(lǐng)域。

最近,一組研究人員已經(jīng)解決了這個(gè)具有挑戰(zhàn)性的問(wèn)題,并通過(guò)一個(gè)全新的模型證明了域可以通過(guò)樣式和紋理來(lái)定義,從而包含任何圖像混亂和異質(zhì)性。

轉(zhuǎn)換矢量學(xué)習(xí)GAN(TraVeLGAN)

TraVeLGAN是研究人員最近發(fā)布的一種全新方法,用于實(shí)現(xiàn)無(wú)監(jiān)督域映射。還記得傳統(tǒng)的GAN網(wǎng)絡(luò)嗎?

它引入了一個(gè)鑒別器網(wǎng)絡(luò)來(lái)引導(dǎo)生成器在目標(biāo)域生成圖像。TraVeLGAN在原始的兩個(gè)網(wǎng)絡(luò)中添加了第三個(gè)網(wǎng)絡(luò)——一個(gè)siamese網(wǎng)絡(luò)——作為生成器的指導(dǎo),這樣每個(gè)原始圖像都可以與其相應(yīng)的生成版本共享語(yǔ)義。

因此,這三個(gè)網(wǎng)絡(luò)系統(tǒng)使得生成器網(wǎng)絡(luò)不必受到當(dāng)前周期一致性限制的約束。最終的結(jié)果是,生成器模型可以學(xué)習(xí)復(fù)雜域之間的映射,這些復(fù)雜域之間的映射在樣式和紋理方面有所不同。

潛在應(yīng)用及效果

TraVeLGAN無(wú)疑將圖像和對(duì)象操作提升到了另一個(gè)層次。人工智能社區(qū)可以應(yīng)用這一方法在一個(gè)圖像集合中捕獲特殊特征,并將它們轉(zhuǎn)換為完全不同的圖像集合。

其他應(yīng)用還包括繪畫中的圖片生成、一般圖像處理、圖像增強(qiáng)、圖像中的顏色和紋理變化、對(duì)象變形、自動(dòng)駕駛場(chǎng)景的翻譯、采集樣式轉(zhuǎn)換等。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:最新最簡(jiǎn)易的遷移學(xué)習(xí)方法,人員再識(shí)別新模型 | AI一周學(xué)術(shù)

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    快速的學(xué)習(xí)方法?

    有老師跟我說(shuō)學(xué)習(xí)方法,直接從模塊化電路 一個(gè)一個(gè)的學(xué),不明白的再看電路基礎(chǔ)的相關(guān)章節(jié),這樣好嗎?有沒有 具體 有哪些模塊,求詳細(xì)說(shuō)下,,或有其他快速學(xué)習(xí)方法.請(qǐng)指點(diǎn)下.
    發(fā)表于 06-25 22:28

    統(tǒng)計(jì)的學(xué)習(xí)方法

    統(tǒng)計(jì)學(xué)習(xí)方法感知機(jī)
    發(fā)表于 07-15 10:33

    STM32的學(xué)習(xí)方法分享?

    STM32的學(xué)習(xí)方法
    發(fā)表于 08-14 04:00

    遷移學(xué)習(xí)

    函數(shù)的深度遷移學(xué)習(xí)基于對(duì)抗網(wǎng)絡(luò)的深度遷移學(xué)習(xí)深度異構(gòu)遷移學(xué)習(xí)方法介紹深度領(lǐng)域泛化
    發(fā)表于 04-21 15:15

    STM32的學(xué)習(xí)方法

    STM32學(xué)習(xí)方法
    發(fā)表于 09-28 06:18

    模擬電子電路的學(xué)習(xí)方法

    模擬電子電路的學(xué)習(xí)方法
    發(fā)表于 08-07 15:49 ?252次下載
    模擬電子電路的<b class='flag-5'>學(xué)習(xí)方法</b>

    嵌入式linux學(xué)習(xí)方法總結(jié)

    嵌入式linux學(xué)習(xí)方法總結(jié) 嵌入式linux的學(xué)習(xí)現(xiàn)在挺流行
    發(fā)表于 09-10 10:44 ?3523次閱讀

    ZigBee 簡(jiǎn)介和學(xué)習(xí)方法

    zigbee簡(jiǎn)介以及學(xué)習(xí)方法,ZigBee的歷史發(fā)展前景。
    發(fā)表于 04-15 14:07 ?14次下載

    基于多模態(tài)特征數(shù)據(jù)的多標(biāo)記遷移學(xué)習(xí)方法的早期阿爾茨海默病診斷

    針對(duì)當(dāng)前基于機(jī)器學(xué)習(xí)的早期阿爾茨海默?。ˋD)診斷中訓(xùn)練樣本不足的問(wèn)題,提出一種基于多模態(tài)特征數(shù)據(jù)的多標(biāo)記遷移學(xué)習(xí)方法,并將其應(yīng)用于早期阿爾茨海默病診斷。所提方法框架主要包括兩大模塊:
    發(fā)表于 12-14 11:22 ?3次下載

    機(jī)器學(xué)習(xí)方法遷移學(xué)習(xí)的發(fā)展和研究資料說(shuō)明

    近年來(lái),遷移學(xué)習(xí)已經(jīng)引起了廣泛的關(guān)注和研究。遷移學(xué)習(xí)是運(yùn)用已存有的知識(shí)對(duì)不同但相關(guān)領(lǐng)域問(wèn)題進(jìn)行求解的一種新的機(jī)器學(xué)習(xí)方法。它放寬了傳統(tǒng)機(jī)器
    發(fā)表于 07-17 08:00 ?0次下載
    機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的發(fā)展和研究資料說(shuō)明

    基于生成對(duì)抗網(wǎng)絡(luò)的雙循環(huán)遷移排序學(xué)習(xí)方法

    遷移排序學(xué)習(xí)是信息檢索領(lǐng)域中一個(gè)重要的硏究方向,它利用帶標(biāo)簽的源域數(shù)據(jù)來(lái)解決沒有標(biāo)簽?zāi)繕?biāo)域數(shù)據(jù)的排序問(wèn)題。已有的遷移排序學(xué)習(xí)方法并沒有直接解決源域與目標(biāo)域的數(shù)據(jù)分布不一樣的問(wèn)題。因此本
    發(fā)表于 06-07 15:36 ?4次下載

    基于腦電信號(hào)掃視軌跡的異質(zhì)遷移學(xué)習(xí)方法

    基于腦電信號(hào)掃視軌跡的異質(zhì)遷移學(xué)習(xí)方法
    發(fā)表于 06-07 15:41 ?12次下載

    面向異質(zhì)信息的網(wǎng)絡(luò)表示學(xué)習(xí)方法綜述

    面向異質(zhì)信息的網(wǎng)絡(luò)表示學(xué)習(xí)方法綜述
    發(fā)表于 06-09 14:12 ?13次下載

    聯(lián)合學(xué)習(xí)在傳統(tǒng)機(jī)器學(xué)習(xí)方法中的應(yīng)用

    聯(lián)合學(xué)習(xí)在傳統(tǒng)機(jī)器學(xué)習(xí)方法中的應(yīng)用
    的頭像 發(fā)表于 07-05 16:30 ?734次閱讀
    聯(lián)合<b class='flag-5'>學(xué)習(xí)</b>在傳統(tǒng)機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>中的應(yīng)用

    梳理單片機(jī)學(xué)習(xí)方法、產(chǎn)品開發(fā)流程

    梳理單片機(jī)學(xué)習(xí)方法、產(chǎn)品開發(fā)流程
    的頭像 發(fā)表于 09-21 17:20 ?613次閱讀
    梳理單片機(jī)<b class='flag-5'>學(xué)習(xí)方法</b>、產(chǎn)品開發(fā)流程