0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種自監(jiān)督同變注意力機(jī)制,利用自監(jiān)督方法來(lái)彌補(bǔ)監(jiān)督信號(hào)差異

5b9O_deeplearni ? 來(lái)源:深度學(xué)習(xí)大講堂 ? 2020-05-12 10:16 ? 次閱讀

編者按:近日,計(jì)算機(jī)視覺(jué)頂會(huì) CVPR 2020 接收論文結(jié)果揭曉,從 6656 篇有效投稿中錄取了 1470 篇論文,錄取率約為 22%。中科院VIPL實(shí)驗(yàn)室共七篇論文錄取,內(nèi)容涉及弱監(jiān)督語(yǔ)義分割、活體檢測(cè)、手勢(shì)識(shí)別、視覺(jué)問(wèn)答、行人搜索、無(wú)監(jiān)督領(lǐng)域自適應(yīng)方法等方面,本文將予以詳細(xì)介紹。

01

1. Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation (Yude Wang, Jie Zhang, Meina Kan, Shiguang Shan, Xilin Chen)

基于類別標(biāo)簽的弱監(jiān)督語(yǔ)義分割作為一個(gè)具有挑戰(zhàn)性的問(wèn)題在近年來(lái)得到了深入的研究,而類別響應(yīng)圖(class activation map,簡(jiǎn)稱CAM)始終是這一領(lǐng)域的基礎(chǔ)方法。但是由于強(qiáng)監(jiān)督與弱監(jiān)督信號(hào)之間存在差異,由類別標(biāo)簽生成的CAM無(wú)法很好地貼合物體邊界。

本文提出了一種自監(jiān)督同變注意力機(jī)制(self-supervised equivariant attention mechanism,簡(jiǎn)稱SEAM),利用自監(jiān)督方法來(lái)彌補(bǔ)監(jiān)督信號(hào)差異。在強(qiáng)監(jiān)督語(yǔ)義分割的數(shù)據(jù)增廣階段,像素層級(jí)標(biāo)注和輸入圖像需經(jīng)過(guò)相同的仿射變換,自此這種同變性約束被隱式地包含,而這種約束在只有類別標(biāo)簽的CAM的訓(xùn)練過(guò)程中是缺失的。因此,我們利用經(jīng)過(guò)不同仿射變換的圖片得到的類別響應(yīng)圖本應(yīng)滿足的同變性來(lái)為網(wǎng)絡(luò)訓(xùn)練提供自監(jiān)督信號(hào)。除此之外,我們提出像素相關(guān)模塊(pixel correlation module,簡(jiǎn)稱PCM),通過(guò)發(fā)掘圖像表觀信息,利用相似像素的特征來(lái)修正當(dāng)前像素的預(yù)測(cè)結(jié)果,從而增強(qiáng)CAM預(yù)測(cè)結(jié)果的一致性。我們的方法在PASCAL VOC 2012數(shù)據(jù)集上進(jìn)行了充分的實(shí)驗(yàn),驗(yàn)證了算法的有效性,并取得當(dāng)前最好性能。

02

2. Single-Side Domain Generalization for Face Anti-Spoofing (Yunpei Jia, Jie Zhang, Shiguang Shan, Xilin Chen)

由于不同數(shù)據(jù)集之間存在差異,很多活體檢測(cè)方法進(jìn)行跨數(shù)據(jù)集測(cè)試時(shí)性能下降明顯?,F(xiàn)有的一些方法借用領(lǐng)域泛化的思想,利用多個(gè)已有的源域數(shù)據(jù)去訓(xùn)練模型,以得到一個(gè)領(lǐng)域不變的特征空間,從而在未知的目標(biāo)域中進(jìn)行測(cè)試時(shí)能利用學(xué)習(xí)到的通用判別特征,去提升模型的泛化性能。但是,由于不同數(shù)據(jù)集之間,攻擊樣本相對(duì)于正常樣本存在更大的差異(比如說(shuō)攻擊方式的不同,攻擊樣本之間采集的環(huán)境差異),努力讓這些攻擊樣本去學(xué)習(xí)一個(gè)領(lǐng)域不變的特征空間是比較困難的,通常會(huì)得到一個(gè)次優(yōu)解,如下圖左邊所示。因此,針對(duì)這一個(gè)問(wèn)題,我們提出來(lái)一個(gè)端到端的單邊領(lǐng)域泛化框架,以進(jìn)一步提升模型的性能。

其中主要思想在于,對(duì)于不同數(shù)據(jù)集中的正常樣本,我們?nèi)W(xué)習(xí)一個(gè)領(lǐng)域不變的特征空間;但是對(duì)于不同數(shù)據(jù)集中的攻擊樣本,我們?nèi)W(xué)習(xí)一個(gè)具有分辨性的特征空間,使相同數(shù)據(jù)集中的攻擊樣本盡可能接近,而不同數(shù)據(jù)集中的攻擊樣本盡可能遠(yuǎn)離。最終效果會(huì)使攻擊樣本在特征空間中張成更大的區(qū)域,而正常樣本僅僅處在一個(gè)緊湊的區(qū)域中,從而能夠?qū)W習(xí)到一個(gè)對(duì)于正常樣本包圍更緊致的分類器,以達(dá)到在未知的目標(biāo)域上更好的性能,如下圖右邊所示。

具體來(lái)說(shuō),我們引用一個(gè)域判別器,利用一種單邊的對(duì)抗學(xué)習(xí),讓特征提取器僅僅對(duì)于正常樣本提取更具有泛化性能的特征。并且,我們提出一個(gè)不均衡的三元組損失函數(shù),讓不同數(shù)據(jù)集之間的正常樣本盡可能接近而攻擊樣本盡可能遠(yuǎn)離,以使得攻擊樣本在特征空間中張成一個(gè)更大的范圍。同時(shí),我們還引入了特征和參數(shù)歸一化的思想,進(jìn)一步地提升模型的性能。大量實(shí)驗(yàn)表明,我們提出的方法是有效的,并且在四個(gè)公開(kāi)數(shù)據(jù)庫(kù)上均達(dá)到了最優(yōu)的性能。

03

3. Cross-domain Face Presentation Attack Detection via Multi-domain Disentangled Representation Learning (Guoqing Wang, Hu Han, Shiguang Shan, Xilin Chen)

目前,人臉呈現(xiàn)攻擊檢測(cè)(Presentation Attack Detection, 簡(jiǎn)稱PAD)成為人臉識(shí)別系統(tǒng)中一個(gè)亟待解決的問(wèn)題。傳統(tǒng)的方法通常認(rèn)為測(cè)試集和訓(xùn)練集來(lái)自于同一個(gè)域,結(jié)果表明這些方法并不能很好的推廣到未知場(chǎng)景中,因?yàn)閷W(xué)到的特征表示可能會(huì)對(duì)訓(xùn)練集中的身份、光照等信息產(chǎn)生過(guò)擬合。

為此,本文針對(duì)跨域人臉呈現(xiàn)攻擊檢測(cè)提出一種高效的特征解耦方法。我們的方法包含特征解耦模塊(DR-Net)和多域?qū)W習(xí)模塊(MD-Net)。DR-Net通過(guò)生成模型學(xué)習(xí)了一對(duì)特征編碼器,可以解耦得到PAD相關(guān)的特征和身份信息相關(guān)的特征。MD-Net利用來(lái)自于不同域中解耦得到的特征進(jìn)一步學(xué)習(xí)和解耦,得到與域無(wú)關(guān)的解耦特征。在當(dāng)前公開(kāi)的幾個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證了所提方法的有效性。

04

4. An Efficient PointLSTM Network for Point Clouds based Gesture Recognition (Yuecong Min, Yanxiao Zhang, Xiujuan Chai, Xilin Chen)

現(xiàn)有的手勢(shì)識(shí)別方法往往采用視頻或骨架點(diǎn)序列作為輸入,但手部在整張圖片中所占比例較小,基于視頻的方法往往受限于計(jì)算量并且更容易過(guò)擬合,而基于骨架點(diǎn)的方法依賴于獲取的手部骨架點(diǎn)的精度。

本文提出了一個(gè)基于點(diǎn)云序列的長(zhǎng)短期記憶模塊 (PointLSTM),可以直接從手部點(diǎn)云序列中捕獲手型特征和手部運(yùn)動(dòng)軌跡。該模塊為點(diǎn)云序列中的每一個(gè)點(diǎn)保留了獨(dú)立的狀態(tài),在更新當(dāng)前點(diǎn)的狀態(tài)時(shí),通過(guò)一個(gè)權(quán)值共享的LSTM融合時(shí)空相鄰點(diǎn)的狀態(tài)和當(dāng)前點(diǎn)的特征,可以在保留點(diǎn)云空間結(jié)構(gòu)的同時(shí)提取長(zhǎng)時(shí)序的空間和時(shí)序信息。此外,本文還提出了一個(gè)幀內(nèi)狀態(tài)共享的模塊(PointLSTM-PSS)用于簡(jiǎn)化計(jì)算量和分析性能提升來(lái)源。我們?cè)趦蓚€(gè)手勢(shì)識(shí)別數(shù)據(jù)集 (NVGesture和SHREC’17) 和一個(gè)動(dòng)作識(shí)別數(shù)據(jù)集 (MSR Action3D) 上驗(yàn)證了方法的有效性和泛化能力,提出的模型在4096個(gè)點(diǎn)(32幀,每幀采樣128點(diǎn))的規(guī)模下,優(yōu)于目前最好的基于手部骨架點(diǎn)序列的手勢(shì)識(shí)別方法和基于點(diǎn)云序列的動(dòng)作識(shí)別方法。

05

5. Multi-Modal Graph Neural Network for Joint Reasoning on Vision and Scene Text (Difei Gao, Ke li, Ruiping Wang, Shiguang Shan, Xilin Chen)

場(chǎng)景圖像中的文字通常會(huì)包含豐富的信息,比如,飯店的名字,產(chǎn)品的信息,等等。能夠理解這些場(chǎng)景文字,并回答與此相關(guān)的自然語(yǔ)言問(wèn)題(即,場(chǎng)景文字問(wèn)答任務(wù),Text VQA)的智能體也將會(huì)有非常廣泛的應(yīng)用前景。然而,對(duì)于當(dāng)前的模型,場(chǎng)景文字問(wèn)答任務(wù)仍十分具有挑戰(zhàn)。其關(guān)鍵的難點(diǎn)之一就是真實(shí)場(chǎng)景當(dāng)中會(huì)出現(xiàn)大量的不常見(jiàn)的,多義的或有歧義的單詞,比如,產(chǎn)品的標(biāo)簽,球隊(duì)的名稱等等。要想讓模型理解這些單詞的含義,僅僅訴諸于詞表有限的預(yù)訓(xùn)練單詞嵌入表示(word embedding)是遠(yuǎn)遠(yuǎn)不夠的。一個(gè)理想的模型應(yīng)該能夠根據(jù)場(chǎng)景中周圍豐富的多模態(tài)的信息推測(cè)出這些單詞的信息,比如,瓶子上顯著的單詞很有可能就是它的牌子。

根據(jù)這樣的思路,我們提出了一種新的視覺(jué)問(wèn)答模型,多模態(tài)圖神經(jīng)網(wǎng)絡(luò)(Multi-Modal Graph Neural Network,MM-GNN),它可以捕獲圖片當(dāng)中各種模態(tài)的信息來(lái)推理出未知單詞的含義。具體來(lái)說(shuō),如下圖所示,我們的模型首先用三個(gè)不同模態(tài)的子圖來(lái)分別表示圖像中物體的視覺(jué)信息,文本的語(yǔ)言信息,以及數(shù)字型文本的數(shù)值信息。然后,我們引入三種圖網(wǎng)絡(luò)聚合器(aggregator),它們引導(dǎo)不同模態(tài)的消息從一個(gè)圖傳遞到另一個(gè)圖中,從而利用各個(gè)模態(tài)的上下文信息完善多模態(tài)圖中各個(gè)節(jié)點(diǎn)的特征表示。這些更新后的節(jié)點(diǎn)特征進(jìn)而幫助后續(xù)的問(wèn)答模塊。我們?cè)诮谔岢龅腡ext VQA和Scene Text VQA問(wèn)答數(shù)據(jù)庫(kù)上進(jìn)行了實(shí)驗(yàn),取得了state-of-the-art的性能,并驗(yàn)證了方法的有效性。

06

6. TCTS: A Task-Consistent Two-stage Framework for Person Search (Cheng Wang,Bingpeng Ma,Hong Chang, Shiguang Shan, Xilin Chen)

當(dāng)前最先進(jìn)的行人搜索方法將行人搜索分為檢測(cè)和再識(shí)別兩個(gè)階段,但他們大多忽略了這兩個(gè)階段之間的一致性問(wèn)題。一般的行人檢測(cè)器對(duì) query 目標(biāo)沒(méi)有特別的關(guān)注;再識(shí)別模型是在手工標(biāo)注的裁剪框上訓(xùn)練的,在實(shí)際情況中是沒(méi)有這樣完美的檢測(cè)結(jié)果的。

為了解決一致性問(wèn)題,我們引入了一個(gè)目標(biāo)一致的兩階段的行人搜索框架 TCTS,包括一個(gè) identity-guided query(IDGQ)檢測(cè)器和一個(gè)檢測(cè)結(jié)果自適應(yīng)(Detection Results Adapted ,DRA)的再識(shí)別模型。在檢測(cè)階段,IDGQ 檢測(cè)器學(xué)習(xí)一個(gè)輔助的身份分支來(lái)計(jì)算建議框和查詢圖片的相似度得分。同時(shí)考慮查詢相似度得分和前景得分,IDGQ為行人再識(shí)別階段生成 query-like 的邊界框。在再識(shí)別階段,我們預(yù)測(cè)檢測(cè)輸出的 bounding boxes 對(duì)應(yīng)的身份標(biāo)簽,并用使用這些樣本為 DRA 模型構(gòu)造一個(gè)更實(shí)用的混合訓(xùn)練集。混合訓(xùn)練提高了 DRA 模型對(duì)檢測(cè)不精確的魯棒性。我們?cè)贑UHK-SYSU和PRW這兩個(gè)基準(zhǔn)數(shù)據(jù)集上評(píng)估了我們的方法。我們的框架在CUHK-SYSU上達(dá)到了93.9%的mAP和95.1%的rank1精度,超越以往最先進(jìn)的方法。

07

7. Unsupervised Domain Adaptation with Hierarchical Gradient Synchronization (Lanqing Hu,Meina Kan, Shiguang Shan, Xilin Chen)

無(wú)監(jiān)督領(lǐng)域自適應(yīng)方法的任務(wù)是,將已標(biāo)注的源域數(shù)據(jù)集上的知識(shí)遷移到無(wú)標(biāo)注的目標(biāo)域,從而減小對(duì)新目標(biāo)域的標(biāo)注代價(jià)。而源域和目標(biāo)域之間的差異是這個(gè)問(wèn)題的難點(diǎn),大多方法通過(guò)對(duì)齊兩個(gè)域的特征的分布來(lái)減小域之間的差異,但是仍然很難做到兩個(gè)不同分布的每一個(gè)局部塊都完美對(duì)齊,從而保證判別信息的很好保留。

本文提出一種層級(jí)梯度同步的方法,首先在域、類別、類組三個(gè)級(jí)別通過(guò)對(duì)抗學(xué)習(xí)進(jìn)行條件分布的對(duì)齊,然后通過(guò)約束不同級(jí)別的域判別器的梯度保證相同的方向和幅度,由此提高分布對(duì)齊的內(nèi)在一致性,加強(qiáng)類別結(jié)構(gòu)的保留,從而得到更準(zhǔn)確的分類結(jié)果。該方法在當(dāng)前主流測(cè)試集Office-31,Office-Home,VisDA-2017上的結(jié)果都驗(yàn)證了其有效性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4552

    瀏覽量

    92024
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    8

    文章

    1685

    瀏覽量

    45811
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24538

原文標(biāo)題:CVPR2020 | 中科院VIPL實(shí)驗(yàn)室錄取論文詳解

文章出處:【微信號(hào):deeplearningclass,微信公眾號(hào):深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    并捕捉長(zhǎng)距離依賴關(guān)系的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。Transformer通過(guò)編碼器(Encoder)和解碼器(Decoder)兩部分實(shí)現(xiàn)語(yǔ)言的編碼和解碼。 注意力機(jī)制:Transformer中的注意力機(jī)制
    發(fā)表于 08-02 11:03

    神經(jīng)網(wǎng)絡(luò)如何用無(wú)監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無(wú)監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無(wú)監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓(xùn)練方式對(duì)于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?573次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來(lái)越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對(duì)抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場(chǎng)景以及優(yōu)缺點(diǎn)。
    的頭像 發(fā)表于 07-09 10:50 ?216次閱讀

    Meta發(fā)布新型無(wú)監(jiān)督視頻預(yù)測(cè)模型“V-JEPA”

    Meta,這家社交媒體和科技巨頭,近日宣布推出一種新型的無(wú)監(jiān)督視頻預(yù)測(cè)模型,名為“V-JEPA”。這模型在視頻處理領(lǐng)域引起了廣泛關(guān)注,因?yàn)樗ㄟ^(guò)抽象性預(yù)測(cè)生成視頻中缺失或模糊的部分來(lái)進(jìn)行學(xué)習(xí),提供了
    的頭像 發(fā)表于 02-19 11:19 ?822次閱讀

    語(yǔ)言模型的弱監(jiān)督視頻異常檢測(cè)方法

    了局部Transformer的mask,從時(shí)序上將輸入視頻幀特征分割為多個(gè)等長(zhǎng)塊,令注意力計(jì)算局限于塊內(nèi),減少了冗余信息建模,降低計(jì)算復(fù)雜度。
    的頭像 發(fā)表于 01-02 15:20 ?561次閱讀
    語(yǔ)言模型的弱<b class='flag-5'>監(jiān)督</b>視頻異常檢測(cè)<b class='flag-5'>方法</b>

    基于神經(jīng)輻射場(chǎng)的監(jiān)督多相機(jī)占用預(yù)測(cè)

    本研究提出了一種監(jiān)督的多攝相機(jī)3D占據(jù)預(yù)測(cè)方法,名為OccNeRF。該方法旨在解決無(wú)界場(chǎng)景的建模問(wèn)題。
    的頭像 發(fā)表于 01-02 14:53 ?313次閱讀
    基于神經(jīng)輻射場(chǎng)的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>多相機(jī)占用預(yù)測(cè)

    智慧消防在消防監(jiān)督工作中的應(yīng)用與發(fā)展

    ”應(yīng)用于消防監(jiān)督工作中,提高監(jiān)督工作質(zhì)量,將監(jiān)督檢查效率,可從根本上促進(jìn)各行業(yè)消防水平的穩(wěn)步提升。 關(guān)鍵詞:智慧消防;管理;消防監(jiān)督;應(yīng)用;發(fā)展 0 引言 “智慧消防”是
    的頭像 發(fā)表于 12-18 16:14 ?436次閱讀
    智慧消防在消防<b class='flag-5'>監(jiān)督</b>工作中的應(yīng)用與發(fā)展

    基于transformer和監(jiān)督學(xué)習(xí)的路面異常檢測(cè)方法分享

    鋪設(shè)異常檢測(cè)可以幫助減少數(shù)據(jù)存儲(chǔ)、傳輸、標(biāo)記和處理的壓力。本論文描述了一種基于Transformer和監(jiān)督學(xué)習(xí)的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1216次閱讀
    基于transformer和<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>學(xué)習(xí)的路面異常檢測(cè)<b class='flag-5'>方法</b>分享

    無(wú)監(jiān)督域自適應(yīng)場(chǎng)景:基于檢索增強(qiáng)的情境學(xué)習(xí)實(shí)現(xiàn)知識(shí)遷移

    本文對(duì)比了多種基線方法,包括無(wú)監(jiān)督域自適應(yīng)的傳統(tǒng)方法(如Pseudo-labeling和對(duì)抗訓(xùn)練)、基于檢索的LM方法(如REALM和RAG)和情境學(xué)習(xí)
    發(fā)表于 12-05 14:14 ?426次閱讀
    無(wú)<b class='flag-5'>監(jiān)督</b>域自適應(yīng)場(chǎng)景:基于檢索增強(qiáng)的情境學(xué)習(xí)實(shí)現(xiàn)知識(shí)遷移

    動(dòng)態(tài)場(chǎng)景下的監(jiān)督單目深度估計(jì)方案

    監(jiān)督單目深度估計(jì)的訓(xùn)練可以在大量無(wú)標(biāo)簽視頻序列來(lái)進(jìn)行,訓(xùn)練集獲取很方便。但問(wèn)題是,實(shí)際采集的視頻序列往往會(huì)有很多動(dòng)態(tài)物體,而監(jiān)督訓(xùn)練本身
    發(fā)表于 11-28 09:21 ?480次閱讀
    動(dòng)態(tài)場(chǎng)景下的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>單目深度估計(jì)方案

    使用LTC2937排序和監(jiān)督的分步指南

    電子發(fā)燒友網(wǎng)站提供《使用LTC2937排序和監(jiān)督的分步指南.pdf》資料免費(fèi)下載
    發(fā)表于 11-24 14:39 ?0次下載
    使用LTC2937排序和<b class='flag-5'>監(jiān)督</b>的分步指南

    一種利用幾何信息的監(jiān)督單目深度估計(jì)框架

    本文方法一種監(jiān)督的單目深度估計(jì)框架,名為GasMono,專門設(shè)計(jì)用于室內(nèi)場(chǎng)景。本方法通過(guò)應(yīng)用多視圖幾何的方式解決了室內(nèi)場(chǎng)景中幀間大旋轉(zhuǎn)和
    發(fā)表于 11-06 11:47 ?322次閱讀
    <b class='flag-5'>一種</b><b class='flag-5'>利用</b>幾何信息的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>單目深度估計(jì)框架

    NeurIPS 2023 | 全新的監(jiān)督視覺(jué)預(yù)訓(xùn)練代理任務(wù):DropPos

    工作, 目前 DropPos 已被 NeurIPS 2023 接收,相關(guān)代碼已開(kāi)源,有任何問(wèn)題歡迎在 GitHub 提出。 TL;DR 我們提出了一種全新的監(jiān)督代理任務(wù) DropPos,首先在 ViT
    的頭像 發(fā)表于 10-15 20:25 ?429次閱讀
    NeurIPS 2023 | 全新的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>視覺(jué)預(yù)訓(xùn)練代理任務(wù):DropPos

    中科院&amp;曠視提出DropPos:全新的監(jiān)督視覺(jué)預(yù)訓(xùn)練代理任務(wù)

    我們提出了一種全新的監(jiān)督代理任務(wù) DropPos,首先在 ViT 前向過(guò)程中屏蔽掉大量的 position embeddings (PE),然后利用簡(jiǎn)單的 cross-entropy
    的頭像 發(fā)表于 10-10 17:10 ?564次閱讀
    中科院&amp;曠視提出DropPos:全新的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>視覺(jué)預(yù)訓(xùn)練代理任務(wù)

    自動(dòng)駕駛操作域監(jiān)督是什么

    操作域監(jiān)督(ODS) 操作域監(jiān)督功能模塊圖 操作域監(jiān)督模塊監(jiān)控與動(dòng)態(tài)駕駛?cè)蝿?wù)相關(guān)的能力、狀態(tài)和情況,目的是確保自動(dòng)駕駛車輛在操作設(shè)計(jì)域及其他適用的動(dòng)態(tài)和靜態(tài)約束下運(yùn)行。它使用兩個(gè)操作域表示實(shí)現(xiàn)運(yùn)行時(shí)
    的頭像 發(fā)表于 10-04 18:19 ?455次閱讀
    自動(dòng)駕駛操作域<b class='flag-5'>監(jiān)督</b>是什么