0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新型深度網(wǎng)絡架構(gòu)可以從過去的動作和觀察結(jié)果學習以進行自校準

Tensorflowers ? 來源:未知 ? 作者:李倩 ? 2018-07-10 14:35 ? 次閱讀

人們非常擅長操作物體,而無需將視角調(diào)整到某一固定或特定位置。這種能力(稱為視覺動作整合)在孩童時期通過在各種情境中操作物體而習得,并由一種利用豐富的感官信號和視覺作為反饋的自適應糾錯機制控制。不過,對于機器人技術(shù)中基于視覺的控制器而言,想要具備這種能力卻十分困難。

直到現(xiàn)在,這種控制器都基于一種用于從固定安裝式攝像頭讀取視覺輸入數(shù)據(jù)的固定裝置,訓練和測試過程中不能移動或重新調(diào)整攝像頭的位置。在視角大幅變化的情況下快速獲取視覺運動控制技能的能力將對自主機器人系統(tǒng)產(chǎn)生重大影響。例如,這種能力對于參與緊急情況或災區(qū)救援工作的機器人來說尤其必要。

在本周的 CVPR 2018 大會上,我們提交了名為“Sim2Real Viewpoint Invariant Visual Servoing by Recurrent Control”的論文。在這篇論文中,我們研究了一種新型深度網(wǎng)絡架構(gòu)(由兩個完全卷積網(wǎng)絡和一個長短期記憶單元組成),該架構(gòu)可以從過去的動作和觀察結(jié)果學習以進行自校準。我們的視覺適應網(wǎng)絡利用由演示軌跡和強化學習目標組成的各種模擬數(shù)據(jù),能夠從各種視角控制機械臂到達各種視覺指示目標,并且不依賴于攝像頭校準。

用物理機械臂到達視覺指示目標的視角不變操作

我們學習了一種策略,可以通過從截然不同的攝像頭視角捕獲的感官輸入到達不同的目標

第一行所示為視覺指示目標

挑戰(zhàn)

通過從未知視角捕獲的單一圖像分析可控自由程度(DoF) 對視覺運動的影響可能不夠明確和具體。確定動作對圖像-空間運動的影響并成功執(zhí)行所需的任務需要一個具備對過去動作的記憶能力的強大感知系統(tǒng)。要解決這一具有挑戰(zhàn)性的問題,我們必須解決以下基本問題:

? 如何提供適當?shù)慕?jīng)驗,讓機器人在模擬終身學習范式的純視覺觀察的基礎(chǔ)上學習自適應行為?

? 如何設(shè)計一個集強大感知和自適應控制于一體并能夠快速轉(zhuǎn)移到未知環(huán)境的模型?

為此,我們設(shè)計了一個新的操作任務,為一個七自由度機械臂提供一種物體的圖像,并指示它在一系列干擾物中拿到特定的目標物體,同時每一次試驗的視角會發(fā)生巨大變化。通過這種方式,我們能夠模擬復雜行為的學習以及向未知環(huán)境的轉(zhuǎn)移。

用物理機械臂和各種攝像頭視角完成到達視覺指示目標的任務

利用模擬學習復雜行為

收集機器人經(jīng)驗數(shù)據(jù)費時費力。在之前的博文中,我們展示了如何通過將數(shù)據(jù)收集和試驗分配給多個機器人來擴展學習技能。盡管這種方法加快了學習速度,但學習視覺自校準等復雜行為仍然不可行,學習復雜行為時需要我們將機器人置于包含各種視角的大型空間中。

因此,我們選擇在模擬中學習此類復雜行為,我們可以收集無限的機器人試驗數(shù)據(jù),并輕松將攝像頭移到各個隨機視角。除了在模擬中快速收集數(shù)據(jù)外,我們還可以擺脫在機器人周圍安裝多個攝像頭的硬件限制。

我們在模擬中使用域隨機化技術(shù)來學習可泛化的策略。

為了學習要向未知環(huán)境轉(zhuǎn)移的強大視覺特征,我們使用了Sadeghi & Levine在 2017 年提出的一項稱為“域隨機化”(又名“模擬隨機化”)的技術(shù),使機器人能夠完全在模擬中學習基于視覺的策略,從而可以泛化到現(xiàn)實世界。這項技術(shù)已被證明適用于各種機器人任務,例如室內(nèi)導航、物體定位以及挑選和放置等。此外,為了學習自校準等復雜行為,我們利用模擬功能來生成合成演示并結(jié)合強化學習目標來學習強大的機械臂控制器。

用模擬的七自由度機械臂到達視覺指示目標的視角不變操作

我們學習了一種策略,可以通過從截然不同的攝像頭視角捕獲的感官輸入到達不同的目標

將感知與控制分離

為了能夠快速轉(zhuǎn)移到未知環(huán)境中,我們設(shè)計了一個深度神經(jīng)網(wǎng)絡,將感知和控制相結(jié)合,并同時進行端到端訓練,且在必要情況下允許二者分別進行學習。將感知與控制分離讓轉(zhuǎn)移到未知環(huán)境變得容易,并且使得模型既靈活又高效,因為它的每個部分(即“感知”或“控制”)可以使用少量數(shù)據(jù)單獨適應新環(huán)境。

另外,雖然網(wǎng)絡的控制部分完全使用模擬數(shù)據(jù)訓練,但網(wǎng)絡的感知部分通過用物體邊界框收集少量靜態(tài)圖像來補充,而不需要用物理機器人收集整個動作序列軌跡。在實踐中,我們只用了來自 22 個圖像的 76 個物體邊界框來微調(diào)網(wǎng)絡的感知部分。

現(xiàn)實世界的機器人和移動攝像頭設(shè)置第一行所示為場景布置,第二行為機器人的視覺感官輸入

早期結(jié)果

我們在物理機器人和真實物體上測試了視覺適應版本的網(wǎng)絡,這些物體的外觀與模擬中使用的完全不同。在實驗中,桌子上會出現(xiàn)一個或兩個物體 -“見過的物體”(如下圖所示)用于視覺適應,實驗中使用的是小型靜態(tài)真實圖像集。在視覺適應期間沒有看到“未見過的物體”。在測試過程中,指示機械臂從各個視角到達視覺指示物體。對于雙物體實驗,第二個物體用于“迷惑”機械臂。由于純模擬網(wǎng)絡具有良好的泛化能力(因為它是使用域隨機化技術(shù)進行訓練的),加上我們的網(wǎng)絡架構(gòu)非常靈活,因此,雖然實驗中僅收集了非常少量的靜態(tài)視覺數(shù)據(jù)用于視覺適應,控制器的表現(xiàn)仍然有了很大提升。

在使用少量真實圖像進行視覺特征適應后,性能提高了10% 以上。使用的所有真實物體都與模擬中看到的物體截然不同。

我們認為,學習在線視覺自適應是一個重要而又具有挑戰(zhàn)性的課題,其目標是學習可泛化策略,讓機器人能夠在多樣化、非結(jié)構(gòu)型現(xiàn)實世界中運行。我們的方法可以延伸到任何類型的自動自校準。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 控制器
    +關(guān)注

    關(guān)注

    112

    文章

    16111

    瀏覽量

    177088
  • 機器人
    +關(guān)注

    關(guān)注

    210

    文章

    28109

    瀏覽量

    205863

原文標題:教未校準的機器人實現(xiàn)視覺自適應

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一種利用光電容積描記(PPG)信號和深度學習模型對高血壓分類的新方法

    深度神經(jīng)網(wǎng)絡在計算機視覺任務中的有效性,并為開發(fā)更強大、更復雜的神經(jīng)網(wǎng)絡架構(gòu)鋪平了道路。 ResNet-50是一種
    發(fā)表于 05-11 20:01

    AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡

    取得了良好的性能。可以說,DNN其實是一種架構(gòu),是指深度超過幾個相似層的神經(jīng)網(wǎng)絡結(jié)構(gòu),般能夠達
    發(fā)表于 05-08 15:57

    深度學習與數(shù)據(jù)挖掘的關(guān)系

    深度學習的概念源于人工神經(jīng)網(wǎng)絡的研究。含多隱層的多層感知器就是一種深度學習結(jié)構(gòu)。
    發(fā)表于 07-04 16:07

    一種基于Deep U-Net的多任務學習框架

    U-Net和進行后期處理,得到的Dice分數(shù)為0.901。這個多任務U-Net算法比其他兩算法具有更強的魯棒性,通過與分割和相關(guān)的消融前后分類共享特征,網(wǎng)絡被迫學習更好的表示,
    發(fā)表于 11-10 15:35

    什么是深度學習?使用FPGA進行深度學習的好處?

    什么是深度學習為了解釋深度學習,有必要了解神經(jīng)網(wǎng)絡。神經(jīng)網(wǎng)絡
    發(fā)表于 02-17 16:56

    一種基于神經(jīng)網(wǎng)絡進行剩余差在線估計與校正的高精度磁向系統(tǒng)研

    給出了一種高精度的磁羅經(jīng)航向系統(tǒng),應用神經(jīng)網(wǎng)絡進行剩余差的自動校正。本系統(tǒng)可以進行在線
    發(fā)表于 08-14 16:27 ?7次下載

    一種新的目標分類特征深度學習模型

    為提高低配置計算環(huán)境中的視覺目標實時在線分類特征提取的時效性和分類準確率,提出一種新的目標分類特征深度學習模型。根據(jù)高時效性要求,選用分類器模型離線深度
    發(fā)表于 03-20 17:30 ?0次下載
    <b class='flag-5'>一種</b>新的目標分類特征<b class='flag-5'>深度</b><b class='flag-5'>學習</b>模型

    基于多視角學習的人體動作識別方法

    學習動作識別方法采用課程學習的思路,忽略了不同視角動作特征對課程的影響,對多分類的人體兩維視頻復雜
    發(fā)表于 03-29 17:02 ?0次下載
    基于多視角<b class='flag-5'>自</b>步<b class='flag-5'>學習</b>的人體<b class='flag-5'>動作</b>識別方法

    一種新型分割圖像中人物的方法,基于人物動作辨認

    圖像分割的般方法是先對物體進行檢測,然后用邊界框?qū)Ξ嬛形矬w進行分割。最近,例如Mask R-CNN的深度學習方法也被用于圖像分割任務,但是
    的頭像 發(fā)表于 04-10 15:02 ?5590次閱讀
    <b class='flag-5'>一種</b><b class='flag-5'>新型</b>分割圖像中人物的方法,基于人物<b class='flag-5'>動作</b>辨認

    一種基于多視圖架構(gòu)深度卷積神經(jīng)網(wǎng)絡模型

    由于藏匿物體的大小、形狀和位置未知,且樣本類別不均衡,常用的深度學習方法存在誤報率較高的問題。為此,構(gòu)建一種基于多視圖架構(gòu)深度卷積神經(jīng)
    發(fā)表于 03-17 10:53 ?5次下載
    <b class='flag-5'>一種</b>基于多視圖<b class='flag-5'>架構(gòu)</b>的<b class='flag-5'>深度</b>卷積神經(jīng)<b class='flag-5'>網(wǎng)絡</b>模型

    采用監(jiān)督CNN進行單圖像深度估計的方法

    為了提高利用深度神經(jīng)網(wǎng)絡預測單圖像深度信息的精確度,提出了一種采用監(jiān)督卷積神經(jīng)網(wǎng)絡
    發(fā)表于 04-27 16:06 ?13次下載
    采用<b class='flag-5'>自</b>監(jiān)督CNN<b class='flag-5'>進行</b>單圖像<b class='flag-5'>深度</b>估計的方法

    一種新型的多智能體深度強化學習算法

    一種新型的多智能體深度強化學習算法
    發(fā)表于 06-23 10:42 ?36次下載

    深度學習動作識別網(wǎng)絡學習

    動作識別網(wǎng)絡 深度學習在人體動作識別領(lǐng)域有兩類主要的網(wǎng)絡,
    的頭像 發(fā)表于 06-25 10:32 ?2679次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>中<b class='flag-5'>動作</b>識別<b class='flag-5'>網(wǎng)絡</b><b class='flag-5'>學習</b>

    一種產(chǎn)生DSN放大攻擊的深度學習技術(shù)

    Citadel 的研究人員最近開發(fā)了一種深度神經(jīng)網(wǎng)絡(DNNs),可以檢測一種稱為分布式拒絕服務(DDoS)DNS 放大的
    的頭像 發(fā)表于 10-11 09:21 ?1115次閱讀
    <b class='flag-5'>一種</b>產(chǎn)生DSN放大攻擊的<b class='flag-5'>深度</b><b class='flag-5'>學習</b>技術(shù)

    什么是深度學習算法?深度學習算法的應用

    什么是深度學習算法?深度學習算法的應用 深度學習算法被認為是人工智能的核心,它是
    的頭像 發(fā)表于 08-17 16:03 ?2072次閱讀