0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

諾丁漢大學(xué)用深度學(xué)習(xí)復(fù)原魔方

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-03-03 13:58 ? 次閱讀

回想在校期間,很多同學(xué)會(huì)在課間休息時(shí)從書桌里掏出魔方或嫻熟或略顯笨拙地轉(zhuǎn)動(dòng)起來,甚至上課時(shí)有些同學(xué)也會(huì)悄悄地在桌下轉(zhuǎn)動(dòng)手中的魔方?,F(xiàn)在,“人工智能” 也對這款益智玩具產(chǎn)生了興趣,期待用更加智能的方式實(shí)現(xiàn)魔方的復(fù)原。

近日,諾丁漢大學(xué)(University of Nottingham)副教授 Colin G. Johnson 帶領(lǐng)的研究小組開發(fā)出一種深度學(xué)習(xí)技術(shù),可以從一套樣本解決方案中學(xué)習(xí) “適應(yīng)度函數(shù)” 并用它來解決魔方復(fù)原問題。該研究相關(guān)論文于 2 月 24 日發(fā)表在 Expert Systems 上,題目為《用逐級深度學(xué)習(xí)方法解決魔方問題》(Solving the Rubik's cube with stepwise deep learning)。

將打亂的魔方復(fù)原是一個(gè)相對復(fù)雜的問題,但研究人員決定將這一復(fù)雜的問題轉(zhuǎn)換為多個(gè)簡單的問題來解決,他們認(rèn)為 “解決任何難題最多需要 20 步”。因此,他們將逐級學(xué)習(xí)和深度神經(jīng)網(wǎng)絡(luò)作為本次設(shè)計(jì)方案的兩種主要方法。對應(yīng)到魔方復(fù)原中,該技術(shù)會(huì)一步步地去嘗試解決,而不是一次性學(xué)習(xí)復(fù)原魔方的整體方案。

換句話說,就是這種技術(shù)會(huì)通過嘗試轉(zhuǎn)動(dòng)一個(gè)部件使魔方呈現(xiàn)更簡單的形態(tài),也就是把一個(gè)復(fù)雜的問題拆解成若干個(gè)相對簡單的小問題,先學(xué)習(xí)解決一個(gè)小問題的方案,然后經(jīng)過對這一步驟的數(shù)次重復(fù),最終達(dá)到魔方復(fù)原的效果。其實(shí),該種方案也意味著,整體解決方案的每一步都要比上一步更加容易。

該技術(shù)會(huì) “反其道而行之”,從魔方一步步打亂的過程中學(xué)習(xí)怎樣將混亂的魔方復(fù)原。具體操作起來就是,將拼好的魔方標(biāo)記為 “0”,進(jìn)行一次旋轉(zhuǎn)后的魔方標(biāo)記為 “1”,再旋轉(zhuǎn)一次后標(biāo)記為 “2”…… 以此類推。每個(gè)狀態(tài)都與一個(gè)數(shù)字配對,該數(shù)字代表該狀態(tài)下距離目標(biāo)的步數(shù)。因此,學(xué)習(xí)的過程也是建立模型的過程,最終實(shí)現(xiàn)從數(shù)據(jù)庫中抽取任意一個(gè)狀態(tài),預(yù)測將需要多少步才能到達(dá)目標(biāo)狀態(tài),該步驟就與其被標(biāo)記的數(shù)字相對應(yīng)。

圖|計(jì)算機(jī)學(xué)習(xí)魔方復(fù)原的數(shù)據(jù)(來源:Expert Systems)

然后,用特定的深度學(xué)習(xí)網(wǎng)絡(luò)構(gòu)建魔方復(fù)原培訓(xùn)集,并在其中搜索出當(dāng)下的混亂狀態(tài)和已經(jīng)解決后的狀態(tài)。

接下來,通過模擬數(shù)千次轉(zhuǎn)動(dòng)來估算魔方的混亂程度。完成了魔方的混亂程度估計(jì)之后,Johnson 開發(fā)的技術(shù)將通過深度神經(jīng)網(wǎng)絡(luò)的方式識(shí)別魔方復(fù)原前的一步,接下來是復(fù)原前的第二步、第三步…… 把這些數(shù)據(jù)積累起來再去解決魔方的復(fù)原問題將會(huì)非常容易,最終可以通過這些準(zhǔn)備工作找出把混亂魔方復(fù)原的路徑。

Johnson 解釋道:"與其嘗試學(xué)習(xí)如何解決將整個(gè)魔方復(fù)原,不如學(xué)習(xí)怎樣把復(fù)原魔方這一較為復(fù)雜的問題轉(zhuǎn)換為更容易的問題,然后使用更簡單的方法來解決它。"

圖|深度學(xué)習(xí)框架解決魔方問題的步驟(來源:Expert Systems)

目前,Johnson 僅將該方案用于魔方的復(fù)原,但他也表示,這只是一個(gè)示例,其實(shí)該技術(shù)也可用于解決一些更加復(fù)雜的問題?!氨热缦袈暀C(jī)、早期唱片中舊錄音的噪音?!?具體而言是,如果他設(shè)計(jì)的技術(shù)能學(xué)到一個(gè) “原始的聲音”、一個(gè)比 “原始的聲音” 多一點(diǎn)噪音的聲音以及一個(gè)比 “原始的聲音” 多一點(diǎn)再多一點(diǎn)的聲音…… 那么最終將通過這種循序漸進(jìn)的方式還原最 “純凈的聲音”。

Johnson 表示,相比其他方式,他設(shè)計(jì)的這種逐級學(xué)習(xí)更加有效,也更能凸顯分步處理的優(yōu)勢。不過,他也表示,該種訓(xùn)練框架將需要比傳統(tǒng)方案更多的對特定領(lǐng)域的知識(shí)。以本文為例,訓(xùn)練解決魔方的框架就需要復(fù)原魔方的能力。

未來該技術(shù)將可能用于解決科學(xué)工程的很多其他問題,如用來學(xué)習(xí)和更好地理解蛋白質(zhì)在細(xì)胞內(nèi)折疊的方式,從蛋白質(zhì)呈現(xiàn)的三維結(jié)構(gòu)點(diǎn)序列可以倒推其是怎樣折疊成最終形態(tài)的。

原文標(biāo)題:復(fù)原混亂的魔方需要幾步?諾丁漢大學(xué)團(tuán)隊(duì)用深度學(xué)習(xí)告訴你

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46671

    瀏覽量

    237121
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5466

    瀏覽量

    120892

原文標(biāo)題:復(fù)原混亂的魔方需要幾步?諾丁漢大學(xué)團(tuán)隊(duì)用深度學(xué)習(xí)告訴你

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?121次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?293次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?309次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道FPGA做深度學(xué)習(xí)未來會(huì)怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    時(shí)間序列分類(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動(dòng)識(shí)別、系統(tǒng)監(jiān)測、金融預(yù)測、醫(yī)療診斷等多個(gè)領(lǐng)域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?658次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要分支,近年來在多個(gè)領(lǐng)域取得了顯著的成果,特別是在圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域。然而,深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-09 10:50 ?391次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?750次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是模型智能的源泉。本文將從模型權(quán)重的定義、作用、優(yōu)化、管理以及應(yīng)用等多個(gè)方面,深入探討
    的頭像 發(fā)表于 07-04 11:49 ?823次閱讀

    深度學(xué)習(xí)常用的Python庫

    深度學(xué)習(xí)作為人工智能的一個(gè)重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的庫支持,成為了深度學(xué)習(xí)研究和應(yīng)用的首選工具。
    的頭像 發(fā)表于 07-03 16:04 ?523次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器學(xué)習(xí)的范疇,但
    的頭像 發(fā)表于 07-01 11:40 ?1106次閱讀

    全新上線!「魔方MFANG 智能客服」

    復(fù)旦微MCU團(tuán)隊(duì)于2021年9月正式發(fā)布魔方MFANGv2.0,最新上線智能客服功能(測試版),生態(tài)進(jìn)一步完善,使用體驗(yàn)再度提升!為了給廣大用戶提供更優(yōu)質(zhì)的服務(wù),我們的魔方研發(fā)團(tuán)隊(duì)積極聽取用戶建議
    的頭像 發(fā)表于 05-24 08:28 ?297次閱讀
    全新上線!「<b class='flag-5'>魔方</b>MFANG 智能客服」

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測、識(shí)別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度學(xué)習(xí)技術(shù),使得
    發(fā)表于 04-23 17:18 ?1227次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義SLAM

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,已成為人工智能領(lǐng)域的一項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺、自然語言處理到自動(dòng)駕駛汽車等廣泛的應(yīng)用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?583次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    什么是深度學(xué)習(xí)?機(jī)器學(xué)習(xí)深度學(xué)習(xí)的主要差異

    2016年AlphaGo 擊敗韓國圍棋冠軍李世石,在媒體報(bào)道中,曾多次提及“深度學(xué)習(xí)”這個(gè)概念。
    的頭像 發(fā)表于 01-15 10:31 ?971次閱讀
    什么是<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的主要差異

    GPU在深度學(xué)習(xí)中的應(yīng)用與優(yōu)勢

    人工智能的飛速發(fā)展,深度學(xué)習(xí)作為其重要分支,正在推動(dòng)著諸多領(lǐng)域的創(chuàng)新。在這個(gè)過程中,GPU扮演著不可或缺的角色。就像超級英雄電影中的主角一樣,GPU在深度學(xué)習(xí)中擁有舉足輕重的地位。那么
    的頭像 發(fā)表于 12-06 08:27 ?1188次閱讀
    GPU在<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中的應(yīng)用與優(yōu)勢