0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

硬件的未來在AI、AI的未來在材料

ZWxF_iot12345 ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-13 09:22 ? 次閱讀

前言

由于,人工智能AI)擔負工作與目前大多數(shù)計算機的運算工作有些不同。然而,AI隱含著分析預(yù)測、推理、直觀的能力與功能。實時是最有創(chuàng)意機器學(xué)習(xí)算法也受到現(xiàn)有機器硬件能力的束縛。因此,若要在AI方面取得長足進步,我們必須在硬件上進行改變,或是半導(dǎo)體材料上進行突破。演變從GPU開始,引入模擬設(shè)備(analog devices),然后演變成為具容錯性量子計算機(fault tolerant quantum computers)。 現(xiàn)在從大規(guī)模分布式深度學(xué)習(xí)算法應(yīng)用于圖形處理器(GPU)開始將高速移動的數(shù)據(jù),達到最終理解圖像和聲音。DDL算法對視頻音頻數(shù)據(jù)進行訓(xùn)練,GPU越多表示學(xué)習(xí)速度越快。

目前,IBM創(chuàng)下紀錄:隨著更多GPU加入能提升達到95%效率,就能識別750萬個圖像達到33.8%,使用256個GPU 于64個Minsky電源系統(tǒng)上。 自2009年以來,隨著GPU模型訓(xùn)練從視頻游戲圖形加速器轉(zhuǎn)向深度學(xué)習(xí),使分布式深度學(xué)習(xí)每年以約2.5倍的速度發(fā)展。所以IBM曾于2017年IEEE國際電子設(shè)備會議(2017 IEEE International Electron Devices Meeting)針對應(yīng)用材料發(fā)表Semiconductor Futurescapes: New Technologies, New Solutions,談到需要開發(fā)哪些技術(shù)才能延續(xù)這種進步速度并超越GPU?

如何超越GPU IBM研究公司認為,GPU的轉(zhuǎn)變分為三個階段進行:

1、首先將在短期內(nèi)利用GPU和傳統(tǒng)的CMOS構(gòu)建新的加速器以繼續(xù)進行;

2、其次將尋找利用低精密度和模擬設(shè)備(analog devices)來進一步降低功率和提高性能的方法;

3、然后進入量子計算時代,它可是一個機會,能提供全新的方法。 在CMOS上的加速器還有很多工作要做,因為機器學(xué)習(xí)模型可以容忍不精確的計算。正因為“學(xué)習(xí)”模型可以借助錯誤學(xué)習(xí)而發(fā)揮作用,然而,在銀行交易是無法容忍有一些許的錯誤。預(yù)估,精準運算快速的趨勢,到2022年每年以2.5倍在提高。所以,我們還有五年時間來突破模擬設(shè)備(analog devices),將數(shù)據(jù)移入和移出內(nèi)存以降低深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練時間。因此,analog devices尋找可以結(jié)合內(nèi)存和運算,對于類神經(jīng)演算的進展將是非常重要的。 類神經(jīng)演算如同模擬腦細胞。神經(jīng)元(neurons) 結(jié)構(gòu)相互連接以低功率訊號突破von-Neumann的來回瓶頸(von-Neumann’s back-and-forth bottleneck),使這些訊號直接在神經(jīng)元之間傳遞,以實現(xiàn)更高效的計算。美國空軍研究實驗室正在測試IBM TrueNorth神經(jīng)突觸系統(tǒng)的64芯片數(shù)組,專為深度神經(jīng)網(wǎng)絡(luò)推理和挖掘信息而設(shè)計。該系統(tǒng)使用標準CMOS,但僅消耗10瓦的能量來驅(qū)動其6400萬個神經(jīng)元和160億個突觸。 但相變化內(nèi)存(phase change memory)是下一代內(nèi)存材料,可能是針對深度學(xué)習(xí)網(wǎng)絡(luò)優(yōu)化的首款仿真器件。

進入量子時代 (quantum) 據(jù)IBM公司的研究論文,在Nature Quantum Information中展示了機器學(xué)習(xí)中量子的優(yōu)勢證明(“Demonstration of quantum advantage in machine learning”),展示了只有五個超導(dǎo)量子位處理器,量子運算能夠穩(wěn)定減少達100倍運算步驟,并且比非量子運算更能容忍干擾的信息。 IBM Q的商業(yè)系統(tǒng)現(xiàn)在有20個量子位,并且原型50個量子位設(shè)備正在運行。它的平均時間為90μs,也是以前系統(tǒng)的兩倍。但是容錯系統(tǒng)在今天的機器上顯示出明顯的量子優(yōu)勢。同時,試驗新材料(如銅相通的替代品)是關(guān)鍵 - IBM及其合作伙伴在IEDM上推出的其他關(guān)鍵芯片改進,以推進所有運算平臺,從von Neumann到類神經(jīng)及量子。 解決處理器到儲存器的連接和帶寬瓶頸,將為AI帶來新的儲存器架構(gòu),最終可能導(dǎo)致邏輯和儲存器制造過程技術(shù)之間的融合。IBM的TrueNorth推理芯片就是這種新架構(gòu)的一個例子,其中每個神經(jīng)元都可以存取自己的本地儲存器,并且不需要脫機存取儲存器。 借助訓(xùn)練和推理形式的AI運算,必須推向邊緣裝置上(edge devices),例如:手機、智能手表等。因此,這將興起由計算設(shè)備組成的網(wǎng)絡(luò)系統(tǒng)。大多數(shù)這樣的邊緣裝置會受到功率和成本的限制,所以他們的計算需求可能只能透過高度優(yōu)化的ASIC來滿足?,F(xiàn)在,傳統(tǒng)無晶圓廠半導(dǎo)體公司是否有能力提供這類型的ASIC或是否由AI芯片新創(chuàng)公司例如云端服務(wù)提供商,由誰主導(dǎo)目前還為時過早。

備注:*馮諾伊曼架構(gòu)(von Neumann bottleneck):是一種將程序指令內(nèi)存和數(shù)據(jù)存儲器合并在一起的計算機設(shè)計概念架構(gòu),因此也隱約指出將儲存裝置與中央處理器分開的概念。在CPU與內(nèi)存之間的流量(數(shù)據(jù)傳輸率)與內(nèi)存的容量相比起來相當小,在現(xiàn)代計算機中,流量與CPU的工作效率相比之下非常小。當CPU需要在巨大的數(shù)據(jù)上執(zhí)行一些簡單指令時,數(shù)據(jù)流量就成了整體效率非常嚴重的限制,CPU將會在數(shù)據(jù)輸入或輸出內(nèi)存時閑置。由于CPU速度遠大于內(nèi)存讀寫速率,因此瓶頸問題越來越嚴重。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4681

    瀏覽量

    128620
  • 硬件
    +關(guān)注

    關(guān)注

    11

    文章

    3228

    瀏覽量

    66072
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29886

    瀏覽量

    268174

原文標題:硬件的未來在AI、AI的未來在材料

文章出處:【微信號:iot12345,微信公眾號:物聯(lián)之家網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    tlv320Ai32輸出音頻時總有絲絲聲,為什么?

    tlv320Ai32輸出音頻時總有絲絲聲,即使輸出的濾波將噪聲調(diào)整到90mV以下還是存在。測試發(fā)現(xiàn)HPout的噪聲有將近480mV 請問這是什么原因,Ai32還有什么寄存器要設(shè)置的? 模擬電源的紋波大概60mV,有影響嗎?
    發(fā)表于 11-05 06:09

    未來AI大模型的發(fā)展趨勢

    未來AI大模型的發(fā)展趨勢將呈現(xiàn)多元化和深入化的特點,以下是對其發(fā)展趨勢的分析: 一、技術(shù)驅(qū)動與創(chuàng)新 算法與架構(gòu)優(yōu)化 : 隨著Transformer架構(gòu)的廣泛應(yīng)用,AI大模型特征提取和
    的頭像 發(fā)表于 10-23 15:06 ?403次閱讀

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    。 4. 對未來生命科學(xué)發(fā)展的展望 閱讀這一章后,我對未來生命科學(xué)的發(fā)展充滿了期待。我相信,人工智能技術(shù)的推動下,生命科學(xué)將取得更加顯著的進展。例如,
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    的物理可信度,還為科學(xué)研究提供了新的視角和方法。 5. 挑戰(zhàn)與未來展望 第二章也提到了AI for Science面臨的挑戰(zhàn)和未來展望。盡管AI技術(shù)
    發(fā)表于 10-14 09:16

    嵌入式系統(tǒng)的未來趨勢有哪些?

    嵌入式系統(tǒng)是指將我們的操作系統(tǒng)和功能軟件集成于計算機硬件系統(tǒng)之中,形成一個專用的計算機系統(tǒng)。那么嵌入式系統(tǒng)的未來趨勢有哪些呢? 1. 人工智能與機器學(xué)習(xí)的整合 隨著現(xiàn)代人工智能(AI)和機器學(xué)習(xí)
    發(fā)表于 09-12 15:42

    比爾·蓋茨展望AI未來:從AI顧問到深度智能體的演變

    科技日新月異的今天,人工智能(AI)作為引領(lǐng)未來變革的關(guān)鍵力量,其發(fā)展前景始終牽動著全球科技界與公眾的神經(jīng)。近日,微軟創(chuàng)始人比爾·蓋茨知名播客節(jié)目《Next Big Idea Cl
    的頭像 發(fā)表于 07-03 16:10 ?375次閱讀

    Imagination 引領(lǐng)邊緣計算和AI創(chuàng)新,擁抱AI未來發(fā)展

    ,致力于推動技術(shù)創(chuàng)新,擁抱人工智能的未來發(fā)展。同時他也介紹了Imagination計算領(lǐng)域的戰(zhàn)略布局、產(chǎn)品技術(shù)以及對未來AI發(fā)展的深刻洞察。Imagination
    的頭像 發(fā)表于 06-28 08:28 ?495次閱讀
    Imagination 引領(lǐng)邊緣計算和<b class='flag-5'>AI</b>創(chuàng)新,擁抱<b class='flag-5'>AI</b><b class='flag-5'>未來</b>發(fā)展

    中國AI芯片行業(yè),自主突破與未來展望

    全球科技競賽的舞臺上,中國AI芯片行業(yè)正面臨前所未有的挑戰(zhàn)與機遇。近日,Gartner研究副總裁盛陵海一場分享會上深入剖析了中國AI芯片行業(yè)的現(xiàn)狀和
    的頭像 發(fā)表于 06-19 17:02 ?602次閱讀

    微軟CEO納德拉:全力押注AI未來

    微軟首席執(zhí)行官納德拉AI領(lǐng)域的布局引人注目。與ChatGPT背后的OpenAI建立合作關(guān)系后,他更是將微軟的未來AI的潛在發(fā)展緊密相連
    的頭像 發(fā)表于 06-17 17:11 ?573次閱讀

    微軟天氣預(yù)報領(lǐng)域突破,新AI模型精準預(yù)測未來30天

    微軟天氣預(yù)報領(lǐng)域取得顯著成果。其Start團隊成功研發(fā)了一種全新AI模型,能夠更精準地預(yù)測未來30天的天氣狀況。
    的頭像 發(fā)表于 05-10 11:23 ?771次閱讀

    AI芯片未來會控制這個世界嗎?

    AI芯片行業(yè)資訊
    芯廣場
    發(fā)布于 :2024年03月27日 18:21:28

    CES AI硬件層出不窮:你愿為AI的溢價買單嗎?

    硬件AI
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月30日 16:36:00

    Vision Pro和R1,誰是AI硬件未來?

    眾多科技巨頭搶占先機之時,一款來自小型初創(chuàng)公司的AI硬件脫穎而出,一年一度的全球消費類電子盛會CES上炸翻全場。
    的頭像 發(fā)表于 01-30 09:57 ?602次閱讀
    Vision Pro和R1,誰是<b class='flag-5'>AI</b><b class='flag-5'>硬件</b>的<b class='flag-5'>未來</b>?

    驅(qū)動 AI未來

    人工智能(AI) 性能的新突破,掀起了一場未來強大數(shù)據(jù)中心的競賽。隨著 AI 應(yīng)用的復(fù)雜性不斷提高,以及對計算的需求呈指數(shù)級增長, 電源 可能決定著哪些數(shù)據(jù)中心可提升到更高一級的處理水平并保持領(lǐng)先地位。
    的頭像 發(fā)表于 12-07 15:10 ?317次閱讀

    【嵌入式AI簡報20231117期】面對未來AI的三大挑戰(zhàn)!

    AI 簡報 20231117期 1.面對未來AI:三大挑戰(zhàn) 當AI如ChatGPT2022年末突然嶄露頭角時,不僅展現(xiàn)了
    的頭像 發(fā)表于 11-17 21:10 ?816次閱讀
    【嵌入式<b class='flag-5'>AI</b>簡報20231117期】面對<b class='flag-5'>未來</b><b class='flag-5'>AI</b>的三大挑戰(zhàn)!