電子發(fā)燒友App

硬聲App

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

電子發(fā)燒友網(wǎng)>處理器/DSP>英特爾百度攜手研發(fā)Nervana神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器 極速訓(xùn)練深度學(xué)習(xí)

英特爾百度攜手研發(fā)Nervana神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器 極速訓(xùn)練深度學(xué)習(xí)

收藏

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

評(píng)論

查看更多

相關(guān)推薦

性能10倍于GPU:英特爾推出全新Nervana AI處理器

Facebook為其NNP-I智能芯片的開發(fā)合作伙伴。此外,英特爾還計(jì)劃在今年下半年推出名為「Spring Crest」的神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器。 這是一個(gè)令人意想不到的發(fā)布,有關(guān)Nervana最近的消息還要追溯到2017年??磥?b class="flag-6" style="color: red">英特爾已經(jīng)準(zhǔn)備好展示自己在人工智能芯片上的野心了。和之前消息透露的一
2019-01-10 10:16:422779

詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線,通過深度學(xué)習(xí)解決若干問題的案例越來越多。一些傳統(tǒng)的圖像
2024-01-11 10:51:32595

深度學(xué)習(xí)與數(shù)據(jù)挖掘的關(guān)系

深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示?;逎y懂的概念,略微有些難以
2018-07-04 16:07:53

百度總裁:百度在人工智能領(lǐng)域已有重大突破

?! ∨c此同時(shí),百度的語音識(shí)別技術(shù)也日臻完善。張亞勤表示,百度通過收集整理大量數(shù)據(jù),省去復(fù)雜的預(yù)處理環(huán)節(jié),直接輸入音頻文件,再通過深度神經(jīng)網(wǎng)絡(luò)輸出字符,從而大大提高系統(tǒng)運(yùn)算效率。目前該系統(tǒng)還在收集更多方言及口音
2016-07-01 15:22:41

神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)常用的一些損失函數(shù)介紹

神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)的優(yōu)化首先是對(duì)模型的當(dāng)前狀態(tài)進(jìn)行誤差估計(jì),然后為了減少下一次評(píng)估的誤差,需要使用一個(gè)能夠表示錯(cuò)誤函數(shù)對(duì)權(quán)重進(jìn)行更新,這個(gè)函數(shù)被稱為損失函數(shù)。損失函數(shù)的選擇與神經(jīng)網(wǎng)絡(luò)模型從示例中學(xué)習(xí)
2022-10-20 17:14:15

神經(jīng)網(wǎng)絡(luò)教程(李亞非)

  第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知模型  2.3 自適應(yīng)線性
2012-03-20 11:32:43

神經(jīng)網(wǎng)絡(luò)解決方案讓自動(dòng)駕駛成為現(xiàn)實(shí)

學(xué)習(xí)技術(shù)無疑為其指明了道路。以知名品牌為首的汽車制造業(yè)正在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)上進(jìn)行投資,并向先進(jìn)的計(jì)算企業(yè)、硅谷等技術(shù)引擎及學(xué)術(shù)界看齊。在中國,百度一直在此技術(shù)上保持領(lǐng)先。百度計(jì)劃在 2019 年將
2017-12-21 17:11:34

英特爾會(huì)在沒有收據(jù)的情況下維修或更換損壞的處理器嗎?

你好,我來自德國,我的英語不是最好的...但我試著問我的問題。有一個(gè)來自英特爾的競爭,他們贈(zèng)送了1.000英特爾i7-8086k盒裝處理器。這些處理器的保修情況如何,因?yàn)槭褂眠@些處理器你不會(huì)得
2018-10-22 11:38:21

英特爾凌動(dòng)處理器CE4100有什么優(yōu)點(diǎn)?

英特爾今天發(fā)布了英特爾?凌動(dòng)?處理器CE4100,這是英特爾媒體處理器系列中最新的SoC產(chǎn)品,將用于為數(shù)字電視、DVD播放和高級(jí)機(jī)頂盒提供互聯(lián)網(wǎng)內(nèi)容與服務(wù)。
2019-09-03 06:24:30

英特爾將在2014年推出14納米處理器芯片

`英特爾最近披露稱,它終于首次使用14納米加工技術(shù)制造成功試驗(yàn)的芯片電路。英特爾計(jì)劃在2013年使用14納米加工技術(shù)生產(chǎn)代號(hào)為“Broadwell”的處理器。英特爾北歐及比利時(shí)、荷蘭、盧森堡經(jīng)濟(jì)聯(lián)盟
2011-12-05 10:49:55

英特爾的十款嵌入式智能處理器

,是通信、數(shù)字標(biāo)牌、零售、工業(yè)和醫(yī)療領(lǐng)域嵌入式應(yīng)用開發(fā)者的理想選擇;預(yù)計(jì)會(huì)有超過200種嵌入式應(yīng)用將基于該系列處理器研發(fā)。w w英特爾向嵌入式市場提供酷睿移動(dòng)處理器,以及其與移動(dòng)英特爾? QM57高速
2019-07-29 06:13:57

AI知識(shí)科普 | 從無人相信到萬人追捧的神經(jīng)網(wǎng)絡(luò)

的復(fù)雜程度,通過調(diào)整內(nèi)部大量節(jié)點(diǎn)之間相互連接的關(guān)系,從而達(dá)到處理信息的目的,并具有自學(xué)習(xí)和自適應(yīng)的能力。簡單來說,就是通過大量的樣本訓(xùn)練神經(jīng)網(wǎng)絡(luò),得到結(jié)論。接著就可以輸入新的信息,看最后得出怎樣的回應(yīng)
2018-06-05 10:11:50

CV之YOLOv3:深度學(xué)習(xí)之計(jì)算機(jī)視覺神經(jīng)網(wǎng)絡(luò)Yolov3-5clessses訓(xùn)練自己的數(shù)據(jù)集全程記錄

CV之YOLOv3:深度學(xué)習(xí)之計(jì)算機(jī)視覺神經(jīng)網(wǎng)絡(luò)Yolov3-5clessses訓(xùn)練自己的數(shù)據(jù)集全程記錄
2018-12-24 11:51:47

CV之YOLO:深度學(xué)習(xí)之計(jì)算機(jī)視覺神經(jīng)網(wǎng)絡(luò)tiny-yolo-5clessses訓(xùn)練自己的數(shù)據(jù)集全程記錄

CV之YOLO:深度學(xué)習(xí)之計(jì)算機(jī)視覺神經(jīng)網(wǎng)絡(luò)tiny-yolo-5clessses訓(xùn)練自己的數(shù)據(jù)集全程記錄
2018-12-24 11:50:57

ETPU-Z2全可編程神經(jīng)網(wǎng)絡(luò)開發(fā)平臺(tái)

完畢(根據(jù)深度學(xué)習(xí)框架的要求轉(zhuǎn)換成對(duì)應(yīng)格式)、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)準(zhǔn)備完畢(以文本形式按照某種語法描述),神經(jīng)網(wǎng)絡(luò)算法的訓(xùn)練過程幾乎是自動(dòng)的(約等于執(zhí)行某個(gè)訓(xùn)練命令)。算法開發(fā)人員需要根據(jù)訓(xùn)練過程中所反映出
2020-05-18 17:13:24

FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈鶪PU

的根本原因,它與 深度神經(jīng)網(wǎng)絡(luò) 有一個(gè)共同之處:都需要進(jìn)行大量矩陣運(yùn)算。 顯卡可以并行執(zhí)行矩陣運(yùn)算,極大地加快計(jì)算速度。圖形處理器可以把訓(xùn)練神經(jīng)網(wǎng)絡(luò)的時(shí)間從幾天、幾周縮短到幾小時(shí)、幾分鐘。 隨著圖形
2024-03-21 15:19:45

MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)

遞歸網(wǎng)絡(luò)newelm 創(chuàng)建一Elman遞歸網(wǎng)絡(luò)2. 網(wǎng)絡(luò)應(yīng)用函數(shù)sim 仿真一個(gè)神經(jīng)網(wǎng)絡(luò)init 初始化一個(gè)神經(jīng)網(wǎng)絡(luò)adapt 神經(jīng)網(wǎng)絡(luò)的自適應(yīng)化train 訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)3. 權(quán)函數(shù)dotprod
2009-09-22 16:10:08

MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)移植到STM32F407上

我在MATLAB中進(jìn)行了神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練,然后將訓(xùn)練好的模型的閾值和權(quán)值導(dǎo)出來,移植到STM32F407單片機(jī)上進(jìn)行計(jì)算,但是在單片機(jī)上的計(jì)算結(jié)果和在MATLAB上的不一樣,一直找不到原因。代碼在
2020-06-16 11:14:28

OpenCL平臺(tái)和英特爾Stratix 10 FPGA的結(jié)合使用

增長, 找到有效的圖像排序、分類和識(shí)別方法變得至關(guān)重要。卷積神經(jīng)網(wǎng)絡(luò)(CNNs)是一種基 于人腦功能的機(jī)器學(xué)習(xí)方法,通常用于圖像分析。軟件可將圖像分為多個(gè)部分(通常采 取重疊操作),然后通過分析圖像形成
2019-07-17 06:34:16

TDA4對(duì)深度學(xué)習(xí)的重要性

不方便,計(jì)算效率低下而設(shè)計(jì)的一個(gè)軟件生態(tài)系統(tǒng),用于加速 TI 嵌入式設(shè)備上的深度神經(jīng)網(wǎng)絡(luò)Deep Neural Networks (DNN)計(jì)算加速。上一代產(chǎn)品 TDA2/3 系列處理器,集成了計(jì)算單元
2022-11-03 06:53:11

Xeon處理器和FPGA卡窺見其AI策略

也有對(duì)機(jī)器學(xué)習(xí)技術(shù)進(jìn)行一些投資,例如在不久前收購兩家專長神經(jīng)網(wǎng)絡(luò)技術(shù)的處理器新創(chuàng)公司Nervana與Movidius,加上以167億美元收購的Altera,后者的FPGA已經(jīng)被百度(Baidu)、微軟
2016-12-23 16:50:37

matlab實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 精選資料分享

習(xí)神經(jīng)神經(jīng)網(wǎng)絡(luò),對(duì)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)是如何一直沒有具體實(shí)現(xiàn)一下:現(xiàn)看到一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)模型用于訓(xùn)練的輸入數(shù)據(jù):對(duì)應(yīng)的輸出數(shù)據(jù):我們這里設(shè)置:1:節(jié)點(diǎn)個(gè)數(shù)設(shè)置:輸入層、隱層、輸出層的節(jié)點(diǎn)
2021-08-18 07:25:21

【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

`本篇主要介紹:人工神經(jīng)網(wǎng)絡(luò)的起源、簡單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機(jī)器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)測、訓(xùn)練的兩階段:正向推演與反向傳播、以TensorFlow + Excel表達(dá)訓(xùn)練流程以及AI普及化教育之路。`
2020-11-05 17:48:39

【PYNQ-Z2申請(qǐng)】基于PYNQ-Z2的神經(jīng)網(wǎng)絡(luò)圖形識(shí)別

神經(jīng)網(wǎng)絡(luò)編程,想基于此開發(fā)板,進(jìn)行神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練和測試神經(jīng)網(wǎng)絡(luò)。項(xiàng)目計(jì)劃:1.基于官方的文檔及資料,熟悉此開發(fā)板。2.測試官方demo,學(xué)習(xí)ARM內(nèi)核和FPGA如何協(xié)調(diào)工作。3.基于自己最近
2019-01-09 14:48:59

【PYNQ-Z2申請(qǐng)】基于PYNQ的卷積神經(jīng)網(wǎng)絡(luò)加速

項(xiàng)目名稱:基于PYNQ的卷積神經(jīng)網(wǎng)絡(luò)加速試用計(jì)劃:申請(qǐng)理由:本人研究生在讀,想要利用PYNQ深入探索卷積神經(jīng)網(wǎng)絡(luò)的硬件加速,在PYNQ上實(shí)現(xiàn)圖像的快速處理項(xiàng)目計(jì)劃:1、在PC端實(shí)現(xiàn)Lnet網(wǎng)絡(luò)訓(xùn)練
2018-12-19 11:37:22

【PYNQ-Z2試用體驗(yàn)】基于PYNQ的神經(jīng)網(wǎng)絡(luò)自動(dòng)駕駛小車 - 項(xiàng)目規(guī)劃

的開源作品實(shí)在少之又少,使得基于神經(jīng)網(wǎng)絡(luò)的作品對(duì)于部分電子愛好者仍帶有一分神秘的光環(huán)。本作品依托的PYNQ-Z2開發(fā)板擁有充足的可編程邏輯資源,并嵌入了雙核Cortex-A9處理器硬核,滿足小車視頻
2019-03-02 23:10:52

【大聯(lián)大世平Intel?神經(jīng)計(jì)算棒NCS2試用體驗(yàn)】0.開箱帖

` 本帖最后由 jackeyt 于 2020-7-27 22:17 編輯 0、背景自從深度學(xué)習(xí)火起來之后,Nvidia GPU大賣。因?yàn)榭梢宰?b class="flag-6" style="color: red">神經(jīng)網(wǎng)絡(luò)的訓(xùn)練(Training),搭配CUDA享用
2020-07-27 17:28:00

【大聯(lián)大世平Intel?神經(jīng)計(jì)算棒NCS2試用體驗(yàn)】牛刀小試(一)

:處理器英特爾Movidius Myriad X視覺處理單元(VPU)支持的深度學(xué)習(xí)框架:TensorFlow ,Caffe接口:USB 3.0 Type-A尺寸:72.5毫米x 27毫米x 14毫米
2020-07-14 22:06:05

【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺不是很難,只不過一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競爭學(xué)習(xí)的一個(gè)代表,競爭型學(xué)習(xí)
2019-07-21 04:30:00

人工神經(jīng)網(wǎng)絡(luò)原理及下載

這個(gè)網(wǎng)絡(luò)輸入和相應(yīng)的輸出來“訓(xùn)練”這個(gè)網(wǎng)絡(luò),網(wǎng)絡(luò)根據(jù)輸入和輸出不斷地調(diào)節(jié)自己的各節(jié)點(diǎn)之間的權(quán)值來滿足輸入和輸出。這樣,當(dāng)訓(xùn)練結(jié)束后,我們給定一個(gè)輸入,網(wǎng)絡(luò)便會(huì)根據(jù)自己已調(diào)節(jié)好的權(quán)值計(jì)算出一個(gè)輸出。這就是神經(jīng)網(wǎng)絡(luò)的簡單原理。  神經(jīng)網(wǎng)絡(luò)原理下載-免費(fèi)
2008-06-19 14:40:42

人臉識(shí)別、語音翻譯、無人駕駛...這些高科技都離不開深度神經(jīng)網(wǎng)絡(luò)了!

機(jī)器學(xué)習(xí)的技術(shù),它是用深度神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)深度比原始網(wǎng)絡(luò)加深了數(shù)十甚至上倍。 增強(qiáng)學(xué)習(xí)也可以達(dá)到機(jī)器學(xué)習(xí)的效果,感興趣的小伙伴可以上網(wǎng)搜索,在此暫時(shí)沒有推薦的書籍。 一個(gè) 34 層
2018-05-11 11:43:14

什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

) 來解決更復(fù)雜的問題,深度神經(jīng)網(wǎng)絡(luò)是一種將這些問題多層連接起來的更深層網(wǎng)絡(luò)。這稱為深度學(xué)習(xí)。目前,深度學(xué)習(xí)被用于現(xiàn)實(shí)世界中的各種場景,例如圖像和語音識(shí)別、自然語言處理和異常檢測,并且在某些情況下,它
2023-02-17 16:56:59

介紹英特爾?分布式OpenVINO?工具包

介紹英特爾?分布式OpenVINO?工具包可快速部署模擬人類視覺的應(yīng)用程序和解決方案。 該工具包基于卷積神經(jīng)網(wǎng)絡(luò)(CNN),可擴(kuò)展英特爾?硬件的計(jì)算機(jī)視覺(CV)工作負(fù)載,從而最大限度地提高
2021-07-26 06:45:21

從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

通過堆疊卷積層使得模型更深更寬,同時(shí)借助GPU使得訓(xùn)練再可接受的時(shí)間范圍內(nèi)得到結(jié)果,推動(dòng)了卷積神經(jīng)網(wǎng)絡(luò)甚至是深度學(xué)習(xí)的發(fā)展。下面是AlexNet的架構(gòu):AlexNet的特點(diǎn)有:1.借助擁有1500萬標(biāo)簽
2018-05-08 15:57:47

優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?

優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?
2022-09-06 09:52:36

分享一種用于神經(jīng)網(wǎng)絡(luò)處理的新8位浮點(diǎn)交換格式

速度增長,需要新的硬件和軟件創(chuàng)新來繼續(xù)平衡內(nèi)存,計(jì)算效率和帶寬。神經(jīng)網(wǎng)絡(luò) (NN) 的訓(xùn)練對(duì)于 AI 能力的持續(xù)提升至關(guān)重要,今天標(biāo)志著這一演變的激動(dòng)人心的一步,Arm、英特爾和 NVIDIA 聯(lián)合
2022-09-15 15:15:46

卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究及學(xué)習(xí)總結(jié)

深度學(xué)習(xí)工程師-吳恩達(dá)》03卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究 學(xué)習(xí)總結(jié)
2020-05-22 17:15:57

卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

等[16- 18]進(jìn)行分類。特征提取和分類的 設(shè)計(jì)是圖片分類等任務(wù)的關(guān)鍵,對(duì)分類結(jié)果的好壞 有著最為直接的影響。卷積神經(jīng)網(wǎng)絡(luò)可以自動(dòng)地從 訓(xùn)練樣本中學(xué)習(xí)特征并且分類,解決了人工特征設(shè)計(jì) 的局限性
2022-08-02 10:39:39

卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)?

復(fù)雜數(shù)據(jù)中提取特征的強(qiáng)大工具。例如,這包括音頻信號(hào)或圖像中的復(fù)雜模式識(shí)別。本文討論了 CNN 相對(duì)于經(jīng)典線性規(guī)劃的優(yōu)勢。后續(xù)文章“訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò):什么是機(jī)器學(xué)習(xí)?——第2部分”將討論如何訓(xùn)練CNN
2023-02-23 20:11:10

可分離卷積神經(jīng)網(wǎng)絡(luò)在 Cortex-M 處理器上實(shí)現(xiàn)關(guān)鍵詞識(shí)別

我們可以對(duì)神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行優(yōu)化,使之適配微控制的內(nèi)存和計(jì)算限制范圍,并且不會(huì)影響精度。我們將在本文中解釋和探討深度可分離卷積神經(jīng)網(wǎng)絡(luò)在 Cortex-M 處理器上實(shí)現(xiàn)關(guān)鍵詞識(shí)別的潛力。關(guān)鍵詞識(shí)別
2021-07-26 09:46:37

圖像預(yù)處理和改進(jìn)神經(jīng)網(wǎng)絡(luò)推理的簡要介紹

為提升識(shí)別準(zhǔn)確率,采用改進(jìn)神經(jīng)網(wǎng)絡(luò),通過Mnist數(shù)據(jù)集進(jìn)行訓(xùn)練。整體處理過程分為兩步:圖像預(yù)處理和改進(jìn)神經(jīng)網(wǎng)絡(luò)推理。圖像預(yù)處理主要根據(jù)圖像的特征,將數(shù)據(jù)處理成規(guī)范的格式,而改進(jìn)神經(jīng)網(wǎng)絡(luò)推理主要用于輸出結(jié)果。 整個(gè)過程分為兩個(gè)步驟:圖像預(yù)處理神經(jīng)網(wǎng)絡(luò)推理。需要提前安裝Tengine框架,
2021-12-23 08:07:33

基于英特爾凌動(dòng)處理器的車載信息娛樂系統(tǒng)

——面向嵌入式應(yīng)用的英特爾凌動(dòng)處理器平臺(tái)文/英特爾(中國)有限公司基于英特爾凌動(dòng)處理器系列構(gòu)建的相關(guān)平臺(tái)優(yōu)勢明顯,可以用在車載信息娛樂系統(tǒng)、工業(yè)控制、醫(yī)療、零售等方面。車載信息娛樂系統(tǒng):該平臺(tái)集
2019-07-18 07:05:50

基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔

基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔
2021-06-21 06:33:55

基于賽靈思FPGA的卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)設(shè)計(jì)

FPGA 上實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò) (CNN)。CNN 是一類深度神經(jīng)網(wǎng)絡(luò),在處理大規(guī)模圖像識(shí)別任務(wù)以及與機(jī)器學(xué)習(xí)類似的其他問題方面已大獲成功。在當(dāng)前案例中,針對(duì)在 FPGA 上實(shí)現(xiàn) CNN 做一個(gè)可行性研究
2019-06-19 07:24:41

如何用ARM和FPGA搭建神經(jīng)網(wǎng)絡(luò)處理器通信方案?

某人工神經(jīng)網(wǎng)絡(luò)的FPGA處理器能夠?qū)?shù)據(jù)進(jìn)行運(yùn)算處理,為了實(shí)現(xiàn)集數(shù)據(jù)通信、操作控制和數(shù)據(jù)處理于一體的便攜式神經(jīng)網(wǎng)絡(luò)處理器,需要設(shè)計(jì)一種基于嵌入式ARM內(nèi)核及現(xiàn)場可編程門陣列FPGA的主從結(jié)構(gòu)處理系統(tǒng)滿足要求。
2021-05-21 06:35:27

如何移植一個(gè)CNN神經(jīng)網(wǎng)絡(luò)到FPGA中?

訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)并移植到Lattice FPGA上,通常需要開發(fā)人員既要懂軟件又要懂?dāng)?shù)字電路設(shè)計(jì),是個(gè)不容易的事。好在FPGA廠商為我們提供了許多工具和IP,我們可以在這些工具和IP的基礎(chǔ)上做
2020-11-26 07:46:03

如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

稱為BP神經(jīng)網(wǎng)絡(luò)。采用BP神經(jīng)網(wǎng)絡(luò)模型能完成圖像數(shù)據(jù)的壓縮處理。在圖像壓縮中,神經(jīng)網(wǎng)絡(luò)處理優(yōu)勢在于:巨量并行性;信息處理和存儲(chǔ)單元結(jié)合在一起;自組織自學(xué)習(xí)功能。與傳統(tǒng)的數(shù)字信號(hào)處理器DSP
2019-08-08 06:11:30

如何進(jìn)行高效的時(shí)序圖神經(jīng)網(wǎng)絡(luò)訓(xùn)練

訓(xùn)練過程與數(shù)據(jù)傳輸過程進(jìn)行流水線化處理。具體來說,我們將GPU的顯存劃分為三部分:第一部分存儲(chǔ)固定的數(shù)據(jù)(神經(jīng)網(wǎng)絡(luò)參數(shù)以及源點(diǎn)的特征向量),第二部分存儲(chǔ)當(dāng)前神經(jīng)網(wǎng)絡(luò)訓(xùn)練所需的數(shù)據(jù)( 包括邊數(shù)據(jù)和匯點(diǎn)
2022-09-28 10:37:20

嵌入式中的人工神經(jīng)網(wǎng)絡(luò)的相關(guān)資料分享

設(shè)備沒有連接的時(shí)候。 在這種情況下,需要一個(gè)能夠?qū)崟r(shí)進(jìn)行信號(hào)預(yù)處理和執(zhí)行神經(jīng)網(wǎng)絡(luò)的平臺(tái),需要最低功耗,尤其是在一個(gè)電池設(shè)備上運(yùn)行的時(shí)候。通過使用不同的工具(如 python 腳本) ,可以訓(xùn)練一個(gè)數(shù)...
2021-11-09 08:06:27

當(dāng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)用于應(yīng)用的時(shí)候,權(quán)值是不是不能變了?

當(dāng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)用于應(yīng)用的時(shí)候,權(quán)值是不是不能變了????就是已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)是不是相當(dāng)于得到一個(gè)公式了,權(quán)值不能變了
2016-10-24 21:55:22

怎么設(shè)計(jì)ARM與神經(jīng)網(wǎng)絡(luò)處理器的通信方案?

FPGA的嵌入式應(yīng)用。某人工神經(jīng)網(wǎng)絡(luò)的FPGA處理器能夠?qū)?shù)據(jù)進(jìn)行運(yùn)算處理,為了實(shí)現(xiàn)集數(shù)據(jù)通信、操作控制和數(shù)據(jù)處理于一體的便攜式神經(jīng)網(wǎng)絡(luò)處理器,需要設(shè)計(jì)一種基于嵌入式ARM內(nèi)核及現(xiàn)場可編程門陣列FPGA的主從結(jié)構(gòu)處理系統(tǒng)滿足要求。
2019-09-20 06:15:20

探討一下深度學(xué)習(xí)在嵌入式設(shè)備上的應(yīng)用

下面來探討一下深度學(xué)習(xí)在嵌入式設(shè)備上的應(yīng)用,具體如下:1、深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,包含多個(gè)隱層的多層感知(MLP) 是一種原始的深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象
2021-10-27 08:02:31

機(jī)器學(xué)習(xí)訓(xùn)練秘籍——吳恩達(dá)

來說,提升算法性能的更加可靠的方法仍然是訓(xùn)練更大的網(wǎng)絡(luò)以及獲取更多的數(shù)據(jù)。完成 1 和 2 的過程異常復(fù)雜,本書將對(duì)其中的細(xì)節(jié)作進(jìn)一步的討論。我們將從傳統(tǒng)學(xué)習(xí)算法與神經(jīng)網(wǎng)絡(luò)中都起作用的通用策略入手,循序漸進(jìn)地講解至最前沿的構(gòu)建深度學(xué)習(xí)系統(tǒng)的策略。``
2018-11-30 16:45:03

淺談深度學(xué)習(xí)之TensorFlow

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的概念,但為了完整起見,我們將在這里介紹基礎(chǔ)知識(shí),并探討 TensorFlow 的哪些特性使其成為深度學(xué)習(xí)的熱門選擇。神經(jīng)網(wǎng)絡(luò)是一個(gè)生物啟發(fā)式的計(jì)算和學(xué)習(xí)模型。像生物神經(jīng)元一樣,它們從其他
2020-07-28 14:34:04

用S3C2440訓(xùn)練神經(jīng)網(wǎng)絡(luò)算法

嵌入式設(shè)備自帶專用屬性,不適合作為隨機(jī)性很強(qiáng)的人工智能深度學(xué)習(xí)訓(xùn)練平臺(tái)。想象用S3C2440訓(xùn)練神經(jīng)網(wǎng)絡(luò)算法都會(huì)頭皮發(fā)麻,PC上的I7、GPU上都很吃力,大部分都要依靠服務(wù)訓(xùn)練。但是一旦算法訓(xùn)練
2021-08-17 08:51:57

粒子群優(yōu)化模糊神經(jīng)網(wǎng)絡(luò)在語音識(shí)別中的應(yīng)用

針對(duì)模糊神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用BP算法比較依賴于網(wǎng)絡(luò)的初始條件,訓(xùn)練時(shí)間較長,容易陷入局部極值的缺點(diǎn),利用粒子群優(yōu)化算法(PSO)的全局搜索性能,將PSO用于模糊神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程.由于基本PSO算法存在
2010-05-06 09:05:35

視覺推理新殺!英特爾新一代VPU性能翻10倍,反超英偉達(dá) 精選資料分享

點(diǎn)擊我愛計(jì)算機(jī)視覺標(biāo)星,更快獲取CVML新技術(shù)本文轉(zhuǎn)自新智元。新智元報(bào)道來源:venturebeat編輯:肖琴【新智元導(dǎo)讀】英特爾今天宣布首款A(yù)I芯片Nervana神經(jīng)網(wǎng)絡(luò)處理器...
2021-07-26 06:48:01

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐
2020-06-14 22:21:12

計(jì)算機(jī)視覺神經(jīng)網(wǎng)絡(luò)資料全集

CV之YOLOv3:深度學(xué)習(xí)之計(jì)算機(jī)視覺神經(jīng)網(wǎng)絡(luò)Yolov3-5clessses訓(xùn)練自己的數(shù)據(jù)集全程記錄(第二次)——Jason niu
2018-12-24 11:52:25

請(qǐng)問Labveiw如何調(diào)用matlab訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型呢?

我在matlab中訓(xùn)練好了一個(gè)神經(jīng)網(wǎng)絡(luò)模型,想在labview中調(diào)用,請(qǐng)問應(yīng)該怎么做呢?或者labview有自己的神經(jīng)網(wǎng)絡(luò)工具包嗎?
2018-07-05 17:32:32

超越英偉達(dá)Pascal五倍?揭秘英特爾深度學(xué)習(xí)芯片架構(gòu) 精選資料推薦

在被英特爾收購兩年之后,深度學(xué)習(xí)芯片公司 Nervana 終于準(zhǔn)備將代號(hào)為「Lake Crest」的架構(gòu)轉(zhuǎn)化為實(shí)際的產(chǎn)品了。對(duì)于英特爾來說,現(xiàn)在入局或許有些遲到,英偉達(dá)已經(jīng)占據(jù)深度學(xué)習(xí)芯片市場很長一段時(shí)間了,后者有充分的時(shí)間通過新...
2021-07-26 07:04:35

隱藏技術(shù): 一種基于前沿神經(jīng)網(wǎng)絡(luò)理論的新型人工智能處理器

隱藏技術(shù): 一種基于前沿神經(jīng)網(wǎng)絡(luò)理論的新型人工智能處理器 Copy東京理工大學(xué)的研究人員開發(fā)了一種名為“ Hiddenite”的新型加速芯片,該芯片可以在計(jì)算稀疏“隱藏神經(jīng)網(wǎng)絡(luò)”時(shí)達(dá)到最高的精度
2022-03-17 19:15:13

基于小波神經(jīng)網(wǎng)絡(luò)的信息系綜合評(píng)價(jià)系統(tǒng)的訓(xùn)練算法

基于小波神經(jīng)網(wǎng)絡(luò)的信息系綜合評(píng)價(jià)系統(tǒng)的訓(xùn)練算法 為了對(duì)基于小波神經(jīng)網(wǎng)絡(luò)的信息系統(tǒng)綜合評(píng)價(jià)系統(tǒng)進(jìn)行訓(xùn)練,必須確定網(wǎng)絡(luò)參數(shù)Wk ,bk
2009-02-27 09:36:12665

基于自適應(yīng)果蠅算法的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練

基于自適應(yīng)果蠅算法的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練_霍慧慧
2017-01-03 17:41:580

訓(xùn)練神經(jīng)網(wǎng)絡(luò)的五大算法

神經(jīng)網(wǎng)絡(luò)模型的每一類學(xué)習(xí)過程通常被歸納為一種訓(xùn)練算法。訓(xùn)練的算法有很多,它們的特點(diǎn)和性能各不相同。問題的抽象人們把神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過程轉(zhuǎn)化為求損失函數(shù)f的最小值問題。一般來說,損失函數(shù)包括誤差項(xiàng)和正則
2017-11-16 15:30:5412882

BP神經(jīng)網(wǎng)絡(luò)MapReduce訓(xùn)練

為提高大樣本集情況下BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練效率,提出了一種基于局部收斂權(quán)陣進(jìn)化的BP神經(jīng)網(wǎng)絡(luò)MapReduce訓(xùn)練方法,以各Map任務(wù)基于其輸入數(shù)據(jù)分片訓(xùn)練產(chǎn)生的局部收斂權(quán)陣作為初始種群,在Reduce
2017-11-23 15:07:4012

叫板谷歌,亞馬遜微軟推出深度學(xué)習(xí)訓(xùn)練神經(jīng)網(wǎng)絡(luò)更加簡單

據(jù)報(bào)道,亞馬遜和微軟合力推出全新的深度學(xué)習(xí)庫,名字叫Gluon。此舉被認(rèn)為是在云計(jì)算市場上與谷歌叫板,谷歌曾通過AI生態(tài)系統(tǒng)發(fā)力云計(jì)算,強(qiáng)調(diào)自身產(chǎn)品對(duì)深度學(xué)習(xí)的強(qiáng)大支持。Gluon可以讓訓(xùn)練神經(jīng)網(wǎng)絡(luò)像開發(fā)APP一樣簡單,簡潔的代碼構(gòu)建神經(jīng)網(wǎng)絡(luò),而不需要犧牲性能。
2018-01-05 16:56:102002

英特爾與諾華合作,利用深度神經(jīng)網(wǎng)絡(luò)加速高內(nèi)涵藥物篩選

在近日舉行的英特爾人工智能開發(fā)者大會(huì)上,英特爾公司全球副總裁兼人工智能產(chǎn)品事業(yè)部總經(jīng)理Naveen Rao提到,英特爾正在與諾華合作,利用深度神經(jīng)網(wǎng)絡(luò)來加速高內(nèi)涵篩選——這是早期藥品研發(fā)的關(guān)鍵因素。雙方的合作把訓(xùn)練圖片分析模型的時(shí)間從11個(gè)小時(shí)縮短到了31分鐘——改善了20多倍
2018-06-15 09:39:00703

基于虛擬化的多GPU深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練框架

針對(duì)深度神經(jīng)網(wǎng)絡(luò)在分布式多機(jī)多GPU上的加速訓(xùn)練問題,提出一種基于虛擬化的遠(yuǎn)程多GPU調(diào)用的實(shí)現(xiàn)方法。利用遠(yuǎn)程GPU調(diào)用部署的分布式GPU集群改進(jìn)傳統(tǒng)一對(duì)一的虛擬化技術(shù),同時(shí)改變深度神經(jīng)網(wǎng)絡(luò)在分布式
2018-03-29 16:45:250

決戰(zhàn)AI芯片!英特爾押寶Nervana NNP

芯片Nervana NNP L-1000,將在2019年正式推向市場,這也是英特爾第一個(gè)商用神經(jīng)網(wǎng)絡(luò)處理器產(chǎn)品。
2018-06-08 01:20:004603

英特爾利用深度神經(jīng)網(wǎng)絡(luò)來加速高內(nèi)涵篩選

英特爾正在與諾華合作,利用深度神經(jīng)網(wǎng)絡(luò)來加速高內(nèi)涵篩選——這是早期藥品研發(fā)的關(guān)鍵因素。雙方的合作把訓(xùn)練圖片分析模型的時(shí)間從11個(gè)小時(shí)縮短到了31分鐘——改善了20多倍。
2018-06-22 16:23:593596

深度學(xué)習(xí)英特爾Nervana介紹

了解用于深度學(xué)習(xí)英特爾?Nervana?Graph項(xiàng)目IR
2018-11-13 07:14:001936

英特爾兩款面向推理和訓(xùn)練Nervana神經(jīng)網(wǎng)絡(luò)處理器,將在今年年底發(fā)布

英特爾? Nervana?神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器(NNP-T)。這一合作包括全新定制化加速器,以實(shí)現(xiàn)極速訓(xùn)練深度學(xué)習(xí)模型的目的。
2019-07-07 09:20:362888

英特爾宣布與百度合作開發(fā)嵌入式處理器

英特爾百度創(chuàng)建AI開發(fā)者大會(huì)上宣布,它正在與百度合作開發(fā)英特爾Nervana神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器,稱為NNP-T。
2019-07-11 17:07:35529

Intel將打造AI訓(xùn)練嵌入式處理器Nervana

Intel也強(qiáng)調(diào)將以軟體驅(qū)動(dòng)硬件運(yùn)算性能,因此也說明此次與百度合作的戰(zhàn)略意義,借此透過軟件定義方式讓Nervana處理器能對(duì)應(yīng)各類人工智能訓(xùn)練學(xué)習(xí)需求。
2019-07-11 17:11:21716

英特爾利用神經(jīng)網(wǎng)絡(luò)芯片推倒了人工智能技術(shù)

在今年的英特爾AI峰會(huì)上,該芯片制造商展示了其第一代神經(jīng)網(wǎng)絡(luò)處理器(NNP):用于訓(xùn)練的NNP-T和用于推理的NNP-I。
2019-11-22 10:15:011223

美超微正在與英特爾Nervana NNP-T平臺(tái)方面展開合作

美超微電腦股份有限公司(SMCI)正在與英特爾展開合作,將美超微的先進(jìn)系統(tǒng)與英特爾 Nervana(TM)神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器(NNP-T)相結(jié)合,開發(fā)新的人工智能(AI)解決方案。英特爾的NNP-T是一款專門用于AI訓(xùn)練的ASIC芯片(專用集成電路),可滿足深度學(xué)習(xí)訓(xùn)練模型不斷增長的計(jì)算需求。
2019-11-25 09:30:382495

英特爾Nervana神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器正式發(fā)布

英特爾今天在北京發(fā)布了他們最新推出的英特爾Nervana神經(jīng)網(wǎng)絡(luò)處理器(NNP)和下一代英特爾Movidius Myriad視覺處理單元(VPU)。
2019-11-26 16:54:163552

英特爾已決定終止其Nervana神經(jīng)網(wǎng)絡(luò)處理器的開發(fā)工作

Habana已經(jīng)開發(fā)了兩款自己的AI芯片,即Habana Gaudi和Habana Goya(如圖)。前者是高度專門化的神經(jīng)網(wǎng)絡(luò)訓(xùn)練芯片,而后者是用于推理的處理器,在主動(dòng)部署中使用神經(jīng)網(wǎng)絡(luò)
2020-02-06 15:06:102189

英特爾公司已決定終止其Nervana神經(jīng)網(wǎng)絡(luò)處理器的開發(fā)工作

確實(shí),在英特爾收購Habana時(shí),分析家就對(duì)Nervana芯片的未來進(jìn)行了推測。弗洛伊德本人說,“很難想象”一種情況,其中涅rv處理器將繼續(xù)在英特爾產(chǎn)品組合中扮演重要角色。
2020-03-22 16:33:001600

基于PyTorch的深度學(xué)習(xí)入門教程之訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)分類器

了定義神經(jīng)網(wǎng)絡(luò),計(jì)算損失和更新權(quán)重,這里介紹訓(xùn)練神經(jīng)網(wǎng)絡(luò)分類器。 1 關(guān)于數(shù)據(jù) 通常,當(dāng)你需要處理圖像、文本、飲品或者
2021-02-15 09:47:001908

NVIDIA GPU加快深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推斷

深度學(xué)習(xí)是推動(dòng)當(dāng)前人工智能大趨勢的關(guān)鍵技術(shù)。在 MATLAB 中可以實(shí)現(xiàn)深度學(xué)習(xí)的數(shù)據(jù)準(zhǔn)備、網(wǎng)絡(luò)設(shè)計(jì)、訓(xùn)練和部署全流程開發(fā)和應(yīng)用。聯(lián)合高性能 NVIDIA GPU 加快深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推斷。
2022-02-18 13:31:441714

第四代英特爾至強(qiáng)可擴(kuò)展處理器和Habana Gaudi2在深度學(xué)習(xí)訓(xùn)練中展現(xiàn)領(lǐng)先的AI性能

在MLCommons近日發(fā)布的AI性能行業(yè)基準(zhǔn)測試結(jié)果中,代號(hào)為Sapphire Rapids的第四代英特爾至強(qiáng)可擴(kuò)展處理器和專用于深度學(xué)習(xí)AI訓(xùn)練的Habana Gaudi2加速器展現(xiàn)了卓越的訓(xùn)練表現(xiàn)。
2022-12-01 15:24:24381

訓(xùn)練深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的常用5個(gè)損失函數(shù)

作者:Onepagecode來源:DeepHubIMBA神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)的優(yōu)化首先是對(duì)模型的當(dāng)前狀態(tài)進(jìn)行誤差估計(jì),然后為了減少下一次評(píng)估的誤差,需要使用一個(gè)能夠表示錯(cuò)誤函數(shù)對(duì)權(quán)重進(jìn)行更新,這個(gè)函數(shù)
2022-10-19 11:17:35475

深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎 深度學(xué)習(xí)框架是一個(gè)非常重要的技術(shù),它們能夠加速深度學(xué)習(xí)的開發(fā)與部署過程。在深度學(xué)習(xí)中,我們通常需要進(jìn)行兩個(gè)關(guān)鍵的任務(wù),即訓(xùn)練和推理。訓(xùn)練是指使用訓(xùn)練數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)
2023-08-17 16:03:11905

python卷積神經(jīng)網(wǎng)絡(luò)cnn的訓(xùn)練算法

python卷積神經(jīng)網(wǎng)絡(luò)cnn的訓(xùn)練算法? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)一直是深度學(xué)習(xí)領(lǐng)域重要的應(yīng)用之一,被廣泛應(yīng)用于圖像、視頻、語音等領(lǐng)域
2023-08-21 16:41:37859

卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練步驟

卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練步驟? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種常用的深度學(xué)習(xí)算法,廣泛應(yīng)用于圖像識(shí)別、語音識(shí)別、自然語言處理等諸多領(lǐng)域。CNN
2023-08-21 16:42:00884

Kaggle知識(shí)點(diǎn):訓(xùn)練神經(jīng)網(wǎng)絡(luò)的7個(gè)技巧

訓(xùn)練神經(jīng)網(wǎng)絡(luò)的挑戰(zhàn)在訓(xùn)練數(shù)據(jù)集的新示例之間取得平衡。七個(gè)具體的技巧,可幫助您更快地訓(xùn)練出更好的神經(jīng)網(wǎng)絡(luò)模型。學(xué)習(xí)和泛化使用反向傳播設(shè)計(jì)和訓(xùn)練網(wǎng)絡(luò)需要做出許多看似任
2023-12-30 08:27:54319

已全部加載完成