0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能300年!LSTM之父萬(wàn)字長(zhǎng)文:詳解現(xiàn)代AI和深度學(xué)習(xí)發(fā)展史

穎脈Imgtec ? 2023-01-13 11:02 ? 次閱讀

來(lái)源:新智元

編輯:昕朋 好困

導(dǎo)讀

最近,LSTM之父Jürgen Schmidhuber梳理了17世紀(jì)以來(lái)人工智能的歷史。在這篇萬(wàn)字長(zhǎng)文中,Schmidhuber為讀者提供了一個(gè)大事年表,其中包括神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)、人工智能等領(lǐng)域的重要事件,以及那些為AI奠定基礎(chǔ)的科學(xué)家們。

「人工智能」一詞,首次在1956年達(dá)特茅斯會(huì)議上,由約翰麥卡錫等人正式提出。

實(shí)用AI的提出,最早可以追溯到1914年。當(dāng)時(shí)Leonardo Torres y Quevedo構(gòu)建了第一個(gè)工作的國(guó)際象棋機(jī)器終端游戲玩家。當(dāng)時(shí),國(guó)際象棋被認(rèn)為是一種僅限于智能生物領(lǐng)域的活動(dòng)。至于人工智能理論,則可以追溯到1931-34年。當(dāng)時(shí)庫(kù)爾特·哥德?tīng)枺↘urt G?del )確定了任何類(lèi)型的基于計(jì)算的人工智能的基本限制。

時(shí)間來(lái)到1980年代,此時(shí)的AI歷史會(huì)強(qiáng)調(diào)定理證明、邏輯編程、專家系統(tǒng)和啟發(fā)式搜索等主題。

2000年代初期的AI歷史會(huì)更加強(qiáng)調(diào)支持向量機(jī)和內(nèi)核方法等主題。貝葉斯推理(Bayesian reasoning)和其他概率論和統(tǒng)計(jì)概念、決策樹(shù)、 集成方法、群體智能和進(jìn)化計(jì)算,此類(lèi)技術(shù)推動(dòng)了許多成功的AI應(yīng)用。

2020年代的AI研究反而更加「復(fù)古」,比如強(qiáng)調(diào)諸如鏈?zhǔn)椒▌t和通過(guò)梯度下降(gradient descent)訓(xùn)練的深度非線性人工神經(jīng)網(wǎng)絡(luò),特別是基于反饋的循環(huán)網(wǎng)絡(luò)等概念。

Schmidhuber表示,這篇文章對(duì)之前具有誤導(dǎo)性的「深度學(xué)習(xí)歷史」進(jìn)行糾正。在他看來(lái),之前的深度學(xué)習(xí)史忽略了文章中提到的大部分開(kāi)創(chuàng)性工作。
此外,Schmidhuber還駁斥了一個(gè)常見(jiàn)的錯(cuò)誤,即神經(jīng)網(wǎng)絡(luò)「作為幫助計(jì)算機(jī)識(shí)別模式和模擬人類(lèi)智能的工具是在1980年代引入的」。因?yàn)槭聦?shí)上,神經(jīng)網(wǎng)絡(luò)早在80年代前就已出現(xiàn)。


一、1676年:反向信用分配的鏈?zhǔn)椒▌t

1676年,戈特弗里德·威廉·萊布尼茨(Gottfried Wilhelm Leibniz)在回憶錄中發(fā)表了微積分的鏈?zhǔn)椒▌t。如今,這條規(guī)則成為了深度神經(jīng)網(wǎng)絡(luò)中信用分配的核心,是現(xiàn)代深度學(xué)習(xí)的基礎(chǔ)。

神經(jīng)網(wǎng)絡(luò)具有計(jì)算來(lái)自其他神經(jīng)元的輸入的可微函數(shù)的節(jié)點(diǎn)或神經(jīng)元,這些節(jié)點(diǎn)或神經(jīng)元又計(jì)算來(lái)自其他神經(jīng)元的輸入的可微函數(shù)。如果想要知道修改早期函數(shù)的參數(shù)或權(quán)值后,最終函數(shù)輸出的變化,就需要用到鏈?zhǔn)椒▌t。這個(gè)答案也被用于梯度下降技術(shù)。為了教會(huì)神經(jīng)網(wǎng)絡(luò)將來(lái)自訓(xùn)練集的輸入模式轉(zhuǎn)換為所需的輸出模式,所有神經(jīng)網(wǎng)絡(luò)權(quán)值都朝著最大局部改進(jìn)的方向迭代改變一點(diǎn),以創(chuàng)建稍微更好的神經(jīng)網(wǎng)絡(luò),依此類(lèi)推,逐漸靠近權(quán)值和偏置的最佳組合,從而最小化損失函數(shù)。值得注意的是,萊布尼茨也是第一個(gè)發(fā)現(xiàn)微積分的數(shù)學(xué)家。他和艾薩克·牛頓先后獨(dú)立發(fā)現(xiàn)了微積分,而且他所使用的微積分的數(shù)學(xué)符號(hào)被更廣泛的使用,萊布尼茨所發(fā)明的符號(hào)被普遍認(rèn)為更綜合,適用范圍更加廣泛。此外,萊布尼茨還是「世界上第一位計(jì)算機(jī)科學(xué)家」。他于1673年設(shè)計(jì)了第一臺(tái)可以執(zhí)行所有四種算術(shù)運(yùn)算的機(jī)器,奠定了現(xiàn)代計(jì)算機(jī)科學(xué)的基礎(chǔ)。


二、19世紀(jì)初:神經(jīng)網(wǎng)絡(luò)、線性回歸與淺層學(xué)習(xí)

1805 年,阿德利昂·瑪利·?!だ兆尩拢?a target="_blank">Adrien-Marie Legendre)發(fā)表了現(xiàn)在通常稱為線性神經(jīng)網(wǎng)絡(luò)的內(nèi)容。

阿德利昂·瑪利·?!だ兆尩?/span>后來(lái),約翰·卡爾·弗里德里?!じ咚梗↗ohann Carl Friedrich Gauss)也因類(lèi)似的研究而受到贊譽(yù)。這個(gè)來(lái)自2個(gè)多世紀(jì)前的神經(jīng)網(wǎng)絡(luò)有兩層:一個(gè)具有多個(gè)輸入單元的輸入層和一個(gè)輸出層。每個(gè)輸入單元都可以保存一個(gè)實(shí)數(shù)值,并通過(guò)具有實(shí)數(shù)值權(quán)值的連接連接到輸出。神經(jīng)網(wǎng)絡(luò)的輸出是輸入與其權(quán)值的乘積之和。給定輸入向量的訓(xùn)練集和每個(gè)向量的期望目標(biāo)值,調(diào)整 權(quán)值,使神經(jīng)網(wǎng)絡(luò)輸出與相應(yīng)目標(biāo)之間的平方誤差之和最小化。當(dāng)然,那時(shí)候這還不叫神經(jīng)網(wǎng)絡(luò)。它被稱為最小二乘法(least squares),也被廣泛稱為線性回歸。但它在數(shù)學(xué)上與今天的線性神經(jīng)網(wǎng)絡(luò)相同:相同的基本算法、相同的誤差函數(shù)、相同的自適應(yīng)參數(shù)/權(quán)值。

這種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)執(zhí)行「淺層學(xué)習(xí)」,與具有許多非線性層的「深度學(xué)習(xí)」相反。事實(shí)上,許多神經(jīng)網(wǎng)絡(luò)課程都是從介紹這種方法開(kāi)始的,然后轉(zhuǎn)向更復(fù)雜、更深入的神經(jīng)網(wǎng)絡(luò)。當(dāng)今,所有技術(shù)學(xué)科的學(xué)生都必須上數(shù)學(xué)課,尤其是分析、線性代數(shù)和統(tǒng)計(jì)學(xué)。在所有這些領(lǐng)域中,許多重要的結(jié)果和方法都要?dú)w功于高斯:代數(shù)基本定理、高斯消元法、統(tǒng)計(jì)的高斯分布等。這位號(hào)稱「自古以來(lái)最偉大的數(shù)學(xué)家」的人也開(kāi)創(chuàng)了微分幾何、數(shù)論(他最喜歡的科目)和非歐幾何。如果沒(méi)有他的成果,包括AI在內(nèi)的現(xiàn)代工程將不可想象。


三、1920-1925年:第一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)

與人腦相似,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)具有反饋連接,因此可以遵循從某些內(nèi)部節(jié)點(diǎn)到其他節(jié)點(diǎn)的定向連接,并最終在起點(diǎn)處結(jié)束。這對(duì)于在序列處理期間實(shí)現(xiàn)對(duì)過(guò)去事件的記憶至關(guān)重要。

物理學(xué)家恩斯特·伊辛(Ernst Ising)和威廉·楞次(Wilhelm Lenz)在 1920 年代引入并分析了第一個(gè)非學(xué)習(xí)RNN架構(gòu):伊辛模型(Ising model)。它根據(jù)輸入條件進(jìn)入平衡狀態(tài),是第一個(gè)RNN學(xué)習(xí)模型的基礎(chǔ)。1972 年,甘利俊一(Shun-Ichi Amari)使伊辛模型循環(huán)架構(gòu)具有自適應(yīng)性,可以通過(guò)改變其連接權(quán)值來(lái)學(xué)習(xí)將輸入模式與輸出模式相關(guān)聯(lián)。這是世界上第一個(gè)學(xué)習(xí)型RNN。

目前,最流行的RNN就是Schmidhuber提出的長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM。它已經(jīng)成為20世紀(jì)被引用最多的神經(jīng)網(wǎng)絡(luò)。


四、1958年:多層前饋神經(jīng)網(wǎng)絡(luò)

1958年,弗蘭克·羅森布拉特(Frank Rosenblatt)結(jié)合了線性神經(jīng)網(wǎng)絡(luò)和閾值函數(shù),設(shè)計(jì)出了更深層次的多層感知器 (MLP)。

多層感知器遵循人類(lèi)神經(jīng)系統(tǒng)原理,學(xué)習(xí)并進(jìn)行數(shù)據(jù)預(yù)測(cè)。它首先學(xué)習(xí),然后使用權(quán)值存儲(chǔ)數(shù)據(jù),并使用算法來(lái)調(diào)整權(quán)值并減少訓(xùn)練過(guò)程中的偏差,即實(shí)際值和預(yù)測(cè)值之間的誤差。由于多層前饋網(wǎng)絡(luò)的訓(xùn)練經(jīng)常采用誤差反向傳播算法,在模式識(shí)別的領(lǐng)域中算是標(biāo)準(zhǔn)監(jiān)督學(xué)習(xí)算法,并在計(jì)算神經(jīng)學(xué)及并行分布式處理領(lǐng)域中,持續(xù)成為被研究的課題。


五、1965年:第一個(gè)深度學(xué)習(xí)

深度前饋網(wǎng)絡(luò)架構(gòu)的成功學(xué)習(xí)始于1965年的烏克蘭,當(dāng)時(shí)Alexey Ivakhnenko和Valentin Lapa為具有任意多個(gè)隱藏層的深度MLP引入了第一個(gè)通用的工作學(xué)習(xí)算法。

給定一組具有相應(yīng)目標(biāo)輸出向量的輸入向量訓(xùn)練集,層逐漸增長(zhǎng)并通過(guò)回歸分析進(jìn)行訓(xùn)練,然后借助單獨(dú)的驗(yàn)證集進(jìn)行修剪,其中正則化用于清除多余的單元。層數(shù)和每層單元以問(wèn)題相關(guān)的方式學(xué)習(xí)。與后來(lái)的深度神經(jīng)網(wǎng)絡(luò)一樣,Ivakhnenko的網(wǎng)絡(luò)學(xué)會(huì)了為傳入數(shù)據(jù)創(chuàng)建分層的、分布式的、內(nèi)部表示。他沒(méi)有稱它們?yōu)樯疃葘W(xué)習(xí)神經(jīng)網(wǎng)絡(luò),但它們就是這樣。事實(shí)上,「深度學(xué)習(xí)」這個(gè)術(shù)語(yǔ)最早是由Dechter于1986年引入機(jī)器學(xué)習(xí)的,而Aizenberg等人在2000則引入了「神經(jīng)網(wǎng)絡(luò)」的概念。


六、1967-68年:隨機(jī)梯度下降

1967年,甘利俊一首次提出通過(guò)隨機(jī)梯度下降 (SGD)訓(xùn)練神經(jīng)網(wǎng)絡(luò)。甘利俊一與他的學(xué)生Saito在具有兩個(gè)可修改層的五層MLP中學(xué)習(xí)了內(nèi)部表示,該層被訓(xùn)練用于對(duì)非線性可分離模式類(lèi)進(jìn)行分類(lèi)。Rumelhart和Hinton等人在1986年做出了類(lèi)似的工作,并將其命名為反向傳播算法。


七、1970年:反向傳播算法

1970 年,Seppo Linnainmaa率先發(fā)表了反向傳播的算法,這是一種著名的可微節(jié)點(diǎn)網(wǎng)絡(luò)信用分配算法,也稱為「自動(dòng)微分的反向模式」。

首次描述了在任意、離散的稀疏連接情況下的類(lèi)神經(jīng)網(wǎng)絡(luò)的高效誤差反向傳播方式。它現(xiàn)在是廣泛使用的神經(jīng)網(wǎng)絡(luò)軟件包的基礎(chǔ),例如PyTorch和谷歌的Tensorflow。反向傳播本質(zhì)上是為深度網(wǎng)絡(luò)實(shí)施萊布尼茨鏈?zhǔn)椒▌t的有效方式??挛鳎–auchy)提出的梯度下降在許多試驗(yàn)過(guò)程中使用它逐漸削弱某些神經(jīng)網(wǎng)絡(luò)連接并加強(qiáng)其他連接。1985年,計(jì)算成本已比1970年減少約1,000倍,當(dāng)臺(tái)式計(jì)算機(jī)剛剛在富裕的學(xué)術(shù)實(shí)驗(yàn)室中普及時(shí),David Rumelhart等人對(duì)已知方法進(jìn)行實(shí)驗(yàn)分析。

通過(guò)實(shí)驗(yàn),魯姆哈特等人證明反向傳播可以在神經(jīng)網(wǎng)絡(luò)的隱藏層中產(chǎn)生有用的內(nèi)部表示。至少對(duì)于監(jiān)督學(xué)習(xí),反向傳播通常比甘利俊一通過(guò)SGD方法進(jìn)行的上述深度學(xué)習(xí)更有效。2010年之前,許多人認(rèn)為訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)需要無(wú)監(jiān)督預(yù)訓(xùn)練。2010年,Schmidhuber的團(tuán)隊(duì)與Dan Ciresan表明深度FNN可以通過(guò)簡(jiǎn)單的反向傳播進(jìn)行訓(xùn)練,并且根本不需要對(duì)重要應(yīng)用進(jìn)行無(wú)監(jiān)督預(yù)訓(xùn)練。


八、1979年:首個(gè)卷積神經(jīng)網(wǎng)絡(luò)

1979年,福島邦彥(Kunihiko Fukushima)在STRL開(kāi)發(fā)了一種用于模式識(shí)別的神經(jīng)網(wǎng)絡(luò)模型:Neocognitron。

但這個(gè)Neocognitron用今天的話來(lái)說(shuō),叫卷積神經(jīng)網(wǎng)絡(luò)(CNN),是深度神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)的最偉大發(fā)明之一,也是當(dāng)前人工智能的核心技術(shù)。福島博士引入的Neocognitron,是第一個(gè)使用卷積和下采樣的神經(jīng)網(wǎng)絡(luò),也是卷積神經(jīng)網(wǎng)絡(luò)的雛形。福島邦彥設(shè)計(jì)的具有學(xué)習(xí)能力的人工多層神經(jīng)網(wǎng)絡(luò),可以模仿大腦的視覺(jué)網(wǎng)絡(luò),這種「洞察力」成為現(xiàn)代人工智能技術(shù)的基礎(chǔ)。福島博士的工作帶來(lái)了一系列實(shí)際應(yīng)用,從自動(dòng)駕駛汽車(chē)到面部識(shí)別,從癌癥檢測(cè)到洪水預(yù)測(cè),還會(huì)有越來(lái)越多的應(yīng)用。1987年,Alex Waibel將具有卷積的神經(jīng)網(wǎng)絡(luò)與權(quán)值共享和反向傳播相結(jié)合,提出了延時(shí)神經(jīng)網(wǎng)絡(luò)(TDNN)的概念。1989年以來(lái),Yann LeCun的團(tuán)隊(duì)為CNN的改進(jìn)做出了貢獻(xiàn),尤其是在圖像方面。

2011年末,Schmidhuber的團(tuán)隊(duì)大大加快了深度CNN的訓(xùn)練速度,使其在機(jī)器學(xué)習(xí)社區(qū)中變得更加流行。團(tuán)隊(duì)推出基于GPU的CNN:DanNet,比早期的CNN更深入、運(yùn)算更快。同年,DanNet成為第一個(gè)贏得計(jì)算機(jī)視覺(jué)競(jìng)賽的純深度CNN。由Microsoft Research的4位學(xué)者提出的殘差神經(jīng)網(wǎng)絡(luò)(ResNet),在2015年的ImageNet大規(guī)模視覺(jué)識(shí)別競(jìng)賽拔得頭籌。Schmidhuber 表示,ResNet是其團(tuán)隊(duì)研發(fā)的高速神經(jīng)網(wǎng)絡(luò)(Highway Net)的一個(gè)早期版本。相較于以前的神經(jīng)網(wǎng)絡(luò)最多只有幾十層,這是第一個(gè)真正有效的、具有數(shù)百層的深度前饋神經(jīng)網(wǎng)絡(luò)。


九、1987-1990年代:圖神經(jīng)網(wǎng)絡(luò)與隨機(jī)Delta法則

可以操縱結(jié)構(gòu)化數(shù)據(jù)(例如圖形)的深度學(xué)習(xí)架構(gòu)于1987年由Pollack提出,并在20世紀(jì)90年代初由 Sperduti、Goller和Küchler進(jìn)行擴(kuò)展和改進(jìn)。如今,圖神經(jīng)網(wǎng)絡(luò)被用于許多應(yīng)用程序中。

Paul Werbos和R. J. Williams等人分析了在RNN中實(shí)現(xiàn)梯度下降的方法。Teuvo Kohonen的自組織映射(Self-Organizing Map)也流行起來(lái)。

1990年,Stephen Hanson引入了隨機(jī)Delta法則,這是一種通過(guò)反向傳播訓(xùn)練神經(jīng)網(wǎng)絡(luò)的隨機(jī)方法。幾十年后,這個(gè)方法在「dropout」的綽號(hào)下流行起來(lái)。


十、1990年2月:生成式對(duì)抗網(wǎng)絡(luò)/好奇心

生成對(duì)抗網(wǎng)絡(luò)(GAN)最早于1990年在以「人工智能好奇心」為名發(fā)表。

兩個(gè)對(duì)抗的NN(一個(gè)概率生成器和一個(gè)預(yù)測(cè)器)試圖在一個(gè)最小極限游戲中使對(duì)方的損失最大化。其中:

生成器(稱為控制器)生成概率輸出(使用隨機(jī)單元,如后來(lái)的StyleGAN)。

預(yù)測(cè)器(稱為世界模型)看到控制器的輸出并預(yù)測(cè)環(huán)境對(duì)它們的反應(yīng)。使用梯度下降法,預(yù)測(cè)器NN將其誤差最小化,而生成器NN試圖這個(gè)誤差最大化——一個(gè)網(wǎng)的損失就是另一個(gè)網(wǎng)絡(luò)的收益。

之前4年,Schmidhuber就在著名的2010年調(diào)查中,將1990年的生成式對(duì)抗NN總結(jié)如下:「作為預(yù)測(cè)世界模型的神經(jīng)網(wǎng)絡(luò)被用來(lái)最大化控制器的內(nèi)在獎(jiǎng)勵(lì),它與模型的預(yù)測(cè)誤差成正比」。而之后發(fā)布的GAN,只是一個(gè)實(shí)例。其中,試驗(yàn)非常短,環(huán)境只是根據(jù)控制器(或生成器)的輸出是否在一個(gè)給定的集合中而返回1或0。

1990年的原理被廣泛用于強(qiáng)化學(xué)習(xí)的探索和現(xiàn)實(shí)圖像的合成,盡管后者的領(lǐng)域最近被Rombach等人的Latent Diffusion接替。1991年,Schmidhuber發(fā)表了另一個(gè)基于兩個(gè)對(duì)抗性NN的ML方法,稱為可預(yù)測(cè)性最小化,用于創(chuàng)建部分冗余數(shù)據(jù)的分離表征,1996年應(yīng)用于圖像。


十一、1990年4月:生成子目標(biāo)/按指令工作

近幾個(gè)世紀(jì)以來(lái),大多數(shù)NN都致力于簡(jiǎn)單的模式識(shí)別,而不是高級(jí)推理。

然而,在20世紀(jì)90年代初,首次出現(xiàn)了例外。這項(xiàng)工作將傳統(tǒng)的「符號(hào)」層次式人工智能的概念注入到端到端的可區(qū)分的「次符號(hào)」(sub-symbolic)NN中。1990年,Schmidhuber團(tuán)隊(duì)的NN學(xué)會(huì)了用端到端可微分NN的子目標(biāo)生成器來(lái)生成層次化的行動(dòng)計(jì)劃,用于層次化強(qiáng)化學(xué)習(xí)(HRL)。

82c6aba0-9194-11ed-ad0d-dac502259ad0.png

一個(gè)RL機(jī)器得到額外的命令輸入,其形式為(開(kāi)始,目標(biāo))。一個(gè)評(píng)估器NN學(xué)習(xí)預(yù)測(cè)從開(kāi)始到目標(biāo)的當(dāng)前獎(jiǎng)勵(lì)/成本。一個(gè)基于(R)NN的子目標(biāo)生成器也看到了(開(kāi)始,目標(biāo)),并使用評(píng)估器NN的(副本)通過(guò)梯度下降學(xué)習(xí)一連串成本最低的中間子目標(biāo)。RL機(jī)器試圖使用這種子目標(biāo)序列來(lái)實(shí)現(xiàn)最終目標(biāo)。該系統(tǒng)在多個(gè)抽象層次和多個(gè)時(shí)間尺度上學(xué)習(xí)行動(dòng)計(jì)劃,并在原則上解決了最近被稱為「開(kāi)放性問(wèn)題」的問(wèn)題。


十二、1991年3月:具有線性自注意力的Transformer

具有「線性自注意力」的Transformer首次發(fā)表于1991年3月。

這些所謂的「快速權(quán)重程序員」(Fast Weight Programmers)或「快速權(quán)重控制器」(Fast Weight Controllers)就像傳統(tǒng)計(jì)算機(jī)一樣分離了存儲(chǔ)和控制,但以一種端到端差異化、自適應(yīng),以及神經(jīng)網(wǎng)絡(luò)的方式。

82d342ca-9194-11ed-ad0d-dac502259ad0.png此外,今天的Transformer大量使用無(wú)監(jiān)督預(yù)訓(xùn)練,這是Schmidhuber在1990-1991年首次發(fā)表的一種深度學(xué)習(xí)方法。


十三、1991年4月:通過(guò)自監(jiān)督的預(yù)訓(xùn)練進(jìn)行深度學(xué)習(xí)

今天最強(qiáng)大的NN往往是非常深的,也就是說(shuō),它們有很多層的神經(jīng)元或很多后續(xù)的計(jì)算階段。

然而,在20世紀(jì)90年代之前,基于梯度的訓(xùn)練對(duì)深度NN并不奏效(只對(duì)淺層NN有效)。與前饋NN(FNN)不同的是,RNN有反饋連接。這使得RNN成為強(qiáng)大的、通用的、平行序列的計(jì)算機(jī),可以處理任意長(zhǎng)度的輸入序列(比如語(yǔ)音或者視頻)。然而,在20世紀(jì)90年代之前,RNN在實(shí)踐中未能學(xué)習(xí)深層次的問(wèn)題。為此,Schmidhuber建立了一個(gè)自監(jiān)督的RNN層次結(jié)構(gòu),來(lái)嘗試實(shí)現(xiàn)「通用深度學(xué)習(xí)」。

1991年4月:將一個(gè)NN蒸餾成另一個(gè)NN

通過(guò)使用Schmidhuber在1991年提出的NN蒸餾程序,上述神經(jīng)歷史壓縮機(jī)的分層內(nèi)部表征可以被壓縮成一個(gè)單一的遞歸NN(RNN)。在這里,教師NN的知識(shí)被「蒸餾」到學(xué)生NN中,方法是訓(xùn)練學(xué)生NN模仿教師NN的行為(同時(shí)也重新訓(xùn)練學(xué)生NN,從而保證之前學(xué)到的技能不會(huì)被忘記)。NN蒸餾法也在許多年后被重新發(fā)表,并在今天被廣泛使用。


十四、1991年6月:基本問(wèn)題——梯度消失

Schmidhuber的第一個(gè)學(xué)生Sepp Hochreiter在1991年的畢業(yè)論文中發(fā)現(xiàn)并分析了基本的深度學(xué)習(xí)問(wèn)題。

深度NN受到現(xiàn)在著名的梯度消失問(wèn)題的困擾:在典型的深度或遞歸網(wǎng)絡(luò)中,反向傳播的錯(cuò)誤信號(hào)要么迅速縮小,要么超出界限增長(zhǎng)。在這兩種情況下,學(xué)習(xí)都會(huì)失敗。


十五、1991年6月:LSTM/Highway Net/ResNet的基礎(chǔ)

長(zhǎng)短期記憶(LSTM)遞歸神經(jīng)網(wǎng)絡(luò)克服了Sepp Hochreiter在上述1991年的畢業(yè)論文中指出的基本深度學(xué)習(xí)問(wèn)題。

在1997年發(fā)表了經(jīng)同行評(píng)審的論文之后(現(xiàn)在是20世紀(jì)被引用最多的NN文章),Schmidhuber的學(xué)生Felix Gers和Alex Graves等人,進(jìn)一步改進(jìn)了LSTM及其訓(xùn)練程序。1999-2000年發(fā)表的LSTM變體——帶有遺忘門(mén)的「vanilla LSTM架構(gòu)」,在如今谷歌的Tensorflow中依然還在應(yīng)用。2005年,Schmidhuber首次發(fā)表了LSTM在時(shí)間上完全反向傳播和雙向傳播的文章(同樣也被廣泛使用)。

2006年一個(gè)里程碑式的訓(xùn)練方法是「聯(lián)結(jié)主義時(shí)間分類(lèi)」(CTC),用于同時(shí)對(duì)齊和識(shí)別序列。Schmidhuber的團(tuán)隊(duì)在2007年成功地將CTC訓(xùn)練的LSTM應(yīng)用于語(yǔ)音(也有分層的LSTM堆棧),第一次實(shí)現(xiàn)了卓越的端到端神經(jīng)語(yǔ)音識(shí)別效果。2009年,通過(guò)Alex的努力,由CTC訓(xùn)練的LSTM成為第一個(gè)贏得國(guó)際比賽的RNN,即三個(gè)ICDAR 2009手寫(xiě)比賽(法語(yǔ)、波斯語(yǔ)、阿拉伯語(yǔ))。這引起了業(yè)界的極大興趣。LSTM很快被用于所有涉及序列數(shù)據(jù)的場(chǎng)合,比如語(yǔ)音和視頻。2015年,CTC-LSTM的組合極大地改善了谷歌在安卓智能手機(jī)上的語(yǔ)音識(shí)別性能。直到2019年,谷歌在移動(dòng)端搭載的語(yǔ)音識(shí)別仍然是基于LSTM。

1995年:神經(jīng)概率語(yǔ)言模型

1995年,Schmidhuber提出了一個(gè)優(yōu)秀的神經(jīng)概率文本模型,其基本概念在2003年被重新使用。2001年,Schmidhuber表明LSTM可以學(xué)習(xí)HMM等傳統(tǒng)模型無(wú)法學(xué)習(xí)的語(yǔ)言。2016年的谷歌翻譯,則是基于兩個(gè)連接的LSTM(白皮書(shū)提到LSTM超過(guò)50次),一個(gè)用于傳入文本,一個(gè)用于傳出翻譯。同年,谷歌數(shù)據(jù)中心用于推理的超強(qiáng)計(jì)算能力中,有超過(guò)四分之一用于LSTM(還有5%用于另一種流行的深度學(xué)習(xí)技術(shù),即CNN)。83142164-9194-11ed-ad0d-dac502259ad0.jpg到了2017年,LSTM還為Facebook的機(jī)器翻譯(每周超過(guò)300億次翻譯)、蘋(píng)果在大約10億部iPhone上的Quicktype、亞馬遜的Alexa的語(yǔ)音、谷歌的圖像標(biāo)題生成和自動(dòng)電子郵件回答等提供支持。當(dāng)然,Schmidhuber的LSTM也被大量用于醫(yī)療保健和醫(yī)療診斷——簡(jiǎn)單的谷歌學(xué)術(shù)搜索就能找到無(wú)數(shù)標(biāo)題中帶有「LSTM」的醫(yī)學(xué)文章。

2015年5月,Schmidhuber團(tuán)隊(duì)基于LSTM原理提出了Highway Network,第一個(gè)具有數(shù)百層的非常深的FNN(以前的NN最多只有幾十層)。微軟的ResNet(贏得了ImageNet 2015比賽)便是它的一個(gè)版本。早期Highway Net在ImageNet上的表現(xiàn)與ResNet大致相同。Highway Net的變體也被用于某些算法任務(wù),在這些任務(wù)中,純殘差層的效果并不理想 。

LSTM/Highway Net原理是現(xiàn)代深度學(xué)習(xí)的核心

深度學(xué)習(xí)的核心是NN深度。在20世紀(jì)90年代,LSTM為有監(jiān)督的遞歸NN帶來(lái)了基本無(wú)限的深度;在2000年,受LSTM啟發(fā)的Highway Net為前饋NN帶來(lái)了深度。

現(xiàn)在,LSTM已經(jīng)成為20世紀(jì)被引用最多的NN,而Highway Net的其中一個(gè)版本ResNet,則是21世紀(jì)被引用最多的NN。


十六、1980至今:在沒(méi)有老師的情況下學(xué)習(xí)行動(dòng)的NNN

此外,NN也與強(qiáng)化學(xué)習(xí)(RL)有關(guān)。

雖然部分問(wèn)題可以通過(guò)早在20世紀(jì)80年代之前發(fā)明的非神經(jīng)技術(shù)來(lái)解決。比如,蒙特卡洛樹(shù)搜索(MC)、動(dòng)態(tài)規(guī)劃(DP)、人工進(jìn)化、α-β-剪枝、控制理論和系統(tǒng)識(shí)別、隨機(jī)梯度下降,以及通用搜索技術(shù)。但深度FNN和RNN可以為某些類(lèi)型的RL任務(wù)帶來(lái)更好的效果。一般來(lái)說(shuō),強(qiáng)化學(xué)習(xí)智能體必須學(xué)會(huì)如何在沒(méi)有老師的幫助下,與一個(gè)動(dòng)態(tài)的、最初未知的、部分可觀察的環(huán)境互動(dòng),從而使預(yù)期的累積獎(jiǎng)勵(lì)信號(hào)最大化。在行動(dòng)和可感知的結(jié)果之間可能存在任意的、先驗(yàn)的未知延遲。當(dāng)環(huán)境有一個(gè)馬爾可夫接口,使RL智能體的輸入可以傳達(dá)確定下一個(gè)最佳行動(dòng)所需的所有信息時(shí),基于動(dòng)態(tài)規(guī)劃(DP)/時(shí)序差分(TD)/蒙特卡洛樹(shù)搜索(MC)的RL會(huì)非常成功。對(duì)于沒(méi)有馬爾可夫接口的更復(fù)雜的情況,智能體不僅要考慮現(xiàn)在的輸入,還要考慮以前輸入的歷史。對(duì)此,由RL算法和LSTM形成的組合已經(jīng)成為了一種標(biāo)準(zhǔn)方案,特別是通過(guò)策略梯度訓(xùn)練的LSTM。

例如,在2018年,一個(gè)經(jīng)過(guò)PG訓(xùn)練的LSTM是OpenAI著名的Dactyl的核心,它在沒(méi)有老師的情況下學(xué)會(huì)了控制一只靈巧的機(jī)器人手。視頻游戲也是如此。2019年,DeepMind(由Schmidhuber實(shí)驗(yàn)室的一名學(xué)生共同創(chuàng)立)在《星際爭(zhēng)霸》游戲中擊敗了職業(yè)選手,其中用到的Alphastar,就是有一個(gè)由PG訓(xùn)練的深度LSTM核心。

834e28a0-9194-11ed-ad0d-dac502259ad0.gif

與此同時(shí),RL LSTM(占模型總參數(shù)數(shù)的84%)也是著名的OpenAI Five的核心,它在Dota 2中擊敗了專業(yè)的人類(lèi)玩家。RL的未來(lái)將是用復(fù)雜輸入流的緊湊時(shí)空抽象來(lái)學(xué)習(xí)/組合/規(guī)劃,也就是關(guān)于常識(shí)推理和學(xué)習(xí)思考。Schmidhuber在1990-91年發(fā)表的論文中提出,自監(jiān)督的神經(jīng)歷史壓縮器,可以學(xué)習(xí)多層次的抽象和多時(shí)間尺度上的表征概念;而基于端到端的可區(qū)分NN的子目標(biāo)生成器,則可以通過(guò)梯度下降學(xué)習(xí)分層的行動(dòng)計(jì)劃。在隨后的1997年和2015-18年,更復(fù)雜的學(xué)習(xí)抽象思維的方法被發(fā)表。


十七、是硬件問(wèn)題,呆子!

在過(guò)去的一千年里,如果沒(méi)有不斷改進(jìn)和加速升級(jí)的計(jì)算機(jī)硬件,深度學(xué)習(xí)算法不可能迎來(lái)重大突破。

我們第一個(gè)已知的齒輪計(jì)算設(shè)備是2000多年前古希臘的安提基特拉機(jī)械(Antikythera mechanism)。這是現(xiàn)今所知的最古老的復(fù)雜科學(xué)計(jì)算機(jī),同時(shí)也是世界上第一臺(tái)模擬計(jì)算機(jī)。

而世界上第一臺(tái)實(shí)用的可編程機(jī)器,是古希臘機(jī)械學(xué)家海倫于公元1世紀(jì)發(fā)明的。17世紀(jì)的機(jī)器變得更為靈活,可以根據(jù)輸入數(shù)據(jù)計(jì)算答案。第一臺(tái)用于簡(jiǎn)單算術(shù)的機(jī)械計(jì)算器由威廉·契克卡德(Wilhelm Schickard)于1623年發(fā)明制造。1673年,萊布尼茨設(shè)計(jì)了第一臺(tái)可以執(zhí)行所有四種算術(shù)運(yùn)算,并帶有內(nèi)存的機(jī)器。他還描述了由穿孔卡控制的二進(jìn)制計(jì)算機(jī)的原理并提出鏈?zhǔn)椒▌t,構(gòu)成了深度學(xué)習(xí)和現(xiàn)代人工智能的重要組成部分。

800年左右,約瑟夫·瑪麗·雅卡爾 (Joseph Marie Jacquard) 等人在法國(guó)制造了第一臺(tái)首臺(tái)可設(shè)計(jì)織布機(jī)——雅卡爾織布機(jī)(Jacquard machine)。該發(fā)明對(duì)將來(lái)發(fā)展出其他可編程機(jī)器(例如計(jì)算機(jī))起了重要作用。

他們啟發(fā)了阿達(dá)·洛芙萊斯(Ada Lovelace)和她的導(dǎo)師查爾斯·巴貝奇(Charles Babbage)發(fā)明了一臺(tái)現(xiàn)代電子計(jì)算機(jī)的前身:巴貝奇差分機(jī)。在隨后的1843年,洛芙萊斯公布了世界上第一套計(jì)算機(jī)算法。

巴貝奇差分機(jī)1914年,西班牙人Leonardo Torres y Quevedo成為20世紀(jì)第一位人工智能先驅(qū),他創(chuàng)造了第一個(gè)國(guó)際象棋終端機(jī)器玩家。1935年至1941年間,康拉德·楚澤(Konrad Zuse)發(fā)明了世界上第一臺(tái)可運(yùn)行的可編程通用計(jì)算機(jī):Z3。

與巴貝奇分析機(jī)不同,楚澤使用萊布尼茨的二進(jìn)制計(jì)算原理,而不是傳統(tǒng)的十進(jìn)制計(jì)算。這大大簡(jiǎn)化了硬件的負(fù)荷。1944年,霍華德·艾肯(Howard Aiken)帶領(lǐng)團(tuán)隊(duì),發(fā)明世界上第一臺(tái)大型自動(dòng)數(shù)字計(jì)算機(jī)Mark Ⅰ(馬克一號(hào))。1948年,弗雷德里克·威廉姆斯(Frederic Williams)、湯姆·基爾伯恩(Tom Kilburn)和杰夫·托蒂(Geoff Tootill)發(fā)明了世界第一臺(tái)電子存儲(chǔ)程序計(jì)算機(jī):小型實(shí)驗(yàn)機(jī) (SSEM),又被稱為「曼徹斯特寶貝」(Manchester Baby)。

從那時(shí)起,計(jì)算機(jī)的運(yùn)算在集成電路(IC)的幫助下變得更快。1949年,西門(mén)子的維爾納·雅各比(Werner Jacobi)申請(qǐng)了一項(xiàng)集成電路半導(dǎo)體專利,使一個(gè)公共基板可以有多個(gè)晶體管。1958年,Jack Kilby展示了帶有外部導(dǎo)線的集成電路。1959年,羅伯特·諾伊斯 (Robert Noyce) 提出了單片集成電路。自上世紀(jì)70年代以來(lái),圖形處理單元 (GPU) 已被用于通過(guò)并行處理來(lái)加速計(jì)算?,F(xiàn)在,計(jì)算機(jī)的GPU包含數(shù)十億個(gè)晶體管。物理極限在哪里?根據(jù)漢斯·約阿希姆·布雷默曼(Hans Joachim Bremermann)提出的布雷默曼極限,一臺(tái)質(zhì)量為1千克、體積為1升的計(jì)算機(jī)最多可以在最多10的32次方位上每秒執(zhí)行最多10的51次方操作。

然而,太陽(yáng)系的質(zhì)量只有2x10^30千克,這一趨勢(shì)勢(shì)必會(huì)在幾個(gè)世紀(jì)內(nèi)打破,因?yàn)楣馑贂?huì)嚴(yán)重限制以其他太陽(yáng)系的形式獲取額外質(zhì)量。因此,物理學(xué)的限制要求未來(lái)高效的計(jì)算硬件必須像大腦一樣,在三維空間中有許多緊湊放置的處理器以最小化總連接成本,其基本架構(gòu)本質(zhì)上是一種深度的、稀疏連接的三維RNN。Schmidhuber推測(cè),此類(lèi)RNN的深度學(xué)習(xí)方法將變得更加重要。


十八、1931年以來(lái)的人工智能理論

現(xiàn)代人工智能和深度學(xué)習(xí)的核心主要是基于近幾個(gè)世紀(jì)的數(shù)學(xué):微積分、線性代數(shù)和統(tǒng)計(jì)學(xué)。

20世紀(jì)30年代初,哥德?tīng)杽?chuàng)立了現(xiàn)代理論計(jì)算機(jī)科學(xué)。他引入了一種以整數(shù)為基礎(chǔ)的通用編碼語(yǔ)言,允許以公理形式將任何數(shù)字計(jì)算機(jī)的操作正規(guī)化。同時(shí),哥德?tīng)栠€構(gòu)建了著名的形式化語(yǔ)句,通過(guò)給定一個(gè)計(jì)算性的定理檢驗(yàn)器,從可列舉的公理集合中系統(tǒng)地列舉所有可能的定理。因此,他確定了算法定理證明、計(jì)算以及任何類(lèi)型的基于計(jì)算的人工智能的基本限制。此外,哥德?tīng)栐趯?xiě)給約翰·馮·諾伊曼的著名信件中,確定了計(jì)算機(jī)科學(xué)中最著名的開(kāi)放問(wèn)題「P=NP?」。

841406ce-9194-11ed-ad0d-dac502259ad0.png

1935年,Alonzo Church通過(guò)證明Hilbert和Ackermann的決策問(wèn)題沒(méi)有一般的解決方案,得出了哥德?tīng)柦Y(jié)果的一個(gè)推論。為了做到這一點(diǎn),他使用了他的另一種通用編碼語(yǔ)言,稱為Untyped Lambda Calculus,它構(gòu)成了極具影響力的編程語(yǔ)言LISP的基礎(chǔ)。1936年,阿蘭·圖靈引入了另一個(gè)通用模型:圖靈機(jī),重新得出了上述結(jié)果。同年,Emil Post發(fā)表了另一個(gè)獨(dú)立的計(jì)算通用模型。康拉德·楚澤不僅創(chuàng)造了世界上第一臺(tái)可用的可編程通用計(jì)算機(jī),并且還設(shè)計(jì)了第一種高級(jí)編程語(yǔ)言——Plankalkül。他在1945年將其應(yīng)用于國(guó)際象棋,在1948年應(yīng)用于定理證明。

84246046-9194-11ed-ad0d-dac502259ad0.png

Plankalkül20世紀(jì)40-70年代的大部分早期人工智能實(shí)際上是關(guān)于定理證明和通過(guò)專家系統(tǒng)和邏輯編程進(jìn)行哥德?tīng)柺降耐茖?dǎo)。1964年,Ray Solomonoff將貝葉斯(實(shí)際上是拉普拉斯)概率推理和理論計(jì)算機(jī)科學(xué)結(jié)合起來(lái),得出一種數(shù)學(xué)上最優(yōu)(但計(jì)算上不可行)的學(xué)習(xí)方式,從過(guò)去的觀察中預(yù)測(cè)未來(lái)數(shù)據(jù)。他與Andrej Kolmogorov一起創(chuàng)立了柯氏復(fù)雜性或算法信息論(AIT)的理論,通過(guò)計(jì)算數(shù)據(jù)的最短程序的概念,將奧卡姆剃刀的概念正式化,從而超越了傳統(tǒng)的信息論。

8440572e-9194-11ed-ad0d-dac502259ad0.png

柯氏復(fù)雜性自指哥德?tīng)枡C(jī)更通用的最優(yōu)性并不局限于漸進(jìn)式最優(yōu)。盡管如此,由于各種原因,這種數(shù)學(xué)上的最優(yōu)人工智能在實(shí)踐上還不可行。相反,實(shí)用的現(xiàn)代人工智能是基于次優(yōu)的、有限的、但并不被極度理解的技術(shù),如NN和深度學(xué)習(xí)則是重點(diǎn)。但誰(shuí)知道20年后的人工智能歷史會(huì)是什么樣的呢?

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    234995
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120592
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人工智能ai4s試讀申請(qǐng)

    目前人工智能在繪畫(huà)對(duì)話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個(gè)需要研究的課題,本書(shū)對(duì)ai4s基本原理和原則,方法進(jìn)行描訴,有利于總結(jié)經(jīng)驗(yàn),擬
    發(fā)表于 09-09 15:36

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新

    ,對(duì)于每個(gè)交叉領(lǐng)域,本書(shū)通過(guò)案例進(jìn)行了詳盡的介紹,梳理了產(chǎn)業(yè)地圖,并給出了相關(guān)政策啟示。 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》適合所有關(guān)注人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的讀者
    發(fā)表于 09-09 13:54

    報(bào)名開(kāi)啟!深圳(國(guó)際)通用人工智能大會(huì)將啟幕,國(guó)內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國(guó)際)通用人工智能大會(huì)暨深圳(國(guó)際)通用人工智能產(chǎn)業(yè)博覽會(huì)將在深圳國(guó)際會(huì)展中心(寶安)舉辦。大會(huì)以“魅力AI·無(wú)限未來(lái)”為主題,致力于打造全球通用人工智能
    發(fā)表于 08-22 15:00

    簡(jiǎn)述半導(dǎo)體材料的發(fā)展史

    半導(dǎo)體材料的發(fā)展史是一段漫長(zhǎng)而輝煌的歷程,它深刻地影響了現(xiàn)代信息社會(huì)的發(fā)展軌跡。從最初的發(fā)現(xiàn)到如今的廣泛應(yīng)用,半導(dǎo)體材料經(jīng)歷了從第一代到第三代的演變,每一次進(jìn)步都帶來(lái)了技術(shù)上的巨大飛躍。
    的頭像 發(fā)表于 08-15 16:03 ?503次閱讀

    FPGA在人工智能中的應(yīng)用有哪些?

    定制化的硬件設(shè)計(jì),提高了硬件的靈活性和適應(yīng)性。 綜上所述,F(xiàn)PGA在人工智能領(lǐng)域的應(yīng)用前景廣闊,不僅可以用于深度學(xué)習(xí)的加速和云計(jì)算的加速,還可以針對(duì)特定應(yīng)用場(chǎng)景進(jìn)行定制化計(jì)算,為人工智能
    發(fā)表于 07-29 17:05

    人工智能、機(jī)器學(xué)習(xí)深度學(xué)習(xí)是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機(jī)器學(xué)習(xí)(Machine Learning, ML)和深度
    的頭像 發(fā)表于 07-03 18:22 ?673次閱讀

    人工智能深度學(xué)習(xí)的五大模型及其應(yīng)用領(lǐng)域

    隨著科技的飛速發(fā)展人工智能AI)技術(shù)特別是深度學(xué)習(xí)在各個(gè)領(lǐng)域展現(xiàn)出了強(qiáng)大的潛力和廣泛的應(yīng)用價(jià)值。深度
    的頭像 發(fā)表于 07-03 18:20 ?2219次閱讀

    阿里通義千問(wèn)重磅升級(jí),免費(fèi)開(kāi)放1000萬(wàn)字長(zhǎng)文檔處理功能

    近日,阿里巴巴旗下的人工智能應(yīng)用通義千問(wèn)迎來(lái)重磅升級(jí),宣布向所有人免費(fèi)開(kāi)放1000萬(wàn)字長(zhǎng)文檔處理功能,這一創(chuàng)新舉措使得通義千問(wèn)成為全球文檔處理容量第一的AI應(yīng)用。
    的頭像 發(fā)表于 03-26 11:09 ?623次閱讀

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈鶪PU

    現(xiàn)場(chǎng)可編程門(mén)陣列 (FPGA) 解決了 GPU 在運(yùn)行深度學(xué)習(xí)模型時(shí)面臨的許多問(wèn)題 在過(guò)去的十里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公
    發(fā)表于 03-21 15:19

    電阻柜的發(fā)展史

    電阻柜發(fā)展史
    的頭像 發(fā)表于 03-08 15:22 ?300次閱讀

    嵌入式人工智能的就業(yè)方向有哪些?

    于工業(yè)、農(nóng)業(yè)、醫(yī)療、城市建設(shè)、金融、航天軍工等多個(gè)領(lǐng)域。在新時(shí)代發(fā)展背景下,嵌入式人工智能已是大勢(shì)所趨,成為當(dāng)前最熱門(mén)的AI商業(yè)化途徑之一。
    發(fā)表于 02-26 10:17

    “單純靠大模型無(wú)法實(shí)現(xiàn) AGI”!萬(wàn)字長(zhǎng)文人工智能演進(jìn)

    人工智能是指讓計(jì)算機(jī)或機(jī)器具有類(lèi)似于人類(lèi)智能的能力,如學(xué)習(xí)、推理、解決問(wèn)題和使用語(yǔ)言、常識(shí)、創(chuàng)造力、情感和道德等。
    的頭像 發(fā)表于 02-19 14:22 ?877次閱讀
    “單純靠大模型無(wú)法實(shí)現(xiàn) AGI”!<b class='flag-5'>萬(wàn)字長(zhǎng)文</b>看<b class='flag-5'>人工智能</b>演進(jìn)

    2024人工智能四大趨勢(shì)

    2023,世人見(jiàn)證了ChatGPT在全球范圍的大火。以生成式人工智能為代表的新一代人工智能問(wèn)世,改變了人工智能AI)技術(shù)與應(yīng)用的
    的頭像 發(fā)表于 01-05 10:37 ?969次閱讀

    如何用AI聊天機(jī)器人寫(xiě)出萬(wàn)字長(zhǎng)文

    如何用AI聊天機(jī)器人寫(xiě)出萬(wàn)字長(zhǎng)文
    的頭像 發(fā)表于 12-26 16:25 ?944次閱讀

    深度學(xué)習(xí)人工智能中的 8 種常見(jiàn)應(yīng)用

    深度學(xué)習(xí)簡(jiǎn)介深度學(xué)習(xí)人工智能AI)的一個(gè)分支,它教神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 12-01 08:27 ?2961次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>人工智能</b>中的 8 種常見(jiàn)應(yīng)用