0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

傳統(tǒng)AI與現(xiàn)代AI有什么不同

汽車玩家 ? 來源:今日頭條 ? 作者:聞數(shù)起舞 ? 2020-05-03 18:14 ? 次閱讀

當(dāng)今的AI

毫無疑問,當(dāng)今最大的流行詞是人工智能或人工智能。包括Gartner,McKinsey和PWC在內(nèi)的大多數(shù)著名研究組織都以驚人的統(tǒng)計(jì)數(shù)據(jù)和未來預(yù)測來榮耀AI的未來。這是PWC的報(bào)告(2018),其中預(yù)測到2030年,人工智能將為全球經(jīng)濟(jì)貢獻(xiàn)15.7萬億美元。整體生產(chǎn)率和GDP將分別增長55%和14%。正如美國總統(tǒng)唐納德·J·特朗普(Donald J.Trump)所簽署的那樣,行政命令可以迅速證明人工智能在美國內(nèi)部的重要性。

"我們可以一起使用世界上最具創(chuàng)新性的技術(shù)來使我們的政府更好地為美國人民服務(wù)。" Michael Kratsios美國首席技術(shù)官

我們在日常生活中有幾個(gè)例子,我們甚至沒有注意到就利用人工智能。其中包括Google地圖,Gmail中的智能回復(fù)(2018 +),facebook圖片標(biāo)記(大約2015),youtube / NetFlix視頻推薦(2016+)等。還有一些驚人的新聞報(bào)道,概述了AI的重要性和影響力;就像這個(gè)(2019年)那樣,諾瓦克·德約科維奇(Novak Djokovic)在溫布爾登決賽中使用了AI,或者瀏覽此網(wǎng)站(于2019年推出),其中包含100%的假照片,這些人看起來像是100%真正地利用了深度神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí))。這個(gè)清單不勝枚舉。

傳統(tǒng)AI(1950–2008年)

"人工智能"一詞是1956年在達(dá)特茅斯的一次歷史性會(huì)議上提出的。 在AI發(fā)展的初期,科學(xué)家和媒體大肆宣傳,圍繞AI突破的可能性提出了烏托邦式的主張。 一些科學(xué)家非常清楚地表明,在未來20年中,該機(jī)器將完成人類可能做的所有事情。

"機(jī)器將能夠完成男人可以做的任何工作。"

1965年—赫伯特·西蒙(Herbert A.Simon)

70 years history of AI by Awais Bajwa

從那時(shí)起,人工智能的發(fā)展經(jīng)歷了許多起伏。 1973年,英國政府在調(diào)查后發(fā)表了一份名為Lighthill報(bào)告的報(bào)告,并沒收了許多主要的AI研究型大學(xué)的資金。 當(dāng)時(shí)最著名的AI方法是專家系統(tǒng)和模糊邏輯,其中Prolog和Lisp是C / C中編程語言的首選。 專家系統(tǒng)的第一個(gè)重大突破發(fā)生在80年代,并且引入了第一個(gè)杰出的專家系統(tǒng)SID。 后來,在AI領(lǐng)域遇到了其他挫折,隨后是IBM的又一次突破,當(dāng)時(shí)IBM的超級(jí)計(jì)算機(jī)Deep Blue在1997年在紐約市擊敗了世界冠軍Garry Kasparov。 ,IBM聲稱沒有在Deep Blue中使用AI,這引起了一些有趣的討論。

請注意,所有的突破都發(fā)生在最近的8-10年中。 作為深度學(xué)習(xí)/神經(jīng)網(wǎng)絡(luò)的核心的反向傳播算法于1986年首次提出。問題是"為什么在過去的8-10年(即2009-2019年),當(dāng)AI出現(xiàn)了70多年了? "。

為了獲得答案,讓我們跳入當(dāng)今的"現(xiàn)代AI"時(shí)代。

現(xiàn)代AI(2008)

“數(shù)據(jù)科學(xué)”一詞由Linkedin和Facebook的兩個(gè)數(shù)據(jù)團(tuán)隊(duì)負(fù)責(zé)人于2008年初提出。 (DJ Patel和Jeff Hammerbacher)。計(jì)算機(jī)科學(xué)的這一新領(lǐng)域引入了利用統(tǒng)計(jì),概率,線性代數(shù)和多元微積分的高級(jí)分析。 2012年下半年,真正的突破發(fā)生在人工智能上,當(dāng)時(shí)在具有歷史意義的ImageNet競賽中,基于CNN的提交文件AlexNet超越了所有其他競爭對(duì)手,并且錯(cuò)誤率比第二名低10.8%。那是現(xiàn)代AI的出現(xiàn),并且被認(rèn)為是AI世界新繁榮的觸發(fā)。獲勝的主要原因之一是利用圖形處理單元(GPU)訓(xùn)練神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)。 2015年下半年,F(xiàn)acebook的AI負(fù)責(zé)人Yann LeCun與其他“ AI教父”一起努力推動(dòng)深度學(xué)習(xí)及其可能性。如今,許多云供應(yīng)商都在為“現(xiàn)代AI”提供基于云的GPU,而采用它們從來就不是一種選擇。 從CPU切換到GPU,GPU確實(shí)改變了游戲。

從CPU切換到GPU,GPU確實(shí)改變了游戲。 它徹底改變了技術(shù),重新定義了計(jì)算能力和并行處理。 由于高級(jí)數(shù)學(xué)計(jì)算,人工智能需要高速計(jì)算能力。 特別是因?yàn)檫^去十年中生成的數(shù)據(jù)量呈指數(shù)級(jí)增長(來源)。

因此,全世界的AI研究呈指數(shù)增長,在撰寫本文時(shí),AI研究論文的數(shù)量約為100 /天。

因此,我們對(duì)之前的問題有一個(gè)答案:

"為什么在過去的8-10年(即2009-2019年)中,人工智能已經(jīng)存在了70多年? "。

答:數(shù)據(jù)的增長迅猛,處理" GPU"的速度更快且成本更低,并且AI研究發(fā)展迅速。

傳統(tǒng)AI與現(xiàn)代AI有什么不同

source

未來的人工智能浪潮

Google非常友善,可以讓員工將20%的時(shí)間分配給他們的野心和有趣的項(xiàng)目。 2015年,Google搜索過濾器小組的成員Alexander Mordvintsev開發(fā)了一種神經(jīng)網(wǎng)絡(luò)程序,將其作為一種愛好,用夢幻般的致幻外觀震驚了他的同事。這個(gè)項(xiàng)目被Google命名為Deep Dream。該項(xiàng)目是在訓(xùn)練神經(jīng)網(wǎng)絡(luò)并大規(guī)模使用激活功能時(shí)進(jìn)行實(shí)驗(yàn)的結(jié)果。但是,即使到了今天,人工智能的最大謎團(tuán)之一是,我們對(duì)人工智能在內(nèi)部做出決策的精確度或神經(jīng)網(wǎng)絡(luò)如何以反向概率學(xué)習(xí)的認(rèn)識(shí)尚無真正的了解。用外行人的話來說,人工智能的實(shí)際推理或?qū)Q策的偏見是一個(gè)謎,它被稱為“人工智能黑匣子”。

XAI

人工智能工作的新潮流之一是打破黑匣子,并獲得決策過程的邏輯解釋。 這個(gè)新概念現(xiàn)在稱為"可解釋的人工智能"或XAI。 一旦實(shí)現(xiàn)了XAI,AI社區(qū)將可以使用新一輪的AI。 可能會(huì)有更強(qiáng)大和更具彈性的AI框架,包括對(duì)AI流程和未來增長模式的可預(yù)測理解。

小數(shù)據(jù)

深度學(xué)習(xí)領(lǐng)域正在發(fā)生重大的AI突破,而在深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)非常渴望海量數(shù)據(jù)。 例如,要訓(xùn)練模型來識(shí)別貓,則需要提供大約10萬只貓/非貓的圖像,以獲得近似等于人眼的貓的完美分類。 呈指數(shù)級(jí)增長的另一個(gè)研究領(lǐng)域是用更少的數(shù)據(jù)集快速學(xué)習(xí)并利用概率框架。 這個(gè)新概念稱為"小數(shù)據(jù)"。 研究領(lǐng)域是"如何用較少的數(shù)據(jù)訓(xùn)練您的機(jī)器學(xué)習(xí)模型并獲得準(zhǔn)確的預(yù)測。" 這在AI領(lǐng)域是巨大的機(jī)會(huì),并且有望隨著未來的創(chuàng)新前景而爆炸。

未來AI研究的另外兩個(gè)領(lǐng)域是在"無監(jiān)督學(xué)習(xí)"和"強(qiáng)化學(xué)習(xí)"領(lǐng)域取得重大進(jìn)展。 在這里我們可以通過轉(zhuǎn)移學(xué)習(xí)來利用可用的知識(shí),并通過一些增強(qiáng)學(xué)習(xí)(例如通過GAN網(wǎng)絡(luò)模型)來生成人工創(chuàng)建的采樣數(shù)據(jù)。

重要要點(diǎn)

從理論上講,傳統(tǒng)AI已有70年歷史,但在過去8-10年中(Moden AI)有了顯著發(fā)展。 這些現(xiàn)代AI的突破通過云上的"現(xiàn)收現(xiàn)付"模型推動(dòng)了數(shù)據(jù)的指數(shù)增長,快速研究和廉價(jià)的計(jì)算能力。

未來的人工智能浪潮將打破"人工智能黑匣子",并了解機(jī)器學(xué)習(xí)模型做出的決策和預(yù)測的原因。 未來AI浪潮的另一個(gè)主要領(lǐng)域是向有限的數(shù)據(jù)集或"小數(shù)據(jù)"學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29819

    瀏覽量

    268111
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5466

    瀏覽量

    120891
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    傳統(tǒng)學(xué)科界限,使得科學(xué)家們能夠從更加全面和深入的角度理解生命的奧秘。同時(shí),AI技術(shù)的引入也催生了一種全新的科學(xué)研究范式,即數(shù)據(jù)驅(qū)動(dòng)的研究范式,這種范式強(qiáng)調(diào)從大量數(shù)據(jù)中提取有價(jià)值的信息,從而推動(dòng)科學(xué)研究
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    for Science的技術(shù)支撐”的學(xué)習(xí)心得,可以從以下幾個(gè)方面進(jìn)行歸納和總結(jié): 1. 技術(shù)基礎(chǔ)的深入理解 在閱讀第二章的過程中,我對(duì)于AI for Science所需的技術(shù)基礎(chǔ)了更加深入的理解。這一章詳細(xì)闡述了
    發(fā)表于 10-14 09:16

    AI降噪算法的USB麥克風(fēng)降噪模組

    AI
    深圳德宇科技有限公司
    發(fā)布于 :2024年09月26日 11:34:09

    AI調(diào)試工具

    APIAI
    草帽王路飛
    發(fā)布于 :2024年09月02日 11:31:57

    云開發(fā)AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 14:41:54

    視頻3--場景自動(dòng)化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:16:13

    視頻2--場景自動(dòng)化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:15:34

    ai大模型和傳統(tǒng)ai的區(qū)別在哪?

    AI大模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個(gè)方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI大模型通常需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,以獲得更好的性能。相比之下,傳統(tǒng)
    的頭像 發(fā)表于 07-16 10:06 ?1085次閱讀

    AI大模型與傳統(tǒng)AI的區(qū)別

    AI大模型(如LLM,即大型語言模型)與傳統(tǒng)AI在多個(gè)方面存在顯著的區(qū)別。以下將從技術(shù)層面、應(yīng)用場景、性能表現(xiàn)、計(jì)算資源和成本、以及發(fā)展趨勢和挑戰(zhàn)等角度進(jìn)行詳細(xì)闡述。
    的頭像 發(fā)表于 07-15 11:37 ?2140次閱讀

    生成式AI傳統(tǒng)AI的主要區(qū)別

    隨著人工智能技術(shù)的飛速發(fā)展,生成式AI(Generative AI)逐漸嶄露頭角,并與傳統(tǒng)AI(也稱為“規(guī)則驅(qū)動(dòng)的AI”或“判別式
    的頭像 發(fā)表于 07-05 17:35 ?1814次閱讀

    AI芯片哪里買?

    AI芯片
    芯廣場
    發(fā)布于 :2024年05月31日 16:58:19

    使用cube-AI分析模型時(shí)報(bào)錯(cuò)的原因哪些?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389) INTER
    發(fā)表于 03-14 07:09

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報(bào)錯(cuò)的原因?

    當(dāng)準(zhǔn)備使用神經(jīng)網(wǎng)絡(luò)的relocatable方式,將ai_reloc_network.h頭文件加入程序編譯后,ai_datatypes_format.h在cubeIDE和Keilc里分別報(bào)如下錯(cuò)誤
    發(fā)表于 03-14 06:23

    NanoEdge AI的技術(shù)原理、應(yīng)用場景及優(yōu)勢

    NanoEdge AI 是一種基于邊緣計(jì)算的人工智能技術(shù),旨在將人工智能算法應(yīng)用于物聯(lián)網(wǎng)(IoT)設(shè)備和傳感器。這種技術(shù)的核心思想是將數(shù)據(jù)處理和分析從云端轉(zhuǎn)移到設(shè)備本身,從而減少數(shù)據(jù)傳輸延遲、降低
    發(fā)表于 03-12 08:09

    AI大模型可以設(shè)計(jì)電路嗎?

    AI大模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:09:29