人工智能正熱。
技術創(chuàng)新是經(jīng)濟增長的根本動力。這些技術中,最重要的就是經(jīng)濟學家提到的“通用技術”,比如蒸汽機、內(nèi)燃機、電力等。如今這個時代,人工智能就是最重要的“通用技術”。特別是行業(yè)與人工智能的結合,釋放了行業(yè)的潛力,重塑了我們的生活。
人工智能備受關注、取得革命性進步背后的推手,其實是“機器學習”。
機器學習其實是一門多領域交叉學科,它涉及到計算機科學、概率統(tǒng)計、函數(shù)逼近論、最優(yōu)化理論、控制論、決策論、算法復雜度理論、實驗科學等多個學科。機器學習的具體定義也因此有許多不同的說法,分別以某個相關學科的視角切入。但總體上講,其關注的核心問題是如何用計算的方法模擬類人的學習行為:從歷史經(jīng)驗中獲取規(guī)律(或模型),并將其應用到新的類似場景中。
那么,當我們談機器學習時,到底在談些什么?從業(yè)者需要掌握哪些前沿技術?未來,又有什么技術趨勢值得期待?
看前沿:你需要掌握的機器學習技術
近年來,有很多新型的機器學習技術受到人們的廣泛關注,也在解決實際問題中,提供了有效的方案。這里,我們簡單介紹一下深度學習、強化學習、對抗學習、對偶學習、遷移學習、分布式學習、以及元學習。
▌深度學習
不同于傳統(tǒng)的機器學習方法,深度學習是一類端到端的學習方法?;诙鄬拥姆蔷€性神經(jīng)網(wǎng)絡,深度學習可以從原始數(shù)據(jù)直接學習,自動抽取特征并逐層抽象,最終實現(xiàn)回歸、分類或排序等目的。在深度學習的驅動下,人們在計算機視覺、語音處理、自然語言方面相繼取得了突破,達到或甚至超過了人類水平。深度學習的成功主要歸功于三大因素——大數(shù)據(jù)、大模型、大計算,因此這三個方向都是當前研究的熱點。
在過去的幾十年中,很多不同的深度神經(jīng)網(wǎng)絡結構被提出,比如,卷積神經(jīng)網(wǎng)絡,被廣泛應用于計算機視覺,如圖像分類、物體識別、圖像分割、視頻分析等等;循環(huán)神經(jīng)網(wǎng)絡,能夠對變長的序列數(shù)據(jù)進行處理,被廣泛應用于自然語言理解、語音處理等;編解碼模型(Encoder-Decoder)是深度學習中常見的一個框架,多用于圖像或序列生成,例如比較熱的機器翻譯、文本摘要、圖像描述(image captioning)問題。
▌強化學習
2016 年 3 月,DeepMind 設計的基于深度卷積神經(jīng)網(wǎng)絡和強化學習的 AlphaGo 以 4:1 擊敗頂尖職業(yè)棋手李世乭,成為第一個不借助讓子而擊敗圍棋職業(yè)九段棋手的電腦程序。此次比賽成為AI歷史上里程碑式的事件,也讓強化學習成為機器學習領域的一個熱點研究方向。
強化學習是機器學習的一個子領域,研究智能體如何在動態(tài)系統(tǒng)或者環(huán)境中以“試錯”的方式進行學習,通過與系統(tǒng)或環(huán)境進行交互獲得的獎賞指導行為,從而最大化累積獎賞或長期回報。由于其一般性,該問題在許多其他學科中也進行了研究,例如博弈論、控制理論、運籌學、信息論、多智能體系統(tǒng)、群體智能、統(tǒng)計學和遺傳算法。
▌遷移學習
遷移學習的目的是把為其他任務(稱其為源任務)訓練好的模型遷移到新的學習任務(稱其為目標任務)中,幫助新任務解決訓練樣本不足等技術挑戰(zhàn)。之所以可以這樣做,是因為很多學習任務之間存在相關性(比如都是圖像識別任務),因此從一個任務中總結出來的知識(模型參數(shù))可以對解決另外一個任務有所幫助。遷移學習目前是機器學習的研究熱點之一,還有很大的發(fā)展空間。
▌對抗學習
傳統(tǒng)的深度生成模型存在一個潛在問題:由于最大化概率似然,模型更傾向于生成偏極端的數(shù)據(jù),影響生成的效果。對抗學習利用對抗性行為(比如產(chǎn)生對抗樣本或者對抗模型)來加強模型的穩(wěn)定性,提高數(shù)據(jù)生成的效果。近些年來,利用對抗學習思想進行無監(jiān)督學習的生成對抗網(wǎng)絡(GAN)被成功應用到圖像、語音、文本等領域,成為了無監(jiān)督學習的重要技術之一。
▌對偶學習
對偶學習是一種新的學習范式,其基本思想是利用機器學習任務之間的對偶屬性獲得更有效的反饋/正則化,引導、加強學習過程,從而降低深度學習對大規(guī)模人工標注數(shù)據(jù)的依賴。對偶學習的思想已經(jīng)被應用到機器學習很多問題里,包括機器翻譯、圖像風格轉換、問題回答和生成、圖像分類和生成、文本分類和生成、圖像轉文本和文本轉圖像等等。
▌分布式學習
分布式技術是機器學習技術的加速器,能夠顯著提高機器學習的訓練效率、進一步增大其應用范圍。當“分布式”遇到“機器學習”,不應只局限在對串行算法進行多機并行以及底層實現(xiàn)方面的技術,我們更應該基于對機器學習的完整理解,將分布式和機器學習更加緊密地結合在一起。
▌元學習
元學習(meta learning)是近年來機器學習領域的一個新的研究熱點。字面上來理解,元學習就是學會如何學習,重點是對學習本身的理解和適應,而不僅僅是完成某個特定的學習任務。也就是說,一個元學習器需要能夠評估自己的學習方法,并根據(jù)特定的學習任務對自己的學習方法進行調整。
看趨勢:把握機器學習的未來
機器學習雖然取得了長足的進步,也解決了很多實際問題,但是客觀地講,機器學習領域仍然存在著巨大的挑戰(zhàn)。
首先,主流的機器學習技術是黑箱技術,這讓我們無法預知暗藏的危機,為解決這個問題,我們需要讓機器學習具有可解釋性、可干預性。其次,目前主流的機器學習的計算成本很高,亟待發(fā)明輕量級的機器學習算法。另外,在物理、化學、生物、社會科學中,人們常常用一些簡單而美的方程(比如像薛定諤方程這樣的二階偏微分方程)來描述表象背后的深刻規(guī)律。那么在機器學習領域,我們是否也能追求到簡單而美的規(guī)律呢?如此的挑戰(zhàn)還有很多,不過我們對于這個領域未來的發(fā)展仍然充滿信心。以下,我們將對未來十年的若干研究熱點進行展望:
▌可解釋的機器學習
以深度學習為代表的各種機器學習技術方興未艾,取得了舉世矚目的成功。機器和人類在很多復雜認知任務上的表現(xiàn)已在伯仲之間。然而,在解釋模型為什么奏效及如何運作方面,目前學界的研究還處于非常初級的階段。
解釋什么:相關性和因果邏輯性之間的鴻溝。
大部分機器學習技術,尤其是基于統(tǒng)計的機器學習技術,高度依賴基于數(shù)據(jù)相關性習得的概率化預測和分析。相反,理性的人類決策更依賴于清楚可信的因果關系,這些因果關系由真實清楚的事實原由和邏輯正確的規(guī)則推理得出。從利用數(shù)據(jù)相關性來解決問題,過渡到利用數(shù)據(jù)間的因果邏輯來解釋和解決問題,是可解釋性機器學習需要完成的核心任務之一。
為什么需要解釋:知之為知之,不知為不知,是知也。
機器學習模型基于歷史數(shù)據(jù)進行分析和決策。但由于常識的缺失,機器在面對歷史上未發(fā)生過或罕見的事件時,很大可能性會犯人類幾乎不可能犯的低級錯誤。統(tǒng)計意義上的準確率并不能有效地刻畫決策的風險,甚至在某些情況下,看似正確的概率性選擇背后的原因與事實背道而馳。在可控性為首要考量目標的領域,比如醫(yī)療、核工業(yè)和航天等,理解數(shù)據(jù)決策背后所依賴的事實基礎是應用機器學習的前提。對于這些領域,可解釋性意味著可信和可靠。
可解釋性機器學習,還是把機器學習技術與我們?nèi)祟惿鐣錾疃燃傻谋亟?jīng)之路。對可解釋性機器學習的需求不僅僅是對技術進步的渴求,同時包含各種非技術因素的考量,甚至包含法律法規(guī)。歐盟在 2018 年生效的 GDPR(GeneralData Protection Regulation)條例中明確要求,當采用機器做出針對某個體的決定時,比如自動拒絕一個在線信貸申請,該決定必須符合一定要求的可解釋性。
除了產(chǎn)業(yè)和社會對可解釋性機器學習的迫切需求,解釋行為的動機同時是人類大腦內(nèi)建的能力和訴求。認知神經(jīng)科學先驅 Michael S. Gazzaniga 在對現(xiàn)代認知科學影響深遠的裂腦人(Split-BrainPatients)研究中得出了如下的觀察和結論:“我們的大腦會不由自主地去尋求(決策的)解釋和事件發(fā)生的原由。”
誰解釋給誰:以人為中心的機器學習升級。
解釋給誰聽,這個問題相對清楚。簡而言之,解釋給人。根據(jù)受眾的不同,包含只有機器學習專家可以理解的解釋,也包含普通大眾都可以理解的解釋。
那么由誰來解釋呢?理想情況下,由機器解釋:機器一邊解答問題,一邊給出答案背后的邏輯推理過程。但是,受限于很多機器學習技術的工作原理,機器自答自釋并不總是行得通。很多機器學習算法是“數(shù)據(jù)進來,模型出去”,絕大部分時候,模型最終得出的結論與輸入數(shù)據(jù)之間的因果關聯(lián)變得無跡可尋,模型也變成了一個“神奇的”黑箱子。
在機器自答自釋尚無有效方案的階段,支持人工審查和回溯解答過程的方案可以提供一定程度的可解釋性。此時,機器學習系統(tǒng)中各個子模塊作用機理的可解釋性就變得尤為重要。對于一個大型的機器學習系統(tǒng),整體的可解釋性高度依賴于各個組成部分的可解釋性。從目前的機器學習到可解釋性機器學習的演化將是一個涉及方方面面的系統(tǒng)工程,需要對目前的機器學習從理論到算法,再到系統(tǒng)實現(xiàn)進行全面的改造和升級。
可解釋性的度:起于實用,終于無窮。
不同的應用場景對機器學習可解釋性的要求天然不同。某些時候,“曲高和寡”的專業(yè)解釋就已足夠,尤其當其解釋只用作技術安全性審查時;另外一些場合,當可解釋性是人機交互的一部分時,“老嫗能解”的通俗解答就變得非常必要。任何技術都只在一定范圍和一定程度上起作用,對于機器學習的可解釋性同樣如此??山忉寵C器學習,起于實用性的需求,終于永無止盡的不斷改進中。
▌輕量機器學習和邊緣計算
邊緣計算(EdgeComputing)指的是在網(wǎng)絡邊緣節(jié)點來處理、分析數(shù)據(jù)。而邊緣節(jié)點指的是在數(shù)據(jù)產(chǎn)生源頭和云計算中心之間具有計算資源和網(wǎng)絡資源的節(jié)點,比如手機就是人與云計算中心之間的邊緣節(jié)點,而網(wǎng)關則是智能家居和云計算中心之間的邊緣節(jié)點。在理想環(huán)境下,邊緣計算指的是在數(shù)據(jù)產(chǎn)生源附近分析、處理數(shù)據(jù),降低數(shù)據(jù)的流轉,進而減少網(wǎng)絡流量和響應時間。隨著物聯(lián)網(wǎng)的興起以及人工智能在移動場景下的廣泛應用,機器學習與邊緣計算的結合就顯得尤為重要。
為什么邊緣計算會在這種嵌入式機器學習的范式下發(fā)揮重要作用呢?
1.數(shù)據(jù)傳輸帶寬和任務響應延遲:在移動場景下,機器學習任務在需要大量的數(shù)據(jù)進行訓練的同時又需要更短的響應延遲。以自動駕駛為例,比較大的延遲可能會顯著增加事故風險,因此就需要定制的機載計算設備在邊緣執(zhí)行模型推斷。而且,當有大量設備連接到同一網(wǎng)絡時,有效帶寬也會減少,而利用邊緣計算可以有效地減少設備之間在通訊渠道上的競爭。
2. 安全性:邊緣計算中的邊緣設備可以保障所收集的敏感數(shù)據(jù)的安全性。同時,邊緣計算可以使智能的邊緣設備分散化,降低 DDoS 攻擊對整個網(wǎng)絡影響的風險。
3.定制化學習任務:邊緣計算使得不同的邊緣設備可以針對他們所面對的不用類型的對象采取定制化的學習任務和模型。例如在安防領域的圖像識別任務,不同區(qū)域的視頻設備所觀測到的圖像信息可能差別很大,因此僅僅訓練一個深度學習模型可能無法達到目的,而在云上同時托管多個模型代價也會很大。更有效的解決方案是在云中訓練每個場景下不同的模型,并將訓練好的模型發(fā)送到相應的邊緣設備。
4. 多智能體協(xié)作:邊緣設備也可以同時模型多智能體場景,幫助訓練多智能協(xié)作的強化學習模型。
那么將機器學習模型,特別是復雜的深度學習模型,嵌入到邊緣計算的框架中所面臨的挑戰(zhàn)在哪里呢?
1.參數(shù)高效的神經(jīng)網(wǎng)絡:神經(jīng)網(wǎng)絡的一個顯著特點是龐大的參數(shù)規(guī)模,而邊緣設備往往不能處理大規(guī)模的神經(jīng)網(wǎng)絡。這促使研究人員在保持模型準確性的同時最小化神經(jīng)網(wǎng)絡的規(guī)模?,F(xiàn)在通常采用的方式包括通過對卷積層的擠壓和擴展來降低濾波器的次數(shù),從而優(yōu)化參數(shù)效率。
2.神經(jīng)網(wǎng)絡修剪:在神經(jīng)網(wǎng)絡的訓練過程中存在一些神經(jīng)元,對他們進行大量的訓練后并不能改進模型的最終效果。在這種情況下,我們可以通過修剪這類神經(jīng)元來節(jié)省模型空間。
3.精度控制:大多數(shù)神經(jīng)網(wǎng)絡參數(shù)都是 32 位浮點數(shù)。邊緣設備可以設計為8位或更少的浮點數(shù),通過這種降低精度的方式可以顯著地減小模型規(guī)模。
4.模型蒸餾:模型蒸餾的過程是將訓練好的復雜神經(jīng)網(wǎng)絡的能力遷移到一個結構更為簡單的神經(jīng)網(wǎng)絡上。結合遷移學習的發(fā)展,這種方法可以更有效地降低模型復雜度同時又不會失去太多精度。
5.優(yōu)化的微處理器:另外一個方向則是將神經(jīng)網(wǎng)絡的學習和推斷能力嵌入到邊緣設備的微處理器上,這種 AI 芯片所表現(xiàn)出來的潛力也受到越來越多的關注。
▌量子機器學習
量子機器學習(Quantum ML)是量子計算和機器學習的交叉學科。
量子計算機利用量子相干和量子糾纏等效應來處理信息,這和經(jīng)典計算機有著本質的差別。目前量子算法已經(jīng)在若干問題上超過了最好的經(jīng)典算法,我們稱之為量子加速。例如搜索一個有N個條目未排序的數(shù)據(jù)庫,量子算法所需時間為;對一個N×N的稀疏矩陣求逆,量子計算機的時間復雜度為,而經(jīng)典計算機為。
當量子計算遇到機器學習,可以是個互利互惠、相輔相成的過程:一方面我們可以利用量子計算的優(yōu)勢來提高經(jīng)典的機器學習算法的性能,如在量子計算機上高效實現(xiàn)經(jīng)典計算機上的機器學習算法。另一方面,我們也可以利用經(jīng)典計算機上的機器學習算法來分析和改進量子計算系統(tǒng)。
基于線性代數(shù)的量子機器學習算法
這一類別中的許多量子機器學習算法是基于求解線性方程組的量子算法的各種變體,該算法在特定條件下(如 Hamiltonian 條件,稀疏矩陣或低秩矩陣滿足該條件)求解 N 元線性方程組的復雜度為。需要指出的是,任何已知的矩陣求逆的經(jīng)典算法的復雜度至少為。基于量子矩陣求逆算法可以加速很多機器學習方法,如最小二乘線性回歸、支持向量機的最小二乘版本、高斯過程等,這些算法的訓練可以簡化為求解線性方程組。這一類量子機器學習算法的關鍵瓶頸是數(shù)據(jù)輸入,如何用整個數(shù)據(jù)集特征來初始化量子系統(tǒng)。雖然對于某些特定的情況高效數(shù)據(jù)輸入算法存在,但是對大多數(shù)情形而言,數(shù)據(jù)如何輸入到量子系統(tǒng)是未知的。
量子強化學習
在量子強化學習中,一個量子智能體(agent)與經(jīng)典環(huán)境互動,從環(huán)境獲得獎勵從而調整和改進其行為策略。在某些情況下,由于智能體的量子處理能力或者由于量子疊加探測環(huán)境的可能性,而實現(xiàn)量子加速。這類算法已在超導電路和俘獲離子系統(tǒng)中提出。
量子深度學習
諸如量子退火器和采用可編程光子電路的專用量子信息處理器非常適合構建深層量子學習網(wǎng)絡。最簡單的可量子化的深度神經(jīng)網(wǎng)絡是玻爾茲曼機。經(jīng)典的玻爾茲曼機由具有可調的相互作用的比特位組成,通過調整這些比特位的相互作用來訓練玻爾茲曼機,使得其表達的分布符合數(shù)據(jù)的統(tǒng)計。為了量子化 Boltzmann 機,可以簡單地將神經(jīng)網(wǎng)絡表示為一組相互作用的量子自旋,它對應于一個可調的 Ising 模型。然后通過將玻爾茲曼機中的輸入神經(jīng)元初始化為固定狀態(tài),并允許系統(tǒng)進行熱化,我們可以讀出輸出量子位以獲得結果。
量子退火器是專用的量子信息處理器,比通用量子計算機更容易構建和擴展,目前已初步商業(yè)化,如 D-wave 量子退火器。
▌簡單而美的定律
大自然處處都是紛繁復雜的現(xiàn)象和系統(tǒng)??v覽現(xiàn)實世界復雜現(xiàn)象背后的本質,我們卻能得到一個出乎意料的結論:貌似復雜的自然現(xiàn)象都由簡單而優(yōu)美的數(shù)學規(guī)律所刻畫,比如偏微分方程。Mathematica 的創(chuàng)建者、知名計算機科學家、物理學家 Stephen Wolfram 也曾給出過類似的觀察和結論: “事實證明,物理和其他科學領域幾乎所有的傳統(tǒng)數(shù)學模型最終都基于偏微分方程?!?既然自然現(xiàn)象背后簡而美的數(shù)學定律如此普遍(尤其是偏微分方程),那么能否設計一種方法來自動地學習和發(fā)現(xiàn)現(xiàn)象背后的數(shù)學定律呢?這個問題顯然很難,但并非完全不可能。
對任何一個方程,某種相等性一定存在。那么更進一步,現(xiàn)實物理世界是否存在內(nèi)在的、普遍的守恒性或不變量呢?關于這個問題,德國數(shù)學家 Emmy Noether 在 1915 年提出了極具洞察力的諾特定理(Noether’s theorem)。該定理指出,對于每個連續(xù)的對稱變換都存在一個守恒量(不變量)與之對應。換言之,連續(xù)對稱性和守恒定律之間有著一一對應關系。這對于發(fā)現(xiàn)自然現(xiàn)象背后的守恒關系,尤其是對于尋找物理守恒定律,提供了深刻的理論指引。事實上,絕大部分物理定律公式都是基于某種量的守恒而導出的,比如刻畫量子系統(tǒng)的薛定諤方程就是由能量守恒得到。
基于這種洞察,科學工作者們開展了大量嘗試并取得了累累碩果。例如,Schmidt 和 Lipson 在 2009 年發(fā)表的《科學》雜志論文中,提出了基于不變量原理和進化算法的自動定律發(fā)現(xiàn)方法。論文探討了這樣一個課題:對于給定的實驗數(shù)據(jù),我們基于某種不變性可以生成大量的等式或方程。那么,什么樣的相關性才是重要且有意義的呢?雖然這個問題難以定量回答,Schmidt 和 Lipson 在論文中給出了他們的觀點:基于某種不變量得到的有效公式必須能正確預測一個系統(tǒng)中各個組成部分之間的動態(tài)關系。具體來說,一個有意義的守恒公式須能正確刻畫一組變量相對于時間的導數(shù)之間的關系。
相比于深度學習,自動定律學習更像牛頓當年觀察研究世界的方法。在收集到很多關于現(xiàn)實世界的數(shù)據(jù)后,牛頓得到了一系列定律、方程和公式,可以用來簡潔明了地刻畫我們生活的這個物理世界的規(guī)律。萬物皆數(shù),自動化定律發(fā)現(xiàn)可以很大程度地輔助科學研究,甚至在一定領域內(nèi)實現(xiàn)科學研究的自動化。
即興學習
這里我們探討的即興學習與 Yann LeCun 一直倡導的預測學習,有著相似的目標,然而二者對世界的假設和采取的方法論非常不同。預測學習這個概念脫胎于無監(jiān)督學習,側重預測未來事件發(fā)生概率的能力。方法論上,預測學習利用所有當前可用的信息,基于過去和現(xiàn)在預測未來,或者基于現(xiàn)在分析過去。預測學習在一定程度上暗合現(xiàn)代認知科學對大腦能力的理解。
預測學習的兩大要素是:建模世界和預測當前未知。問題是,我們生活的世界是否可以預測?這個問題的答案是不明確的。
與預測學習對世界的假設不同,即興學習假設異常事件的發(fā)生是常態(tài)。即興智能是指當遇到出乎意料的事件時可以即興地、變通地處理解決問題的能力。即興學習意味著沒有確定的、預設的、靜態(tài)的可優(yōu)化目標。直觀地講,即興學習系統(tǒng)需要進行不間斷的、自我驅動的能力提升,而不是由預設目標生成的優(yōu)化梯度推動演化。換言之,即興學習通過自主式觀察和交互來獲得知識和解決問題的能力。
一個即興學習系統(tǒng)通過觀察環(huán)境并與環(huán)境交互的正負反饋中學習。這個過程跟強化學習表面上很像,本質的區(qū)別還是在于即興學習沒有確定預設的優(yōu)化目標,而強化學習則通常需要一個預設的目標。既然即興學習不是由根據(jù)固定優(yōu)化目標所得出的學習梯度來驅動演化。那么,是什么驅動了這個學習過程?什么時候,這個學習過程會停止?這里,我們以“條件熵”模型為例來探討這類學習系統(tǒng)。
這里 K 是學習系統(tǒng)當前擁有的知識,而 E 是環(huán)境中的信息。該公式刻畫了環(huán)境相對于當前學習系統(tǒng)的“不確定性”。伴隨著“負熵”的轉移,學習系統(tǒng)獲得越來越多關于環(huán)境的知識,這種“不確定性”逐步遞減,直到消失。當這種“不確定性”完全消失后,“負熵”流動停止,學習過程結束。這時,該學習系統(tǒng)通過無預設目標的即興學習,獲得了對環(huán)境的全面理解。
社會機器學習
機器學習的目的是模擬人類的學習過程。機器學習雖然取得很大的成功,但是到目前為止,它忽視了一個重要的因素,也就是人的社會屬性。我們每個人都是社會的一分子,很難從出生就脫離社會獨自生存、學習并不斷進步。既然人類的智能離不開社會,那么我們能否讓機器們也具有某種意義的社會屬性,模擬人類社會中的關鍵元素進行演化,從而實現(xiàn)比現(xiàn)在的機器學習方法更為有效、智能、可解釋的“社會機器學習”呢?
社會是由億萬個人類個體構成,社會機器學習也應該是一個由機器學習智能體構成的體系。每一個機器學習算法除了按照現(xiàn)在的機器學習方法獲取數(shù)據(jù)的規(guī)律,還參與社會活動。它們會聯(lián)合其他的機器學習智能體按照社會機制積極獲取信息、分工、合作、獲得社會酬勞。與此同時,它們會總結經(jīng)驗、學習知識、相互學習來調整行為。
事實上,現(xiàn)在的機器學習方法中已經(jīng)開始出現(xiàn)“社會智能”的零零星星的影子。比如,“知識蒸餾”可以描述機器學習智能體之間最簡單的行為影響,它也可能是初步獲取知識的方式;分布式機器學習算法中模型平均、模型集成、投票等方法是最簡單的社會決策機制;強化學習提供了智能體基于酬勞反饋調整行為的框架。
由于社會屬性是人類的本質屬性,社會機器學習也將會是我們利用機器學習從獲取人工智能到獲取社會智能的重要方向!
▌結語
如前文所說,機器學習近幾年發(fā)展迅猛,我們對它充滿信心,文中提及的未來方向僅是基于筆者對機器學習領域的理解,一定還有很多沒有涵蓋的重要方向。其實預測未來是一件非常困難的事情,尤其是對于機器學習這個飛速發(fā)展的領域。Alan Kay 曾經(jīng)說過:“預測未來最好的方法就是創(chuàng)造它”。因此。我們呼吁所有機器學習從業(yè)人員,無論是學者還是工程師,是教授還是學生,能夠共同努力、攜手前行,用我們的實際行動去推進這些重要的研究課題,用我們的雙手去創(chuàng)造未來,這會比預測未來要實在得多、重要得多!
-
機器學習
+關注
關注
66文章
8349瀏覽量
132315 -
深度學習
+關注
關注
73文章
5463瀏覽量
120890
原文標題:首發(fā)|機器學習未來十年:你需要把握的趨勢和熱點
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論