0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于無監(jiān)督學(xué)習(xí)和圖學(xué)習(xí)的大數(shù)據(jù)挖掘

1ujk_Tencent_TE ? 來源:騰訊技術(shù)工程官方號(hào) ? 2019-12-08 10:57 ? 次閱讀

在IJCAI-2019期間舉辦的騰訊TAIC晚宴和Booth Talk中,來自TEG數(shù)據(jù)平臺(tái)的張長(zhǎng)旺向大家介紹了自己所在用戶畫像組的前沿科研結(jié)果:

1. 非監(jiān)督短文本層級(jí)分類;

2. 大規(guī)模復(fù)雜網(wǎng)絡(luò)挖掘和圖表示學(xué)習(xí)。

其所在團(tuán)隊(duì)積極與學(xué)術(shù)界科研合作,并希望有夢(mèng)想、愛學(xué)習(xí)的實(shí)力派加入,共同研究和應(yīng)用半監(jiān)督/弱監(jiān)督/無監(jiān)督學(xué)習(xí)、小樣本學(xué)習(xí)、大規(guī)模復(fù)雜網(wǎng)絡(luò)挖掘和圖表示學(xué)習(xí)等做大數(shù)據(jù)挖掘。

科研結(jié)果1:非監(jiān)督短文本層級(jí)分類

首先以下用戶和AI算法的對(duì)話,顯示了現(xiàn)實(shí)業(yè)務(wù)中使用現(xiàn)有監(jiān)督文本分類算法的遇到的一些困境和問題:

算法需要海量訓(xùn)練數(shù)據(jù)

算法模型用戶不可控

算法不能很好的適應(yīng)類目的變化

我們分析現(xiàn)有監(jiān)督算法的主要問題在于沒有真正的知識(shí), 沒有對(duì)于文本和類目的真正的理解。現(xiàn)有算法只是在學(xué)習(xí)大量人工標(biāo)注訓(xùn)練樣本里面的模式。為了解決這個(gè)問題,我們啟動(dòng)了一個(gè)叫做: 基于關(guān)鍵詞知識(shí)與類目知識(shí)的非監(jiān)督短文本層級(jí)分類的探索項(xiàng)目。

項(xiàng)目的主要思想是引入關(guān)鍵詞和類目?jī)煞N知識(shí)來幫助算法理解關(guān)鍵詞和類目的含義。然后基于知識(shí)進(jìn)行文本的分類和標(biāo)注。關(guān)鍵詞知識(shí)主要來自3個(gè)方面包括:關(guān)鍵詞的網(wǎng)絡(luò)搜索上下文、關(guān)鍵詞的百科上下文、關(guān)鍵詞到類目詞的后驗(yàn)關(guān)聯(lián)概率。我們提出類目語義表達(dá)式來支持用戶表達(dá)豐富的類目本身和類目之間的關(guān)系的語義。這兩樣知識(shí)的引入幫助算法擺脫了對(duì)于大量人工標(biāo)注訓(xùn)練樣本的依賴,同時(shí)算法分類的過程做到了人工可理解,人工可控制。

pIYBAF3sZiCAD0NcAAGXC_cWyhc920.jpg

基于關(guān)鍵詞和類目知識(shí)的無監(jiān)督文本層級(jí)分類算法流程如下:

對(duì)文本提取關(guān)鍵詞

根據(jù)關(guān)鍵詞知識(shí)計(jì)算關(guān)鍵詞到類目詞的相關(guān)度詞向量

根據(jù)關(guān)鍵詞的相關(guān)度詞向量計(jì)算文本的相關(guān)度詞向量

根據(jù)文本的相關(guān)度詞向量和類目語義表達(dá)式計(jì)算文本與每個(gè)類目的匹配度

每個(gè)文本被分為與之匹配度最高的類目

pIYBAF3sZiCAc4I1AAFF-PRpshM196.jpg

通過在兩個(gè)文本分類數(shù)據(jù)集合上面的實(shí)驗(yàn),我們發(fā)現(xiàn),我們自研的算法能夠在沒有訓(xùn)練樣本的情況下提供質(zhì)量可用的結(jié)果,其一級(jí)類目準(zhǔn)確率能夠達(dá)到80%,并且明顯高于現(xiàn)有其他非監(jiān)督算法。

pIYBAF3sZiCAPnfmAAGamuFnOPU555.jpg

科研結(jié)果2:大規(guī)模復(fù)雜網(wǎng)絡(luò)挖掘和圖表示學(xué)習(xí)

Network Representation Learning 或者說 Graph Embedding 是復(fù)雜網(wǎng)絡(luò)最新的研究課題,意在通過神經(jīng)網(wǎng)絡(luò)模型,把圖結(jié)構(gòu)向量化,為節(jié)點(diǎn)分類、鏈路預(yù)測(cè)、社團(tuán)發(fā)現(xiàn)等挖掘任務(wù)提供方便有效的特征,以克服圖結(jié)構(gòu)難以應(yīng)用到機(jī)器學(xué)習(xí)算法中的難題。

本次我們?cè)贗JCAI發(fā)表的學(xué)術(shù)論文“Identifying Illicit Accounts in Large Scale E-payment Networks - A Graph Representation Learning Approach”創(chuàng)新性提出結(jié)合邊屬性的圖卷積神經(jīng)網(wǎng)絡(luò)模型,彌補(bǔ)了現(xiàn)有算法無法利用邊屬性為節(jié)點(diǎn)分類提供更多信息的不足。

pIYBAF3sZiCAf4jWAADyry40GSc801.jpg

現(xiàn)有的圖學(xué)習(xí)算法,絕大部分都忽視了邊上信息的價(jià)值。在這里我們提出了一種可以把邊的信息傳輸?shù)焦?jié)點(diǎn)表示結(jié)果的改進(jìn)的GCN算法。算法主要思路是在做GCN里面周邊鄰居節(jié)點(diǎn)向量的聚合計(jì)算之前,把每個(gè)節(jié)點(diǎn)連接邊的Embedding向量拼接在對(duì)應(yīng)鄰居節(jié)點(diǎn)的Embedding向量后面。實(shí)驗(yàn)顯示,我們的算法對(duì)于金融分類問題具有更優(yōu)的結(jié)果。我們團(tuán)隊(duì)正在進(jìn)一步優(yōu)化模型,正在研發(fā)利用時(shí)序的GCN模型,以可以利用邊的時(shí)序交互信息,從而更好的表示動(dòng)態(tài)網(wǎng)絡(luò)。

pIYBAF3sZiGAcZ4XAAGfvV5Mbk0987.jpg

pIYBAF3sZiGAVDl_AAEtrHfo7Kk905.jpg

同時(shí),數(shù)平數(shù)據(jù)中心研發(fā)的Angel參數(shù)服務(wù)器平臺(tái),針對(duì)關(guān)系型數(shù)據(jù)結(jié)構(gòu),在計(jì)算性能上對(duì)圖算法做了優(yōu)化,極大加速了PageRank等算法的計(jì)算速度,比如計(jì)算用戶中心度的Closeness算法,性能比基于Spark GraphX的算法提升了6.7倍。下圖顯示對(duì)于大型圖的計(jì)算,我們Angle框架的速度具有明顯的優(yōu)勢(shì)。

pIYBAF3sZiGANHYUAAEl0_C2wBk224.jpg

pIYBAF3sZiGAXUHmAAEim4GgRxY047.jpg

我們所在團(tuán)隊(duì)積極與學(xué)術(shù)界科研合作,并希望有夢(mèng)想、愛學(xué)習(xí)的實(shí)力派加入,共同研究和應(yīng)用半監(jiān)督/弱監(jiān)督/無監(jiān)督學(xué)習(xí)、小樣本學(xué)習(xí)、復(fù)雜網(wǎng)絡(luò)挖掘和圖表示學(xué)習(xí)做大數(shù)據(jù)挖掘。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4552

    瀏覽量

    92024
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8805

    瀏覽量

    136993

原文標(biāo)題:IJCAI2019報(bào)告:基于無監(jiān)督學(xué)習(xí)和圖學(xué)習(xí)的大數(shù)據(jù)挖掘

文章出處:【微信號(hào):Tencent_TEG,微信公眾號(hào):騰訊技術(shù)工程官方號(hào)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的
    的頭像 發(fā)表于 07-09 18:06 ?573次閱讀

    深度學(xué)習(xí)中的監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的監(jiān)督學(xué)
    的頭像 發(fā)表于 07-09 10:50 ?216次閱讀

    機(jī)器學(xué)習(xí)數(shù)據(jù)分析中的應(yīng)用

    隨著大數(shù)據(jù)時(shí)代的到來,數(shù)據(jù)量的爆炸性增長(zhǎng)對(duì)數(shù)據(jù)分析提出了更高的要求。機(jī)器學(xué)習(xí)作為一種強(qiáng)大的工具,通過訓(xùn)練模型從數(shù)據(jù)
    的頭像 發(fā)表于 07-02 11:22 ?304次閱讀

    機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí)全攻略

    監(jiān)督學(xué)習(xí)通常是利用帶有專家標(biāo)注的標(biāo)簽的訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個(gè)從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓(xùn)練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓(xùn)練樣本的大小,x和y分
    發(fā)表于 02-25 13:53 ?166次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>基礎(chǔ)知識(shí)全攻略

    數(shù)據(jù)挖掘的應(yīng)用領(lǐng)域,并舉例說明

    數(shù)據(jù)挖掘(Data Mining)是一種從大量數(shù)據(jù)中提取出有意義的信息和模式的技術(shù)。它結(jié)合了數(shù)據(jù)庫(kù)、統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)和人工智能等領(lǐng)域的理論和
    的頭像 發(fā)表于 02-03 14:19 ?2344次閱讀

    2024年AI領(lǐng)域?qū)?huì)有哪些新突破呢?

    傳統(tǒng)的機(jī)器學(xué)習(xí)需要大量的標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,但自監(jiān)督學(xué)習(xí)可以通過監(jiān)督的方式從大規(guī)模未標(biāo)記的數(shù)據(jù)
    的頭像 發(fā)表于 01-24 09:58 ?1831次閱讀

    基于transformer和自監(jiān)督學(xué)習(xí)的路面異常檢測(cè)方法分享

    鋪設(shè)異常檢測(cè)可以幫助減少數(shù)據(jù)存儲(chǔ)、傳輸、標(biāo)記和處理的壓力。本論文描述了一種基于Transformer和自監(jiān)督學(xué)習(xí)的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1219次閱讀
    基于transformer和自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>的路面異常檢測(cè)方法分享

    監(jiān)督域自適應(yīng)場(chǎng)景:基于檢索增強(qiáng)的情境學(xué)習(xí)實(shí)現(xiàn)知識(shí)遷移

    本文對(duì)比了多種基線方法,包括監(jiān)督域自適應(yīng)的傳統(tǒng)方法(如Pseudo-labeling和對(duì)抗訓(xùn)練)、基于檢索的LM方法(如REALM和RAG)和情境學(xué)習(xí)方法(如In-context learning)。
    發(fā)表于 12-05 14:14 ?430次閱讀
    <b class='flag-5'>無</b><b class='flag-5'>監(jiān)督</b>域自適應(yīng)場(chǎng)景:基于檢索增強(qiáng)的情境<b class='flag-5'>學(xué)習(xí)</b>實(shí)現(xiàn)知識(shí)遷移

    全面總結(jié)機(jī)器學(xué)習(xí)中的優(yōu)化算法

    幾乎所有的機(jī)器學(xué)習(xí)算法最后都?xì)w結(jié)為求一個(gè)目標(biāo)函數(shù)的極值,即最優(yōu)化問題,例如對(duì)于有監(jiān)督學(xué)習(xí),我們要找到一個(gè)最佳的映射函數(shù)f (x),使得對(duì)訓(xùn)練樣本的損失函數(shù)最小化(最小化經(jīng)驗(yàn)風(fēng)險(xiǎn)或結(jié)構(gòu)風(fēng)險(xiǎn))。
    發(fā)表于 11-02 10:18 ?363次閱讀
    全面總結(jié)機(jī)器<b class='flag-5'>學(xué)習(xí)</b>中的優(yōu)化算法

    機(jī)器學(xué)習(xí)的基本流程和十大算法

    為了進(jìn)行機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘任務(wù),數(shù)據(jù)科學(xué)家們提出了各種模型,在眾多的數(shù)據(jù)挖掘模型中,國(guó)際權(quán)威的學(xué)
    發(fā)表于 10-31 11:30 ?894次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>的基本流程和十大算法

    什么是強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)的方式之一,它與監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)并列,是三種機(jī)器學(xué)習(xí)訓(xùn)練方法之一。 在圍棋
    的頭像 發(fā)表于 10-30 11:36 ?3472次閱讀
    什么是強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>

    深度學(xué)習(xí)的由來 深度學(xué)習(xí)的經(jīng)典算法有哪些

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一個(gè)分支,其學(xué)習(xí)方法可以分為監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)。兩種方法都具有其獨(dú)特的
    發(fā)表于 10-09 10:23 ?483次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>的由來 深度<b class='flag-5'>學(xué)習(xí)</b>的經(jīng)典算法有哪些

    機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘方法和應(yīng)用

    機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘方法和應(yīng)用(經(jīng)典)
    發(fā)表于 09-26 07:56