0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何理解各層學(xué)到了怎樣的信息?通過可視化工具進(jìn)行探究

電子工程師 ? 來源:lq ? 2019-01-23 15:10 ? 次閱讀

深度神經(jīng)網(wǎng)絡(luò)的超強(qiáng)有效性一直讓人疑惑。

經(jīng)典論文《可視化與理解CNN》(Visualizing and Understanding Convolutional Networks)解釋了在圖像領(lǐng)域中CNN從低層到高層不斷學(xué)習(xí)出圖像的邊緣、轉(zhuǎn)角、組合、局部、整體信息的過程,一定層面論證了深度學(xué)習(xí)的有效性。另一方面,傳統(tǒng)的NLP神經(jīng)網(wǎng)絡(luò)卻并不是那么深,而bert的出現(xiàn)直接將NLP的神經(jīng)網(wǎng)絡(luò)加到12層以上。

那么如何理解各層學(xué)到了怎樣的信息?

本文作者Jesse Vig通過可視化工具對(duì)此進(jìn)行了非常有意義的探究。文章分兩部分,第一部分介紹bert中的6種模式,第二部分介紹其底層細(xì)節(jié)。

可視化BERT之一

在BERT錯(cuò)綜復(fù)雜的注意力網(wǎng)絡(luò)中,出現(xiàn)了一些直觀的模式。

2018年是自然語言處理領(lǐng)域的轉(zhuǎn)折之年,一系列深度學(xué)習(xí)模型在智能問答、情感分類等多種NLP任務(wù)上取得了最佳結(jié)果。特別是最近谷歌的BERT,成為了一種“以一當(dāng)十的模型”,在各種任務(wù)上都取得了的極佳的表現(xiàn)。

BERT主要建立在兩個(gè)核心思想上,這兩個(gè)思想都包含了NLP最新進(jìn)展:(1)Transformer的架構(gòu)(2)無監(jiān)督學(xué)習(xí)預(yù)訓(xùn)練。

Transformer 是一種序列模型,它舍棄了 RNN 的順序結(jié)構(gòu),轉(zhuǎn)而采用了一種完全基于注意力的方法。這在經(jīng)典論文 《Attention Is All You Need》中有具體介紹。

BERT同時(shí)也要經(jīng)過預(yù)訓(xùn)練。它的權(quán)重預(yù)先通過兩個(gè)無監(jiān)督任務(wù)學(xué)習(xí)到。這兩個(gè)任務(wù)是:遮蔽語言模型(masked language model,MLM)和下句一句預(yù)測(cè)(next sentence prediction)。

因此,對(duì)于每個(gè)新任務(wù),BERT不需要從頭開始訓(xùn)練。相反,只要在預(yù)訓(xùn)練的權(quán)重上進(jìn)行微調(diào)(fine-tuning)就行。有關(guān)BERT的更多詳細(xì)信息,可以參考文章《圖解BERT》。

BERT是一只多頭怪

Bert不像傳統(tǒng)的注意力模型那樣只使用一個(gè)平坦的注意力機(jī)制。相反,BERT使用了多層次的注意力(12或24層,具體取決于模型),并在每一層中包含多個(gè)(12或16)注意力“頭”。由于模型權(quán)重不在層之間共享,因此一個(gè)BERT模型就能有效地包含多達(dá)24 x 16 = 384個(gè)不同的注意力機(jī)制。

可視化BERT

由于BERT的復(fù)雜性,所以很難直觀地了解其內(nèi)部權(quán)重的含義。而且一般來說,深度學(xué)習(xí)模型也是飽受詬病的黑箱結(jié)構(gòu)。所以大家開發(fā)了各種可視化工具來輔助理解。

可我卻沒有找到一個(gè)工具能夠解釋BERT的注意力模式,來告訴我們它到底在學(xué)什么。幸運(yùn)的是,Tensor2Tensor有一個(gè)很好的工具,可用于可視化Transformer模型中的注意力模式。因此我修改了一下,直接用在BERT的一個(gè)pytorch版本上。修改后的界面如下所示。你可以直接在這個(gè)Colab notebook (https://colab.research.google.com/drive/1vlOJ1lhdujVjfH857hvYKIdKPTD9Kid8)里運(yùn)行,或在Github上找到源碼。(https://github.com/jessevig/bertviz)。

這個(gè)工具將注意力看做不同的連線,它們用來連接被更新的位置(左半邊)與被注意的位置(右半邊)。(譯注:可以想象為神經(jīng)網(wǎng)絡(luò)是從右向左正向傳播的。)不同的顏色分別代表相應(yīng)的注意頭,而線條顏色的深淺代表被注意的強(qiáng)度。在這個(gè)小工具的頂部,用戶可以選擇觀察模型的第幾層,以及第幾個(gè)注意力頭(通過單擊頂部的色塊即可,它們分別代表著12個(gè)頭)。

BERT 到底學(xué)了什么?

我使用該工具探索了預(yù)訓(xùn)練 BERT 模型各個(gè)層和各個(gè)頭的注意力模式(用全小寫(uncased)版本的BERT-Base 模型)。雖然我嘗試了不同的輸入句子,但為了方便演示,這里只采用以下例句:

句子A:I went to the store.

句子B:At the store, I bought fresh strawberries.

BERT 用 WordPiece工具來進(jìn)行分詞,并插入特殊的分離符([CLS],用來分隔樣本)和分隔符([SEP],用來分隔樣本內(nèi)的不同句子)。

因此實(shí)際輸入序列為:[CLS] i went to the store . [SEP] at the store , i bought fresh straw ##berries . [SEP]

在探索中,我發(fā)現(xiàn)了一些特別顯著的令人驚訝的注意力模式。下面是我確認(rèn)的六種關(guān)鍵模式,將產(chǎn)生每一種模式的特定層和頭都進(jìn)行可視化展示。

模式1:注意下一個(gè)詞

在這種模式中,每個(gè)位置主要注意序列中的下一個(gè)詞(token)。下面將看到第2層0號(hào)頭的一個(gè)例子。(所選頭部由頂部顏色條中突出的顯示色塊表示。)

模式1:注意下一個(gè)詞。

左:所有詞的注意力。右:所選詞的注意力權(quán)重(“i”)

左邊顯示了所有詞的注意力,而右側(cè)圖顯示一個(gè)特定詞(“i”)的注意力。在這個(gè)例子中,“i”幾乎所有的注意力都集中在“went”上,即序列中的下一個(gè)詞。

在左側(cè),可以看到[SEP]符號(hào)不符合這種注意力模式,因?yàn)閇SEP]的大多數(shù)注意力被引導(dǎo)到了[CLS]上,而不是下一個(gè)詞。因此,這種模式似乎主要在每個(gè)句子內(nèi)部出現(xiàn)。

該模式與后向RNN有關(guān),其狀態(tài)的更新是從右向左依次進(jìn)行。模式1出現(xiàn)在模型的多個(gè)層中,在某種意義上模擬了RNN的循環(huán)更新。

模式2:注意前一個(gè)詞

在這種模式中,大部分注意力都集中在句子的前一個(gè)詞上。例如,下圖中“went”的大部分注意力都指向前一個(gè)詞“i”。

這個(gè)模式不像上一個(gè)那樣顯著。有一些注意力也分散到其他詞上了,特別是[SEP]符號(hào)。與模式1一樣,這與RNN有些類似,只是這種情況下更像前向RNN。

模式2:注意前一個(gè)詞。

左:所有詞的注意力。右:所選詞的注意力權(quán)重(“went”)

模式3:注意相同或相關(guān)的單詞

這種模式注意相同或相關(guān)的單詞,包括其本身。在下面的例子中,第一次出現(xiàn)的“store”的大部分注意力都是針對(duì)自身和第二次出現(xiàn)的“store”。這種模式并不像其他一些模式那樣顯著,注意力會(huì)分散在許多不同的詞上。

模式3:注意相同/相關(guān)的詞。

左:所有詞的注意力。右:所選詞的注意權(quán)重(“store”)

模式4:注意“其他”句子中相同或相關(guān)詞

這種模式注意另一個(gè)句子中相同或相關(guān)的單詞。例如,第二句中“store”的大部分注意力都指向第一句中的“store”。可以想象這對(duì)于下句預(yù)測(cè)任務(wù)(BERT預(yù)訓(xùn)練任務(wù)的一部分)特別有用,因?yàn)樗兄谧R(shí)別句子之間的關(guān)系。

模式4:注意其他句子中相同/相關(guān)的單詞。

左:所有詞的注意力。右:所選詞的注意權(quán)重(“store”)

模式5:注意能預(yù)測(cè)該詞的其他單詞

這種模式似乎是更注意能預(yù)測(cè)該詞的詞,而不包括該詞本身。在下面的例子中,“straw”的大部分注意力都集中在“##berries”上(strawberries草莓,因?yàn)閃ordPiece分開了),而“##berries”的大部分注意力也都集中在“straw”上。

模式5:注意能預(yù)測(cè)該單詞的其他單詞。

左:所有詞的注意力。右:所選詞的注意力(“## berries”)

這個(gè)模式并不像其他模式那樣顯著。例如,詞語的大部分注意力都集中在定界符([CLS])上,而這是下面討論的模式6的特征。

模式6:注意分隔符

在這種模式中,詞語的大部分注意力都集中在分隔符[CLS]或[SEP]上。在下面的示例中,大部分注意力都集中在兩個(gè)[SEP]符號(hào)上。這可能是模型將句子級(jí)狀態(tài)傳播到單個(gè)詞語上的一種方式。

模式6:注意分隔符。左:所有詞的注意力。右:所選詞的注意權(quán)重(“store”)

說明

其實(shí)數(shù)據(jù)可視化有點(diǎn)像羅夏墨跡測(cè)驗(yàn)(譯注:這種測(cè)驗(yàn)叫人解釋墨水點(diǎn)繪的圖形以判斷其性格):我們的解釋可能會(huì)被我們的主觀信念和期望所影響。雖然上面的一些模式非常顯著,但其他模式卻有點(diǎn)主觀,所以這些解釋只能作為初步觀察。

此外,上述6種模式只是描述了BERT的粗略注意力結(jié)構(gòu),并沒有試圖去描述注意力可能捕獲到的語言學(xué)(linguistic)層面的模式。例如,在模式3和4中,其實(shí)可以表現(xiàn)為許多其他不同類型的“相關(guān)性”,例如同義關(guān)系、共同指代關(guān)系等。

而且,如果能看到注意力頭是否抓取到不同類型的語義和句法關(guān)系,那將會(huì)非常有趣。

可視化BERT之二:探索注意力機(jī)制的內(nèi)部細(xì)節(jié)一

在這里,一個(gè)新的可視化工具將展示BERT如何形成其獨(dú)特的注意力模式。

在上文中,我講解了BERT的注意力機(jī)制是如何呈現(xiàn)出多種模式的。例如,一個(gè)注意力頭會(huì)主要注意序列中的下一個(gè)詞;而另一個(gè)注意力頭會(huì)主要注意序列中的前一個(gè)詞(具體看下方圖示)。在這兩種情況中,BERT在本質(zhì)上都是學(xué)習(xí)一種類似RNN的序列更新的模式。之后,我們也將展示BERT是如何建模詞袋模型(Bag-of-Words)的。

通過BERT學(xué)習(xí)下一個(gè)單詞和上一個(gè)單詞的注意力模式

那么BERT是如何學(xué)到這些極好的特性呢?為了解決這個(gè)問題,我從第一部分?jǐn)U展了可視化工具來更深入地探索BERT——揭示提供BERT強(qiáng)大建模能力的神經(jīng)元。你可以在這個(gè)Colab notebook或者Github上找到這個(gè)可視化工具。

最初的可視化工具(基于由Llion Jones出色完成的Tensor2Tensor)嘗試來解釋什么是注意力:也就是說,BERT到底在學(xué)習(xí)什么樣的注意力結(jié)構(gòu)?那么它是怎樣學(xué)到的呢?為了解決這個(gè)問題,我添加了一個(gè)注意力細(xì)節(jié)視圖,來可視化注意力的計(jì)算過程。詳細(xì)視圖通過點(diǎn)擊⊕圖標(biāo)按鈕來查看。你可以看到以下的一個(gè)demo示例,或直接跳到屏幕截圖。

可視化工具概覽

BERT有點(diǎn)像魯布·戈德堡機(jī)(譯注:是一種被設(shè)計(jì)得過度復(fù)雜的機(jī)械組合,以迂回曲折的方法去完成一些其實(shí)是非常簡(jiǎn)單的工作,例如倒一杯茶,或打一只蛋。),盡管每個(gè)組件都非常直觀,但是系統(tǒng)整體很難把握?,F(xiàn)在我將通過可視化工具介紹BERT注意力架構(gòu)的各個(gè)部分。(想了解有關(guān)BERT的全部教程推薦《圖解transformer》和《圖解BERT》這兩篇文章。)

下方展示了新的注意力細(xì)節(jié)視圖。圖中正值是藍(lán)色的,負(fù)值是橙色的,顏色的深淺反映了取值的大小。所有的向量都是64維的,并且作用于某個(gè)特定的注意力頭上。和最初的可視化工具類似,連接線顏色的深淺代表了單詞之間的注意力強(qiáng)度。

讓我們結(jié)合圖分析一下:

查詢向量q :查詢向量q是左邊正在進(jìn)行注意力過程的單詞/位置的編碼,也就是說由它來“查詢”其他的單詞/位置。在上述的例子中,“the”(選中的單詞)的查詢向量標(biāo)注出來了。

鍵向量k:鍵向量k是右邊正在“被注意”的單詞的編碼。如下所述,鍵向量和查詢向量決定了單詞被注意程度的得分。

q×k(element-wise):查詢向量和鍵向量的逐元素積(譯注:element-wise product, 也叫哈達(dá)瑪積/Hadamard product)。這個(gè)逐元素積是通過選定的查詢向量和每個(gè)鍵向量計(jì)算得到的。這是點(diǎn)積(逐元素乘積的和)的前導(dǎo)。由于它展示了查詢向量中的單個(gè)元素和鍵向量對(duì)點(diǎn)積的貢獻(xiàn),因此將其可視化。選定的查詢向量和每個(gè)鍵向量的點(diǎn)積。得到的是非歸一化的注意力得分。

Softmax:所有目標(biāo)單詞的q·k/ 8的softmax值。這一步實(shí)現(xiàn)了注意力得分的歸一化,保證了值為正的且和為1。常量8是向量長(zhǎng)度(64)的開方。論文(https://arxiv.org/pdf/1706.03762.pdf)描述了這樣做的原因。

解析BERT的注意力模式

在第一部分文章中,我在BERT的注意力頭的結(jié)構(gòu)中發(fā)現(xiàn)了一些模式。來看看我們是否能使用新的可視化工具來理解BERT是如何形成這些模式的。

注意分隔符

讓我們以一個(gè)簡(jiǎn)單的例子起手,這個(gè)例子中大多數(shù)注意力是聚焦于分隔符[SEP]的(第一部分文章中的模式6)。如第一部分文章中所描述的,這個(gè)模式可能是BERT用來將句子級(jí)的狀態(tài)傳播到單詞級(jí)狀態(tài)的一種方式。

基于BERT預(yù)訓(xùn)練模型的第7層3號(hào)頭,聚焦分隔符注意力模式。

所以,BERT是如何直接聚焦于[SEP]符號(hào)的呢?來看看可視化工具。下面是上述例子的注意力細(xì)節(jié)視圖。

在鍵向量列,兩個(gè)出現(xiàn)[SEP]處的鍵向量有顯著的特點(diǎn):它們都有少量的高正值(藍(lán)色)和低負(fù)值(橘色)的激活神經(jīng)元,以及非常多的接近0的(淺藍(lán),淺橘或白色)的神經(jīng)元。

第一個(gè)分隔符[SEP]的鍵向量。

查詢向量q會(huì)通過那些激活神經(jīng)元來匹配[SEP]鍵向量,會(huì)使元素內(nèi)積q×k產(chǎn)生較高的值,如下例子所示:

第一個(gè)“the”的查詢向量;第一個(gè)[SEP]的鍵向量;兩個(gè)向量的逐元素積。

其他單詞的查詢向量也遵循相似的模式;它們通過同一組神經(jīng)元來匹配[SEP]鍵向量。因此,BERT似乎指定了一小部分神經(jīng)元作為“[SEP]-匹配神經(jīng)元”,而查詢向量也通過這些相同位置的值來匹配[SEP]鍵向量。這就是注意分隔符[SEP]的注意力模式。

注意句子:詞袋模型(Bag of Words)

這是一個(gè)不太常見的模式,在第一部分文章中沒有具體討論。在這種模式中,注意力被平均的分配到句子中的每個(gè)單詞上。

基于BERT預(yù)訓(xùn)練模型的第0層0號(hào)頭,專注句子的注意力模式

這個(gè)模式的作用是將句子級(jí)的狀態(tài)分配到單詞級(jí)上。BERT在這里本質(zhì)上是通過對(duì)所有詞嵌入進(jìn)行幾乎相等權(quán)重的加權(quán)平均操作來計(jì)算一個(gè)詞袋模型。詞嵌入就是我們之前提到的值向量。

那么BERT是怎樣處理查詢向量和鍵向量來形成這種注意力模式的呢?讓我們?cè)賮砜纯醋⒁饬?xì)節(jié)視圖;

基于BERT預(yù)訓(xùn)練模型的第0層0號(hào)頭,專注句子的注意力模式細(xì)節(jié)視圖。

在q×k這列,我們能看到一個(gè)清晰的模式:少量神經(jīng)元(2-4個(gè))控制著注意力得分的計(jì)算。當(dāng)查詢向量和鍵向量在同個(gè)句子中時(shí)(上例中第一個(gè)句子),這些神經(jīng)元的乘積顯示出較高的值(藍(lán)色)。當(dāng)查詢向量和鍵向量在不同句子中時(shí),在這些相同的位置上,乘積是負(fù)的(橘色),如下例子所示:

在同個(gè)句子中(左邊)q*k的逐元素積很高,在不同句子中(右邊)q*k的逐元素積很低。

當(dāng)查詢向量和鍵向量都來自第一個(gè)句子中時(shí),它們?cè)诩せ钌窠?jīng)元上往往有相同的符號(hào),因此會(huì)產(chǎn)生一個(gè)正積。當(dāng)查詢向量來自第一個(gè)句子中時(shí),鍵向量來自第二個(gè)句子時(shí),相同地方的神經(jīng)元會(huì)有相反的符號(hào),因此會(huì)產(chǎn)生一個(gè)負(fù)值。

但是BERT是怎么知道“句子”這個(gè)概念的?尤其是在神經(jīng)網(wǎng)絡(luò)第一層中,更高的抽象信息還沒有形成的時(shí)候。這個(gè)答案就是添加到輸入層(見下圖)的句子級(jí)嵌入(sentence-level embeddings)。這些句子嵌入的編碼信息傳遞到下層的變量中,即查詢向量和鍵向量,并且使它們能夠獲取到特定句子的值。

句子A和B的部分嵌入以及位置嵌入被添加到詞嵌入中

(來自BERT論文(https://arxiv.org/pdf/1810.04805.pdf))

注意下一個(gè)詞

在這種注意力模式中,除了分隔符,其他所有的注意力都集中在輸入序列的下個(gè)單詞上。

基于BERT預(yù)訓(xùn)練模型的第2層0號(hào)頭,注意下一個(gè)詞的注意力模式。

這個(gè)模式能夠使BERT捕獲序列關(guān)系,如二元語法(bigrams)。我們來查看它的注意力細(xì)節(jié)視圖;

我們看到查詢向量“the”和鍵向量“store”(下個(gè)單詞)的乘積在大多數(shù)神經(jīng)元中是很高的正值。對(duì)于下一個(gè)單詞之外的其他單詞,q*k乘積包含著一些正值和負(fù)值。最終的結(jié)果是“the”和“store”之間的注意力得分很高。

對(duì)于這種注意力模式,大量的神經(jīng)元參與到注意力得分中。而且這些神經(jīng)元根據(jù)詞位置的不同而不同,如下所示:

當(dāng)i取2,4,8的時(shí)候,在位置i處的查詢向量和在j = i+1處的鍵向量的逐元素積。注意激活神經(jīng)元在每一個(gè)例子中都不同。

這種方式不同于注意分隔符以及注意句子的注意力模式,它們是由少量固定的神經(jīng)元來決定注意力得分的。對(duì)于這兩種模式,只有少量的神經(jīng)元是必須的,因此這兩種模式都很簡(jiǎn)單,并且在被注意的單詞上都沒多少變化。與它們相反,注意下個(gè)單詞的注意力模式需要追蹤512個(gè)單詞(譯注:在BERT中每個(gè)樣本最多512個(gè)單詞。)中到底是哪個(gè)是被一個(gè)給定的位置注意的,即哪個(gè)是下一個(gè)單詞。為了實(shí)現(xiàn)這個(gè)功能,需要產(chǎn)生一系列查詢向量和鍵向量,其中每個(gè)查詢向量會(huì)有從512個(gè)鍵向量有唯一一個(gè)匹配。因此使用少量神經(jīng)元很難完成這個(gè)任務(wù)。

那么BERT是如何能夠生成這些查詢向量和鍵向量呢?答案就在BERT的位置嵌入(position embeddings),它在輸入層(見圖1)中被添加到詞嵌入(word embeddings)中。BERT在輸入序列中學(xué)習(xí)512個(gè)獨(dú)特的位置嵌入,這些指定位置的信息能通過模型流入到鍵向量和查詢向量中。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4749

    瀏覽量

    100434
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1080

    瀏覽量

    40381
  • 可視化
    +關(guān)注

    關(guān)注

    1

    文章

    1169

    瀏覽量

    20863

原文標(biāo)題:用可視化解構(gòu)BERT,我們從上億參數(shù)中提取出了6種直觀模式

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    MongoDB可視化工具Compass的安裝與使用

    MongoDB可視化工具Compass
    發(fā)表于 05-08 06:54

    從使用效果來看,數(shù)據(jù)可視化工具離不開數(shù)據(jù)中臺(tái)嗎?

    數(shù)據(jù)可視化工具具有數(shù)據(jù)智能分析、數(shù)據(jù)可視化展現(xiàn)兩大作用,同時(shí)數(shù)據(jù)可視化報(bào)表還具備實(shí)時(shí)運(yùn)算、分析的功能,而從功能實(shí)現(xiàn)途徑來看數(shù)據(jù)可視化工具要同時(shí)具備以上功能作用,數(shù)據(jù)中臺(tái)是重要基底。因此
    發(fā)表于 05-12 14:14

    能做數(shù)據(jù)治理的數(shù)據(jù)可視化工具,又快又靈活

    ,但至少奧威BI系列的數(shù)據(jù)可視化工具都具備數(shù)據(jù)治理的能力。數(shù)據(jù)治理,是必須的嗎?首先我們要清楚BI數(shù)據(jù)可視化工具進(jìn)行系統(tǒng)化的BI智能可視化分析時(shí),往往需要從不同部門的數(shù)據(jù)中智能匹配,
    發(fā)表于 07-13 15:34

    現(xiàn)在做企業(yè)級(jí)數(shù)據(jù)分析,離不開秒分析的數(shù)據(jù)可視化工具

    頭部企業(yè),就越早上線數(shù)據(jù)可視化工具,為的就是更快、更直觀地掌握數(shù)據(jù)情況,充分利用數(shù)據(jù)信息指導(dǎo)業(yè)務(wù),增加企業(yè)利潤。做企業(yè)級(jí)數(shù)據(jù)分析,億級(jí)數(shù)據(jù)秒分析隨著互聯(lián)網(wǎng)、物聯(lián)網(wǎng)的進(jìn)一步加強(qiáng),企業(yè)日增數(shù)據(jù)正以極為
    發(fā)表于 07-21 15:06

    這樣選數(shù)據(jù)可視化工具,更能選到適用的

    。如通過評(píng)分圖快速掌握用戶對(duì)該商品、服務(wù)的滿意度;通過3D模型圖,能更直觀掌握商場(chǎng)內(nèi)不同商品或商鋪的相關(guān)信息等。一般的基礎(chǔ)性可視化圖表基本不會(huì)缺,因此用戶在考察數(shù)據(jù)
    發(fā)表于 07-30 13:17

    怎樣去使用RKNN ToolKit可視化工具

    RKNN ToolKit分別有哪幾種使用工具呢?怎樣去使用RKNN ToolKit可視化工具呢?
    發(fā)表于 02-21 07:28

    SpeedBI數(shù)據(jù)可視化工具:瀏覽器上做分析

    ,可通過圖形化的圖表直觀展現(xiàn)數(shù)據(jù),更快地將數(shù)據(jù)信息傳遞給使用者。 支持多維自助分析 作為一款BI數(shù)據(jù)可視化工具,SpeedBI數(shù)據(jù)分析云還支持多維自助分析分析,具體表現(xiàn)為使用者可在任意終端上,隨時(shí)根據(jù)自身
    發(fā)表于 08-22 10:55

    緊跟老板思維,這款數(shù)據(jù)可視化工具神了

    多維度自助分析;可無邊界鉆取分析,幫助商品/運(yùn)營部門以數(shù)據(jù)驅(qū)動(dòng)運(yùn)營,實(shí)現(xiàn)數(shù)字化運(yùn)營管理。 在奧威BI數(shù)據(jù)可視化工具的多維動(dòng)態(tài)分析功能的幫助下,即使是同一張報(bào)表,也能順應(yīng)不同角色的分析思維去分析、挖掘、展現(xiàn),為企業(yè)運(yùn)營決策提供更加詳盡的數(shù)據(jù)信息。
    發(fā)表于 08-22 13:46

    財(cái)務(wù)數(shù)據(jù)分析?奧威BI數(shù)據(jù)可視化工具很擅長(zhǎng)

    BI數(shù)據(jù)可視化工具通常是可以用戶各行各業(yè),用于不同主題的數(shù)據(jù)可視化分析,但面對(duì)財(cái)務(wù)數(shù)據(jù)分析這塊難啃的骨頭,能夠好好地完成的,還真不多。接下來要介紹的這款BI數(shù)據(jù)可視化工具不僅擁有內(nèi)存行列計(jì)算模型這樣
    發(fā)表于 08-29 09:44

    mongodb可視化工具如何使用_介紹一款好用 mongodb 可視化工具

    RockMongo是一個(gè)MongoDB管理工具,連接數(shù)據(jù)庫的時(shí)候,輸入 相應(yīng)的地址用戶名和密碼就好了,一些小伙伴想知道m(xù)ongodb可視化工具如何使用,下面就讓小編為大家為什一下mongodb可視化工具使用方法并且介紹一款好用
    發(fā)表于 02-07 09:31 ?7297次閱讀
    mongodb<b class='flag-5'>可視化工具</b>如何使用_介紹一款好用 mongodb <b class='flag-5'>可視化工具</b>

    建議收藏的20款實(shí)用的數(shù)據(jù)可視化工具

    如今學(xué)習(xí)應(yīng)用數(shù)據(jù)可視化的渠道有很多,你可以跟蹤一些專家博客,但更重要的一點(diǎn)是實(shí)踐/實(shí)操,你必須對(duì)目前可用的數(shù)據(jù)可視化工具有個(gè)大致了解。 下面列舉的二十個(gè)數(shù)據(jù)可視化工具,無論你是準(zhǔn)備制作簡(jiǎn)單的圖表還是
    的頭像 發(fā)表于 06-17 09:47 ?2479次閱讀

    數(shù)據(jù)可視化工具的圖表主要分為哪些

    都說數(shù)據(jù)可視化工具的圖表是預(yù)設(shè)好的,點(diǎn)擊即生效,那么數(shù)據(jù)可視化工具都有多少圖表,使用效果又是怎樣的?就以奧威BI工具為例,聊聊數(shù)據(jù)可視化工具
    發(fā)表于 10-09 11:34 ?1593次閱讀

    怎么挑選合適企業(yè)需求的數(shù)據(jù)可視化工具

    數(shù)據(jù)可視化工具是一種幫助使用者直觀地、圖形化地顯示數(shù)據(jù)的應(yīng)用軟件,顯示出數(shù)據(jù)的完整輪廓。該可視化工具面向用戶直觀地顯示結(jié)果,可以幫助用戶快速理解和分析數(shù)據(jù)。
    發(fā)表于 09-29 14:21 ?592次閱讀

    幾款好用的可視化工具推薦

    ? 1?說在前面的話 在開發(fā)IMU設(shè)備時(shí),我們經(jīng)常需要驗(yàn)證算法的正確性,并通過圖表、圖形和圖像的可視化方式更直觀地呈現(xiàn)數(shù)據(jù)和信息。這樣可以更清晰地理解和分析復(fù)雜的數(shù)據(jù)關(guān)系,從而更好地
    的頭像 發(fā)表于 07-23 15:24 ?1080次閱讀
    幾款好用的<b class='flag-5'>可視化工具</b>推薦

    一鍵生成可視化圖表/大屏 這13款數(shù)據(jù)可視化工具很強(qiáng)大

    前言 數(shù)字經(jīng)濟(jì)時(shí)代,我們每天正在處理海量數(shù)據(jù),對(duì)數(shù)據(jù)可視化軟件的需求變得突出,它可以幫助人們通過模式、趨勢(shì)、儀表板、圖表等視覺輔助工具理解數(shù)據(jù)的重要性。 如果遇到數(shù)據(jù)集需要分析處理,但
    的頭像 發(fā)表于 12-19 17:27 ?5130次閱讀
    一鍵生成<b class='flag-5'>可視化</b>圖表/大屏 這13款數(shù)據(jù)<b class='flag-5'>可視化工具</b>很強(qiáng)大