0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于機(jī)器學(xué)習(xí)方法的網(wǎng)絡(luò)流量解析

電子設(shè)計(jì) ? 來源: 信息安全與通信保密雜志 ? 作者:Cismag ? 2021-01-16 10:28 ? 次閱讀

隨著大眾網(wǎng)絡(luò)安全意識的穩(wěn)步提升,對于數(shù)據(jù)保護(hù)的意識也愈加強(qiáng)烈。根據(jù)Google的報(bào)告,2019年10月,Chrome加載網(wǎng)頁中啟用加密的比例已經(jīng)達(dá)到了95%。對于特定類型的流量,加密甚至已成為法律的強(qiáng)制性要求,加密在保護(hù)隱私的同時(shí)也給網(wǎng)絡(luò)安全帶來了新的隱患。攻擊者將加密作為隱藏活動的工具,加密流量給攻擊者隱藏其命令與控制活動提供了可乘之機(jī)。在面臨日益嚴(yán)重的網(wǎng)絡(luò)安全威脅和攻擊時(shí),需要提出有效的識別方法。實(shí)現(xiàn)加密流量精細(xì)化管理,保障計(jì)算機(jī)和終端設(shè)備安全運(yùn)行,維護(hù)健康綠色的網(wǎng)絡(luò)環(huán)境。

01、相關(guān)研究

當(dāng)前對于加密網(wǎng)絡(luò)流識別的研究主要集中在機(jī)器學(xué)習(xí)相關(guān)的方法上。使用機(jī)器學(xué)習(xí)方法對網(wǎng)絡(luò)流量進(jìn)行解析時(shí),按使用的機(jī)器學(xué)習(xí)算法不同可以分為傳統(tǒng)機(jī)器學(xué)習(xí)算法(淺層學(xué)習(xí))和深度學(xué)習(xí)。傳統(tǒng)機(jī)器學(xué)習(xí)算法對加密網(wǎng)絡(luò)流量解析主要存在兩個(gè)問題:一個(gè)是需要對待分類的報(bào)文人工設(shè)計(jì)一個(gè)可以普遍反映流量特征的特征集;另一個(gè)就是傳統(tǒng)機(jī)器學(xué)習(xí)方法有很大的局限性,例如對復(fù)雜函數(shù)難以表示、容易陷入局部最優(yōu)解等。

由于以上兩個(gè)原因,導(dǎo)致傳統(tǒng)機(jī)器學(xué)習(xí)方法對加密網(wǎng)絡(luò)流量解析的準(zhǔn)確率不是很高。隨著計(jì)算方法的發(fā)展和計(jì)算能力的提高,深度學(xué)習(xí)的引入可以有效解決機(jī)器學(xué)習(xí)設(shè)計(jì)特征的問題。深度學(xué)習(xí)通過特征學(xué)習(xí)和分層特征提取的方法來替代手工獲取特征。深度神經(jīng)網(wǎng)絡(luò)擁有很高的擬合能力,可以逼近許多復(fù)雜的函數(shù),不易陷入局部最優(yōu)解。解決了傳統(tǒng)機(jī)器學(xué)習(xí)在加密網(wǎng)絡(luò)流量解析時(shí)存在的兩個(gè)關(guān)鍵問題。

深度學(xué)習(xí)是基于表示學(xué)習(xí)的眾多機(jī)器學(xué)習(xí)算法中的一員。目前使用最多的深度學(xué)習(xí)方法包括DBN(Deep Belief Nets)、CNN(Convolutional Neural Networks)、深度自編碼器(AutoEncoder,AE)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)以及基于RNN的長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM),近年來這些方法被廣泛地應(yīng)用在加密流量解析中,并取得了不錯(cuò)的成果。王偉等人提出一種基于CNN的異常流量檢測方法,該方法利用CNN特征學(xué)習(xí)能力,準(zhǔn)確地對流量的特征進(jìn)行提取,將提取到的特征用于流量分類并取得了良好的結(jié)果,最終將該模型用于異常流量檢測。

J.Ran等人提出了一種將三維卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于無線網(wǎng)絡(luò)流量分類的方法,實(shí)驗(yàn)結(jié)果表明該方法優(yōu)于一維和二維卷積神經(jīng)網(wǎng)絡(luò)。Jain研究了由不同優(yōu)化器訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)對協(xié)議識別的影響,實(shí)驗(yàn)結(jié)果表明,隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)優(yōu)化器產(chǎn)生的識別效果最好。陳雪嬌等利用卷積神經(jīng)網(wǎng)絡(luò)的識別準(zhǔn)確率高和自主進(jìn)行特征選擇的優(yōu)勢,將其應(yīng)用于加密流量的識別,測試結(jié)果表明該方法優(yōu)于DPI方法。

王勇等設(shè)計(jì)了基于LeNet-5深度卷積神經(jīng)網(wǎng)絡(luò)的分類方法,通過不斷調(diào)整參數(shù)產(chǎn)生最優(yōu)分類模型,測試結(jié)果表明該方法優(yōu)于主成分分析、稀疏隨機(jī)映射等方法。Wu,Kehe等人將網(wǎng)絡(luò)流量數(shù)據(jù)的121個(gè)流統(tǒng)計(jì)特征作為數(shù)據(jù)集,并對比了一維和二維CNN網(wǎng)絡(luò)、CNN網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)算法、CNN網(wǎng)絡(luò)與RNN網(wǎng)絡(luò)的分類準(zhǔn)確性與計(jì)算量。

J.Ren等提出了一種針對無線通信網(wǎng)絡(luò)的協(xié)議識別方法,首先利用一維卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行自動化的特征提取,然后基于SVM對應(yīng)用層協(xié)議進(jìn)行分類。H.Lim等提出了使用深度學(xué)習(xí)的基于數(shù)據(jù)包的網(wǎng)絡(luò)流量分類,該方法提取網(wǎng)絡(luò)會話中的前幾個(gè)數(shù)據(jù)包處理成等長的向量,然后利用CNN和ResNet進(jìn)行訓(xùn)練,進(jìn)行流量分類。

在以往的基于深度學(xué)習(xí)的加密網(wǎng)絡(luò)流量解析研究中,數(shù)據(jù)預(yù)處理都是只針對原始的網(wǎng)絡(luò)流量數(shù)據(jù)進(jìn)行變換處理,而忽略了數(shù)據(jù)包在傳輸過程中的時(shí)間特征。因此,在本研究中,將對加密網(wǎng)絡(luò)流量中的原始報(bào)文數(shù)據(jù)及數(shù)據(jù)包傳輸時(shí)間間隔進(jìn)行綜合預(yù)處理,并采用CNN網(wǎng)絡(luò)模型進(jìn)行實(shí)驗(yàn)驗(yàn)證。

02、基于CNN的加密網(wǎng)絡(luò)流量識別方法

本節(jié)將從流量采集、數(shù)據(jù)預(yù)處理、加密網(wǎng)絡(luò)流量識別模型等環(huán)節(jié)詳細(xì)介紹本文提出的基于深度學(xué)習(xí)的加密網(wǎng)絡(luò)流量解析方法。

2.1流量采集

為了獲得更加接近實(shí)際使用場景下的網(wǎng)絡(luò)流量,我們在手機(jī)終端安裝了代理軟件,采集日常真實(shí)使用環(huán)境下的應(yīng)用網(wǎng)絡(luò)流量,并按照應(yīng)用名稱分別保存為不同的文件,共計(jì)14類,16.81GB。

2.2數(shù)據(jù)預(yù)處理

采集的網(wǎng)絡(luò)流量存儲為Pcap格式的文件,該格式的文件除了流量數(shù)據(jù)外,還有該文件協(xié)議額外添加的其他信息,而這些信息有可能干擾分類結(jié)果。因此需要對該文件的格式進(jìn)行解析,提取出有用的數(shù)據(jù)部分。

2.2.1 Pcap格式介紹

Pcap文件格式如圖1所示,最開始的24個(gè)字節(jié)為文件頭(Global Header),后面是抓取的包頭(Packet Header)和包數(shù)據(jù)(Packet Data)。此處的包頭為Pcap文件格式的固定部分,描述了后面緊跟著的包數(shù)據(jù)的捕獲時(shí)間、捕獲長度等信息,原始網(wǎng)絡(luò)數(shù)據(jù)流量中不包含此部分信息。包數(shù)據(jù)為數(shù)據(jù)鏈路層到應(yīng)用層的所有數(shù)據(jù),包括每一層的包頭。

pIYBAGACTh6Aei2rAADBvd9MFp8545.png

圖1 Pcap文件格式

圖2描述了Global Header的具體內(nèi)容以及每部分的長度。

pIYBAGACTiqAXDYuAACqwph4_3g468.png

圖2 Global Header格式

每個(gè)字段的含義如下:

(1)Magic:4Byte,標(biāo)記文件開始,并用來識別文件自己和字節(jié)順序。0xa1b2c3d4用來表示按照原來的順序讀取,0xd4c3b2a1表示下面的字節(jié)都要交換順序讀取。考慮到計(jì)算機(jī)內(nèi)存的存儲結(jié)構(gòu),一般會采用0xd4c3b2a1,即所有字節(jié)都需要交換順序讀取。

(2)Major:2Byte,當(dāng)前文件主要的版本號。

(3)Minor:2Byte,當(dāng)前文件次要的版本號。

(4)ThisZone:4Byte,當(dāng)?shù)氐臉?biāo)準(zhǔn)時(shí)間。

(5)SigFigs:4Byte,時(shí)間戳的精度。

(6)SnapLen:4Byte,最大的存儲長度。

(7)LinkType:4Byte,數(shù)據(jù)鏈路類型。

圖3描述了Packet Header的具體內(nèi)容以及每部分的長度。

o4YBAGACTjSAXvB5AABJcOYl-qY574.png

圖3 Packet Header格式

每個(gè)字段的含義如下:

(1)Timestamp:捕獲時(shí)間的高位,單位為秒。

(2)Timestamp:捕獲時(shí)間的低位,單位為微秒。

(3)Caplen:當(dāng)前數(shù)據(jù)區(qū)的長度,單位為字節(jié)。

(4)Len:離線數(shù)據(jù)長度,網(wǎng)絡(luò)中實(shí)際數(shù)據(jù)幀的長度。

2.2.2預(yù)處理方法

通過圖3對Pcap文件格式的介紹,我們發(fā)現(xiàn),Pcap文件中除了原始流量數(shù)據(jù)之外還有Global Header和Packet Header這兩部分原始數(shù)據(jù)流量中不存在的部分。因此,在接下來的數(shù)據(jù)處理環(huán)節(jié)中,我們將剔除這部分?jǐn)?shù)據(jù)或者對這部分?jǐn)?shù)據(jù)進(jìn)行轉(zhuǎn)換。預(yù)處理流程如下:

首先對采集到的Pcap文件按協(xié)議進(jìn)行過濾,提取出經(jīng)過加密的網(wǎng)絡(luò)流量,然后對提取出的流量按五元組進(jìn)行劃分。劃分出來的每一個(gè)文件將在后續(xù)流程中轉(zhuǎn)化為一張圖片。對劃分出來的每一個(gè)Pcap文件做如下處理。

pIYBAGACTkCAAe1GAAAkw772-IM540.png

圖4每種應(yīng)用的對應(yīng)的圖片數(shù)量

設(shè)最后返回的字節(jié)數(shù)組為A,需要的長度為LEN。

(1)首先忽略前24個(gè)字節(jié)。

(2)然后讀取16個(gè)字節(jié)的Packet Header,將其中的時(shí)間轉(zhuǎn)換為整數(shù),利用其中的捕獲長度讀取Packet data,忽略掉數(shù)據(jù)鏈路層和網(wǎng)絡(luò)層的包頭,將傳輸層的包頭和payload加入字節(jié)數(shù)組A。

(3)如果不是第一個(gè)數(shù)據(jù)包,則利用本數(shù)據(jù)包的捕獲時(shí)間減去上一個(gè)數(shù)據(jù)包的捕獲時(shí)間,得到時(shí)間差Δt,利用本數(shù)據(jù)包的捕獲長度L除以Δt,向上取整得到N,向字節(jié)數(shù)組A中加入N個(gè)0xFF字節(jié)。

(4)重復(fù)(2)(3)直到文件尾,或者A的長度大于等于LEN。

(5)若讀取到文件尾之前,A的長度大于等于LEN,則截?cái)嗟絃EN返回;若讀到文件尾,A的長度仍小于LEN,則在末尾填充0x00直到長度為LEN。

(6)將A數(shù)組轉(zhuǎn)化為長、寬相同的單通道灰度圖片。

最終將生成好的圖片存儲為TFRecoder格式,以便于后面的實(shí)驗(yàn)驗(yàn)證。預(yù)處理后每種應(yīng)用得到的圖片數(shù)目如圖4所示。

2.3加密網(wǎng)絡(luò)流量識別模型

本文采用了二維CNN模型進(jìn)行流量分類,為了對比不同輸入對實(shí)驗(yàn)結(jié)果的影響,分別嘗試了圖片長寬為32、40、48、56、64,其中當(dāng)長寬為32時(shí)效果最佳。下面介紹本文最終采用的CNN模型。

在卷積神經(jīng)網(wǎng)絡(luò)中,大尺寸的卷積核可以帶來更大的感受視野,獲取更多的信息,但也會產(chǎn)生更多的參數(shù),從而增加網(wǎng)絡(luò)的復(fù)雜度。為了減少模型的參數(shù),本文采用兩個(gè)連續(xù)的3*3卷積層來代替單個(gè)的5*5卷積層,可以在保持感受視野范圍的同時(shí)減少參數(shù)量。卷積層的Padding方式使用SAME方式,激活函數(shù)使用RELU,每一層的參數(shù)如表1所示。

表1網(wǎng)絡(luò)模型參數(shù)

pIYBAGACTkyAKlSiAALRpyBusf0091.png

03、實(shí)驗(yàn)與結(jié)果分析

為了對上述加密網(wǎng)絡(luò)流量識別模型進(jìn)行驗(yàn)證,采用TensorFlow深度學(xué)習(xí)框架,在NVIDIA TESLA K80上進(jìn)行了實(shí)驗(yàn)驗(yàn)證。

3.1評價(jià)指標(biāo)

本文采用準(zhǔn)確率(accuracy)、精準(zhǔn)率(precision)、召回率(recall)和F1-Measure值(以下簡稱F1值)四個(gè)評價(jià)指標(biāo)來對實(shí)驗(yàn)結(jié)果進(jìn)行評估,其中準(zhǔn)確率是對整體的評價(jià)指標(biāo),精準(zhǔn)率和召回率是用來對某種類別流量識別的評價(jià)指標(biāo),而F1值是對于精準(zhǔn)率和召回率兩個(gè)指標(biāo)的綜合評估。為了計(jì)算這四個(gè)指標(biāo),需要引入TP、FP、FN、TN四個(gè)參數(shù),每個(gè)參數(shù)的意義如表2混淆矩陣所示。

表2混淆矩陣

pIYBAGACTlWANVwoAAC2XWcxB9Q388.png

每個(gè)指標(biāo)的計(jì)算方法如公式(1)~(4)所示。

o4YBAGACTl6AKbd_AADBQiz5XkI683.png

3.2實(shí)驗(yàn)結(jié)果

將處理好的數(shù)據(jù)按4:1的比例分為訓(xùn)練集和測試集,由于采集的數(shù)據(jù)不均衡,因此在訓(xùn)練時(shí)對訓(xùn)練數(shù)據(jù)采用過采樣的方法來縮小數(shù)據(jù)量之間的差異。采用了Adam優(yōu)化器和動態(tài)學(xué)習(xí)率來提高模型的訓(xùn)練速度。最終訓(xùn)練好的模型在測試集上的結(jié)果如表3所示。

表3測試集結(jié)果

pIYBAGACTnGAPV6GAALeNuKgDtk627.png

為了驗(yàn)證在預(yù)處理階段引入時(shí)間間隔對模型準(zhǔn)確率的影響,還做了一組對比實(shí)驗(yàn)。對比實(shí)驗(yàn)在預(yù)處理階段不對時(shí)間間隔做特殊處理,直接舍棄該字段,最終結(jié)果如表4所示??梢钥闯?,利用時(shí)間間隔可以有效提高分類結(jié)果的準(zhǔn)確率。

表4不同預(yù)處理方式對應(yīng)的實(shí)驗(yàn)結(jié)果

o4YBAGACTn2AS6FXAADGq1L_1jU277.png

04、結(jié)語

本文提出了一種基于深度學(xué)習(xí)的加密網(wǎng)絡(luò)流量識別方法,該方法對采集到的流量進(jìn)行預(yù)處理,利用傳輸層數(shù)據(jù)及數(shù)據(jù)包之間的時(shí)間間隔,將時(shí)間間隔轉(zhuǎn)換為二進(jìn)制數(shù)據(jù)中的特殊值,然后將解析后的數(shù)據(jù)轉(zhuǎn)換為灰度圖片,采用卷積神經(jīng)網(wǎng)絡(luò)對采集到的14類應(yīng)用的加密流量進(jìn)行分類,最終識別準(zhǔn)確率為96.22%,可以滿足實(shí)際應(yīng)用。后續(xù)研究將關(guān)注流量類型的甄別,即對每種應(yīng)用流量中不同類型的流量進(jìn)行識別,如視頻流量、文本流量、圖片流量等,進(jìn)一步挖掘用戶行為。
編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評論

    相關(guān)推薦

    IP地址如何進(jìn)行網(wǎng)絡(luò)監(jiān)測? ? 立即查看

    ?一、異常檢測的方法和技術(shù)有哪些? 目前常用的異常檢測方法技術(shù)主要有基于統(tǒng)計(jì)分析的方法、基于機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 09-14 15:15 ?207次閱讀

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 了解時(shí)間序列

    學(xué)習(xí)方法對該序列數(shù)據(jù)進(jìn)行分析,可以得到結(jié)論或預(yù)測估計(jì),因此時(shí)間序列分析的用途是非常多的,比如: 可以反映社會經(jīng)濟(jì)現(xiàn)象的發(fā)展變化過程,描述現(xiàn)象的發(fā)展?fàn)顟B(tài)和結(jié)果。 可以研究社會經(jīng)濟(jì)現(xiàn)象的發(fā)展趨勢和發(fā)展速度
    發(fā)表于 08-11 17:55

    機(jī)器學(xué)習(xí)中的數(shù)據(jù)分割方法

    機(jī)器學(xué)習(xí)中,數(shù)據(jù)分割是一項(xiàng)至關(guān)重要的任務(wù),它直接影響到模型的訓(xùn)練效果、泛化能力以及最終的性能評估。本文將從多個(gè)方面詳細(xì)探討機(jī)器學(xué)習(xí)中數(shù)據(jù)分割的方法
    的頭像 發(fā)表于 07-10 16:10 ?1159次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、
    的頭像 發(fā)表于 07-09 10:50 ?379次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度學(xué)習(xí)簡介 深度學(xué)習(xí)是一種基于人工神經(jīng)
    的頭像 發(fā)表于 07-05 09:47 ?746次閱讀

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場景及未來發(fā)展趨勢等方面,以期為讀者提供一個(gè)全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?907次閱讀

    艾體寶干貨 IOTA流量分析秘籍第一招:網(wǎng)絡(luò)基線管理

    網(wǎng)絡(luò)基線管理是一項(xiàng)關(guān)鍵的網(wǎng)絡(luò)安全實(shí)踐,它有助于識別網(wǎng)絡(luò)中的異?;顒硬⒓皶r(shí)采取措施。本文將探討如何利用IOTA這一強(qiáng)大的工具來捕獲和分析網(wǎng)絡(luò)流量,以便更有效地了解
    的頭像 發(fā)表于 07-02 14:53 ?289次閱讀
    艾體寶干貨  IOTA<b class='flag-5'>流量</b>分析秘籍第一招:<b class='flag-5'>網(wǎng)絡(luò)</b>基線管理

    艾體寶干貨 | 教程:使用ntopng和nProbe監(jiān)控網(wǎng)絡(luò)流量

    本文是關(guān)于使用 ntopng 和 nProbe 監(jiān)控網(wǎng)絡(luò)流量的教程。文章詳細(xì)介紹了如何配置和使用這兩個(gè)工具來監(jiān)控和分析網(wǎng)絡(luò)流量。內(nèi)容涉及硬件和軟件的安裝、配置端口鏡像、靜態(tài)IP地址設(shè)置、SSH服務(wù)器
    的頭像 發(fā)表于 05-29 15:35 ?777次閱讀
    艾體寶干貨 | 教程:使用ntopng和nProbe監(jiān)控<b class='flag-5'>網(wǎng)絡(luò)流量</b>

    TSN抓包工具解密:數(shù)據(jù)包捕獲,為什么選Profishark?

    網(wǎng)絡(luò)管理中,網(wǎng)絡(luò)流量分析和故障排查是重要環(huán)節(jié),如何高效精準(zhǔn)地進(jìn)行網(wǎng)絡(luò)流量分析和故障排查?來看看利用ProfiShark數(shù)據(jù)包捕獲,讓我們一起探索其中的優(yōu)勢和特點(diǎn)。一、捕獲網(wǎng)絡(luò)流量的重
    的頭像 發(fā)表于 04-29 08:04 ?503次閱讀
    TSN抓包工具解密:數(shù)據(jù)包捕獲,為什么選Profishark?

    艾體寶產(chǎn)品 | Allegro網(wǎng)絡(luò)流量分析儀

    艾體寶產(chǎn)品 | Allegro網(wǎng)絡(luò)流量分析儀
    的頭像 發(fā)表于 04-29 08:04 ?430次閱讀
    艾體寶產(chǎn)品 | Allegro<b class='flag-5'>網(wǎng)絡(luò)流量</b>分析儀

    網(wǎng)絡(luò)監(jiān)控工具有哪些 網(wǎng)絡(luò)監(jiān)控用幾芯網(wǎng)線

    網(wǎng)絡(luò)監(jiān)控工具有很多種,根據(jù)不同的監(jiān)控目標(biāo)和需求,可以選擇適合的監(jiān)控工具。下面將介紹一些常見的網(wǎng)絡(luò)監(jiān)控工具,并對其功能和特點(diǎn)進(jìn)行詳細(xì)的介紹。 網(wǎng)絡(luò)流量監(jiān)控工具 網(wǎng)絡(luò)流量監(jiān)控工具可以實(shí)時(shí)監(jiān)
    的頭像 發(fā)表于 01-24 10:00 ?976次閱讀

    虹科分享 | 實(shí)現(xiàn)網(wǎng)絡(luò)流量的全面訪問和可視性——Profitap和Ntop聯(lián)合解決方案

    這次和大家分享如何捕捉、分析和解讀網(wǎng)絡(luò)數(shù)據(jù),從而更有效地監(jiān)控網(wǎng)絡(luò)流量,實(shí)現(xiàn)網(wǎng)絡(luò)性能的最大化。首先來看一個(gè)實(shí)際的問題——“網(wǎng)速太慢”。
    的頭像 發(fā)表于 01-18 10:40 ?376次閱讀
    虹科分享 | 實(shí)現(xiàn)<b class='flag-5'>網(wǎng)絡(luò)流量</b>的全面訪問和可視性——Profitap和Ntop聯(lián)合解決方案

    實(shí)現(xiàn)網(wǎng)絡(luò)流量的全面訪問和可視性——Profitap和Ntop聯(lián)合解決方案

    這次和大家分享如何捕捉、分析和解讀網(wǎng)絡(luò)數(shù)據(jù),從而更有效地監(jiān)控網(wǎng)絡(luò)流量,實(shí)現(xiàn)網(wǎng)絡(luò)性能的最大化。首先來看一個(gè)實(shí)際的問題——“網(wǎng)速太慢”。一為什么客戶抱怨“網(wǎng)速太慢”?互聯(lián)網(wǎng)服務(wù)提供商面臨著客戶增長
    的頭像 發(fā)表于 01-13 08:04 ?706次閱讀
    實(shí)現(xiàn)<b class='flag-5'>網(wǎng)絡(luò)流量</b>的全面訪問和可視性——Profitap和Ntop聯(lián)合解決方案

    請問初學(xué)者要怎么快速掌握FPGA的學(xué)習(xí)方法?

    對于初學(xué)者 FPGA的編程語言是什么? FPGA芯片的基礎(chǔ)結(jié)構(gòu)也不了解. FPGA開發(fā)工具的名稱和使用方法都不知道. 要學(xué)的很多啊,請問有什么自學(xué)的學(xué)習(xí)方法么?
    發(fā)表于 01-02 23:01

    網(wǎng)絡(luò)流量對PLC控制過程的影響測試內(nèi)容

    在測試中,我們令所有的PLC在其最大性能下運(yùn)行(最短循環(huán)時(shí)間)并輸出周期信號。測試以PLC正常狀況下的輸出作為參考信號,如果網(wǎng)絡(luò)流量對PLC的電氣輸出造成影響,則實(shí)際輸出信號相對參考信號將會產(chǎn)生偏移。
    發(fā)表于 12-27 14:12 ?585次閱讀
    <b class='flag-5'>網(wǎng)絡(luò)流量</b>對PLC控制過程的影響測試內(nèi)容