0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CPU Cache Line偽共享問題的總結(jié)和分析

Linux閱碼場 ? 來源:lp ? 2019-04-10 16:58 ? 次閱讀

1. 關(guān)于本文

本文基于 Joe Mario 的一篇博客改編而成。Joe Mario 是 Redhat 公司的 Senior Principal Software Engineer,在系統(tǒng)的性能優(yōu)化領(lǐng)域頗有建樹,他也是本文描述的perf c2c工具的貢獻者之一。這篇博客行文比較口語化,且假設(shè)讀者對 CPU 多核架構(gòu),Cache Memory 層次結(jié)構(gòu),以及 Cache 的一致性協(xié)議有所了解。故此,筆者決定放棄照翻原文,并且基于原博客文章做了一些擴展,增加了相關(guān)背景知識簡介。本文中若有任何疏漏錯誤,責(zé)任在于編譯者。有任何建議和意見,請回復(fù)內(nèi)核月談微信公眾號,或通過 oliver.yang at linux.alibaba.com 反饋。

2. 背景知識

要搞清楚 Cache Line 偽共享的概念及其性能影響,需要對現(xiàn)代理器架構(gòu)和硬件實現(xiàn)有一個基本的了解。如果讀者已經(jīng)對這些概念已經(jīng)有所了解,可以跳過本小節(jié),直接了解 perf c2c 發(fā)現(xiàn) Cache Line 偽共享的方法。(注:本節(jié)中的所有圖片,均來自與 Google 圖片搜索,版權(quán)歸原作者所有。)

2.1 存儲器層次結(jié)構(gòu)

眾所周知,現(xiàn)代計算機體系結(jié)構(gòu),通過存儲器層次結(jié)構(gòu) (Memory Hierarchy) 的設(shè)計,使系統(tǒng)在性能,成本和制造工藝之間作出取舍,從而達到一個平衡。下圖給出了不同層次的硬件訪問延遲,可以看到,各個層次硬件訪問延遲存在數(shù)量級上的差異,越高的性能,往往意味著更高的成本和更小的容量:

通過上圖,可以對各級存儲器 Cache Miss 帶來的性能懲罰有個大致的概念。

2.2 多核架構(gòu)

隨著多核架構(gòu)的普及,對稱多處理器 (SMP) 系統(tǒng)成為主流。例如,一個物理 CPU 可以存在多個物理 Core,而每個 Core 又可以存在多個硬件線程。x86 以下圖為例,1 個 x86 CPU 有 4 個物理 Core,每個 Core 有兩個 HT (Hyper Thread),

從硬件的角度,上圖的 L1 和 L2 Cache 都被兩個 HT 共享,且在同一個物理 Core。而 L3 Cache 則在物理 CPU 里,被多個 Core 來共享。而從 OS 內(nèi)核角度,每個 HT 都是一個邏輯 CPU,因此,這個處理器在 OS 來看,就是一個 8 個 CPU 的 SMP 系統(tǒng)。

2.3 NUMA 架構(gòu)

一個 SMP 系統(tǒng),按照其 CPU 和內(nèi)存的互連方式,可以分為 UMA (均勻內(nèi)存訪問) 和 NUMA (非均勻內(nèi)存訪問) 兩種架構(gòu)。其中,在多個物理 CPU 之間保證 Cache 一致性的 NUMA 架構(gòu),又被稱做 ccNUMA (Cache Coherent NUMA) 架構(gòu)。

以 x86 為例,早期的 x86 就是典型的 UMA 架構(gòu)。例如下圖,四路處理器通過 FSB (前端系統(tǒng)總線) 和主板上的內(nèi)存控制器芯片 (MCH) 相連,DRAM 是以 UMA 方式組織的,延遲并無訪問差異,

然而,這種架構(gòu)帶來了嚴(yán)重的內(nèi)存總線的性能瓶頸,影響了 x86 在多路服務(wù)器上的可擴展性和性能。

因此,從 Nehalem 架構(gòu)開始,x86 開始轉(zhuǎn)向 NUMA 架構(gòu),內(nèi)存控制器芯片被集成到處理器內(nèi)部,多個處理器通過 QPI 鏈路相連,從此 DRAM 有了遠近之分。而 Sandybridge 架構(gòu)則更近一步,將片外的 IOH 芯片也集成到了處理器內(nèi)部,至此,內(nèi)存控制器和 PCIe Root Complex 全部在處理器內(nèi)部了。下圖就是一個典型的 x86 的 NUMA 架構(gòu):

由于 NUMA 架構(gòu)的引入,以下主要部件產(chǎn)生了因物理鏈路的遠近帶來的延遲差異:

  • Cache

    除物理 CPU 有本地的 Cache 的層級結(jié)構(gòu)以外,還存在跨越系統(tǒng)總線 (QPI) 的遠程 Cache 命中訪問的情況。需要注意的是,遠程的 Cache 命中,對發(fā)起 Cache 訪問的 CPU 來說,還是被記入了 LLC Cache Miss。

  • DRAM

    在兩路及以上的服務(wù)器,遠程 DRAM 的訪問延遲,遠遠高于本地 DRAM 的訪問延遲,有些系統(tǒng)可以達到 2 倍的差異。需要注意的是,即使服務(wù)器 BIOS 里關(guān)閉了 NUMA 特性,也只是對 OS 內(nèi)核屏蔽了這個特性,這種延遲差異還是存在的。

  • Device

    對 CPU 訪問設(shè)備內(nèi)存,及設(shè)備發(fā)起 DMA 內(nèi)存的讀寫活動而言,存在本地 Device 和遠程 Device 的差別,有顯著的延遲訪問差異。

因此,對以上 NUMA 系統(tǒng),一個 NUMA 節(jié)點通常可以被認為是一個物理 CPU 加上它本地的 DRAM 和 Device 組成。那么,四路服務(wù)器就擁有四個 NUMA 節(jié)點。如果 BIOS 打開了 NUMA 支持,Linux 內(nèi)核則會根據(jù) ACPI 提供的表格,針對 NUMA 節(jié)點做一系列的 NUMA 親和性的優(yōu)化。

在 Linux 上,numactl --hardware可以返回當(dāng)前系統(tǒng)的 NUMA 節(jié)點信息,特別是 CPU 和 NUMA 節(jié)點的對應(yīng)信息。

2.4 Cache Line

Cache Line 是 CPU 和主存之間數(shù)據(jù)傳輸?shù)淖钚挝?。?dāng)一行 Cache Line 被從內(nèi)存拷貝到 Cache 里,Cache 里會為這個 Cache Line 創(chuàng)建一個條目。這個 Cache 條目里既包含了拷貝的內(nèi)存數(shù)據(jù),即 Cache Line,又包含了這行數(shù)據(jù)在內(nèi)存里的位置等元數(shù)據(jù)信息。

由于 Cache 容量遠遠小于主存,因此,存在多個主存地址可以被映射到同一個 Cache 條目的情況,下圖是一個 Cache 和主存映射的概念圖:

而這種 Cache 到主存的映射,通常是由內(nèi)存的虛擬或者物理地址的某幾位決定的,取決于 Cache 硬件設(shè)計是虛擬地址索引,還是物理地址索引。然而,由于索引位一般設(shè)計為低地址位,通常在物理頁的頁內(nèi)偏移以內(nèi),因此,不論是內(nèi)存虛擬或者物理地址,都可以拿來判斷兩個內(nèi)存地址,是否在同一個 Cache Line 里。

Cache Line 的大小和處理器硬件架構(gòu)有關(guān)。在 Linux 上,通過getconf就可以拿到 CPU 的 Cache Line 的大小,

2.5 Cache 的結(jié)構(gòu)

前面 Linuxgetconf命令的輸出,除了*_LINESIZE指示了系統(tǒng)的 Cache Line 的大小是 64 字節(jié)外,還給出了 Cache 類別,大小。其中*_ASSOC則指示了該 Cache 是幾路關(guān)聯(lián) (Way Associative) 的。

下圖很好的說明了 Cache 在 CPU 里的真正的組織結(jié)構(gòu),

一個主存的物理或者虛擬地址,可以被分成三部分:高地址位當(dāng)作 Cache 的 Tag,用來比較選中多路 (Way) Cache 中的某一路 (Way),而低地址位可以做 Index,用來選中某一個 Cache Set。在某些架構(gòu)上,最低的地址位,Block Offset 可以選中在某個 Cache Line 中的某一部份。

因此,Cache Line 的命中,完全依靠地址里的 Tag 和 Index 就可以做到。關(guān)于 Cache 結(jié)構(gòu)里的 Way,Set,Tag 的概念,請參考相關(guān)文檔或者資料。這里就不再贅述。

2.6 Cache 一致性

如前所述,在 SMP 系統(tǒng)里,每個 CPU 都有自己本地的 Cache。因此,同一個變量,或者同一行 Cache Line,有在多個處理器的本地 Cache 里存在多份拷貝的可能性,因此就存在數(shù)據(jù)一致性問題。通常,處理器都實現(xiàn)了 Cache 一致性 (Cache Coherence)協(xié)議。如歷史上 x86 曾實現(xiàn)了MESI協(xié)議以及MESIF協(xié)議。

假設(shè)兩個處理器 A 和 B, 都在各自本地 Cache Line 里有同一個變量的拷貝時,此時該 Cache Line 處于Shared狀態(tài)。當(dāng)處理器 A 在本地修改了變量,除去把本地變量所屬的 Cache Line 置為Modified狀態(tài)以外,還必須在另一個處理器 B 讀同一個變量前,對該變量所在的 B 處理器本地 Cache Line 發(fā)起 Invaidate 操作,標(biāo)記 B 處理器的那條 Cache Line 為Invalidate狀態(tài)。隨后,若處理器 B 在對變量做讀寫操作時,如果遇到這個標(biāo)記為Invalidate的狀態(tài)的 Cache Line,即會引發(fā) Cache Miss,從而將內(nèi)存中最新的數(shù)據(jù)拷貝到 Cache Line 里,然后處理器 B 再對此 Cache Line 對變量做讀寫操作。

本文中的 Cache Line 偽共享場景,就基于上述場景來講解,關(guān)于 Cache 一致性協(xié)議更多的細節(jié),請參考相關(guān)文檔。

2.7 Cache Line 偽共享

Cache Line 偽共享問題,就是由多個 CPU 上的多個線程同時修改自己的變量引發(fā)的。這些變量表面上是不同的變量,但是實際上卻存儲在同一條 Cache Line 里。在這種情況下,由于 Cache 一致性協(xié)議,兩個處理器都存儲有相同的 Cache Line 拷貝的前提下,本地 CPU 變量的修改會導(dǎo)致本地 Cache Line 變成Modified狀態(tài),然后在其它共享此 Cache Line 的 CPU 上,引發(fā) Cache Line 的 Invaidate 操作,導(dǎo)致 Cache Line 變?yōu)镮nvalidate狀態(tài),從而使 Cache Line 再次被訪問時,發(fā)生本地 Cache Miss,從而傷害到應(yīng)用的性能。在此場景下,多個線程在不同的 CPU 上高頻反復(fù)訪問這種 Cache Line 偽共享的變量,則會因 Cache 顛簸引發(fā)嚴(yán)重的性能問題。

下圖即為兩個線程間的 Cache Line 偽共享問題的示意圖,

3. Perf c2c 發(fā)現(xiàn)偽共享

當(dāng)應(yīng)用在 NUMA 環(huán)境中運行,或者應(yīng)用是多線程的,又或者是多進程間有共享內(nèi)存,滿足其中任意一條,那么這個應(yīng)用就可能因為 Cache Line 偽共享而性能下降。

但是,要怎樣才能知道一個應(yīng)用是不是受偽共享所害呢?Joe Mario 提交的 patch 能夠解決這個問題。Joe 的 patch 是在 Linux 的著名的 perf 工具上,添加了一些新特性,叫做 c2c,意思是“緩存到緩存” (cache-2-cache)。

Redhat 在很多 Linux 的大型應(yīng)用上使用了 c2c 的原型,成功地發(fā)現(xiàn)了很多熱的偽共享的 Cache Line。Joe 在博客里總結(jié)了一下perf c2c的主要功能:

  • 發(fā)現(xiàn)偽共享的 Cache Line

  • 誰在讀寫上述的 Cache Line,以及訪問發(fā)生處的 Cache Line 的內(nèi)部偏移

  • 這些讀者和寫者分別的 pid, tid, 指令地址,函數(shù)名,二進制文件

  • 每個讀者和寫者的源代碼文件,代碼行號

  • 這些熱點 Cache Line 上的,load 操作的平均延遲

  • 這些 Cache Line 的樣本來自哪些 NUMA 節(jié)點, 由哪些 CPU 參與了讀寫

perf c2c和perf里現(xiàn)有的工具比較類似:

  • 先用perf c2c record通過采樣,收集性能數(shù)據(jù)

  • 再用perf c2c report基于采樣數(shù)據(jù),生成報告

如果想了解perf c2c的詳細使用,請訪問:PERF-C2C(1)

這里還有一個完整的perf c2c的輸出的樣例。

最后,還有一個小程序的源代碼,可以產(chǎn)生大量的 Cache Line 偽共享,用以測試體驗:Fasle sharing .c src file

3.1 perf c2c 的輸出

下面,讓我們就之前給出的perf c2c的輸出樣例,做一個詳細介紹。

輸出里的第一個表,概括了 CPU 在perf c2c數(shù)據(jù)采樣期間做的 load 和 store 的樣本。能夠看到 load 操作都是在哪里取到了數(shù)據(jù)。

在perf c2c輸出里,HITM意為 “Hit In The Modified”,代表 CPU 在 load 操作命中了一條標(biāo)記為Modified狀態(tài)的 Cache Line。如前所述,偽共享發(fā)生的關(guān)鍵就在于此。

而Remote HITM,意思是跨 NUMA 節(jié)點的HITM,這個是所有 load 操作里代價最高的情況,尤其在讀者和寫者非常多的情況下,這個代價會變得非常的高。

對應(yīng)的,Local HITM,則是本地 NUMA 節(jié)點內(nèi)的HITM,下面是對perf c2c輸出的詳細注解:

perf c2c輸出的第二個表, 以 Cache Line 維度,全局展示了 CPU load 和 store 活動的情況。這個表的每一行是一條 Cache Line 的數(shù)據(jù),顯示了發(fā)生偽共享最熱的一些 Cache Line。默認按照發(fā)生Remote HITM的次數(shù)比例排序,改下參數(shù)也可以按照發(fā)生Local HITM的次數(shù)比例排序。

要檢查 Cache Line 偽共享問題,就在這個表里找Rmt LLC Load HITM(即跨 NUMA 節(jié)點緩存里取到數(shù)據(jù)的)次數(shù)比較高的,如果有,就得深挖一下。

下面是共享 Cache Line 的 Pareto 百分比分布表,命名取自帕累托法則 (Pareto principle),即 2/8 法則的喻義,顯示了每條內(nèi)部產(chǎn)生競爭的 Cache Line 的百分比分布的細目信息。

這是最重要的一個表。為了精簡,這里只展示了三條 Cache Line 相關(guān)的記錄,表格里包含了這些信息:

  • 其中 71,72 行是列名,每列都解釋了Cache Line的一些活動。

  • 標(biāo)號為 76,85,91 的行顯示了每條 Cache Line 的HITM和 store 活動情況: 依次是 CPU load 和 store 活動的計數(shù),以及 Cache Line 的虛擬地址。

  • 78 到 83 行,是針對 76 行 Cache Line 訪問的細目統(tǒng)計,具體格式如下:

    • 首先是百分比分布,包含了 HITM 中 remote 和 local 的百分比,store 里的 L1 Hit 和 Miss 的百分比分布。注意,這些百分比縱列相加正好是 100%。

    • 然后是數(shù)據(jù)地址列。上面提到了 76 行顯示了 Cache Line 的虛擬地址,而下面幾行的這一列則是行內(nèi)偏移。

    • 下一列顯示了pid,或線程id(如果設(shè)置了要輸出tid)。

    • 接下來是指令地址。

    • 接下來三列,展示了平均load操作的延遲。我??粗镉袥]有很高的平均延遲。這個平均延遲,可以反映該行的競爭緊張程度。

    • cpu cnt列展示了該行訪問的樣本采集自多少個cpu。

    • 然后是函數(shù)名,二進制文件名,源代碼名,和代碼行數(shù)。

    • 最后一列展示了對于每個節(jié)點,樣本分別來自于哪些cpu

以下為樣例輸出:

3.2 如何用perf c2c

下面是常見的perf c2c使用的命令行:

熟悉perf的讀者可能已經(jīng)注意到,這里的-F選項指定了非常高的采樣頻率: 60000。請?zhí)貏e注意:這個采樣頻率不建議在線上或者生產(chǎn)環(huán)境使用,因為這會在高負載機器上帶來不可預(yù)知的影響。此外perf c2c對 CPU load 和 store 操作的采樣會不可避免的影響到被采樣應(yīng)用的性能,因此建議在研發(fā)測試環(huán)境使用perf c2c去優(yōu)化應(yīng)用。

對采樣數(shù)據(jù)的分析,可以使用帶圖形界面的 tui 來看輸出,或者只輸出到標(biāo)準(zhǔn)輸出

默認情況,為了規(guī)范輸出格式,符號名被截斷為定長,但可以用 “–full-symbols” 參數(shù)來顯示完整符號名。

例如:

3.3 找到 Cache Line 訪問的調(diào)用棧

有的時候,很需要找到讀寫這些 Cache Line 的調(diào)用者是誰。下面是獲得調(diào)用圖信息的方法。但一開始,一般不會一上來就用這個,因為輸出太多,難以定位偽共享。一般都是先找到問題,再回過頭來使用調(diào)用圖。

3.4 如何增加采樣頻率

為了讓采樣數(shù)據(jù)更可靠,會把perf采樣頻率提升到-F 60000或者-F 80000,而系統(tǒng)默認的采樣頻率是 1000。

提升采樣頻率,可以短時間獲得更豐富,更可靠的采樣集合。想提升采樣頻率,可以用下面的方法??梢愿鶕?jù)dmesg里有沒有perf interrupt took too long …信息來調(diào)整頻率。注意,如前所述,這有一定風(fēng)險,嚴(yán)禁在線上或者生產(chǎn)環(huán)境使用。

然后運行前面講的perf c2c record命令。之后再運行,

3.5 如何讓避免采樣數(shù)據(jù)過量

在大型系統(tǒng)上(比如有 4,8,16 個物理 CPU 插槽的系統(tǒng))運行perf c2c,可能會樣本太多,消耗大量的CPU時間,perf.data文件也可能明顯變大。 對于這個問題,有以下建議(包含但不僅限于):

  • 將ldlat從 30 增加大到 50。這使得perf跳過沒有性能問題的 load 操作。

  • 降低采樣頻率。

  • 縮短perf record的睡眠時間窗口。比如,從sleep 5改成sleep 3。

3.6 使用 c2c 優(yōu)化應(yīng)用的收獲

一般搭建看見性能工具的輸出,都會問這些數(shù)據(jù)意味著什么。Joe 總結(jié)了他使用c2c優(yōu)化應(yīng)用時,學(xué)到的東西,

  • perf c2c采樣時間不宜過長。Joe 建議運行perf c2c3 秒、5 秒或 10 秒。運行更久,觀測到的可能就不是并發(fā)的偽共享,而是時間錯開的 Cache Line 訪問。

  • 如果對內(nèi)核樣本沒有興趣,只想看用戶態(tài)的樣本,可以指定--all-user。反之使用--all-kernel。

  • CPU 很多的系統(tǒng)上(如 >148 個),設(shè)置-ldlat為一個較大的值(50 甚至 70),perf可能能產(chǎn)生更豐富的C2C樣本。

  • 讀最上面那個具有概括性的Trace Event表,尤其是LLC Misses to Remote cache HITM的數(shù)字。只要不是接近 0,就可能有值得追究的偽共享。

  • 看Pareto表時,需要關(guān)注的,多半只是最熱的兩三個 Cache Line。

  • 有的時候,一段代碼,它不在某一行 Cache Line 上競爭嚴(yán)重,但是它卻在很多 Cache Line 上競爭,這樣的代碼段也是很值得優(yōu)化的。同理還有多進程程序訪問共享內(nèi)存時的情況。

  • 在Pareto表里,如果發(fā)現(xiàn)很長的 load 操作平均延遲,常常就表明存在嚴(yán)重的偽共享,影響了性能。

  • 接下來去看樣本采樣自哪些節(jié)點和 CPU,據(jù)此進行優(yōu)化,將哪些內(nèi)存或 Task 進行 NUMA 節(jié)點鎖存。

最后,Pareto表還能對怎么解決對齊得很不好的Cache Line,提供靈感。 例如:

  • 很容易定位到:寫地很頻繁的變量,這些變量應(yīng)該在自己獨立的 Cache Line??梢該?jù)此進行對齊調(diào)整,讓他們不那么競爭,運行更快,也能讓其它的共享了該 Cache Line 的變量不被拖慢。

  • 很容易定位到:沒有 Cache Line 對齊的,跨越了多個 Cache Line 的熱的 Lock 或 Mutex。

  • 很容易定位到:讀多寫少的變量,可以將這些變量組合到相同或相鄰的 Cache Line。

3.7 使用原始的采樣數(shù)據(jù)

有時直接去看用perf c2c record命令生成的perf.data文件,其中原始的采樣數(shù)據(jù)也是有用的??梢杂胮erf script命令得到原始樣本,man perf-script可以查看這個命令的手冊。輸出可能是編碼過的,但你可以按load weight排序(第 5 列),看看哪個 load 樣本受偽共享影響最嚴(yán)重,有最大的延遲。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    18926

    瀏覽量

    227214
  • 存儲器
    +關(guān)注

    關(guān)注

    38

    文章

    7366

    瀏覽量

    163090
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10698

    瀏覽量

    209347

原文標(biāo)題:CPU Cache Line偽共享問題的總結(jié)和分析

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    cpucache內(nèi)存交互的過程

    CPU接收到指令后,它會最先向CPU中的一級緩存(L1 Cache)去尋找相關(guān)的數(shù)據(jù),然一級緩存是與CPU同頻運行的,但是由于容量較小,所以不可能每次都命中。
    的頭像 發(fā)表于 10-21 09:10 ?2204次閱讀

    多核DSP共享空間CACHE問題

    使用的而是C6678,能否在4M共享內(nèi)存上設(shè)置一段空間,使其不可cache,每次取值和賦值都在共享4M上操作。
    發(fā)表于 06-21 10:10

    關(guān)于cachecache_line的一個概念問題

    幫忙給解答一下一個基本概念,cpu在訪問數(shù)據(jù)時,如果數(shù)據(jù)不在L1D和L2中,就需要從DDR等外設(shè)中取數(shù),文獻中說過,“cache會prefetch讀取cache_line長度的地址,保證連續(xù)的地址上
    發(fā)表于 06-21 17:31

    關(guān)于css元素詳解總結(jié)

    關(guān)于css類,元素詳解總結(jié)
    發(fā)表于 05-11 08:44

    為什么需要cachecache是如何影響code的呢

    )和data cache(DCache),指令和數(shù)據(jù)分開。L1 cache是每個CPU私有的,每個CPU都有一個L1 cache。一個clu
    發(fā)表于 04-21 11:10

    嵌入式CPU指令Cache的設(shè)計與實現(xiàn)

    針對嵌入式CPU 指令處理速度與存儲器指令存取速度不匹配問題,本文基于FPGA 設(shè)計并實現(xiàn)了可以有效解決這一問題的指令Cache。根據(jù)嵌入式五級流水線CPU 特性,所設(shè)計指令Cache
    發(fā)表于 08-05 14:27 ?36次下載

    淺談tms320c6748最小系統(tǒng)設(shè)計和cache配置

    當(dāng)CPU開始訪問地址0020h時,假設(shè)cache已經(jīng)被完全被設(shè)定無效了(invalidated),即沒有cache line包含有效數(shù)據(jù)。
    的頭像 發(fā)表于 09-09 10:39 ?8040次閱讀

    CPU是如何調(diào)度任務(wù)的?

    ②. 1 號核心讀取變量 A,由于 CPU 從內(nèi)存讀取數(shù)據(jù)到 Cache 的單位是 Cache Line,也正好變量 A 和 變量 B 的數(shù)據(jù)歸屬于同一個
    的頭像 發(fā)表于 12-11 16:44 ?3066次閱讀
    <b class='flag-5'>CPU</b>是如何調(diào)度任務(wù)的?

    cache的排布與CPU的典型分布

    cache的掌握,對于Linux工程師(其他的非Linux工程師也一樣)寫出高效能代碼,以及優(yōu)化Linux系統(tǒng)的性能是至關(guān)重要的。簡單來說,cache快,內(nèi)存慢,硬盤更慢。在一個典型的現(xiàn)代CPU中比較接近改進的哈佛結(jié)構(gòu),
    的頭像 發(fā)表于 10-18 09:01 ?1703次閱讀

    CPU Cache共享問題

    當(dāng)CPU想要訪問主存中的元素時,會先查看Cache中是否存在,如果存在(稱為Cache Hit),直接從Cache中獲取,如果不存在(稱為Cache
    的頭像 發(fā)表于 12-12 09:17 ?609次閱讀

    CPU Cache共享問題

      圖中的寄存器和主存估計大家都知道,那中間的L1 、L2、L3是什么?它們起到了什么作用?
    的頭像 發(fā)表于 12-12 09:17 ?529次閱讀

    CPU設(shè)計之Cache存儲器

    Cache存儲器也被稱為高速緩沖存儲器,位于CPU和主存儲器之間。之所以在CPU和主存之間要加cache是因為現(xiàn)代的CPU頻率大大提高,內(nèi)存
    的頭像 發(fā)表于 03-21 14:34 ?1054次閱讀
    <b class='flag-5'>CPU</b>設(shè)計之<b class='flag-5'>Cache</b>存儲器

    CPU CACHE策略的初始化

    build_mem_type_table()函數(shù)的功能是獲取當(dāng)前CPUCACHE類型,據(jù)此初始化mem_type。
    的頭像 發(fā)表于 06-05 15:03 ?1241次閱讀
    <b class='flag-5'>CPU</b> <b class='flag-5'>CACHE</b>策略的初始化

    多個CPU各自的cache同步問題

    ? CACHE 的一致性 Cache的一致性有這么幾個層面 1.?????一個CPU的icache和dcache的同步問題 2.?????多個CPU各自的
    的頭像 發(fā)表于 06-17 10:38 ?1557次閱讀
    多個<b class='flag-5'>CPU</b>各自的<b class='flag-5'>cache</b>同步問題

    在組相聯(lián)cache中,用于替換cache line的算法有哪些?

    LRU(Least Recently Used)算法:該算法會跟蹤每個cache line的age(年齡)情況,并在需要時替換掉近期最少使用的cache line
    的頭像 發(fā)表于 10-08 11:10 ?717次閱讀