在現(xiàn)代操作系統(tǒng)里,同一時間可能有多個內核執(zhí)行流在執(zhí)行,因此內核其實像多進程多線程編程一樣也需要一些同步機制來同步各執(zhí)行單元對共享數(shù)據的訪問,尤其是在多處理器系統(tǒng)上,更需要一些同步機制來同步不同處理器上的執(zhí)行單元對共享的數(shù)據的訪問。
在主流的Linux內核中包含了如下這些同步機制包括:
原子操作
信號量(semaphore)
讀寫信號量(rw_semaphore)
Spinlock
Mutex
BKL(Big Kernel Lock,只包含在2.4內核中,不講)
Rwlock
brlock(只包含在2.4內核中,不講)
RCU(只包含在2.6內核及以后的版本中)
seqlock(只包含在2.6內核及以后的版本中)
本文章分為兩部分,這一章我們主要討論原子操作,自旋鎖,信號量和互斥鎖。
一、原子操作
原子操作的概念來源于物理概念中的原子定義,指執(zhí)行結束前不可分割(即不可打斷)的操作,是最小的執(zhí)行單位。
原子操作與硬件架構強相關,其API具體的定義均位于對應arch目錄下的include/asm/atomic.h文件中,通過匯編語言實現(xiàn),內核源碼根目錄下的include/asm-generic/atomic.h則抽象封裝了API,該API最后分派的實現(xiàn)來自于arch目錄下對應的代碼。
Structure Definition
typedefstruct{intcounter;}atomic_t;
原子操作主要用于實現(xiàn)資源計數(shù), 許多引用計數(shù)(refcnt)就是通過原子操作實現(xiàn),例如TCP/IP協(xié)議棧的IP碎片中,struct ipq中的refcnt字段,類型即為atomic_t。
atomic_add
原子操作的實現(xiàn)比較簡單,以下為例。
原子操作的原子性依賴于ldrex與strex實現(xiàn),ldrex讀取數(shù)據時會進行獨占標記,防止其他內核路徑訪問,直至調用strex完成寫入后清除標記。自然strex也不能寫入被別的內核路徑獨占的內存,若是寫入失敗則循環(huán)至成功寫入。
API
原子操作的API包括如下, 以arm平臺為例:
二 、自旋鎖(spinlock)
自旋鎖是這樣一種同步機制:若自旋鎖已被別的執(zhí)行者保持,調用者就會原地循環(huán)等待并檢查該鎖的持有者是否已經釋放鎖(即進入自旋狀態(tài)),若釋放則調用者開始持有該鎖。自旋鎖持有期間不可被搶占。
Structure Definition
從定義出發(fā), spinlock根本的實現(xiàn)依賴于具體架構實現(xiàn)中slock這個變量,由于spin_lock是大多l(xiāng)ocking機制的基礎,我們看一看它的實現(xiàn)。
Lock & Unlock
核心unlock函數(shù),使owner自增,保持數(shù)據同步。
核心lock函數(shù),使slock +2^16, 當next==owner時,釋放鎖,否則進入循環(huán)等待。Prefetchw用于cache預加載數(shù)據。
由于slock與tickets共享同一塊內存(union),slock 占32位4字節(jié),tickets內部變量next與owner各16位2字節(jié)。以大端序為例,slock 高2字節(jié)與next共享,低2字節(jié)與owner共享,因此arch_spin_lock實際上是將tickets.next+1。假設初始時next與owner皆為0,此時next與owner不等,通過wfe指令進入一小段時間等待狀態(tài),而后讀取新的owner值檢查與next是否相等,不等則繼續(xù)等待,相等則結束等待。
而owner的值由arch_spin_unlock控制,即unlock控制何時結束等待。
Spin_lock basic API
Spin_lock API & irq
性能上,spin_lock > spin_lock_bh > spin_lock_irq > spin_lock_irqsave。
安全上,spin_lock_irqsave > spin_lock_irq > spin_lock_bh >spin_lock。
Spin_lock 不同版本的使用
spin_lock用于阻止在不同CPU上的執(zhí)行單元對共享資源的同時訪問以及不同進程上下文互相搶占導致的對共享資源的非同步訪問,而中斷失效(spin_lock_irq)和軟中斷失效(spin_lock_bh)卻是為了阻止在同一CPU上軟中斷或中斷對共享資源的非同步訪問。
如果被保護的共享資源只在進程上下文訪問和軟中斷上下文訪問,那么當在進程上下文訪問共享資源時,可能被軟中斷打斷,從而可能進入軟中斷上下文來對被保護的共享資源訪問,因此對于這種情況,對共享資源的訪問最好使用spin_lock_bh和spin_unlock_bh來保護。
如果被保護的共享資源只在進程上下文和tasklet或timer上下文訪問,那么應該使用與上面情況相同,因為tasklet和timer是用軟中斷實現(xiàn)的。
如果被保護的共享資源只在兩個或多個tasklet或timer上下文訪問,那么對共享資源的訪問僅需要用spin_lock和spin_unlock來保護,不必使用_bh版本,因為當tasklet或timer運行時,不可能有其他tasklet或timer在當前CPU上運行。如果被保護的共享資源只在一個軟中斷(tasklet和timer除外)上下文訪問,那么這個共享資源需要用spin_lock和spin_unlock來保護,因為同樣的軟中斷可以同時在不同的CPU上運行。
如果被保護的共享資源在軟中斷(包括tasklet和timer)或進程上下文和硬中斷上下文訪問,那么在軟中斷或進程上下文訪問期間,可能被硬中斷打斷,從而進入硬中斷上下文對共享資源進行訪問,因此,在進程或軟中斷上下文需要使用spin_lock_irq和spin_unlock_irq來保護對共享資源的訪問。
在使用spin_lock_irq和spin_unlock_irq的情況下,完全可以用spin_lock_irqsave和spin_unlock_irqrestore取代,那具體應該使用哪一個也需要依情況而定,如果可以確信在對共享資源訪問前中斷是使能的,那么使用spin_lock_irq更好一些,因為它比spin_lock_irqsave要快一些。
三、信號量(Semaphore)
Linux內核的信號量在概念和原理上與用戶態(tài)的System V的IPC機制信號量是一樣的,但是它不可能在內核之外使用,因此它與System V的IPC機制信號量完全不同。
信號量是這樣一種同步機制:信號量在創(chuàng)建時設置一個初始值count,用于表示當前可用的資源數(shù)。一個任務要想訪問共享資源,首先必須得到信號量,獲取信號量的操作為count-1,若當前count為負數(shù),表明無法獲得信號量,該任務必須掛起在該信號量的等待隊列等待;若當前count為非負數(shù),表示可獲得信號量,因而可立刻訪問被該信號量保護的共享資源。當任務訪問完被信號量保護的共享資源后,必須釋放信號量,釋放信號量通過把count+1實現(xiàn),如果count為非正數(shù),表明有任務等待,它也喚醒所有等待該信號量的任務。
Structure Definition
可以發(fā)現(xiàn),信號量是基于spinlock實現(xiàn)的,對其封裝以滿足高級的功能,例如全局共享資源的配置,并通過等待隊列較為靈活的調度。信號量與接下來要講的mutex都建立在自旋鎖實現(xiàn)的執(zhí)行同步上。
了解了信號量的結構與定義,我們來看看最核心的兩個實現(xiàn)down ,up。
down & up
down用于調用者獲得信號量,若count大于0,說明資源可用,將其減一即可。
若count<0,將task加入等待隊列,并進入等待隊列,并進入調度循環(huán)等待,直至其被__up喚醒,或者因超時以被移除等待隊列。
up用于調用者釋放信號量,若waitlist為空,說明無等待任務,count+1,該信號量可用。
若waitlist非空,將task從等待隊列移除,并喚醒該task,對應__down條件。
Semaphore API
四、互斥鎖(Mutex)
Linux 內核互斥鎖是非常常用的同步機制,互斥鎖是這樣一種同步機制:在互斥鎖中同時只能有一個任務可以訪問該鎖保護的共享資源,且釋放鎖和獲得鎖的調用方必須一致。因此在互斥鎖中,除了對鎖本身進行同步,對調用方(或稱持有者)必須也進行同步。當互斥鎖無法獲得時,task會加入等待隊列,直至可獲得鎖為止。
Structure Definition
互斥鎖從結構上看與信號量十分類似,但將原本的int類型的count計數(shù),改成了atomic_long_t的owner以便同步,保證釋放者與持有者一致。
mutex_lock & mutex_unlock
上圖簡單的表現(xiàn)了mutex_lock與mutex_unlock實現(xiàn)的對稱性,___mutex_trylock_fast用于owner為0的特殊狀態(tài),用于快速加鎖,實現(xiàn)核心在slowpath版本上。
*might_sleep指在之后的代碼執(zhí)行中可能會sleep。
由于mutex實現(xiàn)的具體步驟相當復雜,這里選講比較核心簡單的兩塊。Mutex有關等待隊列的處理比較復雜,有興趣閱讀相關內核書籍。
當且僅當lock當前的owner沒有變化時(沒有其他mutex搶先擁有該鎖),此時獲得鎖,返回NULL, owner 為 curr | flags,owner本身對應task指針。若該鎖已被占用,owner和當前task不匹配,返回owner對應指針。
當unlock時,不考慮等待隊列的影響,則與上述類似,當且僅當之前持有鎖的owner可以解鎖,解鎖時本來應將lock的owner置為初始0,但是這里保留了mutex的flag以便后續(xù)操作。
*這里的owner實際上是task_struct的指針,也就是地址,由于task_struct的地址是L1_cache對齊的,因此實際上指針地址后三位為0,因此linux內核利用這三個比特位用于設置mutex的標志位,不影響指針地址的表示也更高效利用了冗余的比特位。
Mutex 的改進
最初的互斥鎖僅支持睡眠等待,然而經過漫長時間的改進,如今的互斥鎖已經可以支持自旋等待,通過MCS鎖機制實現(xiàn)。在內核中可以選擇配置以支持,CONFIG_MUTEX_SPIN_ON_OWNER。
如上是4.9內核中mutex中常用有效的字段,目前最常用的算法是OSQ算法。自旋等待機制的核心原理是當發(fā)現(xiàn)持有者正在臨界區(qū)執(zhí)行并且沒有其他優(yōu)先級高的進程要被調度(need_resched)時,那么mutex當前所在進程認為該持有者很快會離開臨界區(qū)并釋放鎖,此時mutex選擇自旋等待,短時間的自旋等待顯然比睡眠-喚醒開銷小一些。
在實現(xiàn)上MCS保證了同一時間只有一個進程自旋等待持有者釋放鎖。MCS 的實現(xiàn)較為復雜,具體可參考一些內核書籍。MCS保證了不會存在多個cpu爭用鎖的情況,從而避免了多個CPU的cacheline顛簸從而降低系統(tǒng)性能的問題。
經過改進后,mutex的性能有了相當大的提高,相對信號量的實現(xiàn)要高效得多。因此我們盡量選用mutex。
Mutex 的使用條件
Mutex雖然高效,靈活,但存在若干限制條件,需要牢記:
同一時刻只有一條內核路徑可以持有鎖
只有鎖持有者可以解鎖
不允許遞歸加鎖解鎖
進程持有mutex時不可退出
Mutex 可能導致睡眠阻塞,不可用于中斷處理與下半部使用
Mutex API
-
Linux
+關注
關注
87文章
11207瀏覽量
208721 -
同步機制
+關注
關注
0文章
10瀏覽量
7604
原文標題:Linux kernel 同步機制(上篇)
文章出處:【微信號:LinuxHub,微信公眾號:Linux愛好者】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論