在內(nèi)核初始化完成之后, 內(nèi)存管理的責任就由伙伴系統(tǒng)來承擔. 伙伴系統(tǒng)基于一種相對簡單然而令人吃驚的強大算法.
Linux內(nèi)核使用二進制伙伴算法來管理和分配物理內(nèi)存頁面, 該算法由Knowlton設計, 后來Knuth又進行了更深刻的描述.
伙伴系統(tǒng)是一個結合了2的方冪個分配器和空閑緩沖區(qū)合并計技術的內(nèi)存分配方案, 其基本思想很簡單. 內(nèi)存被分成含有很多頁面的大塊, 每一塊都是2個頁面大小的方冪. 如果找不到想要的塊, 一個大塊會被分成兩部分, 這兩部分彼此就成為伙伴. 其中一半被用來分配, 而另一半則空閑. 這些塊在以后分配的過程中會繼續(xù)被二分直至產(chǎn)生一個所需大小的塊. 當一個塊被最終釋放時, 其伙伴將被檢測出來, 如果伙伴也空閑則合并兩者.
內(nèi)核如何記住哪些內(nèi)存塊是空閑的
分配空閑頁面的方法
影響分配器行為的眾多標識位
內(nèi)存碎片的問題和分配器如何處理碎片
伙伴系統(tǒng)的結構
伙伴系統(tǒng)數(shù)據(jù)結構
系統(tǒng)內(nèi)存中的每個物理內(nèi)存頁(頁幀),都對應于一個struct page實例, 每個內(nèi)存域都關聯(lián)了一個struct zone的實例,其中保存了用于管理伙伴數(shù)據(jù)的主要數(shù)數(shù)組
// http://lxr.free-electrons.com/source/include/linux/mmzone.h?v=4.7#L324
struct zone
{
/* free areas of different sizes */
struct free_area free_area[MAX_ORDER];
};
struct free_area是一個伙伴系統(tǒng)的輔助數(shù)據(jù)結構.
struct free_area {
struct list_head free_list[MIGRATE_TYPES];
unsigned long nr_free;
};
?
伙伴系統(tǒng)的分配器維護空閑頁面所組成的塊, 這里每一塊都是2的方冪個頁面, 方冪的指數(shù)稱為階.
階是伙伴系統(tǒng)中一個非常重要的術語. 它描述了內(nèi)存分配的數(shù)量單位. 內(nèi)存塊的長度是2^0,order , 其中order的范圍從0到MAX_ORDER
zone->free_area[MAX_ORDER]數(shù)組中階作為各個元素的索引, 用于指定對應鏈表中的連續(xù)內(nèi)存區(qū)包含多少個頁幀.
數(shù)組中第0個元素的階為0, 它的free_list鏈表域指向具有包含區(qū)為單頁(2^0 = 1)的內(nèi)存頁面鏈表
數(shù)組中第1個元素的free_list域管理的內(nèi)存區(qū)為兩頁(2^1 = 2)
第3個管理的內(nèi)存區(qū)為4頁, 依次類推.
直到 2^MAXORDER-1個頁面大小的塊
?
?
最大階MAX_ORDER與FORCE_MAX_ZONEORDER配置選項
一般來說MAX_ORDER默認定義為11, 這意味著一次分配可以請求的頁數(shù)最大是2^11=2048.
/* Free memory management - zoned buddy allocator. */
#ifndef CONFIG_FORCE_MAX_ZONEORDER
#define MAX_ORDER 11
#else
#define MAX_ORDER CONFIG_FORCE_MAX_ZONEORDER
#endif
#define MAX_ORDER_NR_PAGES (1 << (MAX_ORDER - 1))
但如果特定于體系結構的代碼設置了FORCE_MAX_ZONEORDER配置選項, 該值也可以手工改變
例如,IA-64系統(tǒng)上巨大的地址空間可以處理MAX_ORDER = 18的情形,而ARM或v850系統(tǒng)則使用更小的值(如8或9). 但這不一定是由計算機支持的內(nèi)存數(shù)量比較小引起的,也可能是內(nèi)存對齊方式的要求所導致
可以參考一些架構的Kconfig文件如下
?
比如arm64體系結構的Kconfig配置文件的描述
config FORCE_MAX_ZONEORDER
int
default "14" if (ARM64_64K_PAGES && TRANSPARENT_HUGEPAGE)
default "12" if (ARM64_16K_PAGES && TRANSPARENT_HUGEPAGE)
default "11"
內(nèi)存區(qū)是如何連接的
內(nèi)存區(qū)中第1頁內(nèi)的鏈表元素, 可用于將內(nèi)存區(qū)維持在鏈表中。因此,也不必引入新的數(shù)據(jù)結構來管理物理上連續(xù)的頁,否則這些頁不可能在同一內(nèi)存區(qū)中. 如下圖所示
?
?
?
伙伴不必是彼此連接的. 如果一個內(nèi)存區(qū)在分配其間分解為兩半, 內(nèi)核會自動將未用的一半加入到對應的鏈表中.
如果在未來的某個時刻, 由于內(nèi)存釋放的緣故, 兩個內(nèi)存區(qū)都處于空閑狀態(tài), 可通過其地址判斷其是否為伙伴. 管理工作較少, 是伙伴系統(tǒng)的一個主要優(yōu)點.
基于伙伴系統(tǒng)的內(nèi)存管理專注于某個結點的某個內(nèi)存域, 例如, DMA或高端內(nèi)存域. 但所有內(nèi)存域和結點的伙伴系統(tǒng)都通過備用分配列表連接起來.
下圖說明了這種關系.
?
?
最后要注意, 有關伙伴系統(tǒng)和當前狀態(tài)的信息可以在/proc/buddyinfo中獲取
?
?
內(nèi)核中很多時候要求分配連續(xù)頁. 為快速檢測內(nèi)存中的連續(xù)區(qū)域, 內(nèi)核采用了一種古老而歷經(jīng)檢驗的技術: 伙伴系統(tǒng)
系統(tǒng)中的空閑內(nèi)存塊總是兩兩分組, 每組中的兩個內(nèi)存塊稱作伙伴. 伙伴的分配可以是彼此獨立的. 但如果兩個伙伴都是空閑的, 內(nèi)核會將其合并為一個更大的內(nèi)存塊, 作為下一層次上某個內(nèi)存塊的伙伴.
下圖示范了該系統(tǒng), 圖中給出了一對伙伴, 初始大小均為8頁. 即系統(tǒng)中所有的頁面都是8頁的.
?
?
內(nèi)核對所有大小相同的伙伴(1、2、4、8、16或其他數(shù)目的頁),都放置到同一個列表中管理. 各有8頁的一對伙伴也在相應的列表中.
如果系統(tǒng)現(xiàn)在需要8個頁幀, 則將16個頁幀組成的塊拆分為兩個伙伴. 其中一塊用于滿足應用程序的請求, 而剩余的8個頁幀則放置到對應8頁大小內(nèi)存塊的列表中.
如果下一個請求只需要2個連續(xù)頁幀, 則由8頁組成的塊會分裂成2個伙伴, 每個包含4個頁幀. 其中一塊放置回伙伴列表中,而另一個再次分裂成2個伙伴, 每個包含2頁。其中一個回到伙伴系統(tǒng),另一個則傳遞給應用程序.
在應用程序釋放內(nèi)存時, 內(nèi)核可以直接檢查地址, 來判斷是否能夠創(chuàng)建一組伙伴, 并合并為一個更大的內(nèi)存塊放回到伙伴列表中, 這剛好是內(nèi)存塊分裂的逆過程。這提高了較大內(nèi)存塊可用的可能性.
在系統(tǒng)長期運行時,服務器運行幾個星期乃至幾個月是很正常的,許多桌面系統(tǒng)也趨向于長期開機運行,那么會發(fā)生稱為碎片的內(nèi)存管理問題。頻繁的分配和釋放頁幀可能導致一種情況:系統(tǒng)中有若干頁幀是空閑的,但卻散布在物理地址空間的各處。換句話說,系統(tǒng)中缺乏連續(xù)頁幀組成的較大的內(nèi)存塊,而從性能上考慮,卻又很需要使用較大的連續(xù)內(nèi)存塊。通過伙伴系統(tǒng)可以在某種程度上減少這種效應,但無法完全消除。如果在大塊的連續(xù)內(nèi)存中間剛好有一個頁幀分配出去,很顯然這兩塊空閑的內(nèi)存是無法合并的.
在內(nèi)核版本2.6.24之后, 增加了一些有效措施來防止內(nèi)存碎片.
避免碎片
在第1章給出的簡化說明中, 一個雙鏈表即可滿足伙伴系統(tǒng)的所有需求. 在內(nèi)核版本2.6.23之前, 的確是這樣. 但在內(nèi)核2.6.24開發(fā)期間, 內(nèi)核開發(fā)者對伙伴系統(tǒng)的爭論持續(xù)了相當長時間. 這是因為伙伴系統(tǒng)是內(nèi)核最值得尊敬的一部分,對它的改動不會被大家輕易接受
內(nèi)存碎片
伙伴系統(tǒng)的基本原理已經(jīng)在第1章中討論過,其方案在最近幾年間確實工作得非常好。但在Linux內(nèi)存管理方面,有一個長期存在的問題:在系統(tǒng)啟動并長期運行后,物理內(nèi)存會產(chǎn)生很多碎片。該情形如下圖所示
?
?
假定內(nèi)存由60頁組成,這顯然不是超級計算機,但用于示例卻足夠了。左側(cè)的地址空間中散布著空閑頁。盡管大約25%的物理內(nèi)存仍然未分配,但最大的連續(xù)空閑區(qū)只有一頁. 這對用戶空間應用程序沒有問題:其內(nèi)存是通過頁表映射的,無論空閑頁在物理內(nèi)存中的分布如何,應用程序看到的內(nèi)存 似乎總是連續(xù)的。右圖給出的情形中,空閑頁和使用頁的數(shù)目與左圖相同,但所有空閑頁都位于一個連續(xù)區(qū)中。
但對內(nèi)核來說,碎片是一個問題. 由于(大多數(shù))物理內(nèi)存一致映射到地址空間的內(nèi)核部分, 那么在左圖的場景中, 無法映射比一頁更大的內(nèi)存區(qū). 盡管許多時候內(nèi)核都分配的是比較小的內(nèi)存, 但也有時候需要分配多于一頁的內(nèi)存. 顯而易見, 在分配較大內(nèi)存的情況下, 右圖中所有已分配頁和空閑頁都處于連續(xù)內(nèi)存區(qū)的情形,是更為可取的.
很有趣的一點是, 在大部分內(nèi)存仍然未分配時, 就也可能發(fā)生碎片問題. 考慮圖3-25的情形.
只分配了4頁,但可分配的最大連續(xù)區(qū)只有8頁,因為伙伴系統(tǒng)所能工作的分配范圍只能是2的冪次.
?
?
我提到內(nèi)存碎片只涉及內(nèi)核,這只是部分正確的。大多數(shù)現(xiàn)代CPU都提供了使用巨型頁的可能性,比普通頁大得多。這對內(nèi)存使用密集的應用程序有好處。在使用更大的頁時,地址轉(zhuǎn)換后備緩沖器只需處理較少的項,降低了TLB緩存失效的可能性。但分配巨型頁需要連續(xù)的空閑物理內(nèi)存!
很長時間以來,物理內(nèi)存的碎片確實是Linux的弱點之一。盡管已經(jīng)提出了許多方法,但沒有哪個方法能夠既滿足Linux需要處理的各種類型工作負荷提出的苛刻需求,同時又對其他事務影響不大。
依據(jù)可移動性組織頁
在內(nèi)核2.6.24開發(fā)期間,防止碎片的方法最終加入內(nèi)核。在我討論具體策略之前,有一點需要澄清。
文件系統(tǒng)也有碎片,該領域的碎片問題主要通過碎片合并工具解決。它們分析文件系統(tǒng),重新排序已分配存儲塊,從而建立較大的連續(xù)存儲區(qū). 理論上,該方法對物理內(nèi)存也是可能的,但由于許多物理內(nèi)存頁不能移動到任意位置,阻礙了該方法的實施。因此,內(nèi)核的方法是反碎片(anti-fragmentation), 即試圖從最初開始盡可能防止碎片.
反碎片的工作原理如何?
為理解該方法,我們必須知道內(nèi)核將已分配頁劃分為下面3種不同類型。
頁面類型 | 描述 | 舉例 |
---|---|---|
不可移動頁 | 在內(nèi)存中有固定位置, 不能移動到其他地方. | 核心內(nèi)核分配的大多數(shù)內(nèi)存屬于該類別 |
可移動頁 | 可以隨意地移動. 屬于用戶空間應用程序的頁屬于該類別. |
它們是通過頁表映射的 如果它們復制到新位置,頁表項可以相應地更新,應用程序不會注意到任何事 |
可回收頁 | 不能直接移動, 但可以刪除, 其內(nèi)容可以從某些源重新生成. |
例如,映射自文件的數(shù)據(jù)屬于該類別 kswapd守護進程會根據(jù)可回收頁訪問的頻繁程度,周期性釋放此類內(nèi)存. , 頁面回收本身就是一個復雜的過程. 內(nèi)核會在可回收頁占據(jù)了太多內(nèi)存時進行回收, 在內(nèi)存短缺(即分配失敗)時也可以發(fā)起頁面回收. |
頁的可移動性,依賴該頁屬于3種類別的哪一種. 內(nèi)核使用的反碎片技術, 即基于將具有相同可移動性的頁分組的思想.
為什么這種方法有助于減少碎片?
由于頁無法移動, 導致在原本幾乎全空的內(nèi)存區(qū)中無法進行連續(xù)分配. 根據(jù)頁的可移動性, 將其分配到不同的列表中, 即可防止這種情形. 例如, 不可移動的頁不能位于可移動內(nèi)存區(qū)的中間, 否則就無法從該內(nèi)存區(qū)分配較大的連續(xù)內(nèi)存塊.
想一下, 上圖中大多數(shù)空閑頁都屬于可回收的類別, 而分配的頁則是不可移動的. 如果這些頁聚集到兩個不同的列表中, 如下圖所示. 在不可移動頁中仍然難以找到較大的連續(xù)空閑空間, 但對可回收的頁, 就容易多了.
?
?
但要注意, 從最初開始, 內(nèi)存并未劃分為可移動性不同的區(qū). 這些是在運行時形成的. 內(nèi)核的另一種方法確實將內(nèi)存分區(qū), 分別用于可移動頁和不可移動頁的分配, 我會下文討論其工作原理. 但這種劃分對這里描述的方法是不必要的
避免碎片數(shù)據(jù)結構
enum {
MIGRATE_UNMOVABLE,
MIGRATE_MOVABLE,
MIGRATE_RECLAIMABLE,
MIGRATE_PCPTYPES, /* the number of types on the pcp lists */
MIGRATE_HIGHATOMIC = MIGRATE_PCPTYPES,
#ifdef CONFIG_CMA
/*
* MIGRATE_CMA migration type is designed to mimic the way
* ZONE_MOVABLE works. Only movable pages can be allocated
* from MIGRATE_CMA pageblocks and page allocator never
* implicitly change migration type of MIGRATE_CMA pageblock.
*
* The way to use it is to change migratetype of a range of
* pageblocks to MIGRATE_CMA which can be done by
* __free_pageblock_cma() function. What is important though
* is that a range of pageblocks must be aligned to
* MAX_ORDER_NR_PAGES should biggest page be bigger then
* a single pageblock.
*/
MIGRATE_CMA,
#endif
#ifdef CONFIG_MEMORY_ISOLATION
MIGRATE_ISOLATE, /* can't allocate from here */
#endif
MIGRATE_TYPES
};
宏 | 類型 |
---|---|
MIGRATE_UNMOVABLE | 不可移動頁 |
MIGRATE_MOVABLE | 可移動頁 |
MIGRATE_RECLAIMABLE | 可回收頁 |
MIGRATE_PCPTYPES | 是per_cpu_pageset, 即用來表示每CPU頁框高速緩存的數(shù)據(jù)結構中的鏈表的遷移類型數(shù)目 |
MIGRATE_HIGHATOMIC | 在罕見的情況下,內(nèi)核需要分配一個高階的頁面塊而不能休眠.如果向具有特定可移動性的列表請求分配內(nèi)存失敗,這種緊急情況下可從MIGRATE_HIGHATOMIC中分配內(nèi)存 |
MIGRATE_CMA | Linux內(nèi)核最新的連續(xù)內(nèi)存分配器(CMA), 用于避免預留大塊內(nèi)存 |
MIGRATE_ISOLATE | 是一個特殊的虛擬區(qū)域, 用于跨越NUMA結點移動物理內(nèi)存頁. 在大型系統(tǒng)上, 它有益于將物理內(nèi)存頁移動到接近于使用該頁最頻繁的CPU. |
MIGRATE_TYPES | ? |
對于MIGRATE_CMA類型, 其中在我們使用ARM等嵌入式Linux系統(tǒng)的時候, 一個頭疼的問題是GPU, Camera, HDMI等都需要預留大量連續(xù)內(nèi)存,這部分內(nèi)存平時不用,但是一般的做法又必須先預留著. 目前, Marek Szyprowski和Michal Nazarewicz實現(xiàn)了一套全新的Contiguous Memory Allocator. 通過這套機制, 我們可以做到不預留內(nèi)存,這些內(nèi)存平時是可用的,只有當需要的時候才被分配給Camera,HDMI等設備. 內(nèi)核為此提供了函數(shù)is_migrate_cma來檢測當前類型是否為MIGRATE_CMA, 該函數(shù)定義在include/linux/mmzone.h?v=4.7, line 69
/* In mm/page_alloc.c; keep in sync also with show_migration_types() there */
extern char * const migratetype_names[MIGRATE_TYPES];
#ifdef CONFIG_CMA
# define is_migrate_cma(migratetype) unlikely((migratetype) == MIGRATE_CMA)
#else
# define is_migrate_cma(migratetype) false
#endif
對伙伴系統(tǒng)數(shù)據(jù)結構的主要調(diào)整, 是將空閑列表分解為MIGRATE_TYPE個列表, 可以參見free_area的定義include/linux/mmzone.h?v=4.7, line 88
struct free_area
{
struct list_head free_list[MIGRATE_TYPES];
unsigned long nr_free;
};
nr_free統(tǒng)計了所有列表上空閑頁的數(shù)目,而每種遷移類型都對應于一個空閑列表
宏for_each_migratetype_order(order, type)可用于迭代指定遷移類型的所有分配階
#define for_each_migratetype_order(order, type) \
for (order = 0; order < MAX_ORDER; order++) \
for (type = 0; type < MIGRATE_TYPES; type++)
遷移備用列表fallbacks
如果內(nèi)核無法滿足針對某一給定遷移類型的分配請求, 會怎么樣?
此前已經(jīng)出現(xiàn)過一個類似的問題, 即特定的NUMA內(nèi)存域無法滿足分配請求時. 我們需要從其他內(nèi)存域中選擇一個代價最低的內(nèi)存域完成內(nèi)存的分配, 因此內(nèi)核在內(nèi)存的結點pg_data_t中提供了一個備用內(nèi)存域列表zonelists.
內(nèi)核在內(nèi)存遷移的過程中處理這種情況下的做法是類似的. 提供了一個備用列表fallbacks, 規(guī)定了在指定列表中無法滿足分配請求時. 接下來應使用哪一種遷移類型, 定義在mm/page_alloc.c?v=4.7, line 1799
/*
* This array describes the order lists are fallen back to when
* the free lists for the desirable migrate type are depleted
* 該數(shù)組描述了指定遷移類型的空閑列表耗盡時
* 其他空閑列表在備用列表中的次序
*/
static int fallbacks[MIGRATE_TYPES][4] = {
// 分配不可移動頁失敗的備用列表
[MIGRATE_UNMOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
// 分配可回收頁失敗時的備用列表
[MIGRATE_RECLAIMABLE] = { MIGRATE_UNMOVABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
// 分配可移動頁失敗時的備用列表
[MIGRATE_MOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_UNMOVABLE, MIGRATE_TYPES },
#ifdef CONFIG_CMA
[MIGRATE_CMA] = { MIGRATE_TYPES }, /* Never used */
#endif
#ifdef CONFIG_MEMORY_ISOLATION
[MIGRATE_ISOLATE] = { MIGRATE_TYPES }, /* Never used */
#endif
};
該數(shù)據(jù)結構大體上是自明的 : 每一行對應一個類型的備用搜索域的順序, 在內(nèi)核想要分配不可移動頁MIGRATE_UNMOVABLE時, 如果對應鏈表為空, 則遍歷fallbacks[MIGRATE_UNMOVABLE], 首先后退到可回收頁鏈表MIGRATE_RECLAIMABLE, 接下來到可移動頁鏈表MIGRATE_MOVABLE, 最后到緊急分配鏈表MIGRATE_TYPES.
pageblock_order變量
全局變量和輔助函數(shù)盡管頁可移動性分組特性總是編譯到內(nèi)核中,但只有在系統(tǒng)中有足夠內(nèi)存可以分配到多個遷移類型對應的鏈表時,才是有意義的。由于每個遷移鏈表都應該有適當數(shù)量的內(nèi)存,內(nèi)核需要定義”適當”的概念. 這是通過兩個全局變量pageblock_order和pageblock_nr_pages提供的. 第一個表示內(nèi)核認為是”大”的一個分配階, pageblock_nr_pages則表示該分配階對應的頁數(shù)。如果體系結構提供了巨型頁機制, 則pageblock_order通常定義為巨型頁對應的分配階. 定義在include/linux/pageblock-flags.h?v=4.7, line 44
#ifdef CONFIG_HUGETLB_PAGE
#ifdef CONFIG_HUGETLB_PAGE_SIZE_VARIABLE
/* Huge page sizes are variable */
extern unsigned int pageblock_order;
#else /* CONFIG_HUGETLB_PAGE_SIZE_VARIABLE */
/* Huge pages are a constant size */
#define pageblock_order HUGETLB_PAGE_ORDER
#endif /* CONFIG_HUGETLB_PAGE_SIZE_VARIABLE */
#else /* CONFIG_HUGETLB_PAGE */
/* If huge pages are not used, group by MAX_ORDER_NR_PAGES */
#define pageblock_order (MAX_ORDER-1)
#endif /* CONFIG_HUGETLB_PAGE */
#define pageblock_nr_pages (1UL << pageblock_order)
在IA-32體系結構上, 巨型頁長度是4MB, 因此每個巨型頁由1024個普通頁組成, 而HUGETLB_PAGE_ORDER則定義為10. 相比之下, IA-64體系結構允許設置可變的普通和巨型頁長度, 因此HUGETLB_PAGE_ORDER的值取決于內(nèi)核配置.
如果體系結構不支持巨型頁, 則將其定義為第二高的分配階, 即MAX_ORDER - 1
/* If huge pages are not used, group by MAX_ORDER_NR_PAGES */
#define pageblock_order (MAX_ORDER-1)
如果各遷移類型的鏈表中沒有一塊較大的連續(xù)內(nèi)存, 那么頁面遷移不會提供任何好處, 因此在可用內(nèi)存太少時內(nèi)核會關閉該特性. 這是在build_all_zonelists函數(shù)中檢查的, 該函數(shù)用于初始化內(nèi)存域列表. 如果沒有足夠的內(nèi)存可用, 則全局變量page_group_by_mobility_disabled設置為0, 否則設置為1.
內(nèi)核如何知道給定的分配內(nèi)存屬于何種遷移類型?
我們將在以后講解, 有關各個內(nèi)存分配的細節(jié)都通過分配掩碼指定.
內(nèi)核提供了兩個標志,分別用于表示分配的內(nèi)存是可移動的(__GFP_MOVABLE)或可回收的(__GFP_RECLAIMABLE).
gfpflags_to_migratetype函數(shù)
/* Convert GFP flags to their corresponding migrate type */
static inline int allocflags_to_migratetype(gfp_t gfp_flags)
{
WARN_ON((gfp_flags & GFP_MOVABLE_MASK) == GFP_MOVABLE_MASK);
if (unlikely(page_group_by_mobility_disabled))
return MIGRATE_UNMOVABLE;
/* Group based on mobility */
return (((gfp_flags & __GFP_MOVABLE) != 0) << 1) |
((gfp_flags & __GFP_RECLAIMABLE) != 0);
}
如果停用了頁面遷移特性, 則所有的頁都是不可移動的. 否則. 該函數(shù)的返回值可以直接用作free_area.free_list的數(shù)組索引.
pageblock_flags變量與其函數(shù)接口
最后要注意, 每個內(nèi)存域都提供了一個特殊的字段, 可以跟蹤包含pageblock_nr_pages個頁的內(nèi)存區(qū)的屬性. 即zone->pageblock_flags字段, 當前只有與頁可移動性相關的代碼使用, 參見include/linux/mmzone.h?v=4.7, line 367
struct zone
{
#ifndef CONFIG_SPARSEMEM
/*
* Flags for a pageblock_nr_pages block. See pageblock-flags.h.
* In SPARSEMEM, this map is stored in struct mem_section
*/
unsigned long *pageblock_flags;
#endif /* CONFIG_SPARSEMEM */
};
在初始化期間, 內(nèi)核自動確保對內(nèi)存域中的每個不同的遷移類型分組, 在pageblock_flags中都分配了足夠存儲NR_PAGEBLOCK_BITS個比特位的空間。當前,表示一個連續(xù)內(nèi)存區(qū)的遷移類型需要3個比特位, 參見include/linux/pageblock-flags.h?v=4.7, line 28
/* Bit indices that affect a whole block of pages */
enum pageblock_bits {
PB_migrate,
PB_migrate_end = PB_migrate + 3 - 1,
/* 3 bits required for migrate types */
PB_migrate_skip,/* If set the block is skipped by compaction */
/*
* Assume the bits will always align on a word. If this assumption
* changes then get/set pageblock needs updating.
*/
NR_PAGEBLOCK_BITS
};
內(nèi)核提供set_pageblock_migratetype負責設置以page為首的一個內(nèi)存區(qū)的遷移類型, 該函數(shù)定義在mm/page_alloc.c?v=4.7, line 458, 如下所示
void set_pageblock_migratetype(struct page *page, int migratetype)
{
if (unlikely(page_group_by_mobility_disabled &&
migratetype < MIGRATE_PCPTYPES))
migratetype = MIGRATE_UNMOVABLE;
set_pageblock_flags_group(page, (unsigned long)migratetype,
PB_migrate, PB_migrate_end);
}
migratetype參數(shù)可以通過上文介紹的gfpflags_to_migratetype輔助函數(shù)構建. 請注意很重要的一點, 頁的遷移類型是預先分配好的, 對應的比特位總是可用, 與頁是否由伙伴系統(tǒng)管理無關. 在釋放內(nèi)存時,頁必須返回到正確的遷移鏈表。這之所以可行,是因為能夠從get_pageblock_migratetype獲得所需的信息. 參見include/linux/mmzone.h?v=4.7, line 84
#define get_pageblock_migratetype(page) \
get_pfnblock_flags_mask(page, page_to_pfn(page), \
PB_migrate_end, MIGRATETYPE_MASK)
最后請注意, 在各個遷移鏈表之間, 當前的頁面分配狀態(tài)可以從/proc/pagetypeinfo獲得.
初始化基于可移動性的分組
在內(nèi)存子系統(tǒng)初始化期間, memmap_init_zone負責處理內(nèi)存域的page實例. 該函數(shù)完成了一些不怎么有趣的標準初始化工作,但其中有一件是實質(zhì)性的,即所有的頁最初都標記為可移動的. 參見mm/page_alloc.c?v=4.7, line 5224
/*
* Initially all pages are reserved - free ones are freed
* up by free_all_bootmem() once the early boot process is
* done. Non-atomic initialization, single-pass.
*/
void __meminit memmap_init_zone(unsigned long size, int nid, unsigned long zone,
unsigned long start_pfn, enum memmap_context context)
{
/* ...... */
for (pfn = start_pfn; pfn < end_pfn; pfn++) {
/* ...... */
not_early:
if (!(pfn & (pageblock_nr_pages - 1))) {
struct page *page = pfn_to_page(pfn);
__init_single_page(page, pfn, zone, nid);
set_pageblock_migratetype(page, MIGRATE_MOVABLE);
} else {
__init_single_pfn(pfn, zone, nid);
}
}
}
在分配內(nèi)存時, 如果必須”盜取”不同于預定遷移類型的內(nèi)存區(qū), 內(nèi)核在策略上傾向于”盜取”更大的內(nèi)存區(qū). 由于所有頁最初都是可移動的, 那么在內(nèi)核分配不可移動的內(nèi)存區(qū)時, 則必須”盜取”.
實際上, 在啟動期間分配可移動內(nèi)存區(qū)的情況較少, 那么分配器有很高的幾率分配長度最大的內(nèi)存區(qū), 并將其從可移動列表轉(zhuǎn)換到不可移動列表. 由于分配的內(nèi)存區(qū)長度是最大的, 因此不會向可移動內(nèi)存中引入碎片.
總而言之, 這種做法避免了啟動期間內(nèi)核分配的內(nèi)存(經(jīng)常在系統(tǒng)的整個運行時間都不釋放)散布到物理內(nèi)存各處, 從而使其他類型的內(nèi)存分配免受碎片的干擾,這也是頁可移動性分組框架的最重要的目標之一.
分配器API
分配內(nèi)存的接口
就伙伴系統(tǒng)的接口而言, NUMA或UMA體系結構是沒有差別的, 二者的調(diào)用語法都是相同的.
所有函數(shù)的一個共同點是 : 只能分配2的整數(shù)冪個頁.
因此,接口中不像C標準庫的malloc函數(shù)或bootmem和memblock分配器那樣指定了所需內(nèi)存大小作為參數(shù). 相反, 必須指定的是分配階, 伙伴系統(tǒng)將在內(nèi)存中分配2^0 rder頁. 內(nèi)核中細粒度的分配只能借助于slab分配器(或者slub、slob分配器), 后者基于伙伴系統(tǒng)
?
在空閑內(nèi)存無法滿足請求以至于分配失敗的情況下,所有上述函數(shù)都返回空指針(比如alloc_pages和alloc_page)或者0(比如get_zeroed_page、__get_free_pages和__get_free_page).
因此內(nèi)核在各次分配之后都必須檢查返回的結果. 這種慣例與設計得很好的用戶層應用程序沒什么不同, 但在內(nèi)核中忽略檢查會導致嚴重得多的故障
內(nèi)核除了伙伴系統(tǒng)函數(shù)之外, 還提供了其他內(nèi)存管理函數(shù). 它們以伙伴系統(tǒng)為基礎, 但并不屬于伙伴分配器自身. 這些函數(shù)包括vmalloc和vmalloc_32, 使用頁表將不連續(xù)的內(nèi)存映射到內(nèi)核地址空間中, 使之看上去是連續(xù)的.
還有一組kmalloc類型的函數(shù), 用于分配小于一整頁的內(nèi)存區(qū). 其實現(xiàn).
釋放函數(shù)
有4個函數(shù)用于釋放不再使用的頁,與所述函數(shù)稍有不同
?
分配掩碼(gfp_mask標志)
分配掩碼
前述所有函數(shù)中強制使用的mask參數(shù),到底是什么語義?
我們知道Linux將內(nèi)存劃分為內(nèi)存域. 內(nèi)核提供了所謂的內(nèi)存域修飾符(zone modifier)(在掩碼的最低4個比特位定義), 來指定從哪個內(nèi)存域分配所需的頁.
內(nèi)核使用宏的方式定義了這些掩碼, 一個掩碼的定義被劃分為3個部分進行定義, 我們會逐步展開來講解, 參見include/linux/gfp.h?v=4.7, line 12~374, 共計26個掩碼信息, 因此后面__GFP_BITS_SHIFT = 26.
掩碼分類
Linux中這些掩碼標志gfp_mask分為3種類型 :
?
內(nèi)核中掩碼的定義
內(nèi)核中的定義方式
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7
/* line 12 ~ line 44 第一部分
* 定義可掩碼所在位的信息, 每個掩碼對應一位為1
* 定義形式為 #define ___GFP_XXX 0x01u
*/
/* Plain integer GFP bitmasks. Do not use this directly. */
#define ___GFP_DMA 0x01u
#define ___GFP_HIGHMEM 0x02u
#define ___GFP_DMA32 0x04u
#define ___GFP_MOVABLE 0x08u
/* ...... */
/* line 46 ~ line 192 第二部分
* 定義掩碼和MASK信息, 第二部分的某些宏可能是第一部分一個或者幾個的組合
* 定義形式為 #define __GFP_XXX ((__force gfp_t)___GFP_XXX)
*/
#define __GFP_DMA ((__force gfp_t)___GFP_DMA)
#define __GFP_HIGHMEM ((__force gfp_t)___GFP_HIGHMEM)
#define __GFP_DMA32 ((__force gfp_t)___GFP_DMA32)
#define __GFP_MOVABLE ((__force gfp_t)___GFP_MOVABLE) /* ZONE_MOVABLE allowed */
#define GFP_ZONEMASK (__GFP_DMA|__GFP_HIGHMEM|__GFP_DMA32|__GFP_MOVABLE)
/* line 194 ~ line 260 第三部分
* 定義掩碼
* 定義形式為 #define GFP_XXX __GFP_XXX
*/
#define GFP_DMA __GFP_DMA
#define GFP_DMA32 __GFP_DMA32
其中GFP縮寫的意思為獲取空閑頁(get free page), __GFP_MOVABLE不表示物理內(nèi)存域, 但通知內(nèi)核應在特殊的虛擬內(nèi)存域ZONE_MOVABLE進行相應的分配.
定義掩碼位
我們首先來看第一部分, 內(nèi)核源代碼中定義在include/linux/gfp.h?v=4.7, line 18 ~ line 44, 共計26個掩碼信息.
/* Plain integer GFP bitmasks. Do not use this directly. */
// 區(qū)域修飾符
#define ___GFP_DMA 0x01u
#define ___GFP_HIGHMEM 0x02u
#define ___GFP_DMA32 0x04u
// 行為修飾符
#define ___GFP_MOVABLE 0x08u /* 頁是可移動的 */
#define ___GFP_RECLAIMABLE 0x10u /* 頁是可回收的 */
#define ___GFP_HIGH 0x20u /* 應該訪問緊急分配池? */
#define ___GFP_IO 0x40u /* 可以啟動物理IO? */
#define ___GFP_FS 0x80u /* 可以調(diào)用底層文件系統(tǒng)? */
#define ___GFP_COLD 0x100u /* 需要非緩存的冷頁 */
#define ___GFP_NOWARN 0x200u /* 禁止分配失敗警告 */
#define ___GFP_REPEAT 0x400u /* 重試分配,可能失敗 */
#define ___GFP_NOFAIL 0x800u /* 一直重試,不會失敗 */
#define ___GFP_NORETRY 0x1000u /* 不重試,可能失敗 */
#define ___GFP_MEMALLOC 0x2000u /* 使用緊急分配鏈表 */
#define ___GFP_COMP 0x4000u /* 增加復合頁元數(shù)據(jù) */
#define ___GFP_ZERO 0x8000u /* 成功則返回填充字節(jié)0的頁 */
// 類型修飾符
#define ___GFP_NOMEMALLOC 0x10000u /* 不使用緊急分配鏈表 */
#define ___GFP_HARDWALL 0x20000u /* 只允許在進程允許運行的CPU所關聯(lián)的結點分配內(nèi)存 */
#define ___GFP_THISNODE 0x40000u /* 沒有備用結點,沒有策略 */
#define ___GFP_ATOMIC 0x80000u /* 用于原子分配,在任何情況下都不能中斷 */
#define ___GFP_ACCOUNT 0x100000u
#define ___GFP_NOTRACK 0x200000u
#define ___GFP_DIRECT_RECLAIM 0x400000u
#define ___GFP_OTHER_NODE 0x800000u
#define ___GFP_WRITE 0x1000000u
#define ___GFP_KSWAPD_RECLAIM 0x2000000u
定義掩碼
然后第二部分, 相對而言每一個宏又被重新定義如下, 參見include/linux/gfp.h?v=4.7, line 46 ~ line 192
/*
* Physical address zone modifiers (see linux/mmzone.h - low four bits)
*
* Do not put any conditional on these. If necessary modify the definitions
* without the underscores and use them consistently. The definitions here may
* be used in bit comparisons.
* 定義區(qū)描述符
*/
#define __GFP_DMA ((__force gfp_t)___GFP_DMA)
#define __GFP_HIGHMEM ((__force gfp_t)___GFP_HIGHMEM)
#define __GFP_DMA32 ((__force gfp_t)___GFP_DMA32)
#define __GFP_MOVABLE ((__force gfp_t)___GFP_MOVABLE) /* ZONE_MOVABLE allowed */
#define GFP_ZONEMASK (__GFP_DMA|__GFP_HIGHMEM|__GFP_DMA32|__GFP_MOVABLE)
/*
* Page mobility and placement hints
*
* These flags provide hints about how mobile the page is. Pages with similar
* mobility are placed within the same pageblocks to minimise problems due
* to external fragmentation.
*
* __GFP_MOVABLE (also a zone modifier) indicates that the page can be
* moved by page migration during memory compaction or can be reclaimed.
*
* __GFP_RECLAIMABLE is used for slab allocations that specify
* SLAB_RECLAIM_ACCOUNT and whose pages can be freed via shrinkers.
*
* __GFP_WRITE indicates the caller intends to dirty the page. Where possible,
* these pages will be spread between local zones to avoid all the dirty
* pages being in one zone (fair zone allocation policy).
*
* __GFP_HARDWALL enforces the cpuset memory allocation policy.
*
* __GFP_THISNODE forces the allocation to be satisified from the requested
* node with no fallbacks or placement policy enforcements.
*
* __GFP_ACCOUNT causes the allocation to be accounted to kmemcg (only relevant
* to kmem allocations).
*/
#define __GFP_RECLAIMABLE ((__force gfp_t)___GFP_RECLAIMABLE)
#define __GFP_WRITE ((__force gfp_t)___GFP_WRITE)
#define __GFP_HARDWALL ((__force gfp_t)___GFP_HARDWALL)
#define __GFP_THISNODE ((__force gfp_t)___GFP_THISNODE)
#define __GFP_ACCOUNT ((__force gfp_t)___GFP_ACCOUNT)
/*
* Watermark modifiers -- controls access to emergency reserves
*
* __GFP_HIGH indicates that the caller is high-priority and that granting
* the request is necessary before the system can make forward progress.
* For example, creating an IO context to clean pages.
*
* __GFP_ATOMIC indicates that the caller cannot reclaim or sleep and is
* high priority. Users are typically interrupt handlers. This may be
* used in conjunction with __GFP_HIGH
*
* __GFP_MEMALLOC allows access to all memory. This should only be used when
* the caller guarantees the allocation will allow more memory to be freed
* very shortly e.g. process exiting or swapping. Users either should
* be the MM or co-ordinating closely with the VM (e.g. swap over NFS).
*
* __GFP_NOMEMALLOC is used to explicitly forbid access to emergency reserves.
* This takes precedence over the __GFP_MEMALLOC flag if both are set.
*/
#define __GFP_ATOMIC ((__force gfp_t)___GFP_ATOMIC)
#define __GFP_HIGH ((__force gfp_t)___GFP_HIGH)
#define __GFP_MEMALLOC ((__force gfp_t)___GFP_MEMALLOC)
#define __GFP_NOMEMALLOC ((__force gfp_t)___GFP_NOMEMALLOC)
/*
* Reclaim modifiers
*
* __GFP_IO can start physical IO.
*
* __GFP_FS can call down to the low-level FS. Clearing the flag avoids the
* allocator recursing into the filesystem which might already be holding
* locks.
*
* __GFP_DIRECT_RECLAIM indicates that the caller may enter direct reclaim.
* This flag can be cleared to avoid unnecessary delays when a fallback
* option is available.
*
* __GFP_KSWAPD_RECLAIM indicates that the caller wants to wake kswapd when
* the low watermark is reached and have it reclaim pages until the high
* watermark is reached. A caller may wish to clear this flag when fallback
* options are available and the reclaim is likely to disrupt the system. The
* canonical example is THP allocation where a fallback is cheap but
* reclaim/compaction may cause indirect stalls.
*
* __GFP_RECLAIM is shorthand to allow/forbid both direct and kswapd reclaim.
*
* __GFP_REPEAT: Try hard to allocate the memory, but the allocation attempt
* _might_ fail. This depends upon the particular VM implementation.
*
* __GFP_NOFAIL: The VM implementation _must_ retry infinitely: the caller
* cannot handle allocation failures. New users should be evaluated carefully
* (and the flag should be used only when there is no reasonable failure
* policy) but it is definitely preferable to use the flag rather than
* opencode endless loop around allocator.
*
* __GFP_NORETRY: The VM implementation must not retry indefinitely and will
* return NULL when direct reclaim and memory compaction have failed to allow
* the allocation to succeed. The OOM killer is not called with the current
* implementation.
*/
#define __GFP_IO ((__force gfp_t)___GFP_IO)
#define __GFP_FS ((__force gfp_t)___GFP_FS)
#define __GFP_DIRECT_RECLAIM ((__force gfp_t)___GFP_DIRECT_RECLAIM) /* Caller can reclaim */
#define __GFP_KSWAPD_RECLAIM ((__force gfp_t)___GFP_KSWAPD_RECLAIM) /* kswapd can wake */
#define __GFP_RECLAIM ((__force gfp_t)(___GFP_DIRECT_RECLAIM|___GFP_KSWAPD_RECLAIM))
#define __GFP_REPEAT ((__force gfp_t)___GFP_REPEAT)
#define __GFP_NOFAIL ((__force gfp_t)___GFP_NOFAIL)
#define __GFP_NORETRY ((__force gfp_t)___GFP_NORETRY)
/*
* Action modifiers
*
* __GFP_COLD indicates that the caller does not expect to be used in the near
* future. Where possible, a cache-cold page will be returned.
*
* __GFP_NOWARN suppresses allocation failure reports.
*
* __GFP_COMP address compound page metadata.
*
* __GFP_ZERO returns a zeroed page on success.
*
* __GFP_NOTRACK avoids tracking with kmemcheck.
*
* __GFP_NOTRACK_FALSE_POSITIVE is an alias of __GFP_NOTRACK. It's a means of
* distinguishing in the source between false positives and allocations that
* cannot be supported (e.g. page tables).
*
* __GFP_OTHER_NODE is for allocations that are on a remote node but that
* should not be accounted for as a remote allocation in vmstat. A
* typical user would be khugepaged collapsing a huge page on a remote
* node.
*/
#define __GFP_COLD ((__force gfp_t)___GFP_COLD)
#define __GFP_NOWARN ((__force gfp_t)___GFP_NOWARN)
#define __GFP_COMP ((__force gfp_t)___GFP_COMP)
#define __GFP_ZERO ((__force gfp_t)___GFP_ZERO)
#define __GFP_NOTRACK ((__force gfp_t)___GFP_NOTRACK)
#define __GFP_NOTRACK_FALSE_POSITIVE (__GFP_NOTRACK)
#define __GFP_OTHER_NODE ((__force gfp_t)___GFP_OTHER_NODE)
/* Room for N __GFP_FOO bits */
#define __GFP_BITS_SHIFT 26
#define __GFP_BITS_MASK ((__force gfp_t)((1 << __GFP_BITS_SHIFT) - 1))
給出的常數(shù),其中一些很少使用,因此我不會討論。其中最重要的一些常數(shù)語義如下所示
其中在開始的位置定義了對應的區(qū)修飾符,
?
?
其次還定義了我們程序和函數(shù)中所需要的掩碼MASK的信息, 由于其中__GFP_DMA, __GFP_DMA32, __GFP_HIGHMEM, __GFP_MOVABLE是在內(nèi)存中分別有對應的內(nèi)存域信息, 因此我們定義了內(nèi)存域的掩碼GFP_ZONEMASK, 參見include/linux/gfp.h?v=4.7, line 57
#define GFP_ZONEMASK (__GFP_DMA|__GFP_HIGHMEM|__GFP_DMA32|__GFP_MOVABLE)
接著內(nèi)核定義了行為修飾符
/* __GFP_WAIT表示分配內(nèi)存的請求可以中斷。也就是說,調(diào)度器在該請求期間可隨意選擇另一個過程執(zhí)行,或者該請求可以被另一個更重要的事件中斷. 分配器還可以在返回內(nèi)存之前, 在隊列上等待一個事件(相關進程會進入睡眠狀態(tài)).
雖然名字相似,但__GFP_HIGH與__GFP_HIGHMEM毫無關系,請不要弄混這兩者\
行為修飾符 | 描述 |
---|---|
__GFP_RECLAIMABLE __GFP_MOVABLE |
是頁遷移機制所需的標志. 顧名思義,它們分別將分配的內(nèi)存標記為可回收的或可移動的。這影響從空閑列表的哪個子表獲取內(nèi)存 |
__GFP_WRITE | ? |
__GFP_HARDWALL | 只在NUMA系統(tǒng)上有意義. 它限制只在分配到當前進程的各個CPU所關聯(lián)的結點分配內(nèi)存。如果進程允許在所有CPU上運行(默認情況),該標志是無意義的。只有進程可以運行的CPU受限時,該標志才有效果 |
__GFP_THISNODE | 也只在NUMA系統(tǒng)上有意義。如果設置該比特位,則內(nèi)存分配失敗的情況下不允許使用其他結點作為備用,需要保證在當前結點或者明確指定的結點上成功分配內(nèi)存 |
__GFP_ACCOUNT | ? |
__GFP_ATOMIC | ? |
__GFP_HIGH | 如果請求非常重要, 則設置__GFP_HIGH,即內(nèi)核急切地需要內(nèi)存時。在分配內(nèi)存失敗可能給內(nèi)核帶來嚴重后果時(比如威脅到系統(tǒng)穩(wěn)定性或系統(tǒng)崩潰), 總是會使用該標志 |
__GFP_MEMALLOC | ? |
__GFP_NOMEMALLOC | ? |
__GFP_IO | 說明在查找空閑內(nèi)存期間內(nèi)核可以進行I/O操作. 實際上, 這意味著如果內(nèi)核在內(nèi)存分配期間換出頁, 那么僅當設置該標志時, 才能將選擇的頁寫入硬盤 |
__GFP_FS | 允許內(nèi)核執(zhí)行VFS操作. 在與VFS層有聯(lián)系的內(nèi)核子系統(tǒng)中必須禁用, 因為這可能引起循環(huán)遞歸調(diào)用. |
__GFP_DIRECT_RECLAIM | ? |
__GFP_KSWAPD_RECLAIM | ? |
__GFP_RECLAIM | ? |
__GFP_REPEAT | 在分配失敗后自動重試,但在嘗試若干次之后會停止 |
__GFP_NOFAIL | 在分配失敗后一直重試,直至成功 |
__GFP_NORETRY | 在分配失敗后不重試,因此可能分配失敗 |
__GFP_COLD | 如果需要分配不在CPU高速緩存中的“冷”頁時,則設置__GFP_COLD |
__GFP_NOWARN | 在分配失敗時禁止內(nèi)核故障警告。在極少數(shù)場合該標志有用 |
__GFP_COMP | 添加混合頁元素, 在hugetlb的代碼內(nèi)部使用 |
__GFP_ZERO | 在分配成功時,將返回填充字節(jié)0的頁 |
__GFP_NOTRACK | ? |
__GFP_NOTRACK_FALSE_POSITIVE __GFP_NOTRACK |
? |
__GFP_OTHER_NODE | ? |
那自然還有__GFP_BITS_SHIFT來表示我們所有的掩碼位, 由于我們共計26個掩碼位
/* Room for N __GFP_FOO bits */
#define __GFP_BITS_SHIFT 26
#define __GFP_BITS_MASK ((__force gfp_t)((1 << __GFP_BITS_SHIFT) - 1))
可以同時指定這些分配標志, 例如
ptr = kmalloc(size, __GFP_IO | __GFP_FS);
說明頁分配器(最終會調(diào)用alloc_page)在分配時可以執(zhí)行I/O, 在必要時還可以執(zhí)行文件系統(tǒng)操作. 這就讓內(nèi)核有很大的自由度, 以便它盡可能找到空閑的內(nèi)存來滿足分配請求. 大多數(shù)分配器都會執(zhí)行這些修飾符, 但一般不是這樣直接指定, 而是將這些行為描述符標志進行分組, 即類型標志
掩碼分組
最后來看第三部分, 由于這些標志幾乎總是組合使用,內(nèi)核作了一些分組,包含了用于各種標準情形的適當?shù)臉酥? 稱之為類型標志,
類型標志指定所需的行為和區(qū)描述符以安城特殊類型的處理, 正因為這一點, 內(nèi)核總是趨于使用正確的類型標志, 而不是一味地指定它可能用到的多種描述符. 這么做既簡單又不容易出錯誤.如果有可能的話, 在內(nèi)存管理子系統(tǒng)之外, 總是把下列分組之一用于內(nèi)存分配. 在內(nèi)核源代碼中, 雙下劃線通常用于內(nèi)部數(shù)據(jù)和定義. 而這些預定義的分組名沒有雙下劃線前綴, 點從側(cè)面驗證了上述說法.
#define GFP_ATOMIC (__GFP_HIGH|__GFP_ATOMIC|__GFP_KSWAPD_RECLAIM)
#define GFP_KERNEL (__GFP_RECLAIM | __GFP_IO | __GFP_FS)
#define GFP_KERNEL_ACCOUNT (GFP_KERNEL | __GFP_ACCOUNT)
#define GFP_NOWAIT (__GFP_KSWAPD_RECLAIM)
#define GFP_NOIO (__GFP_RECLAIM)
#define GFP_NOFS (__GFP_RECLAIM | __GFP_IO)
#define GFP_TEMPORARY (__GFP_RECLAIM | __GFP_IO | __GFP_FS | \
__GFP_RECLAIMABLE)
#define GFP_USER (__GFP_RECLAIM | __GFP_IO | __GFP_FS | __GFP_HARDWALL)
#define GFP_DMA __GFP_DMA
#define GFP_DMA32 __GFP_DMA32
#define GFP_HIGHUSER (GFP_USER | __GFP_HIGHMEM)
#define GFP_HIGHUSER_MOVABLE (GFP_HIGHUSER | __GFP_MOVABLE)
#define GFP_TRANSHUGE ((GFP_HIGHUSER_MOVABLE | __GFP_COMP | \
__GFP_NOMEMALLOC | __GFP_NORETRY | __GFP_NOWARN) & \
~__GFP_RECLAIM)
/* Convert GFP flags to their corresponding migrate type */
#define GFP_MOVABLE_MASK (__GFP_RECLAIMABLE|__GFP_MOVABLE)
#define GFP_MOVABLE_SHIFT 3
?
掩碼組 | 描述 |
---|---|
GFP_ATOMIC | 用于原子分配,在任何情況下都不能中斷, 可能使用緊急分配鏈表中的內(nèi)存, 這個標志用在中斷處理程序, 下半部, 持有自旋鎖以及其他不能睡眠的地方 |
GFP_KERNEL | 這是一種常規(guī)的分配方式, 可能會阻塞. 這個標志在睡眠安全時用在進程的長下文代碼中. 為了獲取調(diào)用者所需的內(nèi)存, 內(nèi)核會盡力而為. 這個標志應該是首選標志 |
GFP_KERNEL_ACCOUNT | ? |
GFP_NOWAIT | 與GFP_ATOMIC類似, 不同之處在于, 調(diào)用不會退給緊急內(nèi)存池, 這就增加了內(nèi)存分配失敗的可能性 |
GFP_NOIO | 這種分配可以阻塞, 但不會啟動磁盤I/O, 這個標志在不能引發(fā)更多的磁盤I/O時阻塞I/O代碼, 這可能導致令人不愉快的遞歸 |
GFP_NOFS |
這種分配在必要時可以阻塞, 但是也可能啟動磁盤, 但是不會啟動文件系統(tǒng)操作, 這個標志在你不鞥在啟動另一個文件系統(tǒng)操作時, 用在文件系統(tǒng)部分的代碼中 GFP_TEMPORARY |
GFP_TEMPORARY | ? |
GFP_USER | 這是一種常規(guī)的分配方式, 可能會阻塞. 這個標志用于為用戶空間進程分配內(nèi)存時使用 |
GFP_DMA | ? |
GFP_DMA32 | 用于分配適用于DMA的內(nèi)存, 當前是__GFP_DMA的同義詞, GFP_DMA32也是__GFP_GMA32的同義詞 |
GFP_HIGHUSER | 是GFP_USER的一個擴展, 也用于用戶空間. 它允許分配無法直接映射的高端內(nèi)存. 使用高端內(nèi)存頁是沒有壞處的,因為用戶過程的地址空間總是通過非線性頁表組織的 |
GFP_HIGHUSER_MOVABLE | 用途類似于GFP_HIGHUSER,但分配將從虛擬內(nèi)存域ZONE_MOVABLE進行 |
GFP_TRANSHUGE | ? |
?
其中GFP_NOIO和GFP_NOFS, 分別明確禁止I/O操作和訪問VFS層, 但同時設置了__GFP_RECLAIM,因此可以被回收
而GFP_KERNEL和GFP_USER. 分別是內(nèi)核和用戶分配的默認設置。二者的失敗不會立即威脅系統(tǒng)穩(wěn)定性, GFP_KERNEL絕對是內(nèi)核源代碼中最常使用的標志 |
最后內(nèi)核設置了碎片管理的可移動依據(jù)組織頁的MASK信息GFP_MOVABLE_MASK,
/* Convert GFP flags to their corresponding migrate type */
#define GFP_MOVABLE_MASK (__GFP_RECLAIMABLE|__GFP_MOVABLE)
#define GFP_MOVABLE_SHIFT 3
在你編寫的絕大多數(shù)代碼中, 用么用到的是GFP_KERNEL, 要么是GFP_ATOMIC, 當然各個類型標志也均有其應用場景
?
總結
我們從注釋中找到這樣的信息, 可以作為參考
bit result
=================
0x0 => NORMAL
0x1 => DMA or NORMAL
0x2 => HIGHMEM or NORMAL
0x3 => BAD (DMA+HIGHMEM)
0x4 => DMA32 or DMA or NORMAL
0x5 => BAD (DMA+DMA32)
0x6 => BAD (HIGHMEM+DMA32)
0x7 => BAD (HIGHMEM+DMA32+DMA)
0x8 => NORMAL (MOVABLE+0)
0x9 => DMA or NORMAL (MOVABLE+DMA)
0xa => MOVABLE (Movable is valid only if HIGHMEM is set too)
0xb => BAD (MOVABLE+HIGHMEM+DMA)
0xc => DMA32 (MOVABLE+DMA32)
0xd => BAD (MOVABLE+DMA32+DMA)
0xe => BAD (MOVABLE+DMA32+HIGHMEM)
0xf => BAD (MOVABLE+DMA32+HIGHMEM+DMA)
GFP_ZONES_SHIFT must be <= 2 on 32 bit platforms.
很有趣的一點是,沒有__GFP_NORMAL常數(shù),而內(nèi)存分配的主要負擔卻落到ZONE_NORMAL內(nèi)存域
內(nèi)核考慮到這一點, 提供了一個函數(shù)gfp_zone來計算與給定分配標志兼容的最高內(nèi)存域. 那么內(nèi)存分配可以從該內(nèi)存域或更低的內(nèi)存域進行, 該函數(shù)定義在include/linux/gfp.h?v=4.7, line 394
#if defined(CONFIG_ZONE_DEVICE) && (MAX_NR_ZONES-1) <= 4
/* ZONE_DEVICE is not a valid GFP zone specifier */
#define GFP_ZONES_SHIFT 2
#else
#define GFP_ZONES_SHIFT ZONES_SHIFT
#endif
#if 16 * GFP_ZONES_SHIFT > BITS_PER_LONG
#error GFP_ZONES_SHIFT too large to create GFP_ZONE_TABLE integer
#endif
由于內(nèi)存域修飾符的解釋方式不是那么直觀, 表3-7給出了該函數(shù)結果的一個例子, 其中DMA和DMA32內(nèi)存域相同. 假定在下文中沒有設置__GFP_MOVABLE修飾符.
?
如果__GFP_DMA和__GFP_HIGHMEM都沒有設置, 則首先掃描ZONE_NORMAL, 后面是ZONE_DMA
如果設置了__GFP_HIGHMEM沒有設置__GFP_DMA,則結果是從ZONE_HIGHMEM開始掃描所有3個內(nèi)存域。
如果設置了__GFP_DMA,那么__GFP_HIGHMEM設置與否沒有關系. 只有ZONE_DMA用于3種情形. 這是合理的, 因為同時使用__GFP_HIGHMEM和__GFP_DMA沒有意義. 高端內(nèi)存從來都不適用于DMA
設置__GFP_MOVABLE不會影響內(nèi)核的決策,除非它與__GFP_HIGHMEM同時指定. 在這種情況下, 會使用特殊的虛擬內(nèi)存域ZONE_MOVABLE滿足內(nèi)存分配請求. 對前文描述的內(nèi)核的反碎片策略而言, 這種行為是必要的.
除了內(nèi)存域修飾符之外, 掩碼中還可以設置一些標志.
下圖中給出了掩碼的布局,以及與各個比特位置關聯(lián)的常數(shù). __GFP_DMA32出現(xiàn)了幾次,因為它可能位于不同的地方.
?
?
?
與內(nèi)存域修飾符相反, 這些額外的標志并不限制從哪個物理內(nèi)存段分配內(nèi)存, 但確實可以改變分配器的行為. 例如, 它們可以修改查找空閑內(nèi)存時的積極程度.
4.3 分配頁
4.3.1 內(nèi)存分配統(tǒng)一到alloc_pages接口
通過使用標志、內(nèi)存域修飾符和各個分配函數(shù),內(nèi)核提供了一種非常靈活的內(nèi)存分配體系.盡管如此, 所有接口函數(shù)都可以追溯到一個簡單的基本函數(shù)(alloc_pages_node)
分配單頁的函數(shù)alloc_page和__get_free_page, 還有__get_dma_pages是借助于宏定義的.
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7#L483
#define alloc_page(gfp_mask) alloc_pages(gfp_mask, 0)
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7#L500
#define __get_free_page(gfp_mask) \
__get_free_pages((gfp_mask), 0)`
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7#L503
#define __get_dma_pages(gfp_mask, order) \
__get_free_pages((gfp_mask) | GFP_DMA, (order))
get_zeroed_page的實現(xiàn)也沒什么困難, 對__get_free_pages使用__GFP_ZERO標志,即可分配填充字節(jié)0的頁. 再返回與頁關聯(lián)的內(nèi)存區(qū)地址即可.
// http://lxr.free-electrons.com/source/mm/page_alloc.c?v=4.7#L3900
unsigned long get_zeroed_page(gfp_t gfp_mask)
{
return __get_free_pages(gfp_mask | __GFP_ZERO, 0);
}
EXPORT_SYMBOL(get_zeroed_page);
__get_free_pages調(diào)用alloc_pages完成內(nèi)存分配, 而alloc_pages又借助于alloc_pages_node
__get_free_pages函數(shù)的定義在mm/page_alloc.c?v=4.7, line 3883
// http://lxr.free-electrons.com/source/mm/page_alloc.c?v=4.7#L3883
unsigned long __get_free_pages(gfp_t gfp_mask, unsigned int order)
{
struct page *page;
/*
* __get_free_pages() returns a 32-bit address, which cannot represent
* a highmem page
*/
VM_BUG_ON((gfp_mask & __GFP_HIGHMEM) != 0);
page = alloc_pages(gfp_mask, order);
if (!page)
return 0;
return (unsigned long) page_address(page);
}
EXPORT_SYMBOL(__get_free_pages);
在這種情況下, 使用了一個普通函數(shù)而不是宏, 因為alloc_pages返回的page實例需要使用輔助
函數(shù)page_address轉(zhuǎn)換為內(nèi)存地址. 在這里,只要知道該函數(shù)可根據(jù)page實例計算相關頁的線性內(nèi)存地址即可. 對高端內(nèi)存頁這是有問題的
這樣, 就完成了所有分配內(nèi)存的API函數(shù)到公共的基礎函數(shù)alloc_pages的統(tǒng)一
?
?
?
?
所有體系結構都必須實現(xiàn)的標準函數(shù)clear_page, 可幫助alloc_pages對頁填充字節(jié)0, 實現(xiàn)如下表所示
?
alloc_pages函數(shù)分配頁
既然所有的內(nèi)存分配API函數(shù)都可以追溯掉alloc_page函數(shù), 從某種意義上說,該函數(shù)是伙伴系統(tǒng)主要實現(xiàn)的”發(fā)射臺”.
alloc_pages函數(shù)的定義是依賴于NUMA或者UMA架構的, 定義如下
#ifdef CONFIG_NUMA
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7#L465
static inline struct page *
alloc_pages(gfp_t gfp_mask, unsigned int order)
{
return alloc_pages_current(gfp_mask, order);
}
#else
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7#L476
#define alloc_pages(gfp_mask, order) \
alloc_pages_node(numa_node_id(), gfp_mask, order)
#endif
UMA結構下的alloc_pages是通過alloc_pages_node函數(shù)實現(xiàn)的, 下面我們看看alloc_pages_node函數(shù)的定義, 在include/linux/gfp.h?v=4.7, line 448
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7#L448
/*
* Allocate pages, preferring the node given as nid. When nid == NUMA_NO_NODE,
* prefer the current CPU's closest node. Otherwise node must be valid and
* online.
*/
static inline struct page *alloc_pages_node(int nid, gfp_t gfp_mask,
unsigned int order)
{
if (nid == NUMA_NO_NODE)
nid = numa_mem_id();
return __alloc_pages_node(nid, gfp_mask, order);
}
內(nèi)核假定傳遞給改alloc_pages_node函數(shù)的結點nid是被激活, 即online的.但是為了安全它還是檢查并警告內(nèi)存結點不存在的情況. 接下來的工作委托給__alloc_pages, 只需傳遞一組適當?shù)膮?shù), 其中包括節(jié)點nid的備用內(nèi)存域列表zonelist.
現(xiàn)在__alloc_pages函數(shù)沒什么特別的, 它直接將自己的所有信息傳遞給__alloc_pages_nodemask來完成內(nèi)存的分配
// http://lxr.free-electrons.com/source/include/linux/gfp.h?v=4.7#L428
static inline struct page *
__alloc_pages(gfp_t gfp_mask, unsigned int order,
struct zonelist *zonelist)
{
return __alloc_pages_nodemask(gfp_mask, order, zonelist, NULL);
}
伙伴系統(tǒng)的心臟__alloc_pages_nodemask
內(nèi)核源代碼將__alloc_pages稱之為”伙伴系統(tǒng)的心臟”(`the ‘heart’ of the zoned buddy allocator“), 因為它處理的是實質(zhì)性的內(nèi)存分配.
由于”心臟”的重要性, 我將在下文詳細介紹該函數(shù).
__alloc_pages函數(shù)定義在include/linux/gfp.h?v=4.7#L428
// http://lxr.free-electrons.com/source/mm/page_alloc.c?v=4.7#L3779
/*
* This is the 'heart' of the zoned buddy allocator.
*/
struct page *
__alloc_pages_nodemask(gfp_t gfp_mask, unsigned int order,
struct zonelist *zonelist, nodemask_t *nodemask)
{
struct page *page;
unsigned int cpuset_mems_cookie;
unsigned int alloc_flags = ALLOC_WMARK_LOW|ALLOC_FAIR;
gfp_t alloc_mask = gfp_mask; /* The gfp_t that was actually used for allocation */
struct alloc_context ac = {
.high_zoneidx = gfp_zone(gfp_mask),
.zonelist = zonelist,
.nodemask = nodemask,
.migratetype = gfpflags_to_migratetype(gfp_mask),
};
if (cpusets_enabled()) {
alloc_mask |= __GFP_HARDWALL;
alloc_flags |= ALLOC_CPUSET;
if (!ac.nodemask)
ac.nodemask = &cpuset_current_mems_allowed;
}
gfp_mask &= gfp_allowed_mask;
lockdep_trace_alloc(gfp_mask);
might_sleep_if(gfp_mask & __GFP_DIRECT_RECLAIM);
if (should_fail_alloc_page(gfp_mask, order))
return NULL;
/*
* Check the zones suitable for the gfp_mask contain at least one
* valid zone. It's possible to have an empty zonelist as a result
* of __GFP_THISNODE and a memoryless node
*/
if (unlikely(!zonelist->_zonerefs->zone))
return NULL;
if (IS_ENABLED(CONFIG_CMA) && ac.migratetype == MIGRATE_MOVABLE)
alloc_flags |= ALLOC_CMA;
retry_cpuset:
cpuset_mems_cookie = read_mems_allowed_begin();
/* Dirty zone balancing only done in the fast path */
ac.spread_dirty_pages = (gfp_mask & __GFP_WRITE);
/*
* The preferred zone is used for statistics but crucially it is
* also used as the starting point for the zonelist iterator. It
* may get reset for allocations that ignore memory policies.
*/
ac.preferred_zoneref = first_zones_zonelist(ac.zonelist,
ac.high_zoneidx, ac.nodemask);
if (!ac.preferred_zoneref) {
page = NULL;
goto no_zone;
}
/* First allocation attempt */
page = get_page_from_freelist(alloc_mask, order, alloc_flags, &ac);
if (likely(page))
goto out;
/*
* Runtime PM, block IO and its error handling path can deadlock
* because I/O on the device might not complete.
*/
alloc_mask = memalloc_noio_flags(gfp_mask);
ac.spread_dirty_pages = false;
/*
* Restore the original nodemask if it was potentially replaced with
* &cpuset_current_mems_allowed to optimize the fast-path attempt.
*/
if (cpusets_enabled())
ac.nodemask = nodemask;
page = __alloc_pages_slowpath(alloc_mask, order, &ac);
no_zone:
/*
* When updating a task's mems_allowed, it is possible to race with
* parallel threads in such a way that an allocation can fail while
* the mask is being updated. If a page allocation is about to fail,
* check if the cpuset changed during allocation and if so, retry.
*/
if (unlikely(!page && read_mems_allowed_retry(cpuset_mems_cookie))) {
alloc_mask = gfp_mask;
goto retry_cpuset;
}
out:
if (kmemcheck_enabled && page)
kmemcheck_pagealloc_alloc(page, order, gfp_mask);
trace_mm_page_alloc(page, order, alloc_mask, ac.migratetype);
return page;
}
EXPORT_SYMBOL(__alloc_pages_nodemask);
__free_pages
類似地,內(nèi)存釋放函數(shù)也可以歸約到一個主要的函數(shù)(__free_pages), 只是用不同的參數(shù)調(diào)用而已
前面我們講過內(nèi)核釋放的兩個主要函數(shù)有__free_page和free_page,
void free_pages(unsigned long addr, unsigned int order)
{
if (addr != 0) {
VM_BUG_ON(!virt_addr_valid((void *)addr));
__free_pages(virt_to_page((void *)addr), order);
}
}
free_pages和__free_pages之間的關系通過函數(shù)而不是宏建立, 因為首先必須將虛擬地址轉(zhuǎn)換為指向struct page的指針
virt_to_page將虛擬內(nèi)存地址轉(zhuǎn)換為指向page實例的指針. 基本上, 這是講解內(nèi)存分配函數(shù)時介紹的page_address輔助函數(shù)的逆過程.
下圖以圖形化方式綜述了各個內(nèi)存釋放函數(shù)之間的關系
?
?
審核編輯:湯梓紅
?
評論
查看更多