ETJava Beta | Java    注册   登录
  • 搜索:
  • [rCore学习笔记 029] 动态内存分配器实现-以buddy_system_allocator源码为例

    发表于      阅读(1)     博客类别:Crawler     转自:https://www.cnblogs.com/chenhan-winddevil/p/18447537
    如有侵权 请联系我们删除  (页面底部联系我们)  

    在上一部分,我们讲了动态内存分配器的原理是维护一个堆,而且是实现各种连续内存分配方法.
    但是上一部分是直接通过引用了buddy_system_allocator来解决的问题.
    那么对于内存分配算法有兴趣的我,还是决定看一下源码,总之人是咸鱼但是还是需要有梦想.
    人生这么不顺,若是连梦想都没有了,可能当即就找不到活着的意义了吧.

    获取buddy_system_allocator的源码

    buddy_system_allocator也是rCore这个社区的项目.

    cd ~/workspace
    git clone https://github.com/rcore-os/buddy_system_allocator.git
    

    从实用的角度开始看源码

    为了起一个好头,还是从比较熟悉的部分看代码,思考代码是怎么组织的:

    1. buddy_system_allocator是怎么作为一个外部包被引用的?
    2. 上一部分我们调用了LockedHeap,那么这个类是怎么实现的,它依赖于什么?

    LockedHeap

    我们在源码中搜索LockedHeap,我们可以在lib.rs里找到它的实现.

    pub struct LockedHeap<const ORDER: usize>(Mutex<Heap<ORDER>>);
    

    在看到这个定义的时候有一种似懂非懂的感觉,只能猜到LockedHeap是一个加了线程锁的大小为ORDERHeap:

    1. 因为ORDER放在了<>中间,应该是和泛型有关系,但是这里又明确标注了usize说明ORDER是一个变量.
    2. 因为在结构体的实现中出现了()有点不知所云

    元组结构体

    查看Rust圣经,发现确实存在这种字段可以没名称的结构体.

    这里又产生了一个新的疑问,如果字段可以没名称,那么怎么去访问结构体内容呢?

    查阅Rust语言官方参考手册,可以看到:

    Tuple structs are similar to regular structs, but its fields have no names. They are used like tuples, with deconstruction possible via let TupleStruct(x, y) = foo; syntax. For accessing individual variables, the same syntax is used as with regular tuples, namely foo.0foo.1, etc, starting at zero.

    通过数字来访问这些结构体内容.

    // 假如存在TupleStruct这个结构体
    
    let foo = TupleStruct(1,2);
    
    // 可以通过这种方法来进行析构
    
    let TupleStruct(x, y) = foo;
    
    // 可以用数字访问
    let x = foo.0;
    let y = foo.1;
    

    值泛型

    那么这里就需要查看参考书目-值泛型的内容尤其是它的示例.

    最终得到结论:Rust是允许使用值的泛型的,这代表LockedHeap有一个和值相关的泛型参数.

    在某些时候是很像C里边的#define ORDER 0x30000的.
    但是事实上在Rust里是灵活了非常多的.

    这和LockedHeap提供的两种获取示例的方法是相对应的:

    impl<const ORDER: usize> LockedHeap<ORDER> {
        /// Creates an empty heap
        pub const fn new() -> Self {
            LockedHeap(Mutex::new(Heap::<ORDER>::new()))
        }
    
        /// Creates an empty heap
        pub const fn empty() -> Self {
            LockedHeap(Mutex::new(Heap::<ORDER>::new()))
        }
    }
    

    单看这里还看不出来,因为还套了一层Heap,要看Heap的获取实例的方法.

    加互斥锁

    理解了上边的语法,只需要理解GlobalAlloc这个trait对于LockedHeap的实现:

    #[cfg(feature = "use_spin")]
    unsafe impl<const ORDER: usize> GlobalAlloc for LockedHeap<ORDER> {
        unsafe fn alloc(&self, layout: Layout) -> *mut u8 {
            self.0
                .lock()
                .alloc(layout)
                .ok()
                .map_or(core::ptr::null_mut(), |allocation| allocation.as_ptr())
        }
    
        unsafe fn dealloc(&self, ptr: *mut u8, layout: Layout) {
            self.0.lock().dealloc(NonNull::new_unchecked(ptr), layout)
        }
    }
    

    实际上就是在Heap外边加了一个Mutex互斥锁,那么对于allocdealloc的实现,只需要经过互斥锁访问里边的Heap,然后访问Heapallocdealloc方法.

    Heap

    定义

    Heap实际上由一个长度为ORDERlistuser,allocatedtotal几个值组成.

    pub struct Heap<const ORDER: usize> {
        // buddy system with max order of `ORDER - 1`
        free_list: [linked_list::LinkedList; ORDER],
    
        // statistics
        user: usize,
        allocated: usize,
        total: usize,
    }
    

    那么ORDER实际上就是const 值泛型了.

    为什么在代码里不需要指定ORDER的值?
    因为我们设置的包的版本为0.6,这个版本的包没用加入泛型参数,而是固定链表长度为32.

    获取实例

    查看Heapnewempty方法:

    impl<const ORDER: usize> Heap<ORDER> {
        /// Create an empty heap
        pub const fn new() -> Self {
            Heap {
                free_list: [linked_list::LinkedList::new(); ORDER],
                user: 0,
                allocated: 0,
                total: 0,
            }
        }
    
        /// Create an empty heap
        pub const fn empty() -> Self {
            Self::new()
        }
    }
    

    这里注意list是一个LinkedList类型,是一个链表.

    设置堆范围

    记得上一篇博客内容,我们是使用如下代码初始化的:

    /// Initialize heap allocator
    pub fn init_heap() {
        unsafe {
            HEAP_ALLOCATOR
                .lock()
                .init(HEAP_SPACE.as_ptr() as usize, KERNEL_HEAP_SIZE);
        }
    }
    

    这里且不说HEAP_ALLOCATOR.lock()是怎么获取到Heap实例的.这里这句init确实是调用的Heapinit.

    接下来我们看它的实现.

    impl<const ORDER: usize> Heap<ORDER> {
    	... ...
        /// Add a range of memory [start, end) to the heap
        pub unsafe fn add_to_heap(&mut self, mut start: usize, mut end: usize) {
            // avoid unaligned access on some platforms
            start = (start + size_of::<usize>() - 1) & (!size_of::<usize>() + 1);
            end &= !size_of::<usize>() + 1;
            assert!(start <= end);
    
            let mut total = 0;
            let mut current_start = start;
    
            while current_start + size_of::<usize>() <= end {
                let lowbit = current_start & (!current_start + 1);
                let mut size = min(lowbit, prev_power_of_two(end - current_start));
                
                // If the order of size is larger than the max order,
                // split it into smaller blocks.
                let mut order = size.trailing_zeros() as usize;
                if order > ORDER - 1 {
                    order = ORDER - 1;
                    size = 1 << order;
                }
                total += size;
    
                self.free_list[order].push(current_start as *mut usize);
                current_start += size;
            }
    
            self.total += total;
        }
    
        /// Add a range of memory [start, start+size) to the heap
        pub unsafe fn init(&mut self, start: usize, size: usize) {
            self.add_to_heap(start, start + size);
        }
    }
    

    init是调用的add_to_heap,输入的是堆需要管理内存的初始地址和空间大小.

    主要是add_to_heap中精妙的算法.

    地址对齐算法

    对于首地址,要保证start的值是与usize的大小对齐的.

    这里首先要声明,所有的变量大小都是\(2^n\).那么它的二进制实际上是某一位是1其余位都是0的.

    start = (start + size_of::<usize>() - 1) & (!size_of::<usize>() + 1);
    

    Rust里!是按位取反,和C里边!是逻辑非~才是按位取反不同.

    这里用的公式实际上是$$aligned_addr = (addr + align - 1) & (!align + 1)$$
    这里直接举例说明.

    本身不对齐的addr:

    \(addr=15,align=2\)
    \(addr=b'0\_1111\)
    \(addr+align-1=b'1\_0000\)
    \(align=b'0\_0010\)
    \(!align=b'1\_1101\)
    \(!align+1=b'1\_1110\)
    \(aligned\_addr=b'1\_0000\)
    最终得到的结果aligned_addr是16

    本身已经对齐的addr:

    \(addr=16,align=2\)
    \(addr=b'1\_0000\)
    \(addr+align-1=b'1\_0001\)
    \(align=b'0\_0010\)
    \(!align=b'1\_1101\)
    \(!align+1=b'1\_1110\)
    \(aligned\_addr=b'1\_0000\)
    最终得到的结果aligned_addr是16

    align\(2^n\)addr + align - 1保证了如果低n位只要不是全0就都会向n + 1位进1,而右边!(align-1),减1后按位取反,再做运算保证低n位为0,这样就完成了对齐,且如果不是对齐的向上取整.

    同样地,对于尾地址:

    end &= !size_of::<usize>() + 1;
    

    也写成公式表达:$$addr_aligned=addr&(!align+1)$$

    这样就很好理解,保证低n位是0,这样也是一个对齐的地址,但是向下取整.

    这样首地址向上取整,尾地址向下取整,就可以保证操作的地址是原地址的子集,不会出现越界.

    #todo 这里可能需要画张图.

    最后通过:

    assert!(start <= end);
    

    保证地址有效.

    地址录入堆的算法

    计算地址的对齐要求

    根据起始地址计算地址要求是几字节对齐的,就是计算地址的最低有效位.

    计算地址最低一位的1对应的值:

    公式:$$lowbit=num&(!num+1)$$

    例子:

    \(num=10\)
    \(num=b'1010\)
    \(!num=b'0101\)
    \(!num+1=b'0110\)
    \(num\&(!num+1)=b'0010\)
    \(lowbit=b'0010=2\)

    num取反,那么最低位1变成0,其余的0都变成1,那么!num+1一定会使得最低位1变成1,其余位变回0,这样在与num自身求与,最终得到的就是只有最低位1的一个数.

    计算剩余空间中能容纳的2的幂的大小

    先说计算小于或等于给定数 num 的最大 2 的幂:

    pub(crate) fn prev_power_of_two(num: usize) -> usize {
        1 << (usize::BITS as usize - num.leading_zeros() as usize - 1)
    }
    

    usize::BITSusize的位数,num.leading_zeros()最高一位1之前的0的个数.

    那么求usize::BITS as usize - num.leading_zeros() as usize - 1就是第一个1以后的位数.

    那么很容易明白最后求出来的就是小于或等于给定数 num 的最大 2 的幂.

    计算块大小

    比较地址最低一位的1对应的值小于或等于地址区间长度的最大2的幂的大小,选择比较小的那一个.

    这样理解,

    1. 正常情况下,最小的块大小应该是符合地址对齐的.
    2. 但是可能剩下的空间不足以存下这样的块,这时候就按照剩余空间中能容纳的最小\(2^n\)的大小决定块的大小.
    判断块大小和最大阶

    计算当前阶数,size后有几个0就是几阶.

    如果阶数大于最大阶,那么就把块分半,降一阶.

    GPT:
    Buddy System 算法有一个最大阶的概念。最大阶限制了单个块的最大大小。

    1. 内存碎片管理:通过限制块的大小,可以更好地管理内存碎片。如果块太大,可能会导致内存碎片问题,因为大块可能无法被较小的请求完全利用。
    2. 性能优化:较小的块更容易管理和分配,可以提高内存分配和释放的效率。
    累积当前分好的块的大小

    使用total计算此时使用的块的大小.

    将块起始地址根据阶数存储在对应阶数的可用空间列表中

    每个可用空间列表的每个元素一个链表,链表保存当前阶数的起始地址.

    也就是同样大小的块的指针存在一个链表中.

    self.free_list[order].push(current_start as *mut usize);
    
    移动起始地址指针

    移动起始地址指针,使得下一轮继续分配.

    current_start += size;
    
    总结

    可以看到是先将可分配内存的地址对齐,从startend,尽量把空间分为更大的\(2^n\)的块,而不浪费空间,并且用链表存储起来.

    具体怎么回事呢.

    这里以最小对齐单元为8=b1000=0x0008为例.

    例子一

    比如你的地址是(0x0100,0x0120),那么经过对齐之后(0x0100,0x0120):

    这里注意0x0120-0x0100=32,因此直接分配一个大小为32的块.

    例子二

    比如你的地址是(0x0001,0x0021),那么经过对齐之后是(0x0008,0x0021):

    为了物尽其用,每次去对齐最低位.

    到了最后,可能剩余的内存不足以满足对齐最低位了,这时候因为我们的地址是对齐过的,因此剩余的内存大小也是满足\(2^n\)的,直接把剩余内存存成一个块.

    如果可分配的内存超过可用空间列表存储阶数,那么就分解,一直到能分配的最大块储存.

    分配内存

    分配内存的代码如下:

        pub fn alloc(&mut self, layout: Layout) -> Result<NonNull<u8>, ()> {
            let size = max(
                layout.size().next_power_of_two(),
                max(layout.align(), size_of::<usize>()),
            );
            let class = size.trailing_zeros() as usize;
            for i in class..self.free_list.len() {
                // Find the first non-empty size class
                if !self.free_list[i].is_empty() {
                    // Split buffers
                    for j in (class + 1..i + 1).rev() {
                        if let Some(block) = self.free_list[j].pop() {
                            unsafe {
                                self.free_list[j - 1]
                                    .push((block as usize + (1 << (j - 1))) as *mut usize);
                                self.free_list[j - 1].push(block);
                            }
                        } else {
                            return Err(());
                        }
                    }
    
                    let result = NonNull::new(
                        self.free_list[class]
                            .pop()
                            .expect("current block should have free space now")
                            as *mut u8,
                    );
                    if let Some(result) = result {
                        self.user += layout.size();
                        self.allocated += size;
                        return Ok(result);
                    } else {
                        return Err(());
                    }
                }
            }
            Err(())
        }
    
    

    首先,传入的参数layout是一个结构体或者一个基本数据类型.

    1. 计算大于这个基本数据类型大小的\(2^n\).
    2. 计算这个基本数据类型的对齐大小.
    3. 计算usize的大小.

    比较这三个大小,选择其中最大的作为size.

    最后取sizeorder阶数为class,也就是实际上只找比class大的order对应链表中的未分配的块.

    从最小---也就是最符合size大小的对应链表找起,如果是非空的就调出来.

    此时匹配的orderi.

    (class + 1..i + 1).rev()是非常巧妙的设计,从class+1i+1,并且翻转.

    每次pop一个块,并且把这个块分成两个块,计算两个块的首地址,然后存进下一级的块.

    一直到符合大小块的class.

    最后只需要把当前class对应链表的第一个块pop出来即可,这就是答案.

    销毁内存

    销毁内存的方法为:

    pub fn dealloc(&mut self, ptr: NonNull<u8>, layout: Layout) {
            let size = max(
                layout.size().next_power_of_two(),
                max(layout.align(), size_of::<usize>()),
            );
            let class = size.trailing_zeros() as usize;
    
            unsafe {
                // Put back into free list
                self.free_list[class].push(ptr.as_ptr() as *mut usize);
    
                // Merge free buddy lists
                let mut current_ptr = ptr.as_ptr() as usize;
                let mut current_class = class;
    
                while current_class < self.free_list.len() - 1 {
                    let buddy = current_ptr ^ (1 << current_class);
                    let mut flag = false;
                    for block in self.free_list[current_class].iter_mut() {
                        if block.value() as usize == buddy {
                            block.pop();
                            flag = true;
                            break;
                        }
                    }
    
                    // Free buddy found
                    if flag {
                        self.free_list[current_class].pop();
                        current_ptr = min(current_ptr, buddy);
                        current_class += 1;
                        self.free_list[current_class].push(current_ptr as *mut usize);
                    } else {
                        break;
                    }
                }
            }
    
            self.user -= layout.size();
            self.allocated -= size;
        }
    

    首先,传入的参数ptr是一个结构体或者一个基本数据类型的指针.

    1. 计算大于这个基本数据类型大小的\(2^n\).
    2. 计算这个基本数据类型的对齐大小.
    3. 计算usize的大小.

    比较这三个大小,选择其中最大的作为size.

    最后取sizeorder阶数为class,也就是实际上只找比class大的order对应链表中的未分配的块.

    ptr存入可用空间列表free_list里边.

    但是只是简单地存入,会导致空间越来越碎片化,这样后续申请大的内存块就无法提供.

    这里有个非常核心的算法,也就是为啥这个算法叫buddy system.

    let buddy = current_ptr ^ (1 << current_class);
    

    是通过这种方法计算当前内存块的buddy.

    1<<current_class是求出一个二进制只有一个位是1值.

    随后current_ptr与它求异或,那么最后实际上求出的是对current_ptrclass那一位的翻转的结果.

    假如是current_ptr000110100100 :

    • 000110100100 (current_ptr
    • 000000000100 (掩码)
    • 000110100000 (异或结果)

    那么,实际上这两个地址是相邻的两个同大小的块.

    如果在这个class对应的链表中找到这个地址开始的块,那么合并这两个块,然后找两个地址较小的,实际上是地址在前半边的,然后存入order大一级的链表中.

    Buddy System内存分配算法

    看完代码感觉心里有底了,但是还是乱糟糟的,还是需要系统性地捋清一下算法.

    实际上理论部分就是躲不过嘛,不好好搞要吃大亏!

    这里通过使用指定filetype的方法找到了很好的资料.

    链表

    Rust刚接触的时候就听说链表难写,我看了仓库中链表相关的算法确实可以看懂,但是看懂和能够自己写出来是两码事.

    要弄清楚三件事:

    1. 使用了rust的那些特性
    2. 为什么要用到这些特性
    3. 为什么要用unsafe

    #TODO后续可能出一个自写rust链表的练习帖子.

    总结

    做事不要太工程化,尤其是自学的过程中,要注重基础注重能力的培养,自我培养的过程中要注意基础,要把能跑就行这种思想赶出脑子.

    如果自学的时候还是能跑就行,那为什么还要自学呢?又没人给我发工资.