mm2

libc, slab, buddy

在内核空间中,Buddy是对物理内存进行管理,以page为单位(在32位CPU中,one page = 4KB),分配的粒度太大,我们经常需要分配小内存(16B,32B...),所以出现slab。

在用户空间中,应用程序也是经常需要分配小内存,也无法直接通过Buddy分配,所以出现libc

libc, slab, buddy关系如下:

malloc()    free()
    \         /                                         用户空间
       libc
        |
        | brk()/mmap()
-----------------------------------------------------------------
        |                      kmalloc()    kfree()
        |                         \           /
        |                             slab               内核空间
        |                              |  
                       buddy

也可以通过如下命令,查看slab分配的情况:

$ cat /proc/slabinfo
or
$ slabtop

slab工作原理:

如kmalloc-16,从Buddy中分配一页4KB,然后将一页等额分配(如 16B),当需要16B时,就从此页中分配,直到此页被分配完后,再重新分配新一页4KB。

如task_struct,经常分配/释放的结构性变量,也可以通过slab分配,从而达到缓存目的。

libc工作原理:

在应用程序调用malloc()分配内存时,是通过libc的brk()/mmap()来调用buddy进行分配一页4KB,进行分配内存。

需要注意是 malloc()执行返回时,只是在虚拟内存0GB~3GB中申请到一个vma,映射在buddy zero page,还没有分配实际内存,只有进行写操作时,才分配一个实际内存,指向新buddy page。

可以通过mallopt(M_TRIM_THRESHOLD, -1UL),执行free()后内存不释放

#include <malloc.h>
#include <sys/mman.h>

#define SOMESIZE (100*1024*1024)    // 100MB

int main(int argc, char *argv[])
{
    unsigned char *buffer;
    int i;

    if (!mlockall(MCL_CURRENT | MCL_FUTURE))
        mallopt(M_TRIM_THRESHOLD, -1UL);
    mallopt(M_MMAP_MAX, 0);

    buffer = malloc(SOMESIZE);
    if (!buffer)
        exit(-1);

    /* 
     * Touch each page in this piece of memory to get it
     * mapped into RAM
     */
    for (i = 0; i < SOMESIZE; i += 4 * 1024)
        buffer[i] = 0;
    free(buffer);
    /* <do your RT-thing> */

    while(1);
    return 0;
}

kmalloc vs vmalloc/ioremap

  • 上电时,将低端内存一一映射到3GB~xGB,kmalloc()返回的虚拟地址在3GB~xGB区域

  • vmalloc()返回的虚拟地址在xGB~4GB区域,申请内存时映射在高端内存,也可以映射在低端内存

  • ioremap()返回的虚拟地址在xGB~4GB区域,映射在寄存器区域

$ cat /proc/vmallocinfo                # vmalloc/ioremap映射情况

malloc: VSS vs RSS

VSS通过malloc()指定分配的内存大小

RSS实际分配的内存大小

内存耗尽OOM

原理:

当内存耗尽OOM时,根据oom_score的值,将最大om_score对应的进程kill。

测试前提:

  1. 总内存1G

  2. $ swapoff -a

  3. $ echo 1 > /proc/sys/vm/overcommit_memory

测试源码:

$ cat oom.c
#include <stdlib.h>
#include <stdio.h>
#include <string.h>

int main(int argc, char **argv)
{
    int max = -1;
    int mb = 0;
    char *buffer;
    int i;
#define SIZE 2000
    unsigned int *p = malloc(1024 * 1024 * SIZE);

    printf("malloc buffer: %p\n", p);

    for (i = 0; i < 1024 * 1024 * (SIZE/sizeof(int)); i++) {
        p[i] = 123;
        if ((i & 0xFFFFF) == 0) {
            printf("%dMB written\n", i >> 18);
            usleep(100000);
        }
    }
    pause();
    return 0;
}
$ gcc oom.c
$ ./a.out
$ dmesg  ## 获得kernel的oom消息

oom打分因子:

mm/oom_kill.c中的badness()给每一个进程一个oom score

通过oom_adj调整进程的oom_score:

$ cd /proc/xxx/
$ cat oom_score
144
$ echo 3 > oom_adj ## 范围:-17~15,oom_adj越大,oom_score越大
$ cat oom_score
262

Last updated

Was this helpful?