mm2
libc, slab, buddy
在内核空间中,Buddy是对物理内存进行管理,以page为单位(在32位CPU中,one page = 4KB),分配的粒度太大,我们经常需要分配小内存(16B,32B...),所以出现slab。
在用户空间中,应用程序也是经常需要分配小内存,也无法直接通过Buddy分配,所以出现libc
libc, slab, buddy关系如下:
也可以通过如下命令,查看slab分配的情况:
slab工作原理:
如kmalloc-16,从Buddy中分配一页4KB,然后将一页等额分配(如 16B),当需要16B时,就从此页中分配,直到此页被分配完后,再重新分配新一页4KB。
如task_struct,经常分配/释放的结构性变量,也可以通过slab分配,从而达到缓存目的。
libc工作原理:
在应用程序调用malloc()分配内存时,是通过libc的brk()/mmap()来调用buddy进行分配一页4KB,进行分配内存。
需要注意是 malloc()执行返回时,只是在虚拟内存0GB~3GB中申请到一个vma,映射在buddy zero page,还没有分配实际内存,只有进行写操作时,才分配一个实际内存,指向新buddy page。
可以通过mallopt(M_TRIM_THRESHOLD, -1UL)
,执行free()后内存不释放
kmalloc vs vmalloc/ioremap
上电时,将低端内存一一映射到3GB~xGB,kmalloc()返回的虚拟地址在3GB~xGB区域
vmalloc()返回的虚拟地址在xGB~4GB区域,申请内存时映射在高端内存,也可以映射在低端内存
ioremap()返回的虚拟地址在xGB~4GB区域,映射在寄存器区域
malloc: VSS vs RSS
VSS通过malloc()指定分配的内存大小
RSS实际分配的内存大小
内存耗尽OOM
原理:
当内存耗尽OOM时,根据oom_score的值,将最大om_score对应的进程kill。
测试前提:
总内存1G
$ swapoff -a
$ echo 1 > /proc/sys/vm/overcommit_memory
测试源码:
oom打分因子:
mm/oom_kill.c中的badness()给每一个进程一个oom score
通过oom_adj调整进程的oom_score:
Last updated
Was this helpful?