内存cgroup

内存cgroup的值都是从哪里来的呀

page_counter_charge是增加page_counter的计数,

try_charge函数和mem_cgroup_migrate函数是增加普通进程内存统计的重要方法;

try_charge<---mem_cgroup_try_charge<----

然后在许多缺页中断的路径上会会增加这个计数值

/proc/<pid>/status 中包含的值包括

VmSize中包含一个进程的信息,这个信息怎么和cgroup相关联呢?

------------2017.10.29----------------

//  一个进程的内存包括RSS等信息,这个信息的相关设置位于是在/fs/proc/中,不是kernel也不是mm

hiwater_rss = total_rss = anon + file + shmem;

代码中是如何设置的VmRSS值的?就是上面的公式,其中

  29     anon = get_mm_counter(mm, MM_ANONPAGES);
  30     file = get_mm_counter(mm, MM_FILEPAGES);
  31     shmem = get_mm_counter(mm, MM_SHMEMPAGES);

其中就包括我一个程序包含的匿名页,那么这几个值都是从哪里来的呢?

在3.10的内核里,这个值只会包含MM_ANONPAGES和 MM_FILEPAGES两个数值,不包括 MM_SHMEMPAGES

那这俩值都是怎么设置的捏?为什么MM_ANONPAGES的值不是实时更新的呀?

就是不是实时更新,也应该是走在前面的我理解,但是现在更新却是极度的慢,我理解是每一次都会有一次缺页的呀。这一个要怎么解释咧?

为什么都是阶跃式的呢?是因为用户态页表一次就映射一个page吗?还是说每次会增加一个大页?

为啥一次就出现一次缺页中断:这个值是咋更新的嘛

VmData: 是实际虚拟内存空间增长的值,

并且mmap和malloc的行为也不是一样的,当使用mmap去映射内存时,VmData值一直是增长的; 但是使用malloc去映射内存时,VmData值却是一直不变的,oh my gosh,颠覆三观

mmap是从虚拟地址空间,自高向低分配空间;

malloc是从虚拟地址空间开始,自低向高分配空间;

在调用mmap和munmap的过程中VmData是实时更新的。。。。但是使用malloc就没有这个规律[并且好像其他的值也没有变化]

为啥没有发生缺页呢?

关键函数是:mm_

add_mm_counter_fast

 这个函数中并没有及时地把进程的匿名页的数据实时更新到: mm_struct -> mm_rss_stat -->count[NR_MM_COUNTERS]  MM_FILEPAGES / MM_ANONPAGES / MM_SWAPIN_PAGES

34e55232e59f7b19050267a05ff1226e5cd122a5 

 上面这个patch中解释了这个问题,为了解决多线程的问题,每次更新都是在线程内不更新,不去动全局的mm_struct,所以通过mm_struct的统计量,可能会有64*4k=256k的误差。[那这里就哟一个疑问了,如果一个进程创建了1000个线程,每个线程都malloc了32*4k的内存,那么会导致32*1000*4k没有被统计在/proc/VmRSS计数里么 128M都没有被统计在里面?是这样的

原文地址:https://www.cnblogs.com/honpey/p/7748091.html