Linux了解进程的地址空间

供Linux了解虚拟内存,非常好的引导了。原文链接:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=26683523&id=3201345

《Linux内核设计与实现》15章节给出的样例更具体些。

**************************************************************************

先介绍Linux进程地址空间的数据结构更方便理解,再用列子展开细说。

感谢http://www.cnblogs.com/wang_yb/p/3351599.html的无私分享。

**************************************************************************

1. 地址空间(mm_struct)

地址空间就是每一个进程所能訪问的内存地址范围。

这个地址范围不是真实的。是虚拟地址的范围。有时甚至会超过实际物理内存的大小。

 

现代的操作系统中进程都是在保护模式下执行的,地址空间事实上是操作系统给进程用的一段连续的虚拟内存空间。

地址空间终于会通过页表映射到物理内存上,由于内核操作的是物理内存。

 

尽管地址空间的范围非常大,可是进程也不一定有权限訪问所有的地址空间(一般都是仅仅能訪问地址空间中的一些地址区间),

进程可以訪问的那些地址区间也称为 内存区域。

进程假设訪问了有效内存区域以外的内容就会报 “段错误” 信息。

 

内存区域中主要包括下面信息:

  • - 代码段(text section),就可以运行文件代码的内存映射
  • - 数据段(data section)。就可以运行文件的已初始化全局变量的内存映射
  • - bss段的零页(页面信息全是0值)。即未初始化全局变量的内存映射
  • - 进程用户空间栈的零页内存映射
  • - 进程使用的C库或者动态链接库等共享库的代码段,数据段和bss段的内存映射
  • - 不论什么内存映射文件
  • - 不论什么共享内存段
  • - 不论什么匿名内存映射。比方由 malloc() 分配的内存

bss是 block started by symbol 的缩写。

 

linux中内存相关的概念略微整理了一下,供參考:

英文

含义

SIZE 进程映射的内存大小,这不是进程实际使用的内存大小
RSS(Resident set size) 实际驻留在“内存”中的内存大小。不包括已经交换出去的内存
SHARE RSS中与其它进程共享的内存大小
VMSIZE 进程占用的总地址空间,包括没有映射到内存中的页
Private RSS 仅由进程单独占用的RSS,也就是进程实际占用的内存

 

1.1 mm_struct介绍

linux中的地址空间是用 mm_struct 来表示的。

以下对当中一些关键的属性进行了凝视,有些属性我也不是非常了解......

复制代码
struct mm_struct {
    struct vm_area_struct * mmap;        /* [内存区域]链表 */
    struct rb_root mm_rb;               /* [内存区域]红黑树 */
    struct vm_area_struct * mmap_cache;    /* 近期一次訪问的[内存区域] */
    unsigned long (*get_unmapped_area) (struct file *filp,
                unsigned long addr, unsigned long len,
                unsigned long pgoff, unsigned long flags);  /* 获取指定区间内一个还未映射的地址。出错时返回错误码 */
    void (*unmap_area) (struct mm_struct *mm, unsigned long addr);  /* 取消地址 addr 的映射 */
    unsigned long mmap_base;        /* 地址空间中能够用来映射的首地址 */
    unsigned long task_size;        /* 进程的虚拟地址空间大小 */
    unsigned long cached_hole_size;     /* 假设不空的话,就是 free_area_cache 后最大的空洞 */
    unsigned long free_area_cache;        /* 地址空间的第一个空洞 */
    pgd_t * pgd;                        /* 页全局文件夹 */
    atomic_t mm_users;            /* 使用地址空间的用户数 */
    atomic_t mm_count;            /* 实际使用地址空间的计数, (users count as 1) */
    int map_count;                /* [内存区域]个数 */
    struct rw_semaphore mmap_sem;   /* 内存区域信号量 */
    spinlock_t page_table_lock;        /* 页表锁 */

    struct list_head mmlist;        /* 全部地址空间形成的链表 */

    /* Special counters, in some configurations protected by the
     * page_table_lock, in other configurations by being atomic.
     */
    mm_counter_t _file_rss;
    mm_counter_t _anon_rss;

    unsigned long hiwater_rss;    /* High-watermark of RSS usage */
    unsigned long hiwater_vm;    /* High-water virtual memory usage */

    unsigned long total_vm, locked_vm, shared_vm, exec_vm;
    unsigned long stack_vm, reserved_vm, def_flags, nr_ptes;
    unsigned long start_code, end_code, start_data, end_data; /* 代码段,数据段的開始和结束地址 */
    unsigned long start_brk, brk, start_stack; /* 堆的首地址,尾地址,进程栈首地址 */
    unsigned long arg_start, arg_end, env_start, env_end; /* 命令行參数,环境变量首地址,尾地址 */

    unsigned long saved_auxv[AT_VECTOR_SIZE]; /* for /proc/PID/auxv */

    struct linux_binfmt *binfmt;

    cpumask_t cpu_vm_mask;

    /* Architecture-specific MM context */
    mm_context_t context;

    /* Swap token stuff */
    /*
     * Last value of global fault stamp as seen by this process.
     * In other words, this value gives an indication of how long
     * it has been since this task got the token.
     * Look at mm/thrash.c
     */
    unsigned int faultstamp;
    unsigned int token_priority;
    unsigned int last_interval;

    unsigned long flags; /* Must use atomic bitops to access the bits */

    struct core_state *core_state; /* coredumping support */
#ifdef CONFIG_AIO
    spinlock_t        ioctx_lock;
    struct hlist_head    ioctx_list;
#endif
#ifdef CONFIG_MM_OWNER
    /*
     * "owner" points to a task that is regarded as the canonical
     * user/owner of this mm. All of the following must be true in
     * order for it to be changed:
     *
     * current == mm->owner
     * current->mm != mm
     * new_owner->mm == mm
     * new_owner->alloc_lock is held
     */
    struct task_struct *owner;
#endif

#ifdef CONFIG_PROC_FS
    /* store ref to file /proc/<pid>/exe symlink points to */
    struct file *exe_file;
    unsigned long num_exe_file_vmas;
#endif
#ifdef CONFIG_MMU_NOTIFIER
    struct mmu_notifier_mm *mmu_notifier_mm;
#endif
};
复制代码

补充说明1: 上面的属性中,mm_users 和 mm_count 非常easy混淆,这里特别说明一下:(以下的内容有网上查找的,也有我自己理解的)

mm_users 比較好理解,就是 mm_struct 被用户空间进程(线程)引用的次数。

假设进程A中创建了3个新线程,那么 进程A(这时候叫线程A也能够)相应的 mm_struct 中的 mm_users = 4

 

补充一点,linux中进程和线程差点儿没有什么差别,就是看它是否共享进程地址空间,共享进程地址空间就是线程,反之就是进程。

所以,假设子进程和父进程共享了进程地址空间,那么父子进程都能够看做线程。假设父子进程没有共享进程地址空间,就是2个进程

 

mm_count 则略微有点绕人,事实上它记录就是 mm_struct 实际的引用计数。

简单点说,当 mm_users=0 时,并不一定能释放此 mm_struct,仅仅有当 mm_count=0 时,才干够确定释放此 mm_struct

 

从上面的解释能够看出,可能引用 mm_struct 的并不仅仅是用户空间的进程(线程)

当 mm_users>0 时, mm_count 会添加1, 表示实用户空间进程(线程)在使用 mm_struct。

无论使用 mm_struct 的用户进程(线程)有几个, mm_count 都仅仅是添加1。

也就是说。假设仅仅有1个进程使用 mm_struct,那么 mm_users=1,mm_count也是 1。

假设有9个线程在使用 mm_struct,那么 mm_users=9。而 mm_count 仍然为 1。

 

那么 mm_count 什么情况下会大于 1呢?

当有内核线程使用 mm_struct 时,mm_count 才会再添加 1。

内核线程为何会使用用户空间的 mm_struct 是有其它原因的,这个后面再阐述。这里先知道内核线程使用 mm_struct 时也会导致 mm_count 添加 1。

在以下这样的情况下,mm_count 就非常有必要了:

  • - 进程A启动。并申请了一个 mm_struct。此时 mm_users=1, mm_count=1
  • - 进程A中新建了2个线程。此时 mm_users=3, mm_count=1
  • - 内核调度发生,进程A及相关线程都被挂起,一个内核线程B 使用了进程A 申请的 mm_struct,此时 mm_users=3, mm_count=2
  • - CPU的还有一个core调度了进程A及其线程,而且运行完了进程A及其线程的全部操作,也就是进程A退出了。此时 mm_users=0, mm_count=1
  •   在这里就看出 mm_count 的用处了。假设仅仅有 mm_users 的话,这里 mm_users=0 就会释放 mm_struct。从而有可能导致 内核线程B 异常。
  • - 内核线程B 运行完毕后退出。这时 mm_users=0。mm_count=0,能够安全释放 mm_struct 了

 

补充说明2:为何内核线程会使用用户空间的 mm_struct?

对Linux来说。用户进程和内核线程都是task_struct的实例。

唯一的差别是内核线程是没有进程地址空间的(内核线程使用的内核地址空间),内核线程的mm描写叙述符是NULL,即内核线程的tsk->mm域是空(NULL)。

内核调度程序在进程上下文的时候,会依据tsk->mm推断即将调度的进程是用户进程还是内核线程。

可是尽管内核线程不用訪问用户进程地址空间。可是仍然须要页表来訪问内核自己的空间。

而不论什么用户进程来说,他们的内核空间都是100%同样的。所以内核会借用上一个被调用的用户进程的mm_struct中的页表来訪问内核地址。这个mm_struct就记录在active_mm。

 

简而言之就是,对于内核线程。tsk->mm == NULL表示自己内核线程的身份。而tsk->active_mm是借用上一个用户进程的mm_struct。用mm_struct的页表来訪问内核空间。

对于用户进程,tsk->mm == tsk->active_mm。

 

补充说明3:除了 mm_users 和 mm_count 之外,还有 mmap 和 mm_rb 须要说明下面:

事实上 mmap 和 mm_rb 都是保存此 进程地址空间中全部的内存区域(VMA)的。前者是以链表形式存放。后者以红黑树形式存放。

用2种数据结构组织同一种数据是为了便于对VMA进行高效的操作。

 

1.2 mm_struct操作

1. 分配进程地址空间

參考 kernel/fork.c 中的宏 allocate_mm

#define allocate_mm()    (kmem_cache_alloc(mm_cachep, GFP_KERNEL))
#define free_mm(mm)    (kmem_cache_free(mm_cachep, (mm)))

 

事实上分配进程地址空间时,都是从slab快速缓存中分配的。能够通过 /proc/slabinfo 查看 mm_struct 的快速缓存

# cat /proc/slabinfo | grep mm_struct
mm_struct             35     45   1408    5    2 : tunables   24   12    8 : slabdata      9      9      0

 

2. 撤销进程地址空间

參考 kernel/exit.c 中的 exit_mm() 函数

该函数会调用 mmput() 函数降低 mm_users 的值,

当 mm_users=0 时。调用 mmdropo() 函数, 降低 mm_count 的值,

假设 mm_count=0,那么调用 free_mm 宏。将 mm_struct 还给 slab快速缓存

 

3. 查看进程占用的内存:

cat /proc/<PID>/maps
或者
pmap PID

 

2. 虚拟内存区域(VMA)

内存区域在linux中也被称为虚拟内存区域(VMA),它事实上就是进程地址空间上一段连续的内存范围。

 

2.1 VMA介绍

VMA的定义也在 <linux/mm_types.h> 中

复制代码
struct vm_area_struct {
    struct mm_struct * vm_mm;    /* 相关的 mm_struct 结构体 */
    unsigned long vm_start;        /* 内存区域首地址 */
    unsigned long vm_end;        /* 内存区域尾地址 */

    /* linked list of VM areas per task, sorted by address */
    struct vm_area_struct *vm_next, *vm_prev;  /* VMA链表 */

    pgprot_t vm_page_prot;        /* 訪问控制权限 */
    unsigned long vm_flags;        /* 标志 */

    struct rb_node vm_rb;       /* 树上的VMA节点 */

    /*
     * For areas with an address space and backing store,
     * linkage into the address_space->i_mmap prio tree, or
     * linkage to the list of like vmas hanging off its node, or
     * linkage of vma in the address_space->i_mmap_nonlinear list.
     */
    union {
        struct {
            struct list_head list;
            void *parent;    /* aligns with prio_tree_node parent */
            struct vm_area_struct *head;
        } vm_set;

        struct raw_prio_tree_node prio_tree_node;
    } shared;

    /*
     * A file's MAP_PRIVATE vma can be in both i_mmap tree and anon_vma
     * list, after a COW of one of the file pages.    A MAP_SHARED vma
     * can only be in the i_mmap tree.  An anonymous MAP_PRIVATE, stack
     * or brk vma (with NULL file) can only be in an anon_vma list.
     */
    struct list_head anon_vma_node;    /* Serialized by anon_vma->lock */
    struct anon_vma *anon_vma;    /* Serialized by page_table_lock */

    /* Function pointers to deal with this struct. */
    const struct vm_operations_struct *vm_ops;

    /* Information about our backing store: */
    unsigned long vm_pgoff;        /* Offset (within vm_file) in PAGE_SIZE
                       units, *not* PAGE_CACHE_SIZE */
    struct file * vm_file;        /* File we map to (can be NULL). */
    void * vm_private_data;        /* was vm_pte (shared mem) */
    unsigned long vm_truncate_count;/* truncate_count or restart_addr */

#ifndef CONFIG_MMU
    struct vm_region *vm_region;    /* NOMMU mapping region */
#endif
#ifdef CONFIG_NUMA
    struct mempolicy *vm_policy;    /* NUMA policy for the VMA */
#endif
};
复制代码

 

这个结构体各个字段的英文凝视都比較具体,就不一一翻译了。

上述属性中的 vm_flags 标识了此VM 对 VMA和页面的影响:

vm_flags 的宏定义參见 <linux/mm.h>

标志

对VMA及其页面的影响

VM_READ 页面可读取
VM_WRITE 页面可写
VM_EXEC 页面可运行
VM_SHARED 页面可共享
VM_MAYREAD VM_READ 标志可被设置
VM_MAYWRITER VM_WRITE 标志可被设置
VM_MAYEXEC VM_EXEC 标志可被设置
VM_MAYSHARE VM_SHARE 标志可被设置
VM_GROWSDOWN 区域可向下增长
VM_GROWSUP 区域可向上增长
VM_SHM 区域可用作共享内存
VM_DENYWRITE 区域映射一个不可写文件
VM_EXECUTABLE 区域映射一个可运行文件
VM_LOCKED 区域中的页面被锁定
VM_IO 区域映射设备I/O空间
VM_SEQ_READ 页面可能会被连续訪问
VM_RAND_READ 页面可能会被随机訪问
VM_DONTCOPY 区域不能在 fork() 时被拷贝
VM_DONTEXPAND 区域不能通过 mremap() 添加
VM_RESERVED 区域不能被换出
VM_ACCOUNT 该区域时一个记账 VM 对象
VM_HUGETLB 区域使用了 hugetlb 页面
VM_NONLINEAR 该区域是非线性映射的

 

2.2 VMA操作

vm_area_struct 结构体定义中有个 vm_ops 属性。当中定义了内核操作 VMA 的方法

复制代码
/*
 * These are the virtual MM functions - opening of an area, closing and
 * unmapping it (needed to keep files on disk up-to-date etc), pointer
 * to the functions called when a no-page or a wp-page exception occurs. 
 */
struct vm_operations_struct {
    void (*open)(struct vm_area_struct * area);  /* 指定内存区域增加到一个地址空间时,该函数被调用 */
    void (*close)(struct vm_area_struct * area); /* 指定内存区域从一个地址空间删除时,该函数被调用 */
    int (*fault)(struct vm_area_struct *vma, struct vm_fault *vmf); /* 当没有出如今物理页面中的内存被訪问时,该函数被调用 */

    /* 当一个之前仅仅读的页面变为可写时,该函数被调用,
     * 假设此函数出错,将导致一个 SIGBUS 信号 */
    int (*page_mkwrite)(struct vm_area_struct *vma, struct vm_fault *vmf);

    /* 当 get_user_pages() 调用失败时, 该函数被 access_process_vm() 函数调用 */
    int (*access)(struct vm_area_struct *vma, unsigned long addr,
              void *buf, int len, int write);
#ifdef CONFIG_NUMA
    /*
     * set_policy() op must add a reference to any non-NULL @new mempolicy
     * to hold the policy upon return.  Caller should pass NULL @new to
     * remove a policy and fall back to surrounding context--i.e. do not
     * install a MPOL_DEFAULT policy, nor the task or system default
     * mempolicy.
     */
    int (*set_policy)(struct vm_area_struct *vma, struct mempolicy *new);

    /*
     * get_policy() op must add reference [mpol_get()] to any policy at
     * (vma,addr) marked as MPOL_SHARED.  The shared policy infrastructure
     * in mm/mempolicy.c will do this automatically.
     * get_policy() must NOT add a ref if the policy at (vma,addr) is not
     * marked as MPOL_SHARED. vma policies are protected by the mmap_sem.
     * If no [shared/vma] mempolicy exists at the addr, get_policy() op
     * must return NULL--i.e., do not "fallback" to task or system default
     * policy.
     */
    struct mempolicy *(*get_policy)(struct vm_area_struct *vma,
                    unsigned long addr);
    int (*migrate)(struct vm_area_struct *vma, const nodemask_t *from,
        const nodemask_t *to, unsigned long flags);
#endif
};
复制代码

除了以上的操作之外。另一些辅助函数来方便内核操作内存区域。

这些辅助函数都能够在 <linux/mm.h> 中找到

1. 查找地址空间

复制代码
/* Look up the first VMA which satisfies  addr < vm_end,  NULL if none. */
extern struct vm_area_struct * find_vma(struct mm_struct * mm, unsigned long addr);
extern struct vm_area_struct * find_vma_prev(struct mm_struct * mm, unsigned long addr,
                         struct vm_area_struct **pprev);

/* Look up the first VMA which intersects the interval start_addr..end_addr-1,
   NULL if none.  Assume start_addr < end_addr. */
static inline struct vm_area_struct * find_vma_intersection(struct mm_struct * mm, unsigned long start_addr, unsigned long end_addr)
{
    struct vm_area_struct * vma = find_vma(mm,start_addr);

    if (vma && end_addr <= vma->vm_start)
        vma = NULL;
    return vma;
}
复制代码

 

2. 创建地址区间

复制代码
static inline unsigned long do_mmap(struct file *file, unsigned long addr,
    unsigned long len, unsigned long prot,
    unsigned long flag, unsigned long offset)
{
    unsigned long ret = -EINVAL;
    if ((offset + PAGE_ALIGN(len)) < offset)
        goto out;
    if (!(offset & ~PAGE_MASK))
        ret = do_mmap_pgoff(file, addr, len, prot, flag, offset >> PAGE_SHIFT);
out:
    return ret;
}
复制代码

 

3. 删除地址区间

extern int do_munmap(struct mm_struct *, unsigned long, size_t);

 

3. 地址空间和页表

地址空间中的地址都是虚拟内存中的地址。而CPU须要操作的是物理内存,所以须要一个将虚拟地址映射到物理地址的机制。

这个机制就是页表,linux中使用3级页面来完毕虚拟地址到物理地址的转换。

1. PGD - 全局页文件夹,包括一个 pgd_t 类型数组。多数体系结构中 pgd_t 类型就是一个无符号长整型

2. PMD - 中间页文件夹。它是个 pmd_t 类型数组

3. PTE - 简称页表,包括一个 pte_t 类型的页表项,该页表项指向物理页面

 

虚拟地址 - 页表 - 物理地址的关系例如以下图:

VM-PM

















*******************************************************************

样例展开

*******************************************************************

我们知道,在32位机器上linux操作系统中的进程的地址空间大小是4G,当中0-3G是用户空间,3G-4G是内核空间。

事实上。这个4G的地址空间是不存在的,也就是我们所说的虚拟内存空间。


那虚拟内存空间是什么呢,它与实际物理内存空间又是如何相应的呢,为什么有了虚拟内存技术,我们就能执行比实际物理内存大的应用程序,它是怎么做到的呢?

呵呵。这一切的一切都是个迷呀,以下我们就一步一步解开心中的谜团吧!

我们来看看,当我们写好一个应用程序。编译后它都有什么东东?


比如:



用命令size a.out会得到:



当中text是放的是代码,data放的是初始化过的全局变量或静态变量,bss放的是未初始化的全局变量或静态变量

因为历史原因,C程序一直由下列几部分组成:



A.正文段。

这是由cpu运行的机器指令部分。

通常。正文段是可共享的,所以即使是经常运行的程序(如文本编辑程序、C编译程序、shell等)在存储器中也仅仅须要有一个副本。另外,正文段经常是仅仅读的。以防止程序因为意外事故而改动器自身的指令。


B.初始化数据段。通常将此段称为数据段。它包括了程序中需赋初值的变量。比如,C程序中不论什么函数之外的说明:

int maxcount = 99;(全局变量)

C.非初始化数据段。通常将此段称为bss段。这一名称来源于早期汇编程序的一个操作,意思是"block started by symbol",在程序開始运行之前,内核将此段初始化为0。

函数外的说明:

long  sum[1000];

使此变量存放在非初始化数据段中。

D.栈。自己主动变量以及每次函数调用时所需保存的信息都存放在此段中。每次函数调用时,其返回地址、以及调用者的环境信息(比如某些机器寄存器)都存放在栈中。然后。新被调用的函数在栈上为其自己主动和暂时变量分配存储空间。通过以这样的方式使用栈,C函数能够递归调用。

E.堆。

通常在堆中进行动态存储分配。

因为历史上形成的惯例,堆位于非初始化数据段顶和栈底之间。


从上图我们看到栈空间是下增长的,堆空间是从下增长的,他们会会碰头呀?一般不会,由于他们之间间隔非常大,如:

#include <stdio.h>
#include <stdlib.h>

int bss_var;
int data_var0 = 1;

int main()
{
printf("Test location: ");
printf(" Address of main(Code Segment):%p ",main);
printf("_____________________________________ ");
int stack_var0 = 2;
printf("Stack location: ");
printf(" Initial end of stack:%p ",&stack_var0);
int stack_var1 = 3;
printf(" New end of stack:%p ",&stack_var1);

printf("_____________________________________ ");

printf("Data location: ");
printf(" Address of data_var(Data Segment):%p ",&data_var0);
static int data_var1 = 4;
printf(" New end of data_var(Data Segment):%p ",&data_var1);

printf("_____________________________________ ");
printf("BSS location: ");
printf(" Address of bss_var:%p ",&bss_var);

printf("_____________________________________ ");
printf("Heap location: ");
char *p = (char *)malloc(10);
printf(" Address of head_var:%p ",p);
return 0;
}

执行结果例如以下:



呵呵,这里我们看到地址了,这个地址是虚拟地址,这些地址时怎么来的呢?事实上在我们编译的时候,
这些地址就已经确定了,例如以下图中红线。




也就是说,我们不论我们执行a.out程序多少次这些地址都是一样的。我们知道,linux操作系统每一个进程的地址空间都是独立的,事实上这里的独立说得是物理空间上得独立。那同样的虚拟地址,不同的物理地址。他们之间是如何联系起来的呢?我们继续探究....

在linux操作系统中。每一个进程都通过一个task_struct的结构体描叙,每一个进程的地址空间都通过一个mm_struct描叙。c语言中的每一个段空间都通过vm_area_struct表示。他们关系例如以下 :



当执行一个程序时。操作系统须要创建一个进程,这个进程和程序之间都干了些什么呢?

当一个程序被运行时,该程序的内容必须被放到进程的虚拟地址空间,对于可运行程序的共享库也是如此。

可运行程序并不是真正读到物理内存中。而仅仅是链接到进程的虚拟内存中。


当一个可运行程序映射到进程虚拟地址空间时,一组vm_area_struct数据结构将被产生。每一个vm_area_struct数据结构表示可运行印象的一部分;是可运行代码,或是初始化的数据,以及未初始化的数据等。


linux操作系统是通过sys_exec对可运行文件进行映射以及读取的,有例如以下几步:

1.创建一组vm_area_struct
2.圈定一个虚拟用户空间。将其起始结束地址(elf段中已设置好)保存到vm_start和vm_end中。

3.将磁盘file句柄保存在vm_file中
4.将相应段在磁盘file中的偏移值(elf段中已设置好)保存在vm_pgoff中;
5.将操作该磁盘file的磁盘操作函数保存在vm_ops中

注意:这里没有相应 的页文件夹表项创建页表,更不存在设置页表项了。





如果如今程序中有一条指令须要读取上面vm_start--vm_end之间的某内容
比如:mov [0x08000011],%eax,那么将会运行例如以下序列:

1.cpu根据CR3(current->pgd)找到0x08000011地址相应的pgd[i],因为该pgd[i]内容保持为初始化状态即为0,导致cpu异常.

2.do_page_fault被调用,在该函数中,为pgd[i]在内存中分配一个页表,并让该表项指向它,例如以下图所看到的:



    注意:这里i为0x08000011高10位,j为当中间10位。此时pt表项所有为0(pte[j]也为0);

3.为pte[j]分配一个真正的物理内存页面,根据vm_area_struct中的vm_file、vm_pgoff和vm_ops。调用filemap_nopage将磁盘file中vm_pgoff偏移处的内容读入到该物理页面中。例如以下图所看到的:



①.分配物理内存页面;
 ②.从磁盘文件里将内容读取到物理内存页面中

从上面我们能够知道,在进程创建的过程中,程序内容被映射到进程的虚拟内存空间,为了让一个非常大的程序在有限的物理内存空间执行,我们能够把这个程序的開始部分先载入到物理内存空间执行。由于操作系统处理的是进程的虚拟地址,假设在进行虚拟到物理地址的转换project中,发现物理地址不存在时,这个时候就会发生缺页异常(nopage),接着操作系统就会把磁盘上还没有载入到内存中的数据载入到物理内存中,相应的进程页表进行更新。

或许你会问,假设此时物理内存满了,操作系统将怎样处理?


以下我们看看linux操作系统是怎样处理的:

假设一个进程想将一个虚拟页装入物理内存。而又没有可使用的空暇物理页,操作系统就必须淘汰物理内存中的其它页来为此页腾出空间。

在linux操作系统中,物理页的描叙例如以下:
struct mem_map
{
    1.本页使用计数。当该页被很多进程共享时计数将大于1.
    2.age描叙本页的年龄,用来推断该页是否为淘汰或交换的好候选
    3.map_nr描叙物理页的页帧号
}

    假设从物理内存中被淘汰的页来自于一个映像或数据文件,而且还没有被写过,则该页不必保存。它能够丢掉。假设有进程在须要该页时就能够把它从映像或数据文件里取回内存。

    然而,假设该页被改动过。操作系统必须保留该页的内容以便晚些时候在被訪问。这样的页称为"脏(dirty)页"。当它被从内存中删除时。将被保存在一个称为交换文件的特殊文件里。



    相对于处理器和物理内存的速度,訪问交换文件要非常长时间,操作系统必须在将页写到磁盘以及再次使用时取回内存的问题上花费心机。

  假设用来决定哪一页被淘汰或交换的算法不够高效的话,就可能出现称为"抖动"的情况。在这样的情况下,页面总是被写到磁盘又读回来,操作系统忙于此而不能进行真正的工作。


linux使用"近期最少使用(Least Recently Used ,LRU)"页面调度技巧来公平地选择哪个页能够从系统中删除。这样的设计系统中每一个页都有一个"年龄",年龄随页面被訪问而改变。页面被訪问越多它越年轻;被訪问越少越老。

旧的页面是页面交换的最佳人选。

版权声明:本文博主原创文章。博客,未经同意不得转载。

原文地址:https://www.cnblogs.com/zfyouxi/p/4802564.html