2017-2018-1 20155227 《信息安全系统设计基础》第十三周学习总结

2023-11-16

2017-2018-1 20155227 《信息安全系统设计基础》第十三周学习总结

找出全书你认为最重要的一章,深入重新学习一下,要求(期末占10分):
完成这一章所有习题

详细总结本章要点

给你的结对学习搭档讲解你的总结并获取反馈

我选择教材第九章的内容来深入学习,一方面,虚拟内存这一部分内容本身就十分重要,另一方面,我在操作系统课上对这一部分的知识理解的很浅,在十一周自学教材这一部分内容时也因为知识点太多而没有学得很深入,正好借此机会来重新学习这一章的内容,加深理解。

教材学习内容总结

第九章 虚拟存储器

为了更加有效地管理存储器且少出错,现代系统提供了对主存的抽象概念,叫做虚拟存储器(VM)

  • 虚拟存储器是硬件异常,硬件地址翻译,主存,磁盘文件和内核软件的完美交互。

  • 为每个进程提供一个大的,一致的和 私有的地址空间。

  • 提供了3个重要能力
    • 将主存看成磁盘地址空间的高速缓存

      • 只保留了活动区域,并根据需要在磁盘和主存间来回传送数据,高效使用主存。
    • 为每个进程提供一致的地址空间
      • 简化存储器管理
    • 保护了每个进程的地址空间不被其他进程破坏。
  • 虚拟内存在幕后工作,程序员为什么要理解它呢?

    • 虚拟存储器是中心的。
    遍布在计算机系统所有层次,硬件异常,汇编器,连接器,加载器,共享对象,文件和进程中扮演重要角色。
    • 虚拟存储器是强大的。
      • 可以创建和销毁存储器片(chunk)
      • 将存储器片映射到磁盘文件的某个部分。
      • 其他进程共享存储器。
      • 例子

        能读写存储器位置来修改磁盘文件内容。
        加载文件到存储器不需要显式的拷贝。
    • 虚拟存储器是危险的

      • 引用变量,间接引用指正,调用malloc动态分配程序,就会和虚拟存储器交互。
      • 如果使用不当,将遇到复杂危险的与存储器有关的错误。
      • 例子

         一个带有错误指针的程序可以立即崩溃于段错误或者保护错误。
          运行完成,却不产生正确结果。

9.1 物理与虚拟寻址


  • 物理地址(Physical Address,PA):计算机系统的主存被组织为M个连续的字节大小的单元组成的数组。每个字节的地址叫物理地址.
  • CPU访问存储器的最自然的方式使用物理地址,这种方式称为物理寻址
    早期的PC,数字信号处理器,嵌入式微控制器以及Cray超级计算机使用物理寻址
  • 现代处理器使用的是虚拟寻址(virtual addressing)的寻址形式。

1065400-20171214124153842-890064266.png

1065400-20171214124159857-814053071.png

  • CPU通过生成一个虚拟地址(Virtual address,VA)来访问主存。
    • 虚拟地址转换为物理地址叫做地址翻译(address translation)
  • 地址翻译也需要CPU硬件和操作系统之间的紧密结合。
    • CPU芯片上有叫做存储器管理单元(Memory Management Unit,MMU)的专用硬件。

      利用存储在主存中的查询表来动态翻译虚拟地址。
       查询表由操作系统管理。

9.2 地址空间


地址空间(address space)是一个非负整数地址的有序集合。

  • 如果地址空间中整数是连续的,我们说它是线性地址空间(linear address space)

    • 我们总是假设使用线性地址空间
  • 在一个带虚拟存储器的系统中,CPU从一个有N=2^n个地址的地址空间中生成虚拟地址,这个地址空间称为虚拟地址空间(virtual address space)
  • 一个地址空间大小是由表示最大地址所需要的位数来描述的。
    • N=2^n个地址的虚拟地址空间叫做n位地址空间
    • 现在操作系统支持32位或64位
  • 一个系统还有物理地址空间,它与系统中物理存储器的M=2^m(假设为2的幂)个字节相对应。

地址空间的概念很重要,因为它区分了数据对象(字节)和 它们的属性(地址)

  • 每个字节(数据对象)一般有多个 独立的地址(属性)。每个地址都选自不同的地址空间

    • 字节有一个在虚拟地址空间的虚拟地址
    • 还有一个在物理地址空间的物理地址
    • 两个地址都能访问到这个字节

9.3 虚拟存储器作为缓存的工具


虚拟存储器(VM) 被组织为一个存放在磁盘上的N个连续字节大小的单元组成的数组

  • 每个字节都有一个唯一的虚拟地址,这个虚拟地址作为到数组的索引。

  • 磁盘上数组的内容被缓存到主存中。

    • 同存储器层次结构其他缓存一样,磁盘上的数据被分割成块

       这些块作为磁盘和主存之间的传输单元。
       虚拟页(Virtual Page,VP)就是这个块 
    • 物理存储器被分割为物理页,大小也为P字节`` 也被称为``页帧(page frame)
  • 任何时候,虚拟页的集合都被分为3个不相交的子集
    • 未分配的: VM系统还未分配(或者创建)的页。未分配的块没有任何数据与之相关联。
      • 不占用磁盘空间
      • 通过malloc来分配
    • 缓存的: 当前缓存在物理存储器的已分配页。
    • 未缓存的: 没有缓存在物理页面存储器中的已分配页。
      1065400-20171214124211060-1954012872.png
9.3.1 DRAM缓存的组织结构

DRAM表示虚拟存储器系统的缓存,在主存中缓存虚拟页,有两个特点。

  • DRAM缓存不命中处罚十分严重。

    • 因为磁盘比DRAM慢100000多倍。
  • 访问一字节开销
    • 从一个磁盘的一个扇区读取第一个字节的时间开销要比从该扇区中读连续的字节慢大约100000倍

DRAM缓存的组织结构由这种巨大的不命中开销驱动。因此有以下特点。

  • 虚拟页往往很大。

    • 4KB~2MB
  • DRAM缓存是全相联
    • 任何虚拟页都能放在任何物理页中。
    • 原因在于大的不命中惩罚
  • 精密替换算法
    • 替换错了虚拟页的惩罚很高。
  • DRAM缓存总是写回
    • 因为对磁盘的访问时间很长
    • 而不用直写
9.3.2 页表

判断命中和替换由多种软硬件联合提供。

  • 操作系统软件,MMU中的地址翻译硬件和页表(page table)
    • 页表是存放在物理存储器的数据结构。
      • 页表将虚拟页映射到物理页
      • 地址翻译硬件将虚拟地址转换为物理地址都会读取页表
    • 操作系统负责维护页表的内容,以及磁盘及DRAM之间来回传送页

1065400-20171214124222904-494129943.png

  • 页表就是一个页表条目(Page Table Entry,PTE)的数组.
    • 虚拟地址空间中每个页在页表的固定偏移量处都有一个PTE.
    • 每个PTE有一个有效位和n位地址字段

      有效位表明虚拟页是否被缓存。 
      如果有效位存在,那么地址字段指向对应的物理存储器。
      如果有效位不存在。 地址字段要么为NULL,要么指向虚拟页在磁盘所在的位置。
9.3.3 页命中

1065400-20171214124239045-558612853.png

  • 一个页命中的过程。
  • 一个虚拟地址转换为物理地址的过程。
9.3.4 缺页

DRAM缓存不命中称为缺页
处理过程如下:

  • 读取虚拟地址所指向的PT
  • 读取PTE有效位,发现未被缓存,触发缺页异常
  • 调用缺页异常处理程序
    • 选择牺牲页
    • 如果牺牲页发生了改变,将其拷贝回磁盘(因为是写回)
    • 需要读取的页代替了牺牲页的位置。
    • 结果:牺牲也不被缓存,需要读取的页被缓存。
  • 中断结束,重新执行最开始的指令。

  • DRAM中读取成功。

1065400-20171214124250888-177995175.png

块被称为页。
磁盘和DRAM之间传送页的活动叫做交换(swapping)或者页面调度(paging)。
有不命中发生时,才换入页面,这种策略叫做按需页面调度(demand paging)。 
9.3.5 分配页面

比如某个页面所指向地址为NULL,将这个地址指向磁盘某处,那么这就叫分配页面

此时虚拟页从未分配状态 变为 未缓存

9.4 虚拟存储器作为存储器的管理工具


操作系统为每个进程提供一个独立的页表

1065400-20171214124304545-291314981.png

因此,VM简化了链接和加载,代码和数据共享,以及应用程序的存储器分配

  • 简化链接
    • 独立的空间地址意味着每个进程的存储器映像使用相同的格式
      • 文本节总是从0x08048000(32位)处或0x400000(64位)处开始。
      • 然后是数据,bss节,栈
    • 一致性极大简化了链接器的设计和实现
  • 简化加载
    • 加载器可以从不实际拷贝任何数据从磁盘到存储器
    • 基本都是虚拟存储系统完成。
简化共享
  • 独立地址空间为操作系统提供了一个管理用户进程和操作系统自身之间的一致共享机制

    • 操作相同的操作系统内核代码
    • C标准库的printf.
  • 因此操作系统需要将不同进程的适当的虚拟页映射到相同的物理页面。
    • 多个进程共享这部分代码的一个拷贝。
    • 而不是每个进程都要加载单独的内核和C标准库的拷贝。
简化存储器分配

虚拟页连续(虚拟页还是单独的),物理页可以不连续。使得分配更加容易。

9.5 虚拟存储器作为存储器保护的工具


任何现代操作系统必须为操作系统提供手段来控制存储器系统的访问。

  • 不应该允许用户进程修改它的只读文本段。
  • 不允许它读或修改任何内核的代码和数据结构
  • 不允许读写其他进程的私有存储器。
  • 不允许修改共享的虚拟页,除非所有共享者显示允许这么做(通过调用明确的进程间通信)

1065400-20171214124314717-45687079.png

  • SUP: 是否只有在内核模式下才能访问?
  • READ: 读权限。
  • WRITE: 写权限。

如果指令违反了许可条件,触发一般保护性异常,然后交给异常处理程序Shell一般会报告为段错误(segmentaion fault)

9.6 地址翻译


1065400-20171214124324326-289812842.png

  • 形式上来说,地址翻译是一个N元素的虚拟地址空间(VAS)中的元素和一个M元素的物理地址空间(PAS)元素之间的映射,

1065400-20171214124346670-197608503.png

  • 以下展示了MMU(Memory Management Unit,存储器管理单元)如何利用页表实现这样的功能

1065400-20171214124334982-1750218459.png

  • 页表基址寄存器(Page Table Base Register,PTBR)指向当前页表
  • n位的虚拟地址包含两个部分
    • 一个p位的虚拟页面偏移(Virtual Page Offset,VPO)
    • 一个n-p位的虚拟页号(Virtual Page Number,VPN)
  • 页面条目 (PTE)物理页号(PPN)虚拟地址中的VPO串联起啦,即是物理地址
    • PPO和VPO是相同的
    • VPN,PPN都是块,都是首地址而已,所以需要偏移地址PPO,VPO

1065400-20171214124400701-474971787.png

图(a)展示页面命中,CPU硬件执行过程:

  • 第一步:处理器生成虚拟地址,把它传送给MMU。
  • 第二步: MMU生成PTE地址(PTEA),并从高速缓存/主存请求中得到它。
  • 第三步: 高速缓存/主存向MMU返回PTE
  • 第四步: MMU构造物理地址(PA),并把它传送给高速缓存/主存。
  • 第五步: 高速缓存/主存返回所请求的数据字给处理器

页面命中完全由硬件处理,与之不同的是,处理缺页需要 硬件和操作系统内核协作完成。

  • 第一到三步: 与命中时的一样
  • 第四步:PTE有效位是零,所以MMU触发异常,传递CPU中的控制到操作系统内核中的 缺页异常处理程序。
  • 第五步:缺页异常处理程序确定出物理存储页中的牺牲页,如果这个页面已经被修改,则把它换出到磁盘。
  • 第六步:缺页异常处理程序调入新的页面,并更新存储器中的PTE。
  • 第七部:缺页异常处理程序返回到原来的进程,再次执行导致缺页的指令,之后就是页面命中一样的步骤。
9.6.1 结合高速缓存和虚拟存储器

在任何使用虚拟存储器又使用SRAM高速缓存的系统中,都存在应该使用虚拟地址 还是 使用 物理地址 来访问SRAM高速缓存的问题。

大多数系统是选择物理寻址

  • 使用物理寻址,多个进程同时在高速缓存中有存储块共享来自相同虚拟页面的块成为简单的事。
    • 而且还无需处理保护问题,因为 访问权限的检查在地址翻译中(PTE)的一部分。
  • 以下是一个例子(将PTE进行高速缓存)。

1065400-20171214124411935-1546295859.png

9.6.2 利用TLB加速地址翻译

每次CPU产生一个虚拟地址MMU就必须查阅一个PTE,以便将虚拟地址翻译为 物理地址

  • 在最糟糕的情况下,会从内存中取数据,代价是几十 到几百个周期
  • 如果PTE碰巧缓存在L1中,那么开销就下降到一到两个周期

许多系统都试图消除这样的开销,他们在MMU中包含了一个关于PTE的小缓存,称为翻译后备缓冲器(Translation Lookaside Buffer,TLB)

  • TLB是一个小的,虚拟寻址的缓存。
    • 每一行都保存着一个由单个PTE组成的块。
    • TLB通常用于高度的相连性
      - 如图所示
      • 用于组选择和行匹配的索引和标记字段是从虚拟地址中的虚拟页号中提取出来的。
    • 如果TLBT=2^t个组
      • 那么TLB索引(TLBI)是由VPNt个最低位组成。(对应于VPO)
      • TLB标记(TLBT)是由VPN剩余位组成(对应于VPN)
  • 下图展示了TLB命中步骤
    • 关键点:所有的地址翻译步骤都是在芯片上的MMU中执行的,因此非常快

1065400-20171214124431170-1587435121.png

  • TLB命中
    • 第一步:CPU产生虚拟地址
    • 第二步和第三部:MMUTLB取出对应的PTE
    • 第四步:MMU将这个虚拟地址翻译成一个物理地址,发送到高速缓存/主存
    • 第五步:高速缓存/主存所请求的数据字返回给CPU
  • TLB不命中的时候,MMU必须从L1缓存或内存中取出相应的PTE,并进行类似缺页处理过程
9.6.3 多级页表

如果我们有一个32位地址空间,4KB大小的页面(p=2^12)和一个4B的PTE,即使应用所引用的只是虚拟地址空间中很小的一部分,也总是需要一个4MB的页表驻留在存储器中。

所以多级页表的诞生用于解决在很少使用时有一个很大的页表常驻于内存。

用来压缩页表的常用方式是使用层次结构的页表。

1065400-20171214124441498-1336766826.png

以下用上图的两层作为例子。

  • 总共有9KB个页面,PTE为4个字节。
    • 2KB个页面分配给代码和数据。
    • 接下来6KB个页面未分配
    • 再接下来1023个页面也未分配
    • 接下一个页面分配给用户栈
  • 一级页表中的每个PTE负责映射虚拟地址空间中一个4MB大小的片(chunk).
    • 每一个片都是由1024个连续的页面组成。
    • 4MB=1024个页面*PTE大小4字节。
  • 如果片i中每个页面都没有分配,那么一级PTE i就为空。
    • 例如图中的PTE 2~PTE 7
    • 但是如果片i中有一个被分配了,那么PTE i就不能为空。
  • 这种方法从两个方面减少了存储器要求。
    • 如果一级页表PTE为空,那么相应的二级页表就根本不会存在。
      • 一种巨大的潜在节约,大部分时候内存都是未分配的。
  • 只有一级页表才需要总是在主存中。
    • 虚拟存储器系统可以在需要时创建,页面调入,调出二级页面,减少主存压力。

1065400-20171214124451545-1281894336.png

k级页表层次结构的地址翻译。

  • 虚拟地址被分为k个VPN一个VPO。每个VPN i都是i-1级页表到i级页表的索引。
  • PPN存于k级页表
  • PPO依旧与VPO相同。

此时TLB能发挥作用,因为层次更细,更利于缓存。使得多级页表的地址翻译不比单级页表慢很多。

9.6.4 综合:端到端的地址翻译

一个在有一个TLBL1 d-cache的小系统上。作出如下假设:

  • 存储器都是按字节寻址的。
  • 存储器访问是针对一字节的字的。
  • 虚拟地址是14位长(n=14)
  • 物理地址是12位长(m=12)
  • 页面大小是64字节(P=2^6)
  • TLB是四路组相连的,总共有16个条目
  • L1 d-cache是物理寻址,高速缓存,直接映射(E=1)的,行大小为4字节,而总共有16个组

存储结构快照

1065400-20171214124503873-635225665.png
1065400-20171214124515795-53964710.png
1065400-20171214124525607-1052218806.png

  • TLB: TLB利用VPN的位进行缓存。
  • 页表: 这个页表是一个单级设计。一个有256个,但是这里只列出16个。
  • 高速缓存:直接映射的缓存通过物理地址的字段来寻址。
    • 因为是直接映射,通过索引就能直接找到。且E=1
    • 直接能判定是否命中
9.7 案例研究: Intel Core i7/Linux 存储器系统

1065400-20171214124539154-2093552874.png

处理器包(processor package)
  • 四个核
    • 层次结构的TLB
      • 虚拟寻址
      • 四路组相连
      • Linux 一页4kb
    • 层次结构的数据和指令高速缓存。
      • 物理寻址
      • L1,L2 八路组相连
      • L3 十六路组相连
      • 大小64字节
    • 快速的点到点链接。
      • 基于Intel QuickPath技术
      • 为了让核与其他核和外部I/O桥直接通信
  • L3高速缓存
  • DDR3存储器控制器
9.7.1 Core i7地址翻译

1065400-20171214124550810-634097909.png

上图完整总结了Core i7地址翻译过程,从虚拟地址到找到数据传入CPU。

  • Core i7采用四级页表层次结构。
    • CR3 控制寄存器指向第一级页表(L1)的起始位置
      • CR3也是每个进程上下文的一部分。
      • 上下文切换的时候,CR3也要被重置。

一级,二级,三级页表PTE的格式:

1065400-20171214124600357-1441369817.png

  • P=1时 地址字段包含了一个40位物理页号(PPN),指向适当的页表开始处。

  • 强加了一个要求,要求物理页4kb对齐。
    • 因为PPO12位 = 4kb
    • PPO的大小就跟物理页的大小有关。

四级页表的PTE格式:

1065400-20171214124611607-1519223483.png

  • PTE有三个权限位,控制对页的访问
    • R/W位确定页的内容是可以 读写还是 只读。
    • U/S位确定用户模式是否能够访问,从而保护操作系统内核代码不被用户程序访问。
    • XD (禁止执行) 位是在64位系统引入,禁止某些存储器页取指令。
      • 这是一个重要的新特性,限制只能执行只读文本段,降低缓冲区溢出的风险。
  • MMU翻译虚拟地址时,还会更新两个内核缺页处理程序会用到的位。
    • A位
      • 每次访问一个页,MMU都会设置A位,称为引用位(reference bit).
      • 可以利用这个引用位来实现它的页替换算法。
    • D位
      • 每次对一个页进行了写 就会设置D位,又称脏位(dirty bit).
      • 脏位告诉内核在拷贝替换页前是否要写回。
      • 内核通过调用一条特殊的内核模式指令来清除引用位或脏位。

四级页表如何将VPN翻译成物理地址

1065400-20171214124622232-2114746218.png

  • 每个VPN被用作页表的偏移量
  • CR3寄存器包含L1页的物理地址
9.7.2 Linux 虚拟存储系统

1065400-20171214124643170-98124458.png

内核虚拟存储器

  • 内核虚拟存储器包含内核中的代码数据
    • 内核虚拟存储器的某些区域被映射到所有进程共享的物理页面
      • 如:内核代码,全局数据结构。
    • Linux也将一组连续的虚拟页面(大小等同于系统DRAM总量)映射到相应的一组物理页面
  • 内核虚拟存储器包含每个进程不相同的数据。
    • 页表,内核在进程上下文中时使用的栈,等等。
Linux 虚拟存储器区域

Linux将虚拟存储器组织成一些区域(也叫做段)的集合。

  • 一个区域就是已经存在着的(已分配的) 虚拟存储器的连续片,这些片/页已某种形式相关联。
    • 代码段数据段共享库段,用户栈
    • 所有存在的虚拟页都保存在某个区域
      • 区域的概念很重要
      • 允许虚拟地址空间有间隙。

一个进程中虚拟存储器的内核数据结构。

1065400-20171214124952842-1065349220.png

内核为系统中每个进程维护了一个单独的任务结构任务结构中的元素包含或指向内核运行该进程所需要的全部信息。

  • task_struct
    • mm_struct
      • 描述了虚拟存储器的当前状态。
      • pgd
        • 指向第一级页表的基址。
        • 当进程运行时,内核将pgd存放在CR3控制寄存器
      • mmap
        • vm_area_structs(区域结构)
        • 每个vm_area_structs都描述了当前虚拟地址空间的一个区域(area).
        • vm_start:指向这个区域的起始处。
        • vm_end:指向这个区域的结束处。
        • vm_port:描述这个区域内包含的所有页的读写许可权限。
        • vm_flags:描述这个区域页面是否与其他进程共享,还是私有。
        • vm_next: 指向链表的下一个区域。
Linux 缺页异常处理

MMU在试图翻译虚拟地址A时,触发缺页 。这个异常导致控制转移到缺页处理程序,执行一下步骤。

1065400-20171214125003170-2009176553.png

  • 虚拟地址A是合法的吗?
    • A在某个区域结构定义的区域内吗?
    • 解决方法:

      • 缺页处理程序 搜索区域结构链表。
      • 把A和每个区域的vm_startvm_end 做比较。
        • 通过某种 的数据结构算法查找
    • 如果不合法 ,触发段错误

  • 试图访问的存储器是否合法?
    • 即是否有读,写,执行这个页面的权限?
    • 如果不合法,触发保护异常终止进程。
  • 一切正常的话
    • 选择牺牲页,替换,重新执行指令

9.8 存储器映射


存储器映射: Linux通过将一个虚拟存储器区域与一个磁盘上的对象关联起来,以初始化这个虚拟存储器区域的内容,这个过程叫做存储器映射

虚拟存储器区域可以映射到以下两种类型文件。

  • Unix文件系统中的普通文件:一个区域可以映射到一个普通磁盘文件的连续部分。
    • 例如,一个可执行文件
    • 文件区(section)被分成页大小的片,每一片包含一个虚拟页面的初始化内容。
    • 仅仅是初始化,虚拟页面此时还并未进入物理存储器
      • 到CPU第一次引用这个页面。
  • 匿名文件 : 一个区域可以映射到一个匿名文件。
    • 匿名文件由内核创建,包含的全是二进制零。
    • CPU第一次引用这样区域(匿名文件)的虚拟页面时。
      • 将存储器中牺牲页面全部用二进制零覆盖
      • 并将虚拟页面标记为驻留在存储器中。
      • 注意: 实际上,虚拟页面并没有跟存储器进行数据传送。

又叫请求二进制零的页(demand-zero page)

交换文件,交换空间。(win下叫做paging file)

  • 一旦一个虚拟页面被初始化了,它就在一个由内核维护的专门的交换文件(swap file)之间换来换去。交换文件也叫交换空间或者交换区域
  • 需要意识到,在任何时刻,交换空间都限制着当前运行着的进程分配的虚拟页面总数。
9.8.1 再看共享对象

共享对象的由来

  • 许多进程有同样的只读文本区域
    • printf
    • 运行Uinx shell的tcsh```
    • 如果每个进程都加载进内存一次,极其浪费。
  • 存储器映射提供一种机制,来共享对象

一个对象被映射到虚拟存储器的一个区域,一定属于以下两种。

  • 共有对象
    • 一个进程将一个共有对象映射到它的虚拟地址空间的一个区域。
      • 进程对这个区域的写操作,对于那些也把这个共享对象映射它的虚拟存储器的进程是可见的。
      • 这些变化也会反映到磁盘上的原始对象。
    • 映射到的虚拟存储器那个区域叫做共享区域。
  • 私有对象
    • 对一个映射到私有对象的区域做出的改变,对于其他进程不可见.
    • 并且进行的写操作不会反映到磁盘上。
    • 映射到的虚拟存储器那个区域叫做私有区域
9.8.1.1 共享对象

1065400-20171214125015138-285317387.png

  • 进程1,将共享对象映射到虚拟存储器中,然后虚拟存储器将这一段找一块物理存储器存储。

  • 进程2也要引用同样的共享对象时。
    • 内核迅速判定,进程1已经映射了这个对象。
    • 使进程2的虚拟存储器直接指向了那一块进程1指向的物理存储器。
  • 即使对象被映射到多个共享区域物理存储器依旧只有一个共享对象的拷贝。
    • 大大解决了物理存储器内存
9.8.1.2 私有对象

1065400-20171214125024810-401774938.png

私有对象使用一种叫做写时拷贝(conpy-on-write)的巧妙技术。

  • 私有对象开始生命周期的方式基本与共享对象一样。
    • 即使对象被多个引用,在物理内存都只保留一个拷贝。
  • 对于每个映射私有对象的进程,相应私有区域的页表条目都被标记为只读
    • 并且区域结构(vm_area_structs)被标记为私有的写时拷贝。
  • 过程:只要有进程试图写私有区域内的某个页面,那么这个写操作触发保护异常。
    • 故障处理程序会在物理存储器中创建被修改页面的一个新拷贝。
    • 更新页表条目(PTE)指向这个新的拷贝,恢复被修改页面的可写权限。
    • 故障处理程序返回,CPU重新执行这个写操作。
  • 通过延迟私有对象中的拷贝直到最后可能的时刻,写时拷贝充分使用了稀缺的物理存储器
9.8.2 再看fork函数

了解fork函数如何创建一个带有自己独立虚拟地址空间的新进程。

  • fork函数被当前进程调用时。
    • 内核为新进程创建内核数据结构,并分配给它唯一一个PID
    • 为了给新进程创建虚拟存储器
      • 创建了当前进程的mm_struct,区域结构和页表的原样拷贝。
      • 将两个进程的每个页面都标记为只读。并给两个区域进程的每个区域结构都标记为私有的写时拷贝。
      • 注意:并没有对物理存储器进行拷贝哦,利用的是私有对象的写时拷贝技术。
  • fork函数在新进程返回时。
    • 新进程现在的虚拟存储器刚好和调用fork时存在的虚拟存储器相同。
    • 当两个进程中任一个需要被写时,触发写时拷贝机制。
9.8.3 再看execve函数

理解execve函数实际上如何加载和运行程序。

  • 假设运行在当前的进程中的程序执行了如下的调用:
    • Execve("a.out",NULL,NULL);
  • execve函数在当前进程加载并执行目标文件a.out中的程序,用a.out代替当前程序。
    • 加载并运行需要以下几个步骤。
      • 删除已存在的用户区域
        • 删除当前进程虚拟地址的用户部分中已存在的区域结构。
      • 映射私有区域
        • 为新程序的文本数据bss栈区域创建新的区域结构。
          • 所有新的区域结构都是私有的,写时拷贝的。
          • 文本和数据区域被映射到a.out文件中的文件和数据区。
          • bss区域是请求二进制零,映射到匿名文件。
            • 大小包含在a.out
          • 堆,栈区域也是请求二进制零。
      • 映射共享区域
        • a.out程序与共享对象链接。
          • 这些对象都是动态链接到这个程序。
          • 然后映射到用户虚拟地址的共享区域。
      • 设置程序计数器(PC)
        • execve最后一件事设置PC指向文本区域的入口点。

1065400-20171214125037857-2094838902.png

9.8.4 使用mmap函数的用户级存储器映射

Unix进程可以使用mmap函数来创建新的虚拟存储器区域,并将对象映射到这些区域中。

#include <unistd.h>
#include <sys/mman.h>

void *mmap(void *start,size_t length,int prot,int flags,int fd,off_t offset);

返回:若成功时则为指向映射区域的指正,若出错则为MAP_FAILED(-1).

参数解释:

1065400-20171214125107060-2051579713.png

fd,start,length,offset:

mmap函数要求内核创建一个新的虚拟存储器区域,最好是从地址start开始的一个区域,并将文件描述符fd指定的对象的一个连续的片chunk映射到这个新的区域。

  • 连续对象片大小为length字节
  • 从据文件开始处偏移量为offset字节的地方开始。
  • statr地址仅仅是个暗示
    • 一般被定义为NULL,让内核自己安排。

prot

参数prot包含描述新映射的虚拟存储器区域的访问权限位。(对应区域结构中的vm_prot位)

  • PROT_EXEC:这个区域内的页面由可以被CPU执行的指令组成。
  • PROT_READ:这个区域内的页面可读。
    -PROT_WRITE:这个区域内的页面可写。
  • PROT_NONE: 这个区域内的页面不能被访问。

flag

参数flag由描述被映射对象类型的位组成。

  • MAP_ANON标记位:映射对象是一个匿名对象。
  • MAP_PRIVATE标记位:被映射对象是一个私有的,写时拷贝的对象。
  • MAP_SHARED标记位:被映射对象是一个共享对象。

9.9 动态存储器分配


虽然可以使用更低级的mmapmunmap函数来创建和删除虚拟存储器的区域。

但是C程序员还是觉得用动态存储器分配器(dynamic memory allocator)更方便。

1065400-20171214125120748-275225408.png

  • 动态存储器分配器维护着一个进程的虚拟存储区域,称为堆(heap)
    • 系统之间细节不同,但是不失通用型。
    • 假设
      • 堆是一个请求二进制零的区域。
      • 紧接着未初始化的bss区域,并向上生长(向更高的地址)。
      • 对于每个进程,内核维护一个变量brk(break),指向堆顶。
  • 分配器将堆视为一组不同大小的块block的集合来维护。
    • 每个块就是一个连续的虚拟存储器片,即页面大小
    • 要么是已分配,要么是空闲
      • 已分配
        • 已分配的块显式地保留供应用程序使用。
        • 已分配的块保持已分配状态,直到它被释放。
          • 这种释放要么是应用程序显示执行。
          • 要么是存储器分配器自身隐式执行(JAVA)。
      • 空闲
        • 空闲块可用于分配。
        • 空闲块保持空闲,直到显式地被应用分配。
  • 分配器有两种基本分格。
    • 都要求应用显式分配
    • 不同之处在于那个实体负责释放已分配的块
    • 显式分配器(explict allocator)
      • 要求应用程序显式地释放
      • C语言中提供一种叫malloc程序显示分配器
        • malloc和free
      • C++
        • new和delete
  • 隐式分配器(implicit allocator)
  • 要求分配器检测一个已分配块何时不再被程序所使用,那么就释放这个块。
  • 隐式分配器又叫做垃圾收集器(garbage collector).
  • 自动释放未使用的已分配的块的过程叫做垃圾收集(garbage collection).
    -Lisp,ML以及Java等依赖这种分配器。
9.9.1 malloc和free 函数

malloc

C标准库提供了一个称为malloc程序包的显示分配器。

#include<stdlib.h>
void* malloc(size_t size);
                    返回:成功则为指针,失败为NULL
  • malloc 返回一个指针,指向大小为至少size字节的存储器块。
    • 不一定是size字节,很有可能是4或8的倍数
      • 这个块会为可能包含在这个块内的任何数据对象类型做对齐。
      • Unix系统用8字节对齐。
    • malloc不初始化它返回的存储器。
      • 如果想要初始化,可以用calloc函数。
        • callocmalloc一个包装函数。
    • 想要改变已分配块大小。
      • realloch函数
  • 如果malloc遇到问题。
    • 返回NULL, 并设置errno
  • 动态存储分配器,可以通过使用mmapmunmap函数,显示分配和释放堆存储器。

    • 或者可以使用sbrk函数。
#include<unistd.h>

void *sbrk(intptr_t incr);

                    返回:若成功则为旧的brk指针,若出错则为-1,并设置errno为ENOMEML.

free

程序通过调用free函数来释放已分配的堆块。

#include<stdlib.h>

void free(void *ptr);
                返回:无

  • ptr参数必须指向一个从malloc,calloc,realloc获得的已分配块的起始位置。
    • 如果不是,那么free行为未定义。
    • 更糟糕的是,free没有返回值,不知道是否错了。

1065400-20171214125135435-881199468.png

9.9.2 为什么要使用动态存储器分配

程序使用动态存储器分配的最重要原因是:

  • 经常直到程序实际运行时,它们才知道某些数据结构的大小。
9.9.3 分配器的要求和目标

显式分配器有如下约束条件

  • 处理任意请求序列。
  • 立即响应请求。
    • 不允许为提高性能重新排列或缓冲请求。
  • 只使用
  • 对齐块
    • 上文的8字节。
  • 不修改已分配的块。

目标

吞吐率最大化和存储器使用率最大化。这两个性能要求通常是相互冲突的

  • 目标1:最大化吞吐率
    • 假定n个分配和释放请求的某种序列R1,R2,R3.....Rn
      • 吞吐率 :每个单位时间完成的请求数。
    • 通过使分配和释放请求的平均时间最小化 来最大化吞吐率
  • 目标2:最大化存储器利用率
    • 设计优秀的分配算法。
    • 需要增加分配和释放请求的时间。
    • 评估使用堆的效率,最有效的标准是峰值利用率(peak utilization)
  • 吞吐率存储器利用率是相互牵制的,分配器设计的一个有趣的挑战就是在两者之间找到一个平衡
9.9.4 碎片

造成堆利用率很低的主要原因是一种称为碎片(fragmentation)的现象。

  • 碎片:虽然有未使用的存储器但不能满足分配要求时的现象。

    • 内部碎片:已分配块比有效载荷(实际所需要的)大时发生。
      • 比如:上文中只要5个字(有效载荷),却给了6个字(已分配块),那一个多的就是碎片.
      • 任何时刻,内部碎片的数量取决于以前请求的模式和分配器的实现方式。
        • 可计算的可量化的
    • 外部碎片:当空闲存储器合计起来足够满足一个分配请求,但是没有一个单独的空闲块足够大可以处理这个请求发生的。
      • 外部碎片的量化十分困难。
        • 不仅取决于以前请求的模式和分配器的实现方式,还要知道将来请求的模式。
9.9.5 实现问题

一个实际的分配器要在吞吐率利用率把握平衡,必须考虑一下几个问题。

  • 空闲块组织: 如何记录空闲块? ( 9.9.6)
  • 放置: 如何选择一个合适的空闲快来放置一个新分配的块? (9.9.7)
  • 分割: 将一个新分配的块放入某个空闲块后,如何处理这个空闲快中的剩余部分?(9.9.8)
9.9.6 隐式空闲链表

1065400-20171214125149513-1438028989.png

组织为一个连续的已分配块和空闲块的序列。

1065400-20171214125200998-1482769279.png

这种结构就叫做隐式空闲链表

  • 隐式 :
    • 为什么叫隐式链表
      • 因为不是通过指针(next)来链接起来。
      • 而是通过头部的长度隐含地链接起来。
    • 终止头部(类似与普通链表的NULL)
      • 已分配,大小为零的块
  • 优缺点:
    • 优点:简单
    • 缺点1:任何操作的开销都与已分配块和空闲块的总数呈线性关系O(N).
      • 放置分配的块。
      • 对空闲链表的搜索。
    • 缺点2: 即使申请一个字节,也会分配2个字的块。空间浪费。
9.9.7 放置已分配的块

有以下几种搜索放置策略

  • 首次适配
    • 从头开始搜索空闲链表,选择第一个合适的空闲块
  • 下一次适配
    • 和首次适配很类似,但不是从头开始,而是从上一次查询的地方开始。
  • 最佳适配
    • 检查每个空闲块,找一个满足条件的最小的空闲块(贪心)

优缺点

  • 首次适配
    • 优点
      • 往往将大的空闲块保留在链表后面。
    • 缺点
      • 小的空闲块往往在前面,增大了对较大快的搜索时间。
  • 下一次适配
    • 优点
      • 速度块。
    • 缺点
      • 存储器利用率低
  • 最佳适配
    • 优点
      • 利用率高
    • 缺点
      • 要完整搜索链表,速度慢。
9.9.8 分割空闲块

两种策略

  • 占用所有空闲块
    • 缺点:产生更多的内部碎片(但是如果内部碎片很少,可以接受)
    • 优点:能使得 空闲块+已分配块的数量减少
      • 能加快搜索速度。
      • 有的外部碎片(几个字节,很有可能是外部碎片)可能根本放置不了东西,但是却占用了搜索时间,还不如当内部碎片算了
    • 放置策略趋向于产生好的匹配中使用。
      • 即占用所有空闲块内部碎片也很少。
  • 分割空闲块
    • 缺点:更多的空闲块和已分配块,搜索速度降低。
    • 优点:空间利用率更高。
9.9.9 获取额外的堆存储器

如果分配器不能为请求块找到合适的空闲块将发生什么?

  • 合并相邻的空闲块
  • sbrk函数
    • 最大化合并还不行的情况。
    • 向内核请求额外的堆存储器。
      • 并将其转为大的空闲块
      • 插入链表
9.9.10 合并空闲块

假碎片: 因为释放,使得某些时候会出现相邻的空闲块

  • 单独的放不下请求(碎片),合并却可以(假性),所以叫假碎片

何时合并?

  • 立即合并
    • 定义:块被释放时,合并所有相邻的块。
    • 缺点:对于某些请求模式,会产生抖动
  • 推迟合并
    • 定义: 一个稍晚的时候,再合并。
      • 比如:上文中的找不到合适空闲块的时候。

9.10 GC_垃圾收集


垃圾收集器(garbage collector)是一种动态存储分配器

  • 垃圾: 它自动释放不再需要的已分配块,这些块称为垃圾(garbage).
  • 垃圾收集(garbage collection) :自动回收堆存储的过程叫做垃圾收集
    • 应用显式分配堆块,但从不显式释放堆块。
    • 垃圾收集器定期识别垃圾快,并调用相应地free,将这些快放回空闲链表。

垃圾收集可以追溯到John McCarthy20世纪60年代早期在MIT开发的Lisp系统

  • 它是Java,ML,Perl和Mathematic等现代语言系统的一个重要部分。
  • 有关文献描述了大量的垃圾收集方法,数量令人吃惊。
  • 我们讨论局限于McCarthy自创的Mark&Sweep(标记&清除)算法
    • 它可以建立已存在的malloc包的基础上,为C和C++提供垃圾收集。

9.11 C程序中常见的与存储器有关的错误


9.11.1 间接引用坏指正
scanf("%d",&val);
scanf("%d",val);
  • 最好的情况 : 以异常中止。
  • 有可能覆盖某个合法的读/写区域,造成奇怪的困惑的结果。
9.11.2 读未初始化的存储器

堆存储器并不会初始化。

1065400-20171214125431342-1511148045.png

  • 正确做法
    • 使用calloc.
    • 显示y[i]=0;
9.11.3 允许栈缓冲区溢出

程序不检查输入串的大小就写入栈中的目标缓冲区

  • 那么就有缓冲区溢出错误(buffer overflow bug)
  • gets()容易引起这样的错误
    - 用fgets()限制大小。
9.11.4 假设指针和它们所指向对象是相同大小

有的系统里,intint *都是四字节,有的则不同。

9.11.5 越界
9.11.6 引用指针,而不是它所指向的对象

对指针的优先级用错。

9.11.7 误解指针的运算

忘记了指针的算术操作是以它们指向的对象的大小为单位来进行的,这种大小不一定是字节

1065400-20171214125444513-915537323.png

9.11.8 引用不存在的变量

1065400-20171214125458013-1047673625.png

返回一个指针,指向里面一个变量的地址。但是这个变量在返回的时候已经从栈里被弹出。

  • 地址是正确的,指向了
  • 但是却没有指向想指向的变量。
9.11.9 引用空闲堆块的数据

引用了某个已经free掉的块。在C++多态中经常容易犯这个错误。

9.11.10 引起存储器泄露
  • 即是没有回收垃圾。导致内存中垃圾越来越多。
    • 只有重启程序,才能释放。
  • 对于守护进程和服务器这样的程序,存储器泄露是十分严重的事。
    • 因为一般情况,不能随便重启。

9.12 小结


虚拟存储器是对主存的一个抽象。

  • 使用一种叫虚拟寻址的间接形式来引用主存。
    • 处理器产生虚拟地址,通过一种地址翻译硬件来转换为物理地址
      • 通过使用页表来完成翻译。
        • 又涉及到各级缓存的应用。
        • 页表的内容由操作系统提供

虚拟存储器提供三个功能

  • 它在主存中自动缓存最近使用的存放在磁盘上的虚拟地址空间内容
    • 虚拟存储器缓存中的块叫做
  • 简化了存储器管理
    • 进而简化了链接
    • 进程间共享数据
    • 进程的存储器分配以及程序加载。
  • 每条页表条目里添加保护位,从而简化了存储器保护

地址翻译的过程必须和系统中所有的硬件缓存的操作集合。

  • 大多数条目位于L1高速缓存中。
    • 但是又通过一个TLB的页表条目的片上高速缓存L1

现代系统通过将虚拟存储器片和磁盘上的文件片关联起来,以初始化虚拟存储器片,这个过程叫做存储器映射

  • 存储器映射为共享数据,创建新的进程 以及加载数据提供一种高效的机制。

  • 可以用mmap 手工维护虚拟地址空间区域
    • 大多数程序依赖于动态存储器分配,例:malloc
      • 管理虚拟地址空间一个称为堆的区域
      • 分配器两种类型
        • 显示分配器
          • C,C++
        • 隐式分配器
          • JAVA

GC是通过不断递归访问指针来标记已分配块,在需要的时刻进行Sweep

  • C,C++无法辨认指针导致无法实现完全的GC
    • 只有保守的GC
    • 需要配合平衡树进行查找p所指向的块

第九章课后家庭作业

书上课后练习题都有答案,就不在博客里详细写了。

9.11

1065400-20171215201256746-517800914.png

A.虚拟地址0x027c

13 12 11 10 9 8 7 6 5 4 3 2 1 0
0 0 0 0 1 0 0 1 1 1 1 1 0 0

B.地址翻译

参数
VPN 0x09
TLB索引 0x01
TLB标记 0x02
TLB命中 No
缺页 No
PPN 0x17

C.物理地址格式

11 10 9 8 7 6 5 4 3 2 1 0
0 1 0 1 1 1 1 1 1 1 0 0

D.物理地址引用

参数
字节偏移 0x0
缓存索引 0xF
缓存标记 0x17
缓存命中 No
返回缓存字节 -

9.12

1065400-20171215201317543-633167387.png

A.虚拟地址0x03a9

13 12 11 10 9 8 7 6 5 4 3 2 1 0
0 0 0 0 1 1 1 0 1 0 1 0 0 1

B.地址翻译

参数
VPN 0x0E
TLB索引 0x02
TLB标记 0x03
TLB命中 No
缺页 No
PPN 0x11

C.物理地址格式

11 10 9 8 7 6 5 4 3 2 1 0
0 1 0 0 0 1 1 0 1 0 0 1

D.物理地址引用

参数
字节偏移 0x1
缓存索引 0xA
缓存标记 0x11
缓存命中 No
返回缓存字节 -

9.13

A.虚拟地址0x0040

13 12 11 10 9 8 7 6 5 4 3 2 1 0
0 0 0 0 0 0 0 1 0 0 0 0 0 0

B.地址翻译

参数
VPN 0x01
TLB索引 0x01
TLB标记 0x00
TLB命中 No
缺页 YES
PPN -

1065400-20171215201342558-1245078597.png

9.14

1065400-20171215201352996-1653778812.png

#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <sys/mman.h>
int main()
{
    int fd;
    char *start;
    fd = open("hello.txt", O_RDWR, 0); //打开文件
    start = mmap(NULL, 1, PROT_WRITE, MAP_SHARED, fd, 0);
    close(fd);  
    if(start == MAP_FAILED) return -1;//判断是否映射成功
    (*start) = 'J';
    munmap(start, 1);
    return 0;
} 

9.15

1065400-20171215201426215-882244503.png

请求 块大小 块头部
malloc(3) 8 0x9
malloc(11) 16 0x11
malloc(20) 24 0x19
malloc(21) 32 0x21

9.16

1065400-20171215201443949-1381323337.png
对齐要求 | 已分配块|空闲块|最小块大小|
---|---|---|---|
单字 | 头部和脚部|头部和脚部|16字节|
单字 | 头部,但是没有脚部|头部和脚部|16字节|
双字 | 头部和脚部|头部和脚部|16字节|
双字 | 头部,但是没有脚部|头部和脚部|16字节|

空闲块至少是16字节。已分配块不需要predsucc,所以这八个字节可以装数据,加上头和脚,就是16字节,而且满足单字双字对齐。

9.17

1065400-20171215201502496-1781081458.png

我们需要修改find_fit函数(之前的版本在practise习题中写过,书后有答案)。

代码可以参考9.18

为此需要先定义一个全局的cur_point指针,表示上次搜索之后指向哪个块(有效载荷首地址)。

static void *find_fit(size_t asize)
{
    void *bp = cur_point;
    do{
        if( !GET_ALLOC(HDRP(bp)) && (asize <= GET_SIZE(HDRP(bp))) )            
            return cur_point = bp;
        bp = (GET_SIZE(HDRP(bp)) == 0) ? heap_listp : NEXT_BLKP(bp);    
    }while(bp != cur_point);
    
    return NULL;
}

另外,需要释放cur_point指向的指针时,它可能和前面的空闲块合并,我们应该将cur_point指向前一个空闲块首地址。在coalesce()函数中需要做如下修改:

else if (!prev_alloc && next_alloc) { /* Case 3 */
    size += GET_SIZE(HDRP(PREV_BLKP(bp)));
    PUT(FTRP(bp), PACK(size, 0));
    PUT(HDRP(PREV_BLKP(bp)), PACK(size, 0));
    if(cur_point == bp) cur_point = PREV_BLKP(bp);
    bp = PREV_BLKP(bp);
}
else { /* Case 4 */
    size += GET_SIZE(HDRP(PREV_BLKP(bp))) +
    GET_SIZE(FTRP(NEXT_BLKP(bp)));
    PUT(HDRP(PREV_BLKP(bp)), PACK(size, 0));
    PUT(FTRP(NEXT_BLKP(bp)), PACK(size, 0));
    if(cur_point == bp) cur_point = PREV_BLKP(bp);
    bp = PREV_BLKP(bp);
}

9.18

1065400-20171215201514324-1514368729.png

需要考虑四个问题

    1. 初始化的时候,序言块结尾块是怎么样的。

    序言块八字节8|0x11。

    结尾块四字节0|0x11.

    1. 申请更多空间的时候(sbrk),如何更改结尾块

    记录最后一个块的alloc

    结尾块向后延伸申请的空间,并将刚多出的空间作为一个空闲块。设置为size|(alloc<<1)。再合并该空闲块。这里如何合并呢?需要判断最后一块是否已分配,可通过epilogue来判断。

    1. 某个空闲块匹配的时候,如何设置头和下一块的头。

    我们基于以下假设:某个空闲块匹配,上一个和下一个一定不是空闲块(否则可以合并)。

    所以头部就设置为(asize|0x011)。

    如果要分割,则下一块的头部设置为(size-asize|0x010),不用合并,因为再下一块肯定是已经分配。

    1. 释放某个块时,如何合并。

    检查头部,alloc_prev = 上一块是否分配

    检查下一个块的头部,alloc_next = 下一个块是否分配。

    再根据那四种情况分别设置。

    最后,如果下一块已分配,则需要将下一块头部设置为(原头部&(~0x010))。

另外,在mm_malloc中,分配多大的块也要发生相应的变化,因为现在最小块大小可以是DSIZE,而不是2*DSIZE

9.19

1065400-20171215201530965-1949743362.png

  • 1) a; 对于伙伴系统,如果要申请大小为33的空间,那么需要分配64个空间。如果申请大小为65的空间,那么块大小就需要128,所以最多可能有约50%的空间被浪费。b中,最佳适配要搜索所有空间,所以肯定比首次适配要慢一些。c,边界标记主要功能是释放一个块时,能立即和前后空闲块合并。如果空闲块不按顺序排列的话,其实也能够和前一个或者后一个空闲块进行合并,但如果要和前后一起合并,可能会有些困难,那需要搜索前后块在空闲链表中的位置,并且删除一个再进行合并。可以参考P576,LIFO方法。d,其实任何分配器都可能有外部碎片,只要剩余的空闲块大小和足够但是单个都不够,就会产生外部碎片

  • 2) d; 块大小递增,那么最佳适配法找到的块和首次适配找到的块是同一个,因为最佳适配总是想找一个刚好大于请求块大小的空闲块。a,块大小递减,首次适配很容易找到,所以分配性能会很高。b,最佳适配方法无论怎样,都要搜索所有的链表(除非维护成块大小递增的链表)。c,是匹配的最小的。

  • 3) c; 保守的意思就是所有可能被引用的堆都会被标记,int像指针,所以可能认为它表示的地址是正在被引用的(实际上它只是个int)。

9.20

1065400-20171215201541402-1172098227.png

不会……

教材学习中的问题及解决

在深入学习之前我和同伴是带着这些疑问的,学习之后通过讨论,对这些问题有了一点理解。

  • 问题1Linux虚拟地址空间如何分布?
  • 问题1解决

    Linux 使用虚拟地址空间,大大增加了进程的寻址空间,由低地址到高地址分别为:
    • 1、只读段:该部分空间只能读,不可写;(包括:代码段、rodata 段(C常量字符串和#define```定义的常量) )
    • 2、数据段:保存全局变量、静态变量的空间;
    • 3、 :就是平时所说的动态内存, malloc/new 大部分都来源于此。其中堆顶的位置可通过函数 brk 和 sbrk 进行动态调整。
    • 4、文件映射区域 :如动态库、共享内存等映射物理空间的内存,一般是 mmap 函数所分配的虚拟地址空间。
    • 5、:用于维护函数调用的上下文空间,一般为 8M,可通过 ulimit –s 查看。
    • 6、内核虚拟空间:用户代码不可见的内存区域,由内核管理(页表就存放在内核虚拟空间)。
  • 问题264位系统拥有2^64的地址空间吗?
  • 问题2解决

    事实上, 64 位系统的虚拟地址空间划分发生了改变:
    • 1、地址空间大小不是2^32,也不是2^64,而一般是2^48。因为并不需要 2^64 这么大的寻址空间,过大空间只会导致资源的浪费。64Linux一般使用48位来表示虚拟地址空间,40位表示物理地址,这可通过 /proc/cpuinfo来查看
    • 2、其中,0x0000000000000000~0x00007fffffffffff表示用户空间, 0xFFFF800000000000~ 0xFFFFFFFFFFFFFFFF表示内核空间,共提供 256TB(2^48) 的寻址空间。这两个区间的特点是,第 47 位与 48~63 位相同,若这些位为 0 表示用户空间,否则表示内核空间。
    • 3、用户空间由低地址到高地址仍然是只读段数据段文件映射区域
  • 问题3:如何查看进程发生缺页中断的次数?
  • 问题3解决

    ps -o majflt,minflt -C program命令查看。

    majflt代表major fault,中文名叫大错误,minflt代表minor fault,中文名叫小错误。

    这两个数值表示一个进程自启动以来所发生的缺页中断的次数。

  • 问题4:发成缺页中断后,执行了那些操作?
  • 问题4解决

    当一个进程发生缺页中断的时候,进程会陷入内核态,执行以下操作:
    • 1、检查要访问的虚拟地址是否合法
    • 2、查找/分配一个物理页
    • 3、填充物理页内容(读取磁盘,或者直接置0,或者啥也不干)
    • 4、建立映射关系(虚拟地址到物理地址)

    重新执行发生缺页中断的那条指令

  • 问题5堆内碎片不能直接释放,导致疑似“内存泄露”问题,为什么 malloc不全部使用 mmap 来实现呢(mmap分配的内存可以会通过 munmap 进行 free ,实现真正释放)?而是仅仅对于大于 128k的大块内存才使用 mmap
  • 问题5解决

    进程向 OS 申请和释放地址空间的接口 sbrk/mmap/munmap 都是系统调用,频繁调用系统调用都比较消耗系统资源的。并且, mmap 申请的内存被 munmap 后,重新申请会产生更多的缺页中断。例如使用 mmap 分配 1M 空间,第一次调用产生了大量缺页中断 (1M/4K 次) ,当munmap 后再次分配 1M 空间,会再次产生大量缺页中断。缺页中断是内核行为,会导致内核态CPU消耗较大。另外,如果使用 mmap 分配小内存,会导致地址空间的分片更多,内核的管理负担更大

    同时堆是一个连续空间,并且堆内碎片由于没有归还 OS ,如果可重用碎片,再次访问该内存很可能不需产生任何系统调用和缺页中断,这将大大降低 CPU 的消耗。 因此, glibcmalloc 实现中,充分考虑了 sbrkmmap 行为上的差异及优缺点,默认分配大块内存 (128k) 才使用 mmap 获得地址空间,也可通过 mallopt(M_MMAP_THRESHOLD, <SIZE>)来修改这个临界值。

    上周考试错题总结

    结对及互评

点评模板:

  • 博客中值得学习的或问题:
    • xxx
    • xxx
    • ...
  • 代码中值得学习的或问题:
    • xxx
    • xxx
    • ...
  • 其他

本周结对学习情况

-[20155318](http://www.cnblogs.com/lxy1997/)
- 结对照片
- 结对学习内容
    - 教材第九章内容
    - 跟着同伴回顾了第十二章的内容
    - ...

其他(感悟、思考等,可选)

通过这一章的学习,进一步加深了对虚拟存储器的了解。

代码托管

(statistics.sh脚本的运行结果截图)

1065400-20171216193321327-12250046.png

学习进度条

代码行数(新增/累积) 博客量(新增/累积) 学习时间(新增/累积) 重要成长
目标 5000行 30篇 400小时
第一周 133/133 1/1 8/8
第三周 159/292 1/3 10/18
第五周 121/413 1/5 10/28
第七周 835/3005 2/7 10/38
第八周 1702/4777 1/8 10/48
第九周 1664/6441 3/11 10/58
第十一周 300/6741 3/14 10/68
第十三周 743/7484 2/16 10/78

尝试一下记录「计划学习时间」和「实际学习时间」,到期末看看能不能改进自己的计划能力。这个工作学习中很重要,也很有用。
耗时估计的公式
:Y=X+X/N ,Y=X-X/N,训练次数多了,X、Y就接近了。

参考:软件工程软件的估计为什么这么难软件工程 估计方法

  • 计划学习时间:15小时

  • 实际学习时间:10小时

  • 改进情况:

(有空多看看现代软件工程 课件
软件工程师能力自我评价表
)

参考资料

转载于:https://www.cnblogs.com/guyanlin/p/8033903.html

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

2017-2018-1 20155227 《信息安全系统设计基础》第十三周学习总结 的相关文章

  • windows查看WIFI无线网络密码

    方法一 通过查看无线属性查询 1 首先 点击电脑右下角的WiFi的图标 选择 打开网络和internet设置 或者选择打开设置 点击 更改适配器选项 2 选中无线网 查看此连接的状态 3 查看无线属性 4 然后选择上方的安全 选中显示字符

随机推荐

  • vue el-table 行排序 + 拖拽排序 简单粗暴

    1 行排序 HTML
  • mmdetection 报错 cats = self.dataset['categories'] KeyError: 'categories'

    如上图 报错 原因 coco训练集中没有categories字段 即数据集的标注json文件不对 解决方案 请参照coco数据集格式
  • 【华为OD统一考试A卷

    华为OD统一考试A卷 B卷 新题库说明 2023年5月份 华为官方已经将的 2022 0223Q 1 2 3 4 统一修改为OD统一考试 A卷 和OD统一考试 B卷 你收到的链接上面会标注A卷还是B卷 请注意 根据反馈 目前大部分收到的都是
  • PCL MeanShift点云聚类(C++详细过程版)

    目录 一 算法原理 1 原理概述 2 实现流程 3 参考文献 二 代码实现 三 结果展示 四 测试数据 本文由CSDN点云侠原创 爬虫网站请自重原文链接 一 算法原理 1 原理概述 均值漂移算法是一种非参数聚类技术 它不需要预先知道聚类的数
  • HTML、PHP实战:搭建一个网页登录页面。

    一 实验环境 MySQL5 7 26 FTP0 9 60 Apache2 4 39 我这里用的是PHPstudy小皮一键搭建的 数据库 二 登录页面 登录页面前端代码 文件名 denglu html
  • 人工智能学习笔记(一)Agent

    智能agent 开篇前言 agent的分类 1 简单反射agent 2 基于状态的反射agent 3 基于目标的agent 4 基于效用的agent 5 学习agent Exploration vs Exploitation 开篇前言 这段
  • 一文读懂什么是DHCP以及DHCP的功能特点

    随着企业中网络结构的日益复杂 接入终端的急剧增加 传统的IP分配方式已经无法满足日常工作需求 DHCP的出现有效解决了IP地址分配难题 本文中科三方针对什么是DHCP以及DHCP的功能特点做下介绍 什么是DHCP DHCP 全称Dynami
  • Python+Excel筛选未提交人员

    起因 学校给了表格让我们班长统计信息 可以用腾讯大大的TIM协作办公 让大家自己填 感觉方便了很多 然而 信息一旦变多而且顺序又没有固定 到后期想要知道未填信息的同学 这就难受了 只能找到班级名单 一个一个对照着找出未提交人员 日后此类事情
  • OCR入门教程系列(一):OCR基础导论

    作者简介 CSDN 阿里云人工智能领域博客专家 新星计划计算机视觉导师 百度飞桨PPDE 专注大数据与AI知识分享 公众号 GoAI的学习小屋 免费分享书籍 简历 导图等 更有交流群分享宝藏资料 关注公众号回复 加群 或 链接 加群 专栏推
  • 【LVGL学习笔记】image图像相关接口

    数据结构如下 Data of image typedef struct lv obj t obj const void src 图像源 指向数组 文件或符号的指针 lv point t offset lv coord t w 宽度 lv c
  • 计算机硬盘模式,硬盘三种模式的含义-电脑自学网

    硬盘三种模式的含义 NORMAL 普通模式 是最早的IDE方式 以此方式访问BIOS和IDE控制器对参数不做任何转换 该模式支持的最大柱面数为1024 最大磁头数为16 最大扇区为63 每个扇区字节数为512 因此这种模式所支持的硬盘最大容
  • Open3D点云处理算法最全合集

    Open3D点云处理算法最全合集 致力于搜集可运行 可视化较好的Open3D算法 持续更新中 1 Open3D 点云读取及可视化 离群点去除 2 Open3D 点云体素格下采样 3 Open3D 点云KdTree建立 3种近邻搜索及结果可视
  • 系统开发与运行

    系统开发与运行 系统分析与设计 需求分析 需求工程 结构化分析与设计 测试基础知识 系统运行与维护 软件架构介绍 系统分析概述 系统分析是一种问题求解技术 它将一个系统分解成各个组成部分 目的是研究各个部分如何工作 交互 以实现其系统目标
  • set_new_handler(0)是什么意思?有什么用?

    出自 STL源码剖析 第45页中有一行代码set new handler 0 源代码 inline T allocate ptrdiff t size T std set new handler 0 T tmp T operator new
  • C#中File FileInfo 和Directory DirectoryInfo 类的区别

    老师在讲C 文件操作的时候讲的个类 功能类似 但用法有区别 他们都存在于systerm IO命名空间下 File和Directory的方法都是静态方法 FileInfo和DirectoryInfo的方法都是普通方法 老师建议是如果你要在某个
  • Python之PyAudio使用

    PyAudio 播放 录音 回放 回调方法播放 非阻塞回调 PyAudio 使用这个可以进行录音 播放 生成wav文件等等 播放 coding utf 8 引入库 import pyaudio import wave import sys
  • aiohttp 异步http请求-12.aiohttp 请求生命周期(和requests库有什么不一样?)

    前言 aiohttp 请求生命周期对比requests库使用的区别 aiohttp 客户端 API 当你第一次使用 aiohttp 时 你会注意到一个简单的 HTTP 请求不是一次执行的 而是最多三个步骤 async with aiohtt
  • dac0832三角波c语言程序,单片机控制DAC0832输出正弦波三角波汇编程序

    org 0000h LJMP MAIN ORG 0003H LJMP L0 MAIN MOV R2 0aH 调幅倍数 MOV R4 01H 增减选择 MOV R5 01H pp SETB EA SETB EX0 延时计数个数 MOV A 0
  • 渗透系列之排序处产生的SQL注入问题

    1 在日常的测试过程中 发现系统的排序功能最容易产生sql注入 我们需要重点关注业务系统的排序功能 一般功能点对应这类字段 sortField sortOrder order orderby等 举个排序的SQL注入案例 发现系统的一个查询功
  • 2017-2018-1 20155227 《信息安全系统设计基础》第十三周学习总结

    2017 2018 1 20155227 信息安全系统设计基础 第十三周学习总结 找出全书你认为最重要的一章 深入重新学习一下 要求 期末占10分 完成这一章所有习题 详细总结本章要点 给你的结对学习搭档讲解你的总结并获取反馈 我选择教材第