操作系统王道考研复习——第三章(内存管理/存储器管理)

2023-11-05

操作系统王道考研复习——第三章(内存管理/存储器管理)

3 内存管理(存储器管理)

存储器管理的主要对象是内存(随机存储器)。对外存的管理与对内存的管理相类似,只是它们的用途不同,外存主要用来存放文件,对于外存的管理放在文件管理一章再介绍。
对于通用计算机而言,存储层次至少应具有三级:最高层为CPU寄存器,中间为主存,最底层是辅存。在较高档的计算机中,还可以根据具体的功能细分为寄存器、高速缓存、主存储器、磁盘缓存、固定磁盘、可移动存储介质等6层。
在这里插入图片描述
注:

  • ①在计算机系统的存储层次中,寄存器和主存储器又被称为可执行存储器。
  • ②主存储器简称 内存 或 主存。
  • ③寄存器具有与处理机相同的速度,故对寄存器的访问速度最快。
  • ④高速缓存主要用于备份主存中较常用的数据,以减少处理机对主存储器的访问次数,缓和了内存与处理机速度之间的矛盾。当CPU要访问一组特定的信息时,会首先检查它是否在高速缓存中。
  • ⑤磁盘的I/O速度远低于对主存的访问速度,为了缓和两者之间在速度上的不匹配,而设置了磁盘缓存,主要用于暂时存放频繁使用的一部分磁盘数据和信息,以减少访问磁盘的次数。但磁盘缓存和高速缓存不同,它本身并不是一种实际存在的寄存器,而是利用主存中的部分存储空间暂时存放从磁盘中读出或写入的信息。主存也可以看作是辅存的高速缓存。

关于以上存储层次里的内容就不再一一介绍,这里做个了解即可。
内存管理和进程管理是操作系统的核心内容,需要重点复习。本章围绕分页机制展开:通过分页管理方式在物理内存大小的基础上提高内存的利用率,再进一步引入请求分页管理方式,实现虚拟内存,使内存脱离物理大小的限制,从而提高处理器的利用率。

3.1 内存管理概念

3.1.1 内存管理的基本原理和要求

内存管理是操作系统设计中最重要和最复杂的内容之一。操作系统对内存的划分和动态分配就是内存管理。有效的内存管理在多道程序设计中非常重要,它不仅可以方便用户使用存储器、提高内存利用率,还可以通过虚拟技术从逻辑上扩充存储器。内存是为了缓和CPU与磁盘之间的速度矛盾。程序执行前都必须存放在内存中才能被CPU处理。

操作系统在对内存进行管理时,需要负责以下内容:

  • ①操作系统负责内存空间的分配与回收
  • ②操作系统需要提供某种技术从逻辑上对内存空间进行扩充
  • ③操作系统需要提供地址转换功能,负责程序的逻辑地址与物理地址的转换
  • ④操作系统需要提供内存保护功能。保证各进程在各自存储空间内运行,互不干扰。
1. 可执行程序的形成

创建进程首先要将程序和数据装入内存。将用户源程序变为可在内存中执行的程序,通常需要以下几个步骤:

  • ①编译。由编译程序将用户源代码编译成若干目标模块。(编译就是把高级语言翻译为机器语言)
  • ②链接。由链接程序将编译后形成的一组目标模块及所需的库函数链接在一起,形成一个完整的装入模块
  • ③装入。由装入程序将装入模块装入内存运行。
    在这里插入图片描述

这里先介绍一下逻辑地址空间和物理地址空间

编译后,每个目标模块都从0号单元开始编址,这称为该目标模块的相对地址(或逻辑地址)。当链接程序将各个模块链接成一个完整的可执行目标程序时,链接程序顺序依次按各个模块的相对地址构成统一的从0号单元开始编址的逻辑地址空间。用户程序和程序员只需知道逻辑地址,而内存管理的具体机制则是完全透明的,只有系统编程人员才会涉及内存管理的具体机制。不同进程可以由相同的逻辑地址映射到主存的不同位置

物理地址空间是指内存中物理单元的集合,它是地址变换的最终地址,进程在运行时执行指令和访问数据,最后都要通过物理地址从主存中存取。当装入程序将可执行代码装入内存时,必须通过地址转换将逻辑地址转换成物理地址,这个过程称为地址重定位

所以将用户源程序变为可在内存中执行的程序的具体过程如下:
在这里插入图片描述

2. 程序的链接
1)静态链接

在程序运行之前,先将各目标模块及它们所需的库函数链接成一个完整的可执行程序,以后不再拆开
在这里插入图片描述

2)装入时动态链接

将用户源程序编译后所得到的一组目标模块,在装入内存时,采用边装入边链接的方式。
在这里插入图片描述

3)运行时动态链接

对某些目标模块的链接,是在程序执行中需要该目标模块时才进行的。采用这种方式的优点是,一是便于修改和更新;二是便于实现对目标模块的共享。凡在执行过程中未被用到的目标模块,都不会被调入内存和被链接到装入模块上,这样不仅能加快程序的装入过程,而且可节省大量的内存空间。
在这里插入图片描述

3. 程序的装入(装入模块装入内存)
1)绝对装入(静态装入)

在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码。装入程序按照装入模块中的地址,将程序和数据装入内存。绝对装入只适用于单道程序环境。程序中使用的绝对地址,可在编译或汇编时给出,也可由程序员直接赋予。通常情况下都是编译或汇编时再转换为绝对地址。
在这里插入图片描述

2)可重定位装入(静态重定位)

多道程序环境下,多个目标模块的起始地址(简称始址)通常都从0开始,程序中的其他地址都是相对于始址的,此时应采用可重定位装入方式。根据内存的当前情况,将装入模块装入内存的适当位置。装入时对目标程序中指令和数据的修改过程称为重定位,地址变换通常是在装入时一次完成的(逻辑地址变换成物理地址),以后不再改变,所以又称静态重定位。

特点:一个作业装入内存时,必须给它分配要求的全部内存空间,若没有足够的内存,则不能装入该作业。此外,作业一旦进入内存,整个运行期间就不能在内存中移动,也不能再申请内存空间。
在这里插入图片描述

3)动态运行时装入(动态重定位)

编译、链接后的装入模块的地址都是从0开始的。装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个重定位寄存器的支持。允许程序在内存中发生移动
在这里插入图片描述

小结:

  • 1)绝对装入(静态装入)是指编程阶段就把物理地址计算好。
  • 2)可重定位装入(静态重定位)是指装入时把逻辑地址转换成物理地址,但装入后不能改变
  • 3)动态重定位是指执行时再决定装入的地址并装入,装入后有可能会换出,所以同一个模块在内存中的物理地址是可能改变的。
    在这里插入图片描述
4. 内存保护

内存分配前,需要保护操作系统不受用户进程的影响,同时保护用户进程不受其他用户进程的影响。内存保护可采用两种方法:

  1. 在CPU中设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,分别和两个寄存器的值相比,判断有无越界。
  2. 采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检查。重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址。
    在这里插入图片描述

实现内存保护需要重定位寄存器和界地址寄存器。重定位寄存器是用来“加”的,逻辑地址加上重定位寄存器中的值就能得到物理地址;界地址寄存器是用来“比”的,通过比较界地址寄存器中的值与逻辑地址的值来判断是否越界。

3.1.2 覆盖与交换

覆盖与交换技术是在多道程序环境下用来扩充内存的两种方法。

1. 覆盖

覆盖的基本思想是将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存。内存中分为一个“固定区”和若干个“覆盖区”。需要常驻内存的段放在“固定区”中,调入后就不再调出(除非运行结束)。不常用的段放在“覆盖区”,需要用到时调入内存,用不到时调出内存。

它的特点是,打破了必须将一个进程的全部信息装入主存后才能运行的限制,但要是同时运行程序的代码量大于主存时还是不能运行,此外,内存中能够更新的地方只有覆盖区的段,不在覆盖区中的段会常驻内存。
在这里插入图片描述
必须由程序员声明覆盖结构,操作系统完成自动覆盖。缺点:对用户不透明,增加了用户编程负担。覆盖技术只用于早期的操作系统中,现在已成为历史。

2. 交换

交换(对换)的基本思想是,把处于等待状态(或在CPU调度原则下被剥夺运行权利或是内存空间紧张时)的程序从内存移到辅存,把内存空间腾出来,这一过程称作换出;把准备好竞争CPU运行的程序从辅存移到内存,这一过程又称换入中级调度采用的就是交换技术,决定将哪个处于挂起状态的进程重新调入内存。

暂时换出外存等待的进程状态为挂起状态(挂起态,suspend)。挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态。(这些是第二章的内容,这里做个小复习~)
在这里插入图片描述

  1. 具有对换功能的操作系统中,通常把磁盘空间分为文件区对换区两部分。文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式;对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区。由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式。总之,对换区的I/O速度比文件区的更快
  2. 交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停。例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程;如果缺页率明显下降,就可以暂停换出。
  3. 可优先换出阻塞进程;可换出优先级低的进程;为了防止优先级低的进程在被调入内存后很快又被换出,有的系统还会考虑进程在内存的驻留时间…

在这里插入图片描述
注意:PCB 会常驻内存,不会被换出外存。因为PCB可以记录着进程被存放在外存的位置等信息。
在这里插入图片描述
交换技术主要在不同进程(或作业)之间进行,而覆盖则用于同一个程序或进程中。

3.1.3 连续分配管理方式

连续分配方式是指为一个用户程序分配一个连续的内存空间。连续分配方式可分为四类:单一连续分配、固定分区分配、动态分区分配以及动态可重定位分区分配算法。

1. 内部碎片和外部碎片

在分配方式之前先介绍一下什么是内部碎片,什么是外部碎片。
内部碎片:分配给某进程的内存区域中,有些内存没有用上。
外部碎片:是指内存中的某些空闲分区由于太小而难以利用。

2. 单一连续分配(无外部碎片,有内部碎片)

在单一连续分配方式中,内存被分为系统区用户区。系统区通常位于内存的低地址部分,用于存放操作系统相关数据;用户区用于存放用户进程相关数据。内存中只能有一道用户程序,用户程序独占整个用户区空间。这种方式不需要进行内存保护,因为内存中永远只有一道程序,因此肯定不会因为访问越界而干扰其他程序。
在这里插入图片描述
注意:上面的为低地址,下面的为高地址。

优点:实现简单;无外部碎片;可以采用覆盖技术扩充内存;不一定需要采取内存保护(eg:早期的 PC 操作系统 MS-DOS)。
缺点:只能用于单用户、单任务的操作系统中;有内部碎片;存储器利用率极低。

3. 固定分区分配(无外部碎片,有内部碎片)

固定分区分配是最简单的一种多道程序存储管理方式,它将用户内存空间划分为若干固定大小的区域,每个分区只装入一道作业。当有空闲分区时,便可再从外存的后备作业队列中选择适当大小的作业装入该分区,如此循环。
固定分区分配在划分分区时有两种不同的方法:分区大小相等分区大小不等
在这里插入图片描述
分区大小相等:缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合(比如:钢铁厂有n个相同的炼钢炉,就可把内存分为n个大小相等的区域存放n个炼钢炉控制程序)
分区大小不等:增加了灵活性,可以满足不同大小的进程需求。根据常在系统中运行的作业大小情况进行划分(比如:划分多个小分区、适量中等分区、少量大分区)

为了便于内存分配,操作系统需要建立一个数据结构——分区说明表,来实现各个分区的分配与回收。每个表项对应一个分区,通常按分区大小排列。每个表项包括对应分区的大小、起始地址、状态(是否已分配)。
在这里插入图片描述
当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能满足大小的、未分配的分区,将之分配给该程序,然后修改状态为“已分配”。未找到合适分区时,则拒绝为该用户程序分配内存。

优点:实现简单,无外部碎片。
缺点:①当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能;② 主存利用率低,当程序小于固定分区大小时,也占用一个完整的内存分区空间,这样分区内部就会存在空间浪费,从而产生内部碎片。

固定分区分配很少用于现在通用的操作系统中,但在某些用于控制多个相同对象的控制系统中扔发挥着一定的作用。

4. 动态分区分配(无内部碎片,有外部碎片)

动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要。因此系统分区的大小和数目是可变的。

系统用空闲分区表空闲分区链这两种常用的数据结构来记录内存的使用情况。
空闲分区表:每个空闲分区对应一个表项。表项中包含分区号、分区大小、分区起始地址等信息。
在这里插入图片描述
空闲分区链:每个分区的起始部分和末尾部分分别设置前向指针和后向指针。起始部分处还可记录分区大小等信息。
在这里插入图片描述
在动态分区存储管理方式中,主要的操作是分配内存回收内存
回收内存有三种情况,这三种情况理解起来相对比较简单,这里就不多赘述,具体看图。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在存储管理中,会产生碎片问题的存储管理方式是动态分区存储管理(指外部碎片)。
分配内存需要用到分区分配算法。动态分区分配算法有两种,一种是基于顺序搜索的动态分区分配算法,另一种是基于索引搜索的动态分区分配算法。

1)基于顺序搜索的动态分区分配算法(一定要掌握)

为了实现动态分区分配,通常是将系统中的空闲分区链接成一个链。所谓顺序搜索,是指依次搜索空闲分区链上的空闲分区,去寻找一个其大小能满足要求的分区。基于顺序搜索的动态分区分配算法有如下四种:

① 首次适应算法(FIrst Fit)

算法思想:每次都从低地址开始查找,找到第一个能满足大小的空闲分区。
如何实现:空闲分区以地址递增的次序排列。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
在这里插入图片描述
在这里插入图片描述

优点:优先利用内存中低址部分的空闲分区,从而保留了高址部分的大空闲区。这为以后到达的大作业分配大的内存空间创造了条件。
缺点:低址部分不断被划分,会留下许多难以利用的、很小的空闲分区,称为碎片(又称为“零头”)。而每次查找又都是从低址部分开始的,这无疑又会增加查找可用空闲分区时的开销。

② 最佳适应算法(Best Fit)

算法思想:由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,即,优先使用更小的空闲区。

如何实现:空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
在这里插入图片描述
缺点:每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片。

③ 最坏适应算法(Worst Fit)(又称最大适应算法)

算法思想:为了解决最佳适应算法的问题——即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。

如何实现:空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
在这里插入图片描述
缺点:每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完。如果之后有“大进程”到达,就没有内存分区可用了。

④ 邻近适应算法(Next Fit)(又称循环首次适应算法)

算法思想:首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。如果每次都从上次查找结束的位置开始检索,就能解决上述问题。

如何实现:空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
在这里插入图片描述
首次适应算法每次都要从头查找,每次都需要检索低地址的小分区。但是这种规则也决定了当低地址部分有更小的分区可以满足需求时,会更有可能用到低地址部分的小分区,也会更有可能把高地址部分的大分区保留下来(最佳适应算法的优点)。邻近适应算法的规则可能会导致无论低地址、高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区,最后导致无大分区可用(最大适应算法的缺点)。

综合来看,四种算法中,首次适应算法的效果反而更好

在这里插入图片描述

2)基于索引搜索的动态分区分配算法(这部分作为了解)

基于顺序搜索的动态分区分配算法,比较适用于不太大的系统。当系统很大时,系统中的内存分区可能会很多,相应的空闲分区链就可能很长,这时采用顺序搜索分区方法可能会很慢。为了提高搜索空闲分区的速度,在大、中型系统中往往会采用基于索引搜索的动态分区分配算法。目前常用的有三种:

① 快速适应算法(Quick Fit)(又称分类搜索算法)

是按照空闲分区的容量大小进行分类的,对于每一类具有相同容量的所有空闲分区,单独设立一个空闲分区链表,这样系统中就会存在多个空闲分区链表。而且还要在内存中设立一张管理索引表,其中的每个索引表项对应一种空闲分区类型。

优点:查找效率高。
缺点:为了有效合并分区,在分区归还主存时的算法复杂,系统开销较大。

② 伙伴系统(Buddy System)

该算法规定,无论已分配分区或空闲分区,其大小均为2的k次幂(k为整数,1<=k<=m)。通常2m是整个可分配内存的大小(也就是最大分区的大小)。则系统开始运行时,整个内存区是一个大小为2m的空闲分区,在系统运行过程中,由于不断地划分,将会形成若干个不连续的空闲分区,将这些空闲分区按分区的大小进行分类,将大小相同的空闲分区设立在一个空闲分区双向链中。

当分配内存时,会优先从需要分配的内存块链表上查找空闲内存块,当发现对应大小的内存块都已经被使用后,那么会从更大一级的内存块上分配一块内存,并且分成一半给我们使用,剩余的一半释放到对应大小的内存块链表上。反正就是2i要是不够分,就用2i+1分成两份,一份给我们用,一份放在链表上。回收时则反之。其时间性能比快速适应算法差,但由于它采用了索引搜索算法,比顺序搜索算法好,而其空间性能,由于对空闲分区进行合并,减少了小的空闲分区,提高了空闲分区的可使用率,故优于快速适应算法,比顺序搜索法略差。

③ 哈希算法

利用哈希快速查找的优点,以及空闲分区在可利用空闲区表中的分布规律,建立哈希函数,构造一张以空闲分区大小为关键字的哈希表,该表的每一个表项记录了一个对应的空闲分区链表表头指针。当进行内存分配时,根据所需空闲分区大小,通过哈希函数计算,即得到在哈希表中的位置,从中得到相应的空闲分区链表,实现最佳分配策略。

5. 动态可重定位分区分配

连续分配方式的一个重要特点是,一个系统或用户程序必须被装入一片连续的内存空间中。当一台计算机运行了一段时间后,它的内存空间将会被分割成许多个小的分区,而缺乏大的空闲空间。即使这些分散的许多小分区的容量总和大于要装入的程序,但由于分区不相邻接,所以没办法将该程序装入内存。这些“碎片”不能满足进程的需求,若想把大作业装入,可采用的一种方法是:将内存中的所有作用进行移动,使它们全都相邻接。这样就可以把原来分散的多个空闲小分区拼接成一个大分区,就可将一个作业装入。这种方式称为”拼接“或”紧凑“。
在这里插入图片描述
当系统对内存进行”紧凑“操作时,不需要对程序做任何修改,只要用该程序在内存的新起始地址去置换原来的起始地址即可。而该过程中需要用到重定位寄存器,用来存放程序(数据)在内存中的起始地址。地址变换过程是在程序执行期间,随着对每条指令或数据的访问自动进行的,故称为动态重定位
在这里插入图片描述
动态重定位分区分配算法与动态分区分配算法基本上相同,差别仅是在这种分配算法中,增加了紧凑的功能。

3.1.4 非连续分配管理方式(离散分配方式)

支持多道程序的两种连续分配方式:①固定分区分配:缺乏灵活性,会产生大量的内部碎片,内存的利用率很低;②动态分区分配:会产生很多外部碎片,虽然可以用”紧凑“技术来处理,但是”紧凑“的时间代价很高。考虑到连续分配方式的缺点,所以人们就在想如果可以将一个进程分散地装入到许多不相邻的分区中,便可充分地利用内存,而无需再进行”紧凑“操作。基于这一思想,产生了“非连续分配方式”,或者称为“离散分配方式”。

连续分配:为用户进程分配的必须是一个连续的内存空间。
非连续分配:为用户进程分配的可以是一些分散的内存空间。

当然,若采用非连续分配管理方式,需要额外的空间去存储分散区域的索引。然后根据分区的大小是否固定,分为分页存储管理方式和分段存储管理方式。分页存储管理方式又根据运行作业时是否要把作业的所有页面都装入内存才能运行,分为基本分页存储管理方式和请求分页存储管理方式(虚拟内存管理的内容)。

1. 基本分页存储管理

因希望内存的使用能尽量避免碎片的产生,引入了分页的思想:把主存空间划分为大小相等且固定的块,块相对较小,作为主存的基本单位。每个进程也以块为单位进行划分,进程在执行时,也以块为单位逐个申请主存中的块空间。

分区和固定分区技术的本质区别就是:块的大小相对分区要小很多,而且进程也按照块进行划分,进程运行时按块申请主存可用空间并执行。进程只会在为最后一个不完整的块申请一个内存块空间时,才产生主存碎片,所以尽管会产生内部碎片,但这种碎片相对于进程来说也是很小的,每个进程平均只产生半个块大小的内部碎片(也称页内碎片)。

1)分页存储的几个基本概念
  1. 什么是分页存储

    将内存空间分为一个个大小相等的分区(比如:每个分区4KB),每个分区就是一个“页框”(页框=页帧=内存块=物理块=物理页面)。每个页框有一个编号,即“页框号”(页框号=页帧号=内存块号=物理块号=物理页号),页框号从0开始。(前面这些各自对应相同意思的名词都要记住,因为考试的时候每个名词都有可能出现)。
    在这里插入图片描述
    将进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个“”或“页面” 。每个页面也有一个编号,即“页号”,页号也是从0开始。
    在这里插入图片描述

    操作系统以页框为单位为各个进程分配内存空间。进程的每个页面分别放入一个页框中。也就是说,进程的页面与内存的页框一一对应的关系。各个页面不必连续存放,可以放到不相邻的各个页框中。(注:进程的最后一个页面可能没有一个页框那么大。也就是说,分页存储有可能产生内部碎片(页内碎片),因此页框不能太大,否则可能产生过大的内部碎片造成浪费)

  2. 页表

    为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表。注:页表通常存在PCB(进程控制块)中。
    在这里插入图片描述
    ① 一个进程对应一张页表
    ② 进程的每个页面对应一个页表项
    ③ 每个页表项由“页号”和“块号”组成
    ④ 页表记录进程页面和实际存放的内存块之间的映射关系
    ⑤ 每个页表项的长度是相同的

  • 1)在这里我们必须思考,每个页表项占多少个字节呢?
    在这里插入图片描述
    在这里插入图片描述
    由于页号是隐含的,因此每个页表项占3B,存储整个页表至少需要 3*(n+1)B。注意:页表记录的只是内存块号,而不是内存块的起始地址,J 号内存块的起始地址 = J * 内存块大小。

  • 2)将进程地址空间分页之后,操作系统该如何实现逻辑地址到物理地址的转换?

    特点:虽然进程的各个页面是离散存放的,但是页面内部是连续存放的。
    如果要访问逻辑地址 A,则
    ①确定逻辑地址A 对应的 “页号” P
    ②找到P号页面在内存中的起始地址(需要查页表)
    ③确定逻辑地址A 的 “页内偏移量” W
    逻辑地址A 对应的物理地址 = P号页面在内存中的起始地址+页内偏移量W

  • 而这时又出现了一个新问题:如何确定一个逻辑地址对应的页号、页内偏移量?
    在这里插入图片描述
    在计算机内部,地址是用二进制表示的,如果页面大小刚好是2 的整数幂,则计算机硬件可以很快速的把逻辑地址拆分成(页号,页内偏移量)。
    页号 = 逻辑地址 / 页面长度 (取除法的整数部分)
    页内偏移量 = 逻辑地址 % 页面长度(取除法的余数部分)
    在这里插入图片描述
    在这里插入图片描述
    这部分比较重要,也是计组的内容,这些是关于二进制的除法,想再了解的可以去看看二进制的除法和左移、右移这部分的知识!对于二进制的运算还是必须要能迅速反映比较好!
    在这里插入图片描述
    总结:页面大小 刚好是 2 的整数幂有什么好处?

    ①逻辑地址的拆分更加迅速——如果每个页面大小为 2kB,用二进制数表示逻辑地址,则末尾 K 位,即为页内偏移量,其余部分就是页号。因此,如果让每个页面的大小为 2 的整数幂,计算机硬件就可以很方便地得出一个逻辑地址对应的页号和页内偏移量,而无需进行除法运算,从而提升了运行速度。
    ②物理地址的计算更加迅速——根据逻辑地址得到页号,根据页号查询页表从而找到页面存放的内存块号,将二进制表示的内存块号和页内偏移量拼接起来,就可以得到最终的物理地址。

  1. 逻辑地址结构
    在这里插入图片描述
    地址结构包含两个部分:前一部分为页号,后一部分为页内偏移量 W。在上图所示的例子中,地址长度为 32 位,其中 0 - 11位 为“页内偏移量”,或称“页内地址”;12 - 31 位为“页号”。
    如果有 K 位表示“页内偏移量”,则说明该系统中一个页面的大小是 2K个内存单元(重要:页面大小等价于2的页内偏移量位数次幂)
    如果有 M 位表示“页号”,则说明在该系统中,一个进程最多允许有 2M 个页面
    提示:有些奇葩题目中页面大小有可能不是2的整数次幂,这种情况还是得用最原始的方法计算:
    页号 = 逻辑地址 / 页面长度 (取除法的整数部分)
    页内偏移量 = 逻辑地址 % 页面长度(取除法的余数部分)
2)地址变换机构

地址变换机构的任务就是通过借助进程的页表将逻辑地址转换成内存中的物理地址。通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址F页表长度M。进程未执行时,页表的始址 和 页表长度 放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。
在这里插入图片描述
地址的变换过程具体如下:
在这里插入图片描述

注意:页面大小是2的整数幂
设页面大小为L,逻辑地址A到物理地址E的变换过程如下:

  • ①计算页号 P 和页内偏移量W( 如果用十进制数手算,则 P=A/L,W=A%L;但是在计算机实际运行时,逻辑地址结构是固定不变的,因此计算机硬件可以更快地得到二进制表示的页号、页内偏移量)
  • ②比较页号P 和页表长度(页表项的个数)M,若 P≥M,则产生越界中断,否则继续执行。(注意:页号是从0开始的,而页表长度至少是1,因此 P=M 时也会越界)
  • ③页表中页号P对应的页表项地址 = 页表起始地址F + 页号P*页表项长度,取出该页表项内容b,即为内存块号。(注意区分页表项长度、页表长度、页面大小的区别。页表长度指的是这个页表中总共有几个页表项,即总共有几个页;页表项长度指的是每个页表项占多大的存储空间;页面大小指的是一个页面占多大的存储空间
  • ④计算 E = b * L + W,用得到的物理地址E 去访存。(如果内存块号、页面偏移量是用二进制表示的,那么把二者拼接起来就是最终的物理地址了)

这整个过程有两次访问内存:第一次是当页号合法时,要加入内存查页表;第二次是根据物理地址访问物理内存对应的内存单元。
在这里插入图片描述
在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了。因此,页式管理中地址是一维的(只要确定了页面大小,然后我们再给出逻辑地址就可以确定页号和页内偏移量)。即,只要给出一个逻辑地址,系统就可以自动地算出页号、页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少位。

在实际应用中,通常使一个页框恰好能放入整数个页表项,为了方便查找页表项,页表一般是放在连续的内存块中。具体可以看下图 :在这里插入图片描述在这里插入图片描述
结论:理论上,页表项长度为 3B 即可表示内存块号的范围,但是,为了方便页表的查询,常常会让一个页表项占更多的字节,使得每个页面恰好可以装得下整数个页表项。

3)具有快表的地址变换机构(基本地址变换机构的改进版本)

快表,又称联想寄存器TLB, translation lookaside buffer ),是一种访问速度比内存快很多的高速缓存(TLB不是内存!),用来存放最近访问的页表项的副本,可以加速地址变换的速度。与此对应,内存中的页表常称为慢表。
在这里插入图片描述
引入快表后,地址变换过程:
在这里插入图片描述

  • ① CPU给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较。
  • ② 如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表命中,则访问某个逻辑地址仅需一次访存即可
  • ③ 如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表未命中,则访问某个逻辑地址需要两次访存(注意:在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换)

例:某系统使用基本分页存储管理,并采用了具有快表的地址变换机构。访问一次快表耗时 1us,访问一次内存耗时 100us。若快表的命中率为 90%,那么访问一个逻辑地址的平均耗时是多少?
(1+100) * 0.9 + (1+100+100) * 0.1 = 111 us
有的系统支持快表和慢表同时查找,如果是这样,平均耗时应该是 (1+100) * 0.9 + (100+100) * 0.1 =110.9 us
若未采用快表机制,则访问一个逻辑地址需要 100+100 = 200us
显然,引入快表机制后,访问一个逻辑地址的速度快多了。

在这里插入图片描述
由于查询快表的速度比查询页表的速度快很多,因此只要快表命中,就可以节省很多时间。因为局部性原理,一般来说快表的命中率可以达到 90% 以上。而什么是局部性原理呢?请看下图:
在这里插入图片描述
就我个人理解,快表的局部性原理是由于快表会随着进程的切换而清空然后更新,而进程的代码一般会存放在连续的地方,以及数据也会放在相同的数据段,而快表也会存放着那些被多次访问的页表项,可能会连续多次查到同一个页表项,所以快表具有时间局部性和空间局部性。

基本地址变换和具有快表的地址变换的区别:
在这里插入图片描述

4)两级页表

在这里插入图片描述
由此看来,单机页表有两个问题,问题一:页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框。问题二:没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面。针对这两个问题,产生了两级页表。

两级页表的原理及地址结构:
在这里插入图片描述
把原本的20位页号分割成一级页号(页目录号)和二级页号(页表索引)。因此有了页目录表(顶级页表、外层页表)和二级页表。
在这里插入图片描述
在这里插入图片描述

能够用较少的内存空间存放页表的唯一方法是,仅把当前需要的一批页表项调入内存,以后再根据需要陆续调入。在采用两级页表结构的情况下,对于正在运行的进程,必须将其页目录表调入内存,而对于页表则只需调入一页或几页。为了表征某页的页表是否已经调入内存,还应再页目录表项中增设一个状态位S,其值若为0,表示该页表分页不在内存中,否则说明其分页已调入内存。

在这里插入图片描述
需要注意的几个细节
①若分为两级页表后,页表依然很长,则可以采用更多级页表,一般来说各级页表的大小不能超过一个页面为了查询方便,顶级页表最多只能有一个页面

例:某系统按字节编址,采用 40 位逻辑地址,页面大小为 4KB,页表项大小为 4B,假设采用纯页式存储,则要采用()级页表,页内偏移量为()位?
页面大小 = 4KB =212B,按字节编址,因此页内偏移量为12位
页号 = 40 - 12 = 28 位
页面大小 = 212B,页表项大小 = 4B ,则每个页面可存放 212 / 4 = 210 个页表项
因此各级页表最多包含 210 个页表项,需要 10 位二进制位才能映射到 210 个页表项,因此每一级的页表对应页号应为10位。总共28位的页号至少要分为三级.

在这里插入图片描述

②两级页表的访存次数分析(假设没有快表机构)
第一次访存:访问内存中的页目录表
第二次访存:访问内存中的二级页表
第三次访存:访问目标内存单元

总结:N级页表访问一个逻辑地址需要N+1次访存。多级页表解决了当逻辑地址空间过大时,页表的长度会大大增加的问题。而采用多级页表时,一次访问磁盘需要多次访问内存甚至磁盘,会大大增加一次访存的时间。

2. 基本分段存储管理方式

分页管理方式是从计算机的角度考虑设计的,目的是提高内存的利用率,提升计算机的性能。分页通过硬件机制实现,对用户完全透明。分段管理方式的提出则考虑了用户和程序员,把通常的程序分成若干个段,如主程序段、子程序段A、子程序B……、数据段及栈段等,每个段大多是一个相对独立的逻辑单位,方便于程序员的操作;也满足了方便编程、信息保护和共享、动态增长及动态链接等多方面的需要

1)分段

进程的地址空间:按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程),每段从0开始编址。内存分配规则:以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻(段内要求连续,段间不要求连续)。由于是按逻辑功能模块划分,用户编程更方便,程序的可读性更高
在这里插入图片描述

分段系统的逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成。如:
在这里插入图片描述
段号的位数决定了每个进程最多可以分几个段,段内地址位数决定了每个段的最大长度是多少。
在这里插入图片描述

2)段表

程序分多个段,各段离散地装入内存,为了保证程序能正常运行,就必须能从物理内存中找到各个逻辑段的存放位置。为此,需为每个进程建立一张段映射表,简称“段表”。
在这里插入图片描述
每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称“基址”)和段的长度
各个段表项的长度是相同的。例如:某系统按字节寻址,采用分段存储管理,逻辑地址结构为(段号16位, 段内地址16位),因此用16位即可表示最大段长。物理内存大小为4GB(可用32位表示整个物理内存地址空间)。因此,可以让每个段表项占 16+32 = 48位,即6B。由于段表项长度相同,因此段号可以是隐含的,不占存储空间。若段表存放的起始地址为 M,则 K号段对应的段表项存放的地址为 M + K*6。

3)地址变换

在这里插入图片描述
在这里插入图片描述

4)分段、分页管理的对比

页是信息的物理单位。分页的主要目的是为了实现离散分配,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为,对用户是不可见的。 段是信息的逻辑单位。分段的主要目的是更好地满足用户需求。一个段通常包含着一组属于一个逻辑模块的信息。分段对用户是可见的,用户编程时需要显式地给出段名。

页的大小固定且由系统决定。段的长度却不固定,决定于用户编写的程序

分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。

分段比分页更容易实现信息的共享和保护。不能被修改的代码称为纯代码或可重入代码(不属于临界资源),这样的代码是可以共享的(比如,有一个代码段,只是简单的输出 “Hello World!”)。可修改的代码是不能共享的(比如,有一个代码段中有很多变量,各进程并发地同时访问可能造成数据不一致)。如按照分段管理方式将进程分段的话,如下图所示:
在这里插入图片描述
按照分页管理方式显然是不合理的,具体如下图:
在这里插入图片描述

  • 访问一个逻辑地址需要几次访存?
    分页(单级页表):第一次访存——查内存中的页表,第二次访存——访问目标内存单元。总共两次访存
    分段:第一次访存——查内存中的段表,第二次访存——访问目标内存单元。总共两次访存
    与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以少一次访问,加快地址变换速度。
3. 段页式管理方式

页式存储管理能有效地提高内存利用率,而分段存储管理能反映程序的逻辑结构并有利于段的共享。将这两种存储管理方法结合起来,便形成了段页式存储管理方式。

1)分页、分段管理方式中最大的优缺点:

在这里插入图片描述

2)先分段再分页

将进程按逻辑模块分段,再将各段分页(先分段再分页,如每个页面4KB)。再将内存空间分为大小相同的内存块/页框/页帧/物理块,将各页面分别装入各内存块中。
在这里插入图片描述

3)段页式管理的逻辑地址结构

在这里插入图片描述
段页式系统中的页号和页内偏移量就是把分段系统的逻辑地址的段内地址去进行拆分。段号的位数决定了每个进程最多可以分几个段,页号位数决定了每个段最大有多少页,页内偏移量决定了页面大小、内存块大小是多少

在上图中的例子中,若系统是按字节寻址的,则段号占16位,因此在该系统中,每个进程最多有 216 = 64K 个段,页号占4位,因此每个段最多有 24 = 16页,页内偏移量占12位,因此每个页面/每个内存块大小为 212 = 4096 = 4KB。

“分段”对用户是可见的,程序员编程时需要显式地给出段号、段内地址。而将各段“分页”对用户是不可见的。系统会根据段内地址自动划分页号和页内偏移量。因此段页式管理的地址结构是二维的

在这里插入图片描述
每个段对应一个段表项,每个段表项由段号、页表长度、页表存放块号(页表起始地址)组成。每个段表项长度相等,段号是隐含的。

每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的。

在一个进程中,段表只有一个,而页表可能有多个

4)地址变换

在这里插入图片描述
如上图,在段页式系统中,访问一个逻辑地址所需访存次数须三次访问内存,但是可以引入快表机构,以段号和页号为关键字查询快表,即可直接找到最终的目标页面存放地址,引入快表后只需一次访问内存。

3.1.5 补充

  1. 为什么要进行内存管理?
    在单道批处理系统阶段,一个系统在一个时间段内只执行一个程序,内存的分配极其简单,即仅分配给当前运行的进程。引入多道程序的并发执行后,进程之间共享的不仅仅是处理机,还有主存储器。然而,共享主存会形成一些特殊的挑战。若不对内存进行管理,则容易导致内存数据的混乱,以至于限制进程的并发执行。因此。为了更好地支持多道程序并发执行,必须进行内存管理。

  2. 在虚拟内存管理中,地址变换机构将逻辑地址变换为物理地址,形成该逻辑地址的阶段是链接。(若题目是“完成该变换过程的阶段是”,则是装载
    编译后的程序需要经过链接才能装载,而链接后形成的目标程序中的地址也就是逻辑地址。以C语言为例:C程序经过预处理→编译→汇编→链接产生了可执行文件,其中链接的前一步是产生可重定位的二进制目标文件。C语言采用源文件独立编译的方法,如程序main.c,file1.c,file2.c,file1.h,file2.h在链接的前一步生成了main.o,file1.o,file2.o,这些目标模块的逻辑地址都从0开始,但只是相对于该模块的逻辑地址。链接器将这三个文件、libc和其库文件链接成一个可执行文件。链接阶段主要完成重定位,形成整个程序的完整逻辑地址空间。

    例如,file1.o的逻辑地址为0 ~ 1023,main.o的逻辑地址为0 ~ 1023,假设链接时将file1.o链接在main.o之后,则链接之后file1.o对应的逻辑地址应为1024 ~ 2047,整个过程如下图:
    在这里插入图片描述

  3. 在使用交换技术时,若一个进程正在I/O操作,则不能交换内存,否则其I/O数据区将被新换入的进程占用,导致错误。不过可以在操作系统中开辟I/O缓冲区,将数据从外设输入或将数据输出到外设的I/O活动在系统缓冲区中进行,这时的系统缓冲区与外设I/O,进程交换都不受限制。

  4. 在存储管理中,采用覆盖与交换技术的目的是为了解决主存空间不足的问题,但不是在物理上扩充主存,只是将暂时不用的部分换成内存,以节省空间,从而在逻辑上扩充主存。覆盖技术是早期在单一连续存储管理中使用的扩大存储容量的一种技术,它同样可用于固定分区分配的存储管理。

  5. 分区分配内存管理方式的主要保护措施是界地址保护。每个进程都拥有自己独立的进程空间,若一个进程在运行时所产生的地址在其地址空间之外,则发生地址越界,因此需要进行界地址保护,即当程序要访问某个内存单元时,由硬件检查是否允许,若允许则执行,否则产生地址越界中断。内存保护需要由操作系统和硬件机构合作完成,以保证进程空间不被非法访问

  6. 固定分区方式中,作业装入后位置不再改变,可以采用静态重定位。

  7. 采用分页或分段管理后,提供给用户的物理空间是不能确定的。因为页表和段表都存储在内存中,系统提供给用户的物理地址空间为总空间大小减去页表或段表的长度。由于页表和段表的长度不能确定,所以提供给用户的物理地址空间大小也不能确定。

  8. 内存分页管理是在硬件和操作系统层面实现的,对用户、编译系统、连接装配程序等上层是不可见的。所以分页系统中的页面是为操作系统所感知的。

  9. 页式存储管理中,页表的始地址存放在寄存器中。

  10. 对重定位存储管理方式,应在整个系统中设置一个重定位寄存器。

  11. 采用段式存储管理时,一个程序如何分段时在用户编程时决定的。

  12. 可重入程序是通过减少对换数量方法来改善系统性能的,可重入程序主要是通过共享来使用同一块存储空间的,或通过动态链接的方式将所需的程序段映射到相关进程中去,其最大的优点是减少了对程序段的调入/调出,因此减少了对换数量。

  13. 程序的动态链接与程序的逻辑结构有关,分段存储管理将程序按照逻辑段进行划分,因此有利于其动态链接。其他的内存管理方式与程序的逻辑结构无关。

  14. 操作系统中实现分区存储管理的代价最小,是满足多道程序设计的最简单的存储管理方案,特别适合嵌入式等微型设备。而实现分页、分段和段页式存储管理需要特定的数据结构支持,如页表、段表等,为了提高性能,还需要硬件提供快存和地址加法器等,代价高。

  15. 对外存对换区的管理以提供换入、换出速度为主要目标。

  16. 在页式存储管理中,当页面大时,用于管理页面的页表就少,但是页内碎片会比较大;当页面小时,用于管理页面的页表就大,但是页内碎片小。所以可以通过适当的计算获得较佳的页面大小和较小的系统开销。而当页面大小确定后,所划分的页面大小都必须相等大小。

  17. 存储管理的目的有两个:一个是方便用户,二是提高内存利用率。

  18. 对主存储器的访问以字节或字为单位

  19. 在分页存储管理中,逻辑地址分配时按页为单位进行分配的,而主存的分配即物理地址的分配,是以内存块为单位分配的。(要注意是对主存储器的访问还是分配)

  20. 分页存储管理中,作业地址空间是一维的,即单一的线性地址空间,程序员只需要一个记忆符来表示地址。在分段存储分配管理中,段之间是独立的,而段长不定长,而页长是固定的,因此作业地址空间是二维的,程序员在标识一个地址时,既需给出段名,又需给出段内地址。简言之,确定一个地址需要几个参数,作业地址空间就是几维的

  21. 段页式存储管理汲取了页式管理和段式管理的长处,其实现原理结合了页式和段式管理的基本思想,即用分段方法来分配和管理用户地址空间,用分页方法来管理物理存储空间。但它的开销要比段式和页式管理的开销大。

  22. 一道关于二级页表的题
    在这里插入图片描述
    在这里插入图片描述
    关于多级页表有两个需要注意的点:
    ①在多级页表的分页存储管理方式中,一个页表最大只能占一个块。
    ②有几个二级页表,在一级页表中就有几个页表项。
    题解为:
    在这里插入图片描述

注:本节的内容要多做题才能比较好地理解。

3.2 虚拟内存管理

3.2.1 虚拟内存的基本概念

1. 传统存储管理方式的特征和缺点

在这里插入图片描述
传统存储管理方式主要有两个特征:

  1. 一次性:作业必须一次性全部装入内存后才能开始运行。这会造成两个问题:①作业很大时,不能全部装入内存,导致大作业无法运行;②当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降。
  2. 驻留性:一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。
    由上述可知,许多在程序运行中不用或暂时不用的程序(数据)占据了大量的内存空间,而一些需要运行的作业而无法装入运行,显然浪费了宝贵的内存资源。
2. 局部性原理 (在快表那部分已经有简单的介绍)
  • 时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)
  • 空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的,并且程序的指令也是顺序地在内存中存放的)
    在这里插入图片描述

而要应对局部性原理可以采用高速缓冲技术的思想:将近期会频繁访问到的数据放到更高速的存储器中,暂时用不到的数据放在更低速存储器中。快表、页高速缓存及虚拟内存技术从广义上讲,都属于高速缓存技术。

3. 虚拟内存的定义和特征

基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行。在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存(换入),然后继续执行程序。若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存(换出)。在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是虚拟内存。这样,系统好像为用户提供了一个比实际内存大得多的存储器,称为虚拟存储器。之所以将其称为虚拟存储器,是因为这种存储器实际上并不存在,只是由于系统提供了部分装入、请求调入和置换功能后(对用户完全透明),给用户的感觉是好像存在一个比实际物理内存大得多的存储器。

易混知识点:
虚拟内存的最大容量是由计算机的地址结构(CPU寻址范围)确定的
虚拟内存的实际容量 = min(内存和外存容量之和,CPU寻址范围)
在这里插入图片描述
虚拟内存有以下三个主要特征:

  • 多次性:无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存。
  • 对换性:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出。
  • 虚拟性:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量。
4. 虚拟内存技术的实现

虚拟内存技术允许将一个作业分多次调入内存。采用连续分配方式时,会使相当一部分内存空间都处于暂时或“永久”的空闲状态,造成内存资源的严重浪费,而且也无法从逻辑上扩大内存容量。因此,虚拟内存的实现需要建立在离散分配的内存管理方式的基础上。
在这里插入图片描述
不管是采用虚拟内存的哪种方式,都需要有一定的硬件支持,一般需要的支持有以下几个方面:

  1. 一定容量的内存和外存。
  2. 页表机制(或段表机制),作为主要的数据结构。
  3. 中断机构,当用户程序要访问的部分尚未调入内存时,则产生中断。
  4. 地址变换机构,逻辑地址到物理地址的变换。

3.2.2 请求分页管理方式

请求分页系统建立在基本分页系统基础之上,为了支持虚拟存储器功能而增加了请求调页功能和页面置换功能。请求分页是目前最常用的一种实现虚拟存储器的方法。(可以与基本分页存储管理对比学习)。请求分页存储管理方式和基本分页存储管理方式的区别是,前者采用虚拟技术,因此开始运行时,不必将作业一次性全部装入内存,而后者不是。
在这里插入图片描述
在请求分页系统中,只要求将当前需要的一部分页面装入内存,便可以启动作业运行。在作业执行过程中,当所要访问的页面不在内存中时,再通过调页功能将其调入,同时还可通过置换功能将暂时不用的页面换出到外存上,以便腾出内存空间。
为了实现请求分页,系统必须提供一定的硬件支持。除了需要一定容量的内存及外存的计算机系统,还需要有页表机制、缺页中断机构和地址变换机构。

1. 页表机制

与基本分页管理相比,请求分页管理中,为了实现“请求调页”,操作系统需要知道每个页面是否已经调入内存;如果还没调入,那么也需要知道该页面在外存中存放的位置。当内存空间不够时,要实现“页面置换”,操作系统需要通过某些指标来决定到底换出哪个页面;有的页面没有被修改过,就不用再浪费时间写回外存(要注意这里,当页面没有被修改时,就不用重新写回外存了)。有的页面修改过,就需要将外存中的旧数据覆盖,因此,操作系统也需要记录各个页面是否被修改的信息。
在这里插入图片描述
相比基本分页管理,请求分页存储管理的页表增加了四个字段。

  • ①状态位(合法位)。用于指示该页是否已调入内存,供程序访问时参考。
  • ②访问字段。用于记录本页在一段时间内被访问的次数,或记录本页最近已有多长时间未被访问,供置换算法换出页面时参考。
  • ③修改位。标识该页在调入内存后是否被修改过。
  • ④外存地址。用于指出该页在外存上的地址,通常是物理块号,供调入该页时参考。
2. 缺页中断机构

在请求分页系统中,每当要访问的页面不在内存时,便产生一个缺页中断,然后由操作系统的缺页中断处理程序处理中断。此时缺页的进程阻塞,放入阻塞队列,调页完成后再将其唤醒,放回就绪队列。如果内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项。如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰,若该页面在内存期间被修改过,则要将其写回外存。未修改过的页面不用写回外存。

缺页中断是因为当前执行的指令想要访问的目标页面未调入内存而产生的,因此属于内中断中的”故障“,即可能被系统修复的异常。它同样也要经历保护CPU环境、分析中断原因、转入缺页中断处理程序、恢复CPU环境等几个步骤。但与一般的中断相比,它有以下两个明显的区别:

  • ①在指令执行期间产生和处理中断信号。而不像通常一样,等一条指令执行完再去检查是否有中断请求到达。缺页中断在指令执行期间,若发现所要访问的指令或数据不在内存时,便立即产生和处理缺页中断信号,以便能及时将所缺的页面调入内存。
  • ②一条指令在执行期间,可能产生多次缺页中断。(如:copy A to B,即将逻辑地址A中的数据复制到逻辑地址B,而A、B属于不同的页面,则有可能产生两次中断)
    在这里插入图片描述
3. 地址变换机构

请求分页系统中的地址变换机构是在分页系统地址变换机构的基础上,为实现虚拟内存,又增加了某些功能而形成的。
在这里插入图片描述
在这里插入图片描述

补充细节:(序号和上图的对应)

  • ① 只有“写指令”才需要修改“修改位”。并且,一般来说只需修改快表中的数据,只有要将快表项删除时才需要写回内存中的慢表。这样可以减少访存次数。
  • ② 和普通的中断处理一样,缺页中断处理依然需要保留CPU现场。
  • ③ 需要用某种“页面置换算法”来决定一个换出页面。
  • ④ 换入/换出页面都需要启动慢速的I/O操作,可见,如果换入/换出太频繁,会有很大的开销。
  • ⑤ 页面调入内存后,需要修改慢表,同时也需要将表项复制到快表中。
    故在具有快表机构的请求分页系统中,访问一个逻辑地址时,若发生缺页,则地址变换步骤是:
    查快表(未命中)——查慢表(发现未调入内存)——调页(调入的页面对应的表项会直接加入快表)——查快表(命中)——访问目标内存单元

访问内存的有效时间,有三种情况:

  1. 被访问页在内存中,且其对应的页表项在快表中。此时不存在缺页中断情况,内存的有效访问时间(EAT)分为查找快表的时间(λ)和访问实际物理地址所需的时间(t): EAT=λ+t
  2. 被访问页在内存中,且其对应的页表项不在快表中。此时不存在缺页中断情况,但需要两次访问内存,一次读取页表,一次读取数据,另外还需要更新快表。所以,这种情况内存的有效访问时间可分为查找快表的时间、查找页表的时间、修改快表的时间和访问实际物理地址的时间: EAT=λ+t+λ+t
  3. 被访问页不在内存中。此时需要进行缺页中断处理,所以这种情况的内存的有效访问时间可分为查找快表的时间、查找页表的时间、处理缺页中断的时间、更新快表的时间和访问实际物理地址的时间:假设缺页中断处理时间为ε,则 EAT=λ+t+ε+λ+t=ε+2(λ+t)
    上面的三种情况都没有考虑快表的命中率(α)和缺页率(f)等因素,因此,加入这两个因素后,内存的有效访问时间的计算公式应为 EAT=λ + α x t + (1-α) x [ t + f x (ε + λ + t) + (1 - f) x (λ + t) ]
    在这里插入图片描述

3.2.3 页面置换算法(决定应该换入哪页、换出哪页)

请求分页存储管理与基本分页存储管理的主要区别:

在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。此时换出外存并把所要访问的信息调入内存时需要用到的算法称为页面置换算法。置换算法的好坏将直接影响到系统的性能。页面的换入、换出需要磁盘I/O,会有较大的开销,因此好的页面置换算法应该追求更少的缺页率。常见的置换算法有以下四种(注:在做置换算法的题时记得先把是否缺页的表画出来):

1. 最佳置换算法(OPT)

最佳置换算法(OPT,Optimal):每次选择淘汰的页面将是以后永不使用,或者在最长时间内不再被访问的页面,这样可以保证最低的缺页率。
在这里插入图片描述

最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到的是哪个页面。操作系统无法提前预判页面访问序列。因此,最佳置换算法是无法实现的

2. 先进先出置换算法(FIFO)

先进先出置换算法(FIFO):每次选择淘汰的页面最早进入内存的页面
实现方法:把调入内存的页面根据调入的先后顺序排成一个队列需要换出页面时选择队头页面即可。队列的最大长度取决于系统为进程分配了多少个内存块。
在这里插入图片描述
在这里插入图片描述
Belady 异常——当为进程分配的物理块数增大时,缺页次数不减反增的异常现象。
只有 FIFO 算法会产生 Belady 异常。另外,FIFO算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能最经常被访问。因此,算法性能差。

3. 最近最久未使用置换算法(LRU)

最近最久未使用置换算法(LRU,least recently used):每次淘汰的页面最近最久未使用的页面,实现方法:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间t。当需要淘汰一个页面时,选择现有页面中 t 值最大的,即最近最久未使用的页面。
在这里插入图片描述
在这里插入图片描述
该算法的实现需要专门的硬件(寄存器和栈)支持,虽然算法性能好,但是实现困难,开销大。LRU是堆栈类的算法,理论上可以证明,堆栈类算法不可能出现Belady异常。FIFO算法基于队列实现,不是堆栈类算法。

4. 时钟置换算法(CLOCK)

最佳置换算法性能最好,但无法实现;先进先出置换算法实现简单,但算法性能差;最近最久未使用置换算法性能好,是最接近OPT算法性能的,但是实现起来需要专门的硬件支持,算法开销大。

时钟置换算法是一种性能和开销较均衡的算法,因为算法要循环扫描缓冲区,像时钟的指针一样在转动,所以又称CLOCK算法,或最近未用算法(NRU,Not Recently Used)。简单的CLOCK 算法实现方法:为每个页面设置一个访问位,再将内存中的页面都通过链接指针链接成一个循环队列。当某页被访问时,其访问位置为1。当需要淘汰一个页面时,只需检查页的访问位。如果是0,就选择该页换出;如果是1,则将它置为0,暂不换出,继续检查下一个页面;若第一轮扫描中所有页面都是1,则将这些页面的访问位依次置为0后,再进行第二轮扫描(第二轮扫描中一定会有访问位为0的页面,因此简单的CLOCK 算法选择一个淘汰页面最多会经过两轮扫描
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5. 改进型的时钟置换算法

简单的时钟置换算法仅考虑到一个页面最近是否被访问过。事实上,如果被淘汰的页面没有被修改过,就不需要执行I/O操作写回外存。只有被淘汰的页面被修改过时,才需要写回外存。因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。在其他条件都相同时,应优先淘汰没有修改过的页面,避免I/O操作。这就是改进型的时钟置换算法的思想。修改位=0,表示页面没有被修改过;修改位=1,表示页面被修改过。为方便讨论,用(访问位,修改位)的形式表示各页面状态。如(1,1)表示一个页面近期被访问过,且被修改过。

算法规则:将所有可能被置换的页面排成一个循环队列

  • 第一轮:从当前位置开始扫描到第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位
  • 第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。本轮将所有扫描过的帧访问位设为0
  • 第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位
  • 第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。
    由于第二轮已将所有帧的访问位设为0,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    该算法较简单Clock算法比较,可减少磁盘的I/O操作次数,开销较小,性能也不错。

小结
在这里插入图片描述

3.2.4 页面分配策略

1. 驻留集

驻留集:指请求分页存储管理中给进程分配的物理块的集合。在采用了虚拟存储技术的系统中,驻留集大小一般小于进程的总大小。若驻留集太小,会导致缺页频繁,系统要花大量的时间来处理缺页,实际用于进程推进的时间很少;驻留集太大,又会导致多道程序并发度下降,资源利用率降低(CPU或I/O设备等资源有可能出现空闲的情况)。所以应该选择一个合适的驻留集大小。

在请求分页系统中,可采用两种内存分配策略,即固定和可变分配策略。

  1. 固定分配:操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。即,驻留集大小不变
  2. 可变分配:先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。即,驻留集大小可变
    在进行置换时,也可采用两种策略,即全局置换和局部置换。
  3. 局部置换:发生缺页时只能选进程自己的物理块进行置换。
  4. 全局置换:可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程。
    在这里插入图片描述
    由于固定分配的驻留集大小是不变的,但全局置换时,物理块数量必然会改变,所以不可能是固定分配全局置换。于是,只能组合出以下三种适用的策略:
2. 固定分配局部置换

系统为每个进程分配一定数量的物理块,在整个运行期间都不改变。若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面。这种策略的缺点是:很难在刚开始就确定应为每个进程分配多少个物理块才算合理。若太少,会频繁出现缺页中断,降低了系统的吞吐量。若太多,又必然使内存中驻留的进程数目减少,进而可能造成CPU空闲或其他资源空闲的情况,而且在实现进程对换时,会花费更多的时间。(采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数)

3. 可变分配全局置换

刚开始会为每个进程分配一定数量的物理块。操作系统会保持一个空闲物理块队列。当某进程发生缺页时,从空闲物理块中取出一块分配给该进程;若已无空闲物理块,则可选择一个未锁定(系统会锁定一些页面,这些页面中的内容不能置换出外存(如:重要的内核数据可以设为“锁定”))的页面换出外存,再将该物理块分配给缺页的进程。采用这种策略时,只要某进程发生缺页,都将获得新的物理块,仅当空闲物理块用完时,系统才选择一个未锁定的页面调出。被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加

4. 可变分配局部置换

刚开始会为每个进程分配一定数量的物理块。当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存。如果进程在运行中频繁地缺页,系统会为该进程多分配几个物理块,直至该进程缺页率趋势适当程度;反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块。

可变分配全局置换和可变分配局部置换的区别
可变分配全局置换:只要缺页就给分配新物理块。
可变分配局部置换:要根据发生缺页的频率来动态地增加或减少进程的物理块。

为使进程能够正常运行,必须事先将要执行的那部分程序和数据所在的页面调入内存,现在的问题是:

5. 何时调入页面
  1. 预调页策略:根据局部性原理(主要指空间局部性,即:如果当前访问了某个内存单元,在之后很有可能会接着访问与其相邻的那些内存单元),一次调入若干个相邻的页面可能比一次调入一个页面更高效。但如 果提前调入的页面中大多数都没被访问过,则又是低效的。因此可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测成功率只有50%左右。故这种策略主要用于进程的首次调入(运行前调入), 由程序员指出应该先调入哪些部分。
  2. 请求调页策略:进程在运行期间发现缺页时才将所缺页面调入内存(运行时调入)。由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页都要磁盘I/O操作,因此I/O开销较大。
    一般情况下,两种调页策略会同时使用。
6. 从何处调入页面

请求分页系统中的外存分为两部分:用于存放文件的文件区和用于存放对换页面的对换区。对换区通常采用连续分配方式,而文件区采用离散分配方式,因此对换区的磁盘I/O速度比文件区的更快。

  1. 系统拥有足够的对换区空间页面的调入、调出都是在内存与对换区之间进行,这样可以保证页面的调入、调出速度很快。在进程运行前,需将进程相关的数据从文件区复制到对换区。
    在这里插入图片描述
  2. 系统缺少足够的对换区空间:凡是不会被修改的数据都直接从文件区调入,由于这些页面不会被修改,因此换出时不必写回磁盘,下次需要时再从文件区调入即可。对于可能被修改的部分,换出时需写回磁盘对换区,下次需要时再从对换区调入。
    在这里插入图片描述
  3. UNIX 方式:运行之前进程有关的数据全部放在文件区,故未使用过的页面,都可从文件区调入。若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入。
    在这里插入图片描述

3.2.5 抖动

刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为抖动,或颠簸。产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够)。而为进程分配的物理块太少,会使进程发生抖动现象。为进程分配的物理块太多,又会降低系统整体的并发度,降低某些资源的利用率。所以为了研究为应该为每个进程分配多少个物理块,Denning 提出了进程“工作集”的概念。

3.2.6 工作集

驻留集:指请求分页存储管理中给进程分配的内存块的集合。
工作集:指在某段时间间隔里,进程实际访问页面的集合。
在这里插入图片描述
工作集大小可能小于窗口尺寸,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干内存块。如:窗口尺寸为5,经过一段时间的监测发现某进程的工作集最大为3,那么说明该进程有很好的局部性,可以给这个进程分配3个以上的内存块即可满足进程的运行需要。一般来说,驻留集大小不能小于工作集大小,否则进程运行过程中将频繁缺页

拓展:基于局部性原理可知,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的。因此,可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法——选择一个不在工作集中的页面进行淘汰。

3.2.7 地址翻译

这部分是和计算机组成原理相结合的内容。过后会找个时间完善一下。

3.2.8 补充

  1. 虚拟内存(虚存)空间的大小由什么因素决定?

    虚存的容量要满足以下两个条件:
    ①虚存的实际容量 ≤ 内存容量和外存容量之和,这是硬件的硬性条件规定的,若虚存的实际容量超过了这个容量,则没有相应的空间来供虚存使用。

    ②虚存的最大容量 ≤ 计算机的地址位数能容纳的最大容量。假设地址是32位的,按字节编址,一个地址代表1B存储空间,则虚存的最大容量 ≤ 4GB(232B)。这是因为若虚存的最大容量超过4GB,则32位的地址将无法访问全部虚存,也就是说4GB以后的空间被浪费了,相当于没有一样,没有任何意义。

    实际虚存的容量是取决条件①和②的交集,即两个条件都要满足,仅满足一个条件是不行的。

  2. 虚拟内存是怎么解决问题的?会带来什么问题?

    虚拟内存使用外存上的空间来扩充内存空间,通过一定的换入/换出,使得整个系统在逻辑上能够使用一个远远超出其物理内存大小的内存容量。因为虚拟内存技术调换页面时需要访问外存,会导致平均访存时间增加,若使用了不合适的替换算法,则会大大降低系统性能。

  3. 进程在执行中发生了缺页中断,经操作系统处理后,应让其执行被中断的那一条指令。缺页中断调入新页面,肯定要修改页表项和分配页框,同时内存没有页面,需要从外存读入,也会发生磁盘I/O。

  4. 虚拟存储技术是补充内存逻辑空间的技术。并未实际扩充内存和外存,而是采用相关技术相对地扩充主存。

    虚拟存储器的最大容量是由计算机的地址结构决定的,与主存容量和外存容量没有必然的联系。虽然从实际使用来说,虚拟存储器能使得进程的可用内存扩大道内外存容量之和,但进程内存寻址仍由计算机的地址结构决定,这就决定了虚拟存储器理论上的最大容量。比如,64位系统环境下,虚拟内存技术使得进程可用内存空间达264B,但外存显然是达不到这个大小的。
    在这里插入图片描述
    虚拟存储技术基于程序的局部性原理。局部性越好,虚拟存储系统越能更好地发挥作用。

    虚拟存储扩充内存的基本方法是将一些页或段从内存中调入、调出,而调入、调出的基本手段是覆盖与交换

  5. 请求分页存储管理中,若采用FIFO页面淘汰算法,可能会产生当驻留集增大时,页故障数不减反增的Belady异常。然而,还有另外一种情况。例如,当页面序列为 1,2,3,1,2,3时,页帧数增加,缺页中断会减少。则当可供分配的页帧数增加时,缺页中断的次数可能增加也可能减少

  6. 导致LRU算法实现起来耗费高的原因是需要硬件的特殊支持。LRU算法需要对所有页最近一次被访问的时间进行记录,查找时间最久的进行替换,这涉及到排序,而排序需要硬件的支持。

  7. 在虚拟存储器系统的页表项中,决定是否会发生页故障的是合法位(状态位),合法位信息是用来显示本页面是否在内存中的。

  8. 在页面置换策略中,所有策略都可能引起抖动。

  9. 请求分页存储管理的主要特点是扩充了内存。基于局部性原理,运行一个进程时不需要让整个进程进入内存。

  10. 在请求分页存储管理的页表中增加了若干项信息,其中修改位和访问位是供置换算法参考。

  11. 产生内存抖动的主要原因是页面置换算法不合理

  12. 在进程运行时,若其工作集页面都在主存储器内(不是虚拟存储器,因为虚拟内存还有硬盘的那部分),则能够使该进程有效地运行,否则会出现频繁的页面调入/调出现象。

  13. 覆盖技术与虚拟存储技术有何本质上的不同?交换技术与虚拟存储技术中使用的调入/调出技术有何不同之处?
    在这里插入图片描述

    解答:
    1)覆盖技术与虚拟存储技术最本质的不同在于,覆盖程序段的最大长度要受内存容量大小的限制,而虚拟存储器中程序的最大长度不受内存容量的限制,只受计算机地址结构的限制。
    另外,覆盖技术中覆盖段由程序员设计,且要求覆盖段中的各个覆盖区具有相对独立性,不存在直接联系或相互交叉访问;而虚拟存储技术对用户的程序段没有这种要求。

    2) 交换技术就是把暂时不用的某个程序及数据从内存移到外存中,以便腾出必要的内存空间,或把指定的程序或数据从外存读到内存中的一种内存扩充技术。
    交换技术与虚存中使用的调入/调出技术的主要相同点是,都要在内存与外存之间交换信息。
    交换技术与虚存中使用的调入/调出技术的主要区别是:交换技术调入/调出整个过程中,一个进程的大小要受内存容量大小的限制;而虚存中使用的调入/调出技术在内存和外存之间来回传递的是页面或分段,而不受整个进程,从而使得进程的地址映射具有更大的灵活性,且允许进程的大小比可用的内存空间大。

  14. 在页式虚存管理系统中,假定驻留集为 m 个页帧(初始所有页帧均为空),在长为 p 的引用串中具有 n 个不同页号(n>m),对于FIFO、LRU两种页面置换算法,试给出页故障数的上限和下限。

    发生页故障的原因是,当前访问的页不在主存,需要将该项调入主存。此时不管主存中是否己满(已满则先调出一页),都要发生一次页故障,即无论怎样安排,n个不同的页号在首次进入主存时必须要发生一次页故障,总共发生n次,这是页故障数的下限。虽然不同的页号数为n小于等于总长度p (访问串可能会有一些页重复出现),但驻留集m <n,所以可能会有某些页进入主存后又被调出主存,当再次访问时又发生一次页故障的现象, 即有些页可能会出现多次页故障。最差的情况是每访问一个页号时,该页都不在主存中,这样共发生p次故障。
    因此,对于FIFO、LRU置换算法,页故障数的上限均为p,下限均为n。

  15. 页框号是什么?在置换掉失效页面时页框号会变吗?

    页框号指向的是内存的实际物理地址的页号。在进程启动时,分配了哪些内存块应该是已经确定的(即工作集多大,但也可以是使用全局置换策略变化的)。所以在页面失效时,虚拟页号可能会失效而从快表中删除,但是新的页号替换了那个旧页就继承了它的页框号。

  16. 根据数组的随机存取特点,数组在虚拟地址空间中所占的区域必须连续,由于数组不止占用一页,相邻逻辑页在物理上不一定相邻,因此数组在物理地址空间中所占的区域可以不连续。

  17. 在请求分页式存储管理中,地址重定位是在指令执行时进行的。

其他章节:
操作系统王道考研复习——第一章(计算机系统概述)
操作系统王道考研复习——第二章(进程管理) 上
操作系统王道考研复习——第二章(进程管理) 下
操作系统王道考研复习——第四章(文件管理)
操作系统王道考研复习——第五章(设备管理)

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

操作系统王道考研复习——第三章(内存管理/存储器管理) 的相关文章

  • LWIP在STM32上的移植

    本文做记录摘抄 加上自己的体会 文章标题 STM32使用LWIP实现DHCP客户端 http www cnblogs com dengxiaojun p 4379545 html 该文章介绍了几点 LWIP源码的内容 关键点 1 inclu
  • 《一个操作系统的实现》读书笔记-- 第一章--最小的“操作系统”

    一 最简单的 操作系统 最最简单的 操作系统 就是一个最最简单的引导扇区 Boot Sector 虽然它不具有任何功能 但是它却能够直接在裸机上运行 不依赖其他软件 一个引导扇区是512个字节 并且以0xAA55为结束标识的扇区 下面就是那
  • 深入ftrace kprobe原理解析

    Linux krpobe调试技术是内核开发者专门为了编译跟踪内核函数执行状态所涉及的一种轻量级内核调试技术 利用kprobe技术 内核开发人员可以在内核的绝大多数指定函数中动态插入探测点来收集所需的调试状态信息而基本不影响内核原有的执行流程
  • 【数字IC】从零开始的Verilog SPI设计

    从零开始的Verilog SPI协议设计 一 写在前面 1 1 协议标准 1 2 数字IC组件代码 1 3 设计要求 1 4 其他协议解读 1 4 1 UART协议 1 4 2 SPI协议 1 4 3 I2C协议 1 4 4 AXI协议 二
  • 03LinuxC线程学习之线程共享和非共享

    1 线程共享和非共享 1 1 线程共享资源 1 文件描述符表 由于线程间共享进程间的内容 而文件描述符表在主线程的PCB当中 各个线程可以直接去请求访问 所以线程间通信就不需要像进程那样通过管道这些方式通信 2 每种信号的处理方式 即当某个
  • Linux学习--CentOS7.5

    CentOS7命令大全 Linux系统简介 Unix Linux发展史 Linux目录结构 树形结构 查看 切换以及创建目录 文本内容操作 grep工具 关机和重启 Linux命令 基本用法 ls list 使用通配符 mkdir 别名 g
  • 通过源码包*.src.rpm定制开发rpm

    为什么80 的码农都做不了架构师 gt gt gt 1 基本流程 1 下载 安装相应的src rpm包 wget xxx src rpm rpm ivh xxx src rpm 这里的 安装 是指把xxx src rpm中的tar gz p
  • Ubuntu9.04太多乱码(中文不能正常显示)

    最近在使用Ubuntu9 04的过程中 发现有好多地方都出现乱码 其实是中文不能正常显示 现在把我所遇到的所有乱码问题集中一下 方便以后查阅参考 一 Flash乱码 在终端输入 sudo gedit etc fonts conf d 49
  • redis 配置与优化

    目录 一 关系数据库和非关系型数据库 二 关系型数据库和非关系型数据库区别 三 非关系型数据库产生背景 四 redis 1 概念 2 redis的优点 3 redis为什么这么快 五 redis安装与配置 一 关系数据库和非关系型数据库 关
  • C#实现FTP文件夹下载功能【转载】

    网上有很多FTP单个文件下载的方法 前段时间需要用到一个FTP文件夹下载的功能 于是找了下网上的相关资料结合MSDN实现了一段FTP文件夹下载的代码 实现的思路主要是通过遍历获得文件夹下的所有文件 当然 文件夹下可能仍然存在文件夹 这样就需
  • gdb attach 进程调试

    gdb调试正在运行的进程 GDB可以对正在执行的程序进行调度 它允许开发人员中断程序 并查看其状态 之后还能让这个程序正常地继续执行 gdb attach xxxxx xxxxx为利用ps命令获得的子进程process
  • 使用ShellJS提升你的开发效率(一)

    Shelljs Unix shell commands for Node js Shelljs是Node js下的脚本语言解析器 具有丰富且强大的底层操作 Windows Linux OS X 权限 Shelljs本质就是基于node的一层
  • Linux(13):例行性工作排程

    例行性工程 听谓的排程是将工作安排执行的流程之意 Linux 排程就是透过 crontab 与 at 这两个东西 两种工作排程的方式 一种是例行性的 就是每隔一定的周期要来办的事项 一种是突发性的 就是这次做完以后就没有的那一种 at at
  • 计算机组成与设计:硬件/软件接口,第二章详细梳理,附思维导图

    文章目录 二 指令 计算机的语言 章节导图 一 MIPS概述 计算机的组成 MIPS的设计思想 MIPS 32中的通用寄存器 二 三类汇编指令
  • Redis数据类型

    文章目录 Redis介绍 RedisObject的结构 1 type 2 enconding 3 lru 4 refcount 5 prt Redis源码结构
  • Redis——Redis简介

    Redis是目前最流行的键值对 key value 数据库 以出色的性能著称 官方提供的数据是可以支持100000以上的 QPS Redis具有高性能的主要原因如下 Redis是基于内存的存储数据库 绝大部分的命令处理只是纯粹的内存操作 内
  • 华为OD机试真题-文件缓存系统-2023年OD统一考试(C卷)

    题目描述 请设计一个文件缓存系统 该文件缓存系统可以指定缓存的最大值 单位为字节 文件缓存系统有两种操作 存储文件 put 和读取文件 get 操作命令为put fileName fileSize或者get fileName 存储文件是把文
  • 【Redis】Redis 红锁

    1 概述 上一篇文章 redis Redis 分布式锁 redis session Redlock 红锁 Zookeeper锁 本章节主要讲解redis中的红锁 假设我们有个客户端要获取锁 然后向master去获取锁 然后master会把锁
  • 淘宝商品类目接口API:获取淘宝商品分类类目信息

    cat get 获得淘宝分类详情 响应参数 名称 类型 必须 示例值 描述 info Mix 0 cid 16 parent cid 0 name 其他女装 is parent true status normal sort order 0
  • 48V转12V的DC-DC稳压电路推荐

    项目或学习过程中好用且稳定的DC DC的电路将是一个成功硬件项目的基础 主芯片 MP9486 MP9486A 是一款高压降压型开关稳压器 可输 出高达 1A 的持续电流至负载 它集成了一个高 压高端 MOSFET 提供 3 5A 的典型峰值

随机推荐

  • android好书推荐

    准备买的书籍 一 Android系统级深入开发 移植与调试 作者 韩超 亚马逊 27 5元 电子书 我的csdn资源有 介绍怎样移植android系统到不同嵌入式平台 以android模拟器内核goldfish 高通MSM平台 德州仪器OM
  • C/C++中的结束输入条件判断 (scanf、EOF、getchar()、cin.get()、getline)

    本教程主要适用于一些程序比赛或大公司机试中的输入数据的处理 总的来说 可以分为以下三种情况 情况一 输入的测试样例有多组 每组需要相同逻辑的处理 处理方案 在C语言中可利用scanf d n EOF 在C 中可以使用while cin gt
  • 利用Vulnhub复现漏洞 - Gogs 任意用户登录漏洞(CVE-2018-18925)

    Gogs 任意用户登录漏洞 CVE 2018 18925 Vulnhub官方复现教程 漏洞原理 复现过程 启动环境 漏洞复现 失误原因 Vulnhub官方复现教程 https vulhub org environments gogs CVE
  • CTFSHOW WEB 1-100

    web入门 给她 1 参考文档 https blog csdn net weixin 51412071 article details 124270277 查看链接 sql注入 直接用这里的payload也可以 但是要构造万能密码 把and
  • 2021-05-04

    JAVA替换PDF文字
  • 小皮面板rce漏洞

    适用版本 V1 02版本以下 新版已修补该漏洞 复现 现在官网上的小皮面板 已经修复了该漏洞 所以已经无法用官网的版本来复现漏洞 据我目前不成熟的测试感觉 它在用户名的输入上限制了字符数 所以所以我们的js代码无法写入 小皮面板下载好后 会
  • 基于51单片机的大棚环境土壤湿度光强监测系统proteus仿真原理图PCB

    功能介绍 0 本系统采用STC89C52作为单片机 1 系统实时监测当前温湿度 土壤湿度 环境光强并显示 2 温湿度超过设定阈值范围 蜂鸣器响 同时开启对应控制继电器 3 土壤湿度低于设定下限 开启喷洒 直至达到上限 关闭喷洒 4 环境光强
  • 11、信息收集篇————钟馗之眼使用

    无意中发现了一个巨牛巨牛的人工智能教程 忍不住分享一下给大家 教程不仅是零基础 通俗易懂 小白也能学 而且非常风趣幽默 还时不时有内涵段子 像看小说一样 哈哈 我正在学习中 觉得太牛了 所以分享给大家 点这里可以跳转到教程 前言 ZoomE
  • 力扣26-删除排序数组中的重复项【双指针】

    给定一个排序数组 你需要在 原地 删除重复出现的元素 使得每个元素只出现一次 返回移除后数组的新长度 不要使用额外的数组空间 你必须在 原地 修改输入数组 并在使用 O 1 额外空间的条件下完成 示例 1 给定数组 nums 1 1 2 函
  • STM32使用内部晶振的配置方法

    STM32使用内部晶振的配置方法 首先 STM32使用内部晶振需要在代码里面配置 以STM32RCT6为例 在使用内部晶振的情况下最高运行频率为64Mhz 程序只需要在system stm32f10x c中配置即可 代码如下 复制以下代码覆
  • 启动盘制作

    启动盘 指的是将特殊改造过的精简Windows系统 安装到一个U盘上 上面有各种软件 可以用来调整硬盘分区 安装系统和破解密码 准备一个容量8G以上的U盘 里面的数据必须提前备份 在制作过程中 U盘会被格式化 下载微PE制作软件 建议下载w
  • Golang实现Telnet回音服务器

    码上见 package main import bufio fmt net os strings 服务端连接 func server address string exitChan chan int l err net Listen tcp
  • 【Vue】使用Vue调起摄像头,进行拍照并能保存到本地

    1 使用Vue js 把网页内容Ctrl s保存到本地然后添加到项目中 https cdn jsdelivr net npm vue dist vue jshttps cdn jsdelivr net npm vue dist vue js
  • 最大连续子数组和(一个数组有 N 个元素,求连续子数组的最大和)

    最大连续子数组和 一个数组有 N 个元素 求连续子数组的最大和 例如 1 2 1 和最大的连续子数组为 2 1 其和为 3 输入描述 输入为两行 第一行一个整数n 1 lt n lt 100000 表示一共有n个元素 第二行为n个数 即每个
  • GCC编译器(1)

    1 GCC简介 GCC GNU Compiler Collection 是一套功能强大 性能优越的编程语言编译器 它是GNU计划的代表作品之一 GCC是Linux平台下最常用的编译器 GCC原名为GNU C Compiler 即GNU C语
  • C#,彩票数学——彩票预测是玄学还是数学?什么是彩票分析?怎么实现彩票号码的预测?

    彩票原理系列文章 彩票与数学 彩票预测是玄学还是数学 https mp csdn net mp blog creation editor 122517043彩票与数学 常用彩票术语的统计学解释https mp csdn net mp blo
  • [翻译] logstash中logback的json编码器插件

    翻译 logstash中logback的json编码器插件 掘金
  • SkylineGlobe TEPro 6.6.1 二次开发导出KML或者KMZ文件示例代码

    其实Skyline的fly文件跟kml文件很像很像 只不过一个是编码加密的 另一个早已经成为OGC的通用标准 喜欢Skyline的小伙伴们试试下面的代码吧 细心的人能发现彩蛋哦
  • ElementUI 日期范围选择器设置选择跨度一年、30天、7天

    一 思路 利用组件的picker options object 属性以及属性下的disabledDate和onPick来实现选择日期范围跨度设置 二 代码实现 设置选择范围跨度为一年
  • 操作系统王道考研复习——第三章(内存管理/存储器管理)

    操作系统王道考研复习 第三章 内存管理 存储器管理 3 内存管理 存储器管理 3 1 内存管理概念 3 1 1 内存管理的基本原理和要求 1 可执行程序的形成 2 程序的链接 1 静态链接 2 装入时动态链接 3 运行时动态链接 3 程序的