十六进制数在计算机科学中的重要性[关闭]

2023-12-12

在研究 8085、8086 和一般微处理器编程时,我们总是使用十六进制表示。二进制数在计算机中很重要,这没关系。但这些十六进制数字有多重要呢?有什么历史意义吗?

如果有人也指出一些历史文献,那就太好了。

EDIT:

计算机如何处理十六进制数?例如,当输入十六进制数时,在 8085 中会发生什么?


与十进制相比,十六进制与用于存储数字的各种字节具有更接近的视觉映射。

例如,您可以从十六进制数看出0x12345678最高有效字节将保存0x12最低有效字节将保存0x78。其十进制等效值,305419896,什么也没告诉你。

从历史的角度来看,值得一提的是,在使用某些较旧的计算机时,八进制更常用,这些计算机的每个字位数与现代 16/32 位计算机不同。来自维基百科关于八进制的文章:

当 PDP-8、ICL 1900 和 IBM 大型机等系统采用 12 位、24 位或 36 位字时,八进制在计算中得到广泛使用。对于这些机器来说,八进制是二进制的理想缩写,因为它们的字长可以被三整除

至于计算机如何处理十六进制数字,当计算机处理它时,用于输入数字的原始基数完全无关。计算机只是处理位和字节。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

十六进制数在计算机科学中的重要性[关闭] 的相关文章

随机推荐