电脑一个字节为什么是8位
1. 为什么一字节等于八位
int
类型在C里并没有规定长度,之规定int
<-float罢了,具体多少位,是编译器规定的,并不是计算机规定的,因为早期的计算机一次只能处理8位,所以一个字节就是八位了
2. 一个字节是用8位二进制数表示为什么是8个
字节是计算机存储信息的最基本单位,因此也是信息数据的基本单位.一个字节用8位进制数表示.通常计算机以字节为单位来计算内存容量.
计算机中字节与容量的换算:
lB=8bit
lKB=210
B=l024B
lMB=220
B=l024KB
lGB=230
B=l024MB
字(Word)
计算机一次存储,传输或操作时的一组二进制数称为字.一个字由若干个字节组成,用于表示数据或信息的长度.
3. 为什么一个字节是8个二进制位
“字节”可谓是编程处理的基本单位,一个字节就是8个2进制位,规定死了的。为什么这么规定呢?
反过来想吧!如果没规定位数,那么当你输入一个整数1时,那编译器是告诉计算机给它存成1啊还是01啊还是001啊还是0001啊?输入2时,是存成10啊还是存成010还是0010?随便存岂不是乱了?所以必须规定,当时就规定的8个
所以,多出来那个“没用”的二进制位,也是有用的!帮助计算机规范化的识别、存储数据。
4. 字节为什么是8位而不是10位
计算机使用2进制计数,8位正好是两位3进制数。如果你使用10位,就需要4位2进制数才能表示。而在计算机硬件。1位二制制数就需要人个存储器去表示。8位正好是3个存储器。如果用4位存储器表示10,就有6个数被浪费。
这在计算机存储资源不足的情况下,是不可以的。特别是计算机发展之初,这种浪费是不可能接受的。
5. 为什么一个字节=8位二进制
计算机采用二进制的,8=2^3,通常最高位为符号位
计算机中的位
二进制数系统中,每个0或1就是一个位(bit),位是数据存储的最小单位。其中8bit就称为一个字节(Byte)。计算机中的CPU位数指的是CPU一次能处理的最大位数。例如32位计算机的CPU一次最多能处理32位数据。
Bit,乃BInary digit(二进制数)位的缩写,是数学家John Wilder Tukey提议的术语(可能是1946年提出,但有资料称1943年就提出了)。这个术语第一次被正式使用,是在香农着名的《信息论》,即《通信的数学理论》(A Mathematical Theory of Communication)论文之第1页中。
6. 为什么规定计算机1个字节为8位二进制
呵呵,没什么,看计算机发展史就知道了,最初应用时也是从一位两位四位这么来的,只是到需要制定标准时(例如ASCII码这类标准),用了8字节。
7. 为什么一个字节是8位不是其他,2或者16,32
因为ASCLL码刚造出来的时候
电脑是8位的
因为改改麻烦,所以沿用到现在
8. 字节为什么是8位
这其实是一个概念问题。在最早的时候,是约定的8位二进制为一个字节,和ASCⅡ码无关,可以表示256以内的数。
在机器内部,8位或者16位对它来说都一样,都是1或0,而程序设计的时候,人为的要求机器按8位或16位来处理。16位的音乐文件所包含的信息比8位的多得多(差256倍),因此你也可以将16位二进制数看作音乐文件的一个单元,但约定成2个字节。就相当于统一了单位,便于交流。
9. 为什么电脑数据一个字节是8位
所谓字节,原意就是用来表示一个完整的字符的。最初的计算机性能和存储容量都比较差,所以普遍采用4位bcd编码(这个编码出现比计算机还早,最早是用在打孔卡上的)。bcd编码表示数字还可以,但表示字母或符号就很不好用,需要用多个编码来表示。后来又演变出6位的bcd编码(bcdic),以及至今仍在广泛使用的7位ascii编码。不过最终决定字节大小的,是大名鼎鼎的system/360。当时ibm为system/360设计了一套8位ebcdic编码,涵盖了数字、大小写字母和大部分常用符号,同时又兼容广泛用于打孔卡的6位bcdic编码。system/360很成功,也奠定了字符存储单位采用8位长度的基础,这就是1字节=8位的由来。
10. 为什么电脑数据一个字节是8位
简单来说,1位到7位编码都无法涵盖数字、大小写字母和大部分常用符号,而8位编码做到了。16位、32位当然可以,但是既然8位都能做到,就不需要更多位数了。
首先,计算机采用二进制存储信息,这是由大自然的规律所决定,估计也只有量子计算机能突破这种限制,因此计算机里一个信息量最小单位最好是2、4、8、16、32、64这样的字节数,便于计算机里的运算、书写以及统计。
再次,计算机设计之初为了传递数字和一些符号信息,制订了ASCII标准,而发现需要七位才能满足编码要求,但是一个字节不可能规定为7位吧,所以可以说这一标准也促进了将8位作为一个byte的形成。
其实,采用16位也可以。可是当时的信息量都比较小,CPU内存也比较小,16位又嫌太大。
而现在流行的unicode编码方式不可同日而语,所以也出现了“字”和“双字”的概念。
就这样8位也就成了标准的1Byte了