ASCII码的算法 | 您所在的位置:网站首页 › 用ascii码可以表示汉字 › ASCII码的算法 |
(来源:Ascii 作者:江南春) A在ascii中定义为01000001,也就是十进制65,有了这个标准后,当我们输入A时,计算机就可以通过ascii码知道输入的字符的二进制编码是01000001。而没有这样的标准,我们就必须自己想办法告诉计算机我们输入了一个A;没有这样的标准,我们在别的机器上就需要重新编码以告诉计算机我们要输入A。ascii码指的不是十进制,是二进制。只是用十进制表示习惯一点罢了,比如在ascii码中,A的二进制编码为01000001,如果用十进制表示是65,用十六进制表示就是41H。 在ascii码表中,只包括了一些字符、数字、标点符号的信息表示,这主要是因为计算机是美国发明的,在英文下面,我们使用ascii表示就足够了!但是在汉字输入下面,用ascii码就不能表示了,而汉字只是中国的通用表示,所以如果我们要在计算机中输入汉字,就必须有一个像ascii码的标准来表示每一个汉字,这就是中国的汉字国标码,它定义了汉字在计算机中的一个表示标准。通过这个标准,但我们输入汉字的时候,我们的输入码就转换为区位码,通过唯一的区位码得到这个汉字的字形码并显示出来。当然汉字的区位码在计算机中也是用二进制表示的! (雅风) 上一篇:ASCII国际问题 下一篇:9 1、ASCII码的算法 2、ASCII国际问题 3、ASCII产生 4、ASCII简介 5、扩展ASCII打印字符 6、ASCII打印字符 7、ASCII非打印控制字符表 8、键盘常用ASCII码 9、ASCII码图 10、11 11、10 12、9 无法在这个位置找到: xuan.htm |
CopyRight 2018-2019 实验室设备网 版权所有 |