ASCII码的算法 您所在的位置:网站首页 用ascii码可以表示汉字 ASCII码的算法

ASCII码的算法

2024-07-10 09:03| 来源: 网络整理| 查看: 265

(来源:Ascii   作者:江南春)

  A在ascii中定义为01000001,也就是十进制65,有了这个标准后,当我们输入A时,计算机就可以通过ascii码知道输入的字符的二进制编码是01000001。而没有这样的标准,我们就必须自己想办法告诉计算机我们输入了一个A;没有这样的标准,我们在别的机器上就需要重新编码以告诉计算机我们要输入A。ascii码指的不是十进制,是二进制。只是用十进制表示习惯一点罢了,比如在ascii码中,A的二进制编码为01000001,如果用十进制表示是65,用十六进制表示就是41H。

  在ascii码表中,只包括了一些字符、数字、标点符号的信息表示,这主要是因为计算机是美国发明的,在英文下面,我们使用ascii表示就足够了!但是在汉字输入下面,用ascii码就不能表示了,而汉字只是中国的通用表示,所以如果我们要在计算机中输入汉字,就必须有一个像ascii码的标准来表示每一个汉字,这就是中国的汉字国标码,它定义了汉字在计算机中的一个表示标准。通过这个标准,但我们输入汉字的时候,我们的输入码就转换为区位码,通过唯一的区位码得到这个汉字的字形码并显示出来。当然汉字的区位码在计算机中也是用二进制表示的!

(雅风)

上一篇:ASCII国际问题 下一篇:9 1、ASCII码的算法 2、ASCII国际问题 3、ASCII产生 4、ASCII简介 5、扩展ASCII打印字符 6、ASCII打印字符 7、ASCII非打印控制字符表 8、键盘常用ASCII码 9、ASCII码图 10、11 11、10 12、9 无法在这个位置找到: xuan.htm


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有