抱歉,您的浏览器无法访问本站
本页面需要浏览器支持(启用)JavaScript
了解详情 >

python的编码一直是个让我头疼的问题

前言:中文编码问题一直是程序员头疼的问题,而Python2中的字符编码足矣令新手抓狂。本文将尽量用通俗的语言带大家彻底的了解字符编码以及Python2和3中的各种编码问题。

什么是字符编码。

要彻底解决字符编码的问题就不能不去了解到底什么是字符编码。计算机从本质上来说只认识二进制中的0和1,可以说任何数据在计算机中实际的物理表现形式也就是0和1,如果你将硬盘拆开,你是看不到所谓的数字0和1的,你能看到的只是一块光滑闪亮的磁盘,如果你用足够大的放大镜你就能看到磁盘的表面有着无数的凹凸不平的元件,凹下去的代表0,突出的代表1,这就是计算机用来表现二进制的方式。

ASCII

现在我们面临了第一个问题:如何让人类语言,比如英文被计算机理解?我们以英文为例,英文中有英文字母(大小写)、标点符号、特殊符号。如果我们将这些字母与符号给予固定的编号,然后将这些编号转变为二进制,那么计算机明显就能够正确读取这些符号,同时通过这些编号,计算机也能够将二进制转化为编号对应的字符再显示给人类去阅读。由此产生了我们最熟知的ASCII码。ASCII 码使用指定的7 位或8 位二进制数组合来表示128 或256 种可能的字符。这样在大部分情况下,英文与二进制的转换就变得容易多了。

GB2312

然而,虽然计算机是美国人发明的,但是全世界的人都在使用计算机。现在出现了另一个问题:如何让中文被计算机理解?这下麻烦了,中文不像拉丁语系是由固定的字母排列组成的。ASCII 码显然没办法解决这个问题,为了解决这个问题中国国家标准总局1980年发布《信息交换用汉字编码字符集》提出了GB2312编码,用于解决汉字处理的问题。1995年又颁布了《汉字编码扩展规范》(GBK)。GBK与GB 2312—1980国家标准所对应的内码标准兼容,同时在字汇一级支持ISO/IEC10646—1和GB 13000—1的全部中、日、韩(CJK)汉字,共计20902字。这样我们就解决了计算机处理汉字的问题了。

Unicode

现在英文和中文问题被解决了,但新的问题又出现了。全球有那么多的国家不仅有英文、中文还有阿拉伯语、西班牙语、日语、韩语等等。难不成每种语言都做一种编码?基于这种情况一种新的编码诞生了:Unicode。Unicode又被称为统一码、万国码;它为每种语言中的每个字符设定了统一并且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。Unicode支持欧洲、非洲、中东、亚洲(包括统一标准的东亚象形汉字和韩国表音文字)。这样不管你使用的是英文或者中文,日语或者韩语,在Unicode编码中都有收录,且对应唯一的二进制编码。这样大家都开心了,只要大家都用Unicode编码,那就不存在这些转码的问题了,什么样的字符都能够解析了。

UTF-8

但是,由于Unicode收录了更多的字符,可想而知它的解析效率相比ASCII码和GB2312的速度要大大降低,而且由于Unicode通过增加一个高字节对ISO Latin-1字符集进行扩展,当这些高字节位为0时,低字节就是ISO Latin-1字符。对可以用ASCII表示的字符使用Unicode并不高效,因为Unicode比ASCII占用大一倍的空间,而对ASCII来说高字节的0对他毫无用处。为了解决这个问题,就出现了一些中间格式的字符集,他们被称为通用转换格式,即UTF(Unicode Transformation Format)。而我们最常用的UTF-8就是这些转换格式中的一种。在这里我们不去研究UTF-8到底是如何提高效率的,你只需要知道他们之间的关系即可。

总结:

  • 为了处理英文字符,产生了ASCII码。
  • 为了处理中文字符,产生了GB2312。
  • 为了处理各国字符,产生了Unicode。
  • 为了提高Unicode存储和传输性能,产生了UTF-8,它是Unicode的一种实现形式。

Python2中的字符编码

python2

Python2中默认的字符编码是ASCII码,也就是说Python在处理数据时,只要数据没有指定它的编码类型,Python默认将其当做ASCII码来进行处理。
1.png
这个问题出现的原因是:Python2会将整个python脚本中的内容当做ASCII码去处理,当脚本中出现了中文字符,比如这里的“小明”,我们知道ASCII码是不能够处理中文字符的,所以出现了这个错误。然而现在python2自动将ASCII码转换为str,保全起见应当在在文件头部加入一行编码声明,

1
# -*- encoding: utf-8 -*-

这样,Python在处理这个脚本时,会用UTF-8的编码去处理整个脚本,就能够正确的解析中文字符了。

总结:

  • Python2中默认的字符编码是ASCII码。
  • Python2中字符串有str和unicode两种类型。str有各种编码的区别,unicode是没有编码的标准形式。
  • Python2中可以直接查看到unicode的字节串。

decode()与encode()方法

前面我们说了这么多都是为了这一节做铺垫,现在我们开始来处理Python2中的字符编码问题。我们首先要学习Python为我们提供的两个转换编码的方法decode()与encode()。

decode()方法将其他编码字符转化为Unicode编码字符。
encode()方法将Unicode编码字符转化为其他编码字符。

chardet模块可以检测字符串编码,没有该模块的可以用pip install chardet安装。

2.png
首先解释一下为什么name=”小明” 这里的小明是一个utf-8编码的字符。因为我使用的是win10操作系统,但是终端格式我默认设置utf-8,所以当我在终端将一个中文输入时,系统就会自动将这个中文字符以UTF-8的编码传递给Python。大多数情况下windows的系统编码默认是gb2312,那么在windows下做上图的测试“小明”这个字符就是gb2312编码。然而现在win10普遍都是ANSI字符集,产生了一个编码方式叫TIS-620

所谓乱码本质上是系统编码与所提供字符的编码不一致导致的,我们举一个例子:

小明的电脑中存了一个utf-8的字母A,存储在计算机中是1100001;

小红的电脑中也存了一个gb2312的字母A,存储在计算机中是11000010;

当小明与小红交换信息时,各自的计算机就不会把对方传递过来的A识别为字母A,可能认为这是字母B。

所以当我们需要操作系统正确的输出一个字符时,除了要知道该字符的字符编码,也要知道自己系统所使用的字符编码。如果系统使用的是UTF-8编码,处理的却是gb2312的字符就会出现所谓“乱码”。

一个Tips:

decode()方法与在字符串前加u的方法实现的效果相同比如u’小明’

总结:

  • Python2的对于字符编码的转换要以unicode作为“中间人”进行转化。

  • 知道自己系统的字符编码(Linux默认utf-8,Windows默认GB2312),对症下药。

所以我们再次强调:乱码本质上是系统编码与所提供字符的编码不一致导致的

在Pyhon3中字符编码有了很大改善最主要的有以下几点:

  • Python 3的源码.py文件 的默认编码方式为UTF-8,所以在Python3中你可以不用在py脚本中写coding声明,并且系统传递给python的字符不再受系统默认编码的影响,统一为unicode编码。

  • 将字符串和字节序列做了区别,字符串str是字符串标准形式与2.x中unicode类似,bytes类似2.x中的str有各种编码区别。bytes通过解码转化成str,str通过编码转化成bytes。

PS:有一个小问题被许多新手所困扰,我们来看一下图片:

我们看到当一个中文字符出现在一个list(或tuple、dict)中时,它并不会被显示为一个中文而是字节串。但当该字符串从list中提取出来再print时就能够正常显示为中文。字节串是所有字符在python中的“本质”形态,所以你可以简单的理解为list中呈现出的字节串是给计算机看的。


评论