字符编码是计算机编程中不可回避的问题,无论你用 Python2 仍是 Python3,亦或是 C++, Java 等,我都以为很是有必要厘清计算机中的字符编码概念。本文主要分如下几个部分介绍:html
基本概念python
常见字符编码简介编程
Python 的默认编码网络
Python2 中的字符类型函数
UnicodeEncodeError & UnicodeDecodeError 根源网站
字符(Character)编码
在电脑和电信领域中,字符是一个信息单位,它是各类文字和符号的总称,包括各国家文字、标点符号、图形符号、数字等。好比,一个汉字,一个英文字母,一个标点符号等都是一个字符。spa
字符集(Character set)3d
字符集是字符的集合。字符集的种类较多,每一个字符集包含的字符个数也不一样。好比,常见的字符集有 ASCII 字符集、GB2312 字符集、Unicode 字符集等,其中,ASCII 字符集共有 128 个字符,包含可显示字符(好比英文大小写字符、阿拉伯数字)和控制字符(好比空格键、回车键);GB2312 字符集是中国国家标准的简体中文字符集,包含简化汉字、通常符号、数字等;Unicode 字符集则包含了世界各国语言中使用到的全部字符,日志
字符编码(Character encoding)
字符编码,是指对于字符集中的字符,将其编码为特定的二进制数,以便计算机处理。常见的字符编码有 ASCII 编码,UTF-8 编码,GBK 编码等。通常而言,字符集和字符编码每每被认为是同义的概念,好比,对于字符集 ASCII,它除了有「字符的集合」这层含义外,同时也包含了「编码」的含义,也就是说,ASCII 既表示了字符集也表示了对应的字符编码。
下面咱们用一个表格作下总结:
概念 | 概念描述 | 举例 |
---|---|---|
字符 | 一个信息单位,各类文字和符号的总称 | ‘中’, ‘a', ‘1', '$', ‘¥’, ... |
字符集 | 字符的集合 | ASCII 字符集, GB2312 字符集, Unicode 字符集 |
字符编码 | 将字符集中的字符,编码为特定的二进制数 | ASCII 编码,GB2312 编码,Unicode 编码 |
字节 | 计算机中存储数据的单元,一个 8 位(bit)的二进制数 | 0x01, 0x45, ... |
常见的字符编码有 ASCII 编码,GBK 编码,Unicode 编码和 UTF-8 编码等等。这里,咱们主要介绍 ASCII、Unicode 和 UTF-8。
计算机是在美国诞生的,人家用的是英语,而在英语的世界里,不过就是英文字母,数字和一些普通符号的组合而已。
在 20 世纪 60 年代,美国制定了一套字符编码方案,规定了英文字母,数字和一些普通符号跟二进制的转换关系,被称为 ASCII (American Standard Code for Information Interchange,美国信息互换标准编码) 码。
好比,大写英文字母 A 的二进制表示是 01000001(十进制 65),小写英文字母 a 的二进制表示是 01100001 (十进制 97),空格 SPACE 的二进制表示是 00100000(十进制 32)。
ASCII 码只规定了 128 个字符的编码,这在美国是够用的。但是,计算机后来传到了欧洲,亚洲,乃至世界各地,而世界各国的语言几乎是彻底不同的,用 ASCII 码来表示其余语言是远远不够的,因此,不一样的国家和地区又制定了本身的编码方案,好比中国大陆的 GB2312 编码 和 GBK 编码等,日本的 Shift_JIS 编码等等。
虽然各个国家和地区能够制定本身的编码方案,但不一样国家和地区的计算机在数据传输的过程当中就会出现各类各样的乱码(mojibake),这无疑是个灾难。
怎么办?想法也很简单,就是将全世界全部的语言统一成一套编码方案,这套编码方案就叫 Unicode,它为每种语言的每一个字符设定了独一无二的二进制编码,这样就能够跨语言,跨平台进行文本处理了,是否是很棒!
Unicode 1.0 版诞生于 1991 年 10 月,至今它仍在不断增修,每一个新版本都会加入更多新的字符,目前最新的版本为 2016 年 6 月 21 日公布的 9.0.0。
Unicode 标准使用十六进制数字,并且在数字前面加上前缀 U+
,好比,大写字母「A」的 unicode 编码为 U+0041
,汉字「严」的 unicode 编码为 U+4E25
。更多的符号对应表,能够查询 unicode.org,或者专门的汉字对应表。
Unicode 看起来已经很完美了,实现了大一统。可是,Unicode 却存在一个很大的问题:资源浪费。
为何这么说呢?原来,Unicode 为了能表示世界各国全部文字,一开始用两个字节,后来发现两个字节不够用,又用了四个字节。好比,汉字「严」的 unicode 编码是十六进制数 4E25
,转换成二进制有十五位,即 100111000100101,所以至少须要两个字节才能表示这个汉字,可是对于其余的字符,就可能须要三个或四个字节,甚至更多。
这时,问题就来了,若是之前的 ASCII 字符集也用这种方式来表示,那岂不是很浪费存储空间。好比,大写字母「A」的二进制编码为 01000001,它只须要一个字节就够了,若是 unicode 统一使用三个字节或四个字节来表示字符,那「A」的二进制编码的前面几个字节就都是 0
,这是很浪费存储空间的。
为了解决这个问题,在 Unicode 的基础上,人们实现了 UTF-16, UTF-32 和 UTF-8。下面只说一下 UTF-8。
UTF-8 (8-bit Unicode Transformation Format) 是一种针对 Unicode 的可变长度字符编码,它使用一到四个字节来表示字符,例如,ASCII 字符继续使用一个字节编码,阿拉伯文、希腊文等使用两个字节编码,经常使用汉字使用三个字节编码,等等。
所以,咱们说,UTF-8 是 Unicode 的实现方式之一,其余实现方式还包括 UTF-16(字符用两个或四个字节表示)和 UTF-32(字符用四个字节表示)。
Python2 的默认编码是 ascii,Python3 的默认编码是 utf-8,能够经过下面的方式获取:
Python2
Python 2.7.11 (default, Feb 24 2016, 10:48:05) [GCC 4.2.1 Compatible Apple LLVM 7.0.2 (clang-700.1.81)] on darwin Type "help", "copyright", "credits" or "license" for more information. >>> import sys >>> sys.getdefaultencoding() 'ascii'
Python3
Python 3.5.2 (default, Jun 29 2016, 13:43:58) [GCC 4.2.1 Compatible Apple LLVM 7.3.0 (clang-703.0.31)] on darwin Type "help", "copyright", "credits" or "license" for more information. >>> import sys >>> sys.getdefaultencoding() 'utf-8'
Python2 中有两种和字符串相关的类型:str 和 unicode,它们的父类是 basestring。其中,str 类型的字符串有多种编码方式,默认是 ascii,还有 gbk,utf-8 等,unicode 类型的字符串使用 u'...'
的形式来表示,下面的图展现了 str 和 unicode 之间的关系:
两种字符串的相互转换归纳以下:
把 UTF-8 编码表示的字符串 'xxx' 转换为 Unicode 字符串 u'xxx' 用 decode('utf-8')
方法:
>>> '中文'.decode('utf-8') u'\u4e2d\u6587'
把 u'xxx' 转换为 UTF-8 编码的 'xxx' 用 encode('utf-8')
方法:
>>> u'中文'.encode('utf-8') '\xe4\xb8\xad\xe6\x96\x87'
用 Python2 编写程序的时候常常会遇到 UnicodeEncodeError 和 UnicodeDecodeError,它们出现的根源就是若是代码里面混合使用了 str 类型和 unicode 类型的字符串,Python 会默认使用 ascii 编码尝试对 unicode 类型的字符串编码 (encode),或对 str 类型的字符串解码 (decode),这时就极可能出现上述错误。
下面有两个常见的场景,咱们最好紧紧记住:
在进行同时包含 str 类型和 unicode 类型的字符串操做时,Python2 一概都把 str 解码(decode)成 unicode 再运算,这时就很容易出现 UnicodeDecodeError。
让咱们看看例子:
>>> s = '你好' # str 类型, utf-8 编码 >>> u = u'世界' # unicode 类型 >>> s + u # 会进行隐式转换,即 s.decode('ascii') + u Traceback (most recent call last): File "<stdin>", line 1, in <module> UnicodeDecodeError: 'ascii' codec can't decode byte 0xe4 in position 0: ordinal not in range(128)
为了不出错,咱们就须要显示指定使用 'utf-8' 进行解码,以下:
>>> s = '你好' # str 类型,utf-8 编码 >>> u = u'世界' >>> >>> s.decode('utf-8') + u # 显示指定 'utf-8' 进行转换 u'\u4f60\u597d\u4e16\u754c' # 注意这不是错误,这是 unicode 字符串
若是函数或类等对象接收的是 str 类型的字符串,但你传的是 unicode,Python2 会默认使用 ascii 将其编码成 str 类型再运算,这时就很容易出现 UnicodeEncodeError。
让咱们看看例子:
>>> u_str = u'你好' >>> str(u_str) Traceback (most recent call last): File "<stdin>", line 1, in <module> UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)
在上面的代码中,u_str 是一个 unicode 类型的字符串,因为 str()
的参数只能是 str 类型,此时 Python 会试图使用 ascii 将其编码成 ascii,也就是:
u_str.encode('ascii') // u_str 是 unicode 字符串
上面将 unicode 类型的中文使用 ascii 编码转,确定会出错。
再看一个使用 raw_input 的例子,注意 raw_input 只接收 str 类型的字符串:
>>> name = raw_input('input your name: ') input your name: ethan >>> name 'ethan' >>> name = raw_input('输入你的姓名:') 输入你的姓名: 小明 >>> name '\xe5\xb0\x8f\xe6\x98\x8e' >>> type(name) <type 'str'> >>> name = raw_input(u'输入你的姓名: ') # 会试图使用 u'输入你的姓名'.encode('ascii') Traceback (most recent call last): File "<stdin>", line 1, in <module> UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-5: ordinal not in range(128) >>> name = raw_input(u'输入你的姓名: '.encode('utf-8')) #能够,但此时 name 不是 unicode 类型 输入你的姓名: 小明 >>> name '\xe5\xb0\x8f\xe6\x98\x8e' >>> type(name) <type 'str'> >>> name = raw_input(u'输入你的姓名: '.encode('utf-8')).decode('utf-8') # 推荐 输入你的姓名: 小明 >>> name u'\u5c0f\u660e' >>> type(name) <type 'unicode'>
再看一个重定向的例子:
hello = u'你好' print hello
将上面的代码保存到文件 hello.py
,在终端执行 python hello.py
能够正常打印,可是若是将其重定向到文件 python hello.py > result
会发现 UnicodeEncodeError
。
这是由于:输出到控制台时,print 使用的是控制台的默认编码,而重定向到文件时,print 就不知道使用什么编码了,因而就使用了默认编码 ascii 致使出现编码错误。
应该改为以下:
hello = u'你好' print hello.encode('utf-8')
这样执行 python hello.py > result
就没有问题。
UTF-8 是一种针对 Unicode 的可变长度字符编码,它是 Unicode 的实现方式之一。
Unicode 字符集有多种编码标准,好比 UTF-8, UTF-7, UTF-16。
在进行同时包含 str 类型和 unicode 类型的字符串操做时,Python2 一概都把 str 解码(decode)成 unicode 再运算。
若是函数或类等对象接收的是 str 类型的字符串,但你传的是 unicode,Python2 会默认使用 ascii 将其编码成 str 类型再运算。