首发于我的公众号:《Python编程时光》
个人博客原文: http://python.iswbm.com/en/la...
个人 Github: https://github.com/iswbm/Pyth...
Python 中编码问题,一直是不少 Python 开发者的噩梦,尽管你是工做多年的 Python 开发者,也确定会常常遇到使人神烦的编码问题,好不容易花了半天搞明白了。html
一段时间后,又全都忘光光了,一脸懵逼的你又开始你找各类博客、帖子,从头搞清楚什么是编码?什么是 unicode?它和 ASCII 有什么区别?为何 decode encode 总是报错?python2 里和 python3 的字符串类型怎么都不同,怎么对应起来?如何检测编码格式?python
反反复复,这个过程真是太痛苦了。git
今天我把你们在 Python 上会遇到的一些编码问题都讲清楚了,之后你能够不用再 Google,收藏这篇文章就行。github
在 Python3中,字符串有两种类型 ,str 和 bytes。编程
今天就来讲一说这两者的区别:微信
unicode string(str 类型)
:以 Unicode code points 形式存储,人类认识的形式 byte string(bytes 类型)
:以 byte 形式存储,机器认识的形式 在 Python 3 中你定义的全部字符串,都是 unicode string类型,使用 type
和 isinstance
能够判别ide
# python3 >>> str_obj = "你好" >>> >>> type(str_obj) <class 'str'> >>> >>> isinstance("你好", str) True >>> >>> isinstance("你好", bytes) False >>>
而 bytes 是一个二进制序列对象,你只要你在定义字符串时前面加一个 b
,就表示你要定义一个 bytes 类型的字符串对象。编码
# python3 >>> byte_obj = b"Hello World!" >>> type(byte_obj) <class 'bytes'> >>> >>> isinstance(byte_obj, str) False >>> >>> isinstance(byte_obj, bytes) True >>>
可是在定义中文字符串时,你就不能直接在前面加 b
了,而应该使用 encode
转一下。spa
>>> byte_obj=b"你好" File "<stdin>", line 1 SyntaxError: bytes can only contain ASCII literal characters. >>> >>> str_obj="你好" >>> >>> str_obj.encode("utf-8") b'\xe4\xbd\xa0\xe5\xa5\xbd' >>>
而在 Python2 中,字符串的类型又与 Python3 不同,须要仔细区分。code
在 Python2 里,字符串也只有两种类型,unicode 和 str 。
只有 unicode object 和 非unicode object(其实应该叫 str object) 的区别:
unicode string(unicode类型)
:以 Unicode code points 形式存储,人类认识的形式 byte string(str 类型)
:以 byte 形式存储,机器认识的形式 当咱们直接使用双引号或单引号包含字符的方式来定义字符串时,就是 str 字符串对象,好比这样
# python2 >>> str_obj="你好" >>> >>> type(str_obj) <type 'str'> >>> >>> str_obj '\xe4\xbd\xa0\xe5\xa5\xbd' >>> >>> isinstance(str_obj, bytes) True >>> isinstance(str_obj, str) True >>> isinstance(str_obj, unicode) False >>> >>> str is bytes True
而当咱们在双引号或单引号前面加个 u
,就代表咱们定义的是 unicode 字符串对象,好比这样
# python2 >>> unicode_obj = u"你好" >>> >>> unicode_obj u'\u4f60\u597d' >>> >>> type(unicode_obj) <type 'unicode'> >>> >>> isinstance(unicode_obj, bytes) False >>> isinstance(unicode_obj, str) False >>> >>> isinstance(unicode_obj, unicode) True
全部的字符,在 unicode 字符集中都有对应的编码值(英文叫作:code point
)
而把这些编码值按照必定的规则保存成二进制字节码,就是咱们说的编码方式,常见的有:UTF-8,GB2312 等。
也就是说,当咱们要将内存中的字符串持久化到硬盘中的时候,都要指定编码方法,而反过来,读取的时候,也要指定正确的编码方法(这个过程叫解码),否则会出现乱码。
那问题就来了,当咱们知道了其对应的编码方法,咱们就能够正常解码,但并非全部时候咱们都能知道应该用什么编码方式去解码?
这时候就要介绍到一个 python 的库 -- chardet
,使用它以前 须要先安装
python3 -m pip install chardet
chardet 有一个 detect 方法,能够 预测
其其编码格式
>>> import chardet >>> chardet.detect('微信公众号:Python编程时光'.encode('gbk')) {'encoding': 'GB2312', 'confidence': 0.99, 'language': 'Chinese'}
为何说是预测呢,经过上面的输出来看,你会看到有一个 confidence 字段,其表示预测的可信度,或者说成功率。
可是使用它时,若你的字符数较少,就有可能 “误诊
”),好比只有 中文
两个字,就像下面这样,咱们是 使用 gbk 编码的,使用 chardet 却识别成 KOI8-R 编码。
>>> str_obj = "中文" >>> byte_obj = bytes(a, encoding='gbk') # 先获得一个 gbk 编码的 bytes >>> >>> chardet.detect(byte_obj) {'encoding': 'KOI8-R', 'confidence': 0.682639754276994, 'language': 'Russian'} >>> >>> str_obj2 = str(byte_obj, encoding='KOI8-R') >>> str_obj2 'жпнд'
因此为了编码诊断的准确,要尽可能使用足够多的字符。
chardet 支持多国的语言,从官方文档中能够看到支持以下这些语言(https://chardet.readthedocs.i...
编码和解码,其实就是 str 与 bytes 的相互转化的过程(Python 2 已经远去,这里以及后面都只用 Python 3 举例)
那么假如咱们真知道了其编码格式,如何来转成 unicode 呢?
有两种方法
第一种是,直接使用 decode 方法
>>> byte_obj.decode('gbk') '中文' >>>
第二种是,使用 str 类来转
>>> str_obj = str(byte_obj, encoding='gbk') >>> str_obj '中文' >>>
在 Python 2 中,默认使用的是 ASCII 编码来读取的,所以,咱们在使用 Python 2 的时候,若是你的 python 文件里有中文,运行是会报错的。
SyntaxError: Non-ASCII character '\xe4' in file demo.py
缘由就是 ASCII 编码表过小,没法解释中文。
而在 Python 3 中,默认使用的是 uft-8 来读取,因此省了很多的事。
对于这个问题,一般解决方法有两种:
第一种方法
在 python2 中,可使用在头部指定
能够这样写,虽然很好看
# -*- coding: utf-8 -*-
但这样写太麻烦了,我一般使用下面两种写法
# coding:utf-8 # coding=utf-8
第二种方法
import sys reload(sys) sys.setdefaultencoding('utf-8')
这里在调用sys.setdefaultencoding(‘utf-8’) 设置默认的解码方式以前,执行了reload(sys),这是必须的,由于python在加载完sys以后,会删除 sys.setdefaultencoding 这个方法,咱们须要从新载入sys,才能调用 sys.setdefaultencoding 这个方法。