Python 字符编码问题

  python对多国语言的处理是支持的很好的,它能够处理如今任意编码的字符,这里深刻的研究一下python对多种不一样语言的处理。
    有一点须要清楚的是,当python要作编码转换的时候,会借助于内部的编码,转换过程是这样的:
        原有编码 -> 内部编码 -> 目的编码 
    python的内部是使用unicode来处理的,可是unicode的使用须要考虑的是它的编码格式有两种,一是UCS-2,它一共有65536个码 位,另外一种是UCS-4,它有2147483648g个码位。对于这两种格式,python都是支持的,这个是在编译时经过--enable- unicode=ucs2或--enable-unicode=ucs4来指定的。那么咱们本身默认安装的python有的什么编码怎么来肯定呢?有一个 办法,就是经过sys.maxunicode的值来判断:python

import  sys
 print  sys.maxunicode函数


    若是输出的值为65535,那么就是UCS-2,若是输出是1114111就是UCS-4编码。
咱们要认识到一点:当一个字符串转换为内部编码后,它就不是str类型了!它是unicode类型:编码

a  =   " 风卷残云 " 
 print  type(a)
 b  =  a.unicode(a,  " gb2312 " )
 print  type(b)code


输出:



这个时候b能够方便的任意转换为其余编码,好比转换为utf-8:接口

c  =  b.encode( " utf-8 " )
 print  cutf-8


c输出的东西看起来是乱码,那就对了,由于是utf-8的字符串。
    好了,该说说codecs模块了,它和我上面说的概念是密切相关的。codecs专门用做编码转换,固然,其实经过它的接口是能够扩展到其余关于代码方面的转换的,这个东西这里不涉及。unicode

# -*- encoding: gb2312 -*- 
import  codecs, sys

print   ' - ' * 60 
#  建立gb2312编码器 
look   =  codecs.lookup( " gb2312 " )
#  建立utf-8编码器 
look2  =  codecs.lookup( " utf-8 " )

a  =   " 我爱北京 " 

print  len(a), a
#  把a编码为内部的unicode, 但为何方法名为decode呢,个人理解是把gb2312的字符串解码为unicode 
b  =  look.decode(a)
#  返回的b[0]是数据,b[1]是长度,这个时候的类型是unicode了 
print  b[ 1 ], b[0], type(b[0])
#  把内部编码的unicode转换为gb2312编码的字符串,encode方法会返回一个字符串类型 
b2  =  look.encode(b[0])
#  发现不同的地方了吧?转换回来以后,字符串长度由14变为了7! 如今的返回的长度才是真正的字数,原来的是字节数 
print  b2[ 1 ], b2[0], type(b2[0])
#  虽然上面返回了字数,但并不意味着用len求b2[0]的长度就是7了,仍然仍是14,仅仅是codecs.encode会统计字数 
print  len(b2[0])字符串


    上面的代码就是codecs的使用,是最多见的用法。另外还有一个问题就是,若是咱们处理的文件里的字符编码是其余类型的呢?这个读取进行作处理也须要特殊的处理的。codecs也提供了方法.字符编码

# -*- encoding: gb2312 -*- 
 import  codecs, sys

 #  用codecs提供的open方法来指定打开的文件的语言编码,它会在读取的时候自动转换为内部unicode 
 bfile  =  codecs.open( " dddd.txt " ,  ' r ' ,  " big5 " )
 # bfile = open("dddd.txt", 'r') 
 
 ss  =  bfile.read()
 bfile.close()
 #  输出,这个时候看到的就是转换后的结果。若是使用语言内建的open函数来打开文件,这里看到的一定是乱码 
 print  ss, type(ss)编译

相关文章
相关标签/搜索