1. 概述 本文主要包括如下几个方面:编码基本知识,java,系统软件,url,工具软件等。 在下面的描述中,将以"中文"两个字为例,经查表能够知道其GB2312编码是"d6d0 cec4",Unicode编码为"4e2d 6587",UTF编码就是"e4b8ad e69687"。注意,这两个字没有iso8859-1编码,但能够用iso8859-1编码来"表示"。 2. 编码基本知识 最先的编码是iso8859-1,和ascii编码类似。但为了方便表示各类各样的语言,逐渐出现了不少标准编码,重要的有以下几个。 2.1. iso8859-1 属于单字节编码,最多能表示的字符范围是0-255,应用于英文系列。好比,字母'a'的编码为0x61=97。 很明显,iso8859-1编码表示的字符范围很窄,没法表示中文字符。可是,因为是单字节编码,和计算机最基础的表示单位一致,因此不少时候,仍旧使用iso8859-1编码来表示。并且在不少协议上,默认使用该编码。好比,虽然"中文"两个字不存在iso8859-1编码,以gb2312编码为例,应该是"d6d0 cec4"两个字符,使用iso8859-1编码的时候则将它拆开为4个字节来表示:"d6 d0 ce c4"(事实上,在进行存储的时候,也是以字节为单位处理的)。而若是是UTF编码,则是6个字节"e4 b8 ad e6 96 87"。很明显,这种表示方法还须要以另外一种编码为基础。 2.2. GB2312/GBK 这就是汉子的国标码,专门用来表示汉字,是双字节编码,而英文字母和iso8859-1一致(兼容iso8859-1编码)。其中gbk编码可以用来同时表示繁体字和简体字,而gb2312只能表示简体字,gbk是兼容gb2312编码的。 2.3. unicode 这是最统一的编码,能够用来表示全部语言的字符,并且是定长双字节(也有四字节的)编码,包括英文字母在内。因此能够说它是不兼容iso8859-1编码的,也不兼容任何编码。不过,相对于iso8859-1编码来讲,uniocode编码只是在前面增长了一个0字节,好比字母'a'为"00 61"。 须要说明的是,定长编码便于计算机处理(注意GB2312/GBK不是定长编码),而unicode又能够用来表示全部字符,因此在不少软件内部是使用unicode编码来处理的,好比java。 2.4. UTF 考虑到unicode编码不兼容iso8859-1编码,并且容易占用更多的空间:由于对于英文字母,unicode也须要两个字节来表示。因此unicode不便于传输和存储。所以而产生了utf编码,utf编码兼容iso8859-1编码,同时也能够用来表示全部语言的字符,不过,utf编码是不定长编码,每个字符的长度从1-6个字节不等。另外,utf编码自带简单的校验功能。通常来说,英文字母都是用一个字节表示,而汉字使用三个字节。 注意,虽说utf是为了使用更少的空间而使用的,但那只是相对于unicode编码来讲,若是已经知道是汉字,则使用GB2312/GBK无疑是最节省的。不过另外一方面,值得说明的是,虽然utf编码对汉字使用3个字节,但即便对于汉字网页,utf编码也会比unicode编码节省,由于网页中包含了不少的英文字符。 3. java对字符的处理 在java应用软件中,会有多处涉及到字符集编码,有些地方须要进行正确的设置,有些地方须要进行必定程度的处理。 3.1. getBytes(charset) 这是java字符串处理的一个标准函数,其做用是将字符串所表示的字符按照charset编码,并以字节方式表示。注意字符串在java内存中老是按unicode编码存储的。好比"中文",正常状况下(即没有错误的时候)存储为"4e2d 6587",若是charset为"gbk",则被编码为"d6d0 cec4",而后返回字节"d6 d0 ce c4"。若是charset为"utf8"则最后是"e4 b8 ad e6 96 87"。若是是"iso8859-1",则因为没法编码,最后返回 "3f 3f"(两个问号)。 3.2. new String(charset) 这是java字符串处理的另外一个标准函数,和上一个函数的做用相反,将字节数组按照charset编码进行组合识别,最后转换为unicode存储。参考上述getBytes的例子,"gbk" 和"utf8"均可以得出正确的结果"4e2d 6587",但iso8859-1最后变成了"003f 003f"(两个问号)。 由于utf8能够用来表示/编码全部字符,因此new String( str.getBytes( "utf8" ), "utf8" ) === str,即彻底可逆。 3.3. setCharacterEncoding() 该函数用来设置http请求或者相应的编码。 对于request,是指提交内容的编码,指定后能够经过getParameter()则直接得到正确的字符串,若是不指定,则默认使用iso8859-1编码,须要进一步处理。参见下述"表单输入"。值得注意的是在执行setCharacterEncoding()以前,不能执行任何getParameter()。java doc上说明:This method must be called prior to reading request parameters or reading input using getReader()。并且,该指定只对POST方法有效,对GET方法无效。分析缘由,应该是在执行第一个getParameter()的时候,java将会按照编码分析全部的提交内容,然后续的getParameter()再也不进行分析,因此setCharacterEncoding()无效。而对于GET方法提交表单是,提交的内容在URL中,一开始就已经按照编码分析全部的提交内容,setCharacterEncoding()天然就无效。 对于response,则是指定输出内容的编码,同时,该设置会传递给浏览器,告诉浏览器输出内容所采用的编码。 3.4. 处理过程 下面分析两个有表明性的例子,说明java对编码有关问题的处理方法。 3.4.1. 表单输入 User input *(gbk:d6d0 cec4) browser *(gbk:d6d0 cec4) web server iso8859-1(00d6 00d 000ce 00c4) class,须要在class中进行处理:getbytes("iso8859-1")为d6 d0 ce c4,new String("gbk")为d6d0 cec4,内存中以unicode编码则为4e2d 6587。 l 用户输入的编码方式和页面指定的编码有关,也和用户的操做系统有关,因此是不肯定的,上例以gbk为例。 l 从browser到web server,能够在表单中指定提交内容时使用的字符集,不然会使用页面指定的编码。而若是在url中直接用?的方式输入参数,则其编码每每是操做系统自己的编码,由于这时和页面无关。上述仍旧以gbk编码为例。 l Web server接收到的是字节流,默认时(getParameter)会以iso8859-1编码处理之,结果是不正确的,因此须要进行处理。但若是预先设置了编码(经过request. setCharacterEncoding ()),则可以直接获取到正确的结果。 l 在页面中指定编码是个好习惯,不然可能失去控制,没法指定正确的编码。 3.4.2. 文件编译 假设文件是gbk编码保存的,而编译有两种编码选择:gbk或者iso8859-1,前者是中文windows的默认编码,后者是linux的默认编码,固然也能够在编译时指定编码。 Jsp *(gbk:d6d0 cec4) java file *(gbk:d6d0 cec4) compiler read uincode(gbk: 4e2d 6587; iso8859-1: 00d6 00d 000ce 00c4) compiler write utf(gbk: e4b8ad e69687; iso8859-1: *) compiled file unicode(gbk: 4e2d 6587; iso8859-1: 00d6 00d 000ce 00c4) class。因此用gbk编码保存,而用iso8859-1编译的结果是不正确的。 class unicode(4e2d 6587) system.out / jsp.out gbk(d6d0 cec4) os console / browser。 l 文件能够以多种编码方式保存,中文windows下,默认为ansi/gbk。 l 编译器读取文件时,须要获得文件的编码,若是未指定,则使用系统默认编码。通常class文件,是以系统默认编码保存的,因此编译不会出问题,但对于jsp文件,若是在中文windows下编辑保存,而部署在英文linux下运行/编译,则会出现问题。因此须要在jsp文件中用pageEncoding指定编码。 l Java编译的时候会转换成统一的unicode编码处理,最后保存的时候再转换为utf编码。 l 当系统输出字符的时候,会按指定编码输出,对于中文windows下,System.out将使用gbk编码,而对于response(浏览器),则使用jsp文件头指定的contentType,或者能够直接为response指定编码。同时,会告诉browser网页的编码。若是未指定,则会使用iso8859-1编码。对于中文,应该为browser指定输出字符串的编码。 l browser显示网页的时候,首先使用response中指定的编码(jsp文件头指定的contentType最终也反映在response上),若是未指定,则会使用网页中meta项指定中的contentType。 3.5. 几处设置 对于web应用程序,和编码有关的设置或者函数以下。 3.5.1. jsp编译 指定文件的存储编码,很明显,该设置应该置于文件的开头。例如:<%@page pageEncoding="GBK"%>。另外,对于通常class文件,能够在编译的时候指定编码。 3.5.2. jsp输出 指定文件输出到browser是使用的编码,该设置也应该置于文件的开头。例如:<%@ page contentType="text/html; charset= GBK" %>。该设置和response.setCharacterEncoding("GBK")等效。 3.5.3. meta设置 指定网页使用的编码,该设置对静态网页尤为有做用。由于静态网页没法采用jsp的设置,并且也没法执行response.setCharacterEncoding()。例如:<META http-equiv="Content-Type" content="text/html; charset=GBK" /> 若是同时采用了jsp输出和meta设置两种编码指定方式,则jsp指定的优先。由于jsp指定的直接体如今response中。 须要注意的是,apache有一个设置能够给无编码指定的网页指定编码,该指定等同于jsp的编码指定方式,因此会覆盖静态网页中的meta指定。因此有人建议关闭该设置。 3.5.4. form设置 当浏览器提交表单的时候,能够指定相应的编码。例如:<form accept-charset= "gb2312">。通常没必要不使用该设置,浏览器会直接使用网页的编码。 4. 系统软件 下面讨论几个相关的系统软件。 4.1. mysql数据库 很明显,要支持多语言,应该将数据库的编码设置成utf或者unicode,而utf更适合与存储。可是,若是中文数据中包含的英文字母不多,其实unicode更为适合。 数据库的编码能够经过mysql的配置文件设置,例如default-character-set=utf8。还能够在数据库连接URL中设置,例如: useUnicode=true&characterEncoding=UTF-8。注意这二者应该保持一致,在新的sql版本里,在数据库连接URL里能够不进行设置,但也不能是错误的设置。 4.2. apache appache和编码有关的配置在httpd.conf中,例如AddDefaultCharset UTF-8。如前所述,该功能会将全部静态页面的编码设置为UTF-8,最好关闭该功能。 另外,apache还有单独的模块来处理网页响应头,其中也可能对编码进行设置。 4.3. linux默认编码 这里所说的linux默认编码,是指运行时的环境变量。两个重要的环境变量是LC_ALL和LANG,默认编码会影响到java URLEncode的行为,下面有描述。 建议都设置为"zh_CN.UTF-8"。 4.4. 其它 为了支持中文文件名,linux在加载磁盘时应该指定字符集,例如:mount /dev/hda5 /mnt/hda5/ -t ntfs -o iocharset=gb2312。 另外,如前所述,使用GET方法提交的信息不支持request.setCharacterEncoding(),但能够经过tomcat的配置文件指定字符集,在tomcat的server.xml文件中,形如:<Connector ... URIEncoding="GBK"/>。这种方法将统一设置全部请求,而不能针对具体页面进行设置,也不必定和browser使用的编码相同,因此有时候并非所指望的。 5. URL地址 URL地址中含有中文字符是很麻烦的,前面描述过使用GET方法提交表单的状况,使用GET方法时,参数就是包含在URL中。 5.1. URL编码 对于URL中的一些特殊字符,浏览器会自动进行编码。这些字符除了"/?&"等外,还包括unicode字符,好比汉子。这时的编码比较特殊。 IE有一个选项"老是使用UTF-8发送URL",当该选项有效时,IE将会对特殊字符进行UTF-8编码,同时进行URL编码。若是改选项无效,则使用默认编码"GBK",而且不进行URL编码。可是,对于URL后面的参数,则老是不进行编码,至关于UTF-8选项无效。好比"中文.html?a=中文",当UTF-8选项有效时,将发送连接"%e4%b8%ad%e6%96%87.html?a=/x4e/x2d/x65/x87";而UTF-8选项无效时,将发送连接"/x4e/x2d/x65/x87.html?a=/x4e/x2d/x65/x87"。注意后者前面的"中文"两个字只有4个字节,而前者却有18个字节,这主要时URL编码的缘由。 当web server(tomcat)接收到该连接时,将会进行URL解码,即去掉"%",同时按照ISO8859-1编码(上面已经描述,可使用URLEncoding来设置成其它编码)识别。上述例子的结果分别是"/ue4/ub8/uad/ue6/u96/u87.html?a=/u4e/u2d/u65/u87"和"/u4e/u2d/u65/u87.html?a=/u4e/u2d/u65/u87",注意前者前面的"中文"两个字恢复成了6个字符。这里用"/u",表示是unicode。 因此,因为客户端设置的不一样,相同的连接,在服务器上获得了不一样结果。这个问题很多人都遇到,却没有很好的解决办法。因此有的网站会建议用户尝试关闭UTF-8选项。不过,下面会描述一个更好的处理办法。 5.2. rewrite 熟悉的人都知道,apache有一个功能强大的rewrite模块,这里不描述其功能。须要说明的是该模块会自动将URL解码(去除%),即完成上述web server(tomcat)的部分功能。有相关文档介绍说可使用[NE]参数来关闭该功能,但我试验并未成功,多是由于版本(我使用的是apache 2.0.54)问题。另外,当参数中含有"?& "等符号的时候,该功能将致使系统得不到正常结果。 rewrite自己彷佛彻底是采用字节处理的方式,而不考虑字符串的编码,因此不会带来编码问题。 5.3. URLEncode.encode() 这是Java自己提供对的URL编码函数,完成的工做和上述UTF-8选项有效时浏览器所作的工做类似。值得说明的是,java已经不同意不指定编码来使用该方法(deprecated)。应该在使用的时候增长编码指定。 当不指定编码的时候,该方法使用系统默认编码,这会致使软件运行结果得不肯定。好比对于"中文",当系统默认编码为"gb2312"时,结果是"%4e%2d%65%87",而默认编码为"UTF-8",结果倒是"%e4%b8%ad%e6%96%87",后续程序将难以处理。另外,这儿说的系统默认编码是由运行tomcat时的环境变量LC_ALL和LANG等决定的,曾经出现过tomcat重启后就出现乱码的问题,最后才郁闷的发现是由于修改修改了这两个环境变量。 建议统一指定为"UTF-8"编码,可能须要修改相应的程序。 5.4. 一个解决方案 上面提及过,由于浏览器设置的不一样,对于同一个连接,web server收到的是不一样内容,而软件系统有没法知道这中间的区别,因此这一协议目前还存在缺陷。 针对具体问题,不该该侥幸认为全部客户的IE设置都是UTF-8有效的,也不该该粗暴的建议用户修改IE设置,要知道,用户不可能去记住每个web server的设置。因此,接下来的解决办法就只能是让本身的程序多一点智能:根据内容来分析编码是否UTF-8。 比较幸运的是UTF-8编码至关有规律,因此能够经过分析传输过来的连接内容,来判断是不是正确的UTF-8字符,若是是,则以UTF-8处理之,若是不是,则使用客户默认编码(好比"GBK"),下面是一个判断是否UTF-8的例子,若是你了解相应规律,就容易理解。 public static boolean isValidUtf8(byte[] b,int aMaxCount){ int lLen=b.length,lCharCount=0; for(int i=0;i<lLen && lCharCount<aMaxCount;++lCharCount){ byte lByte=b[i++];//to fast operation, ++ now, ready for the following for(;;) if(lByte>=0) continue;//>=0 is normal ascii if(lByte<(byte)0xc0 || lByte>(byte)0xfd) return false; int lCount=lByte>(byte)0xfc?5:lByte>(byte)0xf8?4 :lByte>(byte)0xf0?3:lByte>(byte)0xe0?2:1; if(i+lCount>lLen) return false; for(int j=0;j<lCount;++j,++i) if(b[i]>=(byte)0xc0) return false; } return true; } 相应地,一个使用上述方法的例子以下: public static String getUrlParam(String aStr,String aDefaultCharset) throws UnsupportedEncodingException{ if(aStr==null) return null; byte[] lBytes=aStr.getBytes("ISO-8859-1"); return new String(lBytes,StringUtil.isValidUtf8(lBytes)?"utf8":aDefaultCharset); } 不过,该方法也存在缺陷,以下两方面: l 没有包括对用户默认编码的识别,这能够根据请求信息的语言来判断,但不必定正确,由于咱们有时候也会输入一些韩文,或者其余文字。 l 可能会错误判断UTF-8字符,一个例子是"学习"两个字,其GBK编码是" /xd1/xa7/xcf/xb0",若是使用上述isValidUtf8方法判断,将返回true。能够考虑使用更严格的判断方法,不过估计效果不大。 有一个例子能够证实google也遇到了上述问题,并且也采用了和上述类似的处理方法,好比,若是在地址栏中输入"http://www.google.com/search?hl=zh-CN&newwindow=1&q=学习",google将没法正确识别,而其余汉字通常可以正常识别。 最后,应该补充说明一下,若是不使用rewrite规则,或者经过表单提交数据,其实并不必定会遇到上述问题,由于这时能够在提交数据时指定但愿的编码。另外,中文文件名确实会带来问题,应该谨慎使用。 6. 其它 下面描述一些和编码有关的其余问题。 6.1. SecureCRT 除了浏览器和控制台与编码有关外,一些客户端也颇有关系。好比在使用SecureCRT链接linux时,应该让SecureCRT的显示编码(不一样的session,能够有不一样的编码设置)和linux的编码环境变量保持一致。不然看到的一些帮助信息,就多是乱码。 另外,mysql有本身的编码设置,也应该保持和SecureCRT的显示编码一致。不然经过SecureCRT执行sql语句的时候,可能没法处理中文字符,查询结果也会出现乱码。 对于Utf-8文件,不少编辑器(好比记事本)会在文件开头增长三个不可见的标志字节,若是做为mysql的输入文件,则必需要去掉这三个字符。(用linux的vi保存能够去掉这三个字符)。一个有趣的现象是,在中文windows下,建立一个新txt文件,用记事本打开,输入"连通"两个字,保存,再打开,你会发现两个字没了,只留下一个小黑点。 6.2. 过滤器 若是须要统一设置编码,则经过filter进行设置是个不错的选择。在filter class中,能够统一为须要的请求或者回应设置编码。参加上述setCharacterEncoding()。这个类apache已经给出了能够直接使用的例子SetCharacterEncodingFilter。 6.3. POST和GET 很明显,以POST提交信息时,URL有更好的可读性,并且能够方便的使用setCharacterEncoding()来处理字符集问题。但GET方法造成的URL可以更容易表达网页的实际内容,也可以用于收藏。 从统一的角度考虑问题,建议采用GET方法,这要求在程序中得到参数是进行特殊处理,而没法使用setCharacterEncoding()的便利,若是不考虑rewrite,就不存在IE的UTF-8问题,能够考虑经过设置URIEncoding来方便获取URL中的参数。 6.4. 简繁体编码转换 GBK同时包含简体和繁体编码,也就是说同一个字,因为编码不一样,在GBK编码下属于两个字。有时候,为了正确取得完整的结果,应该将繁体和简体进行统一。能够考虑将UTF、GBK中的全部繁体字,转换为相应的简体字,BIG5编码的数据,也应该转化成相应的简体字。固然,仍旧以UTF编码存储。 例如,对于"语言 ?言",用UTF表示为"/xE8/xAF/xAD/xE8/xA8/x80 /xE8/xAA/x9E/xE8/xA8/x80",进行简繁体编码转换后应该是两个相同的 "/xE8/xAF/xAD/xE8/xA8/x80>"。