zoukankan      html  css  js  c++  java
  • Java字符编码转换过程说明



    JVM

    JVM启动后,JVM会设置一些系统属性以表明JVM的缺省区域。

    user.language,user.region,file.encoding等。 可以使用System.getProperties()详
    细查看所有的系统属性。



    如在英文操作系统(如UNIX)下,可以使用如下属性定义强制指定JVM为中文环境
    -Dclient.encoding.override=GBK -Dfile.encoding=GBK -Duser.language=zh
    -Duser.region=CN



    .java-->.class编译

    说明:一般javac根据当前os区域设置,自动决定源文件的编码.可以通过-encoding强制
    指定.



    错误可能:

    1 gbk编码源文件在英文环境下编译,javac不能正确转换.曾见于java/jsp在英文unix
    下. 检测方法:写\u4e00格式的汉字,绕开javac编码,再在jvm中,将汉字作为int打印,
    看值是否相等;或直接以UTF-8编码打开.class文件,看看常量字符串是否正确保存汉
    字。



    文件读写

    外部数据如文件经过读写和转换两个步骤,转为jvm所使用字符。
    InputStream/OutputStream用于读写原始外部数据,Reader/Writer执行读写和转换两
    个步骤。



    1 文件读写转换由java.io.Reader/Writer执行;输入输出流
    InputStream/OutputStream  处理汉字不合适,应该首选使用Reader/Writer,如
    FileReader/FileWriter。



    2 FileReader/FileWriter使用JVM当前编码读写文件.如果有其它编码格式,使用
    InputStreamReader/OutputStreamWriter



    3 PrintStream有点特殊,它自动使用jvm缺省编码进行转换。





    读取.properties文件

    .propeties文件由Properties类以iso8859-1编码读取,因此不能在其中直接写汉字,
    需要使用JDK 的native2ascii工具转换汉字为\uXXXX格式。命令行:native2ascii –
    encoding GBK inputfile outputfile



    读取XML文件

    1 XML文件读写同于文件读写,但应注意确保XML头中声明如<? xml version=”1.0”
    encoding=”gb2312” ?>与文件编码保持一致。



    2 javax.xml.SAXParser类接受InputStream作为输入参数,对于Reader,需要用
    org.xml.sax.InputSource包装一下,再给SAXParser。



    3 对于UTF-8编码 XML,注意防止编辑器自动加上\uFFFE BOM头, xml parser会报告
    content is not allowed in prolog。





    字节数组

    1 使用 new String(byteArray,encoding) 和  String.getBytes(encoding)  在字节
    数组和字符串之间进行转换



    也可以用ByteArrayInputStream/ByteArrayOutputStream转为流后再用
    InputStreamReader/OutputStreamWriter转换。



    错误编码的字符串(iso8859-1转码gbk)

    如果我们得到的字符串是由错误的转码方式产生的,例如:对于gbk中文,由iso8859-1
    方式转换,此时如果用调试器看到的字符串一般是 的样子,长度一般为文本的字节长
    度,而非汉字个数。



    可以采用如下方式转为正确的中文:

    text = new String( text.getBytes(“iso8859-1”),”gbk”);



    JDBC

    转换过程由JDBC Driver执行,取决于各JDBC数据库实现。对此经验尚积累不够。



    1 对于ORACLE数据库,需要数据库创建时指定编码方式为gbk,否则会出现汉字转码错


    2 对于 SQL Server 2000 ,最好以nvarchar/nchar类型存放文本,即不存在中文/编码
    转换问题。

    3 连接 Mysql,将 connectionString 设置成 encoding 为 gb2312:

    String connectionString  =
    "jdbc:mysql://localhost/test?useUnicode=true&characterEncoding=gb2312";



    WEB/Servlet/JSP

    1 对于JSP,确定头部加上 <%@ page c%>这
    样的标签。

    2 对于Servlet,确定 设置setContentType (“text/html; charset=gb2312”),以上
    两条用于使得输出汉字没有问题。

    3 为输出HTML head中加一个 <meta http-equiv="Content-Type"
    c> ,让浏览器正确确定HTML编码。



    4 为Web应用加一个Filter,确保每个Request明确调用setCharacterEncoding方法,让
    输入汉字能够正确解析。





    import java.io.IOException;

    import javax.servlet.Filter;

    import javax.servlet.FilterChain;

    import javax.servlet.FilterConfig;

    import javax.servlet.ServletException;

    import javax.servlet.ServletRequest;

    import javax.servlet.ServletResponse;

    import javax.servlet.UnavailableException;

    import javax.servlet.http.HttpServletRequest;



    /**

    * Example filter that sets the character encoding to be used in parsing the

    * incoming request

    */

    public class SetCharacterEncodingFilter

        implements Filter {

      public SetCharacterEncodingFilter()

      {}

      protected boolean debug = false;

      protected String encoding = null;

      protected FilterConfig filterConfig = null;

      public void destroy() {

        this.encoding = null;

        this.filterConfig = null;

      }



      public void doFilter(ServletRequest request, ServletResponse response,

                           FilterChain chain) throws IOException,
    ServletException {

    //    if (request.getCharacterEncoding() == null)

    //    {

    //      String encoding = getEncoding();

    //      if (encoding != null)

    //        request.setCharacterEncoding(encoding);

    //

    //    }

          request.setCharacterEncoding(encoding);

          if ( debug ){

            System.out.println(
    ((HttpServletRequest)request).getRequestURI()+"setted to "+encoding );

          }

        chain.doFilter(request, response);

      }



      public void init(FilterConfig filterConfig) throws ServletException {

        this.filterConfig = filterConfig;

        this.encoding = filterConfig.getInitParameter("encoding");

        this.debug = "true".equalsIgnoreCase(
    filterConfig.getInitParameter("debug") );

      }



      protected String getEncoding() {

        return (this.encoding);

      }

    }





    web.xml中加入:



      <filter>

        <filter-name>LocalEncodingFilter</filter-name>

        <display-name>LocalEncodingFilter</display-name>


    <filter-class>com.ccb.ectipmanager.request.SetCharacterEncodingFilter</filte
    r-class>

        <init-param>

          <param-name>encoding</param-name>

          <param-value>gb2312</param-value>

        </init-param>

        <init-param>

          <param-name>debug</param-name>

          <param-value>false</param-value>

        </init-param>

      </filter>



       <filter-mapping>

        <filter-name>LocalEncodingFilter</filter-name>

        <url-pattern>/*</url-pattern>

      </filter-mapping>



    5 用于Weblogic(vedor-specific):

    其一:在web.xml里加上如下脚本:

    <context-param>

      <param-name>weblogic.httpd.inputCharset./*</param-name>

      <param-value>GBK</param-value>

    </context-param>

    其二(可选)在weblogic.xml里加上如下脚本:

    <charset-params>

      <input-charset>

          <resource-path>/*</resource-path>

          <java-charset-name>GBK</java-charset-name>

      </input-charset>

    </charset-params>



    SWING/AWT/SWT

    对于SWING/AWT,Java会有些缺省字体如Dialog/San Serif,这些字体到系统真实字体
    的映射在$JRE_HOME/lib/font.properties.XXX文件中指定。排除字体显示问题时,首
    先需要确定JVM的区域为zh_CN,这样font.properties.zh_CN文件才会发生作用。对于
    font.properties.zh_CN , 需要检查是否映射缺省字体到中文字体如宋体。



    在Swing中,Java自行解释TTF字体,渲染显示;对于AWT,SWT显示部分交由操作系统。
    首先需要确定系统装有中文字体。



    1 汉字显示为”□”,一般为显示字体没有使用中文字体,因为Java对于当前字体显示
    不了的字符,不会像Windows一样再采用缺省字体显示。

    2 部分不常见汉字不能显示,一般为显示字库中汉字不全,可以换另外的中文字体试
    试。

    3 对于AWT/SWT,首先确定JVM运行环境的区域设置为中文,因为此处设计JVM与操作系
    统api调用的转换问题,再检查其它问题。



    JNI

    JNI中jstring以UTF-8编码给我们,需要我们自行转为本地编码。对于Windows,可以采
    用WideCharToMultiByte/MultiByteToWideChar函数进行转换,对于Unix,可以采用
    iconv库。



    这里从SUN jdk 1.4 源代码中找到一段使用jvm String 对象的getBytes的转换方式,
    相对简单和跨平台,不需要第三方库,但速度稍慢。函数原型如下:



    /* Convert between Java strings and i18n C strings */

    JNIEXPORT jstring

    NewStringPlatform(JNIEnv *env, const char *str);



    JNIEXPORT const char *

    GetStringPlatformChars(JNIEnv *env, jstring jstr, jboolean *isCopy);



    JNIEXPORT jstring JNICALL

    JNU_NewStringPlatform(JNIEnv *env, const char *str);



    JNIEXPORT const char * JNICALL

    JNU_GetStringPlatformChars(JNIEnv *env, jstring jstr, jboolean *isCopy);



    JNIEXPORT void JNICALL

    JNU_ReleaseStringPlatformChars(JNIEnv *env, jstring jstr, const char *str);





    附件jni_util.h,jni_util.c





    TUXEDO/JOLT

    JOLT对于传递的字符串需要用如下进行转码

    new String(ls_tt.getBytes("GBK"),"iso8859-1")



    对于返回的字符串

    new String(error_message.getBytes("iso8859-1"),"GBK");

    jolt 的系统属性 bea.jolt.encoding不应该设置,如果设置,JSH会报告说错误的协议.





    JDK1.4/1.5新增部分

    字符集相关类(Charset/CharsetEncoder/CharsetDecoder)

    jdk1.4开始,对字符集的支持在java.nio.charset包中实现。



    常用功能:

    1 列出jvm所支持字符集:Charset.availableCharsets()

    2 能否对看某个Unicode字符编码,CharsetEncoder.canEncode()



    Unicode Surrogate/CJK EXT B

    Unicode 范围一般所用为\U0000-\UFFFF范围,jvm使用1个char就可以表示,对于CJK
    EXT B区汉字,范围大于\U20000,则需要采用2个char方能表示,此即Unicode
    Surrogate。这2个char的值范围 落在Character.SURROGATE 区域内,用
    Character.getType()来判断。



    jdk 1.4尚不能在Swing中正确处理surrogate区的Unicode字符,jdk1.5可以。对于CJK
    EXT B区汉字,目前可以使用的字库为”宋体-方正超大字符集”,随Office安装。



    常见问题

    在JVM下,用System.out.println不能正确打印中文,显示为???

    System.out.println是PrintStream,它采用jvm缺省字符集进行转码工作,如果jvm的
    缺省字符集为iso8859-1,则中文显示会有问题。此问题常见于Unix下,jvm的区域没有
    明确指定的情况。



    在英文UNIX环境下,用System.out.println能够正确打印汉字,但是内部处理错误

    可能是汉字在输入转换时,就没有正确转码:

    即gbk文本à(iso8859-1转码)àjvm char(iso8859-1编码汉字)à (iso8859-1转码)à
    输出。

    gbk汉字经过两次错误转码,原封不动的被传递到输出,但是在jvm中,并未以正确的
    unicode编码表示,而是以一个汉字字节一个char的方式表示,从而导致此类错误。





    GB2312-80,GBK,GB18030-2000 汉字字符集



    GB2312-80 是在国内计算机汉字信息技术发展初始阶段制定的,其中包含了大部分常用
    的一、二级汉字,和 9 区的符号。该字符集是几乎所有的中文系统和国际化的软件都
    支持的中文字符集,这也是最基本的中文字符集。其编码范围是高位0xa1-0xfe,低位
    也是 0xa1-0xfe;汉字从 0xb0a1 开始,结束于 0xf7fe;



    GBK 是 GB2312-80 的扩展,是向上兼容的。它包含了 20902 个汉字,其编码范围是
    0x8140-0xfefe,剔除高位 0x80 的字位。其所有字符都可以一对一映射到 Unicode 2.
    0,也就是说 JAVA 实际上提供了 GBK 字符集的支持。这是现阶段 Windows 和其它一
    些中文操作系统的缺省字符集,但并不是所有的国际化软件都支持该字符集,感觉是他
    们并不完全知道 GBK 是怎么回事。值得注意的是它不是国家标准,而只是规范。随着
    GB18030-2000国标的发布,它将在不久的将来完成它的历史使命。



    GB18030-2000(GBK2K) 在 GBK 的基础上进一步扩展了汉字,增加了藏、蒙等少数民族
    的字形。GBK2K 从根本上解决了字位不够,字形不足的问题。它有几个特点,



    它并没有确定所有的字形,只是规定了编码范围,留待以后扩充。

    编码是变长的,其二字节部分与 GBK 兼容;四字节部分是扩充的字形、字位,其编码
    范围是首字节 0x81-0xfe、二字节0x30-0x39、三字节 0x81-0xfe、四字节0x30-0x39。



    UTF-8/UTF-16/UTF-32



    UTF,即Unicode Transformer Format,是Unicode代码点(code point)的实际表示方
    式,按其基本长度所用位数分为UTF-8/16/32。它也可以认为是一种特殊的外部数据编
    码,但能够与Unicode代码点做一一对应。



    UTF-8是变长编码,每个Unicode代码点按照不同范围,可以有1-3字节的不同长度。

    UTF-16长度相对固定,只要不处理大于\U200000范围的字符,每个Unicode代码点使用
    16位即2字节表示,超出部分使用两个UTF-16即4字节表示。按照高低位字节顺序,又分
    为UTF-16BE/UTF-16LE。

    UTF-32长度始终固定,每个Unicode代码点使用32位即4字节表示。按照高低位字节顺
    序,又分为UTF-32BE/UTF-32LE。



    UTF编码有个优点,即尽管编码字节数不等,但是不像gb2312/gbk编码一样,需要从文
    本开始寻找,才能正确对汉字进行定位。在UTF编码下,根据相对固定的算法,从当前
    位置就能够知道当前字节是否是一个代码点的开始还是结束,从而相对简单的进行字符
    定位。不过定位问题最简单的还是UTF-32,它根本不需要进行字符定位,但是相对的大
    小也增加不少。





    关于GCJ JVM

    GCJ并未完全依照sun jdk的做法,对于区域和编码问题考虑尚不够周全。GCJ启动时,
    区域始终设为en_US,编码也缺省为iso8859-1。但是可以用Reader/Writer做正确编码
  • 相关阅读:
    anchor-free : CornerNet 和 CenterNet 简要笔记
    图像分割中的loss--处理数据极度不均衡的状况
    python 装饰器
    python3 新特性
    VSCode Eslint+Prettier+Vetur常用配置
    JS lodash学习笔记
    JS 高端操作整理
    Vue 组件通信
    Vue 搭建vue-element-admin框架
    小程序 HTTP请求封装
  • 原文地址:https://www.cnblogs.com/ahuo/p/610307.html
Copyright © 2011-2022 走看看