java汉字的编码_Java中文编码问题小结
Java字符編碼轉換過程說明
常見問題
JVM
JVM啟動后,JVM會設置一些系統屬性以表明JVM的缺省區域。
user.language,user.region,file.encoding等??梢允褂肧ystem.getProperties()詳細查看所有的系統屬性。
如在英文操作系統(如UNIX)下,可以使用如下屬性定義強制指定JVM為中文環境-Dclient.encoding.override=GBK -Dfile.encoding=GBK
-Duser.language=zh -Duser.region=CN
.java-->.class編譯
說明:一般javac根據當前os區域設置,自動決定源文件的編碼.可以通過-encoding強制指定.
錯誤可能:
1 gbk編碼源文件在英文環境下編譯,javac不能正確轉換.曾見于java/jsp在英文unix下.檢測方法:寫\u4e00格式的漢字,繞開javac編碼,再在jvm中,將漢字作為int打印,看值是否相等;或直接以UTF-8編碼打開.class文件,看看常量字符串是否正確保存漢字。
文件讀寫
外部數據如文件經過讀寫和轉換兩個步驟,轉為jvm所使用字符。InputStream/OutputStream用于讀寫原始外部數據,Reader/Writer執行讀寫和轉換兩個步驟。
1文件讀寫轉換由java.io.Reader/Writer執行;輸入輸出流InputStream/OutputStream處理漢字不合適,應該首選使用Reader/Writer,如FileReader/FileWriter。
2 FileReader/FileWriter使用JVM當前編碼讀寫文件.如果有其它編碼格式,使用InputStreamReader/OutputStreamWriter
3 PrintStream有點特殊,它自動使用jvm缺省編碼進行轉換。
讀取.properties文件
.propeties文件由Properties類以iso8859-1編碼讀取,因此不能在其中直接寫漢字,需要使用JDK的native2ascii工具轉換漢字為\uXXXX格式。命令行:native2ascii
–encoding GBK inputfile outputfile
讀取XML文件
1 XML文件讀寫同于文件讀寫,但應注意確保XML頭中聲明如 xml version=”1.0” encoding=”gb2312” ?>與文件編碼保持一致。
2 javax.xml.SAXParser類接受InputStream作為輸入參數,對于Reader,需要用org.xml.sax.InputSource包裝一下,再給SAXParser。
3對于UTF-8編碼XML,注意防止編輯器自動加上\uFFFE BOM頭,
xml parser會報告content is not allowed in prolog。
字節數組
1使用new String(byteArray,encoding)和String.getBytes(encoding)在字節數組和字符串之間進行轉換
也可以用ByteArrayInputStream/ByteArrayOutputStream轉為流后再用InputStreamReader/OutputStreamWriter轉換。
錯誤編碼的字符串(iso8859-1轉碼gbk)
如果我們得到的字符串是由錯誤的轉碼方式產生的,例如:對于gbk中文,由iso8859-1方式轉換,此時如果用調試器看到的字符串一般是的樣子,長度一般為文本的字節長度,而非漢字個數。
可以采用如下方式轉為正確的中文:
text = new String( text.getBytes(“iso8859-1”),”gbk”);
JDBC
轉換過程由JDBC Driver執行,取決于各JDBC數據庫實現。對此經驗尚積累不夠。
1對于ORACLE數據庫,需要數據庫創建時指定編碼方式為gbk,否則會出現漢字轉碼錯誤
2對于SQL Server 2000,最好以nvarchar/nchar類型存放文本,即不存在中文/編碼轉換問題。
3連接Mysql,將connectionString設置成encoding為gb2312:
String connectionString??= "jdbc:mysql://localhost/test?useUnicode=true&characterEncoding=gb2312";
WEB/Servlet/JSP
1對于JSP,確定頭部加上這樣的標簽。
2對于Servlet,確定設置setContentType (“text/html; charset=gb2312”),以上兩條用于使得輸出漢字沒有問題。
3為輸出HTML head中加一個,讓瀏覽器正確確定HTML編碼。
4為Web應用加一個Filter,確保每個Request明確調用setCharacterEncoding方法,讓輸入漢字能夠正確解析。
import java.io.IOException;
import javax.servlet.Filter;
import javax.servlet.FilterChain;
import javax.servlet.FilterConfig;
import javax.servlet.ServletException;
import javax.servlet.ServletRequest;
import javax.servlet.ServletResponse;
import javax.servlet.UnavailableException;
import javax.servlet.http.HttpServletRequest;
/**
* Example filter that sets the character encoding to be used in parsing the
* incoming request
*/
public class SetCharacterEncodingFilter
implements Filter {
public SetCharacterEncodingFilter()
{}
protected boolean debug = false;
protected String encoding = null;
protected FilterConfig filterConfig = null;
public void destroy() {
this.encoding = null;
this.filterConfig = null;
}
public void doFilter(ServletRequest request, ServletResponse response,
FilterChain chain) throws IOException, ServletException {
//????if (request.getCharacterEncoding() == null)
//????{
//??????String encoding = getEncoding();
//??????if (encoding != null)
//????????request.setCharacterEncoding(encoding);
//
//????}
request.setCharacterEncoding(encoding);
if ( debug ){
System.out.println( ((HttpServletRequest)request).getRequestURI()+"setted to "+encoding );
}
chain.doFilter(request, response);
}
public void init(FilterConfig filterConfig) throws ServletException {
this.filterConfig = filterConfig;
this.encoding = filterConfig.getInitParameter("encoding");
this.debug = "true".equalsIgnoreCase( filterConfig.getInitParameter("debug") );
}
protected String getEncoding() {
return (this.encoding);
}
}
web.xml中加入:
LocalEncodingFilter
LocalEncodingFilter
com.ccb.ectipmanager.request.SetCharacterEncodingFilter
encoding
gb2312
debug
false
LocalEncodingFilter
/*
5用于Weblogic(vedor-specific):
其一:在web.xml里加上如下腳本:
weblogic.httpd.inputCharset./*
GBK
其二(可選)在weblogic.xml里加上如下腳本:
/*
GBK
SWING/AWT/SWT
對于SWING/AWT,Java會有些缺省字體如Dialog/San Serif,這些字體到系統真實字體的映射在$JRE_HOME/lib/font.properties.XXX文件中指定。排除字體顯示問題時,首先需要確定JVM的區域為zh_CN,這樣font.properties.zh_CN文件才會發生作用。對于font.properties.zh_CN
,需要檢查是否映射缺省字體到中文字體如宋體。
在Swing中,Java自行解釋TTF字體,渲染顯示;對于AWT,SWT顯示部分交由操作系統。首先需要確定系統裝有中文字體。
1漢字顯示為”□”,一般為顯示字體沒有使用中文字體,因為Java對于當前字體顯示不了的字符,不會像Windows一樣再采用缺省字體顯示。
2部分不常見漢字不能顯示,一般為顯示字庫中漢字不全,可以換另外的中文字體試試。
3對于AWT/SWT,首先確定JVM運行環境的區域設置為中文,因為此處設計JVM與操作系統api調用的轉換問題,再檢查其它問題。
JNI
JNI中jstring以UTF-8編碼給我們,需要我們自行轉為本地編碼。對于Windows,可以采用WideCharToMultiByte/MultiByteToWideChar函數進行轉換,對于Unix,可以采用iconv庫。
這里從SUN jdk 1.4源代碼中找到一段使用jvm String對象的getBytes的轉換方式,相對簡單和跨平臺,不需要第三方庫,但速度稍慢。函數原型如下:
/* Convert between Java strings and i18n C strings */
JNIEXPORT jstring
NewStringPlatform(JNIEnv *env, const char *str);
JNIEXPORT const char *
GetStringPlatformChars(JNIEnv *env, jstring jstr, jboolean *isCopy);
JNIEXPORT jstring JNICALL
JNU_NewStringPlatform(JNIEnv *env, const char *str);
JNIEXPORT const char * JNICALL
JNU_GetStringPlatformChars(JNIEnv *env, jstring jstr, jboolean *isCopy);
JNIEXPORT void JNICALL
JNU_ReleaseStringPlatformChars(JNIEnv *env, jstring jstr, const char *str);
附件jni_util.h,jni_util.c
TUXEDO/JOLT
JOLT對于傳遞的字符串需要用如下進行轉碼
new String(ls_tt.getBytes("GBK"),"iso8859-1")
對于返回的字符串
new String(error_message.getBytes("iso8859-1"),"GBK");
jolt的系統屬性bea.jolt.encoding不應該設置,如果設置,JSH會報告說錯誤的協議.
JDK1.4/1.5新增部分
字符集相關類(Charset/CharsetEncoder/CharsetDecoder)
jdk1.4開始,對字符集的支持在java.nio.charset包中實現。
常用功能:
1列出jvm所支持字符集:Charset.availableCharsets()
2能否對看某個Unicode字符編碼,CharsetEncoder.canEncode()
Unicode Surrogate/CJK EXT B
Unicode范圍一般所用為\U0000-\UFFFF范圍,jvm使用1個char就可以表示,對于CJK
EXT B區漢字,范圍大于\U20000,則需要采用2個char方能表示,此即Unicode Surrogate。這2個char的值范圍落在Character.SURROGATE區域內,用Character.getType()來判斷。
jdk 1.4尚不能在Swing中正確處理surrogate區的Unicode字符,jdk1.5可以。對于CJK
EXT B區漢字,目前可以使用的字庫為”宋體-方正超大字符集”,隨Office安裝。
常見問題
在JVM下,用System.out.println不能正確打印中文,顯示為???
System.out.println是PrintStream,它采用jvm缺省字符集進行轉碼工作,如果jvm的缺省字符集為iso8859-1,則中文顯示會有問題。此問題常見于Unix下,jvm的區域沒有明確指定的情況。
在英文UNIX環境下,用System.out.println能夠正確打印漢字,但是內部處理錯誤
可能是漢字在輸入轉換時,就沒有正確轉碼:
即gbk文本à(iso8859-1轉碼)àjvm char(iso8859-1編碼漢字)à(iso8859-1轉碼)à輸出。
gbk漢字經過兩次錯誤轉碼,原封不動的被傳遞到輸出,但是在jvm中,并未以正確的unicode編碼表示,而是以一個漢字字節一個char的方式表示,從而導致此類錯誤。
GB2312-80,GBK,GB18030-2000漢字字符集
GB2312-80是在國內計算機漢字信息技術發展初始階段制定的,其中包含了大部分常用的一、二級漢字,和9區的符號。該字符集是幾乎所有的中文系統和國際化的軟件都支持的中文字符集,這也是最基本的中文字符集。其編碼范圍是高位0xa1-0xfe,低位也是0xa1-0xfe;漢字從0xb0a1開始,結束于0xf7fe;
GBK是GB2312-80的擴展,是向上兼容的。它包含了20902個漢字,其編碼范圍是0x8140-0xfefe,剔除高位0x80的字位。其所有字符都可以一對一映射到Unicode
2.0,也就是說JAVA實際上提供了GBK字符集的支持。這是現階段Windows和其它一些中文操作系統的缺省字符集,但并不是所有的國際化軟件都支持該字符集,感覺是他們并不完全知道GBK是怎么回事。值得注意的是它不是國家標準,而只是規范。隨著GB18030-2000國標的發布,它將在不久的將來完成它的歷史使命。
GB18030-2000(GBK2K)在GBK的基礎上進一步擴展了漢字,增加了藏、蒙等少數民族的字形。GBK2K從根本上解決了字位不夠,字形不足的問題。它有幾個特點,
它并沒有確定所有的字形,只是規定了編碼范圍,留待以后擴充。
編碼是變長的,其二字節部分與GBK兼容;四字節部分是擴充的字形、字位,其編碼范圍是首字節0x81-0xfe、二字節0x30-0x39、三字節0x81-0xfe、四字節0x30-0x39。
UTF-8/UTF-16/UTF-32
UTF,即Unicode Transformer Format,是Unicode代碼點(code point)的實際表示方式,按其基本長度所用位數分為UTF-8/16/32。它也可以認為是一種特殊的外部數據編碼,但能夠與Unicode代碼點做一一對應。
UTF-8是變長編碼,每個Unicode代碼點按照不同范圍,可以有1-3字節的不同長度。
UTF-16長度相對固定,只要不處理大于\U200000范圍的字符,每個Unicode代碼點使用16位即2字節表示,超出部分使用兩個UTF-16即4字節表示。按照高低位字節順序,又分為UTF-16BE/UTF-16LE。
UTF-32長度始終固定,每個Unicode代碼點使用32位即4字節表示。按照高低位字節順序,又分為UTF-32BE/UTF-32LE。
UTF編碼有個優點,即盡管編碼字節數不等,但是不像gb2312/gbk編碼一樣,需要從文本開始尋找,才能正確對漢字進行定位。在UTF編碼下,根據相對固定的算法,從當前位置就能夠知道當前字節是否是一個代碼點的開始還是結束,從而相對簡單的進行字符定位。不過定位問題最簡單的還是UTF-32,它根本不需要進行字符定位,但是相對的大小也增加不少。
關于GCJ JVM
GCJ并未完全依照sun jdk的做法,對于區域和編碼問題考慮尚不夠周全。GCJ啟動時,區域始終設為en_US,編碼也缺省為iso8859-1。但是可以用Reader/Writer做正確編碼轉換。
總結
以上是生活随笔為你收集整理的java汉字的编码_Java中文编码问题小结的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: HTML5期末大作业:我的家乡网站设计—
- 下一篇: everything用于移动硬盘资料管理