windows下的中文文件名共享在linux下显示乱码的问题
2.原因分析 windows下的文件名編碼方式為GBK。linux(虛擬機)系統(tǒng)下通過掛載方式共享該文件時,文件名的中文自動自動轉換為了UTF-8編碼方式,在linux系統(tǒng)下中文編碼設置為GBK編碼方式,所以顯示為亂碼。
3.驗證 使用編碼轉換工具,將查看“省調”兩個字的GBK編碼為CA A1 B5 F7,UTF8編碼為E7 9C 81 E8 B0 83,顯示為”鐪佽皟“。該漢字在linux系1.現象描述 在windos環(huán)境下有一個含有中文的文件名,比如dataset_省調.scd。 在linux(虛擬機)下通過掛載系統(tǒng)將該文件掛載在/mnt/hgfs目錄下,顯示為亂碼。但是通過ftp將文件上傳到linux相應目錄下中文顯示正常。
2.原因分析 windows下的文件名編碼方式為GBK。linux(虛擬機)系統(tǒng)下通過掛載方式共享該文件時,文件名的中文自動自動轉換為了UTF-8編碼方式,在linux系統(tǒng)下中文編碼設置為GBK編碼方式,所以顯示為亂碼。
3.驗證 使用編碼轉換工具,將查看“省調”兩個字的GBK編碼為CA A1 B5 F7,UTF8編碼為E7 9C 81 E8 B0 83,顯示為”鐪佽皟“。該漢字在linux系統(tǒng)下顯示正好為上述編碼的三個亂碼漢字。
4.問題解決 可以通過FTP或其它一些同步工具將該文件上傳到linux系統(tǒng)下。
5.知識拓展 字符(Character)是文字與符號的總稱,包括文字、圖形符號、數學符號等。一組抽象字符的集合就是字符集(Charset)。 計算機要處理各種字符,就需要將字符和二進制內碼對應起來,這種對應關系就是字符編碼(Encoding)。
制定編碼首先要確定字符集,并將字符集內的字符排序,然后和二進制數字對應起來。根據字符集內字符的多少,會確定用幾個字節(jié)來編碼。
每種編碼都限定了一個明確的字符集合,叫做被編碼過的字符集(Coded Character Set),這是字符集的另外一個含義。通常所說的字符集大多是這個含義。
常用的字符集有:ASCII、ISO 8859-1、UCS、Unicode、UTF、漢字編碼、ANSI 下面是轉的各種編碼方式的詳細介紹: ASCII:
American Standard Code for Information Interchange,美國信息交換標準碼。
目前計算機中用得最廣泛的字符集及其編碼,由美國國家標準局(ANSI)制定。
它已被國際標準化組織(ISO)定為國際標準,稱為ISO 646標準。
ASCII字符集由控制字符和圖形字符組成。
在計算機的存儲單元中,一個ASCII碼值占一個字節(jié)(8個二進制位),其最高位(b7)用作奇偶校驗位。
所謂奇偶校驗,是指在代碼傳送過程中用來檢驗是否出現錯誤的一種方法,一般分奇校驗和偶校驗兩種。
奇校驗規(guī)定:正確的代碼一個字節(jié)中1的個數必須是奇數,若非奇數,則在最高位b7添1。
偶校驗規(guī)定:正確的代碼一個字節(jié)中1的個數必須是偶數,若非偶數,則在最高位b7添1。
ISO 8859-1:
ISO 8859,全稱ISO/IEC 8859,是國際標準化組織(ISO)及國際電工委員會(IEC)聯(lián)合制定的一系列8位字符集的標準,現時定義了15個字符集。
ASCII收錄了空格及94個“可印刷字符”,足以給英語使用。
但是,其他使用拉丁字母的語言(主要是歐洲國家的語言),都有一定數量的變音字母,故可以使用ASCII及控制字符以外的區(qū)域來儲存及表示。
除了使用拉丁字母的語言外,使用西里爾字母的東歐語言、希臘語、泰語、現代阿拉伯語、希伯來語等,都可以使用這個形式來儲存及表示。
* ISO 8859-1 (Latin-1) - 西歐語言
* ISO 8859-2 (Latin-2) - 中歐語言
* ISO 8859-3 (Latin-3) - 南歐語言。世界語也可用此字符集顯示。
* ISO 8859-4 (Latin-4) - 北歐語言
* ISO 8859-5 (Cyrillic) - 斯拉夫語言
* ISO 8859-6 (Arabic) - 阿拉伯語
* ISO 8859-7 (Greek) - 希臘語
* ISO 8859-8 (Hebrew) - 希伯來語(視覺順序)
* ISO 8859-8-I - 希伯來語(邏輯順序)
* ISO 8859-9 (Latin-5 或 Turkish) - 它把Latin-1的冰島語字母換走,加入土耳其語字母。
* ISO 8859-10 (Latin-6 或 Nordic) - 北日耳曼語支,用來代替Latin-4。
* ISO 8859-11 (Thai) - 泰語,從泰國的 TIS620 標準字集演化而來。
* ISO 8859-13 (Latin-7 或 Baltic Rim) - 波羅的語族
* ISO 8859-14 (Latin-8 或 Celtic) - 凱爾特語族
* ISO 8859-15 (Latin-9) - 西歐語言,加入Latin-1欠缺的法語及芬蘭語重音字母,以及歐元符號。
* ISO 8859-16 (Latin-10) - 東南歐語言。主要供羅馬尼亞語使用,并加入歐元符號。
很明顯,iso8859-1編碼表示的字符范圍很窄,無法表示中文字符。
但是,由于是單字節(jié)編碼,和計算機最基礎的表示單位一致,所以很多時候,仍舊使用iso8859-1編碼來表示。
而且在很多協(xié)議上,默認使用該編碼。
UCS:
通用字符集(Universal Character Set,UCS)是由ISO制定的ISO 10646(或稱ISO/IEC 10646)標準所定義的字符編碼方式,采用4字節(jié)編碼。
UCS包含了已知語言的所有字符。
除了拉丁語、希臘語、斯拉夫語、希伯來語、阿拉伯語、亞美尼亞語、格魯吉亞語,還包括中文、日文、韓文這樣的象形文字,UCS還包括大量的圖形、印刷、數學、科學符號。
* UCS-2: 與unicode的2byte編碼基本一樣。
* UCS-4: 4byte編碼, 目前是在UCS-2前加上2個全零的byte。
Unicode:
Unicode(統(tǒng)一碼、萬國碼、單一碼)是一種在計算機上使用的字符編碼。
它是http://www.unicode.org制定的編碼機制, 要將全世界常用文字都函括進去。
它為每種語言中的每個字符設定了統(tǒng)一并且唯一的二進制編碼,以滿足跨語言、跨平臺進行文本轉換、處理的要求。
1990年開始研發(fā),1994年正式公布。隨著計算機工作能力的增強,Unicode也在面世以來的十多年里得到普及。
但自從unicode2.0開始,unicode采用了與ISO 10646-1相同的字庫和字碼,ISO也承諾ISO10646將不會給超出0x10FFFF的UCS-4編碼賦值,使得兩者保持一致。
Unicode的編碼方式與ISO 10646的通用字符集(Universal Character Set,UCS)概念相對應,目前的用于實用的Unicode版本對應于UCS-2,使用16位的編碼空間。
也就是每個字符占用2個字節(jié),基本滿足各種語言的使用。實際上目前版本的Unicode尚未填充滿這16位編碼,保留了大量空間作為特殊使用或將來擴展。
UTF:
Unicode 的實現方式不同于編碼方式。
一個字符的Unicode編碼是確定的,但是在實際傳輸過程中,由于不同系統(tǒng)平臺的設計不一定一致,以及出于節(jié)省空間的目的,對Unicode編碼的實現方式有所不同。
Unicode的實現方式稱為Unicode轉換格式(Unicode Translation Format,簡稱為 UTF)。
* UTF-8: 8bit變長編碼,對于大多數常用字符集(ASCII中0~127字符)它只使用單字節(jié),而對其它常用字符(特別是朝鮮和漢語會意文字),它使用3字節(jié)。
* UTF-16: 16bit編碼,是變長碼,大致相當于20位編碼,值在0到0x10FFFF之間,基本上就是unicode編碼的實現,與CPU字序有關。
漢字編碼:
* GB2312字集是簡體字集,全稱為GB2312(80)字集,共包括國標簡體漢字6763個。
* BIG5字集是臺灣繁體字集,共包括國標繁體漢字13053個。
* GBK字集是簡繁字集,包括了GB字集、BIG5字集和一些符號,共包括21003個字符。
* GB18030是國家制定的一個強制性大字集標準,全稱為GB18030-2000,它的推出使?jié)h字集有了一個“大一統(tǒng)”的標準。
ANSI和Unicode big endia:
我們在Windows系統(tǒng)中保存文本文件時通常可以選擇編碼為ANSI、Unicode、Unicode big endian和UTF-8,這里的ANSI和Unicode big endia是什么編碼呢?
ANSI:
使用2個字節(jié)來代表一個字符的各種漢字延伸編碼方式,稱為ANSI編碼。
在簡體中文系統(tǒng)下,ANSI編碼代表GB2312編碼,在日文操作系統(tǒng)下,ANSI編碼代表JIS編碼。
Unicode big endia:
UTF-8以字節(jié)為編碼單元,沒有字節(jié)序的問題。UTF-16以兩個字節(jié)為編碼單元,在解釋一個UTF-16文本前,首先要弄清楚每個編碼單元的字節(jié)序。
Unicode規(guī)范中推薦的標記字節(jié)順序的方法是BOM(即Byte Order Mark)。
在UCS編碼中有一個叫做"ZERO WIDTH NO-BREAK SPACE"的字符,它的編碼是FEFF。而FFFE在UCS中是不存在的字符,所以不應該出現在實際傳輸中。
UCS規(guī)范建議我們在傳輸字節(jié)流前,先傳輸字符"ZERO WIDTH NO-BREAK SPACE"。
這樣如果接收者收到FEFF,就表明這個字節(jié)流是Big-Endian的;如果收到FFFE,就表明這個字節(jié)流是Little-Endian的。
因此字符"ZERO WIDTH NO-BREAK SPACE"又被稱作BOM。
Windows就是使用BOM來標記文本文件的編碼方式的。
編程語言與編碼
C、C++、Python2內部字符串都是使用當前系統(tǒng)默認編碼
Python3、Java內部字符串用Unicode保存
Ruby有一個內部變量$KCODE用來表示可識別的多字節(jié)字符串的編碼,變量值為"EUC" "SJIS" "UTF8" "NONE"之一。
$KCODE的值為"EUC"時,將假定字符串或正則表達式的編碼為EUC-JP。
同樣地,若為"SJIS"時則認定為Shift JIS。若為"UTF8"時則認定為UTF-8。
若為"NONE"時,將不會識別多字節(jié)字符串。
在向該變量賦值時,只有第1個字節(jié)起作用,且不區(qū)分大小寫字母。
"e" "E" 代表 "EUC","s" "S" 代表 "SJIS","u" "U" 代表 "UTF8",而"n" "N" 則代表 "NONE"。
默認值為"NONE"。
即默認情況下Ruby把字符串當成單字節(jié)序列來處理。
為什么會亂碼?
亂碼是個老問題,從上面我們知道,字符在保存時的編碼格式如果和要顯示的編碼格式不一樣的話,就會出現亂碼問題。
我們的Web系統(tǒng),從底層數據庫編碼、Web應用程序編碼到HTML頁面編碼,如果有一項不一致的話,就會出現亂碼。
所以,解決亂碼問題說難也難說簡單也簡單,關鍵是讓交互系統(tǒng)之間編碼一致。
有沒有萬金油?
在如此多種編碼和字符集弄的我們眼花繚亂的情況下,我們只需選擇一種兼容性最好的編碼方式和字符集,讓它成為我們程序子系統(tǒng)之間
交互的編碼契約,那么從此惱人的亂碼問題即將遠離我們而去 -- 這種兼容性最好的編碼就是UTF-8!
畢竟GBK/GB2312是國內的標準,當我們大量使用國外的開源軟件時,UTF-8才是編碼界最通用的語言。
下面還有一篇關于編碼的文章,轉自http://kb.cnblogs.com/a/1540382/
這是一篇程序員寫給程序員的趣味讀物。所謂趣味是指可以比較輕松地了解一些原來不清楚的概念,
增進知識,類似于打RPG游戲的升級。整理這篇文章的動機是兩個問題:
問題一:
使用Windows記事本的“另存為”,可以在GBK、Unicode、Unicode big endian和UTF-8這幾種
編碼方式間相互轉換。同樣是txt文件,Windows是怎樣識別編碼方式的呢?
我很早前就發(fā)現Unicode、Unicode bigendian和UTF-8編碼的txt文件的開頭會多出幾個字節(jié),
分別是FF、FE(Unicode),FE、FF(Unicode bigendian),EF、BB、BF(UTF-8)。但這些
標記是基于什么標準呢?
問題二:
最近在網上看到一個ConvertUTF.c,實現了UTF-32、UTF-16和UTF-8這三種編碼方式的相互轉換。
對于Unicode(UCS2)、GBK、UTF-8這些編碼方式,我原來就了解。但這個程序讓我有些糊涂,想不
起來UTF-16和UCS2有什么關系。查了查相關資料,總算將這些問題弄清楚了,順帶也了解了一些
Unicode的細節(jié)。寫成一篇文章,送給有過類似疑問的朋友。本文在寫作時盡量做到通俗易懂,但要
求讀者知道什么是字節(jié),什么是十六進制。
0、big endian和little endian
bigendian和littleendian是CPU處理多字節(jié)數的不同方式。例如“漢”字的Unicode編碼是6C49。
那么寫到文件里時,究竟是將6C寫在前面,還是將49寫在前面?如果將6C寫在前面,就是big endian。
如果將49寫在前面,就是little endian。
“endian”這個詞出自《格列佛游記》。小人國的內戰(zhàn)就源于吃雞蛋時是究竟從大頭(Big-Endian)
敲開還是從小頭(Little-Endian)敲開,由此曾發(fā)生過六次叛亂,一個皇帝送了命,另一個丟了王位。
我們一般將endian翻譯成“字節(jié)序”,將big endian和little endian稱作“大尾”和“小尾”。
1、字符編碼、內碼,順帶介紹漢字編碼
字符必須編碼后才能被計算機處理。計算機使用的缺省編碼方式就是計算機的內碼。早期的計算機使用
7位的ASCII編碼,為了處理漢字,程序員設計了用于簡體中文的GB2312和用于繁體中文的big5。
GB2312(1980年)一共收錄了7445個字符,包括6763個漢字和682個其它符號。漢字區(qū)的內碼范圍高
字節(jié)從B0-F7,低字節(jié)從A1-FE,占用的碼位是72*94=6768。其中有5個空位是D7FA-D7FE。
GB2312支持的漢字太少。1995年的漢字擴展規(guī)范GBK1.0收錄了21886個符號,它分為漢字區(qū)和圖形符
號區(qū)。漢字區(qū)包括21003個字符。
從ASCII、GB2312到GBK,這些編碼方法是向下兼容的,即同一個字符在這些方案中總是有相同的編碼,
后面的標準支持更多的字符。在這些編碼中,英文和中文可以統(tǒng)一地處理。區(qū)分中文編碼的方法是高字
節(jié)的最高位不為0。按照程序員的稱呼,GB2312、GBK都屬于雙字節(jié)字符集 (DBCS)。
2000年的GB18030是取代GBK1.0的正式國家標準。該標準收錄了27484個漢字,同時還收錄了藏文、
蒙文、維吾爾文等主要的少數民族文字。從漢字字匯上說,GB18030在GB13000.1的20902個漢字的
基礎上增加了CJK擴展A的6582個漢字(Unicode碼0x3400-0x4db5),一共收錄了27484個漢字。
CJK就是中日韓的意思。Unicode為了節(jié)省碼位,將中日韓三國語言中的文字統(tǒng)一編碼。GB13000.1
就是ISO/IEC 10646-1的中文版,相當于Unicode 1.1。
GB18030的編碼采用單字節(jié)、雙字節(jié)和4字節(jié)方案。其中單字節(jié)、雙字節(jié)和GBK是完全兼容的。4字節(jié)
編碼的碼位就是收錄了CJK擴展A的6582個漢字。例如:UCS的0x3400在GB18030中的編碼應該是
8139EF30,UCS的0x3401在GB18030中的編碼應該是8139EF31。
微軟提供了GB18030的升級包,但這個升級包只是提供了一套支持CJK擴展A的6582個漢字的新字體:
新宋體-18030,并不改變內碼。Windows 的內碼仍然是GBK。
這里還有一些細節(jié):
GB2312的原文還是區(qū)位碼,從區(qū)位碼到內碼,需要在高字節(jié)和低字節(jié)上分別加上A0。
對于任何字符編碼,編碼單元的順序是由編碼方案指定的,與endian無關。例如GBK的編碼單元是字
節(jié),用兩個字節(jié)表示一個漢字。這兩個字節(jié)的順序是固定的,不受CPU字節(jié)序的影響。UTF-16的編碼
單元是word(雙字節(jié)),word之間的順序是編碼方案指定的,word內部的字節(jié)排列才會受到endian
的影響。后面還會介紹UTF-16。
GB2312的兩個字節(jié)的最高位都是1。但符合這個條件的碼位只有128*128=16384個。所以GBK和
GB18030的低字節(jié)最高位都可能不是1。不過這不影響DBCS字符流的解析:在讀取DBCS字符流時,
只要遇到高位為1的字節(jié),就可以將下兩個字節(jié)作為一個雙字節(jié)編碼,而不用管低字節(jié)的高位是什么。
2、Unicode、UCS和UTF
前面提到從ASCII、GB2312、GBK到GB18030的編碼方法是向下兼容的。而Unicode只與ASCII兼
容(更準確地說,是與ISO-8859-1兼容),與GB碼不兼容。例如“漢”字的Unicode編碼是6C49,
而GB碼是BABA。
Unicode也是一種字符編碼方法,不過它是由國際組織設計,可以容納全世界所有語言文字的編碼
方案。Unicode的學名是"UniversalMultiple-Octet Coded Character Set",簡稱為UCS。
UCS可以看作是"Unicode CharacterSet"的縮寫。
根據維基百科全書(http://zh.wikipedia.org/wiki/)的記載:歷史上存在兩個試圖獨立設計
Unicode的組織,即國際標準化組織(ISO)和一個軟件制造商的協(xié)會(unicode.org)。ISO開
發(fā)了ISO10646項目,Unicode協(xié)會開發(fā)了Unicode項目。
在1991年前后,雙方都認識到世界不需要兩個不兼容的字符集。于是它們開始合并雙方的工作成果,
并為創(chuàng)立一個單一編碼表而協(xié)同工作。從Unicode2.0開始,Unicode項目采用了與ISO 10646-1
相同的字庫和字碼。
目前兩個項目仍都存在,并獨立地公布各自的標準。Unicode協(xié)會現在的最新版本是2005年的Unicode
4.1.0。ISO的最新標準是ISO 10646-3:2003。
UCS只是規(guī)定如何編碼,并沒有規(guī)定如何傳輸、保存這個編碼。例如“漢”字的UCS編碼是6C49,我可
以用4個ascii數字來傳輸、保存這個編碼;也可以用utf-8編碼:3個連續(xù)的字節(jié)E6 B1 89來表示它。
關鍵在于通信雙方都要認可。UTF-8、UTF-7、UTF-16都是被廣泛接受的方案。UTF-8的一個特別的
好處是它與ISO-8859-1完全兼容。UTF是“UCS Transformation Format”的縮寫。
IETF的RFC2781和RFC3629以RFC的一貫風格,清晰、明快又不失嚴謹地描述了UTF-16和UTF-8的
編碼方法。我總是記不得IETF是InternetEngineering Task Force的縮寫。但IETF負責維護
的RFC是Internet上一切規(guī)范的基礎。
2.1、內碼和code page
目前Windows的內核已經支持Unicode字符集,這樣在內核上可以支持全世界所有的語言文字。但是
由于現有的大量程序和文檔都采用了某種特定語言的編碼,例如GBK,Windows不可能不支持現有的
編碼,而全部改用Unicode。
Windows使用代碼頁(code page)來適應各個國家和地區(qū)。code page可以被理解為前面提到的內碼。
GBK對應的code page是CP936。
微軟也為GB18030定義了code page:CP54936。但是由于GB18030有一部分4字節(jié)編碼,而Windows
的代碼頁只支持單字節(jié)和雙字節(jié)編碼,所以這個code page是無法真正使用的。
3、UCS-2、UCS-4、BMP
UCS有兩種格式:UCS-2和UCS-4。顧名思義,UCS-2就是用兩個字節(jié)編碼,UCS-4就是用4個字節(jié)
(實際上只用了31位,最高位必須為0)編碼。下面讓我們做一些簡單的數學游戲:
UCS-2有2^16=65536個碼位,UCS-4有2^31=2147483648個碼位。
UCS-4根據最高位為0的最高字節(jié)分成2^7=128個group。每個group再根據次高字節(jié)分為256個plane。
每個plane根據第3個字節(jié)分為256行 (rows),每行包含256個cells。當然同一行的cells只是最后
一個字節(jié)不同,其余都相同。
group 0的plane 0被稱作Basic Multilingual Plane, 即BMP。或者說UCS-4中,高兩個字節(jié)
為0的碼位被稱作BMP。
將UCS-4的BMP去掉前面的兩個零字節(jié)就得到了UCS-2。在UCS-2的兩個字節(jié)前加上兩個零字節(jié),就得
到了UCS-4的BMP。而目前的UCS-4規(guī)范中還沒有任何字符被分配在BMP之外。
4、UTF編碼
UTF-8就是以8位為單元對UCS進行編碼。從UCS-2到UTF-8的編碼方式如下:
UCS-2編碼(16進制) UTF-8 字節(jié)流(二進制)
0000 - 007F 0xxxxxxx
0080 - 07FF 110xxxxx 10xxxxxx
0800 - FFFF 1110xxxx 10xxxxxx 10xxxxxx
例如“漢”字的Unicode編碼是6C49。6C49在0800-FFFF之間,所以肯定要用3字節(jié)模板了:
1110xxxx 10xxxxxx 10xxxxxx。將6C49寫成二進制是:0110 110001 001001, 用這個比特流
依次代替模板中的x,得到:1110011010110001 10001001,即E6 B1 89。
讀者可以用記事本測試一下我們的編碼是否正確。需要注意,UltraEdit在打開utf-8編碼的文本文
件時會自動轉換為UTF-16,可能產生混淆。你可以在設置中關掉這個選項。更好的工具是Hex Workshop。
UTF-16以16位為單元對UCS進行編碼。對于小于0x10000的UCS碼,UTF-16編碼就等于UCS碼對應
的16位無符號整數。對于不小于0x10000的UCS碼,定義了一個算法。不過由于實際使用的UCS2,
或者UCS4的BMP必然小于0x10000,所以就目前而言,可以認為UTF-16和UCS-2基本相同。但UCS-2
只是一個編碼方案,UTF-16卻要用于實際的傳輸,所以就不得不考慮字節(jié)序的問題。
5、UTF的字節(jié)序和BOM
UTF-8以字節(jié)為編碼單元,沒有字節(jié)序的問題。UTF-16以兩個字節(jié)為編碼單元,在解釋一個UTF-16
文本前,首先要弄清楚每個編碼單元的字節(jié)序。例如“奎”的Unicode編碼是594E,“乙”的Unicode
編碼是4E59。如果我們收到UTF-16字節(jié)流“594E”,那么這是“奎”還是“乙”?
Unicode規(guī)范中推薦的標記字節(jié)順序的方法是BOM。BOM不是“Bill Of Material”的BOM表,而是
Byte Order Mark。BOM是一個有點小聰明的想法:
在UCS編碼中有一個叫做"ZERO WIDTH NO-BREAKSPACE"的字符,它的編碼是FEFF。而FFFE在UCS
中是不存在的字符,所以不應該出現在實際傳輸中。UCS規(guī)范建議我們在傳輸字節(jié)流前,先傳輸字符
"ZERO WIDTH NO-BREAK SPACE"。
這樣如果接收者收到FEFF,就表明這個字節(jié)流是Big-Endian的;如果收到FFFE,就表明這個字節(jié)流
是Little-Endian的。因此字符"ZERO WIDTH NO-BREAK SPACE"又被稱作BOM。
UTF-8不需要BOM來表明字節(jié)順序,但可以用BOM來表明編碼方式。字符"ZERO WIDTH NO-BREAK SPACE"
的UTF-8編碼是EFBB BF(讀者可以用我們前面介紹的編碼方法驗證一下)。所以如果接收者收到以
EF BB BF開頭的字節(jié)流,就知道這是UTF-8編碼了。
Windows就是使用BOM來標記文本文件的編碼方式的。
6、進一步的參考資料
本文主要參考的資料是 "Short overview of ISO-IEC 10646 and Unicode"
(http://www.nada.kth.se/i18n/ucs/unicode-iso10646-oview.html)。
我還找了兩篇看上去不錯的資料,不過因為我開始的疑問都找到了答案,所以就沒有看:
"Understanding
Unicode A general introduction to the Unicode Standard"
(http://scrīpts.sil.org/cms/scrīpts/page.php?site_id=nrsi&item_id=IWS-Chapter04a)
"Character set encoding basics Understanding character set
encodings and legacy encodings"
(http://scrīpts.sil.org/cms/scrīpts/page.php?site_id=nrsi&item_id=IWS-Chapter03)
我寫過UTF-8、UCS-2、GBK相互轉換的軟件包,包括使用Windows API和不使用Windows API的
版本。以后有時間的話,我會整理一下放到我的個人主頁上(http://fmddlmyy.home4u.china.com)。
我是想清楚所有問題后才開始寫這篇文章的,原以為一會兒就能寫好。沒想到考慮措辭和查證細節(jié)花
費了很長時間,竟然從下午1:30寫到9:00。希望有讀者能從中受益。
附錄1 再說說區(qū)位碼、GB2312、內碼和代碼頁
有的朋友對文章中這句話還有疑問:
“GB2312的原文還是區(qū)位碼,從區(qū)位碼到內碼,需要在高字節(jié)和低字節(jié)上分別加上A0?!?/span>
我再詳細解釋一下:
“GB2312的原文”是指國家1980年的一個標準《中華人民共和國國家標準 信息交換用漢字編碼字符集
基本集 GB2312-80》。這個標準用兩個數來編碼漢字和中文符號。第一個數稱為“區(qū)”,第二個數稱為
“位”。所以也稱為區(qū)位碼。1-9區(qū)是中文符號,16-55區(qū)是一級漢字,56-87區(qū)是二級漢字?,F在Windows
也還有區(qū)位輸入法,例如輸入1601得到“啊”。(這個區(qū)位輸入法可以自動識別16進制的GB2312和10
進制的區(qū)位碼,也就是說輸入B0A1同樣會得到“啊”。)
內碼是指操作系統(tǒng)內部的字符編碼。早期操作系統(tǒng)的內碼是與語言相關的?,F在的Windows在系統(tǒng)內
部支持Unicode,然后用代碼頁適應各種語言,“內碼”的概念就比較模糊了。微軟一般將缺省代碼頁
指定的編碼說成是內碼。
內碼這個詞匯,并沒有什么官方的定義,代碼頁也只是微軟這個公司的叫法。作為程序員,我們只要
知道它們是什么東西,沒有必要過多地考證這些名詞。
所謂代碼頁(code page)就是針對一種語言文字的字符編碼。例如GBK的code page是CP936,BIG5
的code page是CP950,GB2312的code page是CP20936。
Windows中有缺省代碼頁的概念,即缺省用什么編碼來解釋字符。例如Windows的記事本打開了一個
文本文件,里面的內容是字節(jié)流:BA、BA、D7、D6。Windows應該去怎么解釋它呢?
是按照Unicode編碼解釋、還是按照GBK解釋、還是按照BIG5解釋,還是按照ISO8859-1去解釋?如
果按GBK去解釋,就會得到“漢字”兩個字。按照其它編碼解釋,可能找不到對應的字符,也可能找到錯
誤的字符。所謂“錯誤”是指與文本作者的本意不符,這時就產生了亂碼。
答案是Windows按照當前的缺省代碼頁去解釋文本文件里的字節(jié)流。缺省代碼頁可以通過控制面板的
區(qū)域選項設置。記事本的另存為中有一項ANSI,其實就是按照缺省代碼頁的編碼方法保存。
Windows的內碼是Unicode,它在技術上可以同時支持多個代碼頁。只要文件能說明自己使用什么編
碼,用戶又安裝了對應的代碼頁,Windows就能正確顯示,例如在HTML文件中就可以指定charset。
有的HTML文件作者,特別是英文作者,認為世界上所有人都使用英文,在文件中不指定charset。
如果他使用了0x80-0xff之間的字符,中文Windows又按照缺省的GBK去解釋,就會出現亂碼。這時
只要在這個html文件中加上指定charset的語句,例如:
<meta http-equiv="Content-Type" content="text/html; charset=ISO8859-1">
如果原作者使用的代碼頁和ISO8859-1兼容,就不會出現亂碼了。
再說區(qū)位碼,啊的區(qū)位碼是1601,寫成16進制是0x10,0x01。這和計算機廣泛使用的ASCII編碼沖突。
為了兼容00-7f的ASCII編碼,我們在區(qū)位碼的高、低字節(jié)上分別加上A0。這樣“啊”的編碼就成為B0A1。
我們將加過兩個A0的編碼也稱為GB2312編碼,雖然GB2312的原文根本沒提到這一點。
統(tǒng)下顯示正好為上述編碼的三個亂碼漢字。
4.問題解決 可以通過FTP或其它一些同步工具將該文件上傳到linux系統(tǒng)下。
5.知識拓展 字符(Character)是文字與符號的總稱,包括文字、圖形符號、數學符號等。一組抽象字符的集合就是字符集(Charset)。 計算機要處理各種字符,就需要將字符和二進制內碼對應起來,這種對應關系就是字符編碼(Encoding)。
制定編碼首先要確定字符集,并將字符集內的字符排序,然后和二進制數字對應起來。根據字符集內字符的多少,會確定用幾個字節(jié)來編碼。
每種編碼都限定了一個明確的字符集合,叫做被編碼過的字符集(Coded Character Set),這是字符集的另外一個含義。通常所說的字符集大多是這個含義。
常用的字符集有:ASCII、ISO 8859-1、UCS、Unicode、UTF、漢字編碼、ANSI 下面是轉的各種編碼方式的詳細介紹: ASCII:
American Standard Code for Information Interchange,美國信息交換標準碼。
目前計算機中用得最廣泛的字符集及其編碼,由美國國家標準局(ANSI)制定。
它已被國際標準化組織(ISO)定為國際標準,稱為ISO 646標準。
ASCII字符集由控制字符和圖形字符組成。
在計算機的存儲單元中,一個ASCII碼值占一個字節(jié)(8個二進制位),其最高位(b7)用作奇偶校驗位。
所謂奇偶校驗,是指在代碼傳送過程中用來檢驗是否出現錯誤的一種方法,一般分奇校驗和偶校驗兩種。
奇校驗規(guī)定:正確的代碼一個字節(jié)中1的個數必須是奇數,若非奇數,則在最高位b7添1。
偶校驗規(guī)定:正確的代碼一個字節(jié)中1的個數必須是偶數,若非偶數,則在最高位b7添1。
ISO 8859-1:
ISO 8859,全稱ISO/IEC 8859,是國際標準化組織(ISO)及國際電工委員會(IEC)聯(lián)合制定的一系列8位字符集的標準,現時定義了15個字符集。
ASCII收錄了空格及94個“可印刷字符”,足以給英語使用。
但是,其他使用拉丁字母的語言(主要是歐洲國家的語言),都有一定數量的變音字母,故可以使用ASCII及控制字符以外的區(qū)域來儲存及表示。
除了使用拉丁字母的語言外,使用西里爾字母的東歐語言、希臘語、泰語、現代阿拉伯語、希伯來語等,都可以使用這個形式來儲存及表示。
* ISO 8859-1 (Latin-1) - 西歐語言
* ISO 8859-2 (Latin-2) - 中歐語言
* ISO 8859-3 (Latin-3) - 南歐語言。世界語也可用此字符集顯示。
* ISO 8859-4 (Latin-4) - 北歐語言
* ISO 8859-5 (Cyrillic) - 斯拉夫語言
* ISO 8859-6 (Arabic) - 阿拉伯語
* ISO 8859-7 (Greek) - 希臘語
* ISO 8859-8 (Hebrew) - 希伯來語(視覺順序)
* ISO 8859-8-I - 希伯來語(邏輯順序)
* ISO 8859-9 (Latin-5 或 Turkish) - 它把Latin-1的冰島語字母換走,加入土耳其語字母。
* ISO 8859-10 (Latin-6 或 Nordic) - 北日耳曼語支,用來代替Latin-4。
* ISO 8859-11 (Thai) - 泰語,從泰國的 TIS620 標準字集演化而來。
* ISO 8859-13 (Latin-7 或 Baltic Rim) - 波羅的語族
* ISO 8859-14 (Latin-8 或 Celtic) - 凱爾特語族
* ISO 8859-15 (Latin-9) - 西歐語言,加入Latin-1欠缺的法語及芬蘭語重音字母,以及歐元符號。
* ISO 8859-16 (Latin-10) - 東南歐語言。主要供羅馬尼亞語使用,并加入歐元符號。
很明顯,iso8859-1編碼表示的字符范圍很窄,無法表示中文字符。
但是,由于是單字節(jié)編碼,和計算機最基礎的表示單位一致,所以很多時候,仍舊使用iso8859-1編碼來表示。
而且在很多協(xié)議上,默認使用該編碼。
UCS:
通用字符集(Universal Character Set,UCS)是由ISO制定的ISO 10646(或稱ISO/IEC 10646)標準所定義的字符編碼方式,采用4字節(jié)編碼。
UCS包含了已知語言的所有字符。
除了拉丁語、希臘語、斯拉夫語、希伯來語、阿拉伯語、亞美尼亞語、格魯吉亞語,還包括中文、日文、韓文這樣的象形文字,UCS還包括大量的圖形、印刷、數學、科學符號。
* UCS-2: 與unicode的2byte編碼基本一樣。
* UCS-4: 4byte編碼, 目前是在UCS-2前加上2個全零的byte。
Unicode:
Unicode(統(tǒng)一碼、萬國碼、單一碼)是一種在計算機上使用的字符編碼。
它是http://www.unicode.org制定的編碼機制, 要將全世界常用文字都函括進去。
它為每種語言中的每個字符設定了統(tǒng)一并且唯一的二進制編碼,以滿足跨語言、跨平臺進行文本轉換、處理的要求。
1990年開始研發(fā),1994年正式公布。隨著計算機工作能力的增強,Unicode也在面世以來的十多年里得到普及。
但自從unicode2.0開始,unicode采用了與ISO 10646-1相同的字庫和字碼,ISO也承諾ISO10646將不會給超出0x10FFFF的UCS-4編碼賦值,使得兩者保持一致。
Unicode的編碼方式與ISO 10646的通用字符集(Universal Character Set,UCS)概念相對應,目前的用于實用的Unicode版本對應于UCS-2,使用16位的編碼空間。
也就是每個字符占用2個字節(jié),基本滿足各種語言的使用。實際上目前版本的Unicode尚未填充滿這16位編碼,保留了大量空間作為特殊使用或將來擴展。
UTF:
Unicode 的實現方式不同于編碼方式。
一個字符的Unicode編碼是確定的,但是在實際傳輸過程中,由于不同系統(tǒng)平臺的設計不一定一致,以及出于節(jié)省空間的目的,對Unicode編碼的實現方式有所不同。
Unicode的實現方式稱為Unicode轉換格式(Unicode Translation Format,簡稱為 UTF)。
* UTF-8: 8bit變長編碼,對于大多數常用字符集(ASCII中0~127字符)它只使用單字節(jié),而對其它常用字符(特別是朝鮮和漢語會意文字),它使用3字節(jié)。
* UTF-16: 16bit編碼,是變長碼,大致相當于20位編碼,值在0到0x10FFFF之間,基本上就是unicode編碼的實現,與CPU字序有關。
漢字編碼:
* GB2312字集是簡體字集,全稱為GB2312(80)字集,共包括國標簡體漢字6763個。
* BIG5字集是臺灣繁體字集,共包括國標繁體漢字13053個。
* GBK字集是簡繁字集,包括了GB字集、BIG5字集和一些符號,共包括21003個字符。
* GB18030是國家制定的一個強制性大字集標準,全稱為GB18030-2000,它的推出使?jié)h字集有了一個“大一統(tǒng)”的標準。
ANSI和Unicode big endia:
我們在Windows系統(tǒng)中保存文本文件時通??梢赃x擇編碼為ANSI、Unicode、Unicode big endian和UTF-8,這里的ANSI和Unicode big endia是什么編碼呢?
ANSI:
使用2個字節(jié)來代表一個字符的各種漢字延伸編碼方式,稱為ANSI編碼。
在簡體中文系統(tǒng)下,ANSI編碼代表GB2312編碼,在日文操作系統(tǒng)下,ANSI編碼代表JIS編碼。
Unicode big endia:
UTF-8以字節(jié)為編碼單元,沒有字節(jié)序的問題。UTF-16以兩個字節(jié)為編碼單元,在解釋一個UTF-16文本前,首先要弄清楚每個編碼單元的字節(jié)序。
Unicode規(guī)范中推薦的標記字節(jié)順序的方法是BOM(即Byte Order Mark)。
在UCS編碼中有一個叫做"ZERO WIDTH NO-BREAK SPACE"的字符,它的編碼是FEFF。而FFFE在UCS中是不存在的字符,所以不應該出現在實際傳輸中。
UCS規(guī)范建議我們在傳輸字節(jié)流前,先傳輸字符"ZERO WIDTH NO-BREAK SPACE"。
這樣如果接收者收到FEFF,就表明這個字節(jié)流是Big-Endian的;如果收到FFFE,就表明這個字節(jié)流是Little-Endian的。
因此字符"ZERO WIDTH NO-BREAK SPACE"又被稱作BOM。
Windows就是使用BOM來標記文本文件的編碼方式的。
編程語言與編碼
C、C++、Python2內部字符串都是使用當前系統(tǒng)默認編碼
Python3、Java內部字符串用Unicode保存
Ruby有一個內部變量$KCODE用來表示可識別的多字節(jié)字符串的編碼,變量值為"EUC" "SJIS" "UTF8" "NONE"之一。
$KCODE的值為"EUC"時,將假定字符串或正則表達式的編碼為EUC-JP。
同樣地,若為"SJIS"時則認定為Shift JIS。若為"UTF8"時則認定為UTF-8。
若為"NONE"時,將不會識別多字節(jié)字符串。
在向該變量賦值時,只有第1個字節(jié)起作用,且不區(qū)分大小寫字母。
"e" "E" 代表 "EUC","s" "S" 代表 "SJIS","u" "U" 代表 "UTF8",而"n" "N" 則代表 "NONE"。
默認值為"NONE"。
即默認情況下Ruby把字符串當成單字節(jié)序列來處理。
為什么會亂碼?
亂碼是個老問題,從上面我們知道,字符在保存時的編碼格式如果和要顯示的編碼格式不一樣的話,就會出現亂碼問題。
我們的Web系統(tǒng),從底層數據庫編碼、Web應用程序編碼到HTML頁面編碼,如果有一項不一致的話,就會出現亂碼。
所以,解決亂碼問題說難也難說簡單也簡單,關鍵是讓交互系統(tǒng)之間編碼一致。
有沒有萬金油?
在如此多種編碼和字符集弄的我們眼花繚亂的情況下,我們只需選擇一種兼容性最好的編碼方式和字符集,讓它成為我們程序子系統(tǒng)之間
交互的編碼契約,那么從此惱人的亂碼問題即將遠離我們而去 -- 這種兼容性最好的編碼就是UTF-8!
畢竟GBK/GB2312是國內的標準,當我們大量使用國外的開源軟件時,UTF-8才是編碼界最通用的語言。
下面還有一篇關于編碼的文章,轉自http://kb.cnblogs.com/a/1540382/
這是一篇程序員寫給程序員的趣味讀物。所謂趣味是指可以比較輕松地了解一些原來不清楚的概念,
增進知識,類似于打RPG游戲的升級。整理這篇文章的動機是兩個問題:
問題一:
使用Windows記事本的“另存為”,可以在GBK、Unicode、Unicode big endian和UTF-8這幾種
編碼方式間相互轉換。同樣是txt文件,Windows是怎樣識別編碼方式的呢?
我很早前就發(fā)現Unicode、Unicode bigendian和UTF-8編碼的txt文件的開頭會多出幾個字節(jié),
分別是FF、FE(Unicode),FE、FF(Unicode bigendian),EF、BB、BF(UTF-8)。但這些
標記是基于什么標準呢?
問題二:
最近在網上看到一個ConvertUTF.c,實現了UTF-32、UTF-16和UTF-8這三種編碼方式的相互轉換。
對于Unicode(UCS2)、GBK、UTF-8這些編碼方式,我原來就了解。但這個程序讓我有些糊涂,想不
起來UTF-16和UCS2有什么關系。查了查相關資料,總算將這些問題弄清楚了,順帶也了解了一些
Unicode的細節(jié)。寫成一篇文章,送給有過類似疑問的朋友。本文在寫作時盡量做到通俗易懂,但要
求讀者知道什么是字節(jié),什么是十六進制。
0、big endian和little endian
bigendian和littleendian是CPU處理多字節(jié)數的不同方式。例如“漢”字的Unicode編碼是6C49。
那么寫到文件里時,究竟是將6C寫在前面,還是將49寫在前面?如果將6C寫在前面,就是big endian。
如果將49寫在前面,就是little endian。
“endian”這個詞出自《格列佛游記》。小人國的內戰(zhàn)就源于吃雞蛋時是究竟從大頭(Big-Endian)
敲開還是從小頭(Little-Endian)敲開,由此曾發(fā)生過六次叛亂,一個皇帝送了命,另一個丟了王位。
我們一般將endian翻譯成“字節(jié)序”,將big endian和little endian稱作“大尾”和“小尾”。
1、字符編碼、內碼,順帶介紹漢字編碼
字符必須編碼后才能被計算機處理。計算機使用的缺省編碼方式就是計算機的內碼。早期的計算機使用
7位的ASCII編碼,為了處理漢字,程序員設計了用于簡體中文的GB2312和用于繁體中文的big5。
GB2312(1980年)一共收錄了7445個字符,包括6763個漢字和682個其它符號。漢字區(qū)的內碼范圍高
字節(jié)從B0-F7,低字節(jié)從A1-FE,占用的碼位是72*94=6768。其中有5個空位是D7FA-D7FE。
GB2312支持的漢字太少。1995年的漢字擴展規(guī)范GBK1.0收錄了21886個符號,它分為漢字區(qū)和圖形符
號區(qū)。漢字區(qū)包括21003個字符。
從ASCII、GB2312到GBK,這些編碼方法是向下兼容的,即同一個字符在這些方案中總是有相同的編碼,
后面的標準支持更多的字符。在這些編碼中,英文和中文可以統(tǒng)一地處理。區(qū)分中文編碼的方法是高字
節(jié)的最高位不為0。按照程序員的稱呼,GB2312、GBK都屬于雙字節(jié)字符集 (DBCS)。
2000年的GB18030是取代GBK1.0的正式國家標準。該標準收錄了27484個漢字,同時還收錄了藏文、
蒙文、維吾爾文等主要的少數民族文字。從漢字字匯上說,GB18030在GB13000.1的20902個漢字的
基礎上增加了CJK擴展A的6582個漢字(Unicode碼0x3400-0x4db5),一共收錄了27484個漢字。
CJK就是中日韓的意思。Unicode為了節(jié)省碼位,將中日韓三國語言中的文字統(tǒng)一編碼。GB13000.1
就是ISO/IEC 10646-1的中文版,相當于Unicode 1.1。
GB18030的編碼采用單字節(jié)、雙字節(jié)和4字節(jié)方案。其中單字節(jié)、雙字節(jié)和GBK是完全兼容的。4字節(jié)
編碼的碼位就是收錄了CJK擴展A的6582個漢字。例如:UCS的0x3400在GB18030中的編碼應該是
8139EF30,UCS的0x3401在GB18030中的編碼應該是8139EF31。
微軟提供了GB18030的升級包,但這個升級包只是提供了一套支持CJK擴展A的6582個漢字的新字體:
新宋體-18030,并不改變內碼。Windows 的內碼仍然是GBK。
這里還有一些細節(jié):
GB2312的原文還是區(qū)位碼,從區(qū)位碼到內碼,需要在高字節(jié)和低字節(jié)上分別加上A0。
對于任何字符編碼,編碼單元的順序是由編碼方案指定的,與endian無關。例如GBK的編碼單元是字
節(jié),用兩個字節(jié)表示一個漢字。這兩個字節(jié)的順序是固定的,不受CPU字節(jié)序的影響。UTF-16的編碼
單元是word(雙字節(jié)),word之間的順序是編碼方案指定的,word內部的字節(jié)排列才會受到endian
的影響。后面還會介紹UTF-16。
GB2312的兩個字節(jié)的最高位都是1。但符合這個條件的碼位只有128*128=16384個。所以GBK和
GB18030的低字節(jié)最高位都可能不是1。不過這不影響DBCS字符流的解析:在讀取DBCS字符流時,
只要遇到高位為1的字節(jié),就可以將下兩個字節(jié)作為一個雙字節(jié)編碼,而不用管低字節(jié)的高位是什么。
2、Unicode、UCS和UTF
前面提到從ASCII、GB2312、GBK到GB18030的編碼方法是向下兼容的。而Unicode只與ASCII兼
容(更準確地說,是與ISO-8859-1兼容),與GB碼不兼容。例如“漢”字的Unicode編碼是6C49,
而GB碼是BABA。
Unicode也是一種字符編碼方法,不過它是由國際組織設計,可以容納全世界所有語言文字的編碼
方案。Unicode的學名是"UniversalMultiple-Octet Coded Character Set",簡稱為UCS。
UCS可以看作是"Unicode CharacterSet"的縮寫。
根據維基百科全書(http://zh.wikipedia.org/wiki/)的記載:歷史上存在兩個試圖獨立設計
Unicode的組織,即國際標準化組織(ISO)和一個軟件制造商的協(xié)會(unicode.org)。ISO開
發(fā)了ISO10646項目,Unicode協(xié)會開發(fā)了Unicode項目。
在1991年前后,雙方都認識到世界不需要兩個不兼容的字符集。于是它們開始合并雙方的工作成果,
并為創(chuàng)立一個單一編碼表而協(xié)同工作。從Unicode2.0開始,Unicode項目采用了與ISO 10646-1
相同的字庫和字碼。
目前兩個項目仍都存在,并獨立地公布各自的標準。Unicode協(xié)會現在的最新版本是2005年的Unicode
4.1.0。ISO的最新標準是ISO 10646-3:2003。
UCS只是規(guī)定如何編碼,并沒有規(guī)定如何傳輸、保存這個編碼。例如“漢”字的UCS編碼是6C49,我可
以用4個ascii數字來傳輸、保存這個編碼;也可以用utf-8編碼:3個連續(xù)的字節(jié)E6 B1 89來表示它。
關鍵在于通信雙方都要認可。UTF-8、UTF-7、UTF-16都是被廣泛接受的方案。UTF-8的一個特別的
好處是它與ISO-8859-1完全兼容。UTF是“UCS Transformation Format”的縮寫。
IETF的RFC2781和RFC3629以RFC的一貫風格,清晰、明快又不失嚴謹地描述了UTF-16和UTF-8的
編碼方法。我總是記不得IETF是InternetEngineering Task Force的縮寫。但IETF負責維護
的RFC是Internet上一切規(guī)范的基礎。
2.1、內碼和code page
目前Windows的內核已經支持Unicode字符集,這樣在內核上可以支持全世界所有的語言文字。但是
由于現有的大量程序和文檔都采用了某種特定語言的編碼,例如GBK,Windows不可能不支持現有的
編碼,而全部改用Unicode。
Windows使用代碼頁(code page)來適應各個國家和地區(qū)。code page可以被理解為前面提到的內碼。
GBK對應的code page是CP936。
微軟也為GB18030定義了code page:CP54936。但是由于GB18030有一部分4字節(jié)編碼,而Windows
的代碼頁只支持單字節(jié)和雙字節(jié)編碼,所以這個code page是無法真正使用的。
3、UCS-2、UCS-4、BMP
UCS有兩種格式:UCS-2和UCS-4。顧名思義,UCS-2就是用兩個字節(jié)編碼,UCS-4就是用4個字節(jié)
(實際上只用了31位,最高位必須為0)編碼。下面讓我們做一些簡單的數學游戲:
UCS-2有2^16=65536個碼位,UCS-4有2^31=2147483648個碼位。
UCS-4根據最高位為0的最高字節(jié)分成2^7=128個group。每個group再根據次高字節(jié)分為256個plane。
每個plane根據第3個字節(jié)分為256行 (rows),每行包含256個cells。當然同一行的cells只是最后
一個字節(jié)不同,其余都相同。
group 0的plane 0被稱作Basic Multilingual Plane, 即BMP。或者說UCS-4中,高兩個字節(jié)
為0的碼位被稱作BMP。
將UCS-4的BMP去掉前面的兩個零字節(jié)就得到了UCS-2。在UCS-2的兩個字節(jié)前加上兩個零字節(jié),就得
到了UCS-4的BMP。而目前的UCS-4規(guī)范中還沒有任何字符被分配在BMP之外。
4、UTF編碼
UTF-8就是以8位為單元對UCS進行編碼。從UCS-2到UTF-8的編碼方式如下:
UCS-2編碼(16進制) UTF-8 字節(jié)流(二進制)
0000 - 007F 0xxxxxxx
0080 - 07FF 110xxxxx 10xxxxxx
0800 - FFFF 1110xxxx 10xxxxxx 10xxxxxx
例如“漢”字的Unicode編碼是6C49。6C49在0800-FFFF之間,所以肯定要用3字節(jié)模板了:
1110xxxx 10xxxxxx 10xxxxxx。將6C49寫成二進制是:0110 110001 001001, 用這個比特流
依次代替模板中的x,得到:1110011010110001 10001001,即E6 B1 89。
讀者可以用記事本測試一下我們的編碼是否正確。需要注意,UltraEdit在打開utf-8編碼的文本文
件時會自動轉換為UTF-16,可能產生混淆。你可以在設置中關掉這個選項。更好的工具是Hex Workshop。
UTF-16以16位為單元對UCS進行編碼。對于小于0x10000的UCS碼,UTF-16編碼就等于UCS碼對應
的16位無符號整數。對于不小于0x10000的UCS碼,定義了一個算法。不過由于實際使用的UCS2,
或者UCS4的BMP必然小于0x10000,所以就目前而言,可以認為UTF-16和UCS-2基本相同。但UCS-2
只是一個編碼方案,UTF-16卻要用于實際的傳輸,所以就不得不考慮字節(jié)序的問題。
5、UTF的字節(jié)序和BOM
UTF-8以字節(jié)為編碼單元,沒有字節(jié)序的問題。UTF-16以兩個字節(jié)為編碼單元,在解釋一個UTF-16
文本前,首先要弄清楚每個編碼單元的字節(jié)序。例如“奎”的Unicode編碼是594E,“乙”的Unicode
編碼是4E59。如果我們收到UTF-16字節(jié)流“594E”,那么這是“奎”還是“乙”?
Unicode規(guī)范中推薦的標記字節(jié)順序的方法是BOM。BOM不是“Bill Of Material”的BOM表,而是
Byte Order Mark。BOM是一個有點小聰明的想法:
在UCS編碼中有一個叫做"ZERO WIDTH NO-BREAKSPACE"的字符,它的編碼是FEFF。而FFFE在UCS
中是不存在的字符,所以不應該出現在實際傳輸中。UCS規(guī)范建議我們在傳輸字節(jié)流前,先傳輸字符
"ZERO WIDTH NO-BREAK SPACE"。
這樣如果接收者收到FEFF,就表明這個字節(jié)流是Big-Endian的;如果收到FFFE,就表明這個字節(jié)流
是Little-Endian的。因此字符"ZERO WIDTH NO-BREAK SPACE"又被稱作BOM。
UTF-8不需要BOM來表明字節(jié)順序,但可以用BOM來表明編碼方式。字符"ZERO WIDTH NO-BREAK SPACE"
的UTF-8編碼是EFBB BF(讀者可以用我們前面介紹的編碼方法驗證一下)。所以如果接收者收到以
EF BB BF開頭的字節(jié)流,就知道這是UTF-8編碼了。
Windows就是使用BOM來標記文本文件的編碼方式的。
6、進一步的參考資料
本文主要參考的資料是 "Short overview of ISO-IEC 10646 and Unicode"
(http://www.nada.kth.se/i18n/ucs/unicode-iso10646-oview.html)。
我還找了兩篇看上去不錯的資料,不過因為我開始的疑問都找到了答案,所以就沒有看:
"Understanding
Unicode A general introduction to the Unicode Standard"
(http://scrīpts.sil.org/cms/scrīpts/page.php?site_id=nrsi&item_id=IWS-Chapter04a)
"Character set encoding basics Understanding character set
encodings and legacy encodings"
(http://scrīpts.sil.org/cms/scrīpts/page.php?site_id=nrsi&item_id=IWS-Chapter03)
我寫過UTF-8、UCS-2、GBK相互轉換的軟件包,包括使用Windows API和不使用Windows API的
版本。以后有時間的話,我會整理一下放到我的個人主頁上(http://fmddlmyy.home4u.china.com)。
我是想清楚所有問題后才開始寫這篇文章的,原以為一會兒就能寫好。沒想到考慮措辭和查證細節(jié)花
費了很長時間,竟然從下午1:30寫到9:00。希望有讀者能從中受益。
附錄1 再說說區(qū)位碼、GB2312、內碼和代碼頁
有的朋友對文章中這句話還有疑問:
“GB2312的原文還是區(qū)位碼,從區(qū)位碼到內碼,需要在高字節(jié)和低字節(jié)上分別加上A0。”
我再詳細解釋一下:
“GB2312的原文”是指國家1980年的一個標準《中華人民共和國國家標準 信息交換用漢字編碼字符集
基本集 GB2312-80》。這個標準用兩個數來編碼漢字和中文符號。第一個數稱為“區(qū)”,第二個數稱為
“位”。所以也稱為區(qū)位碼。1-9區(qū)是中文符號,16-55區(qū)是一級漢字,56-87區(qū)是二級漢字?,F在Windows
也還有區(qū)位輸入法,例如輸入1601得到“啊”。(這個區(qū)位輸入法可以自動識別16進制的GB2312和10
進制的區(qū)位碼,也就是說輸入B0A1同樣會得到“啊”。)
內碼是指操作系統(tǒng)內部的字符編碼。早期操作系統(tǒng)的內碼是與語言相關的?,F在的Windows在系統(tǒng)內
部支持Unicode,然后用代碼頁適應各種語言,“內碼”的概念就比較模糊了。微軟一般將缺省代碼頁
指定的編碼說成是內碼。
內碼這個詞匯,并沒有什么官方的定義,代碼頁也只是微軟這個公司的叫法。作為程序員,我們只要
知道它們是什么東西,沒有必要過多地考證這些名詞。
所謂代碼頁(code page)就是針對一種語言文字的字符編碼。例如GBK的code page是CP936,BIG5
的code page是CP950,GB2312的code page是CP20936。
Windows中有缺省代碼頁的概念,即缺省用什么編碼來解釋字符。例如Windows的記事本打開了一個
文本文件,里面的內容是字節(jié)流:BA、BA、D7、D6。Windows應該去怎么解釋它呢?
是按照Unicode編碼解釋、還是按照GBK解釋、還是按照BIG5解釋,還是按照ISO8859-1去解釋?如
果按GBK去解釋,就會得到“漢字”兩個字。按照其它編碼解釋,可能找不到對應的字符,也可能找到錯
誤的字符。所謂“錯誤”是指與文本作者的本意不符,這時就產生了亂碼。
答案是Windows按照當前的缺省代碼頁去解釋文本文件里的字節(jié)流。缺省代碼頁可以通過控制面板的
區(qū)域選項設置。記事本的另存為中有一項ANSI,其實就是按照缺省代碼頁的編碼方法保存。
Windows的內碼是Unicode,它在技術上可以同時支持多個代碼頁。只要文件能說明自己使用什么編
碼,用戶又安裝了對應的代碼頁,Windows就能正確顯示,例如在HTML文件中就可以指定charset。
有的HTML文件作者,特別是英文作者,認為世界上所有人都使用英文,在文件中不指定charset。
如果他使用了0x80-0xff之間的字符,中文Windows又按照缺省的GBK去解釋,就會出現亂碼。這時
只要在這個html文件中加上指定charset的語句,例如:
<meta http-equiv="Content-Type" content="text/html; charset=ISO8859-1">
如果原作者使用的代碼頁和ISO8859-1兼容,就不會出現亂碼了。
再說區(qū)位碼,啊的區(qū)位碼是1601,寫成16進制是0x10,0x01。這和計算機廣泛使用的ASCII編碼沖突。
為了兼容00-7f的ASCII編碼,我們在區(qū)位碼的高、低字節(jié)上分別加上A0。這樣“啊”的編碼就成為B0A1。
我們將加過兩個A0的編碼也稱為GB2312編碼,雖然GB2312的原文根本沒提到這一點。
總結
以上是生活随笔為你收集整理的windows下的中文文件名共享在linux下显示乱码的问题的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 基于Matlab的压力控制论文,基于Ma
- 下一篇: ShapeFile预览神器QuickLo