首页
社区
课程
招聘
[原创]glibc字符编码研究
发表于: 2020-4-22 12:40 10100

[原创]glibc字符编码研究

2020-4-22 12:40
10100

上周末在做plaidctf2020-emojidb的时候,发现这道题目的输入输出都是宽字节数据流涉及到字符的编码,而这方面之前一直没有研究。借这道题的机会自己写了几个demo来对字符编码问题进行深入研究。

一、什么是编码系统

Unicode是国际组织制定的可以容纳世界上所有文字和符号的字符编码系统,有UCS-2和UCS-4两种编码规范,其中UCS-2编码长度为2字节,UCS-4是前者的扩展采用4字节编码,因此UCS-4字符集的容量大于UCS-2,在Linux的glibc中对unicode的处理都是UCS-4编码规范。unicode编码系统兼容了ASCII编码系统,因此unicode的前128个编码对应了ascii码。

UTF-8、UTF-16、UTF-32是UTF编码,它的的全称是“Unicode transformation format”,也就是unicode的传输和存储格式。unicode定义了字符和数字之间的映射关系,而UTF则定义了这个数字在内存中的存储方式,所以UTF不是编码系统,这也是UTF经常被误解的地方。

UTF-16用2字节表示一个unicode码,对应的是UCS-2编码规范,同理UTF-32对应的就是UCS-4规范。

UTF-8是unicode的变长编码方式。这么做的原因是,如果对英文字母和标点符号进行unicode编码,那么对应UCS-2和UCS-4只用到了低8位,这种方法显然会浪费一些内存。因此UTF-8对ascii字符还是采用1个字节编码,而对其他符号则采用变长的方式进行编码和存储。UTF-8和unicode的转换关系参考百度百科。

例如中文“今”字的几种编码关系如下:

 

我们通常说的unicode其实指的就是UTF-16编码。

总结一下:

unicode和ascii是两种编码系统,且ascii是unicode的子集

UTF是unicode在内存中的存储格式,为了提高内存的使用效率提出了unicode的UTF-8编码方式。

接下来我在deepin环境中以一个可执行文件如何从源代码到最后执行并在控制台显示出字符来解释字符编码是如何被计算机处理的!

以我给出的demo1.c程序为例,它在我的vscode里面采用的是UTF-8编码:

 

拖到UE里面查看,可以看到都是单字节的UTF-8编码,特别注意方框内标记的是“今”的UTF-8编码。


再将demo1.c转化为UTF-16小端编码,可以看到被扩展为2字节,文件的size也变大了!其中开头的“\xFF\xFE”是UTF-16小端编码文件的magic,“\xCA\x4E”是汉字“今”的UTF-16编码。


可见源代码文件是采用了特定的编码系统来存储程序员写的代码,在Windows平台下的visual studio采用的是ANSI编码,Linux下的源码文件通常为UTF-8编码。这里再次可以见到采用UTF-8对英文字符的unicode进行编码可以节约文件占用的空间!之所以强调英文字符,是因为如果采用UTF-8对其他字符比如汉字进行编码反而不占优势。编译器对源码文件的编码方式是有要求的,例如gcc要求源码文件必须是UTF-8编码,而Windows下的MSVC则支持多种编码方式的源文件并且需要在MSVC的编译选项中加以指定。

源码文件经过编译器编译得到可执行文件,字符在可执行文件中的表示分为2类:1、char类型字符的表示  2、wchar_t类型字符的表示。将demo1.c编译之后来观察:

char型变量在内存中占1个字节。name1是指向char类型字符串“今天”的指针,name1指向的0x400594位置的内容是“\xe4\xbb\x8a\xe5\xa4\xa9”,这是“今天”的UTF-8编码,对照前面的UE编辑器里面的内容可以看到,对于char类型的变量,gcc编译器就是把源文件中的编码直接塞到了可执行文件里。

                  

wchar_t是char类型的扩展,占用2字节或4字节内存,用于存储超出char范围的字符比如中文。在Linux glibc中wchar_t被定义为4字节变量,用于存储UCS-4字符。demo1中name2为指向wchar_t类型的指针,在给wchar_t类型变量赋值时需要给字符串加上“L”前缀,表示每个字符按照UCS-4格式存储在wchar_t类型的变量中,否则中文字符还是按照UTF-8进行编码。name2指向0x40059c的内容是“\x00\x00\xca\x4e\x00\x00\x29\x59”,这是“今天”的UTF-32编码。

                                             

所以gcc编译器在处理wchar_t类型变量的时候,将字符转化为了UTF-32编码然后塞到了可执行文件里。这里解释了为什么文件编码格式对编译器很重要,因为编译器在进行wchar_t类型的编码转换的时候需要知道是从哪一个字符集转换到UTF-32,gcc只能编译UTF-8编码的文件,虽然提供了-finput-charset选项可以指定源文件编码类型,但归根到底也还是将源文件转化成了UTF-8文件,所以gcc知道他要将一个UTF-8编码换成UTF-32的编码,而在visual studio里面则需要在MSVC里面的编译选项中对源文件编码类型进行设置。

总结一下,对于char类型的字符,编译器直接按照源文件中的编码塞到了可执行文件中。对于加“L”前缀的wchar_t类型的字符,编译器将源文件中的编码转化为UTF-32编码塞到可执行文件中。

可执行文件被ld加载器映射到了进程地址空间,映射的过程就是复制的过程,因此可执行文件中的静态字符串被加载之后编码方式没有改变。对于使用scanf、wscanf从外部输入的动态存储的字符串,他们在内存里面使用2种编码存储方法:1、原生编码   2、UCS-4编码。

原生编码是输入函数从输入流获取的原生符号编码,他通常是操作系统设置的本地语言编码比如"zh_CN.UTF-8",终端传递给程序的字符编码就是系统的原生编码,数据类型是char。UCS-4编码是把从输入流获取的原生符号编码转换为UCS-4编码也就是UTF-32然后存储到缓冲区,数据类型是wchar_t。

终端扮演的角色是:接收程序输出流的数据,并按照终端的本地编码格式解释输出流,将最终的解释结果显示在屏幕上。在输入的过程中,把显示在终端上的字符按照终端的本地编码格式编码并通过输入流传递给程序。这里的输入输出流是相对于程序而言的。后面字符解释字符的动态存储和输出都是基于此模型。


对于输入函数scanf和wscanf,他们从输入流获取的原生字符编码按照何种方式存储在缓冲区,是由他们的格式化字符串决定的。这两个函数在功能上是重叠的,格串为"%s"表示向缓冲区输出原生字符编码,格串为"%ls"表示向缓冲区输出转换后的UCS-4编码。下图展示了使用不同格串时输入函数内部发生的编码转换过程:


其中mb表示原生字符编码,wb表示UCS-4编码。原生编码转换为UCS-4是通过glibc库函数mbrtowc()完成的,UCS-4转换为原生编码通过wcrtomb()库函数完成。发生编码转换的前提是要直到操作系统的本地语言编码是什么,这样才能建立原生编码和UCS-4编码的映射,因此在进行2、 3、 4这样的操作之前要调用setlocale在运行时告诉转换编码函数,本地编码是什么。例如:

 



"\xca\x4e\x00\x00\x29\x59\x00\x00"是终端输入字符"今天"的UCS-4编码。通过setlocale(LC_ALL, "zh_CN.UTF-8"),scanf就知道他要把输入流过来的UTF-8编码转换成UCS-4。

输出函数printf和wprintf,他们获得指向字符缓冲区的指针,输出字符缓冲区的内容。printf和wprintf的功能也是重叠的,对于要输出的字符串按照什么类型存储是由格式化串解释的,"%s"表示要输出的字符串按照原生编码存储,数据类型是char,"%ls"表示要输出的字符串按照UCS-4存储,数据类型是wchar_t。下图展示了使用不同格串时输出函数内部发生的编码转换过程:


输出函数最终的输出编码都是原生编码,因为终端只负责解析本地编码类型的编码,如果输出流里面的不是原生编码,那么终端就无法正确显示结果。和输入函数一样,当发生编码转换的时候程序必须被运行时告知本地编码的类型,这个步骤也是由setlocale函数完成的,例如:


[招生]科锐逆向工程师培训(2024年11月15日实地,远程教学同时开班, 第51期)

收藏
免费 3
支持
分享
最新回复 (11)
雪    币: 27
活跃值: (127)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
2
Windows 上的编译器处理方式不同,至少微软的编译器对于 char 数组并不是按照文件编码来的,而是按照本机 ANSI 编码存储的。
最后于 2020-4-24 17:46 被Xenophon编辑 ,原因:
2020-4-24 17:45
0
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
3
Xenophon Windows 上的编译器处理方式不同,至少微软的编译器对于 char 数组并不是按照文件编码来的,而是按照本机 ANSI 编码 ...
是的
2020-4-24 18:14
0
雪    币: 541
活跃值: (654)
能力值: ( LV12,RANK:250 )
在线值:
发帖
回帖
粉丝
4
不错,支持。
不同编码问题是编程中最蛋疼问题
2020-4-26 16:32
0
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
5
ddlx 不错,支持。 不同编码问题是编程中最蛋疼问题
是的,这个虽然不是很高深但经常会产生一些莫名其妙的问题
2020-4-26 17:13
0
雪    币: 219
能力值: ( LV1,RANK:0 )
在线值:
发帖
回帖
粉丝
6
utf-8可变长编码划重点
2020-4-26 17:57
0
雪    币: 68
活跃值: (101)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
7
字符编码本身不复杂,复杂的就是操作系统API的处理。
2020-4-26 21:11
0
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
8
sodarkbit 字符编码本身不复杂,复杂的就是操作系统API的处理。
是的
2020-4-27 16:38
0
雪    币: 68
活跃值: (101)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
9

看看我理解的对不对,以前做的笔记

要点:字符以什么编码格式生成二进制数据的,二进制数据以什么编码格式解释的

源码字符集阶段
字符被编辑器编码成二进制数据,默认以系统默认编码格式显示


执行字符集阶段
源代码文件中的二进制数据被以指定的编码格式被编译器解读,其中的字符/字符串常量变成目标文件/可执行文件的二进制数据

运行环境编码阶段
以windows为例,可执行文件在cmd命令行窗口中执行,PE文件的字符/字符串常量的二进制数据被系统默认编码格式GBK解读。可以通过chcp指令设置以什么编码格式解读字符/字符串常量的二进制数据

最后于 2020-4-28 07:44 被sodarkbit编辑 ,原因:
2020-4-27 21:30
0
雪    币: 68
活跃值: (101)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
10
参考:https://blog.csdn.net/benkaoya/article/details/59522148
https://blog.csdn.net/a10929/article/details/78235793
2020-4-27 21:31
0
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
11
sodarkbit 看看我理解的对不对,以前做的笔记要点:字符以什么编码格式生成二进制数据的,二进制数据以什么编码格式解释的源码字符集阶段字符被编辑器编码成二进制数据,默认以系统默认编码格式显示执行字符集阶段源代码文件中 ...
对,是这样的。如果程序处理过程中没有发生字符集的转换那么最后一定能正常显示,因为他是怎么进怎么出,显示界面的编码和源代码编码一般是一样的。
2020-4-29 20:16
0
雪    币:
能力值: ( LV1,RANK:0 )
在线值:
发帖
回帖
粉丝
12
可以 不错
2020-7-18 03:03
0
游客
登录 | 注册 方可回帖
返回
//