-
-
malloc源码分析
-
发表于: 2022-1-27 21:14 32462
-
学了这么久堆漏洞了,我想应该把glibc
的malloc
和free
源码解析写一下了,希望能帮助一下刚上路的师傅,同时也巩固一下自身知识。
我们平时写程序的时候,某些变量可能需要在开始就分配内存,这些内存是不可避免的。那么这些内存就是静态分配的,当程序编译完成之后,它就确定了占用这么多的内存。但是有时候,实际问题的规模没有预期那么大,我们不一定需要很大的内存,如果每次都按最大考虑那么就有很大一部分内存是被浪费的,这就是静态分配内存的弊端,虽然咱打acm的时候都是静态分配的,但是这没啥,因为每个问题不要超过它的总内存上限问题就不大(狗头。但是在内存不足的年代,如果都这样使用静态分配内存的方式,那么计算机的效率会被拖垮很多,所以就有动态分配内存的概念了。
glibc
采用ptmalloc
的管理方式去分配内存。
那么动态分配内存要怎么去分配呢?如果我们需要占用除了我程序本身占用的内存以外的一块内存,那程序指定是没权限用的,得先向操作系统申请这一块内存的使用权。而操作系统没那么闲,分配几个字节的内存都要它去管,操作系统管理都是按页式的管理。而一页的内存是0x1000B
,如果每一次申请我都向操作系统申请,每一次归还都直接归还给操作系统那么必定会增大操作系统的负担。因此分配内存的时候可以按照一个策略去分配,分配一定得尽量避免过多地使用系统调用,归还的时候可以等到程序结束时一并归还,这样的话操作系统的负担就大大下降了。
ptmalloc2
的分配方式会在你第一次malloc
的时候向操作系统申请0x21000B(132KB)
的内存,然后后续分配就不会向操作系统申请内存,只有用完了的时候才会再次申请内存。
操作系统的问题解决了之后我们再来看看glibc
怎么处理具体的分配细节。分配的时候我一定是切出一块特定大小才是最优的策略的,比如程序malloc(4)
,那我接切个4字节的内存给它用,malloc(1)
那就给它一字节去使用。然而现实没有那么理想,因为如果我切下来的块用户程序完全可写的话,那么我怎么区分这个内存块是否被使用呢?然后内存块的分界线又如何界定呢?所以分割内存块的时候不可避免地要在内存块中额外开出一部分区域用于管理。那么可以在每个分配的内存块加上一个int
数据作为此内存块的size
,64位的操作系统可以使用long long
。同理,为了管理方便,glibc
在分配chunk
的时候也并不是分配这么多就只能写这么多的。它也不想闲到去管1字节2字节这样的内存块。而且如果有这样的内存块,那么在分配指针的时候内存没办法对齐会出现很多麻烦的事。所以在分配内存块的时候,有一个SIZE_SZ
,一次分配的内存必定是SIZE_SZ*2
的整倍数,SIZE_SZ
在32位操作系统下的值是4
,64位的值是8
。为了方便,以下把内存块统一叫chunk
。
以32位操作系统为例,size的值必定为8的整数倍,二进制角度下看来,低三位永远是0,这样有点浪费了内存,因此规定size
的低三位不作为实际的chunk
大小,而是标志位。三个标志位从高位到低位分别是:
在64位操作系统中,多出一个标志位,但是这个标志位无任何意义,可能后续会赋予别的意义,但是它一样不影响chunk
的大小。
在看malloc源码的时候可以看到一个宏定义。
那么就可以看到chunksize
在取实际size
的时候与了一个0xfffffff8
,忽略了最低三位,64位操作系统则会忽略最低四位。
以下例子为64位操作系统
chunk
最小的大小为0x20
,为什么没有0x10
大小的chunk
呢,这么看来size
占了8
字节还能有8字节给用户去写似乎没问题。大不了我超过8B
再分配0x20
大小的内存嘛,这个疑问先放一下,我们来看看这样的策略它还有没有什么问题。
如果一个chunk
被确定释放了,那么该以什么方式去管理。你会想到前面有一个prev_inuse
位可以确定一个堆块是否被释放,你会想到改下一个chunk
的标志位就可以了,但是如果这个内存块再次被需要呢,难道去遍历每一个chunk
,一来要看size
符不符合,二来还要看它有没有被使用,这样时间开销太大了。因为空闲的chunk
可能散落在内存各个角落,管理零碎内存最好的办法就是链表。链表还得有表头,这个表头其实就是我们的main_arena
中的bin
。因此chunk
上还得有一块内存是指针,指针又占了8
个字节。
但是你可能想到,指针它只在块被释放的时候有用啊,0x10
的块,一个size
,一个指针,被分配的时候用指针作为数据域,被释放的时候指针用于链式管理。这样就解决了,这样也的确没问题。但是看看它这样的分配策略还有没有问题?如果我多次分配chunk
很小的块,free
之后它们便只能用于分配这么大的内存了。如果不加另一种策略组织起来,导致内存碎片越来越多,就容易耗尽系统内存。
那么就有ptmalloc
的又一个策略:尽量合并物理相邻的free_chunk
。咱们前面一直提到切割内存块,合并内存块就是切割的一个逆过程。在合并的时候我可能前面会有free
的内存块,后面也会有free
的内存块。那么我怎么在只知道我自身信息的情况下准确找到前后的chunk
具体在哪呢。
想找到后面的很容易,我知道我自己所在的位置(指针),也知道我的size
,那么相加就可以找到后面的size
了。那么我如何找前面的size
在什么位置呢?所以就不得不再开辟一个内存来存前一个chunk
的信息了。通过prev_inuse
位我很容易得知前一个chunk
有没有被free
,但是我并不知道前一个chunk
的大小啊。所以在一个chunk
的结构体,在size之前还会有一个prev_size
。与前面那个指针同理,我只有在前一个块被free
需要合并的时候才会想看看它在哪,他要是都还在用我都没必要去使用这个prev_size
字段了。但是要注意,这个prev_size
是服务于上一个chunk
的。所以一个chunk的结构体就有0x10
个不得不分配的字节,而且自己还不能用。因此0x10
的chunk
就没有意义了。所以源码中也会找到这样的定义:
说了这么多了,ptmalloc
的策略大致总结一下就是:
一次系统调用会分配大块内存
程序结束后统一归还内存给操作系统
方便管理,内存分配尽量对齐,也就是所谓的size为某某整倍数
尽量分配最小能满足的内存块
链式管理空闲空间,适当的时候合并物理相邻的chunk
而且根据以上分析我们可以得出一些关于chunk
的结构体。
至此,我们大致就明白了ptmalloc
的分配方式。
前面我们讲到了,对于空闲块使用了链式管理方式。但是对于不同大小的chunk
,它又有细分。这里先给一个概念:bin
,字面意义垃圾桶,用于装free_chunk
的垃圾桶,在这里可以理解为链表表头。
以下均以glibc 2.23
版本解析
对于size
较小的free_chunk
,我们认为它很快就会被再次用到,因此在free
0x20~0x80
大小的chunk
时,我们会把它扔进fast bin
里面,字面意义,里面存的free_chunk
很快会被再次用到。fast bin
管理free_chunk
采用单链表方式,并且符合后进先出(FILO
)的原则,比如以下程序段
那么z会得到y的指针,w会得到x的指针。
并且fast bin
的chunk
的之后的chunk
prev_inuse
位永远为1。也就是说它永远被视为在使用中,但是通常这个使用中是用于检测参不参与物理相邻chunk
的合并,所以不会参与物理相邻的chunk
的合并,也不会被切割。它的匹配规则就是,定量匹配。比如我想要一个0x30
的chunk
,没有就是没有,没有我就找其它的,不会说0x40
好像还挺合适就拿了,不会。
fast bin
一共有10
个,main_arena
结构体中,用fastbinsY
来存储每一个fast bin
的链表头部,32位系统中,fast bin
,从0x10开始到0x40
,有7种fast bin
,64位系统从0x20
开始到0x80
,也是七种fast bin
。单个fast bin
链表上的chunk
大小一定严格相等。
一定情况下可以修改global_max_fast
的值来调整fast bin
的个数,64位系统下这个值通常为0x80
,代表小于等于0x80
的chunk
都为fast bin
。
其余的链表头部都在bin
数组当中。并且由于只有fast bin
是单链表结构,其余bin
都是双向链表结构,bin
会成对出现。
对于非fast bin
大小的chunk
,被释放时会首先进入unsorted bin
。unsorted bin
在特定的时候会进入small bin
和 large bin
。
非fast bin
的bin
都是用一对bin
指针来描述的,这两个bins
也要看成一个chunk
,然后初始它们的fd
和bk
都指向自身的prev_size
那个位置。比如main_arena+104
这个地方是bin
数组的第一个,然后呢main_arena+104
和main_arena+112
分别就是unsorted bin
的头部,它们本身虽然不是chunk
,但是要理解它们的初始状态还是得看成一个chunk
。所以main_arena+104
和main_arena+112
的初始值就是main_arena+88
。如图:
设置这一个bin
的主要目的是扮演一个缓存层的角色以加快分配和释放的操作,链表中chunk
大小不一定相等且无序排列。
当需要检查unsorted bin
的时候,会遍历整个链表,寻找第一个能满足的chunk
大小切割。如果切割后的大小不足2*SIZE_SZ
,则不会切割,而是将整个堆块返回给用户使用。
一共有62
个,从最小的chunk
开始,公差为SIZE_SZ*2
,双链表管理。它的特点也是跟fast bin一样,单条链表chunk
大小相等,但是它会参与合并,切割。先进先出(FIFO
)的策略。它表示的范围就是4*SIZE_SZ~126*SIZE_SZ
large bin
与small bin
不一样,large bin
表示的是一个范围。一共有63
个(假设下标0~62
),从small bin
最小不能表示的chunk
开始,大到无穷。
它表示的范围类似一个等差数列。
最小的large bin
是small bin
的最小不能表示的大小。
所以large bin
从128*SIZE_SZ
开始。那么下标为0
的large bin
表示的范围就是128*SIZE_SZ~144*SIZE_SZ
(左闭右开),同理下标为1的large bin
表示的范围就是144*SIZE_SZ~160*SIZE_SZ
,以此类推,等到32
的时候就在原来的基础上加32*SIZE_SZ
作为右开区间
它会以二维双向链表进行维护,对于bin
中所有的chunk
,相同大小的chunk
用fd
和bk
指针相连,对于不同大小的chunk
,采用fd_nextsize
和bk_nextsize
指针连接。并且沿着fd_nextsize
指针,chunk
大小递增。
我们之前说过,第一次malloc
的时候,操作系统会给我们0x21000B
的内存,它是作为一个top_chunk
存在的,可以把top_chunk
看成heap
的边界。top_chunk
的地址会被记录在main_arena+88的位置。gdb
中通过p/x main_arena
的命令也可以查看main_arena
的具体结构。
首先用户malloc
请求一个内存,先将请求的内存大小转换成chunk
的大小,通过以下宏定义转换。
大概逻辑就是寻找一个最小能满足的chunksize
作为chunk
大小。
什么是最小能满足呢,我们看看一个size=0x20
的chunk
能有多少区域给用户写:0x20
字节分别为prev_size
,size
,fd
和bk
,prev_size
和size
都不允许写,但是我们可以写fd
和bk
,以及下一个块的prev_size
,前面我们也说过,当这个块没有被free
的时候,它的fd
,bk
以及下一个chunk
的prevsize
位都是可以给用户任意写数据的,所以size=0x20
,我们可以写的数据段为0x18
。最小能满足就是说,当我请求的内存小于等于0x18
的时候,我给你size=0x20
的chunk
,一旦多了就继续加0x10
,也就是2*SIZE_SZ
。这里用了其它宏定义去描述它我们尚且不管,如果用一个函数来实现它的话大概就是这样。
所以在分配的时候我们尽量选择0x18
,0x28
这样刚刚好的数值,这样更容易发生溢出,哪怕溢出一个字节,也能够加以利用。
那么算出了它的chunk_size
之后呢,我们先会判断这个chunk_size
是否<=global_max_fast
,也就是是否在fast bin
范围内。如果在则优先寻找能匹配的fast bin
,如果该size
的fast bin
为空则会寻找small bin
,small bin
会寻找特定size
的chunk
返回。如果small bin
也为空,或者找不到能满足的那就会去large bin
中寻找,同样是最小能满足,找到之后返回或者切割之后返回。还找不到就会去unsorted bin
,unsorted bin
则会找第一个能满足的chunk
并返回或者切割之后返回,unsorted bin
中每遍历一个不满足要求的unsorted bin
就会把该unsorted bin
加到合适的small bin或者large bin
当中。如果切割之后剩余的部分<MINSIZE
,那么则不会切割整个返回。
如果还是找不到,那么就会切割top_chunk
。如果top_chunk
都不能满足请求的大小,则会free
top_chunk
并再一次向操作系统申请新的top_chunk
,这次申请同样还是申请一个0x21000B
的top_chunk
,通常情况下旧的top_chunk
和新申请的top_chunk
物理相邻,那么如果free
旧的top_chunk
进入了一个非fast bin
的链当中,就会被新的top_chunk
合并。
如果一次申请的内存超过0x200000B
,那么就不会在heap段上分配内存,将会使用mmap
在libc
的data
段分配内存。通常利用就是每次分配给分配地址,分配size
没限制那就malloc
一个很大的内存就可以直接泄露libc
的地址。
分配方式到此就讲完了。
接下来我们直接解读一下malloc
的源码。
malloc实际上会直接调用这里的__libc_malloc
函数,然后__libc_malloc
也只不过是一层包装而已,实际上大部分的逻辑都是调用_int_malloc
函数完成的,那么先来分析外面。
第一段
定义了一个hook
函数指针,如果hook!=NULL
则直接调用hook
指向的内容。hook
是为了方便开发者调试的一个东西,比如我自己写了一个malloc
函数想测试它的性能如何,那么我在这里直接让__malloc_hook=my_malloc
就可以直接调用我自己写的malloc函数了。但是同时它也是最容易被劫持的,刚开始我们很多题目都是靠写__malloc_hook
为一个onegadget
,然后调用malloc
去getshell
的。在2.34
版本中,__malloc_hook
同其它大部分的hook
都被删除了。
第二段
通过arena_get
获得一个分配区,arena_get
是个宏定义,定义在arena.c
中,
arena_lookup
定义如下,也是获取分配器指针。
然后加锁,没了,获取分配器指针这一段不是我们主要要分析的,也就不过多去解析了。
第三段
它本身注释也写清楚了,在能够找到一个可用的arena
之前尝试寻找另外一个arena
,我这英文比较飘还请亲见谅。如果arena
找到了但是_int_malloc
居然返回0了,那么就重新寻找另一个分配器再次调用一次_int_malloc
。完了之后呢,要给arena
解锁,然后返回得到的chunk
指针。
由于比较长,为了摆脱水长度的嫌疑就不给看总代码了,需要的自己找glibc
的源码就好了,下面我一段一段分析。
变量定义就不用看了,源码中也都标注出来了,这里最主要就是把用户请求的bytes
转换成最小能满足的chunk size
,然后它的变量名应该是nb
,这个nb
应该是nbytes
的缩写。
这里原来也给注释了,这俩宏定义就是一样的,只不过做一个参数check。
这里还要注意一下那些宏定义:
这三个宏定义在源码中经常能看到,其实它不会改编程序逻辑,只是告诉编译器这个很可能为某个值,就把否的情况作为跳转,真的情况就顺序运行下去,减少程序的跳转,一定程度上可以优化程序运行速度。或者还有一个简单粗暴的办法,你把这三个字符全都去了,不影响代码逻辑。
那么这一段的逻辑就是,如果在分配的时候arena
为空,那就调用sys_malloc
系统调用去请求一个chunk
,然后memset
这个chunk
的数据段。
通常情况下perturb_byte
为假,差不多意思就是如果你没有特殊设置,那么data
段全为0字节,实际情况也确实是这样的。
这里嘛就会判断,你申请的这个nb
是否<=global_max_fast
,如果成立那么就会先在fast bin
中寻找能满足的chunk
,并且一定是完全匹配。它先找到av->fastbinY[idx]
观察是否为0,如果不为0则说明该size
的fast bin
有chunk
,那么就做以下动作:
取出av->fastbinY[idx]
给victim
链表中删除这个victim
,然后重新接回去。
中间有一个check
,就是判断所给chunk
的fastbinY
链上的size
是否=我需要的size
,如果不相等那么直接报错退出。
末尾也有一个check
就是check
各个标志位,一般不会被触发,所以可以理解为fast bin
在分配的时候只有这一个check
,就是那个chunk
的size
一定是等于我申请的size
的,过了就把这个chunk
的指针返回,check
没过报错,如果根本都没取到fast bin
,那么就进行下面的逻辑了。
首先判断它在不在small bin
的范围内,然后取出这个size
的small bin
的最后一个chunk
。它添加是在头部添加的,因此是符合先进先出的,嗯。然后需要判断,如果最后一个chunk!=自身的话,两个情况:要么没初始化arena
,那就初始化,要么它有一个合法的块。如果它指向自身那就没必要做过多的判断了,没有这个大小的small bin
。
这里是调用了malloc_consolidate
函数去初始话这个arena
分配器,该函数逻辑如下,不重点解读。
大致意思就是清空所有arena
的chunk
,可以看到大的if
是判断global_max_fast
是否为0,为0则初始化,调用malloc_init_state
和check_malloc_state
函数初始化堆。否则把所有的fast bin
取出来,先清除它们的标志位,然后扔到unsorted bin
中尝试向前合并或者向后合并。
这个呢,不太能运行到,因为victim==0
的时候,必还没初始化,没初始化到这里就要初始化,初始化了之后victim
又不可能=0
了,所以这里可以理解为就是初始化arena
的。
这里判断了一下victim->bk->fd==victim
。也就是当前这个堆块后一个堆块的fd
指针是否指向victim
,如果不等说明链表被破坏了,那么就报错退出。
然后set_inuse_bit_at_offset
,这个也不难理解,因为现在这个small bin
被取出来了要使用了,所以我得设置后一个块的prev_inuse
为1证明它不是空闲堆块了。然后就是进行unlink
操作,对链表熟悉的同学应该看得懂。如果我要删除victim
元素那应该怎么写逻辑?
在这里呢,我们取链的最后一个chunk
,也就是bin->bk=victim
所以victim->fd=bin
然后前面有一个赋值就是bck=victim->bk
。带进上面的式子就得到了源码里面这样的写法。
然后下面设置main_arena
标志位,一波同样的check
,然后返回内存指针。也就是这里的chunk2mem
,我们这里用的chunk
指针,但是其实我们要返回的应该是chunk
中数据域的指针,所以这里用了这样的宏定义做替换。
然后就是清除data
数据,但是这个一般不会被执行,前面也分析过了,然后返回。这是small bin
找到对应的chunk
的逻辑,如果small bin
还没找到那么接下来应该要去找large bin
了,那么我们接着往下读。
那么如果没有在small bin的范围内呢。
这一步比较耐人寻味。
先获取large bin
的index
,然后如果fast bin
不为空,调用malloc_consolidate
。这一步是什么意思呢?我们前面分析过malloc_consolidate
,如果没有初始化,那么初始化,如果初始化了,那么合并所有的fast bin
。但是这里,都已经有fast bin
存在了,那么堆指定已经初始化了,所以这里执行的逻辑基本只能是合并所有fast chunk
。为什么要在搜索large bin
的时候合并所有fast bin
呢?因为large bin
的匹配方式是最小能满足,然后切割。
考虑这样一种情况:
如果一个0x20
的fast bin
和0x500的large bin
物理相邻。此时我要申请一个0x510
的large bin
,如果此时fast bin
被合并了,那么我就能找到一个0x520
的large bin
并把它返回给用户。如果我不做这一步,那么我找不到0x510
大小的large bin
,我就被迫只能切割top_chunk
了,这样子就浪费了很大的一块内存。
那么这个会不会有多此一举的时候呢,也是会的,还是刚刚那种情况,假如我申请0x500
的chunk
。这样子合并之后又会被切割,那么这样子,之前的合并就显得多次一举了,但是它只是浪费了一部分时间开销,内存分配上还是执行上面的逻辑比较占优势。所以这一步可以理解为空间上的优化,但是牺牲了小部分时间。看不来的话可以多看看上面举得例子。
这里开始逻辑都混合起来了,不仅有large bin
,unsorted bin,切割top_chunk
,还有系统调用重新分配top_chunk
。
首先外面套了一个while(1)
,然后里面有一个while
循环,判断内容就是取得最后一个unsorted chunk
是否与这个bin
相等,这里大概就是开始遍历unsorted chunk
了。
然后这里又有一个check
。victim->size <= 2 * SIZE_SZ
就是说chunk
的size
小于等于0x10
,victim->size > av->system_mem
就是说我一个块的size
居然比我系统调用申请来的内存都多,那这肯定不合理啊,所以任意满足一个就会报错了。
这里有四个条件:
然后接下来就是切割victim
,切割出一块刚刚好大小的chunk
给用户,切割出来的chunk
作为新的av->last_remainder
,注意如果切割剩余的chunk size
不符合small bin
的大小,则fd_nextsize
和bk_nextisze
会被清空,因为剩余的的chunk
会被放到unsorted bin
当中。
然后设置victim
的size
为nb|PREV_INUSE
,然后判断是否为主分配加上标记。
然后把remainder的prev_inuse
位设置为1,因为前一个块已经被拿走使用了,所以这个prev_inuse
要设置为1。
然后因为remainder
的size
发生了改表,所以下一个chunk
的prev_size
也要相应地改变。
剩下的前面类似的都讲过就不赘述了。
否则会先取出这最后一个chunk
,把它移除unsorted bin
。如果取出的这个size
刚好等于这个nb
,那就说明这个块一定是最合适的,直接把它返回了,不要迟疑。如果并不是最合适呢,那么先会判断一下它是否属于small bin
,属于则执行以下的逻辑,把bck
对应bin
的bk
,fwd
为对应bin
的fd
,也就是找到那一对bin
,fwd
在前,bck
在后。就没了,预计等会就要用这些指针把chunk
链进去了。
如果不是small bin
,那就得进large bin
了,要进large bin
。这里要知道,large bin
可是所有bin
当中最复杂的bin
了,一个chunk
四个指针,一对bin
管理一个二维双向链表,fd
,bk
指针与相同大小的chunk
连接,fd_nextsize
和bk_nextsize
与不同大小的chunk
连接。
然后呢,虽然fd
和bk
是连接相同大小的chunk
,但是那一对bin还是相当于是fd
和bk
字段。除了表头以外,其余的不同大小的chunk都是靠fd_nextsize
和bk_nextsize
的。并且沿着bk_nextsize
,chunksize
递增。也就是说av->bin[index]->bk
是第一个chunk
,并且size
最小,然后通过bk_nextsize
字段一直连接到av->bin[index]->fd
,反向同理。还有一点需要注意:large bin
所在的chunk
并不与chunk
双向连接。
这里给出一张large bin
的结构图,看看能不能帮助理解一下
那么这里的bck
指的是bin
所在的chunk
,fwd
指的是最大的这个chunk
。
bck->bk
指的就是图上的n号chunk
,也是这个large bin
中最小的那个chunk
,如果拿出来的unsorted bin
它比最小的chunk
还要小,那就已经可以确定插入在哪了,就不用做下面的循环再看看它在哪了。然后就是一个链表的插入操作,这里要注意的是,bin
所在的chunk
只有fd
和bk指针,而其它chunk
都是fd_nextsize
和bk_nextsize
连接的。我们只需要先在最大块和最小块之间插入,然后把bin->bk
指向victim
即可。
那么我们大概自己写一下操作看看与源码是否一致。首先不考虑bin,只考虑链表的情况下,我们先找到最大块和最小块。
跟上面大致一样,只不过它这里fwd
的值是那个large bin
的chunk
,直接通过fd
指针也能直接找到最大的chunk
。所以我后面的主要代码应该把fwd
改成fwd->fd
就跟上面一模一样了。
如果不是,那就接着往bk_nextsize
这个指针上面找,找到大于等于的chunk
为止。然后如果等于,就只需要用fd
和bk
指针与相等大小的chunk
相连,如果没有相等,就得在fd_nextsize
和bk_nextsize
方向上插入,然后fd
和bk
都默认指向自己。这个我就不演试了,跟前面那个基本是一样的。
这个就很简单了,就是一个插入操作,前面既然已经找到了插入的位置,这里一气呵成直接解决了。然后这里还有一个遍历unsorted bin
的最大值,一次最多遍历10000
个unsorted bin
,这个也可以理解,如果我一次产生了很多的unsorted bin
,然后我一次malloc
,那边一直在循环搞这个unsorted bin
,迟迟就没分配内存回来所以这里设定一个最大值。
到了这里,对unsorted bin
的遍历就结束了。
这边就看这个最小能满足的nb
是否在small bin
的范围内。不在则执行,其实如果在的话,那前面有一个small bin
的范围判断,如果small bin
范围那,idx
就是small bin
,不在则是large bin
的idx
。small bin
之前已经判断过一遍了,并且判断策略也跟之前不一样,所以这里加一个!in_small_bin_range
的判断还是很有必要的。
来看下面的if语句,两个条件。
同时满足那么就可能要取这一块chunk来分配了,正如注释所说,如果bin为空或者最大的chunk还是比较小,那就跳过这个逻辑。然后victim = victim->bk_nextsize
,这里victim
是最大块,最大块的bk_nextsize
就是最小块,这里应该也是尽量寻找最小能满足的块。正如循环所描述,如果victim
的chunk size
比我所需的最小能满足的chunk size
nb
还小,那就去寻找比他大的,因为是递增,所以能保证在chunk
当中我一定会找到一个最小能满足的chunk
。
这里解释一下两个最小能满足的意思:
首先nb
是指用户需要的最小能满足的块的size
,比如我只需要1个字节,但是我最小的chunk size
都是0x20
了,0x20
的chunk
就是对用户最小能满足的chunk size
了。
如果能找到size=nb
的块,当然是最好不过了,但是现实往往不会那么顺利,比如我只有一个0x30
的块,如果我只有0x30
而没有0x20
的块,那么0x30
就是我所有free
块当中的最小能满足,其实这里nb
应该叫最优能满足,但是我还是习惯这么叫了hhh。
然后呢找到这个之后就unlink
这个块,把它从链中删除,拿出来之后进行一个判断,如果切割之后的块小于MINSIZE,那就不切割了,直接把它物理相邻的下一个快prev_inuse
位设1,这个块就直接返回给用户了。否则就是切割,设置各种东西,这个前面有差不多的代码,我们主要看看剩下的块去哪里了,很明显,重新链入unsorted bin
了。后面有一个check
,如果unsorted bin->fd->bk!=unsorted bin
,那么报错退出。这里需要注意,它只检测了unsorted bin->fd->bk
是否等于那个unsorted bin
,对于堆块来说我就是只检测了bk
指针,这意味着fd
指针如果修改为任意值不会在这里被检测到,这是一个利用小技巧,也只有你读过源码后才能好好理解这个unsorted bin attack
了。然后如果剩余大小不在small bin
范围内把nextsize
指针全部清空,其它就是正常返回了。如果被切割的剩下chunk
不在small bin
范围内,就会清空它的fd_nextsize
和bk_nextsize
。因为它要回到unsorted bin
里面,这两个字段就没什么用了,就会被清空。
我们来讲一讲arena
的binmap
结构,这个用于快速检索一个bin
是否为空,每一个bit
表示对应的bin
中是否存在空闲chunk
,虽然不知道为什么前面没有用到。这一段就是说,如果large bin
搜索完了都没有找到合适的chunk
,那么就去下一个idx
里面寻找,这很合理。然后一共有4个int,每个int
32位表示一块map
,一共表示128
位。
我们来看看两个条件
满足其一就看看别的index
。
然后如果说map==0
,说明这整个block
都没有空闲块,就直接跳过,不为0则退出去执行下面的操作,如果超过了block
的总数,那就说明unsorted bin
和large bin
中也没有合适的chunk
,那我们就切割top_chunk
了,这里用了一个goto
跳转,我们后面分析。
此时我已经找到了一个合适的block
,然后就是看block
的各个位了。从低位开始,如果检查到map
那一位对应为0就找下一位,我们前面提到bk为large bin
的最小块,所以先考虑它,当然不能说map
里面说这里有它就有,我还得自己判断一下这个bin
里面是不是真的有,如果没有(bin->bk==bin
),那么我就要及时把标志位清除然后bit<<1
去寻找下一个index
。
如果它确实有chunk
呢?然后其实它还是跟前面一样的,在large bin
中找到chunk
的处理方式,unlink
,切割,判断,设置标志位,切割后及时更新last_remainder
,这里就是一个large bin
的遍历。
还要讲一下的就是这个check
,依旧是对unsorted bin
的一个check
,判断第一个unsorted chunk
的bk
指针是否指向unsorted bin
的位置。这里需要把割剩下的chunk
重新放回unsorted bin
。至此整个unsorted bin
和large bin
的分配就讲完了。
这一步比较简单,就是说先从av->top
拿到top_chunk
的地址。判断大小尝试切割,如果不能切割,它也不会尽量去麻烦操作系统,先调用malloc_consolidate
去合并所有的fast bin
里面的chunk
。然后合并之后接着步入之前的循环,重新找一次small bin
large bin
unsorted bin
,因为现在可能已经有合适的chunk
了对吧。
然后如果还是没有合适的呢?就会进入这里的else
,调用sysmalloc
去分配内存,一次还是分配0x21000
的chunk
作为新的top_chunk
,原来的top_chunk
将会被free
,一般来说如果你没有改过top_chunk
的size
,那么新的和旧的top_chunk
将会是物理相邻,如果free
的top_chunk
不在fast bin
范围内,那就会和新的top_chunk
发生合并。那么这一整个malloc
源码就解读完了,我们来做一下总结。
检查是否设置了malloc_hook
,若设置了则跳转进入malloc_hook
,若未设置则获取当前的分配区,进入int_malloc
函数。
如果当前的分配区为空,则调用sysmalloc
分配空间,返回指向新chunk
的指针,否则进入下一步。
若用户申请的大小在fast bin
的范围内,则考虑寻找对应size
的fast bin chunk
,判断该size
的fast bin
是否为空,不为空则取出第一个chunk
返回,否则进入下一步。
如果用户申请的大小符合small bin
的范围,则在相应大小的链表中寻找chunk
,若small bin
未初始化,则调用malloc_consolidate
初始化分配器,然后继续下面的步骤,否则寻找对应的small bin
的链表,如果该size
的small bin
不为空则取出返回,否则继续下面的步骤。如果申请的不在small bin
的范围那么调用malloc_consolidate
去合并所有fast bin
并继续下面的步骤。
用户申请的大小符合large bin
或small bin
链表为空,开始处理unsorted bin
链表中的chunk
。在unsorted bin
链表中查找符合大小的chunk
,若用户申请的大小为small bin
,unsorted bin
中只有一块chunk并指向last_remainder
,且chunk size
的大小大于size+MINSIZE
,则对当前的chunk
进行分割,更新分配器中的last_remainder
,切出的chunk
返回给用户,剩余的chunk
回unsorted bin
。否则进入下一步。
将当前的unsorted bin
中的chunk
取下,若其size
恰好为用户申请的size
,则将chunk
返回给用户。否则进入下一步
获取当前chunk size
所对应的bins数组中的头指针。(large bin
需要保证从大到小的顺序,因此需要遍历)将其插入到对应的链表中。如果处理的chunk的数量大于MAX_ITERS
则不在处理。进入下一步。
如果用户申请的空间的大小符合large bin
的范围或者对应的small bin链表为空且unsorted bin
链表中没有符合大小的chunk
,则在对应的large bin
链表中查找符合条件的chunk
(即其大小要大于用户申请的size
)。若找到相应的chunk
则对chunk
进行拆分,返回符合要求的chunk
(无法拆分时整块返回)。否则进入下一步。
根据binmap
找到表示更大size
的large bin
链表,若其中存在空闲的chunk
,则将chunk
拆分之后返回符合要求的部分,并更新last_remainder
。否则进入下一步。
若top_chunk
的大小大于用户申请的空间的大小,则将top_chunk
拆分,返回符合用户要求的chunk
,并更新last_remainder
,否则进入下一步。
若fast bin
不为空,则调用malloc_consolidate
合并fast bin
,重新回到第四步再次从small bin
搜索。否则进入下一步。
调用sysmalloc
分配空间,free top chunk
返回指向新chunk
的指针。
若_int_malloc
函数返回的chunk
指针为空,且当前分配区指针不为空,则再次尝试_int_malloc
对chunk
指针进行检查,主要检查chunk
是否为mmap
,且位于当前的分配区内。
那我们现在开始解读一下free
的源码
free
函数也是直接调用这里的__libc_free
函数完成chunk
的释放的操作的。
跟malloc
一样,先读取__free_hook
看看是否为空,如果为空则直接由free_hook
指向的函数代为执行free
,这里也是我们经常劫持的钩子函数,而且free_hook
劫持起来比malloc_hook
困难。但是一旦劫持成功也会很方便,就是说malloc
_hook函数我只能写one_gadget
,而一旦条件苛刻那么就还得调栈啊之类的一些操作。劫持到了free_hook
我们就直接写system
函数,然后free
一个内容为/bin/sh
的堆块就能稳定get shell
。
然后执行free(NULL)
无任何效果,直接返回。
将传入的指针转换为chunk
的指针,因为用户得到的指针其实是&chunk->fd
,这里改为chunk
的指针。然后这里需要寻找这个堆块的分配器,看看这个堆块是从哪里分配出来的。之后就是调用_int_free
函数去真正释放chunk
同样我们分成几段来讲解,总源码也不直接给了。
首先变量定义是差不多的,然后这里进行了一项check
。
check
不通过就会用malloc_printerr
打印错误信息,然后处理锁上的一些内容。
又有一个check
然后它这里需要check
一下这个free
的chunk
是正在使用的,怎么check
呢,那就肯定是下一个chunk
的prev_inuse
位为0啦,具体的实现函数是这样的。
多的也不说了,相信都能理解的,根据自身指针和自身大小就可以很容易知道下一个chunk
的位置,然后检测一下prev_inuse
位判断我当前chunk
是否被使用。
这个大条件很明显就是判断这个free
的chunk
是否为fast bin
,后面又判断且这个chunk
的后一个chunk
不为top_chunk
,虽然根据自己的经验好像判断后一个不为top_chunk
没什么意义。
然后满足的话就是一个check
,判断size
是否小于MINSIZE
或者是size>=system_mem
。就是排除一些不合理的情况然后会重新尝试拿分配器的锁然后再做一个判断,如果刚刚那个条件还是成立的话那就说明size
真的被改成了非法数值,那就报错退出。
如果进来了但是没有执行报错呢,说明可能多线程有点问题,就释放这个arena
的锁,这里我多线程不是很好也不知道该如何解释,但是这个应该不是主要分析的,咱们平时做题基本也不会遇到多线程编程的题目。
它先执行了一个free_perturb
函数
其实跟前面malloc
那个函数差不多,就是看你有没有设置那个值,如果设置了就在free
之前把堆块进行memset
清空,但是不一样的是,perturb
中memset
第二个参数是要根据你设置的值再异或一个0xff
的。
然后是用set_fastchunks(av)
宏定义去初始化fast bin
。之后根据size
算出下标找到对应的fast bin
,之后就应该把这个free
的chunk
链入fast bin
里面。这里还有一个check
,如果bin
顶部的那个chunk
和这次要free
的chunk
相等的话,就报错退出,这也就是我们熟知的double free
漏洞了。那么说到double free
我们来看看double free
能造成什么后果。
假如我要free
的chunk
是A,我第一次free
A,bin
为空,链入其中,fast bin
中多了一个A。第二次free
A,A再次被加入fast bin
中,然后会导致产生一个自己指向自己的指针。fast bin
中的情况就是两个A,A->A
。此时我申请一个和A一样大的chunk
,A被申请走,fast bin
中还剩下一个A,但是此时用户手里有一个A,fast bin
中也有一个A。用户可以直接编辑A的指针域,比如我让它指向了got
表中的free
函数。那么此时fast bin
中的情况就是A->free@got
。然后我再次申请和A一样大小的chunk
,A被取出来,fast bin
中剩下free@got
。那么我第三次申请就得到了在free@got
那边的chunk
,然后假如我偷偷修改一下free@got
为system
,那就能轻松get shell
了。这里可以看到,free@got
这个指针我是能任意编辑的,也就是说我想申请到哪都不是问题,这样我就能任意地址写了。
你可能有点疑问,我free
了2个堆块,怎么出来3个堆块。那我们想想,如果遍历一个单链表,你怎么判断结尾?咱们一般都是判断x->next!=NULL
但是原来那边A的next
指针确实是NULL
,但是你把指针改过了,就会认为fast bin
还没有空。
但是实际情况往往没有那么简单,前面我们说过了,malloc
取出一个fast bin
的chunk
的时候,会判断它chunk
的size
是否等于当前我要申请的size
,如果不是就会报错退出。所以double free
在利用的时候还是没那么"任意"的,而且这里也不允许你直接double free
,但是直接不能不代表不能间接double free
,如果我先free
一个A,free
一个B之后再free
一个A,那么我再申请到A的时候修改A的指针域一样可以劫持,并且可以绕过这里的检测。
然后如果过了检测,那就将这个chunk
假如fast bin
的顶部。这里就是一个单链表的插入,具体自己写的话应该是这样
源码中与这个略微有点不一样,效果是一样的。所以也可以看出来这个是后进先出,只在fast bin
的一端插入删除,跟栈差不多。
末尾还有一个check
,但是这个check
通常不会被触发,有会的师傅也请帮帮,因为是真的不知道hhh。
这里分了两种情况,如果chunk
是mmap
分配的话那就调用munmap_chunk
函数去free
这个chunk
,这个情况不属于我们主要要分析的内容,所以那边的else分支我们跳过,只分析非mmap
分配的chunk
。
这我熟,就是在用一个分配器的时候先加锁,用完了释放就行了。这主要是为了防止多个线程之间发生竞争,虽然我看过多线程是说有独立的堆空间,但是假设堆块正常使用,正常分配,不去做指针的越界操作,那么同一个分配器分配给不同的线程用也是完全可行的,我只拿到我自己用的指针在合法范围内用一样不会造成竞争的现象。以上出于我自己的大胆推测,如有不对还请指正。
好,我们来看第一个check
。
top_chunk
和其它bin
一样,都是出于待分配状态,top_chunk
永远不会被使用。因为如果切割了top_chunk
,top_chunk
马上会下移,所以正常分配是绝对不会分配到现在的top_chunk
指针的,所以当你尝试free
top_chunk
的时候,就会报这个错。
第二个check
第三个check
第四个check
这里就提到了我们之前讲到的一个问题,我一个堆块怎么向前合并,也就是如何准确地找到前一个堆块。向前合并的时候我先判断一下前一个chunk
是否被使用,如果不被使用那么就要和前面的chunk
合并。这里我就可以通过prev_size
位去找到这个堆块,用自身指针减去prev_size
就得到了前一个chunk
的指针。
这里需要注意,因为前面那个chunk
可能在large bin
,small bin
或者是unsorted bin
的链表当中,那么我就得先把它从这些bin
里面解脱出来,也就是unlink
操作,合并之后成为一个新的chunk
然后再加入unsorted bin
。
这里向前合并的操作呢应该也没有很复杂,就是改个size
然后把free
的指针指到前面去,相当于是要free
合并后的chunk
了。然后unlink
把前面的chunk
在bin
中删除。
这里有一个特判后面的chunk
是否为top_chunk
,top_chunk
的情况就非常简单,因为合并的chunk
并不在任何bin
里面,top_chunk
后面也没有堆块不需要设置标志位。只需要改一下top_chunk
的size
,然后改一下指针,就完了。
那么我们分析不是top_chunk
的情况,首先我先获取一下下一个chunk
的是否被使用,如果没有被使用,那么把后面的chunk
就先unlink
了,然后自己chunk
的size
加上后面那个chunk
的size
成为新的chunk
。否则,我就直接清空后面chunk
的prev_inuse
位,就是表示我这个chunk
已经不被使用了。好了之后那就是把这个chunk
链入unsorted bin
。这里还有一个check
,跟malloc
那个一样,,后面基本也都一样了,就不细讲了,链入,设置标记为,设置prev_size
,如果不在small chunk
的大小还会清空fd_nextsize
和bk_nextsize
指针,如果不理解可以往上翻一下看看。目录标题为“最后一小块”,那边是切割bin
的时候设置的。
如注释所说,如果我一次释放了一个很大的空间(0x10000B
),那么会调用malloc_consolidate
合并所有fast bin
,如果进程所在的分配区是主分配区并且可以收缩内存的话,就调用systrim
收缩内存,否则就获得非主分配区的heap_info
指针,调用heap_trim
收缩heap
。因为我们认为一次free
很大的空间那么操作系统可以适当回收点内存了,大不了等你不够就再像我要嘛,资源的合理配置,很合理。
至此,free
部分的源码也都分析完啦。
就不向malloc
一样描述具体步骤了,因为本身逻辑没有很复杂。主要就是free
非fast bin chunk
的向前合并或者向后合并。
free
在fast bin
范围内的chunk
,直接将chunk
链入fast bin
,free
非fast bin
范围的chunk
视具体情况向前合并或者向后合并然后加入unsorted bin
,如果一次free
太多的空间有可能会被操作系统回收。
源码分析也就完结撒花了,后续可能会出heap的各种利用方式和利用手段,或者局部分析其它版本的libc。
顺带宣传一下菜鸡的博客,有师傅想交换友链的联系我哦!
#define SIZE_BITS (PREV_INUSE | IS_MMAPPED | NON_MAIN_ARENA)
/
*
Get size, ignoring use bits
*
/
#define chunksize(p) ((p)->size & ~(SIZE_BITS))
#define SIZE_BITS (PREV_INUSE | IS_MMAPPED | NON_MAIN_ARENA)
/
*
Get size, ignoring use bits
*
/
#define chunksize(p) ((p)->size & ~(SIZE_BITS))
#define MINSIZE 4*SIZE_SZ
#define MINSIZE 4*SIZE_SZ
struct chunk{
size_t prev_size;
size_t size;
chunk
*
fd;
chunk
*
bk;
/
/
因为链式管理还有可能是双向链表
}
struct chunk{
size_t prev_size;
size_t size;
chunk
*
fd;
chunk
*
bk;
/
/
因为链式管理还有可能是双向链表
}
x
=
malloc(
0x10
);
y
=
malloc(
0x10
);
free(x);
free(y);
z
=
malloc(
0x10
);
w
=
malloc(
0x10
);
x
=
malloc(
0x10
);
y
=
malloc(
0x10
);
free(x);
free(y);
z
=
malloc(
0x10
);
w
=
malloc(
0x10
);
起下标 | 止下标 | 公差 |
---|---|---|
0 | 31 | 16*SIZE_SZ |
32 | 47 | 32*SIZE_SZ |
48 | 55 | 64*SIZE_SZ |
56 | 59 | 128*SIZE_SZ |
60 | 61 | 256*SIZE_SZ |
62 | 62 | ∞ |
#define request2size(req) \
(((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK < MINSIZE) ? \
MINSIZE : \
((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK) & ~MALLOC_ALIGN_MASK)
#define request2size(req) \
(((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK < MINSIZE) ? \
MINSIZE : \
((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK) & ~MALLOC_ALIGN_MASK)
size_t request2size(size_t req){
chunk_size
=
SIZE_SZ
*
4
;
while
(chunk_size<req)chunk_size
+
=
2
*
SIZE_SZ;
return
chunk_size;
}
size_t request2size(size_t req){
chunk_size
=
SIZE_SZ
*
4
;
while
(chunk_size<req)chunk_size
+
=
2
*
SIZE_SZ;
return
chunk_size;
}
/
*
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
Public wrappers.
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
*
/
void
*
__libc_malloc (size_t bytes)
{
mstate ar_ptr;
void
*
victim;
void
*
(
*
hook) (size_t, const void
*
)
=
atomic_forced_read (__malloc_hook);
if
(__builtin_expect (hook !
=
NULL,
0
))
return
(
*
hook)(bytes, RETURN_ADDRESS (
0
));
arena_get (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
/
*
Retry with another arena only
if
we were able to find a usable arena
before.
*
/
if
(!victim && ar_ptr !
=
NULL)
{
LIBC_PROBE (memory_malloc_retry,
1
, bytes);
ar_ptr
=
arena_get_retry (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
}
if
(ar_ptr !
=
NULL)
(void) mutex_unlock (&ar_ptr
-
>mutex);
assert
(!victim || chunk_is_mmapped (mem2chunk (victim)) ||
ar_ptr
=
=
arena_for_chunk (mem2chunk (victim)));
return
victim;
}
/
*
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
Public wrappers.
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
*
/
void
*
__libc_malloc (size_t bytes)
{
mstate ar_ptr;
void
*
victim;
void
*
(
*
hook) (size_t, const void
*
)
=
atomic_forced_read (__malloc_hook);
if
(__builtin_expect (hook !
=
NULL,
0
))
return
(
*
hook)(bytes, RETURN_ADDRESS (
0
));
arena_get (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
/
*
Retry with another arena only
if
we were able to find a usable arena
before.
*
/
if
(!victim && ar_ptr !
=
NULL)
{
LIBC_PROBE (memory_malloc_retry,
1
, bytes);
ar_ptr
=
arena_get_retry (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
}
if
(ar_ptr !
=
NULL)
(void) mutex_unlock (&ar_ptr
-
>mutex);
assert
(!victim || chunk_is_mmapped (mem2chunk (victim)) ||
ar_ptr
=
=
arena_for_chunk (mem2chunk (victim)));
return
victim;
}
void
*
(
*
hook) (size_t, const void
*
)
=
atomic_forced_read (__malloc_hook);
if
(__builtin_expect (hook !
=
NULL,
0
))
return
(
*
hook)(bytes, RETURN_ADDRESS (
0
));
void
*
(
*
hook) (size_t, const void
*
)
=
atomic_forced_read (__malloc_hook);
if
(__builtin_expect (hook !
=
NULL,
0
))
return
(
*
hook)(bytes, RETURN_ADDRESS (
0
));
arena_get (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
arena_get (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
#define arena_get(ptr, size) do { \
arena_lookup (ptr); \
arena_lock (ptr, size); \
}
while
(
0
)
#define arena_get(ptr, size) do { \
arena_lookup (ptr); \
arena_lock (ptr, size); \
}
while
(
0
)
#define arena_lookup(ptr) do { \
void
*
vptr
=
NULL; \
ptr
=
(mstate) tsd_getspecific (arena_key, vptr); \
}
while
(
0
)
#define arena_lookup(ptr) do { \
void
*
vptr
=
NULL; \
ptr
=
(mstate) tsd_getspecific (arena_key, vptr); \
}
while
(
0
)
/
*
Retry with another arena only
if
we were able to find a usable arena
before.
*
/
if
(!victim && ar_ptr !
=
NULL)
{
LIBC_PROBE (memory_malloc_retry,
1
, bytes);
ar_ptr
=
arena_get_retry (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
}
if
(ar_ptr !
=
NULL)
(void) mutex_unlock (&ar_ptr
-
>mutex);
assert
(!victim || chunk_is_mmapped (mem2chunk (victim)) ||
ar_ptr
=
=
arena_for_chunk (mem2chunk (victim)));
return
victim;
/
*
Retry with another arena only
if
we were able to find a usable arena
before.
*
/
if
(!victim && ar_ptr !
=
NULL)
{
LIBC_PROBE (memory_malloc_retry,
1
, bytes);
ar_ptr
=
arena_get_retry (ar_ptr, bytes);
victim
=
_int_malloc (ar_ptr, bytes);
}
if
(ar_ptr !
=
NULL)
(void) mutex_unlock (&ar_ptr
-
>mutex);
assert
(!victim || chunk_is_mmapped (mem2chunk (victim)) ||
ar_ptr
=
=
arena_for_chunk (mem2chunk (victim)));
return
victim;
INTERNAL_SIZE_T nb;
/
*
normalized request size
*
/
unsigned
int
idx;
/
*
associated
bin
index
*
/
mbinptr
bin
;
/
*
associated
bin
*
/
mchunkptr victim;
/
*
inspected
/
selected chunk
*
/
INTERNAL_SIZE_T size;
/
*
its size
*
/
int
victim_index;
/
*
its
bin
index
*
/
mchunkptr remainder;
/
*
remainder
from
a split
*
/
unsigned
long
remainder_size;
/
*
its size
*
/
unsigned
int
block;
/
*
bit
map
traverser
*
/
unsigned
int
bit;
/
*
bit
map
traverser
*
/
unsigned
int
map
;
/
*
current word of binmap
*
/
mchunkptr fwd;
/
*
misc temp
for
linking
*
/
mchunkptr bck;
/
*
misc temp
for
linking
*
/
const char
*
errstr
=
NULL;
checked_request2size (bytes, nb);
/
*
There are no usable arenas. Fall back to sysmalloc to get a chunk
from
mmap.
*
/
if
(__glibc_unlikely (av
=
=
NULL))
{
void
*
p
=
sysmalloc (nb, av);
if
(p !
=
NULL)
alloc_perturb (p, bytes);
return
p;
}
INTERNAL_SIZE_T nb;
/
*
normalized request size
*
/
unsigned
int
idx;
/
*
associated
bin
index
*
/
mbinptr
bin
;
/
*
associated
bin
*
/
mchunkptr victim;
/
*
inspected
/
selected chunk
*
/
INTERNAL_SIZE_T size;
/
*
its size
*
/
int
victim_index;
/
*
its
bin
index
*
/
mchunkptr remainder;
/
*
remainder
from
a split
*
/
unsigned
long
remainder_size;
/
*
its size
*
/
unsigned
int
block;
/
*
bit
map
traverser
*
/
unsigned
int
bit;
/
*
bit
map
traverser
*
/
unsigned
int
map
;
/
*
current word of binmap
*
/
mchunkptr fwd;
/
*
misc temp
for
linking
*
/
mchunkptr bck;
/
*
misc temp
for
linking
*
/
const char
*
errstr
=
NULL;
checked_request2size (bytes, nb);
/
*
There are no usable arenas. Fall back to sysmalloc to get a chunk
from
mmap.
*
/
if
(__glibc_unlikely (av
=
=
NULL))
{
void
*
p
=
sysmalloc (nb, av);
if
(p !
=
NULL)
alloc_perturb (p, bytes);
return
p;
}
#define request2size(req) \
(((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK < MINSIZE) ? \
MINSIZE : \
((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK) & ~MALLOC_ALIGN_MASK)
/
*
Same,
except
also perform argument check
*
/
#define checked_request2size(req, sz) \
if
(REQUEST_OUT_OF_RANGE (req)) { \
__set_errno (ENOMEM); \
return
0
; \
} \
(sz)
=
request2size (req);
#define request2size(req) \
(((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK < MINSIZE) ? \
MINSIZE : \
((req)
+
SIZE_SZ
+
MALLOC_ALIGN_MASK) & ~MALLOC_ALIGN_MASK)
/
*
Same,
except
also perform argument check
*
/
#define checked_request2size(req, sz) \
if
(REQUEST_OUT_OF_RANGE (req)) { \
__set_errno (ENOMEM); \
return
0
; \
} \
(sz)
=
request2size (req);
__glibc_unlikely(exp)表示exp很可能为假。
__glibc_likely(exp)表示exp很可能为真。
__builtin_expect(exp,value)表示exp
=
=
value大概率成立
__glibc_unlikely(exp)表示exp很可能为假。
__glibc_likely(exp)表示exp很可能为真。
__builtin_expect(exp,value)表示exp
=
=
value大概率成立
/
*
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
Testing support
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
*
/
static
int
perturb_byte;
static void alloc_perturb (char
*
p, size_t n)
{
if
(__glibc_unlikely (perturb_byte))
memset (p, perturb_byte ^
0xff
, n);
}
/
*
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
Testing support
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
*
/
static
int
perturb_byte;
static void alloc_perturb (char
*
p, size_t n)
{
if
(__glibc_unlikely (perturb_byte))
memset (p, perturb_byte ^
0xff
, n);
}
#define get_max_fast() global_max_fast
#define fastbin_index(sz) \
((((unsigned
int
) (sz)) >> (SIZE_SZ
=
=
8
?
4
:
3
))
-
2
)
#define fastbin(ar_ptr, idx) ((ar_ptr)->fastbinsY[idx])
if
((unsigned
long
) (nb) <
=
(unsigned
long
) (get_max_fast ()))
{
idx
=
fastbin_index (nb);
mfastbinptr
*
fb
=
&fastbin (av, idx);
mchunkptr pp
=
*
fb;
do
{
victim
=
pp;
if
(victim
=
=
NULL)
break
;
}
while
((pp
=
catomic_compare_and_exchange_val_acq (fb, victim
-
>fd, victim))
!
=
victim);
if
(victim !
=
0
)
{
if
(__builtin_expect (fastbin_index (chunksize (victim)) !
=
idx,
0
))
/
/
在malloc的时候检查了fastbin的size发现不对
{
errstr
=
"malloc(): memory corruption (fast)"
;
errout:
malloc_printerr (check_action, errstr, chunk2mem (victim), av);
return
NULL;
}
check_remalloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
}
#define get_max_fast() global_max_fast
#define fastbin_index(sz) \
((((unsigned
int
) (sz)) >> (SIZE_SZ
=
=
8
?
4
:
3
))
-
2
)
#define fastbin(ar_ptr, idx) ((ar_ptr)->fastbinsY[idx])
if
((unsigned
long
) (nb) <
=
(unsigned
long
) (get_max_fast ()))
{
idx
=
fastbin_index (nb);
mfastbinptr
*
fb
=
&fastbin (av, idx);
mchunkptr pp
=
*
fb;
do
{
victim
=
pp;
if
(victim
=
=
NULL)
break
;
}
while
((pp
=
catomic_compare_and_exchange_val_acq (fb, victim
-
>fd, victim))
!
=
victim);
if
(victim !
=
0
)
{
if
(__builtin_expect (fastbin_index (chunksize (victim)) !
=
idx,
0
))
/
/
在malloc的时候检查了fastbin的size发现不对
{
errstr
=
"malloc(): memory corruption (fast)"
;
errout:
malloc_printerr (check_action, errstr, chunk2mem (victim), av);
return
NULL;
}
check_remalloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
}
/
*
Properties of chunks recycled
from
fastbins
*
/
static void
do_check_remalloced_chunk (mstate av, mchunkptr p, INTERNAL_SIZE_T s)
{
INTERNAL_SIZE_T sz
=
p
-
>size & ~(PREV_INUSE | NON_MAIN_ARENA);
if
(!chunk_is_mmapped (p))
{
assert
(av
=
=
arena_for_chunk (p));
if
(chunk_non_main_arena (p))
assert
(av !
=
&main_arena);
else
assert
(av
=
=
&main_arena);
}
do_check_inuse_chunk (av, p);
/
*
Legal size ...
*
/
assert
((sz & MALLOC_ALIGN_MASK)
=
=
0
);
assert
((unsigned
long
) (sz) >
=
MINSIZE);
/
*
...
and
alignment
*
/
assert
(aligned_OK (chunk2mem (p)));
/
*
chunk
is
less than MINSIZE more than request
*
/
assert
((
long
) (sz)
-
(
long
) (s) >
=
0
);
assert
((
long
) (sz)
-
(
long
) (s
+
MINSIZE) <
0
);
}
/
*
Properties of chunks recycled
from
fastbins
*
/
static void
do_check_remalloced_chunk (mstate av, mchunkptr p, INTERNAL_SIZE_T s)
{
INTERNAL_SIZE_T sz
=
p
-
>size & ~(PREV_INUSE | NON_MAIN_ARENA);
if
(!chunk_is_mmapped (p))
{
assert
(av
=
=
arena_for_chunk (p));
if
(chunk_non_main_arena (p))
assert
(av !
=
&main_arena);
else
assert
(av
=
=
&main_arena);
}
do_check_inuse_chunk (av, p);
/
*
Legal size ...
*
/
assert
((sz & MALLOC_ALIGN_MASK)
=
=
0
);
assert
((unsigned
long
) (sz) >
=
MINSIZE);
/
*
...
and
alignment
*
/
assert
(aligned_OK (chunk2mem (p)));
/
*
chunk
is
less than MINSIZE more than request
*
/
assert
((
long
) (sz)
-
(
long
) (s) >
=
0
);
assert
((
long
) (sz)
-
(
long
) (s
+
MINSIZE) <
0
);
}
#define NBINS 128
#define NSMALLBINS 64
#define SMALLBIN_WIDTH MALLOC_ALIGNMENT
#define SMALLBIN_CORRECTION (MALLOC_ALIGNMENT > 2 * SIZE_SZ)
#define MIN_LARGE_SIZE ((NSMALLBINS - SMALLBIN_CORRECTION) * SMALLBIN_WIDTH)
#define in_smallbin_range(sz) \
((unsigned
long
) (sz) < (unsigned
long
) MIN_LARGE_SIZE)
#define smallbin_index(sz) \
((SMALLBIN_WIDTH
=
=
16
? (((unsigned) (sz)) >>
4
) : (((unsigned) (sz)) >>
3
))\
+
SMALLBIN_CORRECTION)
#define bin_at(m, i) \
(mbinptr) (((char
*
) &((m)
-
>bins[((i)
-
1
)
*
2
])) \
-
offsetof (struct malloc_chunk, fd))
#define first(b) ((b)->fd)
#define last(b) ((b)->bk)
/
*
If a small request, check regular
bin
. Since these
"smallbins"
hold one size each, no searching within bins
is
necessary.
(For a large request, we need to wait until unsorted chunks are
processed to find best fit. But
for
small ones, fits are exact
anyway, so we can check now, which
is
faster.)
*
/
if
(in_smallbin_range (nb))
{
idx
=
smallbin_index (nb);
bin
=
bin_at (av, idx);
if
((victim
=
last (
bin
)) !
=
bin
)
{
if
(victim
=
=
0
)
/
*
initialization check
*
/
malloc_consolidate (av);
else
{
bck
=
victim
-
>bk;
if
(__glibc_unlikely (bck
-
>fd !
=
victim))
{
errstr
=
"malloc(): smallbin double linked list corrupted"
;
goto errout;
}
set_inuse_bit_at_offset (victim, nb);
bin
-
>bk
=
bck;
bck
-
>fd
=
bin
;
if
(av !
=
&main_arena)
victim
-
>size |
=
NON_MAIN_ARENA;
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
}
}
#define NBINS 128
#define NSMALLBINS 64
#define SMALLBIN_WIDTH MALLOC_ALIGNMENT
#define SMALLBIN_CORRECTION (MALLOC_ALIGNMENT > 2 * SIZE_SZ)
#define MIN_LARGE_SIZE ((NSMALLBINS - SMALLBIN_CORRECTION) * SMALLBIN_WIDTH)
#define in_smallbin_range(sz) \
((unsigned
long
) (sz) < (unsigned
long
) MIN_LARGE_SIZE)
#define smallbin_index(sz) \
((SMALLBIN_WIDTH
=
=
16
? (((unsigned) (sz)) >>
4
) : (((unsigned) (sz)) >>
3
))\
+
SMALLBIN_CORRECTION)
#define bin_at(m, i) \
(mbinptr) (((char
*
) &((m)
-
>bins[((i)
-
1
)
*
2
])) \
-
offsetof (struct malloc_chunk, fd))
#define first(b) ((b)->fd)
#define last(b) ((b)->bk)
/
*
If a small request, check regular
bin
. Since these
"smallbins"
hold one size each, no searching within bins
is
necessary.
(For a large request, we need to wait until unsorted chunks are
processed to find best fit. But
for
small ones, fits are exact
anyway, so we can check now, which
is
faster.)
*
/
if
(in_smallbin_range (nb))
{
idx
=
smallbin_index (nb);
bin
=
bin_at (av, idx);
if
((victim
=
last (
bin
)) !
=
bin
)
{
if
(victim
=
=
0
)
/
*
initialization check
*
/
malloc_consolidate (av);
else
{
bck
=
victim
-
>bk;
if
(__glibc_unlikely (bck
-
>fd !
=
victim))
{
errstr
=
"malloc(): smallbin double linked list corrupted"
;
goto errout;
}
set_inuse_bit_at_offset (victim, nb);
bin
-
>bk
=
bck;
bck
-
>fd
=
bin
;
if
(av !
=
&main_arena)
victim
-
>size |
=
NON_MAIN_ARENA;
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
}
}
static void malloc_consolidate(mstate av)
{
mfastbinptr
*
fb;
/
*
current fastbin being consolidated
*
/
mfastbinptr
*
maxfb;
/
*
last fastbin (
for
loop control)
*
/
mchunkptr p;
/
*
current chunk being consolidated
*
/
mchunkptr nextp;
/
*
next
chunk to consolidate
*
/
mchunkptr unsorted_bin;
/
*
bin
header
*
/
mchunkptr first_unsorted;
/
*
chunk to link to
*
/
/
*
These have same use as
in
free()
*
/
mchunkptr nextchunk;
INTERNAL_SIZE_T size;
INTERNAL_SIZE_T nextsize;
INTERNAL_SIZE_T prevsize;
int
nextinuse;
mchunkptr bck;
mchunkptr fwd;
/
*
If max_fast
is
0
, we know that av hasn't
yet been initialized,
in
which case do so below
*
/
if
(get_max_fast () !
=
0
) {
clear_fastchunks(av);
unsorted_bin
=
unsorted_chunks(av);
/
*
Remove each chunk
from
fast
bin
and
consolidate it, placing it
then
in
unsorted
bin
. Among other reasons
for
doing this,
placing
in
unsorted
bin
avoids needing to calculate actual bins
until malloc
is
sure that chunks aren't immediately going to be
reused anyway.
*
/
mlined version of consolidation code
in
free()
*
maxfb
=
&fastbin (av, NFASTBINS
-
1
);
fb
=
&fastbin (av,
0
);
do {
p
=
atomic_exchange_acq (fb,
0
);
if
(p !
=
0
) {
do {
check_inuse_chunk(av, p);
nextp
=
p
-
>fd;
/
*
Slightly streamlined version of consolidation code
in
free()
*
/
size
=
p
-
>size & ~(PREV_INUSE|NON_MAIN_ARENA);
nextchunk
=
chunk_at_offset(p, size);
nextsize
=
chunksize(nextchunk);
if
(!prev_inuse(p)) {
prevsize
=
p
-
>prev_size;
size
+
=
prevsize;
p
=
chunk_at_offset(p,
-
((
long
) prevsize));
unlink(av, p, bck, fwd);
}
if
(nextchunk !
=
av
-
>top) {
nextinuse
=
inuse_bit_at_offset(nextchunk, nextsize);
if
(!nextinuse) {
size
+
=
nextsize;
unlink(av, nextchunk, bck, fwd);
}
else
clear_inuse_bit_at_offset(nextchunk,
0
);
first_unsorted
=
unsorted_bin
-
>fd;
unsorted_bin
-
>fd
=
p;
first_unsorted
-
>bk
=
p;
if
(!in_smallbin_range (size)) {
p
-
>fd_nextsize
=
NULL;
p
-
>bk_nextsize
=
NULL;
}
set_head(p, size | PREV_INUSE);
p
-
>bk
=
unsorted_bin;
p
-
>fd
=
first_unsorted;
set_foot(p, size);
}
else
{
size
+
=
nextsize;
set_head(p, size | PREV_INUSE);
av
-
>top
=
p;
}
}
while
( (p
=
nextp) !
=
0
);
}
}
while
(fb
+
+
!
=
maxfb);
}
else
{
malloc_init_state(av);
check_malloc_state(av);
}
}
static void malloc_consolidate(mstate av)
{
mfastbinptr
*
fb;
/
*
current fastbin being consolidated
*
/
mfastbinptr
*
maxfb;
/
*
last fastbin (
for
loop control)
*
/
mchunkptr p;
/
*
current chunk being consolidated
*
/
mchunkptr nextp;
/
*
next
chunk to consolidate
*
/
mchunkptr unsorted_bin;
/
*
bin
header
*
/
mchunkptr first_unsorted;
/
*
chunk to link to
*
/
/
*
These have same use as
in
free()
*
/
mchunkptr nextchunk;
INTERNAL_SIZE_T size;
INTERNAL_SIZE_T nextsize;
INTERNAL_SIZE_T prevsize;
int
nextinuse;
mchunkptr bck;
mchunkptr fwd;
/
*
If max_fast
is
0
, we know that av hasn't
yet been initialized,
in
which case do so below
*
/
if
(get_max_fast () !
=
0
) {
clear_fastchunks(av);
unsorted_bin
=
unsorted_chunks(av);
/
*
Remove each chunk
from
fast
bin
and
consolidate it, placing it
then
in
unsorted
bin
. Among other reasons
for
doing this,
placing
in
unsorted
bin
avoids needing to calculate actual bins
until malloc
is
sure that chunks aren't immediately going to be
reused anyway.
*
/
mlined version of consolidation code
in
free()
*
maxfb
=
&fastbin (av, NFASTBINS
-
1
);
fb
=
&fastbin (av,
0
);
do {
p
=
atomic_exchange_acq (fb,
0
);
if
(p !
=
0
) {
do {
check_inuse_chunk(av, p);
nextp
=
p
-
>fd;
/
*
Slightly streamlined version of consolidation code
in
free()
*
/
size
=
p
-
>size & ~(PREV_INUSE|NON_MAIN_ARENA);
nextchunk
=
chunk_at_offset(p, size);
nextsize
=
chunksize(nextchunk);
if
(!prev_inuse(p)) {
prevsize
=
p
-
>prev_size;
size
+
=
prevsize;
p
=
chunk_at_offset(p,
-
((
long
) prevsize));
unlink(av, p, bck, fwd);
}
if
(nextchunk !
=
av
-
>top) {
nextinuse
=
inuse_bit_at_offset(nextchunk, nextsize);
if
(!nextinuse) {
size
+
=
nextsize;
unlink(av, nextchunk, bck, fwd);
}
else
clear_inuse_bit_at_offset(nextchunk,
0
);
first_unsorted
=
unsorted_bin
-
>fd;
unsorted_bin
-
>fd
=
p;
first_unsorted
-
>bk
=
p;
if
(!in_smallbin_range (size)) {
p
-
>fd_nextsize
=
NULL;
p
-
>bk_nextsize
=
NULL;
}
set_head(p, size | PREV_INUSE);
p
-
>bk
=
unsorted_bin;
p
-
>fd
=
first_unsorted;
set_foot(p, size);
}
else
{
size
+
=
nextsize;
set_head(p, size | PREV_INUSE);
av
-
>top
=
p;
}
}
while
( (p
=
nextp) !
=
0
);
}
}
while
(fb
+
+
!
=
maxfb);
}
else
{
malloc_init_state(av);
check_malloc_state(av);
}
}
#define set_inuse_bit_at_offset(p, s) \
(((mchunkptr) (((char
*
) (p))
+
(s)))
-
>size |
=
PREV_INUSE)
#define chunk2mem(p) ((void*)((char*)(p) + 2*SIZE_SZ))
bck
=
victim
-
>bk;
if
(__glibc_unlikely (bck
-
>fd !
=
victim))
{
errstr
=
"malloc(): smallbin double linked list corrupted"
;
goto errout;
}
set_inuse_bit_at_offset (victim, nb);
bin
-
>bk
=
bck;
bck
-
>fd
=
bin
;
if
(av !
=
&main_arena)
victim
-
>size |
=
NON_MAIN_ARENA;
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
#define set_inuse_bit_at_offset(p, s) \
(((mchunkptr) (((char
*
) (p))
+
(s)))
-
>size |
=
PREV_INUSE)
#define chunk2mem(p) ((void*)((char*)(p) + 2*SIZE_SZ))
bck
=
victim
-
>bk;
if
(__glibc_unlikely (bck
-
>fd !
=
victim))
{
errstr
=
"malloc(): smallbin double linked list corrupted"
;
goto errout;
}
set_inuse_bit_at_offset (victim, nb);
bin
-
>bk
=
bck;
bck
-
>fd
=
bin
;
if
(av !
=
&main_arena)
victim
-
>size |
=
NON_MAIN_ARENA;
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
victim
-
>fd
-
>bk
=
victim
-
>bk;
victime
-
>bk
-
>fd
=
victim
-
>fd;
victim
-
>fd
-
>bk
=
victim
-
>bk;
victime
-
>bk
-
>fd
=
victim
-
>fd;
else
{
idx
=
largebin_index (nb);
if
(have_fastchunks (av))
malloc_consolidate (av);
}
else
{
idx
=
largebin_index (nb);
if
(have_fastchunks (av))
malloc_consolidate (av);
}
for
(;; )
{
int
iters
=
0
;
while
((victim
=
unsorted_chunks (av)
-
>bk) !
=
unsorted_chunks (av))
{
bck
=
victim
-
>bk;
if
(__builtin_expect (victim
-
>size <
=
2
*
SIZE_SZ,
0
)
|| __builtin_expect (victim
-
>size > av
-
>system_mem,
0
))
malloc_printerr (check_action,
"malloc(): memory corruption"
,
chunk2mem (victim), av);
size
=
chunksize (victim);
/
*
If a small request,
try
to use last remainder
if
it
is
the
only chunk
in
unsorted
bin
. This helps promote locality
for
runs of consecutive small requests. This
is
the only
exception to best
-
fit,
and
applies only when there
is
no exact fit
for
a small chunk.
*
/
......
}
......
}
for
(;; )
{
int
iters
=
0
;
while
((victim
=
unsorted_chunks (av)
-
>bk) !
=
unsorted_chunks (av))
{
bck
=
victim
-
>bk;
if
(__builtin_expect (victim
-
>size <
=
2
*
SIZE_SZ,
0
)
|| __builtin_expect (victim
-
>size > av
-
>system_mem,
0
))
malloc_printerr (check_action,
"malloc(): memory corruption"
,
chunk2mem (victim), av);
size
=
chunksize (victim);
/
*
If a small request,
try
to use last remainder
if
it
is
the
only chunk
in
unsorted
bin
. This helps promote locality
for
runs of consecutive small requests. This
is
the only
exception to best
-
fit,
and
applies only when there
is
no exact fit
for
a small chunk.
*
/
......
}
......
}
if
(in_smallbin_range (nb) &&
bck
=
=
unsorted_chunks (av) &&
victim
=
=
av
-
>last_remainder &&
(unsigned
long
) (size) > (unsigned
long
) (nb
+
MINSIZE))
{
/
*
split
and
reattach remainder
*
/
remainder_size
=
size
-
nb;
remainder
=
chunk_at_offset (victim, nb);
unsorted_chunks (av)
-
>bk
=
unsorted_chunks (av)
-
>fd
=
remainder;
av
-
>last_remainder
=
remainder;
remainder
-
>bk
=
remainder
-
>fd
=
unsorted_chunks (av);
if
(!in_smallbin_range (remainder_size))
{
remainder
-
>fd_nextsize
=
NULL;
remainder
-
>bk_nextsize
=
NULL;
}
set_head (victim, nb | PREV_INUSE |
(av !
=
&main_arena ? NON_MAIN_ARENA :
0
));
set_head (remainder, remainder_size | PREV_INUSE);
set_foot (remainder, remainder_size);
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
if
(in_smallbin_range (nb) &&
bck
=
=
unsorted_chunks (av) &&
victim
=
=
av
-
>last_remainder &&
(unsigned
long
) (size) > (unsigned
long
) (nb
+
MINSIZE))
{
/
*
split
and
reattach remainder
*
/
remainder_size
=
size
-
nb;
remainder
=
chunk_at_offset (victim, nb);
unsorted_chunks (av)
-
>bk
=
unsorted_chunks (av)
-
>fd
=
remainder;
av
-
>last_remainder
=
remainder;
remainder
-
>bk
=
remainder
-
>fd
=
unsorted_chunks (av);
if
(!in_smallbin_range (remainder_size))
{
remainder
-
>fd_nextsize
=
NULL;
remainder
-
>bk_nextsize
=
NULL;
}
set_head (victim, nb | PREV_INUSE |
(av !
=
&main_arena ? NON_MAIN_ARENA :
0
));
set_head (remainder, remainder_size | PREV_INUSE);
set_foot (remainder, remainder_size);
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
/
*
remove
from
unsorted
list
*
/
unsorted_chunks (av)
-
>bk
=
bck;
bck
-
>fd
=
unsorted_chunks (av);
/
*
Take now instead of binning
if
exact fit
*
/
if
(size
=
=
nb)
{
set_inuse_bit_at_offset (victim, size);
if
(av !
=
&main_arena)
victim
-
>size |
=
NON_MAIN_ARENA;
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
/
*
place chunk
in
bin
*
/
if
(in_smallbin_range (size))
{
victim_index
=
smallbin_index (size);
bck
=
bin_at (av, victim_index);
fwd
=
bck
-
>fd;
}
/
*
remove
from
unsorted
list
*
/
unsorted_chunks (av)
-
>bk
=
bck;
bck
-
>fd
=
unsorted_chunks (av);
/
*
Take now instead of binning
if
exact fit
*
/
if
(size
=
=
nb)
{
set_inuse_bit_at_offset (victim, size);
if
(av !
=
&main_arena)
victim
-
>size |
=
NON_MAIN_ARENA;
check_malloced_chunk (av, victim, nb);
void
*
p
=
chunk2mem (victim);
alloc_perturb (p, bytes);
return
p;
}
/
*
place chunk
in
bin
*
/
if
(in_smallbin_range (size))
{
victim_index
=
smallbin_index (size);
bck
=
bin_at (av, victim_index);
fwd
=
bck
-
>fd;
}
else
{
victim_index
=
largebin_index (size);
bck
=
bin_at (av, victim_index);
fwd
=
bck
-
>fd;
/
*
maintain large bins
in
sorted
order
*
/
if
(fwd !
=
bck)
{
/
*
Or with inuse bit to speed comparisons
*
/
size |
=
PREV_INUSE;
/
*
if
smaller than smallest, bypass loop below
*
/
assert
((bck
-
>bk
-
>size & NON_MAIN_ARENA)
=
=
0
);
if
((unsigned
long
) (size) < (unsigned
long
) (bck
-
>bk
-
>size))
{
fwd
=
bck;
bck
=
bck
-
>bk;
victim
-
>fd_nextsize
=
fwd
-
>fd;
victim
-
>bk_nextsize
=
fwd
-
>fd
-
>bk_nextsize;
fwd
-
>fd
-
>bk_nextsize
=
victim
-
>bk_nextsize
-
>fd_nextsize
=
victim;
}
else
{
assert
((fwd
-
>size & NON_MAIN_ARENA)
=
=
0
);
while
((unsigned
long
) size < fwd
-
>size)
{
fwd
=
fwd
-
>fd_nextsize;
assert
((fwd
-
>size & NON_MAIN_ARENA)
=
=
0
);
}
if
((unsigned
long
) size
=
=
(unsigned
long
) fwd
-
>size)
/
*
Always insert
in
the second position.
*
/
fwd
=
fwd
-
>fd;
else
{
victim
-
>fd_nextsize
=
fwd;
victim
-
>bk_nextsize
=
fwd
-
>bk_nextsize;
fwd
-
>bk_nextsize
=
victim;
victim
-
>bk_nextsize
-
>fd_nextsize
=
victim;
}
bck
=
fwd
-
>bk;
}
}
else
victim
-
>fd_nextsize
=
victim
-
>bk_nextsize
=
victim;
}
else
{
victim_index
=
largebin_index (size);
bck
=
bin_at (av, victim_index);
fwd
=
bck
-
>fd;
/
*
maintain large bins
in
sorted
order
*
/
if
(fwd !
=
bck)
{
/
*
Or with inuse bit to speed comparisons
*
/
size |
=
PREV_INUSE;
/
*
if
smaller than smallest, bypass loop below
*
/
assert
((bck
-
>bk
-
>size & NON_MAIN_ARENA)
=
=
0
);
if
((unsigned
long
) (size) < (unsigned
long
) (bck
-
>bk
-
>size))
{
fwd
=
bck;
bck
=
bck
-
>bk;
victim
-
>fd_nextsize
=
fwd
-
>fd;
victim
-
>bk_nextsize
=
fwd
-
>fd
-
>bk_nextsize;
fwd
-
>fd
-
>bk_nextsize
=
victim
-
>bk_nextsize
-
>fd_nextsize
=
victim;
}
else
{
assert
((fwd
-
>size & NON_MAIN_ARENA)
=
=
0
);
while
((unsigned
long
) size < fwd
-
>size)
{
fwd
=
fwd
-
>fd_nextsize;
assert
((fwd
-
>size & NON_MAIN_ARENA)
=
=
0
);
}
if
((unsigned
long
) size
=
=
(unsigned
long
) fwd
-
>size)
/
*
Always insert
in
the second position.
*
/
fwd
=
fwd
-
>fd;
[注意]传递专业知识、拓宽行业人脉——看雪讲师团队等你加入!
赞赏
- [原创]强网杯S8初赛pwn writeup 1748
- [原创]KCTF2024 第八题 writeup 2972
- 腾讯游戏安全大赛2024决赛题解 11503
- [原创]腾讯游戏安全大赛2024初赛题解 10817
- 2022的腾讯游戏安全竞赛复盘 11618