首页
社区
课程
招聘
[原创]深入Spectre V2——跨进程泄露敏感信息
发表于: 2019-9-4 23:40 19130

[原创]深入Spectre V2——跨进程泄露敏感信息

2019-9-4 23:40
19130

处理器在乱序执行的过程中如果遇到条件分支

这里我研究的是Haswell平台的分支目标预测器Haswell提供了3种预测机制:

代码一共由3部分组成:train.c、attack.c、victim.c。攻击对象victim中保存着一个secret字符串,需要我们通过attack跨进程提取。victim通过套接字与攻击者attack进行简单的通信,victim接收attack发过来的字符串,提取其中的整数并将整数格式化为字符串返回给attack。针对攻击对象的特点对照目标逐一实现。

幽灵是一个存在于分支预测(Branch Prediction)实现中的硬件缺陷及安全漏洞,含有预测执行(Speculative Execution)功能的现代微处理器均受其影响,该漏洞使得攻击者可以在用户态突破CPU的进程隔离,导致跨进程敏感信息泄露。截至2018年,几乎所有的计算机系统都受到Spectre的影响,包括台式机、笔记本电脑和移动设备。
幽灵是一类潜在漏洞的总和,Spectre Variant 2漏洞编号CVE-2017-5715(Branch Target Injection分支目标注入),它可以让攻击者训练受害者(victim)进程所在的CPU的分支目标预测器(Branch Target Predictor)指向特定的代码片段(gadget),使得受害者进程在特定间接跳转处预测失误(mispridict)进入到gadget,在随后的处理器推测执行中执行gadget并将需要探测的信息映射到CPU的某一片缓存区域,最后攻击者通过逐一测量缓存区域内缓存块(Cache Line)命中时间得到命中位置,进而还原出所探测的信息。
简而言之这个漏洞的问题在于CPU被攻击者误导转不过弯导致正常运行的进程内部的信息暴露给了攻击者。


  • 在受害者进程中找到可以在攻击者和受害者之间建立信息传递的隐蔽通道[3][p9];
  • 在受害者进程中找到可以将敏感信息传递到隐蔽通道的指令片段;
  • 攻击者进程训练分支目标预测器,使受害者进程在特定位置的预测执行中执行我们选定的指令片段;
  • 攻击者进程不断刷新CPU特定位置的L1、L2、L3 Cache,触发受害者进程在特定位置的预测执行;
  • 攻击者进程利用缓存侧信道攻击手段将隐蔽通道内的状态信息转化为ASCII字节。
为了提高性能,现代处理器使用了一些优化机制提高了指令处理的并发度 ,进而宏观上提升了运行速度。下面简要提一下这些机制有助于理解本文: 

为了提高CPU指令执行的并发度,人们发明了多级流水线。但是如果前后两条指令存在依赖,比如数据依赖、控制依赖,那么流水线中的后一条指令就必须等待前一条指令执行完才能执行。为了提升流水线的效率,CPU对不存在依赖的指令进行乱序和调度,减少流水线的停留,提高指令运行的吞吐率。虽然CPU内部是在乱序执行指令,但是对外则是根据指令原来的顺序提交乱序执行结果,所以我们从外部看到的是顺序执行的结果。

3.2 预测执行(Speculative Execution)

处理器在乱序执行的过程中如果遇到条件分支

条件分支:
if(condition){
    ......
}
或者间接跳转
间接跳转:
call rax、jmp [rax]、ret
下一条执行指令的位置取决于condition的计算结果或者内存访问结果,而由于某些原因例如缓存刷新导致计算延迟或者访存延迟,为了使乱序执行不至于在此处卡住,CPU会根据先前的执行情况做出路径预测并按照预测的路径继续执行下去。当condition被计算出来或者访存结果到达,如果预测执行的路径正确,则结果被提交,如果预测失败(mispridict)则执行回滚,重新按照正确的路径执行。
现代CPU的Speculative Execution可以提前执行数百条指令,这取决于CPU指令缓存的大小。

3.3 分支预测(Branch Prediction)

Speculative Execution依赖于CPU的分支预测机制,CPU内部会有专门的缓存来记录先前的分支执行情况并为分支预测提供依据。CPU内部会有多种预测器,在遇到分支指令时,每种预测器都会给出预测结果,所有预测结果都会被汇总到一个选择器最终选择出最有可能的路径。换句话说在某个分支处的预测结果是受到该分支以及其他临近分支的历史情况影响的,所以我们后面可以通过训练分支预测器使之预测执行到我们想要的任何代码片段。

3.4 计算机存储结构

CPU访问内存的时间大约为200~300个时钟周期,这种延迟相对于每条指令执行时只需耗费数个时钟周期而言是巨大的。为了加速访存引入了多级缓存技术,在intel处理器里面就是L1 Cache、L2 Cache、L3 Cache。假设CPU首次访问某个数据,那么他会首先花费200多个时钟周期从内存里面取得该数据并将数据依次填满L1、L2、L3,而后再把数据取出来计算;如果CPU第二次访问该数据,那么就只需要花费十几个时钟周期从片上缓存中取得。访问数据时间上的差异就是后面我们缓存侧信道攻击的依据。需要注意的是,预测执行会影响缓存的状态,即使由于预测失败而导致结果回滚,缓存的状态并不会随之回滚而是会保留。

 类型  被缓存在何处  延迟(周期数)
 CPU寄存器  芯片上的CPU寄存器  0
 TLB  芯片上的TLB  0
 L1 Cache  芯片上的一级缓存  4
 L2 Cache  芯片上的二级缓存  10
 L3 Cache  芯片上的三级缓存  50
虚拟内存   内存条  200

为了提高CPU指令执行的并发度,人们发明了多级流水线。但是如果前后两条指令存在依赖,比如数据依赖、控制依赖,那么流水线中的后一条指令就必须等待前一条指令执行完才能执行。为了提升流水线的效率,CPU对不存在依赖的指令进行乱序和调度,减少流水线的停留,提高指令运行的吞吐率。虽然CPU内部是在乱序执行指令,但是对外则是根据指令原来的顺序提交乱序执行结果,所以我们从外部看到的是顺序执行的结果。
条件分支:
if(condition){
    ......
}
或者间接跳转
或者间接跳转
间接跳转:
call rax、jmp [rax]、ret
下一条执行指令的位置取决于condition的计算结果或者内存访问结果,而由于某些原因例如缓存刷新导致计算延迟或者访存延迟,为了使乱序执行不至于在此处卡住,CPU会根据先前的执行情况做出路径预测并按照预测的路径继续执行下去。当condition被计算出来或者访存结果到达,如果预测执行的路径正确,则结果被提交,如果预测失败(mispridict)则执行回滚,重新按照正确的路径执行。
间接跳转:
call rax、jmp [rax]、ret
下一条执行指令的位置取决于condition的计算结果或者内存访问结果,而由于某些原因例如缓存刷新导致计算延迟或者访存延迟,为了使乱序执行不至于在此处卡住,CPU会根据先前的执行情况做出路径预测并按照预测的路径继续执行下去。当condition被计算出来或者访存结果到达,如果预测执行的路径正确,则结果被提交,如果预测失败(mispridict)则执行回滚,重新按照正确的路径执行。
现代CPU的Speculative Execution可以提前执行数百条指令,这取决于CPU指令缓存的大小。
Speculative Execution依赖于CPU的分支预测机制,CPU内部会有专门的缓存来记录先前的分支执行情况并为分支预测提供依据。CPU内部会有多种预测器,在遇到分支指令时,每种预测器都会给出预测结果,所有预测结果都会被汇总到一个选择器最终选择出最有可能的路径。换句话说在某个分支处的预测结果是受到该分支以及其他临近分支的历史情况影响的,所以我们后面可以通过训练分支预测器使之预测执行到我们想要的任何代码片段。
CPU访问内存的时间大约为200~300个时钟周期,这种延迟相对于每条指令执行时只需耗费数个时钟周期而言是巨大的。为了加速访存引入了多级缓存技术,在intel处理器里面就是L1 Cache、L2 Cache、L3 Cache。假设CPU首次访问某个数据,那么他会首先花费200多个时钟周期从内存里面取得该数据并将数据依次填满L1、L2、L3,而后再把数据取出来计算;如果CPU第二次访问该数据,那么就只需要花费十几个时钟周期从片上缓存中取得。访问数据时间上的差异就是后面我们缓存侧信道攻击的依据。需要注意的是,预测执行会影响缓存的状态,即使由于预测失败而导致结果回滚,缓存的状态并不会随之回滚而是会保留。

 类型  被缓存在何处  延迟(周期数)
 CPU寄存器  芯片上的CPU寄存器  0
 TLB  芯片上的TLB  0
 L1 Cache  芯片上的一级缓存  4
 L2 Cache  芯片上的二级缓存  10
 L3 Cache  芯片上的三级缓存  50
虚拟内存   内存条  200


分支预测器是CPU内部的一个重要组件,它的作用是在指令周期的取指阶段(IF)预测出分支的走向,进而为预测执行提供依据。分支预测器根据作用的指令类型分为两大类:分支预测器(Branch Predictor)和分支目标预测器(Branch Target Predictor)。前者作用于条件分支例如if...else...,他的作用是判断是否需要进入到条件分支当中,所以他的输出也就是简单的“进入”(Taken)和“不进入”(Not Taken)。
分支目标预测器作用于间接跳转一类的指令例如 call rax、jmp [rax],他的作用是预测出跳转的目标地址,所以他的输出就是虚拟地址。
取指阶段遇到分支指令时,由于分支条件需要计算或者间接地址的内容不在缓存中(miscache)需要花费数百个时钟周期来计算分支条件或者从内存中取出间接地址的内容,这时CPU就会利用这个时间窗口来预测并执行,最后根据实际计算出的结果来决定到底是提交还是回滚预测执行的结果,并对分支预测器内部的一些参数进行调整。
它使用了分支目标缓存(Branch Target Buffer)来建立分支指令地址和目标地址之间的映射关系。分支指令地址的低31位用来索引BTB中的项[1][p16]。

图1.通用分支预测器
图1可以看到,只使用地址的低31位会造成BTB条目的重叠,解决的办法是进行分组,分为N路组相联,这点类似于CPU缓存的组织方式,这里不深入细究。
间接分支预测器是一个两级分支预测器。第一级是一个分支历史缓存(Branch History Buffer),它是一个58位的移位寄存器,他的作用是记录前29个分支的“源地址——目标地址”信息,这个相当于找到程序控制流的一种模式,按照这种模式可以做到精确匹配。
它的第二级是间接分支目标缓存(Indirect Branch Target Buffer),它类似于前面介绍的BTB,里面是“标记——目标地址”之间的映射。

图2.间接分支预测器
他的预测过程是:BHB与PC的值做异或运算,而后进入到哈希函数计算出哈希值,根据哈希值进入到IBTB查找目标地址,并根据IBPB中得到的预测位来判断是否应该采取这个预测出来的结果。
分支历史缓存BHB是在动态更新的,当执行一条间接分支指令,例如callq *0xb0(%r8),它可以被看作:
push rip
jmp *0xb0(%r8)
BHB的更新过程:
经过译码、执行,解析出目标地址Target,将BHB左移2位与PC的0~19位和Target的0~5位作“类XOR”运算,而后把运算结果重新填回BHB,这就完成了BHB的一次更新,call这条指令的分支记录也就被加入到了BHB中。
push rip
jmp *0xb0(%r8)
BHB的更新过程:
经过译码、执行,解析出目标地址Target,将BHB左移2位与PC的0~19位和Target的0~5位作“类XOR”运算,而后把运算结果重新填回BHB,这就完成了BHB的一次更新,call这条指令的分支记录也就被加入到了BHB中。

图3.BHB更新
“类XOR”运算说明此算法并不是严格的xor运算,国外通过逆向工程得到了BHB更新算法的代码:
/* ‘bhb_state‘ points to the branch history
* buffer to be updated
* ‘src‘ is the virtual address of the last
* byte of the source instruction
* ‘dst‘ is the virtual destination address
*/
void bhb_update(uint58_t *bhb_state, unsigned long src, unsigned long dst) {
    *bhb_state <<= 2;
    *bhb_state ˆ= (dst & 0x3f);函数返回地址预测器(Return Predictor )
    *bhb_state ˆ= (src & 0xc0) >> 6;
    *bhb_state ˆ= (src & 0xc00) >> (10 - 2);
    *bhb_state ˆ= (src & 0xc000) >> (14 - 4);
    *bhb_state ˆ= (src & 0x30) << (6 - 4);
    *bhb_state ˆ= (src & 0x300) << (8 - 8);
    *bhb_state ˆ= (src & 0x3000) >> (12 - 10);
    *bhb_state ˆ= (src & 0x30000) >> (16 - 12);
    *bhb_state ˆ= (src & 0xc0000) >> (18 - 14);
}
从逆向得到的代码可以看出,BHB首先向左移2位,然后与src的低6位和dst的低20位进行异或运算

图4.BHB更新算法
BHB总长为58位,每次左移2位,所以能记录总共29次的分支信息。
BHB如何索引IBTB表项:
/* ‘bhb_state‘ points to the branch history
* buffer to be updated
* ‘src‘ is the virtual address of the last
* byte of the source instruction
* ‘dst‘ is the virtual destination address
*/
void bhb_update(uint58_t *bhb_state, unsigned long src, unsigned long dst) {
    *bhb_state <<= 2;
    *bhb_state ˆ= (dst & 0x3f);函数返回地址预测器(Return Predictor )
    *bhb_state ˆ= (src & 0xc0) >> 6;
    *bhb_state ˆ= (src & 0xc00) >> (10 - 2);
    *bhb_state ˆ= (src & 0xc000) >> (14 - 4);
    *bhb_state ˆ= (src & 0x30) << (6 - 4);
    *bhb_state ˆ= (src & 0x300) << (8 - 8);
    *bhb_state ˆ= (src & 0x3000) >> (12 - 10);
    *bhb_state ˆ= (src & 0x30000) >> (16 - 12);
    *bhb_state ˆ= (src & 0xc0000) >> (18 - 14);
}
从逆向得到的代码可以看出,BHB首先向左移2位,然后与src的低6位和dst的低20位进行异或运算

图4.BHB更新算法
BHB总长为58位,每次左移2位,所以能记录总共29次的分支信息。
BHB如何索引IBTB表项:
从图2可以看到,首先PC会与BHB作XOR运算,运算结果进入哈希函数计算哈希值,根据哈希值来检索IBTB表项。因为在不同的地址处可能产生相同的BHB,这种情况称之为“混叠”(aliasing)。为了消除混叠,采用Gshare两级预测算法,将BHB与PC异或运算得到全局唯一的模式。
计算索引值的哈希函数则一直没有被Intel公开并且也未被成功逆向。它的意义是将分支模式精确匹配到IBTB的表项,产生预测地址。
Indirect Branch Predictor Buffer的作用是什么:
IBPB实际上是一个两位的饱和计数器组成的表,他的作用是记录预测结果被采纳的情况。如果预测正确被成功提交,那么计数器会+1,否则会被-1。如果从IBHB出来的结果对应的计数器值为11或者10,那么这个预测结果会被采纳并传递给流水线进行预测执行,否则不会被采纳。

图5.两位饱和计数器
IBP复杂的执行流程是为了提高预测精度,因为在程序中有许多分支之间存在关联并且有模式可循,如果按照GBP那样只使用一个BTB来做预测那么显然效果会很差,因为它的预测过程是孤立的。
RP是用来为ret这类返回指令做地址预测的,我这里没有用到因此不做研究。

以上介绍了Haswell平台分支目标预测器的三种预测机制,CPU实际上更加倾向于采纳基于分支历史的预测器的结果[4][p6],只有当间接分支预测器无法解析的时候才会采纳通用预测器的结果[3][p21]。双峰选择器(Bi-modal selector)判断采纳哪一种机制产生的预测结果并产生最终的预测地址。
根据分支最终实际的执行情况更新BHB、BTB和BPB。

图6.Haswell分支目标预测器
每个CPU核心都有独立的分支目标预测器,CPU核心之间是不存在相互影响的。但即使是开启了超线程,运行在同一个核心上的多个进程之间也会通过分支目标预测器产生相互的影响[2][p8]。预测器工作在虚拟地址层面,他的输入和输出都是虚拟地址,与指令的实际物理地址无关[2][p9],因此我要在受害者进程中找到一条间接跳转指令,它的虚拟地址为src,在训练进程相同虚拟地址处布置一条jmp指令来模拟受害者在src处的跳转,如左图所示。

图7.对分支预测器进行训练
训练进程在dst2处跳回src,如此形成一个无限循环。这么做有两点考虑:1.毒化通用分支预测器的BTB,使之在src处指向dst2。2.往BHB中填充大量的规则数据,破坏受害者进程在src之前形成的分支历史,使间接分支预测器失效并强制使用通用分支预测器[3][p29]。
经过训练可以使受害者在src处预测执行gadget。
为了减少内存的开销,现代操作系统普遍使用共享内存页面技术在不同的进程之间共享相同的页面,例如动态链接库技术。操作系统会在内存中搜索并合并具有相同内容的页面,而这么做的依据是页面对应的数据块在磁盘中的位置[5][p2]。

图8.内存页面共享
共享对象只占用一份物理内存页面,它被两个进程分别映射到各自的虚拟地址空间。
操作系统通过写时复制(copy-on-write)技术来保护共享页面。对共享页面的读操作是被允许的,当进程试图修改共享页面时会触发缺页异常(Page-fault),操作系统内存管理模块会将共享页面复制一份后对复制的页面进行修改,并将后者的指针返回给试图修改它的进程。
运行在同一个CPU核心上的不同进程之间可以通过缓存相互产生影响,进而造成进程信息的泄露,而内存页面的共享则为跨进程信息泄露提供了隐蔽通道。FLUSH + RELOAD是一种缓存侧信道攻击手段,它利用了上述的CPU缺陷可以跨进程碰撞出敏感信息。如图8所示,在两个进程中对addr1~addr2和addr3~addr4这两个内存段进行访问最终是对共享物理页面的访问。

图9.进程之间的相互影响
第三节中提到缓存用来加速访存的原理,缓存的加载是以缓存行(64字节)为单位进行的,每一小格代表一个缓存行。FLUSH + RELOAD的基本思想是首先对共享物理页面进行刷新确保不在缓存中,让进程2访问共享页面,然后进程1再对共享页面逐个缓存行进行扫描,访问时间最短的表示刚刚被进程2访问过。如果进程2中的某个字符可以被映射为共享页面中的位置,访问这个位置的内容。进程1发现这个位置被访问过,并将这个位置还原为字符,由此可以泄露进程2的信息。
ProbeTable:
             db     0x10000 dup (0)          #定义一个可被探测的数组,大小为256 × 256  
secret: 
             db     'a'                      # 0x61
xor eax, eax                                 # eax = 0
mov ah, [secret]                             # ax = 0x6100
mov ebx, ProbeTable[eax]                     #字符转化为位置并访问

ProbeTable:
             db     0x10000 dup (0)          #定义一个可被探测的数组,大小为256 × 256  
secret: 
             db     'a'                      # 0x61
xor eax, eax                                 # eax = 0
mov ah, [secret]                             # ax = 0x6100
mov ebx, ProbeTable[eax]                     #字符转化为位置并访问

[注意]传递专业知识、拓宽行业人脉——看雪讲师团队等你加入!

最后于 2019-9-4 23:46 被极目楚天舒编辑 ,原因:
上传的附件:
收藏
免费 11
支持
分享
打赏 + 4.00雪花
打赏次数 2 雪花 + 4.00
 
赞赏  张永强   +2.00 2019/09/13 感谢大佬
赞赏  Editor   +2.00 2019/09/06 精品文章~
最新回复 (16)
雪    币: 24
活跃值: (33)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
2
天舒牛逼!
2019-9-5 00:07
1
雪    币: 26245
活跃值: (63297)
能力值: (RANK:135 )
在线值:
发帖
回帖
粉丝
3
感谢分享!
2019-9-5 09:24
1
雪    币: 1
活跃值: (10)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
4
太强了
2019-9-12 18:11
1
雪    币: 1
活跃值: (10)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
5
按照您 train.c中的 代码注入的话,似乎jmp loop不会成功,请大佬确认
>>> print disasm('\xb8\x11\x22\x33\x00\xff\xd0\xeb\xfc\x90\x90\x90', arch='amd64')
   0:   b8 11 22 33 00          mov    eax,0x332211
   5:   ff d0                   call   rax
   7:   eb fc                   jmp    0x5
   9:   90                      nop
   a:   90                      nop
   b:   90                      nop
上面是按照您的代码注入的  似乎不是 jmp loop,而只跳到了 call rax这一句了  因为我拿您的程序 在很多机器上跑过  我想知道 是不是 我ptrace 没理解对
虽然 rax并没有变化,也就是说 jmp 到loop 还是 call rax 似乎影响也不大 不过 我还是没跑出来  可能的确要找一个 和您一样的 cpu板子 试试
最后于 2019-9-15 11:43 被张永强编辑 ,原因:
2019-9-15 11:41
0
雪    币: 1
活跃值: (10)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
6
另外 我还有一个 疑惑 我看到 您设置的阈值 250  这个值是怎么获得的呢 一般 缓存命中的时间 平均来看 30~60之间吧   250给人的感觉  这个访问返回的速度很慢  所以 不是 很清楚 这样设置的缘由
2019-9-15 16:24
0
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
7
张永强 另外 我还有一个 疑惑 我看到 您设置的阈值 250 这个值是怎么获得的呢 一般 缓存命中的时间 平均来看 30~60之间吧 250给人的感觉 这个访问返回的速度很慢 所以 不是 很清楚 这 ...
这个值只越大,说明判断条件放的越宽,精度越低,爆破所需时间越短。事实上100左右很合适出错率很低
2019-9-15 20:52
1
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
8
张永强 按照您&nbsp;train.c中的&nbsp;代码注入的话,似乎jmp&nbsp;loop不会成功,请大佬确认&gt;&gt;&gt;&nbs ...
对,他是跳到了call那句,实际上都一样,rax都不变。这个确实和机器有很大关系,另外你的操作系统内核版本也有很大关系,高版本的都有缓解措施能够比较有效地抑制这个漏洞。
2019-9-15 20:56
0
雪    币: 1
活跃值: (10)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
9
极目楚天舒 对,他是跳到了call那句,实际上都一样,rax都不变。这个确实和机器有很大关系,另外你的操作系统内核版本也有很大关系,高版本的都有缓解措施能够比较有效地抑制这个漏洞。
谢谢解答  虽然我花了不少时间通看了您的这篇分析,从理论上是理解了   唯一遗憾的是  试了好几个不同芯片的机器 没跑出来结果   之后 我再搞一些 别的机器试试  
2019-9-15 23:32
0
雪    币: 1
活跃值: (10)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
10
极目楚天舒 对,他是跳到了call那句,实际上都一样,rax都不变。这个确实和机器有很大关系,另外你的操作系统内核版本也有很大关系,高版本的都有缓解措施能够比较有效地抑制这个漏洞。
另外还有一个疑问就是  我发现目前  很多类似这种侧信道的poc  都需要 受害者 和 攻击者 做非常巧妙的配合   反过来 真实生产环境中  缺少了这种配合  侧信道攻击能否拿到真正敏感的数据呢  不过我猜 应该是可以的 那些真正有破坏力的exp可能都没有公开 
2019-9-15 23:34
0
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
11
张永强 另外还有一个疑问就是 我发现目前 很多类似这种侧信道的poc 都需要 受害者 和 攻击者 做非常巧妙的配合 反过来 真实生产环境中 缺少了这种配合 侧信道攻击能否拿到真正敏感的数据呢 ...
下步的研究方向
2019-9-15 23:54
0
雪    币: 1
活跃值: (10)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
12
大佬 我还想请教您一下 就是关于 如何控制缓存 有什么好的资料推荐吗   我对侧信道 挺感兴趣的 希望能多多向大佬学习
2019-9-27 11:26
0
雪    币: 6313
活跃值: (3212)
能力值: ( LV12,RANK:330 )
在线值:
发帖
回帖
粉丝
13
张永强 大佬 我还想请教您一下 就是关于 如何控制缓存 有什么好的资料推荐吗 我对侧信道 挺感兴趣的 希望能多多向大佬学习
正在研究,等我后面的文章
2019-10-8 12:49
0
雪    币: 213
能力值: ( LV1,RANK:0 )
在线值:
发帖
回帖
粉丝
14
大佬,我make的时候提示rodata' can not be used when making a PIE object; recompile with -fPIC
 是什么问题啊
2019-10-12 11:29
1
雪    币: 213
能力值: ( LV1,RANK:0 )
在线值:
发帖
回帖
粉丝
15
Holy_Shiiit 大佬,我make的时候提示rodata' can not be used when making a PIE object; recompile with -fPIC 是什么问题啊
我找到原因了,编译器版本的原因,makefile里面的-fno-pie改-no-pie就成功了
2019-10-15 09:26
0
雪    币: 21
活跃值: (26)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
16
在虚拟机上可否执行该程序呢?
2020-11-8 22:56
0
雪    币: 0
活跃值: (18)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
17
张永强 谢谢解答 虽然我花了不少时间通看了您的这篇分析,从理论上是理解了 唯一遗憾的是 试了好几个不同芯片的机器 没跑出来结果 之后 我再搞一些 别的机器试试
请问您换了其他的机器跑出结果了吗?或者有没有找到原因?我在VMWare Ubuntu 18.04上面也跑不出来结果,想请教一下。
2022-3-18 21:15
0
游客
登录 | 注册 方可回帖
返回
//