22 movdqu %xmm0, _xmm_regs+0(%rip)
23 movdqu %xmm1, _xmm_regs+16(%rip)
24 movdqu %xmm2, _xmm_regs+32(%rip)
25 movdqu %xmm3, _xmm_regs+48(%rip)
26 movdqu %xmm4, _xmm_regs+64(%rip)
27 movdqu %xmm5, _xmm_regs+80(%rip)
28 movdqu %xmm6, _xmm_regs+96(%rip)
29 movdqu %xmm7, _xmm_regs+112(%rip)
30 movdqu %xmm8, _xmm_regs+128(%rip)
31 movdqu %xmm9, _xmm_regs+144(%rip)
32 movdqu %xmm10, _xmm_regs+160(%rip)
33 movdqu %xmm11, _xmm_regs+176(%rip)
34 movdqu %xmm12, _xmm_regs+192(%rip)
35 movdqu %xmm13, _xmm_regs+208(%rip)
36 movdqu %xmm14, _xmm_regs+224(%rip)
37 movdqu %xmm15, _xmm_regs+240(%rip)
49 movdqu %xmm0, _xmm_regs+0(%rip)
50 movdqu %xmm1, _xmm_regs+16(%rip)
52 fstpt _x87_regs+16(%rip)
53 fldt _x87_regs+16(%rip)