asm-support.S (snapshot): Replace multiplication by values.
authorRainer Orth <ro@CeBiTec.Uni-Bielefeld.DE>
Fri, 9 Jul 2010 11:13:30 +0000 (11:13 +0000)
committerRainer Orth <ro@gcc.gnu.org>
Fri, 9 Jul 2010 11:13:30 +0000 (11:13 +0000)
* gcc.target/x86_64/abi/asm-support.S (snapshot): Replace
multiplication by values.
* gcc.target/x86_64/abi/asm-support-darwin.s (_snapshot): Likewise.
* gcc.target/x86_64/abi/avx/asm-support.S (snapshot): Likewise.

From-SVN: r161991

gcc/testsuite/ChangeLog
gcc/testsuite/gcc.target/x86_64/abi/asm-support-darwin.s
gcc/testsuite/gcc.target/x86_64/abi/asm-support.S
gcc/testsuite/gcc.target/x86_64/abi/avx/asm-support.S

index 6a42b4e56601983929af54283255b30e13ccbe84..fc80a9361c6cda6957a20dfed70a9220c7047e6a 100644 (file)
@@ -1,3 +1,10 @@
+2010-07-09  Rainer Orth  <ro@CeBiTec.Uni-Bielefeld.DE>
+
+       * gcc.target/x86_64/abi/asm-support.S (snapshot): Replace
+       multiplication by values.
+       * gcc.target/x86_64/abi/asm-support-darwin.s (_snapshot): Likewise.
+       * gcc.target/x86_64/abi/avx/asm-support.S (snapshot): Likewise.
+
 2010-07-09  Richard Guenther  <rguenther@suse.de>
 
        PR tree-optimization/44882
index 5a7c91be6ee93637a9ff6e720e843bd9ade2b39f..b3b88466a6296c1d58bf6864d2a53a72a002edd2 100644 (file)
@@ -22,20 +22,20 @@ _snapshot:
        movq    %r15, _r15(%rip)
        movdqu  %xmm0, _xmm_regs+0(%rip)
        movdqu  %xmm1, _xmm_regs+16(%rip)
-       movdqu  %xmm2, _xmm_regs+16*2(%rip)
-       movdqu  %xmm3, _xmm_regs+16*3(%rip)
-       movdqu  %xmm4, _xmm_regs+16*4(%rip)
-       movdqu  %xmm5, _xmm_regs+16*5(%rip)
-       movdqu  %xmm6, _xmm_regs+16*6(%rip)
-       movdqu  %xmm7, _xmm_regs+16*7(%rip)
-       movdqu  %xmm8, _xmm_regs+16*8(%rip)
-       movdqu  %xmm9, _xmm_regs+16*9(%rip)
-       movdqu  %xmm10, _xmm_regs+16*10(%rip)
-       movdqu  %xmm11, _xmm_regs+16*11(%rip)
-       movdqu  %xmm12, _xmm_regs+16*12(%rip)
-       movdqu  %xmm13, _xmm_regs+16*13(%rip)
-       movdqu  %xmm14, _xmm_regs+16*14(%rip)
-       movdqu  %xmm15, _xmm_regs+16*15(%rip)
+       movdqu  %xmm2, _xmm_regs+32(%rip)
+       movdqu  %xmm3, _xmm_regs+48(%rip)
+       movdqu  %xmm4, _xmm_regs+64(%rip)
+       movdqu  %xmm5, _xmm_regs+80(%rip)
+       movdqu  %xmm6, _xmm_regs+96(%rip)
+       movdqu  %xmm7, _xmm_regs+112(%rip)
+       movdqu  %xmm8, _xmm_regs+128(%rip)
+       movdqu  %xmm9, _xmm_regs+144(%rip)
+       movdqu  %xmm10, _xmm_regs+160(%rip)
+       movdqu  %xmm11, _xmm_regs+176(%rip)
+       movdqu  %xmm12, _xmm_regs+192(%rip)
+       movdqu  %xmm13, _xmm_regs+208(%rip)
+       movdqu  %xmm14, _xmm_regs+224(%rip)
+       movdqu  %xmm15, _xmm_regs+240(%rip)
        jmp     *_callthis(%rip)
 .LFE3:
        .p2align 4,,15
index cb1e31ea785d122b0865957b4be24f824395018c..8e0bffe8b4938ba8c270c6e0be578d6100d9d8aa 100644 (file)
@@ -26,20 +26,20 @@ snapshot:
        movq    %r15, r15(%rip)
        movdqu  %xmm0, xmm_regs+0(%rip)
        movdqu  %xmm1, xmm_regs+16(%rip)
-       movdqu  %xmm2, xmm_regs+16*2(%rip)
-       movdqu  %xmm3, xmm_regs+16*3(%rip)
-       movdqu  %xmm4, xmm_regs+16*4(%rip)
-       movdqu  %xmm5, xmm_regs+16*5(%rip)
-       movdqu  %xmm6, xmm_regs+16*6(%rip)
-       movdqu  %xmm7, xmm_regs+16*7(%rip)
-       movdqu  %xmm8, xmm_regs+16*8(%rip)
-       movdqu  %xmm9, xmm_regs+16*9(%rip)
-       movdqu  %xmm10, xmm_regs+16*10(%rip)
-       movdqu  %xmm11, xmm_regs+16*11(%rip)
-       movdqu  %xmm12, xmm_regs+16*12(%rip)
-       movdqu  %xmm13, xmm_regs+16*13(%rip)
-       movdqu  %xmm14, xmm_regs+16*14(%rip)
-       movdqu  %xmm15, xmm_regs+16*15(%rip)
+       movdqu  %xmm2, xmm_regs+32(%rip)
+       movdqu  %xmm3, xmm_regs+48(%rip)
+       movdqu  %xmm4, xmm_regs+64(%rip)
+       movdqu  %xmm5, xmm_regs+80(%rip)
+       movdqu  %xmm6, xmm_regs+96(%rip)
+       movdqu  %xmm7, xmm_regs+112(%rip)
+       movdqu  %xmm8, xmm_regs+128(%rip)
+       movdqu  %xmm9, xmm_regs+144(%rip)
+       movdqu  %xmm10, xmm_regs+160(%rip)
+       movdqu  %xmm11, xmm_regs+176(%rip)
+       movdqu  %xmm12, xmm_regs+192(%rip)
+       movdqu  %xmm13, xmm_regs+208(%rip)
+       movdqu  %xmm14, xmm_regs+224(%rip)
+       movdqu  %xmm15, xmm_regs+240(%rip)
        jmp     *callthis(%rip)
 .LFE3:
        .size   snapshot, .-snapshot
index a4d002e19e4c1ac22f016ce783d88633e8a77bb0..d248ef02e840c69c45180062e5b6d4c95b97d73f 100644 (file)
@@ -23,20 +23,20 @@ snapshot:
        movq    %r15, r15(%rip)
        vmovdqu %ymm0, ymm_regs+0(%rip)
        vmovdqu %ymm1, ymm_regs+32(%rip)
-       vmovdqu %ymm2, ymm_regs+32*2(%rip)
-       vmovdqu %ymm3, ymm_regs+32*3(%rip)
-       vmovdqu %ymm4, ymm_regs+32*4(%rip)
-       vmovdqu %ymm5, ymm_regs+32*5(%rip)
-       vmovdqu %ymm6, ymm_regs+32*6(%rip)
-       vmovdqu %ymm7, ymm_regs+32*7(%rip)
-       vmovdqu %ymm8, ymm_regs+32*8(%rip)
-       vmovdqu %ymm9, ymm_regs+32*9(%rip)
-       vmovdqu %ymm10, ymm_regs+32*10(%rip)
-       vmovdqu %ymm11, ymm_regs+32*11(%rip)
-       vmovdqu %ymm12, ymm_regs+32*12(%rip)
-       vmovdqu %ymm13, ymm_regs+32*13(%rip)
-       vmovdqu %ymm14, ymm_regs+32*14(%rip)
-       vmovdqu %ymm15, ymm_regs+32*15(%rip)
+       vmovdqu %ymm2, ymm_regs+64(%rip)
+       vmovdqu %ymm3, ymm_regs+96(%rip)
+       vmovdqu %ymm4, ymm_regs+128(%rip)
+       vmovdqu %ymm5, ymm_regs+160(%rip)
+       vmovdqu %ymm6, ymm_regs+192(%rip)
+       vmovdqu %ymm7, ymm_regs+224(%rip)
+       vmovdqu %ymm8, ymm_regs+256(%rip)
+       vmovdqu %ymm9, ymm_regs+288(%rip)
+       vmovdqu %ymm10, ymm_regs+320(%rip)
+       vmovdqu %ymm11, ymm_regs+352(%rip)
+       vmovdqu %ymm12, ymm_regs+384(%rip)
+       vmovdqu %ymm13, ymm_regs+416(%rip)
+       vmovdqu %ymm14, ymm_regs+448(%rip)
+       vmovdqu %ymm15, ymm_regs+480(%rip)
        jmp     *callthis(%rip)
 .LFE3:
        .size   snapshot, .-snapshot