[AArch64] Fix reversed vcond_mask invocation in aarch64_evpc_sel
authorRichard Sandiford <richard.sandiford@arm.com>
Fri, 10 Jan 2020 16:31:13 +0000 (16:31 +0000)
committerRichard Sandiford <rsandifo@gcc.gnu.org>
Fri, 10 Jan 2020 16:31:13 +0000 (16:31 +0000)
aarch64_evpc_sel (new in GCC 10) got the true and false vectors
the wrong way round, leading to execution failures with fixed-length
128-bit SVE.

Now that the ACLE types are in trunk, it's much easier to match
the exact asm sequence for a permute.

2020-01-10  Richard Sandiford  <richard.sandiford@arm.com>

gcc/
* config/aarch64/aarch64.c (aarch64_evpc_sel): Fix gen_vcond_mask
invocation.

gcc/testsuite/
* gcc.target/aarch64/sve/sel_1.c: Use SVE types for the arguments and
return values.  Use check-function-bodies instead of scan-assembler.
* gcc.target/aarch64/sve/sel_2.c: Likewise
* gcc.target/aarch64/sve/sel_3.c: Likewise.

From-SVN: r280121

gcc/ChangeLog
gcc/config/aarch64/aarch64.c
gcc/testsuite/ChangeLog
gcc/testsuite/gcc.target/aarch64/sve/sel_1.c
gcc/testsuite/gcc.target/aarch64/sve/sel_2.c
gcc/testsuite/gcc.target/aarch64/sve/sel_3.c

index 126c6eba8c23d3bb9516dd3164e551e732e0c84b..ab5131a73379ea83ed136b39a76329feeaa1ccaf 100644 (file)
@@ -1,3 +1,8 @@
+2020-01-10  Richard Sandiford  <richard.sandiford@arm.com>
+
+       * config/aarch64/aarch64.c (aarch64_evpc_sel): Fix gen_vcond_mask
+       invocation.
+
 2020-01-10  Richard Sandiford  <richard.sandiford@arm.com>
 
        * config/aarch64/aarch64-builtins.c
index f83764fc420f799bc3fca556cd03168739985e61..190380b9a2eb983d0d4e06b7e9fa6e9f8e9986fb 100644 (file)
@@ -19449,6 +19449,7 @@ aarch64_evpc_sel (struct expand_vec_perm_d *d)
 
   machine_mode pred_mode = aarch64_sve_pred_mode (vmode);
 
+  /* Build a predicate that is true when op0 elements should be used.  */
   rtx_vector_builder builder (pred_mode, n_patterns, 2);
   for (int i = 0; i < n_patterns * 2; i++)
     {
@@ -19459,7 +19460,8 @@ aarch64_evpc_sel (struct expand_vec_perm_d *d)
 
   rtx const_vec = builder.build ();
   rtx pred = force_reg (pred_mode, const_vec);
-  emit_insn (gen_vcond_mask (vmode, vmode, d->target, d->op1, d->op0, pred));
+  /* TARGET = PRED ? OP0 : OP1.  */
+  emit_insn (gen_vcond_mask (vmode, vmode, d->target, d->op0, d->op1, pred));
   return true;
 }
 
index d208b673dadd83c269ef8554e29686e131434a1d..8dc47ea6c93fb4fc6b4b988da987a8e52e46aa77 100644 (file)
@@ -1,3 +1,10 @@
+2020-01-10  Richard Sandiford  <richard.sandiford@arm.com>
+
+       * gcc.target/aarch64/sve/sel_1.c: Use SVE types for the arguments and
+       return values.  Use check-function-bodies instead of scan-assembler.
+       * gcc.target/aarch64/sve/sel_2.c: Likewise
+       * gcc.target/aarch64/sve/sel_3.c: Likewise.
+
 2020-01-10  Martin Jambor  <mjambor@suse.cz>
 
        * gcc.dg/ipa/ipa-clone-3.c: Replace struct initializer with
index e651e5b93b66bff15907969ea15d9ae37028ac0a..9c581c52fde77efb5365a6bec25e1a5e02ad9770 100644 (file)
@@ -1,5 +1,6 @@
 /* { dg-do assemble { target aarch64_asm_sve_ok } } */
 /* { dg-options "-O2 -msve-vector-bits=256 --save-temps" } */
+/* { dg-final { check-function-bodies "**" "" } } */
 
 #include <stdint.h>
 
@@ -13,15 +14,14 @@ typedef int8_t vnx16qi __attribute__((vector_size (32)));
 
 #define INDEX_32 vnx16qi
 
-#define PERMUTE(type, nunits)                                          \
-type permute_##type (type x, type y)                                   \
-{                                                                      \
-  return __builtin_shuffle (x, y, (INDEX_##nunits) MASK_##nunits);     \
+/*
+** permute:
+**     ptrue   (p[0-7])\.h, vl16
+**     sel     z0\.b, \1, z0\.b, z1\.b
+**     ret
+*/
+__SVInt8_t
+permute (__SVInt8_t x, __SVInt8_t y)
+{
+  return __builtin_shuffle ((vnx16qi) x, (vnx16qi) y, (vnx16qi) MASK_32);
 }
-
-PERMUTE(vnx16qi, 32)
-
-/* { dg-final { scan-assembler-not {\ttbl\t} } } */
-
-/* { dg-final { scan-assembler-times {\tsel\tz[0-9]+\.b, p[0-9]+, z[0-9]+\.b, z[0-9]+\.b\n} 1 } } */
-/* { dg-final { scan-assembler-times {\tptrue\tp[0-9]+\.h, vl16\n} 1 } } */
index 05391474a925942e2907fb2ed0793a77e6b52661..60aaa878534b2d6fbbdfe67f24bf34707e8da38f 100644 (file)
@@ -1,14 +1,13 @@
 /* { dg-do assemble { target aarch64_asm_sve_ok } } */
 /* { dg-options "-O2 -msve-vector-bits=256 --save-temps" } */
+/* { dg-final { check-function-bodies "**" "" } } */
 
 #include <stdint.h>
 
 typedef int8_t vnx16qi __attribute__((vector_size (32)));
 typedef int16_t vnx8hi __attribute__((vector_size (32)));
-typedef int32_t vnx4si __attribute__((vector_size (32)));
 
 typedef _Float16 vnx8hf __attribute__((vector_size (32)));
-typedef float vnx4sf __attribute__((vector_size (32)));
 
 /* Predicate vector: 1 0 0 0 ... */
 
@@ -20,22 +19,39 @@ typedef float vnx4sf __attribute__((vector_size (32)));
 
 #define MASK_16                {0, 17, 2, 19, 4, 21, 6, 23, 8, 25, 10, 27, 12, 29, 14, 31}
 
-#define INDEX_32 vnx16qi
-#define INDEX_16 vnx8hi
-
-#define PERMUTE(type, nunits)                                          \
-type permute_##type (type x, type y)                                   \
-{                                                                      \
-  return __builtin_shuffle (x, y, (INDEX_##nunits) MASK_##nunits);     \
+/*
+** permute_vnx16qi:
+**     ptrue   (p[0-7])\.s, vl8
+**     sel     z0\.b, \1, z0\.b, z1\.b
+**     ret
+*/
+__SVInt8_t
+permute_vnx16qi (__SVInt8_t x, __SVInt8_t y)
+{
+  return __builtin_shuffle ((vnx16qi) x, (vnx16qi) y, (vnx16qi) MASK_32);
 }
 
-PERMUTE(vnx16qi, 32)
-PERMUTE(vnx8hi, 16)
-PERMUTE(vnx8hf, 16)
-
-/* { dg-final { scan-assembler-not {\ttbl\t} } } */
-
-/* { dg-final { scan-assembler-times {\tsel\tz[0-9]+\.b, p[0-9]+, z[0-9]+\.b, z[0-9]+\.b\n} 1 } } */
-/* { dg-final { scan-assembler-times {\tsel\tz[0-9]+\.h, p[0-9]+, z[0-9]+\.h, z[0-9]+\.h\n} 2 } } */
+/*
+** permute_vnx8hi:
+**     ptrue   (p[0-7])\.s, vl8
+**     sel     z0\.h, \1, z0\.h, z1\.h
+**     ret
+*/
+__SVInt16_t
+permute_vnx8hi (__SVInt16_t x, __SVInt16_t y)
+{
+  return __builtin_shuffle ((vnx8hi) x, (vnx8hi) y, (vnx8hi) MASK_16);
+}
 
-/* { dg-final { scan-assembler-times {\tptrue\tp[0-9]+\.s, vl8\n} 3 } } */
+/*
+** permute_vnx8hf:
+**     ptrue   (p[0-7])\.s, vl8
+**     sel     z0\.h, \1, z0\.h, z1\.h
+**     ret
+*/
+__SVFloat16_t
+permute_vnx8hf (__SVFloat16_t x, __SVFloat16_t y)
+{
+  return (__SVFloat16_t) __builtin_shuffle ((vnx8hf) x, (vnx8hf) y,
+                                           (vnx8hi) MASK_16);
+}
index a87492d9df1885ff451af692a7f173604ed2c056..0de1fae6d038f8939cadb40f4828e2f58bc5265d 100644 (file)
@@ -1,5 +1,6 @@
 /* { dg-do assemble { target aarch64_asm_sve_ok } } */
 /* { dg-options "-O2 -msve-vector-bits=256 --save-temps" } */
+/* { dg-final { check-function-bodies "**" "" } } */
 
 #include <stdint.h>
 
@@ -25,26 +26,63 @@ typedef float vnx4sf __attribute__((vector_size (32)));
 
 #define MASK_8         { 0, 9, 2, 11, 4, 13, 6, 15 }
 
-#define INDEX_32 vnx16qi
-#define INDEX_16 vnx8hi
-#define INDEX_8 vnx4si
-
-#define PERMUTE(type, nunits)                                          \
-type permute_##type (type x, type y)                                   \
-{                                                                      \
-  return __builtin_shuffle (x, y, (INDEX_##nunits) MASK_##nunits);     \
+/*
+** permute_vnx16qi:
+**     ptrue   (p[0-7])\.d, vl4
+**     sel     z0\.b, \1, z0\.b, z1\.b
+**     ret
+*/
+__SVInt8_t
+permute_vnx16qi (__SVInt8_t x, __SVInt8_t y)
+{
+  return __builtin_shuffle ((vnx16qi) x, (vnx16qi) y, (vnx16qi) MASK_32);
 }
 
-PERMUTE(vnx16qi, 32)
-PERMUTE(vnx8hi, 16)
-PERMUTE(vnx4si, 8)
-PERMUTE(vnx8hf, 16)
-PERMUTE(vnx4sf, 8)
+/*
+** permute_vnx8hi:
+**     ptrue   (p[0-7])\.d, vl4
+**     sel     z0\.h, \1, z0\.h, z1\.h
+**     ret
+*/
+__SVInt16_t
+permute_vnx8hi (__SVInt16_t x, __SVInt16_t y)
+{
+  return __builtin_shuffle ((vnx8hi) x, (vnx8hi) y, (vnx8hi) MASK_16);
+}
 
-/* { dg-final { scan-assembler-not {\ttbl\t} } } */
+/*
+** permute_vnx4si:
+**     ptrue   (p[0-7])\.d, vl4
+**     sel     z0\.s, \1, z0\.s, z1\.s
+**     ret
+*/
+__SVInt32_t
+permute_vnx4si (__SVInt32_t x, __SVInt32_t y)
+{
+  return __builtin_shuffle ((vnx4si) x, (vnx4si) y, (vnx4si) MASK_8);
+}
 
-/* { dg-final { scan-assembler-times {\tsel\tz[0-9]+\.b, p[0-9]+, z[0-9]+\.b, z[0-9]+\.b\n} 1 } } */
-/* { dg-final { scan-assembler-times {\tsel\tz[0-9]+\.h, p[0-9]+, z[0-9]+\.h, z[0-9]+\.h\n} 2 } } */
-/* { dg-final { scan-assembler-times {\tsel\tz[0-9]+\.s, p[0-9]+, z[0-9]+\.s, z[0-9]+\.s\n} 2 } } */
+/*
+** permute_vnx8hf:
+**     ptrue   (p[0-7])\.d, vl4
+**     sel     z0\.h, \1, z0\.h, z1\.h
+**     ret
+*/
+__SVFloat16_t
+permute_vnx8hf (__SVFloat16_t x, __SVFloat16_t y)
+{
+  return (__SVFloat16_t) __builtin_shuffle ((vnx8hf) x, (vnx8hf) y,
+                                           (vnx8hi) MASK_16);
+}
 
-/* { dg-final { scan-assembler-times {\tptrue\tp[0-9]+\.d, vl4\n} 5 } } */
+/*
+** permute_vnx4sf:
+**     ptrue   (p[0-7])\.d, vl4
+**     sel     z0\.s, \1, z0\.s, z1\.s
+**     ret
+*/
+__SVFloat32_t
+permute_vnx4sf (__SVFloat16_t x, __SVFloat16_t y)
+{
+  return __builtin_shuffle ((vnx4sf) x, (vnx4sf) y, (vnx4si) MASK_8);
+}