[Patch ARM arm_neon.h] s/__FAST_MATH/__FAST_MATH__/g
authorJames Greenhalgh <james.greenhalgh@arm.com>
Fri, 17 Jun 2016 10:28:34 +0000 (10:28 +0000)
committerJames Greenhalgh <jgreenhalgh@gcc.gnu.org>
Fri, 17 Jun 2016 10:28:34 +0000 (10:28 +0000)
gcc/

* config/arm/arm_neon.h (vadd_f32): replace __FAST_MATH with
__FAST_MATH__.
(vaddq_f32): Likewise.
(vmul_f32): Likewise.
(vmulq_f32): Likewise.
(vsub_f32): Likewise.
(vsubq_f32): Likewise.

From-SVN: r237553

gcc/ChangeLog
gcc/config/arm/arm_neon.h

index d804252b76c42bd19e66b5d971036f3d895bddb0..0f4846c2c4de7c75789909fcbc83b6e391f11cae 100644 (file)
@@ -1,3 +1,13 @@
+2016-06-17  James Greenhalgh  <james.greenhalgh@arm.com>
+
+       * config/arm/arm_neon.h (vadd_f32): replace __FAST_MATH with
+       __FAST_MATH__.
+       (vaddq_f32): Likewise.
+       (vmul_f32): Likewise.
+       (vmulq_f32): Likewise.
+       (vsub_f32): Likewise.
+       (vsubq_f32): Likewise.
+
 2016-06-17  Bin Cheng  <bin.cheng@arm.com>
 
        PR tree-optimization/71347
index 7997cb4ad3a9ac11eaad53696a78d8254630f59a..32ee06c65f3f86f9a3dbd4ce5845146abbedd225 100644 (file)
@@ -530,7 +530,7 @@ vadd_s32 (int32x2_t __a, int32x2_t __b)
 __extension__ static __inline float32x2_t __attribute__ ((__always_inline__))
 vadd_f32 (float32x2_t __a, float32x2_t __b)
 {
-#ifdef __FAST_MATH
+#ifdef __FAST_MATH__
   return __a + __b;
 #else
   return (float32x2_t) __builtin_neon_vaddv2sf (__a, __b);
@@ -594,7 +594,7 @@ vaddq_s64 (int64x2_t __a, int64x2_t __b)
 __extension__ static __inline float32x4_t __attribute__ ((__always_inline__))
 vaddq_f32 (float32x4_t __a, float32x4_t __b)
 {
-#ifdef __FAST_MATH
+#ifdef __FAST_MATH__
   return __a + __b;
 #else
   return (float32x4_t) __builtin_neon_vaddv4sf (__a, __b);
@@ -1030,7 +1030,7 @@ vmul_s32 (int32x2_t __a, int32x2_t __b)
 __extension__ static __inline float32x2_t __attribute__ ((__always_inline__))
 vmul_f32 (float32x2_t __a, float32x2_t __b)
 {
-#ifdef __FAST_MATH
+#ifdef __FAST_MATH__
   return __a * __b;
 #else
   return (float32x2_t) __builtin_neon_vmulfv2sf (__a, __b);
@@ -1077,7 +1077,7 @@ vmulq_s32 (int32x4_t __a, int32x4_t __b)
 __extension__ static __inline float32x4_t __attribute__ ((__always_inline__))
 vmulq_f32 (float32x4_t __a, float32x4_t __b)
 {
-#ifdef __FAST_MATH
+#ifdef __FAST_MATH__
   return __a * __b;
 #else
   return (float32x4_t) __builtin_neon_vmulfv4sf (__a, __b);
@@ -1678,7 +1678,7 @@ vsub_s32 (int32x2_t __a, int32x2_t __b)
 __extension__ static __inline float32x2_t __attribute__ ((__always_inline__))
 vsub_f32 (float32x2_t __a, float32x2_t __b)
 {
-#ifdef __FAST_MATH
+#ifdef __FAST_MATH__
   return __a - __b;
 #else
   return (float32x2_t) __builtin_neon_vsubv2sf (__a, __b);
@@ -1742,7 +1742,7 @@ vsubq_s64 (int64x2_t __a, int64x2_t __b)
 __extension__ static __inline float32x4_t __attribute__ ((__always_inline__))
 vsubq_f32 (float32x4_t __a, float32x4_t __b)
 {
-#ifdef __FAST_MATH
+#ifdef __FAST_MATH__
   return __a - __b;
 #else
   return (float32x4_t) __builtin_neon_vsubv4sf (__a, __b);