nir/spirv: initial handling of OpenCL.std extension opcodes
authorKarol Herbst <kherbst@redhat.com>
Thu, 12 Jul 2018 13:02:27 +0000 (15:02 +0200)
committerKarol Herbst <kherbst@redhat.com>
Tue, 5 Mar 2019 21:28:29 +0000 (22:28 +0100)
Not complete, mostly just adding things as I encounter them in CTS. But
not getting far enough yet to hit most of the OpenCL.std instructions.

Anyway, this is better than nothing and covers the most common builtins.

v2: add hadd proof from Jason
    move some of the lowering into opt_algebraic and create new nir opcodes
    simplify nextafter lowering
    fix normalize lowering for inf
    rework upsample to use nir_pack_bits
    add missing files to build systems
v3: split lines of iadd/sub_sat expressions

Signed-off-by: Karol Herbst <kherbst@redhat.com>
Reviewed-by: Jason Ekstrand <jason@jlekstrand.net>
12 files changed:
src/compiler/Makefile.sources
src/compiler/nir/meson.build
src/compiler/nir/nir.h
src/compiler/nir/nir_builtin_builder.c
src/compiler/nir/nir_builtin_builder.h
src/compiler/nir/nir_opcodes.py
src/compiler/nir/nir_opt_algebraic.py
src/compiler/spirv/spirv_to_nir.c
src/compiler/spirv/vtn_alu.c
src/compiler/spirv/vtn_glsl450.c
src/compiler/spirv/vtn_opencl.c [new file with mode: 0644]
src/compiler/spirv/vtn_private.h

index 85c216fef1de58c6f3d61c42a3b528a56fdc2a26..037813922244f8b1bc394ffd35834f9fa8d901d3 100644 (file)
@@ -326,6 +326,7 @@ SPIRV_FILES = \
        spirv/GLSL.std.450.h \
        spirv/gl_spirv.c \
        spirv/nir_spirv.h \
+       spirv/OpenCL.std.h \
        spirv/spirv.h \
        spirv/spirv_info.h \
        spirv/spirv_to_nir.c \
@@ -333,6 +334,7 @@ SPIRV_FILES = \
        spirv/vtn_amd.c \
        spirv/vtn_cfg.c \
        spirv/vtn_glsl450.c \
+       spirv/vtn_opencl.c \
        spirv/vtn_private.h \
        spirv/vtn_subgroup.c \
        spirv/vtn_variables.c
index d7f88f391f467819cc9bbe0ba7547b703212d8a2..af781f9a2d55036f1ca1d73c85c2610c5a8cc65d 100644 (file)
@@ -203,6 +203,7 @@ files_libnir = files(
   '../spirv/GLSL.std.450.h',
   '../spirv/gl_spirv.c',
   '../spirv/nir_spirv.h',
+  '../spirv/OpenCL.std.h',
   '../spirv/spirv.h',
   '../spirv/spirv_info.h',
   '../spirv/spirv_to_nir.c',
@@ -210,6 +211,7 @@ files_libnir = files(
   '../spirv/vtn_amd.c',
   '../spirv/vtn_cfg.c',
   '../spirv/vtn_glsl450.c',
+  '../spirv/vtn_opencl.c',
   '../spirv/vtn_private.h',
   '../spirv/vtn_subgroup.c',
   '../spirv/vtn_variables.c',
index 401635712f9db4fb646e751d70888f05219a0252..a6690682c83aabf612007527f4adaf59a8249e4f 100644 (file)
@@ -2252,6 +2252,9 @@ typedef struct nir_shader_compiler_options {
    /* Set if nir_lower_wpos_ytransform() should also invert gl_PointCoord. */
    bool lower_wpos_pntc;
 
+   bool lower_hadd;
+   bool lower_add_sat;
+
    /**
     * Should nir_lower_io() create load_interpolated_input intrinsics?
     *
index 252a7691f362145d5fe25497939d9e4d90a1d9ce..a050306765e4408df0831e529f3564a44a852c5f 100644 (file)
  * IN THE SOFTWARE.
  */
 
+#include <math.h>
+
 #include "nir.h"
 #include "nir_builtin_builder.h"
 
 nir_ssa_def*
-nir_cross(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+nir_cross3(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
 {
    unsigned yzx[3] = { 1, 2, 0 };
    unsigned zxy[3] = { 2, 0, 1 };
@@ -36,6 +38,33 @@ nir_cross(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
                                   nir_swizzle(b, y, yzx, 3, true)));
 }
 
+nir_ssa_def*
+nir_cross4(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *cross = nir_cross3(b, x, y);
+
+   return nir_vec4(b,
+      nir_channel(b, cross, 0),
+      nir_channel(b, cross, 1),
+      nir_channel(b, cross, 2),
+      nir_imm_intN_t(b, 0, cross->bit_size));
+}
+
+nir_ssa_def*
+nir_length(nir_builder *b, nir_ssa_def *vec)
+{
+   nir_ssa_def *finf = nir_imm_floatN_t(b, INFINITY, vec->bit_size);
+
+   nir_ssa_def *abs = nir_fabs(b, vec);
+   if (vec->num_components == 1)
+      return abs;
+
+   nir_ssa_def *maxc = nir_fmax_abs_vec_comp(b, abs);
+   abs = nir_fdiv(b, abs, maxc);
+   nir_ssa_def *res = nir_fmul(b, nir_fsqrt(b, nir_fdot(b, abs, abs)), maxc);
+   return nir_bcsel(b, nir_feq(b, maxc, finf), maxc, res);
+}
+
 nir_ssa_def*
 nir_fast_length(nir_builder *b, nir_ssa_def *vec)
 {
@@ -49,6 +78,72 @@ nir_fast_length(nir_builder *b, nir_ssa_def *vec)
    }
 }
 
+nir_ssa_def*
+nir_nextafter(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *zero = nir_imm_intN_t(b, 0, x->bit_size);
+   nir_ssa_def *one = nir_imm_intN_t(b, 1, x->bit_size);
+
+   nir_ssa_def *condeq = nir_feq(b, x, y);
+   nir_ssa_def *conddir = nir_flt(b, x, y);
+   nir_ssa_def *condzero = nir_feq(b, x, zero);
+
+   /* beware of: +/-0.0 - 1 == NaN */
+   nir_ssa_def *xn =
+      nir_bcsel(b,
+                condzero,
+                nir_imm_intN_t(b, (1 << (x->bit_size - 1)) + 1, x->bit_size),
+                nir_isub(b, x, one));
+
+   /* beware of -0.0 + 1 == -0x1p-149 */
+   nir_ssa_def *xp = nir_bcsel(b, condzero, one, nir_iadd(b, x, one));
+
+   /* nextafter can be implemented by just +/- 1 on the int value */
+   nir_ssa_def *res =
+      nir_bcsel(b, nir_ixor(b, conddir, nir_flt(b, x, zero)), xp, xn);
+
+   return nir_nan_check2(b, x, y, nir_bcsel(b, condeq, x, res));
+}
+
+nir_ssa_def*
+nir_normalize(nir_builder *b, nir_ssa_def *vec)
+{
+   if (vec->num_components == 1)
+      return nir_fsign(b, vec);
+
+   nir_ssa_def *f0 = nir_imm_floatN_t(b, 0.0, vec->bit_size);
+   nir_ssa_def *f1 = nir_imm_floatN_t(b, 1.0, vec->bit_size);
+   nir_ssa_def *finf = nir_imm_floatN_t(b, INFINITY, vec->bit_size);
+
+   /* scale the input to increase precision */
+   nir_ssa_def *maxc = nir_fmax_abs_vec_comp(b, vec);
+   nir_ssa_def *svec = nir_fdiv(b, vec, maxc);
+   /* for inf */
+   nir_ssa_def *finfvec = nir_copysign(b, nir_bcsel(b, nir_feq(b, vec, finf), f1, f0), f1);
+
+   nir_ssa_def *temp = nir_bcsel(b, nir_feq(b, maxc, finf), finfvec, svec);
+   nir_ssa_def *res = nir_fmul(b, temp, nir_frsq(b, nir_fdot(b, temp, temp)));
+
+   return nir_bcsel(b, nir_feq(b, maxc, f0), vec, res);
+}
+
+nir_ssa_def*
+nir_rotate(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *shift_mask = nir_imm_int(b, x->bit_size - 1);
+
+   if (y->bit_size != 32)
+      y = nir_u2u32(b, y);
+
+   nir_ssa_def *lshift = nir_iand(b, y, shift_mask);
+   nir_ssa_def *rshift = nir_isub(b, nir_imm_int(b, x->bit_size), lshift);
+
+   nir_ssa_def *hi = nir_ishl(b, x, lshift);
+   nir_ssa_def *lo = nir_ushr(b, x, rshift);
+
+   return nir_ior(b, hi, lo);
+}
+
 nir_ssa_def*
 nir_smoothstep(nir_builder *b, nir_ssa_def *edge0, nir_ssa_def *edge1, nir_ssa_def *x)
 {
@@ -63,3 +158,18 @@ nir_smoothstep(nir_builder *b, nir_ssa_def *edge0, nir_ssa_def *edge1, nir_ssa_d
    /* result = t * t * (3 - 2 * t) */
    return nir_fmul(b, t, nir_fmul(b, t, nir_fsub(b, f3, nir_fmul(b, f2, t))));
 }
+
+nir_ssa_def*
+nir_upsample(nir_builder *b, nir_ssa_def *hi, nir_ssa_def *lo)
+{
+   assert(lo->num_components == hi->num_components);
+   assert(lo->bit_size == hi->bit_size);
+
+   nir_ssa_def *res[NIR_MAX_VEC_COMPONENTS];
+   for (unsigned i = 0; i < lo->num_components; ++i) {
+      nir_ssa_def *vec = nir_vec2(b, nir_channel(b, lo, i), nir_channel(b, hi, i));
+      res[i] = nir_pack_bits(b, vec, vec->bit_size * 2);
+   }
+
+   return nir_vec(b, res, lo->num_components);
+}
index 792fa08e8c51dfda4b52594e6ed6e611e226bb81..39a1e0bd3cd2692b9cbf8d6613100f73c1e1b31c 100644 (file)
  * Definitions for functions in the C file come first.
  */
 
-nir_ssa_def* nir_cross(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y);
+nir_ssa_def* nir_cross3(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y);
+nir_ssa_def* nir_cross4(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y);
+nir_ssa_def* nir_length(nir_builder *b, nir_ssa_def *vec);
 nir_ssa_def* nir_fast_length(nir_builder *b, nir_ssa_def *vec);
+nir_ssa_def* nir_nextafter(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y);
+nir_ssa_def* nir_normalize(nir_builder *b, nir_ssa_def *vec);
+nir_ssa_def* nir_rotate(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y);
 nir_ssa_def* nir_smoothstep(nir_builder *b, nir_ssa_def *edge0,
                             nir_ssa_def *edge1, nir_ssa_def *x);
+nir_ssa_def* nir_upsample(nir_builder *b, nir_ssa_def *hi, nir_ssa_def *lo);
+
+static inline nir_ssa_def *
+nir_nan_check2(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y, nir_ssa_def *res)
+{
+   return nir_bcsel(b, nir_fne(b, x, x), x, nir_bcsel(b, nir_fne(b, y, y), y, res));
+}
+
+static inline nir_ssa_def *
+nir_fmax_abs_vec_comp(nir_builder *b, nir_ssa_def *vec)
+{
+   nir_ssa_def *res = nir_channel(b, vec, 0);
+   for (unsigned i = 1; i < vec->num_components; ++i)
+      res = nir_fmax(b, res, nir_fabs(b, nir_channel(b, vec, i)));
+   return res;
+}
+
+static inline nir_ssa_def *
+nir_iabs_diff(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *cond = nir_ige(b, x, y);
+   nir_ssa_def *res0 = nir_isub(b, x, y);
+   nir_ssa_def *res1 = nir_isub(b, y, x);
+   return nir_bcsel(b, cond, res0, res1);
+}
+
+static inline nir_ssa_def *
+nir_uabs_diff(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *cond = nir_uge(b, x, y);
+   nir_ssa_def *res0 = nir_isub(b, x, y);
+   nir_ssa_def *res1 = nir_isub(b, y, x);
+   return nir_bcsel(b, cond, res0, res1);
+}
+
+static inline nir_ssa_def *
+nir_bitselect(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y, nir_ssa_def *s)
+{
+   return nir_ior(b, nir_iand(b, nir_inot(b, s), x), nir_iand(b, s, y));
+}
 
 static inline nir_ssa_def *
 nir_fclamp(nir_builder *b,
@@ -57,12 +102,41 @@ nir_uclamp(nir_builder *b,
    return nir_umin(b, nir_umax(b, x, min_val), max_val);
 }
 
+static inline nir_ssa_def *
+nir_copysign(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   uint64_t masks = 1ull << (x->bit_size - 1);
+   uint64_t maskv = ~masks;
+
+   nir_ssa_def *s = nir_imm_intN_t(b, masks, x->bit_size);
+   nir_ssa_def *v = nir_imm_intN_t(b, maskv, x->bit_size);
+
+   return nir_ior(b, nir_iand(b, x, v), nir_iand(b, y, s));
+}
+
 static inline nir_ssa_def *
 nir_degrees(nir_builder *b, nir_ssa_def *val)
 {
    return nir_fmul_imm(b, val, 180.0 / M_PI);
 }
 
+static inline nir_ssa_def *
+nir_fdim(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *cond = nir_flt(b, y, x);
+   nir_ssa_def *res = nir_fsub(b, x, y);
+   nir_ssa_def *zero = nir_imm_floatN_t(b, 0.0, x->bit_size);
+
+   // return NaN if either x or y are NaN, else x-y if x>y, else +0.0
+   return nir_nan_check2(b, x, y, nir_bcsel(b, cond, res, zero));
+}
+
+static inline nir_ssa_def *
+nir_distance(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   return nir_length(b, nir_fsub(b, x, y));
+}
+
 static inline nir_ssa_def *
 nir_fast_distance(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
 {
@@ -75,10 +149,64 @@ nir_fast_normalize(nir_builder *b, nir_ssa_def *vec)
    return nir_fdiv(b, vec, nir_fast_length(b, vec));
 }
 
+static inline nir_ssa_def*
+nir_fmad(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y, nir_ssa_def *z)
+{
+   return nir_fadd(b, nir_fmul(b, x, y), z);
+}
+
+static inline nir_ssa_def*
+nir_maxmag(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *xabs = nir_fabs(b, x);
+   nir_ssa_def *yabs = nir_fabs(b, y);
+
+   nir_ssa_def *condy = nir_flt(b, xabs, yabs);
+   nir_ssa_def *condx = nir_flt(b, yabs, xabs);
+
+   return nir_bcsel(b, condy, y, nir_bcsel(b, condx, x, nir_fmax(b, x, y)));
+}
+
+static inline nir_ssa_def*
+nir_minmag(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y)
+{
+   nir_ssa_def *xabs = nir_fabs(b, x);
+   nir_ssa_def *yabs = nir_fabs(b, y);
+
+   nir_ssa_def *condx = nir_flt(b, xabs, yabs);
+   nir_ssa_def *condy = nir_flt(b, yabs, xabs);
+
+   return nir_bcsel(b, condy, y, nir_bcsel(b, condx, x, nir_fmin(b, x, y)));
+}
+
+static inline nir_ssa_def*
+nir_nan(nir_builder *b, nir_ssa_def *x)
+{
+   nir_ssa_def *nan = nir_imm_floatN_t(b, NAN, x->bit_size);
+   if (x->num_components == 1)
+      return nan;
+
+   nir_ssa_def *nans[NIR_MAX_VEC_COMPONENTS];
+   for (unsigned i = 0; i < x->num_components; ++i)
+      nans[i] = nan;
+
+   return nir_vec(b, nans, x->num_components);
+}
+
 static inline nir_ssa_def *
 nir_radians(nir_builder *b, nir_ssa_def *val)
 {
    return nir_fmul_imm(b, val, M_PI / 180.0);
 }
 
+static inline nir_ssa_def *
+nir_select(nir_builder *b, nir_ssa_def *x, nir_ssa_def *y, nir_ssa_def *s)
+{
+   if (s->num_components != 1) {
+      uint64_t mask = 1ull << (s->bit_size - 1);
+      s = nir_iand(b, s, nir_imm_intN_t(b, mask, s->bit_size));
+   }
+   return nir_bcsel(b, nir_ieq(b, s, nir_imm_intN_t(b, 0, s->bit_size)), x, y);
+}
+
 #endif /* NIR_BUILTIN_BUILDER_H */
index 42f8662352e2c8d9f1ead8602845a285601859a0..5da3cafabb2f73776f85236ef41f4aef1c1f8520 100644 (file)
@@ -466,8 +466,20 @@ def binop_reduce(name, output_size, output_type, src_type, prereduce_expr,
 
 binop("fadd", tfloat, commutative + associative, "src0 + src1")
 binop("iadd", tint, commutative + associative, "src0 + src1")
+binop("iadd_sat", tint, commutative + associative, """
+      src1 > 0 ?
+         (src0 + src1 < src0 ? (1ull << (bit_size - 1)) - 1 : src0 + src1) :
+         (src0 < src0 + src1 ? (1ull << (bit_size - 1))     : src0 + src1)
+""")
 binop("uadd_sat", tuint, commutative,
       "(src0 + src1) < src0 ? UINT64_MAX : (src0 + src1)")
+binop("isub_sat", tint, "", """
+      src1 < 0 ?
+         (src0 - src1 < src0 ? (1ull << (bit_size - 1)) - 1 : src0 - src1) :
+         (src0 < src0 - src1 ? (1ull << (bit_size - 1))     : src0 - src1)
+""")
+binop("usub_sat", tuint, "", "src0 < src1 ? 0 : src0 - src1")
+
 binop("fsub", tfloat, "", "src0 - src1")
 binop("isub", tint, "", "src0 - src1")
 
@@ -536,6 +548,32 @@ binop_convert("uadd_carry", tuint, tuint, commutative, "src0 + src1 < src0")
 
 binop_convert("usub_borrow", tuint, tuint, "", "src0 < src1")
 
+# hadd: (a + b) >> 1 (without overflow)
+# x + y = x - (x & ~y) + (x & ~y) + y - (~x & y) + (~x & y)
+#       =      (x & y) + (x & ~y) +      (x & y) + (~x & y)
+#       = 2 *  (x & y) + (x & ~y) +                (~x & y)
+#       =     ((x & y) << 1) + (x ^ y)
+#
+# Since we know that the bottom bit of (x & y) << 1 is zero,
+#
+# (x + y) >> 1 = (((x & y) << 1) + (x ^ y)) >> 1
+#              =   (x & y) +      ((x ^ y)  >> 1)
+binop("ihadd", tint, commutative, "(src0 & src1) + ((src0 ^ src1) >> 1)")
+binop("uhadd", tuint, commutative, "(src0 & src1) + ((src0 ^ src1) >> 1)")
+
+# rhadd: (a + b + 1) >> 1 (without overflow)
+# x + y + 1 = x + (~x & y) - (~x & y) + y + (x & ~y) - (x & ~y) + 1
+#           =      (x | y) - (~x & y) +      (x | y) - (x & ~y) + 1
+#           = 2 *  (x | y) - ((~x & y) +               (x & ~y)) + 1
+#           =     ((x | y) << 1) - (x ^ y) + 1
+#
+# Since we know that the bottom bit of (x & y) << 1 is zero,
+#
+# (x + y + 1) >> 1 = (x | y) + (-(x ^ y) + 1) >> 1)
+#                  = (x | y) -  ((x ^ y)      >> 1)
+binop("irhadd", tint, commutative, "(src0 | src1) + ((src0 ^ src1) >> 1)")
+binop("urhadd", tuint, commutative, "(src0 | src1) + ((src0 ^ src1) >> 1)")
+
 binop("umod", tuint, "", "src1 == 0 ? 0 : src0 % src1")
 
 # For signed integers, there are several different possible definitions of
index e8191b722718fa5cb99ec840af1d6d471e7f67bf..5b2e7ee2405378896e8283641c9302a84b2651bd 100644 (file)
@@ -678,6 +678,12 @@ optimizations = [
     ('bcsel', ('ilt', 31, 'bits'), 'insert',
               ('bfi', ('bfm', 'bits', 'offset'), 'insert', 'base')),
     'options->lower_bitfield_insert'),
+   (('ihadd', a, b), ('iadd', ('iand', a, b), ('ishr', ('ixor', a, b), 1)), 'options->lower_hadd'),
+   (('uhadd', a, b), ('iadd', ('iand', a, b), ('ushr', ('ixor', a, b), 1)), 'options->lower_hadd'),
+   (('irhadd', a, b), ('isub', ('ior', a, b), ('ishr', ('ixor', a, b), 1)), 'options->lower_hadd'),
+   (('urhadd', a, b), ('isub', ('ior', a, b), ('ushr', ('ixor', a, b), 1)), 'options->lower_hadd'),
+   (('uadd_sat', a, b), ('bcsel', ('ult', ('iadd', a, b), a), -1, ('iadd', a, b)), 'options->lower_add_sat'),
+   (('usub_sat', a, b), ('bcsel', ('ult', a, b), 0, ('isub', a, b)), 'options->lower_add_sat'),
 
    # Alternative lowering that doesn't rely on bfi.
    (('bitfield_insert', 'base', 'insert', 'offset', 'bits'),
@@ -794,6 +800,21 @@ optimizations = [
    (('isign', a), ('imin', ('imax', a, -1), 1), 'options->lower_isign'),
 ]
 
+# bit_size dependent lowerings
+for bit_size in [8, 16, 32, 64]:
+   # convenience constants
+   intmax = (1 << (bit_size - 1)) - 1
+   intmin = 1 << (bit_size - 1)
+
+   optimizations += [
+      (('iadd_sat@' + str(bit_size), a, b),
+       ('bcsel', ('ige', b, 1), ('bcsel', ('ilt', ('iadd', a, b), a), intmax, ('iadd', a, b)),
+                                ('bcsel', ('ilt', a, ('iadd', a, b)), intmin, ('iadd', a, b))), 'options->lower_add_sat'),
+      (('isub_sat@' + str(bit_size), a, b),
+       ('bcsel', ('ilt', b, 0), ('bcsel', ('ilt', ('isub', a, b), a), intmax, ('isub', a, b)),
+                                ('bcsel', ('ilt', a, ('isub', a, b)), intmin, ('isub', a, b))), 'options->lower_add_sat'),
+   ]
+
 invert = OrderedDict([('feq', 'fne'), ('fne', 'feq'), ('fge', 'flt'), ('flt', 'fge')])
 
 for left, right in itertools.combinations_with_replacement(invert.keys(), 2):
index 08b7ae09d9c6e424f48bcc7a81929ff364843009..2136c9df705d88706b0ebee75ae775b1e6a0c970 100644 (file)
@@ -395,6 +395,8 @@ vtn_handle_extension(struct vtn_builder *b, SpvOp opcode,
       } else if ((strcmp(ext, "SPV_AMD_shader_trinary_minmax") == 0)
                 && (b->options && b->options->caps.trinary_minmax)) {
          val->ext_handler = vtn_handle_amd_shader_trinary_minmax_instruction;
+      } else if (strcmp(ext, "OpenCL.std") == 0) {
+         val->ext_handler = vtn_handle_opencl_instruction;
       } else {
          vtn_fail("Unsupported extension: %s", ext);
       }
index fa8f259a006c105070945a7e985817545c763e25..6bc015a096d642fed0c9bbbaabbb6c1d664add80 100644 (file)
@@ -636,6 +636,21 @@ vtn_handle_alu(struct vtn_builder *b, SpvOp opcode,
       break;
    }
 
+   case SpvOpSignBitSet: {
+      unsigned src_bit_size = glsl_get_bit_size(vtn_src[0]->type);
+      if (src[0]->num_components == 1)
+         val->ssa->def =
+            nir_ushr(&b->nb, src[0], nir_imm_int(&b->nb, src_bit_size - 1));
+      else
+         val->ssa->def =
+            nir_ishr(&b->nb, src[0], nir_imm_int(&b->nb, src_bit_size - 1));
+
+      if (src_bit_size != 32)
+         val->ssa->def = nir_u2u32(&b->nb, val->ssa->def);
+
+      break;
+   }
+
    default: {
       bool swap;
       unsigned src_bit_size = glsl_get_bit_size(vtn_src[0]->type);
index 04807700b72398101f02f57da91ec30d22099cd7..ef40e4912ffbc272128e27b1c05ee6939a679503 100644 (file)
@@ -646,7 +646,7 @@ handle_glsl450_alu(struct vtn_builder *b, enum GLSLstd450 entrypoint,
       return;
 
    case GLSLstd450Cross: {
-      val->ssa->def = nir_cross(nb, src[0], src[1]);
+      val->ssa->def = nir_cross3(nb, src[0], src[1]);
       return;
    }
 
diff --git a/src/compiler/spirv/vtn_opencl.c b/src/compiler/spirv/vtn_opencl.c
new file mode 100644 (file)
index 0000000..5d37eeb
--- /dev/null
@@ -0,0 +1,275 @@
+/*
+ * Copyright © 2018 Red Hat
+ *
+ * Permission is hereby granted, free of charge, to any person obtaining a
+ * copy of this software and associated documentation files (the "Software"),
+ * to deal in the Software without restriction, including without limitation
+ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
+ * and/or sell copies of the Software, and to permit persons to whom the
+ * Software is furnished to do so, subject to the following conditions:
+ *
+ * The above copyright notice and this permission notice (including the next
+ * paragraph) shall be included in all copies or substantial portions of the
+ * Software.
+ *
+ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
+ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
+ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
+ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
+ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
+ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
+ * IN THE SOFTWARE.
+ *
+ * Authors:
+ *    Rob Clark (robdclark@gmail.com)
+ */
+
+#include "math.h"
+
+#include "nir/nir_builtin_builder.h"
+
+#include "vtn_private.h"
+#include "OpenCL.std.h"
+
+typedef nir_ssa_def *(*nir_handler)(struct vtn_builder *b, enum OpenCLstd opcode,
+                                    unsigned num_srcs, nir_ssa_def **srcs,
+                                    const struct glsl_type *dest_type);
+
+static void
+handle_instr(struct vtn_builder *b, enum OpenCLstd opcode, const uint32_t *w,
+             unsigned count, nir_handler handler)
+{
+   const struct glsl_type *dest_type =
+      vtn_value(b, w[1], vtn_value_type_type)->type->type;
+
+   unsigned num_srcs = count - 5;
+   nir_ssa_def *srcs[3] = { NULL };
+   vtn_assert(num_srcs <= ARRAY_SIZE(srcs));
+   for (unsigned i = 0; i < num_srcs; i++) {
+      srcs[i] = vtn_ssa_value(b, w[i + 5])->def;
+   }
+
+   nir_ssa_def *result = handler(b, opcode, num_srcs, srcs, dest_type);
+   if (result) {
+      struct vtn_value *val = vtn_push_value(b, w[2], vtn_value_type_ssa);
+      val->ssa = vtn_create_ssa_value(b, dest_type);
+      val->ssa->def = result;
+   } else {
+      vtn_assert(dest_type == glsl_void_type());
+   }
+}
+
+static nir_op
+nir_alu_op_for_opencl_opcode(struct vtn_builder *b, enum OpenCLstd opcode)
+{
+   switch (opcode) {
+   case Fabs: return nir_op_fabs;
+   case SAbs: return nir_op_iabs;
+   case SAdd_sat: return nir_op_iadd_sat;
+   case UAdd_sat: return nir_op_uadd_sat;
+   case Ceil: return nir_op_fceil;
+   case Cos: return nir_op_fcos;
+   case Exp2: return nir_op_fexp2;
+   case Log2: return nir_op_flog2;
+   case Floor: return nir_op_ffloor;
+   case SHadd: return nir_op_ihadd;
+   case UHadd: return nir_op_uhadd;
+   case Fma: return nir_op_ffma;
+   case Fmax: return nir_op_fmax;
+   case SMax: return nir_op_imax;
+   case UMax: return nir_op_umax;
+   case Fmin: return nir_op_fmin;
+   case SMin: return nir_op_imin;
+   case UMin: return nir_op_umin;
+   case Fmod: return nir_op_fmod;
+   case Mix: return nir_op_flrp;
+   case SMul_hi: return nir_op_imul_high;
+   case UMul_hi: return nir_op_umul_high;
+   case Popcount: return nir_op_bit_count;
+   case Pow: return nir_op_fpow;
+   case Remainder: return nir_op_frem;
+   case SRhadd: return nir_op_irhadd;
+   case URhadd: return nir_op_urhadd;
+   case Rsqrt: return nir_op_frsq;
+   case Sign: return nir_op_fsign;
+   case Sin: return nir_op_fsin;
+   case Sqrt: return nir_op_fsqrt;
+   case SSub_sat: return nir_op_isub_sat;
+   case USub_sat: return nir_op_usub_sat;
+   case Trunc: return nir_op_ftrunc;
+   /* uhm... */
+   case UAbs: return nir_op_imov;
+   default:
+      vtn_fail("No NIR equivalent");
+   }
+}
+
+static nir_ssa_def *
+handle_alu(struct vtn_builder *b, enum OpenCLstd opcode, unsigned num_srcs,
+           nir_ssa_def **srcs, const struct glsl_type *dest_type)
+{
+   return nir_build_alu(&b->nb, nir_alu_op_for_opencl_opcode(b, opcode),
+                        srcs[0], srcs[1], srcs[2], NULL);
+}
+
+static nir_ssa_def *
+handle_special(struct vtn_builder *b, enum OpenCLstd opcode, unsigned num_srcs,
+               nir_ssa_def **srcs, const struct glsl_type *dest_type)
+{
+   nir_builder *nb = &b->nb;
+
+   switch (opcode) {
+   case SAbs_diff:
+      return nir_iabs_diff(nb, srcs[0], srcs[1]);
+   case UAbs_diff:
+      return nir_uabs_diff(nb, srcs[0], srcs[1]);
+   case Bitselect:
+      return nir_bitselect(nb, srcs[0], srcs[1], srcs[2]);
+   case FClamp:
+      return nir_fclamp(nb, srcs[0], srcs[1], srcs[2]);
+   case SClamp:
+      return nir_iclamp(nb, srcs[0], srcs[1], srcs[2]);
+   case UClamp:
+      return nir_uclamp(nb, srcs[0], srcs[1], srcs[2]);
+   case Copysign:
+      return nir_copysign(nb, srcs[0], srcs[1]);
+   case Cross:
+      if (glsl_get_components(dest_type) == 4)
+         return nir_cross4(nb, srcs[0], srcs[1]);
+      return nir_cross3(nb, srcs[0], srcs[1]);
+   case Degrees:
+      return nir_degrees(nb, srcs[0]);
+   case Fdim:
+      return nir_fdim(nb, srcs[0], srcs[1]);
+   case Distance:
+      return nir_distance(nb, srcs[0], srcs[1]);
+   case Fast_distance:
+      return nir_fast_distance(nb, srcs[0], srcs[1]);
+   case Fast_length:
+      return nir_fast_length(nb, srcs[0]);
+   case Fast_normalize:
+      return nir_fast_normalize(nb, srcs[0]);
+   case Length:
+      return nir_length(nb, srcs[0]);
+   case Mad:
+      return nir_fmad(nb, srcs[0], srcs[1], srcs[2]);
+   case Maxmag:
+      return nir_maxmag(nb, srcs[0], srcs[1]);
+   case Minmag:
+      return nir_minmag(nb, srcs[0], srcs[1]);
+   case Nan:
+      return nir_nan(nb, srcs[0]);
+   case Nextafter:
+      return nir_nextafter(nb, srcs[0], srcs[1]);
+   case Normalize:
+      return nir_normalize(nb, srcs[0]);
+   case Radians:
+      return nir_radians(nb, srcs[0]);
+   case Rotate:
+      return nir_rotate(nb, srcs[0], srcs[1]);
+   case Smoothstep:
+      return nir_smoothstep(nb, srcs[0], srcs[1], srcs[2]);
+   case Select:
+      return nir_select(nb, srcs[0], srcs[1], srcs[2]);
+   case Step:
+      return nir_sge(nb, srcs[1], srcs[0]);
+   case S_Upsample:
+   case U_Upsample:
+      return nir_upsample(nb, srcs[0], srcs[1]);
+   default:
+      vtn_fail("No NIR equivalent");
+      return NULL;
+   }
+}
+
+static nir_ssa_def *
+handle_printf(struct vtn_builder *b, enum OpenCLstd opcode, unsigned num_srcs,
+              nir_ssa_def **srcs, const struct glsl_type *dest_type)
+{
+   /* hahah, yeah, right.. */
+   return nir_imm_int(&b->nb, -1);
+}
+
+bool
+vtn_handle_opencl_instruction(struct vtn_builder *b, uint32_t ext_opcode,
+                              const uint32_t *w, unsigned count)
+{
+   switch (ext_opcode) {
+   case Fabs:
+   case SAbs:
+   case UAbs:
+   case SAdd_sat:
+   case UAdd_sat:
+   case Ceil:
+   case Cos:
+   case Exp2:
+   case Log2:
+   case Floor:
+   case Fma:
+   case Fmax:
+   case SHadd:
+   case UHadd:
+   case SMax:
+   case UMax:
+   case Fmin:
+   case SMin:
+   case UMin:
+   case Mix:
+   case Fmod:
+   case SMul_hi:
+   case UMul_hi:
+   case Popcount:
+   case Pow:
+   case Remainder:
+   case SRhadd:
+   case URhadd:
+   case Rsqrt:
+   case Sign:
+   case Sin:
+   case Sqrt:
+   case SSub_sat:
+   case USub_sat:
+   case Trunc:
+      handle_instr(b, ext_opcode, w, count, handle_alu);
+      return true;
+   case SAbs_diff:
+   case UAbs_diff:
+   case Bitselect:
+   case FClamp:
+   case SClamp:
+   case UClamp:
+   case Copysign:
+   case Cross:
+   case Degrees:
+   case Fdim:
+   case Distance:
+   case Fast_distance:
+   case Fast_length:
+   case Fast_normalize:
+   case Length:
+   case Mad:
+   case Maxmag:
+   case Minmag:
+   case Nan:
+   case Nextafter:
+   case Normalize:
+   case Radians:
+   case Rotate:
+   case Select:
+   case Step:
+   case Smoothstep:
+   case S_Upsample:
+   case U_Upsample:
+      handle_instr(b, ext_opcode, w, count, handle_special);
+      return true;
+   case Printf:
+      handle_instr(b, ext_opcode, w, count, handle_printf);
+      return true;
+   case Prefetch:
+      /* TODO maybe add a nir instruction for this? */
+      return true;
+   default:
+      vtn_fail("unhandled opencl opc: %u\n", ext_opcode);
+      return false;
+   }
+}
index 330cf47b34a6a7361d180893cdc4058c08a85417..bdf326c26f73018b119b56645f87a3189a9aff2e 100644 (file)
@@ -768,6 +768,9 @@ void vtn_handle_subgroup(struct vtn_builder *b, SpvOp opcode,
 bool vtn_handle_glsl450_instruction(struct vtn_builder *b, SpvOp ext_opcode,
                                     const uint32_t *words, unsigned count);
 
+bool vtn_handle_opencl_instruction(struct vtn_builder *b, uint32_t ext_opcode,
+                                   const uint32_t *words, unsigned count);
+
 struct vtn_builder* vtn_create_builder(const uint32_t *words, size_t word_count,
                                        gl_shader_stage stage, const char *entry_point_name,
                                        const struct spirv_to_nir_options *options);