nir: Wire up int64 lowering functions
[mesa.git] / src / compiler / nir / nir_format_convert.h
index 305273cdfdd0a099b67fcd403ef269b00f04a13c..bf6dc201a1881e9c127c353b6bd693500f40b812 100644 (file)
@@ -51,8 +51,7 @@ nir_mask_shift_or(struct nir_builder *b, nir_ssa_def *dst, nir_ssa_def *src,
 }
 
 static inline nir_ssa_def *
-nir_format_mask_uvec(nir_builder *b, nir_ssa_def *src,
-                     const unsigned *bits)
+nir_format_mask_uvec(nir_builder *b, nir_ssa_def *src, const unsigned *bits)
 {
    nir_const_value mask;
    for (unsigned i = 0; i < src->num_components; i++) {
@@ -91,19 +90,24 @@ nir_format_unpack_int(nir_builder *b, nir_ssa_def *packed,
       return packed;
    }
 
+   unsigned next_chan = 0;
    unsigned offset = 0;
    for (unsigned i = 0; i < num_components; i++) {
       assert(bits[i] < bit_size);
       assert(offset + bits[i] <= bit_size);
+      nir_ssa_def *chan = nir_channel(b, packed, next_chan);
       nir_ssa_def *lshift = nir_imm_int(b, bit_size - (offset + bits[i]));
       nir_ssa_def *rshift = nir_imm_int(b, bit_size - bits[i]);
       if (sign_extend)
-         comps[i] = nir_ishr(b, nir_ishl(b, packed, lshift), rshift);
+         comps[i] = nir_ishr(b, nir_ishl(b, chan, lshift), rshift);
       else
-         comps[i] = nir_ushr(b, nir_ishl(b, packed, lshift), rshift);
+         comps[i] = nir_ushr(b, nir_ishl(b, chan, lshift), rshift);
       offset += bits[i];
+      if (offset >= bit_size) {
+         next_chan++;
+         offset -= bit_size;
+      }
    }
-   assert(offset <= bit_size);
 
    return nir_vec(b, comps, num_components);
 }
@@ -148,9 +152,10 @@ nir_format_pack_uint(nir_builder *b, nir_ssa_def *color,
 }
 
 static inline nir_ssa_def *
-nir_format_bitcast_uint_vec_unmasked(nir_builder *b, nir_ssa_def *src,
-                                     unsigned src_bits, unsigned dst_bits)
+nir_format_bitcast_uvec_unmasked(nir_builder *b, nir_ssa_def *src,
+                                 unsigned src_bits, unsigned dst_bits)
 {
+   assert(src->bit_size >= src_bits && src->bit_size >= dst_bits);
    assert(src_bits == 8 || src_bits == 16 || src_bits == 32);
    assert(dst_bits == 8 || dst_bits == 16 || dst_bits == 32);
 
@@ -200,6 +205,75 @@ nir_format_bitcast_uint_vec_unmasked(nir_builder *b, nir_ssa_def *src,
    return nir_vec(b, dst_chan, dst_components);
 }
 
+static inline nir_ssa_def *
+_nir_format_norm_factor(nir_builder *b, const unsigned *bits,
+                        unsigned num_components,
+                        bool is_signed)
+{
+   nir_const_value factor;
+   for (unsigned i = 0; i < num_components; i++) {
+      assert(bits[i] < 32);
+      factor.f32[i] = (1ul << (bits[i] - is_signed)) - 1;
+   }
+   return nir_build_imm(b, num_components, 32, factor);
+}
+
+static inline nir_ssa_def *
+nir_format_unorm_to_float(nir_builder *b, nir_ssa_def *u, const unsigned *bits)
+{
+   nir_ssa_def *factor =
+      _nir_format_norm_factor(b, bits, u->num_components, false);
+
+   return nir_fdiv(b, nir_u2f32(b, u), factor);
+}
+
+static inline nir_ssa_def *
+nir_format_snorm_to_float(nir_builder *b, nir_ssa_def *s, const unsigned *bits)
+{
+   nir_ssa_def *factor =
+      _nir_format_norm_factor(b, bits, s->num_components, true);
+
+   return nir_fmax(b, nir_fdiv(b, nir_i2f32(b, s), factor),
+                      nir_imm_float(b, -1.0f));
+}
+
+static inline nir_ssa_def *
+nir_format_float_to_unorm(nir_builder *b, nir_ssa_def *f, const unsigned *bits)
+{
+   nir_ssa_def *factor =
+      _nir_format_norm_factor(b, bits, f->num_components, false);
+
+   /* Clamp to the range [0, 1] */
+   f = nir_fsat(b, f);
+
+   return nir_f2u32(b, nir_fround_even(b, nir_fmul(b, f, factor)));
+}
+
+static inline nir_ssa_def *
+nir_format_float_to_snorm(nir_builder *b, nir_ssa_def *f, const unsigned *bits)
+{
+   nir_ssa_def *factor =
+      _nir_format_norm_factor(b, bits, f->num_components, true);
+
+   /* Clamp to the range [-1, 1] */
+   f = nir_fmin(b, nir_fmax(b, f, nir_imm_float(b, -1)), nir_imm_float(b, 1));
+
+   return nir_f2i32(b, nir_fround_even(b, nir_fmul(b, f, factor)));
+}
+
+/* Converts a vector of floats to a vector of half-floats packed in the low 16
+ * bits.
+ */
+static inline nir_ssa_def *
+nir_format_float_to_half(nir_builder *b, nir_ssa_def *f)
+{
+   nir_ssa_def *zero = nir_imm_float(b, 0);
+   nir_ssa_def *f16comps[4];
+   for (unsigned i = 0; i < f->num_components; i++)
+      f16comps[i] = nir_pack_half_2x16_split(b, nir_channel(b, f, i), zero);
+   return nir_vec(b, f16comps, f->num_components);
+}
+
 static inline nir_ssa_def *
 nir_format_linear_to_srgb(nir_builder *b, nir_ssa_def *c)
 {
@@ -226,12 +300,50 @@ nir_format_srgb_to_linear(nir_builder *b, nir_ssa_def *c)
                                    linear, curved));
 }
 
+/* Clamps a vector of uints so they don't extend beyond the given number of
+ * bits per channel.
+ */
+static inline nir_ssa_def *
+nir_format_clamp_uint(nir_builder *b, nir_ssa_def *f, const unsigned *bits)
+{
+   if (bits[0] == 32)
+      return f;
+
+   nir_const_value max;
+   for (unsigned i = 0; i < f->num_components; i++) {
+      assert(bits[i] < 32);
+      max.u32[i] = (1 << bits[i]) - 1;
+   }
+   return nir_umin(b, f, nir_build_imm(b, f->num_components, 32, max));
+}
+
+/* Clamps a vector of sints so they don't extend beyond the given number of
+ * bits per channel.
+ */
+static inline nir_ssa_def *
+nir_format_clamp_sint(nir_builder *b, nir_ssa_def *f, const unsigned *bits)
+{
+   if (bits[0] == 32)
+      return f;
+
+   nir_const_value min, max;
+   for (unsigned i = 0; i < f->num_components; i++) {
+      assert(bits[i] < 32);
+      max.i32[i] = (1 << (bits[i] - 1)) - 1;
+      min.i32[i] = -(1 << (bits[i] - 1));
+   }
+   f = nir_imin(b, f, nir_build_imm(b, f->num_components, 32, max));
+   f = nir_imax(b, f, nir_build_imm(b, f->num_components, 32, min));
+
+   return f;
+}
+
 static inline nir_ssa_def *
 nir_format_unpack_11f11f10f(nir_builder *b, nir_ssa_def *packed)
 {
    nir_ssa_def *chans[3];
    chans[0] = nir_mask_shift(b, packed, 0x000007ff, 4);
-   chans[1] = nir_mask_shift(b, packed, 0x003ff100, -7);
+   chans[1] = nir_mask_shift(b, packed, 0x003ff800, -7);
    chans[2] = nir_mask_shift(b, packed, 0xffc00000, -17);
 
    for (unsigned i = 0; i < 3; i++)
@@ -241,7 +353,7 @@ nir_format_unpack_11f11f10f(nir_builder *b, nir_ssa_def *packed)
 }
 
 static inline nir_ssa_def *
-nir_format_pack_r11g11b10f(nir_builder *b, nir_ssa_def *color)
+nir_format_pack_11f11f10f(nir_builder *b, nir_ssa_def *color)
 {
    /* 10 and 11-bit floats are unsigned.  Clamp to non-negative */
    nir_ssa_def *clamped = nir_fmax(b, color, nir_imm_float(b, 0));