intel/fs: Generalize fs_reg::is_contiguous() to register files other than VGRF.
[mesa.git] / src / intel / compiler / brw_nir_analyze_ubo_ranges.c
index cfa531675fc148d55e74aab431cfddd6a8b89f9c..35b0c945343ad0700c2f40d0005e6fd69fe9ad40 100644 (file)
@@ -129,8 +129,10 @@ analyze_ubos_block(struct ubo_analysis_state *state, nir_block *block)
       case nir_intrinsic_image_deref_load:
       case nir_intrinsic_image_deref_store:
       case nir_intrinsic_image_deref_atomic_add:
-      case nir_intrinsic_image_deref_atomic_min:
-      case nir_intrinsic_image_deref_atomic_max:
+      case nir_intrinsic_image_deref_atomic_imin:
+      case nir_intrinsic_image_deref_atomic_umin:
+      case nir_intrinsic_image_deref_atomic_imax:
+      case nir_intrinsic_image_deref_atomic_umax:
       case nir_intrinsic_image_deref_atomic_and:
       case nir_intrinsic_image_deref_atomic_or:
       case nir_intrinsic_image_deref_atomic_xor:
@@ -147,12 +149,11 @@ analyze_ubos_block(struct ubo_analysis_state *state, nir_block *block)
          continue; /* Not a uniform or UBO intrinsic */
       }
 
-      nir_const_value *block_const = nir_src_as_const_value(intrin->src[0]);
-      nir_const_value *offset_const = nir_src_as_const_value(intrin->src[1]);
-
-      if (block_const && offset_const) {
-         const int block = block_const->u32[0];
-         const int offset = offset_const->u32[0] / 32;
+      if (nir_src_is_const(intrin->src[0]) &&
+          nir_src_is_const(intrin->src[1])) {
+         const int block = nir_src_as_uint(intrin->src[0]);
+         const unsigned byte_offset = nir_src_as_uint(intrin->src[1]);
+         const int offset = byte_offset / 32;
 
          /* Avoid shifting by larger than the width of our bitfield, as this
           * is undefined in C.  Even if we require multiple bits to represent
@@ -166,8 +167,8 @@ analyze_ubos_block(struct ubo_analysis_state *state, nir_block *block)
          /* The value might span multiple 32-byte chunks. */
          const int bytes = nir_intrinsic_dest_components(intrin) *
                            (nir_dest_bit_size(intrin->dest) / 8);
-         const int start = ROUND_DOWN_TO(offset_const->u32[0], 32);
-         const int end = ALIGN(offset_const->u32[0] + bytes, 32);
+         const int start = ROUND_DOWN_TO(byte_offset, 32);
+         const int end = ALIGN(byte_offset + bytes, 32);
          const int chunks = (end - start) / 32;
 
          /* TODO: should we count uses in loops as higher benefit? */
@@ -245,7 +246,6 @@ brw_nir_analyze_ubo_ranges(const struct brw_compiler *compiler,
    struct util_dynarray ranges;
    util_dynarray_init(&ranges, mem_ctx);
 
-   struct hash_entry *entry;
    hash_table_foreach(state.blocks, entry) {
       const int b = entry->hash - 1;
       const struct ubo_block_info *info = entry->data;
@@ -283,7 +283,7 @@ brw_nir_analyze_ubo_ranges(const struct brw_compiler *compiler,
          }
 
          struct ubo_range_entry *entry =
-            util_dynarray_grow(&ranges, sizeof(struct ubo_range_entry));
+            util_dynarray_grow(&ranges, struct ubo_range_entry, 1);
 
          entry->range.block = b;
          entry->range.start = first_bit;