freedreno: Move fs functions after geometry pipeline stages
[mesa.git] / src / gallium / drivers / freedreno / freedreno_resource.h
index 10f5242da57a403dbb8306c7be646b7b3e06c3fb..b16e5a2781cca2a383fe680b44bf3ad24762b1ef 100644 (file)
@@ -1,5 +1,3 @@
-/* -*- mode: C; c-file-style: "k&r"; tab-width 4; indent-tabs-mode: t; -*- */
-
 /*
  * Copyright (C) 2012 Rob Clark <robclark@freedesktop.org>
  *
@@ -31,8 +29,9 @@
 
 #include "util/list.h"
 #include "util/u_range.h"
-#include "util/u_transfer.h"
+#include "util/u_transfer_helper.h"
 
+#include "freedreno_batch.h"
 #include "freedreno_util.h"
 
 /* Texture Layout on a3xx:
@@ -42,7 +41,7 @@
  * programmed with the start address of each mipmap level, and hw
  * derives the layer offset within the level.
  *
- * Texture Layout on a4xx:
+ * Texture Layout on a4xx+:
  *
  * For cubemap and 2d array, each layer contains all of it's mipmap
  * levels (layer_first layout).
@@ -60,37 +59,59 @@ struct fd_resource_slice {
        uint32_t size0;          /* size of first layer in slice */
 };
 
-/* status of queued up but not flushed reads and write operations.
- * In _transfer_map() we need to know if queued up rendering needs
- * to be flushed to preserve the order of cpu and gpu access.
- */
-enum fd_resource_status {
-       FD_PENDING_WRITE = 0x01,
-       FD_PENDING_READ  = 0x02,
-};
-
 struct fd_resource {
-       struct u_resource base;
+       struct pipe_resource base;
        struct fd_bo *bo;
        uint32_t cpp;
+       enum pipe_format internal_format;
        bool layer_first;        /* see above description */
        uint32_t layer_size;
        struct fd_resource_slice slices[MAX_MIP_LEVELS];
-       uint32_t timestamp;
        /* buffer range that has been initialized */
        struct util_range valid_buffer_range;
+       bool valid;
+       struct renderonly_scanout *scanout;
 
        /* reference to the resource holding stencil data for a z32_s8 texture */
        /* TODO rename to secondary or auxiliary? */
        struct fd_resource *stencil;
 
-       /* pending read/write state: */
-       enum fd_resource_status status;
-       /* resources accessed by queued but not flushed draws are tracked
-        * in the used_resources list.
+       uint32_t offset;
+       uint32_t ubwc_offset;
+       uint32_t ubwc_pitch;
+       uint32_t ubwc_size;
+
+       /* bitmask of in-flight batches which reference this resource.  Note
+        * that the batch doesn't hold reference to resources (but instead
+        * the fd_ringbuffer holds refs to the underlying fd_bo), but in case
+        * the resource is destroyed we need to clean up the batch's weak
+        * references to us.
+        */
+       uint32_t batch_mask;
+
+       /* reference to batch that writes this resource: */
+       struct fd_batch *write_batch;
+
+       /* Set of batches whose batch-cache key references this resource.
+        * We need to track this to know which batch-cache entries to
+        * invalidate if, for example, the resource is invalidated or
+        * shadowed.
+        */
+       uint32_t bc_batch_mask;
+
+       /* Sequence # incremented each time bo changes: */
+       uint16_t seqno;
+
+       unsigned tile_mode : 2;
+
+       /*
+        * LRZ
         */
-       struct list_head list;
-       struct fd_context *pending_ctx;
+       bool lrz_valid : 1;
+       uint16_t lrz_width;  // for lrz clear, does this differ from lrz_pitch?
+       uint16_t lrz_height;
+       uint16_t lrz_pitch;
+       struct fd_bo *lrz;
 };
 
 static inline struct fd_resource *
@@ -99,9 +120,27 @@ fd_resource(struct pipe_resource *ptex)
        return (struct fd_resource *)ptex;
 }
 
+static inline bool
+pending(struct fd_resource *rsc, bool write)
+{
+       /* if we have a pending GPU write, we are busy in any case: */
+       if (rsc->write_batch)
+               return true;
+
+       /* if CPU wants to write, but we are pending a GPU read, we are busy: */
+       if (write && rsc->batch_mask)
+               return true;
+
+       if (rsc->stencil && pending(rsc->stencil, write))
+               return true;
+
+       return false;
+}
+
 struct fd_transfer {
        struct pipe_transfer base;
-       void *staging;
+       struct pipe_resource *staging_prsc;
+       struct pipe_box staging_box;
 };
 
 static inline struct fd_transfer *
@@ -113,7 +152,7 @@ fd_transfer(struct pipe_transfer *ptrans)
 static inline struct fd_resource_slice *
 fd_resource_slice(struct fd_resource *rsc, unsigned level)
 {
-       assert(level <= rsc->base.b.last_level);
+       assert(level <= rsc->base.last_level);
        return &rsc->slices[level];
 }
 
@@ -129,12 +168,58 @@ fd_resource_offset(struct fd_resource *rsc, unsigned level, unsigned layer)
                offset = slice->offset + (slice->size0 * layer);
        }
        debug_assert(offset < fd_bo_size(rsc->bo));
-       return offset;
+       return offset + rsc->offset;
+}
+
+static inline uint32_t
+fd_resource_ubwc_offset(struct fd_resource *rsc, unsigned level, unsigned layer)
+{
+       /* for now this doesn't do anything clever, but when UBWC is enabled
+        * for multi layer/level images, it will.
+        */
+       if (rsc->ubwc_size) {
+               debug_assert(level == 0);
+               debug_assert(layer == 0);
+       }
+       return rsc->ubwc_offset;
+}
+
+/* This might be a5xx specific, but higher mipmap levels are always linear: */
+static inline bool
+fd_resource_level_linear(const struct pipe_resource *prsc, int level)
+{
+       struct fd_screen *screen = fd_screen(prsc->screen);
+       debug_assert(!is_a3xx(screen));
+
+       unsigned w = u_minify(prsc->width0, level);
+       if (w < 16)
+               return true;
+       return false;
+}
+
+static inline bool
+fd_resource_ubwc_enabled(struct fd_resource *rsc, int level)
+{
+       return rsc->ubwc_size && rsc->tile_mode &&
+                       !fd_resource_level_linear(&rsc->base, level);
+}
+
+/* access # of samples, with 0 normalized to 1 (which is what we care about
+ * most of the time)
+ */
+static inline unsigned
+fd_resource_nr_samples(struct pipe_resource *prsc)
+{
+       return MAX2(1, prsc->nr_samples);
 }
 
 void fd_resource_screen_init(struct pipe_screen *pscreen);
 void fd_resource_context_init(struct pipe_context *pctx);
 
+uint32_t fd_setup_slices(struct fd_resource *rsc);
+void fd_resource_resize(struct pipe_resource *prsc, uint32_t sz);
+void fd_resource_uncompress(struct fd_context *ctx, struct fd_resource *rsc);
+
 bool fd_render_condition_check(struct pipe_context *pctx);
 
 #endif /* FREEDRENO_RESOURCE_H_ */