panfrost: Fix attribute buffer underallocation
[mesa.git] / src / gallium / drivers / panfrost / pan_job.h
index 10503d944acdf1007c926f64b51876086e1bc2fc..eb3cc58d573d8a257cde7050f54ae4dac8611d7a 100644 (file)
 #ifndef __PAN_JOB_H__
 #define __PAN_JOB_H__
 
-/* Used as a hash table key */
+#include "util/u_dynarray.h"
+#include "pipe/p_state.h"
+#include "pan_pool.h"
+#include "pan_resource.h"
+#include "pan_scoreboard.h"
 
-struct panfrost_job_key {
-        struct pipe_surface *cbufs[4];
-        struct pipe_surface *zsbuf;
+/* panfrost_batch_fence is the out fence of a batch that users or other batches
+ * might want to wait on. The batch fence lifetime is different from the batch
+ * one as want will certainly want to wait upon the fence after the batch has
+ * been submitted (which is when panfrost_batch objects are freed).
+ */
+struct panfrost_batch_fence {
+        /* Refcounting object for the fence. */
+        struct pipe_reference reference;
+
+        /* Batch that created this fence object. Will become NULL at batch
+         * submission time. This field is mainly here to know whether the
+         * batch has been flushed or not.
+         */
+        struct panfrost_batch *batch;
 };
 
-/* A panfrost_job corresponds to a bound FBO we're rendering to,
+#define PAN_REQ_MSAA            (1 << 0)
+#define PAN_REQ_DEPTH_WRITE     (1 << 1)
+
+/* A panfrost_batch corresponds to a bound FBO we're rendering to,
  * collecting over multiple draws. */
 
-struct panfrost_job {
+struct panfrost_batch {
         struct panfrost_context *ctx;
-        struct panfrost_job_key key;
+        struct pipe_framebuffer_state key;
 
         /* Buffers cleared (PIPE_CLEAR_* bitmask) */
         unsigned clear;
 
-        /* Packed clear values */
-        uint32_t clear_color;
+        /* Buffers drawn */
+        unsigned draws;
+
+        /* Packed clear values, indexed by both render target as well as word.
+         * Essentially, a single pixel is packed, with some padding to bring it
+         * up to a 32-bit interval; that pixel is then duplicated over to fill
+         * all 16-bytes */
+
+        uint32_t clear_color[PIPE_MAX_COLOR_BUFS][4];
         float clear_depth;
         unsigned clear_stencil;
 
-        /* Whether this job uses MSAA */
-        bool msaa;
+        /* Amount of thread local storage required per thread */
+        unsigned stack_size;
+
+        /* Amount of shared memory needed per workgroup (for compute) */
+        unsigned shared_size;
+
+        /* Whether this job uses the corresponding requirement (PAN_REQ_*
+         * bitmask) */
+        unsigned requirements;
+
+        /* The bounding box covered by this job, taking scissors into account.
+         * Basically, the bounding box we have to run fragment shaders for */
+
+        unsigned minx, miny;
+        unsigned maxx, maxy;
+
+        /* BOs referenced not in the pool */
+        struct hash_table *bos;
+
+        /* Pool owned by this batch (released when the batch is released) used for temporary descriptors */
+        struct pan_pool pool;
+
+        /* Pool also owned by this batch that is not CPU mapped (created as
+         * INVISIBLE) used for private GPU-internal structures, particularly
+         * varyings */
+        struct pan_pool invisible_pool;
+
+        /* Job scoreboarding state */
+        struct pan_scoreboard scoreboard;
+
+        /* Polygon list bound to the batch, or NULL if none bound yet */
+        struct panfrost_bo *polygon_list;
+
+        /* Scratchpad BO bound to the batch, or NULL if none bound yet */
+        struct panfrost_bo *scratchpad;
+
+        /* Shared memory BO bound to the batch, or NULL if none bound yet */
+        struct panfrost_bo *shared_memory;
+
+        /* Tiler heap BO bound to the batch, or NULL if none bound yet */
+        struct panfrost_bo *tiler_heap;
+
+        /* Dummy tiler BO bound to the batch, or NULL if none bound yet */
+        struct panfrost_bo *tiler_dummy;
+
+        /* Framebuffer descriptor. */
+        struct panfrost_transfer framebuffer;
+
+        /* Bifrost tiler meta descriptor. */
+        mali_ptr tiler_meta;
+
+        /* Output sync object. Only valid when submitted is true. */
+        struct panfrost_batch_fence *out_sync;
+
+        /* Batch dependencies */
+        struct util_dynarray dependencies;
 };
 
 /* Functions for managing the above */
 
-struct panfrost_job *
-panfrost_create_job(struct panfrost_context *ctx);
+void
+panfrost_batch_fence_unreference(struct panfrost_batch_fence *fence);
+
+void
+panfrost_batch_fence_reference(struct panfrost_batch_fence *batch);
+
+struct panfrost_batch *
+panfrost_get_batch_for_fbo(struct panfrost_context *ctx);
 
-struct panfrost_job *
-panfrost_get_job(struct panfrost_context *ctx,
-                struct pipe_surface **cbufs, struct pipe_surface *zsbuf);
+struct panfrost_batch *
+panfrost_get_fresh_batch_for_fbo(struct panfrost_context *ctx);
 
-struct panfrost_job *
-panfrost_get_job_for_fbo(struct panfrost_context *ctx);
+void
+panfrost_batch_init(struct panfrost_context *ctx);
 
 void
-panfrost_job_init(struct panfrost_context *ctx);
+panfrost_batch_add_bo(struct panfrost_batch *batch, struct panfrost_bo *bo,
+                      uint32_t flags);
+
+struct panfrost_bo *
+panfrost_batch_create_bo(struct panfrost_batch *batch, size_t size,
+                         uint32_t create_flags, uint32_t access_flags);
+
+void
+panfrost_flush_all_batches(struct panfrost_context *ctx, uint32_t out_sync);
+
+bool
+panfrost_pending_batches_access_bo(struct panfrost_context *ctx,
+                                   const struct panfrost_bo *bo);
+
+void
+panfrost_flush_batches_accessing_bo(struct panfrost_context *ctx,
+                                    struct panfrost_bo *bo, bool flush_readers);
+
+void
+panfrost_batch_set_requirements(struct panfrost_batch *batch);
+
+void
+panfrost_batch_adjust_stack_size(struct panfrost_batch *batch);
+
+struct panfrost_bo *
+panfrost_batch_get_scratchpad(struct panfrost_batch *batch, unsigned size, unsigned thread_tls_alloc, unsigned core_count);
+
+struct panfrost_bo *
+panfrost_batch_get_shared_memory(struct panfrost_batch *batch, unsigned size, unsigned workgroup_count);
+
+mali_ptr
+panfrost_batch_get_polygon_list(struct panfrost_batch *batch, unsigned size);
+
+struct panfrost_bo *
+panfrost_batch_get_tiler_dummy(struct panfrost_batch *batch);
+
+void
+panfrost_batch_clear(struct panfrost_batch *batch,
+                     unsigned buffers,
+                     const union pipe_color_union *color,
+                     double depth, unsigned stencil);
+
+void
+panfrost_batch_union_scissor(struct panfrost_batch *batch,
+                             unsigned minx, unsigned miny,
+                             unsigned maxx, unsigned maxy);
+
+void
+panfrost_batch_intersection_scissor(struct panfrost_batch *batch,
+                                    unsigned minx, unsigned miny,
+                                    unsigned maxx, unsigned maxy);
+
+bool
+panfrost_batch_is_scanout(struct panfrost_batch *batch);
+
+mali_ptr
+panfrost_batch_get_tiler_meta(struct panfrost_batch *batch, unsigned vertex_count);
+
+mali_ptr
+panfrost_batch_reserve_framebuffer(struct panfrost_batch *batch);
 
 #endif