r600g,radeonsi: fix initialized buffer range tracking for DMA, add comments
authorMarek Olšák <marek.olsak@amd.com>
Wed, 4 Dec 2013 20:48:26 +0000 (21:48 +0100)
committerMarek Olšák <marek.olsak@amd.com>
Thu, 12 Dec 2013 17:48:04 +0000 (18:48 +0100)
The DMA functions modify dst_offset and size and util_range_add gets wrong
values.

Reviewed-by: Michel Dänzer <michel.daenzer@amd.com>
src/gallium/drivers/r600/evergreen_hw_context.c
src/gallium/drivers/r600/r600_hw_context.c
src/gallium/drivers/radeonsi/si_descriptors.c

index e5d6249bcfbf95f7295d00852188a65dd4e90203..85fdc4e925d1025d8a4f3ff65f91592e18b0d3c2 100644 (file)
@@ -40,6 +40,12 @@ void evergreen_dma_copy(struct r600_context *rctx,
        struct r600_resource *rdst = (struct r600_resource*)dst;
        struct r600_resource *rsrc = (struct r600_resource*)src;
 
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&rdst->valid_buffer_range, dst_offset,
+                      dst_offset + size);
+
        /* make sure that the dma ring is only one active */
        rctx->b.rings.gfx.flush(rctx, RADEON_FLUSH_ASYNC);
        dst_offset += r600_resource_va(&rctx->screen->b.b, dst);
@@ -71,9 +77,6 @@ void evergreen_dma_copy(struct r600_context *rctx,
                src_offset += csize << shift;
                size -= csize;
        }
-
-       util_range_add(&rdst->valid_buffer_range, dst_offset,
-                      dst_offset + size);
 }
 
 /* The max number of bytes to copy per packet. */
@@ -88,6 +91,12 @@ void evergreen_cp_dma_clear_buffer(struct r600_context *rctx,
        assert(size);
        assert(rctx->screen->b.has_cp_dma);
 
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&r600_resource(dst)->valid_buffer_range, offset,
+                      offset + size);
+
        offset += r600_resource_va(&rctx->screen->b.b, dst);
 
        /* Flush the cache where the resource is bound. */
@@ -141,8 +150,5 @@ void evergreen_cp_dma_clear_buffer(struct r600_context *rctx,
        rctx->b.flags |= R600_CONTEXT_INV_CONST_CACHE |
                         R600_CONTEXT_INV_VERTEX_CACHE |
                         R600_CONTEXT_INV_TEX_CACHE;
-
-       util_range_add(&r600_resource(dst)->valid_buffer_range, offset,
-                      offset + size);
 }
 
index 11414cb6aa0995a75a8528c4af6be59a12bcffea..da90d631633f431e47e28ddaeb82531bf801e318 100644 (file)
@@ -447,6 +447,12 @@ void r600_cp_dma_copy_buffer(struct r600_context *rctx,
        assert(size);
        assert(rctx->screen->b.has_cp_dma);
 
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&r600_resource(dst)->valid_buffer_range, dst_offset,
+                      dst_offset + size);
+
        dst_offset += r600_resource_va(&rctx->screen->b.b, dst);
        src_offset += r600_resource_va(&rctx->screen->b.b, src);
 
@@ -506,9 +512,6 @@ void r600_cp_dma_copy_buffer(struct r600_context *rctx,
        rctx->b.flags |= R600_CONTEXT_INV_CONST_CACHE |
                         R600_CONTEXT_INV_VERTEX_CACHE |
                         R600_CONTEXT_INV_TEX_CACHE;
-
-       util_range_add(&r600_resource(dst)->valid_buffer_range, dst_offset,
-                      dst_offset + size);
 }
 
 void r600_need_dma_space(struct r600_context *ctx, unsigned num_dw)
@@ -533,6 +536,12 @@ void r600_dma_copy(struct r600_context *rctx,
        struct r600_resource *rdst = (struct r600_resource*)dst;
        struct r600_resource *rsrc = (struct r600_resource*)src;
 
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&rdst->valid_buffer_range, dst_offset,
+                      dst_offset + size);
+
        /* make sure that the dma ring is only one active */
        rctx->b.rings.gfx.flush(rctx, RADEON_FLUSH_ASYNC);
 
@@ -555,7 +564,4 @@ void r600_dma_copy(struct r600_context *rctx,
                src_offset += csize << shift;
                size -= csize;
        }
-
-       util_range_add(&rdst->valid_buffer_range, dst_offset,
-                      dst_offset + size);
 }
index e6d566d02e06f0e5377a7ecec87acbfe1845c9a8..c43b35e3983387bfa29a8de0e837abb72a96308f 100644 (file)
@@ -659,6 +659,12 @@ static void si_clear_buffer(struct pipe_context *ctx, struct pipe_resource *dst,
        if (!size)
                return;
 
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&r600_resource(dst)->valid_buffer_range, offset,
+                      offset + size);
+
        /* Fallback for unaligned clears. */
        if (offset % 4 != 0 || size % 4 != 0) {
                uint32_t *map = rctx->b.ws->buffer_map(r600_resource(dst)->cs_buf,
@@ -667,9 +673,6 @@ static void si_clear_buffer(struct pipe_context *ctx, struct pipe_resource *dst,
                size /= 4;
                for (unsigned i = 0; i < size; i++)
                        *map++ = value;
-
-               util_range_add(&r600_resource(dst)->valid_buffer_range, offset,
-                              offset + size);
                return;
        }
 
@@ -723,9 +726,6 @@ static void si_clear_buffer(struct pipe_context *ctx, struct pipe_resource *dst,
                         R600_CONTEXT_FLUSH_AND_INV_DB |
                         R600_CONTEXT_FLUSH_AND_INV_CB_META |
                         R600_CONTEXT_FLUSH_AND_INV_DB_META;
-
-       util_range_add(&r600_resource(dst)->valid_buffer_range, offset,
-                      offset + size);
 }
 
 void si_copy_buffer(struct r600_context *rctx,
@@ -735,6 +735,12 @@ void si_copy_buffer(struct r600_context *rctx,
        if (!size)
                return;
 
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&r600_resource(dst)->valid_buffer_range, dst_offset,
+                      dst_offset + size);
+
        dst_offset += r600_resource_va(&rctx->screen->b.b, dst);
        src_offset += r600_resource_va(&rctx->screen->b.b, src);
 
@@ -781,9 +787,6 @@ void si_copy_buffer(struct r600_context *rctx,
                         R600_CONTEXT_FLUSH_AND_INV_DB |
                         R600_CONTEXT_FLUSH_AND_INV_CB_META |
                         R600_CONTEXT_FLUSH_AND_INV_DB_META;
-
-       util_range_add(&r600_resource(dst)->valid_buffer_range, dst_offset,
-                      dst_offset + size);
 }
 
 /* INIT/DEINIT */