radeonsi: rename rsrc -> ssrc, rdst -> sdst
authorMarek Olšák <marek.olsak@amd.com>
Sat, 19 Jan 2019 00:22:06 +0000 (19:22 -0500)
committerMarek Olšák <marek.olsak@amd.com>
Tue, 22 Jan 2019 18:33:04 +0000 (13:33 -0500)
Reviewed-by: Bas Nieuwenhuizen <bas@basnieuwenhuizen.nl>
src/gallium/drivers/radeonsi/cik_sdma.c
src/gallium/drivers/radeonsi/si_buffer.c
src/gallium/drivers/radeonsi/si_cp_dma.c
src/gallium/drivers/radeonsi/si_dma.c
src/gallium/drivers/radeonsi/si_dma_cs.c
src/gallium/drivers/radeonsi/si_fence.c

index 8bf6b30aec755f68bae50ec354f6867b6606b415..096f75e508f243a0aa2e37a1e1f4c10e56dcb9a2 100644 (file)
@@ -35,20 +35,20 @@ static void cik_sdma_copy_buffer(struct si_context *ctx,
 {
        struct radeon_cmdbuf *cs = ctx->dma_cs;
        unsigned i, ncopy, csize;
-       struct si_resource *rdst = si_resource(dst);
-       struct si_resource *rsrc = si_resource(src);
+       struct si_resource *sdst = si_resource(dst);
+       struct si_resource *ssrc = si_resource(src);
 
        /* Mark the buffer range of destination as valid (initialized),
         * so that transfer_map knows it should wait for the GPU when mapping
         * that range. */
-       util_range_add(&rdst->valid_buffer_range, dst_offset,
+       util_range_add(&sdst->valid_buffer_range, dst_offset,
                       dst_offset + size);
 
-       dst_offset += rdst->gpu_address;
-       src_offset += rsrc->gpu_address;
+       dst_offset += sdst->gpu_address;
+       src_offset += ssrc->gpu_address;
 
        ncopy = DIV_ROUND_UP(size, CIK_SDMA_COPY_MAX_SIZE);
-       si_need_dma_space(ctx, ncopy * 7, rdst, rsrc);
+       si_need_dma_space(ctx, ncopy * 7, sdst, ssrc);
 
        for (i = 0; i < ncopy; i++) {
                csize = MIN2(size, CIK_SDMA_COPY_MAX_SIZE);
index 6b71ccda73d84a8d65517deef935611f815c455a..c61a90e58689b872d137cc6455672ce902e94425 100644 (file)
@@ -301,22 +301,22 @@ void si_replace_buffer_storage(struct pipe_context *ctx,
                                 struct pipe_resource *src)
 {
        struct si_context *sctx = (struct si_context*)ctx;
-       struct si_resource *rdst = si_resource(dst);
-       struct si_resource *rsrc = si_resource(src);
-       uint64_t old_gpu_address = rdst->gpu_address;
-
-       pb_reference(&rdst->buf, rsrc->buf);
-       rdst->gpu_address = rsrc->gpu_address;
-       rdst->b.b.bind = rsrc->b.b.bind;
-       rdst->b.max_forced_staging_uploads = rsrc->b.max_forced_staging_uploads;
-       rdst->max_forced_staging_uploads = rsrc->max_forced_staging_uploads;
-       rdst->flags = rsrc->flags;
-
-       assert(rdst->vram_usage == rsrc->vram_usage);
-       assert(rdst->gart_usage == rsrc->gart_usage);
-       assert(rdst->bo_size == rsrc->bo_size);
-       assert(rdst->bo_alignment == rsrc->bo_alignment);
-       assert(rdst->domains == rsrc->domains);
+       struct si_resource *sdst = si_resource(dst);
+       struct si_resource *ssrc = si_resource(src);
+       uint64_t old_gpu_address = sdst->gpu_address;
+
+       pb_reference(&sdst->buf, ssrc->buf);
+       sdst->gpu_address = ssrc->gpu_address;
+       sdst->b.b.bind = ssrc->b.b.bind;
+       sdst->b.max_forced_staging_uploads = ssrc->b.max_forced_staging_uploads;
+       sdst->max_forced_staging_uploads = ssrc->max_forced_staging_uploads;
+       sdst->flags = ssrc->flags;
+
+       assert(sdst->vram_usage == ssrc->vram_usage);
+       assert(sdst->gart_usage == ssrc->gart_usage);
+       assert(sdst->bo_size == ssrc->bo_size);
+       assert(sdst->bo_alignment == ssrc->bo_alignment);
+       assert(sdst->domains == ssrc->domains);
 
        si_rebind_buffer(sctx, dst, old_gpu_address);
 }
index 3001353df27663d4edda4c91f73a8da63676ce7a..5993369d2da4a91455881e99c4fd7ca351c88afc 100644 (file)
@@ -212,8 +212,8 @@ void si_cp_dma_clear_buffer(struct si_context *sctx, struct radeon_cmdbuf *cs,
                            uint64_t size, unsigned value, unsigned user_flags,
                            enum si_coherency coher, enum si_cache_policy cache_policy)
 {
-       struct si_resource *rdst = si_resource(dst);
-       uint64_t va = (rdst ? rdst->gpu_address : 0) + offset;
+       struct si_resource *sdst = si_resource(dst);
+       uint64_t va = (sdst ? sdst->gpu_address : 0) + offset;
        bool is_first = true;
 
        assert(size && size % 4 == 0);
@@ -221,11 +221,11 @@ void si_cp_dma_clear_buffer(struct si_context *sctx, struct radeon_cmdbuf *cs,
        /* Mark the buffer range of destination as valid (initialized),
         * so that transfer_map knows it should wait for the GPU when mapping
         * that range. */
-       if (rdst)
-               util_range_add(&rdst->valid_buffer_range, offset, offset + size);
+       if (sdst)
+               util_range_add(&sdst->valid_buffer_range, offset, offset + size);
 
        /* Flush the caches. */
-       if (rdst && !(user_flags & SI_CPDMA_SKIP_GFX_SYNC)) {
+       if (sdst && !(user_flags & SI_CPDMA_SKIP_GFX_SYNC)) {
                sctx->flags |= SI_CONTEXT_PS_PARTIAL_FLUSH |
                               SI_CONTEXT_CS_PARTIAL_FLUSH |
                               si_get_flush_flags(sctx, coher, cache_policy);
@@ -233,7 +233,7 @@ void si_cp_dma_clear_buffer(struct si_context *sctx, struct radeon_cmdbuf *cs,
 
        while (size) {
                unsigned byte_count = MIN2(size, cp_dma_max_byte_count(sctx));
-               unsigned dma_flags = CP_DMA_CLEAR | (rdst ? 0 : CP_DMA_DST_IS_GDS);
+               unsigned dma_flags = CP_DMA_CLEAR | (sdst ? 0 : CP_DMA_DST_IS_GDS);
 
                si_cp_dma_prepare(sctx, dst, NULL, byte_count, size, user_flags,
                                  coher, &is_first, &dma_flags);
@@ -245,8 +245,8 @@ void si_cp_dma_clear_buffer(struct si_context *sctx, struct radeon_cmdbuf *cs,
                va += byte_count;
        }
 
-       if (rdst && cache_policy != L2_BYPASS)
-               rdst->TC_L2_dirty = true;
+       if (sdst && cache_policy != L2_BYPASS)
+               sdst->TC_L2_dirty = true;
 
        /* If it's not a framebuffer fast clear... */
        if (coher == SI_COHERENCY_SHADER)
index d0f77566d2522c245b54ceca7874185135ef9bbd..450ed82b4d6753392d8c02b32783503125a317b3 100644 (file)
@@ -37,17 +37,17 @@ static void si_dma_copy_buffer(struct si_context *ctx,
 {
        struct radeon_cmdbuf *cs = ctx->dma_cs;
        unsigned i, ncopy, count, max_size, sub_cmd, shift;
-       struct si_resource *rdst = si_resource(dst);
-       struct si_resource *rsrc = si_resource(src);
+       struct si_resource *sdst = si_resource(dst);
+       struct si_resource *ssrc = si_resource(src);
 
        /* Mark the buffer range of destination as valid (initialized),
         * so that transfer_map knows it should wait for the GPU when mapping
         * that range. */
-       util_range_add(&rdst->valid_buffer_range, dst_offset,
+       util_range_add(&sdst->valid_buffer_range, dst_offset,
                       dst_offset + size);
 
-       dst_offset += rdst->gpu_address;
-       src_offset += rsrc->gpu_address;
+       dst_offset += sdst->gpu_address;
+       src_offset += ssrc->gpu_address;
 
        /* see whether we should use the dword-aligned or byte-aligned copy */
        if (!(dst_offset % 4) && !(src_offset % 4) && !(size % 4)) {
@@ -61,7 +61,7 @@ static void si_dma_copy_buffer(struct si_context *ctx,
        }
 
        ncopy = DIV_ROUND_UP(size, max_size);
-       si_need_dma_space(ctx, ncopy * 5, rdst, rsrc);
+       si_need_dma_space(ctx, ncopy * 5, sdst, ssrc);
 
        for (i = 0; i < ncopy; i++) {
                count = MIN2(size, max_size);
index 61b9be7742b1f965136897d0b03fb9cc29a757aa..33177a9e4adf0a14f492d53d939974eb7d1323b4 100644 (file)
@@ -69,7 +69,7 @@ void si_sdma_clear_buffer(struct si_context *sctx, struct pipe_resource *dst,
 {
        struct radeon_cmdbuf *cs = sctx->dma_cs;
        unsigned i, ncopy, csize;
-       struct si_resource *rdst = si_resource(dst);
+       struct si_resource *sdst = si_resource(dst);
 
        assert(offset % 4 == 0);
        assert(size);
@@ -83,14 +83,14 @@ void si_sdma_clear_buffer(struct si_context *sctx, struct pipe_resource *dst,
        /* Mark the buffer range of destination as valid (initialized),
         * so that transfer_map knows it should wait for the GPU when mapping
         * that range. */
-       util_range_add(&rdst->valid_buffer_range, offset, offset + size);
+       util_range_add(&sdst->valid_buffer_range, offset, offset + size);
 
-       offset += rdst->gpu_address;
+       offset += sdst->gpu_address;
 
        if (sctx->chip_class == SI) {
                /* the same maximum size as for copying */
                ncopy = DIV_ROUND_UP(size, SI_DMA_COPY_MAX_DWORD_ALIGNED_SIZE);
-               si_need_dma_space(sctx, ncopy * 4, rdst, NULL);
+               si_need_dma_space(sctx, ncopy * 4, sdst, NULL);
 
                for (i = 0; i < ncopy; i++) {
                        csize = MIN2(size, SI_DMA_COPY_MAX_DWORD_ALIGNED_SIZE);
@@ -108,7 +108,7 @@ void si_sdma_clear_buffer(struct si_context *sctx, struct pipe_resource *dst,
        /* The following code is for CI, VI, Vega/Raven, etc. */
        /* the same maximum size as for copying */
        ncopy = DIV_ROUND_UP(size, CIK_SDMA_COPY_MAX_SIZE);
-       si_need_dma_space(sctx, ncopy * 5, rdst, NULL);
+       si_need_dma_space(sctx, ncopy * 5, sdst, NULL);
 
        for (i = 0; i < ncopy; i++) {
                csize = MIN2(size, CIK_SDMA_COPY_MAX_SIZE);
index 7b4271a1e98ec58725be67bb12ea2bf6f3ab9496..bb53ccba947869bb55de2d18fb4837885d35f120 100644 (file)
@@ -193,17 +193,17 @@ static void si_fence_reference(struct pipe_screen *screen,
                               struct pipe_fence_handle *src)
 {
        struct radeon_winsys *ws = ((struct si_screen*)screen)->ws;
-       struct si_multi_fence **rdst = (struct si_multi_fence **)dst;
-       struct si_multi_fence *rsrc = (struct si_multi_fence *)src;
-
-       if (pipe_reference(&(*rdst)->reference, &rsrc->reference)) {
-               ws->fence_reference(&(*rdst)->gfx, NULL);
-               ws->fence_reference(&(*rdst)->sdma, NULL);
-               tc_unflushed_batch_token_reference(&(*rdst)->tc_token, NULL);
-               si_resource_reference(&(*rdst)->fine.buf, NULL);
-               FREE(*rdst);
+       struct si_multi_fence **sdst = (struct si_multi_fence **)dst;
+       struct si_multi_fence *ssrc = (struct si_multi_fence *)src;
+
+       if (pipe_reference(&(*sdst)->reference, &ssrc->reference)) {
+               ws->fence_reference(&(*sdst)->gfx, NULL);
+               ws->fence_reference(&(*sdst)->sdma, NULL);
+               tc_unflushed_batch_token_reference(&(*sdst)->tc_token, NULL);
+               si_resource_reference(&(*sdst)->fine.buf, NULL);
+               FREE(*sdst);
        }
-        *rdst = rsrc;
+        *sdst = ssrc;
 }
 
 static struct si_multi_fence *si_create_multi_fence()