gallium: Remove every double semi-colon
[mesa.git] / src / gallium / drivers / r600 / evergreen_hw_context.c
index c4fcaa06aab4878b3f92a72014b27469b15533eb..a0f468004037c27d9a262335879e3120905d8d60 100644 (file)
 #include "util/u_memory.h"
 #include "util/u_math.h"
 
-void evergreen_dma_copy(struct r600_context *rctx,
-               struct pipe_resource *dst,
-               struct pipe_resource *src,
-               uint64_t dst_offset,
-               uint64_t src_offset,
-               uint64_t size)
+void evergreen_dma_copy_buffer(struct r600_context *rctx,
+                              struct pipe_resource *dst,
+                              struct pipe_resource *src,
+                              uint64_t dst_offset,
+                              uint64_t src_offset,
+                              uint64_t size)
 {
-       struct radeon_winsys_cs *cs = rctx->b.rings.dma.cs;
+       struct radeon_winsys_cs *cs = rctx->b.dma.cs;
        unsigned i, ncopy, csize, sub_cmd, shift;
        struct r600_resource *rdst = (struct r600_resource*)dst;
        struct r600_resource *rsrc = (struct r600_resource*)src;
 
-       /* make sure that the dma ring is only one active */
-       rctx->b.rings.gfx.flush(rctx, RADEON_FLUSH_ASYNC);
-       dst_offset += r600_resource_va(&rctx->screen->b.b, dst);
-       src_offset += r600_resource_va(&rctx->screen->b.b, src);
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&rdst->valid_buffer_range, dst_offset,
+                      dst_offset + size);
+
+       dst_offset += rdst->gpu_address;
+       src_offset += rsrc->gpu_address;
 
        /* see if we use dword or byte copy */
-       if (!(dst_offset & 0x3) && !(src_offset & 0x3) && !(size & 0x3)) {
+       if (!(dst_offset % 4) && !(src_offset % 4) && !(size % 4)) {
                size >>= 2;
-               sub_cmd = 0x00;
+               sub_cmd = EG_DMA_COPY_DWORD_ALIGNED;
                shift = 2;
        } else {
-               sub_cmd = 0x40;
+               sub_cmd = EG_DMA_COPY_BYTE_ALIGNED;
                shift = 0;
        }
-       ncopy = (size / 0x000fffff) + !!(size % 0x000fffff);
+       ncopy = (size / EG_DMA_COPY_MAX_SIZE) + !!(size % EG_DMA_COPY_MAX_SIZE);
 
-       r600_need_dma_space(rctx, ncopy * 5);
+       r600_need_dma_space(&rctx->b, ncopy * 5);
        for (i = 0; i < ncopy; i++) {
-               csize = size < 0x000fffff ? size : 0x000fffff;
-               /* emit reloc before writting cs so that cs is always in consistent state */
-               r600_context_bo_reloc(&rctx->b, &rctx->b.rings.dma, rsrc, RADEON_USAGE_READ);
-               r600_context_bo_reloc(&rctx->b, &rctx->b.rings.dma, rdst, RADEON_USAGE_WRITE);
+               csize = size < EG_DMA_COPY_MAX_SIZE ? size : EG_DMA_COPY_MAX_SIZE;
+               /* emit reloc before writing cs so that cs is always in consistent state */
+               radeon_add_to_buffer_list(&rctx->b, &rctx->b.dma, rsrc, RADEON_USAGE_READ,
+                                     RADEON_PRIO_SDMA_BUFFER);
+               radeon_add_to_buffer_list(&rctx->b, &rctx->b.dma, rdst, RADEON_USAGE_WRITE,
+                                     RADEON_PRIO_SDMA_BUFFER);
                cs->buf[cs->cdw++] = DMA_PACKET(DMA_PACKET_COPY, sub_cmd, csize);
                cs->buf[cs->cdw++] = dst_offset & 0xffffffff;
                cs->buf[cs->cdw++] = src_offset & 0xffffffff;
@@ -71,9 +77,6 @@ void evergreen_dma_copy(struct r600_context *rctx,
                src_offset += csize << shift;
                size -= csize;
        }
-
-       util_range_add(&rdst->valid_buffer_range, dst_offset,
-                      dst_offset + size);
 }
 
 /* The max number of bytes to copy per packet. */
@@ -83,12 +86,18 @@ void evergreen_cp_dma_clear_buffer(struct r600_context *rctx,
                                   struct pipe_resource *dst, uint64_t offset,
                                   unsigned size, uint32_t clear_value)
 {
-       struct radeon_winsys_cs *cs = rctx->b.rings.gfx.cs;
+       struct radeon_winsys_cs *cs = rctx->b.gfx.cs;
 
        assert(size);
-       assert(rctx->screen->has_cp_dma);
+       assert(rctx->screen->b.has_cp_dma);
 
-       offset += r600_resource_va(&rctx->screen->b.b, dst);
+       /* Mark the buffer range of destination as valid (initialized),
+        * so that transfer_map knows it should wait for the GPU when mapping
+        * that range. */
+       util_range_add(&r600_resource(dst)->valid_buffer_range, offset,
+                      offset + size);
+
+       offset += r600_resource(dst)->gpu_address;
 
        /* Flush the cache where the resource is bound. */
        rctx->b.flags |= R600_CONTEXT_INV_CONST_CACHE |
@@ -120,8 +129,9 @@ void evergreen_cp_dma_clear_buffer(struct r600_context *rctx,
                }
 
                /* This must be done after r600_need_cs_space. */
-               reloc = r600_context_bo_reloc(&rctx->b, &rctx->b.rings.gfx,
-                                             (struct r600_resource*)dst, RADEON_USAGE_WRITE);
+               reloc = radeon_add_to_buffer_list(&rctx->b, &rctx->b.gfx,
+                                             (struct r600_resource*)dst, RADEON_USAGE_WRITE,
+                                             RADEON_PRIO_CP_DMA);
 
                radeon_emit(cs, PKT3(PKT3_CP_DMA, 4, 0));
                radeon_emit(cs, clear_value);   /* DATA [31:0] */
@@ -141,8 +151,5 @@ void evergreen_cp_dma_clear_buffer(struct r600_context *rctx,
        rctx->b.flags |= R600_CONTEXT_INV_CONST_CACHE |
                         R600_CONTEXT_INV_VERTEX_CACHE |
                         R600_CONTEXT_INV_TEX_CACHE;
-
-       util_range_add(&r600_resource(dst)->valid_buffer_range, offset,
-                      offset + size);
 }