i965: Avoid flushing the batch for busy BOs for ARB_mbr with INVALIDATE_BUFFER.
authorEric Anholt <eric@anholt.net>
Fri, 24 Feb 2012 23:05:02 +0000 (15:05 -0800)
committerEric Anholt <eric@anholt.net>
Wed, 21 Mar 2012 19:45:06 +0000 (12:45 -0700)
Unigine Tropics uses INVALIDATE_BUFFER and not UNSYNCHRONIZED to reset
the buffer object when its streaming wraps.  Don't penalize it by
flushing the batch at the wrap point, just allocate a new BO and get
to using it.

Reviewed-by: Kenneth Graunke <kenneth@whitecape.org>
src/mesa/drivers/dri/intel/intel_buffer_objects.c

index 600f01ca6f052a34cbfc1e3753628b3814e1f587..e55a8fe937ba05384868421792aea7c226367cbf 100644 (file)
@@ -314,27 +314,32 @@ intel_bufferobj_map_range(struct gl_context * ctx,
       intel_obj->sys_buffer = NULL;
    }
 
-   /* If the mapping is synchronized with other GL operations, flush
-    * the batchbuffer so that GEM knows about the buffer access for later
-    * syncing.
-    */
-   if (!(access & GL_MAP_UNSYNCHRONIZED_BIT) &&
-       drm_intel_bo_references(intel->batch.bo, intel_obj->buffer))
-      intel_flush(ctx);
-
    if (intel_obj->buffer == NULL) {
       obj->Pointer = NULL;
       return NULL;
    }
 
-   /* If the user doesn't care about existing buffer contents and mapping
-    * would cause us to block, then throw out the old buffer.
+   /* If the access is synchronized (like a normal buffer mapping), then get
+    * things flushed out so the later mapping syncs appropriately through GEM.
+    * If the user doesn't care about existing buffer contents and mapping would
+    * cause us to block, then throw out the old buffer.
+    *
+    * If they set INVALIDATE_BUFFER, we can pitch the current contents to
+    * achieve the required synchronization.
     */
-   if (!(access & GL_MAP_UNSYNCHRONIZED_BIT) &&
-       (access & GL_MAP_INVALIDATE_BUFFER_BIT) &&
-       drm_intel_bo_busy(intel_obj->buffer)) {
-      drm_intel_bo_unreference(intel_obj->buffer);
-      intel_bufferobj_alloc_buffer(intel, intel_obj);
+   if (!(access & GL_MAP_UNSYNCHRONIZED_BIT)) {
+      if (drm_intel_bo_references(intel->batch.bo, intel_obj->buffer)) {
+        if (access & GL_MAP_INVALIDATE_BUFFER_BIT) {
+           drm_intel_bo_unreference(intel_obj->buffer);
+           intel_bufferobj_alloc_buffer(intel, intel_obj);
+        } else {
+           intel_flush(ctx);
+        }
+      } else if (drm_intel_bo_busy(intel_obj->buffer) &&
+                (access & GL_MAP_INVALIDATE_BUFFER_BIT)) {
+        drm_intel_bo_unreference(intel_obj->buffer);
+        intel_bufferobj_alloc_buffer(intel, intel_obj);
+      }
    }
 
    /* If the user is mapping a range of an active buffer object but