mesa: use GLubyte for edge flag arrays
authorBrian Paul <brianp@vmware.com>
Tue, 2 Nov 2010 14:22:40 +0000 (08:22 -0600)
committerBrian Paul <brianp@vmware.com>
Tue, 2 Nov 2010 14:23:24 +0000 (08:23 -0600)
Fixes http://bugs.freedesktop.org/show_bug.cgi?id=31310

src/mesa/main/varray.c

index 73172c57797b555427f6cf7d5f45c319c04dc669..6cb9638c9f84375e8dd90bc4ce5f4a0975f1552b 100644 (file)
@@ -321,7 +321,7 @@ _mesa_TexCoordPointer(GLint size, GLenum type, GLsizei stride,
 void GLAPIENTRY
 _mesa_EdgeFlagPointer(GLsizei stride, const GLvoid *ptr)
 {
-   const GLbitfield legalTypes = BOOL_BIT;
+   const GLbitfield legalTypes = UNSIGNED_BYTE_BIT;
    /* see table 2.4 edits in GL_EXT_gpu_shader4 spec: */
    const GLboolean integer = GL_TRUE;
    GET_CURRENT_CONTEXT(ctx);
@@ -330,7 +330,7 @@ _mesa_EdgeFlagPointer(GLsizei stride, const GLvoid *ptr)
    update_array(ctx, "glEdgeFlagPointer",
                 &ctx->Array.ArrayObj->EdgeFlag, _NEW_ARRAY_EDGEFLAG,
                 legalTypes, 1, 1,
-                1, GL_BOOL, stride, GL_FALSE, integer, ptr);
+                1, GL_UNSIGNED_BYTE, stride, GL_FALSE, integer, ptr);
 }