util/bitset: fix bitset range mask calculations.
authorDave Airlie <airlied@redhat.com>
Mon, 29 Apr 2019 03:17:41 +0000 (13:17 +1000)
committerDave Airlie <airlied@redhat.com>
Fri, 3 May 2019 05:23:04 +0000 (15:23 +1000)
commit512a31a41299758f0f60d0452b8c9e8c02238189
tree7615894398d16e9827bf40f284ad6432b88072ed
parent18973a450ed986a0f56aa35b14c8e9fd9260f168
util/bitset: fix bitset range mask calculations.

The MASK macro is used in the RANGE macro, and it should
return the pre-bitset word mask for the (b) value.

i.e.
BITSET_MASK(0) should be undefined since it's meaningless.
BITSET_MASK(31) should give 0x7fffffff
BITSET_MASK(32) should give 0xffffffff
BITSET_MASK(33) should give 0x00000001
BITSET_MASK(64) should give 0xffffffff

However then BITSET_RANGE ends up broken for cases where
it's (b) value is the 0,32,64 value as in that case the lower
mask would be 0 not 0xffffffff.

This fixes the unit tests that I've added, and my code that
uses bitsets.

Reviewed-by: Jason Ekstrand <jason@jlekstrand.net>
Fixes: bb38cadb1c5f2 "More GLSL code"
Reviewed-by: Kristian H. Kristensen <hoegsberg@google.com>
src/util/bitset.h