gallivm: optimize lp_build_minify for sse
authorRoland Scheidegger <sroland@vmware.com>
Tue, 5 Nov 2013 18:21:25 +0000 (19:21 +0100)
committerRoland Scheidegger <sroland@vmware.com>
Tue, 5 Nov 2013 22:32:24 +0000 (23:32 +0100)
commit5ae31d7e1d3d51c7843571c63aa228f8ca9b879f
tree0627f4c46df7c88b89171458bd0f8201f47bca14
parent7df7e730fb71249993c9dcabff4b5e7075a775f6
gallivm: optimize lp_build_minify for sse

SSE can't handle true vector shifts (with variable shift count),
so llvm is turning them into a mess of extracts, scalar shifts and inserts.
It is however possible to emulate them in lp_build_minify with float muls,
which should be way faster (saves over 20 instructions per 8-wide
lp_build_minify). This wouldn't work for "generic" 32bit shifts though
since we've got only 24bits of mantissa (actually for left shifts it would
work by using sse41 int mul instead of float mul but not for right shifts).
Note that this has very limited scope for now, since this is only used with
per-pixel lod (otherwise we're avoiding the non-constant shift count by doing
per-quad shifts manually), and only 1d textures even then (though the latter
should change).

Reviewed-by: Brian Paul <brianp@vmware.com>
Reviewed-by: Jose Fonseca <jfonseca@vmware.com>
src/gallium/auxiliary/gallivm/lp_bld_sample.c
src/gallium/auxiliary/gallivm/lp_bld_sample.h
src/gallium/auxiliary/gallivm/lp_bld_sample_soa.c