swr: [rasterizer] code styling and update copyrights
authorTim Rowley <timothy.o.rowley@intel.com>
Mon, 14 Mar 2016 21:54:29 +0000 (15:54 -0600)
committerTim Rowley <timothy.o.rowley@intel.com>
Fri, 25 Mar 2016 19:45:14 +0000 (14:45 -0500)
src/gallium/drivers/swr/rasterizer/common/containers.hpp
src/gallium/drivers/swr/rasterizer/common/os.h
src/gallium/drivers/swr/rasterizer/common/simdintrin.h
src/gallium/drivers/swr/rasterizer/core/backend.cpp
src/gallium/drivers/swr/rasterizer/core/frontend.h
src/gallium/drivers/swr/rasterizer/jitter/scripts/gen_llvm_ir_macros.py
src/gallium/drivers/swr/rasterizer/jitter/scripts/gen_llvm_types.py
src/gallium/drivers/swr/rasterizer/scripts/gen_knobs.py
src/gallium/drivers/swr/rasterizer/scripts/knob_defs.py
src/gallium/drivers/swr/rasterizer/scripts/templates/knobs.template

index 95af4387fcb7e8803e8fbdfe2e0ce97ce23b4789..f3c05979144f1056662987ca0ba38e19921adad1 100644 (file)
@@ -68,10 +68,10 @@ struct UncheckedFixedVector
         return *this;
     }
 
-    T* begin() { return &this->mElements[0]; }
-    T* end()   { return &this->mElements[0] + this->mSize; }
-    T const* begin() const     { return &this->mElements[0]; }
-    T const* end() const       { return &this->mElements[0] + this->mSize; }
+    T* begin()  { return &this->mElements[0]; }
+    T* end()    { return &this->mElements[0] + this->mSize; }
+    T const* begin() const  { return &this->mElements[0]; }
+    T const* end() const    { return &this->mElements[0] + this->mSize; }
 
     friend bool operator==(UncheckedFixedVector const& L, UncheckedFixedVector const& R)
     {
@@ -103,7 +103,7 @@ struct UncheckedFixedVector
     }
     void push_back(T const& t)
     {
-        this->mElements[this->mSize]   = t;
+        this->mElements[this->mSize]    = t;
         ++this->mSize;
     }
     void pop_back()
@@ -136,7 +136,7 @@ struct UncheckedFixedVector
         this->resize(0);
     }
 private:
-    std::size_t        mSize{ 0 };
+    std::size_t    mSize{ 0 };
     T mElements[NUM_ELEMENTS];
 };
 
index d84c0719eecd1949a2652bd70c55f4a7ccfead60..a1698644eb054e1083b9199a14f41aecba7c9bbd 100644 (file)
@@ -47,8 +47,8 @@
 #define DEBUGBREAK __debugbreak()
 
 #define PRAGMA_WARNING_PUSH_DISABLE(...) \
-       __pragma(warning(push));\
-       __pragma(warning(disable:__VA_ARGS__));
+    __pragma(warning(push));\
+    __pragma(warning(disable:__VA_ARGS__));
 
 #define PRAGMA_WARNING_POP() __pragma(warning(pop))
 
 #include <unistd.h>
 #include <sys/stat.h>
 
-typedef void                   VOID;
+typedef void            VOID;
 typedef void*           LPVOID;
-typedef int                            INT;
-typedef unsigned int   UINT;
-typedef void*                  HANDLE;
-typedef int                        LONG;
-typedef unsigned int   DWORD;
+typedef int             INT;
+typedef unsigned int    UINT;
+typedef void*           HANDLE;
+typedef int             LONG;
+typedef unsigned int    DWORD;
 
 #undef FALSE
 #define FALSE 0
index 96b7fbf80523202cf00809c002e2cc72bbb1443a..fa792b42e1ab4909077c374ba23cc9f754465153 100644 (file)
@@ -43,14 +43,14 @@ typedef uint8_t simdmask;
 // simd vector
 OSALIGNSIMD(union) simdvector
 {
-       simdscalar      v[4];
-       struct
-       {
-               simdscalar x, y, z, w;
-       };
-
-       simdscalar& operator[] (const int i) { return v[i]; }
-       const simdscalar& operator[] (const int i) const { return v[i]; }
+    simdscalar  v[4];
+    struct
+    {
+        simdscalar x, y, z, w;
+    };
+
+    simdscalar& operator[] (const int i) { return v[i]; }
+    const simdscalar& operator[] (const int i) const { return v[i]; }
 };
 
 #if KNOB_SIMD_WIDTH == 8
@@ -59,8 +59,8 @@ OSALIGNSIMD(union) simdvector
 #define _simd_load1_ps _mm256_broadcast_ss
 #define _simd_loadu_ps _mm256_loadu_ps
 #define _simd_setzero_ps _mm256_setzero_ps
-#define _simd_set1_ps  _mm256_set1_ps
-#define _simd_blend_ps _mm256_blend_ps
+#define _simd_set1_ps   _mm256_set1_ps
+#define _simd_blend_ps  _mm256_blend_ps
 #define _simd_blendv_ps _mm256_blendv_ps
 #define _simd_store_ps _mm256_store_ps
 #define _simd_mul_ps _mm256_mul_ps
@@ -100,18 +100,18 @@ OSALIGNSIMD(union) simdvector
 INLINE \
 __m256i func(__m256i a, __m256i b)\
 {\
-       __m128i aHi = _mm256_extractf128_si256(a, 1);\
-       __m128i bHi = _mm256_extractf128_si256(b, 1);\
-       __m128i aLo = _mm256_castsi256_si128(a);\
-       __m128i bLo = _mm256_castsi256_si128(b);\
+    __m128i aHi = _mm256_extractf128_si256(a, 1);\
+    __m128i bHi = _mm256_extractf128_si256(b, 1);\
+    __m128i aLo = _mm256_castsi256_si128(a);\
+    __m128i bLo = _mm256_castsi256_si128(b);\
 \
-       __m128i subLo = intrin(aLo, bLo);\
-       __m128i subHi = intrin(aHi, bHi);\
+    __m128i subLo = intrin(aLo, bLo);\
+    __m128i subHi = intrin(aHi, bHi);\
 \
-       __m256i result = _mm256_castsi128_si256(subLo);\
-               result = _mm256_insertf128_si256(result, subHi, 1);\
+    __m256i result = _mm256_castsi128_si256(subLo);\
+            result = _mm256_insertf128_si256(result, subHi, 1);\
 \
-       return result;\
+    return result;\
 }
 
 #if (KNOB_ARCH == KNOB_ARCH_AVX)
@@ -322,25 +322,25 @@ SIMD_EMU_EPI(_simdemu_shuffle_epi8, _mm_shuffle_epi8)
 INLINE
 __m128 _mm_fmaddemu_ps(__m128 a, __m128 b, __m128 c)
 {
-       __m128 res = _mm_mul_ps(a, b);
-       res = _mm_add_ps(res, c);
-       return res;
+    __m128 res = _mm_mul_ps(a, b);
+    res = _mm_add_ps(res, c);
+    return res;
 }
 
 INLINE
 __m256 _mm_fmaddemu256_ps(__m256 a, __m256 b, __m256 c)
 {
-       __m256 res = _mm256_mul_ps(a, b);
-       res = _mm256_add_ps(res, c);
-       return res;
+    __m256 res = _mm256_mul_ps(a, b);
+    res = _mm256_add_ps(res, c);
+    return res;
 }
 
 INLINE
 __m256 _mm_fmsubemu256_ps(__m256 a, __m256 b, __m256 c)
 {
-       __m256 res = _mm256_mul_ps(a, b);
-       res = _mm256_sub_ps(res, c);
-       return res;
+    __m256 res = _mm256_mul_ps(a, b);
+    res = _mm256_sub_ps(res, c);
+    return res;
 }
 
 INLINE
@@ -496,30 +496,30 @@ void _simd_mov(simdscalar &r, unsigned int rlane, simdscalar& s, unsigned int sl
 
 INLINE __m256i _simdemu_slli_epi32(__m256i a, uint32_t i)
 {
-       __m128i aHi = _mm256_extractf128_si256(a, 1);
-       __m128i aLo = _mm256_castsi256_si128(a);
+    __m128i aHi = _mm256_extractf128_si256(a, 1);
+    __m128i aLo = _mm256_castsi256_si128(a);
 
-       __m128i resHi = _mm_slli_epi32(aHi, i);
-       __m128i resLo = _mm_slli_epi32(aLo, i);
+    __m128i resHi = _mm_slli_epi32(aHi, i);
+    __m128i resLo = _mm_slli_epi32(aLo, i);
 
-       __m256i result = _mm256_castsi128_si256(resLo);
-                   result = _mm256_insertf128_si256(result, resHi, 1);
+    __m256i result = _mm256_castsi128_si256(resLo);
+            result = _mm256_insertf128_si256(result, resHi, 1);
 
-       return result;
+    return result;
 }
 
 INLINE __m256i _simdemu_srai_epi32(__m256i a, uint32_t i)
 {
-       __m128i aHi = _mm256_extractf128_si256(a, 1);
-       __m128i aLo = _mm256_castsi256_si128(a);
+    __m128i aHi = _mm256_extractf128_si256(a, 1);
+    __m128i aLo = _mm256_castsi256_si128(a);
 
-       __m128i resHi = _mm_srai_epi32(aHi, i);
-       __m128i resLo = _mm_srai_epi32(aLo, i);
+    __m128i resHi = _mm_srai_epi32(aHi, i);
+    __m128i resLo = _mm_srai_epi32(aLo, i);
 
-       __m256i result = _mm256_castsi128_si256(resLo);
-                   result = _mm256_insertf128_si256(result, resHi, 1);
+    __m256i result = _mm256_castsi128_si256(resLo);
+            result = _mm256_insertf128_si256(result, resHi, 1);
 
-       return result;
+    return result;
 }
 
 INLINE __m256i _simdemu_srli_epi32(__m256i a, uint32_t i)
@@ -539,7 +539,7 @@ INLINE __m256i _simdemu_srli_epi32(__m256i a, uint32_t i)
 INLINE
 void _simdvec_transpose(simdvector &v)
 {
-       SWR_ASSERT(false, "Need to implement 8 wide version");
+    SWR_ASSERT(false, "Need to implement 8 wide version");
 }
 
 #else
@@ -550,132 +550,132 @@ void _simdvec_transpose(simdvector &v)
 INLINE
 void _simdvec_load_ps(simdvector& r, const float *p)
 {
-       r[0] = _simd_set1_ps(p[0]);
-       r[1] = _simd_set1_ps(p[1]);
-       r[2] = _simd_set1_ps(p[2]);
-       r[3] = _simd_set1_ps(p[3]);
+    r[0] = _simd_set1_ps(p[0]);
+    r[1] = _simd_set1_ps(p[1]);
+    r[2] = _simd_set1_ps(p[2]);
+    r[3] = _simd_set1_ps(p[3]);
 }
 
 INLINE
 void _simdvec_mov(simdvector& r, const simdscalar& s)
 {
-       r[0] = s;
-       r[1] = s;
-       r[2] = s;
-       r[3] = s;
+    r[0] = s;
+    r[1] = s;
+    r[2] = s;
+    r[3] = s;
 }
 
 INLINE
 void _simdvec_mov(simdvector& r, const simdvector& v)
 {
-       r[0] = v[0];
-       r[1] = v[1];
-       r[2] = v[2];
-       r[3] = v[3];
+    r[0] = v[0];
+    r[1] = v[1];
+    r[2] = v[2];
+    r[3] = v[3];
 }
 
 // just move a lane from the source simdvector to dest simdvector
 INLINE
 void _simdvec_mov(simdvector &r, unsigned int rlane, simdvector& s, unsigned int slane)
 {
-       _simd_mov(r[0], rlane, s[0], slane);
-       _simd_mov(r[1], rlane, s[1], slane);
-       _simd_mov(r[2], rlane, s[2], slane);
-       _simd_mov(r[3], rlane, s[3], slane);
+    _simd_mov(r[0], rlane, s[0], slane);
+    _simd_mov(r[1], rlane, s[1], slane);
+    _simd_mov(r[2], rlane, s[2], slane);
+    _simd_mov(r[3], rlane, s[3], slane);
 }
 
 INLINE
 void _simdvec_dp3_ps(simdscalar& r, const simdvector& v0, const simdvector& v1)
 {
-       simdscalar tmp;
-       r       = _simd_mul_ps(v0[0], v1[0]);   // (v0.x*v1.x)
+    simdscalar tmp;
+    r   = _simd_mul_ps(v0[0], v1[0]);   // (v0.x*v1.x)
 
-       tmp     = _simd_mul_ps(v0[1], v1[1]);           // (v0.y*v1.y)
-       r       = _simd_add_ps(r, tmp);                 // (v0.x*v1.x) + (v0.y*v1.y)
+    tmp = _simd_mul_ps(v0[1], v1[1]);       // (v0.y*v1.y)
+    r   = _simd_add_ps(r, tmp);         // (v0.x*v1.x) + (v0.y*v1.y)
 
-       tmp     = _simd_mul_ps(v0[2], v1[2]);   // (v0.z*v1.z)
-       r       = _simd_add_ps(r, tmp);                 // (v0.x*v1.x) + (v0.y*v1.y) + (v0.z*v1.z)
+    tmp = _simd_mul_ps(v0[2], v1[2]);   // (v0.z*v1.z)
+    r   = _simd_add_ps(r, tmp);         // (v0.x*v1.x) + (v0.y*v1.y) + (v0.z*v1.z)
 }
 
 INLINE
 void _simdvec_dp4_ps(simdscalar& r, const simdvector& v0, const simdvector& v1)
 {
-       simdscalar tmp;
-       r       = _simd_mul_ps(v0[0], v1[0]);   // (v0.x*v1.x)
+    simdscalar tmp;
+    r   = _simd_mul_ps(v0[0], v1[0]);   // (v0.x*v1.x)
 
-       tmp     = _simd_mul_ps(v0[1], v1[1]);           // (v0.y*v1.y)
-       r       = _simd_add_ps(r, tmp);                 // (v0.x*v1.x) + (v0.y*v1.y)
+    tmp = _simd_mul_ps(v0[1], v1[1]);       // (v0.y*v1.y)
+    r   = _simd_add_ps(r, tmp);         // (v0.x*v1.x) + (v0.y*v1.y)
 
-       tmp     = _simd_mul_ps(v0[2], v1[2]);   // (v0.z*v1.z)
-       r       = _simd_add_ps(r, tmp);                 // (v0.x*v1.x) + (v0.y*v1.y) + (v0.z*v1.z)
+    tmp = _simd_mul_ps(v0[2], v1[2]);   // (v0.z*v1.z)
+    r   = _simd_add_ps(r, tmp);         // (v0.x*v1.x) + (v0.y*v1.y) + (v0.z*v1.z)
 
-       tmp     = _simd_mul_ps(v0[3], v1[3]);   // (v0.w*v1.w)
-       r       = _simd_add_ps(r, tmp);                 // (v0.x*v1.x) + (v0.y*v1.y) + (v0.z*v1.z)
+    tmp = _simd_mul_ps(v0[3], v1[3]);   // (v0.w*v1.w)
+    r   = _simd_add_ps(r, tmp);         // (v0.x*v1.x) + (v0.y*v1.y) + (v0.z*v1.z)
 }
 
 INLINE
 simdscalar _simdvec_rcp_length_ps(const simdvector& v)
 {
-       simdscalar length;
-       _simdvec_dp4_ps(length, v, v);
-       return _simd_rsqrt_ps(length);
+    simdscalar length;
+    _simdvec_dp4_ps(length, v, v);
+    return _simd_rsqrt_ps(length);
 }
 
 INLINE
 void _simdvec_normalize_ps(simdvector& r, const simdvector& v)
 {
-       simdscalar vecLength;
-       vecLength = _simdvec_rcp_length_ps(v);
+    simdscalar vecLength;
+    vecLength = _simdvec_rcp_length_ps(v);
 
-       r[0] = _simd_mul_ps(v[0], vecLength);
-       r[1] = _simd_mul_ps(v[1], vecLength);
-       r[2] = _simd_mul_ps(v[2], vecLength);
-       r[3] = _simd_mul_ps(v[3], vecLength);
+    r[0] = _simd_mul_ps(v[0], vecLength);
+    r[1] = _simd_mul_ps(v[1], vecLength);
+    r[2] = _simd_mul_ps(v[2], vecLength);
+    r[3] = _simd_mul_ps(v[3], vecLength);
 }
 
 INLINE
 void _simdvec_mul_ps(simdvector& r, const simdvector& v, const simdscalar& s)
 {
-       r[0] = _simd_mul_ps(v[0], s);
-       r[1] = _simd_mul_ps(v[1], s);
-       r[2] = _simd_mul_ps(v[2], s);
-       r[3] = _simd_mul_ps(v[3], s);
+    r[0] = _simd_mul_ps(v[0], s);
+    r[1] = _simd_mul_ps(v[1], s);
+    r[2] = _simd_mul_ps(v[2], s);
+    r[3] = _simd_mul_ps(v[3], s);
 }
 
 INLINE
 void _simdvec_mul_ps(simdvector& r, const simdvector& v0, const simdvector& v1)
 {
-       r[0] = _simd_mul_ps(v0[0], v1[0]);
-       r[1] = _simd_mul_ps(v0[1], v1[1]);
-       r[2] = _simd_mul_ps(v0[2], v1[2]);
-       r[3] = _simd_mul_ps(v0[3], v1[3]);
+    r[0] = _simd_mul_ps(v0[0], v1[0]);
+    r[1] = _simd_mul_ps(v0[1], v1[1]);
+    r[2] = _simd_mul_ps(v0[2], v1[2]);
+    r[3] = _simd_mul_ps(v0[3], v1[3]);
 }
 
 INLINE
 void _simdvec_add_ps(simdvector& r, const simdvector& v0, const simdvector& v1)
 {
-       r[0] = _simd_add_ps(v0[0], v1[0]);
-       r[1] = _simd_add_ps(v0[1], v1[1]);
-       r[2] = _simd_add_ps(v0[2], v1[2]);
-       r[3] = _simd_add_ps(v0[3], v1[3]);
+    r[0] = _simd_add_ps(v0[0], v1[0]);
+    r[1] = _simd_add_ps(v0[1], v1[1]);
+    r[2] = _simd_add_ps(v0[2], v1[2]);
+    r[3] = _simd_add_ps(v0[3], v1[3]);
 }
 
 INLINE
 void _simdvec_min_ps(simdvector& r, const simdvector& v0, const simdscalar& s)
 {
-       r[0] = _simd_min_ps(v0[0], s);
-       r[1] = _simd_min_ps(v0[1], s);
-       r[2] = _simd_min_ps(v0[2], s);
-       r[3] = _simd_min_ps(v0[3], s);
+    r[0] = _simd_min_ps(v0[0], s);
+    r[1] = _simd_min_ps(v0[1], s);
+    r[2] = _simd_min_ps(v0[2], s);
+    r[3] = _simd_min_ps(v0[3], s);
 }
 
 INLINE
 void _simdvec_max_ps(simdvector& r, const simdvector& v0, const simdscalar& s)
 {
-       r[0] = _simd_max_ps(v0[0], s);
-       r[1] = _simd_max_ps(v0[1], s);
-       r[2] = _simd_max_ps(v0[2], s);
-       r[3] = _simd_max_ps(v0[3], s);
+    r[0] = _simd_max_ps(v0[0], s);
+    r[1] = _simd_max_ps(v0[1], s);
+    r[2] = _simd_max_ps(v0[2], s);
+    r[3] = _simd_max_ps(v0[3], s);
 }
 
 // Matrix4x4 * Vector4
@@ -685,65 +685,65 @@ void _simdvec_max_ps(simdvector& r, const simdvector& v0, const simdscalar& s)
 //   outVec.w = (m30 * v.x) + (m31 * v.y) + (m32 * v.z) + (m33 * v.w)
 INLINE
 void _simd_mat4x4_vec4_multiply(
-       simdvector& result,
-       const float *pMatrix,
-       const simdvector& v)
-{
-       simdscalar m;
-       simdscalar r0;
-       simdscalar r1;
-
-       m       = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 3);    // m[row][3]
-       r1      = _simd_mul_ps(m, v[3]);                                // (m3 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
-       result[0] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 3);    // m[row][3]
-       r1      = _simd_mul_ps(m, v[3]);                                // (m3 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
-       result[1] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 3);    // m[row][3]
-       r1      = _simd_mul_ps(m, v[3]);                                // (m3 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
-       result[2] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 3*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 3*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 3*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 3*4 + 3);    // m[row][3]
-       r1      = _simd_mul_ps(m, v[3]);                                // (m3 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
-       result[3] = r0;
+    simdvector& result,
+    const float *pMatrix,
+    const simdvector& v)
+{
+    simdscalar m;
+    simdscalar r0;
+    simdscalar r1;
+
+    m   = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 3);    // m[row][3]
+    r1  = _simd_mul_ps(m, v[3]);                // (m3 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
+    result[0] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 3);    // m[row][3]
+    r1  = _simd_mul_ps(m, v[3]);                // (m3 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
+    result[1] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 3);    // m[row][3]
+    r1  = _simd_mul_ps(m, v[3]);                // (m3 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
+    result[2] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 3*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 3*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 3*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 3*4 + 3);    // m[row][3]
+    r1  = _simd_mul_ps(m, v[3]);                // (m3 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * v.w)
+    result[3] = r0;
 }
 
 // Matrix4x4 * Vector3 - Direction Vector where w = 0.
@@ -753,45 +753,45 @@ void _simd_mat4x4_vec4_multiply(
 //   outVec.w = (m30 * v.x) + (m31 * v.y) + (m32 * v.z) + (m33 * 0)
 INLINE
 void _simd_mat3x3_vec3_w0_multiply(
-       simdvector& result,
-       const float *pMatrix,
-       const simdvector& v)
-{
-       simdscalar m;
-       simdscalar r0;
-       simdscalar r1;
-
-       m       = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       result[0] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       result[1] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       result[2] = r0;
-
-       result[3] = _simd_setzero_ps();
+    simdvector& result,
+    const float *pMatrix,
+    const simdvector& v)
+{
+    simdscalar m;
+    simdscalar r0;
+    simdscalar r1;
+
+    m   = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    result[0] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    result[1] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    result[2] = r0;
+
+    result[3] = _simd_setzero_ps();
 }
 
 // Matrix4x4 * Vector3 - Position vector where w = 1.
@@ -801,108 +801,108 @@ void _simd_mat3x3_vec3_w0_multiply(
 //   outVec.w = (m30 * v.x) + (m31 * v.y) + (m32 * v.z) + (m33 * 1)
 INLINE
 void _simd_mat4x4_vec3_w1_multiply(
-       simdvector& result,
-       const float *pMatrix,
-       const simdvector& v)
-{
-       simdscalar m;
-       simdscalar r0;
-       simdscalar r1;
-
-       m       = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 3);    // m[row][3]
-       r0      = _simd_add_ps(r0, m);                                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
-       result[0] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 3);    // m[row][3]
-       r0      = _simd_add_ps(r0, m);                                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
-       result[1] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 3);    // m[row][3]
-       r0      = _simd_add_ps(r0, m);                                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
-       result[2] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 3*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 3*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 3*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 3*4 + 3);    // m[row][3]
-       result[3]       = _simd_add_ps(r0, m);                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
+    simdvector& result,
+    const float *pMatrix,
+    const simdvector& v)
+{
+    simdscalar m;
+    simdscalar r0;
+    simdscalar r1;
+
+    m   = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 3);    // m[row][3]
+    r0  = _simd_add_ps(r0, m);                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
+    result[0] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 3);    // m[row][3]
+    r0  = _simd_add_ps(r0, m);                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
+    result[1] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 3);    // m[row][3]
+    r0  = _simd_add_ps(r0, m);                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
+    result[2] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 3*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 3*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 3*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 3*4 + 3);    // m[row][3]
+    result[3]   = _simd_add_ps(r0, m);          // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
 }
 
 INLINE
 void _simd_mat4x3_vec3_w1_multiply(
-       simdvector& result,
-       const float *pMatrix,
-       const simdvector& v)
-{
-       simdscalar m;
-       simdscalar r0;
-       simdscalar r1;
-
-       m       = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 0*4 + 3);    // m[row][3]
-       r0      = _simd_add_ps(r0, m);                                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
-       result[0] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 1*4 + 3);    // m[row][3]
-       r0      = _simd_add_ps(r0, m);                                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
-       result[1] = r0;
-
-       m       = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
-       r0      = _simd_mul_ps(m, v[0]);                                // (m00 * v.x)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
-       r1      = _simd_mul_ps(m, v[1]);                                // (m1 * v.y)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
-       r1      = _simd_mul_ps(m, v[2]);                                // (m2 * v.z)
-       r0      = _simd_add_ps(r0, r1);                                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
-       m       = _simd_load1_ps(pMatrix + 2*4 + 3);    // m[row][3]
-       r0      = _simd_add_ps(r0, m);                                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
-       result[2] = r0;
-       result[3] = _simd_set1_ps(1.0f);
+    simdvector& result,
+    const float *pMatrix,
+    const simdvector& v)
+{
+    simdscalar m;
+    simdscalar r0;
+    simdscalar r1;
+
+    m   = _simd_load1_ps(pMatrix + 0*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 0*4 + 3);    // m[row][3]
+    r0  = _simd_add_ps(r0, m);                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
+    result[0] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 1*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 1*4 + 3);    // m[row][3]
+    r0  = _simd_add_ps(r0, m);                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
+    result[1] = r0;
+
+    m   = _simd_load1_ps(pMatrix + 2*4 + 0);    // m[row][0]
+    r0  = _simd_mul_ps(m, v[0]);                // (m00 * v.x)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 1);    // m[row][1]
+    r1  = _simd_mul_ps(m, v[1]);                // (m1 * v.y)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 2);    // m[row][2]
+    r1  = _simd_mul_ps(m, v[2]);                // (m2 * v.z)
+    r0  = _simd_add_ps(r0, r1);                 // (m0 * v.x) + (m1 * v.y) + (m2 * v.z)
+    m   = _simd_load1_ps(pMatrix + 2*4 + 3);    // m[row][3]
+    r0  = _simd_add_ps(r0, m);                  // (m0 * v.x) + (m1 * v.y) + (m2 * v.z) + (m2 * 1)
+    result[2] = r0;
+    result[3] = _simd_set1_ps(1.0f);
 }
 
 //////////////////////////////////////////////////////////////////////////
index 7afbb70a383e07bf0939b067bfbfcb13bf54e6df..c9a5fd0f23f5ad267055700501bb5a7b4217f296 100644 (file)
@@ -1211,7 +1211,7 @@ void BackendPixelRate(DRAW_CONTEXT *pDC, uint32_t workerId, uint32_t x, uint32_t
             }
             else
             {
-                               psContext.activeMask = _simd_set1_epi32(-1);
+                psContext.activeMask = _simd_set1_epi32(-1);
             }
 
             // need to declare enough space for all samples
index 9a2f0434db54a4804588f471eb316da7252a7fa7..d11de79b01ffc99c82972d39ae95c7dc8b90d7ad 100644 (file)
@@ -146,7 +146,7 @@ float calcDeterminantInt(const __m128i vA, const __m128i vB)
     //vMul = [A1*B2 - B1*A2]
     vMul = _mm_sub_epi64(vMul, vMul2);
 
-       // According to emmintrin.h __mm_store1_pd(), address must be 16-byte aligned
+    // According to emmintrin.h __mm_store1_pd(), address must be 16-byte aligned
     OSALIGN(int64_t, 16) result;
     _mm_store1_pd((double*)&result, _mm_castsi128_pd(vMul));
 
index c78c9784b3d9a2fb0df10ec9403180e5b9e0b9eb..e73b232757bb05cee9c231a5556b30968a21bb53 100644 (file)
@@ -27,7 +27,7 @@ import json as JSON
 import operator
 
 header = r"""/****************************************************************************
-* Copyright (C) 2014-2015 Intel Corporation.   All Rights Reserved.
+* Copyright (C) 2014-2016 Intel Corporation.   All Rights Reserved.
 *
 * Permission is hereby granted, free of charge, to any person obtaining a
 * copy of this software and associated documentation files (the "Software"),
@@ -84,16 +84,16 @@ inst_aliases = {
 }
 
 intrinsics = [
-           ["VGATHERPS", "x86_avx2_gather_d_ps_256", ["src", "pBase", "indices", "mask", "scale"]],
+        ["VGATHERPS", "x86_avx2_gather_d_ps_256", ["src", "pBase", "indices", "mask", "scale"]],
         ["VGATHERDD", "x86_avx2_gather_d_d_256", ["src", "pBase", "indices", "mask", "scale"]],
-           ["VSQRTPS", "x86_avx_sqrt_ps_256", ["a"]],
-           ["VRSQRTPS", "x86_avx_rsqrt_ps_256", ["a"]],
-           ["VRCPPS", "x86_avx_rcp_ps_256", ["a"]],
-           ["VMINPS", "x86_avx_min_ps_256", ["a", "b"]],
-           ["VMAXPS", "x86_avx_max_ps_256", ["a", "b"]],
-           ["VPMINSD", "x86_avx2_pmins_d", ["a", "b"]],
-           ["VPMAXSD", "x86_avx2_pmaxs_d", ["a", "b"]],
-           ["VROUND", "x86_avx_round_ps_256", ["a", "rounding"]],
+        ["VSQRTPS", "x86_avx_sqrt_ps_256", ["a"]],
+        ["VRSQRTPS", "x86_avx_rsqrt_ps_256", ["a"]],
+        ["VRCPPS", "x86_avx_rcp_ps_256", ["a"]],
+        ["VMINPS", "x86_avx_min_ps_256", ["a", "b"]],
+        ["VMAXPS", "x86_avx_max_ps_256", ["a", "b"]],
+        ["VPMINSD", "x86_avx2_pmins_d", ["a", "b"]],
+        ["VPMAXSD", "x86_avx2_pmaxs_d", ["a", "b"]],
+        ["VROUND", "x86_avx_round_ps_256", ["a", "rounding"]],
         ["VCMPPS", "x86_avx_cmp_ps_256", ["a", "b", "cmpop"]],
         ["VBLENDVPS", "x86_avx_blendv_ps_256", ["a", "b", "mask"]],
         ["BEXTR_32", "x86_bmi_bextr_32", ["src", "control"]],
index 7bba435467b1591a37df6f1a4d43de5fba350265..0b53a929e6cb2e175cd50a6b96446a6c020f1fcd 100644 (file)
@@ -28,7 +28,7 @@ import operator
 
 header = r"""
 /****************************************************************************
-* Copyright (C) 2014-2015 Intel Corporation.   All Rights Reserved.
+* Copyright (C) 2014-2016 Intel Corporation.   All Rights Reserved.
 *
 * Permission is hereby granted, free of charge, to any person obtaining a
 * copy of this software and associated documentation files (the "Software"),
index 44ab69815b11722c545c58138895717dc2a5bee6..3d003fb4a33e0d86db6efa62b0b7d74438c710b6 100644 (file)
@@ -1,4 +1,4 @@
-# Copyright (C) 2014-2015 Intel Corporation.   All Rights Reserved.
+# Copyright (C) 2014-2016 Intel Corporation.   All Rights Reserved.
 #
 # Permission is hereby granted, free of charge, to any person obtaining a
 # copy of this software and associated documentation files (the "Software"),
index cf4af71811d5e74a897525e7960cda0eea678290..9aa43376f35b343721a60100e0bce2e08637030d 100644 (file)
@@ -1,4 +1,4 @@
-# Copyright (C) 2014-2015 Intel Corporation.   All Rights Reserved.
+# Copyright (C) 2014-2016 Intel Corporation.   All Rights Reserved.
 #
 # Permission is hereby granted, free of charge, to any person obtaining a
 # copy of this software and associated documentation files (the "Software"),
index 66c8e84b827bf621647b885cc12958d0a0ac4598..521346ca83302d5a3443b35312bf997f86b59d44 100644 (file)
@@ -10,7 +10,7 @@
         return ' '*(max_len - knob_len)
 %>/******************************************************************************
 *
-* Copyright 2015
+* Copyright 2015-2016
 * Intel Corporation
 *
 * Licensed under the Apache License, Version 2.0 (the "License");