Renamed SKP_[u]int* to opus_[u]int*
[opus.git] / silk / silk_MacroDebug.h
index cabbc2a..dd6d073 100644 (file)
@@ -34,8 +34,8 @@ OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
 #if 0 && defined (_WIN32) && defined (_DEBUG) && !defined (SKP_MACRO_COUNT)\r
 \r
 #undef SKP_ADD16\r
-SKP_INLINE SKP_int16 SKP_ADD16(SKP_int16 a, SKP_int16 b){\r
-       SKP_int16 ret;\r
+SKP_INLINE opus_int16 SKP_ADD16(opus_int16 a, opus_int16 b){\r
+       opus_int16 ret;\r
 \r
        ret = a + b;\r
        SKP_assert( ret == SKP_ADD_SAT16( a, b ));\r
@@ -43,8 +43,8 @@ SKP_INLINE SKP_int16 SKP_ADD16(SKP_int16 a, SKP_int16 b){
 }\r
 \r
 #undef SKP_ADD32\r
-SKP_INLINE SKP_int32 SKP_ADD32(SKP_int32 a, SKP_int32 b){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_ADD32(opus_int32 a, opus_int32 b){\r
+       opus_int32 ret;\r
 \r
        ret = a + b;\r
        SKP_assert( ret == SKP_ADD_SAT32( a, b ));\r
@@ -52,8 +52,8 @@ SKP_INLINE SKP_int32 SKP_ADD32(SKP_int32 a, SKP_int32 b){
 }\r
 \r
 #undef SKP_ADD64\r
-SKP_INLINE SKP_int64 SKP_ADD64(SKP_int64 a, SKP_int64 b){\r
-       SKP_int64 ret;\r
+SKP_INLINE opus_int64 SKP_ADD64(opus_int64 a, opus_int64 b){\r
+       opus_int64 ret;\r
 \r
        ret = a + b;\r
        SKP_assert( ret == SKP_ADD_SAT64( a, b ));\r
@@ -61,8 +61,8 @@ SKP_INLINE SKP_int64 SKP_ADD64(SKP_int64 a, SKP_int64 b){
 }\r
 \r
 #undef SKP_SUB16\r
-SKP_INLINE SKP_int16 SKP_SUB16(SKP_int16 a, SKP_int16 b){\r
-       SKP_int16 ret;\r
+SKP_INLINE opus_int16 SKP_SUB16(opus_int16 a, opus_int16 b){\r
+       opus_int16 ret;\r
 \r
        ret = a - b;\r
        SKP_assert( ret == SKP_SUB_SAT16( a, b ));\r
@@ -70,8 +70,8 @@ SKP_INLINE SKP_int16 SKP_SUB16(SKP_int16 a, SKP_int16 b){
 }\r
 \r
 #undef SKP_SUB32\r
-SKP_INLINE SKP_int32 SKP_SUB32(SKP_int32 a, SKP_int32 b){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_SUB32(opus_int32 a, opus_int32 b){\r
+       opus_int32 ret;\r
 \r
        ret = a - b;\r
        SKP_assert( ret == SKP_SUB_SAT32( a, b ));\r
@@ -79,8 +79,8 @@ SKP_INLINE SKP_int32 SKP_SUB32(SKP_int32 a, SKP_int32 b){
 }\r
 \r
 #undef SKP_SUB64\r
-SKP_INLINE SKP_int64 SKP_SUB64(SKP_int64 a, SKP_int64 b){\r
-       SKP_int64 ret;\r
+SKP_INLINE opus_int64 SKP_SUB64(opus_int64 a, opus_int64 b){\r
+       opus_int64 ret;\r
 \r
        ret = a - b;\r
        SKP_assert( ret == SKP_SUB_SAT64( a, b ));\r
@@ -88,26 +88,26 @@ SKP_INLINE SKP_int64 SKP_SUB64(SKP_int64 a, SKP_int64 b){
 }\r
 \r
 #undef SKP_ADD_SAT16\r
-SKP_INLINE SKP_int16 SKP_ADD_SAT16( SKP_int16 a16, SKP_int16 b16 ) {\r
-       SKP_int16 res;\r
-       res = (SKP_int16)SKP_SAT16( SKP_ADD32( (SKP_int32)(a16), (b16) ) );\r
-       SKP_assert( res == SKP_SAT16( ( SKP_int32 )a16 + ( SKP_int32 )b16 ) );\r
+SKP_INLINE opus_int16 SKP_ADD_SAT16( opus_int16 a16, opus_int16 b16 ) {\r
+       opus_int16 res;\r
+       res = (opus_int16)SKP_SAT16( SKP_ADD32( (opus_int32)(a16), (b16) ) );\r
+       SKP_assert( res == SKP_SAT16( ( opus_int32 )a16 + ( opus_int32 )b16 ) );\r
        return res;\r
 }\r
 \r
 #undef SKP_ADD_SAT32\r
-SKP_INLINE SKP_int32 SKP_ADD_SAT32(SKP_int32 a32, SKP_int32 b32){\r
-       SKP_int32 res;\r
+SKP_INLINE opus_int32 SKP_ADD_SAT32(opus_int32 a32, opus_int32 b32){\r
+       opus_int32 res;\r
        res =   ((((a32) + (b32)) & 0x80000000) == 0 ?                                                                  \\r
                        ((((a32) & (b32)) & 0x80000000) != 0 ? SKP_int32_MIN : (a32)+(b32)) :   \\r
                        ((((a32) | (b32)) & 0x80000000) == 0 ? SKP_int32_MAX : (a32)+(b32)) );\r
-       SKP_assert( res == SKP_SAT32( ( SKP_int64 )a32 + ( SKP_int64 )b32 ) );\r
+       SKP_assert( res == SKP_SAT32( ( opus_int64 )a32 + ( opus_int64 )b32 ) );\r
        return res;\r
 }\r
 \r
 #undef SKP_ADD_SAT64\r
-SKP_INLINE SKP_int64 SKP_ADD_SAT64( SKP_int64 a64, SKP_int64 b64 ) {\r
-       SKP_int64 res;\r
+SKP_INLINE opus_int64 SKP_ADD_SAT64( opus_int64 a64, opus_int64 b64 ) {\r
+       opus_int64 res;\r
        res =   ((((a64) + (b64)) & 0x8000000000000000LL) == 0 ?                                                                \\r
                        ((((a64) & (b64)) & 0x8000000000000000LL) != 0 ? SKP_int64_MIN : (a64)+(b64)) : \\r
                        ((((a64) | (b64)) & 0x8000000000000000LL) == 0 ? SKP_int64_MAX : (a64)+(b64)) );\r
@@ -123,26 +123,26 @@ SKP_INLINE SKP_int64 SKP_ADD_SAT64( SKP_int64 a64, SKP_int64 b64 ) {
 }\r
 \r
 #undef SKP_SUB_SAT16\r
-SKP_INLINE SKP_int16 SKP_SUB_SAT16( SKP_int16 a16, SKP_int16 b16 ) {\r
-       SKP_int16 res;\r
-       res = (SKP_int16)SKP_SAT16( SKP_SUB32( (SKP_int32)(a16), (b16) ) );\r
-       SKP_assert( res == SKP_SAT16( ( SKP_int32 )a16 - ( SKP_int32 )b16 ) );\r
+SKP_INLINE opus_int16 SKP_SUB_SAT16( opus_int16 a16, opus_int16 b16 ) {\r
+       opus_int16 res;\r
+       res = (opus_int16)SKP_SAT16( SKP_SUB32( (opus_int32)(a16), (b16) ) );\r
+       SKP_assert( res == SKP_SAT16( ( opus_int32 )a16 - ( opus_int32 )b16 ) );\r
        return res;\r
 }\r
 \r
 #undef SKP_SUB_SAT32\r
-SKP_INLINE SKP_int32 SKP_SUB_SAT32( SKP_int32 a32, SKP_int32 b32 ) {\r
-       SKP_int32 res;\r
+SKP_INLINE opus_int32 SKP_SUB_SAT32( opus_int32 a32, opus_int32 b32 ) {\r
+       opus_int32 res;\r
        res =   ((((a32)-(b32)) & 0x80000000) == 0 ?                                                                                    \\r
                        (( (a32) & ((b32)^0x80000000) & 0x80000000) ? SKP_int32_MIN : (a32)-(b32)) :    \\r
                        ((((a32)^0x80000000) & (b32)  & 0x80000000) ? SKP_int32_MAX : (a32)-(b32)) );\r
-       SKP_assert( res == SKP_SAT32( ( SKP_int64 )a32 - ( SKP_int64 )b32 ) );\r
+       SKP_assert( res == SKP_SAT32( ( opus_int64 )a32 - ( opus_int64 )b32 ) );\r
        return res;\r
 }\r
 \r
 #undef SKP_SUB_SAT64\r
-SKP_INLINE SKP_int64 SKP_SUB_SAT64( SKP_int64 a64, SKP_int64 b64 ) {\r
-       SKP_int64 res;\r
+SKP_INLINE opus_int64 SKP_SUB_SAT64( opus_int64 a64, opus_int64 b64 ) {\r
+       opus_int64 res;\r
        res =   ((((a64)-(b64)) & 0x8000000000000000LL) == 0 ?                                                                                                          \\r
                        (( (a64) & ((b64)^0x8000000000000000LL) & 0x8000000000000000LL) ? SKP_int64_MIN : (a64)-(b64)) :        \\r
                        ((((a64)^0x8000000000000000LL) & (b64)  & 0x8000000000000000LL) ? SKP_int64_MAX : (a64)-(b64)) );\r
@@ -159,71 +159,71 @@ SKP_INLINE SKP_int64 SKP_SUB_SAT64( SKP_int64 a64, SKP_int64 b64 ) {
 }\r
 \r
 #undef SKP_MUL\r
-SKP_INLINE SKP_int32 SKP_MUL(SKP_int32 a32, SKP_int32 b32){\r
-       SKP_int32 ret;\r
-       SKP_int64 ret64; // Will easily show how many bits that are needed\r
+SKP_INLINE opus_int32 SKP_MUL(opus_int32 a32, opus_int32 b32){\r
+       opus_int32 ret;\r
+       opus_int64 ret64; // Will easily show how many bits that are needed\r
        ret = a32 * b32;\r
-       ret64 = (SKP_int64)a32 * (SKP_int64)b32; \r
-       SKP_assert((SKP_int64)ret == ret64 );           //Check output overflow\r
+       ret64 = (opus_int64)a32 * (opus_int64)b32; \r
+       SKP_assert((opus_int64)ret == ret64 );          //Check output overflow\r
        return ret;\r
 }\r
 \r
 #undef SKP_MUL_uint\r
-SKP_INLINE SKP_uint32 SKP_MUL_uint(SKP_uint32 a32, SKP_uint32 b32){\r
-       SKP_uint32 ret;\r
+SKP_INLINE opus_uint32 SKP_MUL_uint(opus_uint32 a32, opus_uint32 b32){\r
+       opus_uint32 ret;\r
        ret = a32 * b32;\r
-       SKP_assert((SKP_uint64)ret == (SKP_uint64)a32 * (SKP_uint64)b32);               //Check output overflow\r
+       SKP_assert((opus_uint64)ret == (opus_uint64)a32 * (opus_uint64)b32);            //Check output overflow\r
        return ret;\r
 }\r
 #undef SKP_MLA\r
-SKP_INLINE SKP_int32 SKP_MLA(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_MLA(opus_int32 a32, opus_int32 b32, opus_int32 c32){\r
+       opus_int32 ret;\r
        ret = a32 + b32 * c32;\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (SKP_int64)c32); //Check output overflow\r
+       SKP_assert((opus_int64)ret == (opus_int64)a32 + (opus_int64)b32 * (opus_int64)c32);     //Check output overflow\r
        return ret;\r
 }\r
 \r
 #undef SKP_MLA_uint\r
-SKP_INLINE SKP_int32 SKP_MLA_uint(SKP_uint32 a32, SKP_uint32 b32, SKP_uint32 c32){\r
-       SKP_uint32 ret;\r
+SKP_INLINE opus_int32 SKP_MLA_uint(opus_uint32 a32, opus_uint32 b32, opus_uint32 c32){\r
+       opus_uint32 ret;\r
        ret = a32 + b32 * c32;\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (SKP_int64)c32); //Check output overflow\r
+       SKP_assert((opus_int64)ret == (opus_int64)a32 + (opus_int64)b32 * (opus_int64)c32);     //Check output overflow\r
        return ret;\r
 }\r
 \r
 #undef SKP_SMULWB\r
-SKP_INLINE SKP_int32 SKP_SMULWB(SKP_int32 a32, SKP_int32 b32){ \r
-       SKP_int32 ret;\r
-       ret = (a32 >> 16) * (SKP_int32)((SKP_int16)b32) + (((a32 & 0x0000FFFF) * (SKP_int32)((SKP_int16)b32)) >> 16);\r
-       SKP_assert((SKP_int64)ret == ((SKP_int64)a32 * (SKP_int16)b32) >> 16);\r
+SKP_INLINE opus_int32 SKP_SMULWB(opus_int32 a32, opus_int32 b32){      \r
+       opus_int32 ret;\r
+       ret = (a32 >> 16) * (opus_int32)((opus_int16)b32) + (((a32 & 0x0000FFFF) * (opus_int32)((opus_int16)b32)) >> 16);\r
+       SKP_assert((opus_int64)ret == ((opus_int64)a32 * (opus_int16)b32) >> 16);\r
        return ret;\r
 }\r
 #undef SKP_SMLAWB\r
-SKP_INLINE SKP_int32 SKP_SMLAWB(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){  \r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_SMLAWB(opus_int32 a32, opus_int32 b32, opus_int32 c32){      \r
+       opus_int32 ret;\r
        ret = SKP_ADD32( a32, SKP_SMULWB( b32, c32 ) );\r
        SKP_assert(SKP_ADD32( a32, SKP_SMULWB( b32, c32 ) ) == SKP_ADD_SAT32( a32, SKP_SMULWB( b32, c32 ) ));\r
        return ret;\r
 }\r
 \r
 #undef SKP_SMULWT\r
-SKP_INLINE SKP_int32 SKP_SMULWT(SKP_int32 a32, SKP_int32 b32){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_SMULWT(opus_int32 a32, opus_int32 b32){\r
+       opus_int32 ret;\r
        ret = (a32 >> 16) * (b32 >> 16) + (((a32 & 0x0000FFFF) * (b32 >> 16)) >> 16);\r
-       SKP_assert((SKP_int64)ret == ((SKP_int64)a32 * (b32 >> 16)) >> 16);\r
+       SKP_assert((opus_int64)ret == ((opus_int64)a32 * (b32 >> 16)) >> 16);\r
        return ret;\r
 }\r
 #undef SKP_SMLAWT\r
-SKP_INLINE SKP_int32 SKP_SMLAWT(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_SMLAWT(opus_int32 a32, opus_int32 b32, opus_int32 c32){\r
+       opus_int32 ret;\r
        ret = a32 + ((b32 >> 16) * (c32 >> 16)) + (((b32 & 0x0000FFFF) * ((c32 >> 16)) >> 16));\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (((SKP_int64)b32 * (c32 >> 16)) >> 16));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a32 + (((opus_int64)b32 * (c32 >> 16)) >> 16));\r
        return ret;\r
 }\r
 \r
 #undef SKP_SMULL\r
-SKP_INLINE SKP_int64 SKP_SMULL(SKP_int64 a64, SKP_int64 b64){\r
-       SKP_int64 ret64;\r
+SKP_INLINE opus_int64 SKP_SMULL(opus_int64 a64, opus_int64 b64){\r
+       opus_int64 ret64;\r
        ret64 = a64 * b64;\r
        if( b64 != 0 ) {\r
                SKP_assert( a64 == (ret64 / b64) );\r
@@ -235,55 +235,55 @@ SKP_INLINE SKP_int64 SKP_SMULL(SKP_int64 a64, SKP_int64 b64){
 \r
 // no checking needed for SKP_SMULBB\r
 #undef SKP_SMLABB\r
-SKP_INLINE SKP_int32 SKP_SMLABB(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
-       SKP_int32 ret;\r
-       ret = a32 + (SKP_int32)((SKP_int16)b32) * (SKP_int32)((SKP_int16)c32);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (SKP_int16)c32);\r
+SKP_INLINE opus_int32 SKP_SMLABB(opus_int32 a32, opus_int32 b32, opus_int32 c32){\r
+       opus_int32 ret;\r
+       ret = a32 + (opus_int32)((opus_int16)b32) * (opus_int32)((opus_int16)c32);\r
+       SKP_assert((opus_int64)ret == (opus_int64)a32 + (opus_int64)b32 * (opus_int16)c32);\r
        return ret;\r
 }\r
 \r
 // no checking needed for SKP_SMULBT\r
 #undef SKP_SMLABT\r
-SKP_INLINE SKP_int32 SKP_SMLABT(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
-       SKP_int32 ret;\r
-       ret = a32 + ((SKP_int32)((SKP_int16)b32)) * (c32 >> 16);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (c32 >> 16));\r
+SKP_INLINE opus_int32 SKP_SMLABT(opus_int32 a32, opus_int32 b32, opus_int32 c32){\r
+       opus_int32 ret;\r
+       ret = a32 + ((opus_int32)((opus_int16)b32)) * (c32 >> 16);\r
+       SKP_assert((opus_int64)ret == (opus_int64)a32 + (opus_int64)b32 * (c32 >> 16));\r
        return ret;\r
 }\r
 \r
 // no checking needed for SKP_SMULTT\r
 #undef SKP_SMLATT\r
-SKP_INLINE SKP_int32 SKP_SMLATT(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_SMLATT(opus_int32 a32, opus_int32 b32, opus_int32 c32){\r
+       opus_int32 ret;\r
        ret = a32 + (b32 >> 16) * (c32 >> 16);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (b32 >> 16) * (c32 >> 16));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a32 + (b32 >> 16) * (c32 >> 16));\r
        return ret;\r
 }\r
 \r
 #undef SKP_SMULWW\r
-SKP_INLINE SKP_int32 SKP_SMULWW(SKP_int32 a32, SKP_int32 b32){ \r
-       SKP_int32 ret, tmp1, tmp2;\r
-       SKP_int64 ret64;\r
+SKP_INLINE opus_int32 SKP_SMULWW(opus_int32 a32, opus_int32 b32){      \r
+       opus_int32 ret, tmp1, tmp2;\r
+       opus_int64 ret64;\r
 \r
        ret  = SKP_SMULWB( a32, b32 );\r
        tmp1 = SKP_RSHIFT_ROUND( b32, 16 );\r
        tmp2 = SKP_MUL( a32, tmp1 );\r
        \r
-       SKP_assert( (SKP_int64)tmp2 == (SKP_int64) a32 * (SKP_int64) tmp1 );\r
+       SKP_assert( (opus_int64)tmp2 == (opus_int64) a32 * (opus_int64) tmp1 );\r
        \r
        tmp1 = ret;\r
        ret  = SKP_ADD32( tmp1, tmp2 );\r
        SKP_assert( SKP_ADD32( tmp1, tmp2 ) == SKP_ADD_SAT32( tmp1, tmp2 ) );\r
        \r
        ret64 = SKP_RSHIFT64( SKP_SMULL( a32, b32 ), 16 );\r
-       SKP_assert( (SKP_int64)ret == ret64 );\r
+       SKP_assert( (opus_int64)ret == ret64 );\r
 \r
        return ret;\r
 }\r
 \r
 #undef SKP_SMLAWW\r
-SKP_INLINE SKP_int32 SKP_SMLAWW(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){  \r
-       SKP_int32 ret, tmp;\r
+SKP_INLINE opus_int32 SKP_SMLAWW(opus_int32 a32, opus_int32 b32, opus_int32 c32){      \r
+       opus_int32 ret, tmp;\r
 \r
        tmp = SKP_SMULWW( b32, c32 );\r
        ret = SKP_ADD32( a32, tmp );\r
@@ -295,13 +295,13 @@ SKP_INLINE SKP_int32 SKP_SMLAWW(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){
 #undef SKP_MLA_ovflw\r
 #define SKP_MLA_ovflw(a32, b32, c32)   ((a32) + ((b32) * (c32)))\r
 #undef SKP_SMLABB_ovflw\r
-#define SKP_SMLABB_ovflw(a32, b32, c32)        ((a32) + ((SKP_int32)((SKP_int16)(b32))) * (SKP_int32)((SKP_int16)(c32)))\r
+#define SKP_SMLABB_ovflw(a32, b32, c32)        ((a32) + ((opus_int32)((opus_int16)(b32))) * (opus_int32)((opus_int16)(c32)))\r
 #undef SKP_SMLABT_ovflw\r
-#define SKP_SMLABT_ovflw(a32, b32, c32)        ((a32) + ((SKP_int32)((SKP_int16)(b32))) * ((c32) >> 16))\r
+#define SKP_SMLABT_ovflw(a32, b32, c32)        ((a32) + ((opus_int32)((opus_int16)(b32))) * ((c32) >> 16))\r
 #undef SKP_SMLATT_ovflw\r
 #define SKP_SMLATT_ovflw(a32, b32, c32)        ((a32) + ((b32) >> 16) * ((c32) >> 16))\r
 #undef SKP_SMLAWB_ovflw\r
-#define SKP_SMLAWB_ovflw(a32, b32, c32)        ((a32) + ((((b32) >> 16) * (SKP_int32)((SKP_int16)(c32))) + ((((b32) & 0x0000FFFF) * (SKP_int32)((SKP_int16)(c32))) >> 16)))\r
+#define SKP_SMLAWB_ovflw(a32, b32, c32)        ((a32) + ((((b32) >> 16) * (opus_int32)((opus_int16)(c32))) + ((((b32) & 0x0000FFFF) * (opus_int32)((opus_int16)(c32))) >> 16)))\r
 #undef SKP_SMLAWT_ovflw\r
 #define SKP_SMLAWT_ovflw(a32, b32, c32)        ((a32) + (((b32) >> 16) * ((c32) >> 16)) + ((((b32) & 0x0000FFFF) * ((c32) >> 16)) >> 16))\r
 \r
@@ -312,13 +312,13 @@ SKP_INLINE SKP_int32 SKP_SMLAWW(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){
 // no checking needed for SigProcFIX_CLZ32\r
 \r
 #undef SKP_DIV32\r
-SKP_INLINE SKP_int32 SKP_DIV32(SKP_int32 a32, SKP_int32 b32){\r
+SKP_INLINE opus_int32 SKP_DIV32(opus_int32 a32, opus_int32 b32){\r
        SKP_assert( b32 != 0 );\r
        return a32 / b32;\r
 }\r
 \r
 #undef SKP_DIV32_16\r
-SKP_INLINE SKP_int32 SKP_DIV32_16(SKP_int32 a32, SKP_int32 b32){\r
+SKP_INLINE opus_int32 SKP_DIV32_16(opus_int32 a32, opus_int32 b32){\r
        SKP_assert( b32 != 0 );\r
        SKP_assert( b32 <= SKP_int16_MAX );\r
        SKP_assert( b32 >= SKP_int16_MIN );\r
@@ -334,172 +334,172 @@ SKP_INLINE SKP_int32 SKP_DIV32_16(SKP_int32 a32, SKP_int32 b32){
 // no checking needed for SKP_ADD_POS_SAT32\r
 // no checking needed for SKP_ADD_POS_SAT64\r
 #undef SKP_LSHIFT8\r
-SKP_INLINE SKP_int8 SKP_LSHIFT8(SKP_int8 a, SKP_int32 shift){\r
-       SKP_int8 ret;\r
+SKP_INLINE opus_int8 SKP_LSHIFT8(opus_int8 a, opus_int32 shift){\r
+       opus_int8 ret;\r
        ret = a << shift;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift < 8);\r
-       SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
+       SKP_assert((opus_int64)ret == ((opus_int64)a) << shift);\r
        return ret;\r
 }\r
 #undef SKP_LSHIFT16\r
-SKP_INLINE SKP_int16 SKP_LSHIFT16(SKP_int16 a, SKP_int32 shift){\r
-       SKP_int16 ret;\r
+SKP_INLINE opus_int16 SKP_LSHIFT16(opus_int16 a, opus_int32 shift){\r
+       opus_int16 ret;\r
        ret = a << shift;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift < 16);\r
-       SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
+       SKP_assert((opus_int64)ret == ((opus_int64)a) << shift);\r
        return ret;\r
 }\r
 #undef SKP_LSHIFT32\r
-SKP_INLINE SKP_int32 SKP_LSHIFT32(SKP_int32 a, SKP_int32 shift){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_LSHIFT32(opus_int32 a, opus_int32 shift){\r
+       opus_int32 ret;\r
        ret = a << shift;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift < 32);\r
-       SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
+       SKP_assert((opus_int64)ret == ((opus_int64)a) << shift);\r
        return ret;\r
 }\r
 #undef SKP_LSHIFT64\r
-SKP_INLINE SKP_int64 SKP_LSHIFT64(SKP_int64 a, SKP_int shift){\r
+SKP_INLINE opus_int64 SKP_LSHIFT64(opus_int64 a, opus_int shift){\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift < 64);\r
        return a << shift;\r
 }\r
 \r
 #undef SKP_LSHIFT_ovflw\r
-SKP_INLINE SKP_int32 SKP_LSHIFT_ovflw(SKP_int32 a, SKP_int32 shift){\r
+SKP_INLINE opus_int32 SKP_LSHIFT_ovflw(opus_int32 a, opus_int32 shift){\r
        SKP_assert(shift >= 0);                 /* no check for overflow */\r
        return a << shift;\r
 }\r
 \r
 #undef SKP_LSHIFT_uint\r
-SKP_INLINE SKP_uint32 SKP_LSHIFT_uint(SKP_uint32 a, SKP_int32 shift){\r
-       SKP_uint32 ret;\r
+SKP_INLINE opus_uint32 SKP_LSHIFT_uint(opus_uint32 a, opus_int32 shift){\r
+       opus_uint32 ret;\r
        ret = a << shift;\r
        SKP_assert(shift >= 0);\r
-       SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
+       SKP_assert((opus_int64)ret == ((opus_int64)a) << shift);\r
        return ret;\r
 }\r
 \r
 #undef SKP_RSHIFT8\r
-SKP_INLINE SKP_int8 SKP_RSHIFT8(SKP_int8 a, SKP_int32 shift){\r
+SKP_INLINE opus_int8 SKP_RSHIFT8(opus_int8 a, opus_int32 shift){\r
        SKP_assert(shift >=  0);\r
        SKP_assert(shift < 8);\r
        return a >> shift;\r
 }\r
 #undef SKP_RSHIFT16\r
-SKP_INLINE SKP_int16 SKP_RSHIFT16(SKP_int16 a, SKP_int32 shift){\r
+SKP_INLINE opus_int16 SKP_RSHIFT16(opus_int16 a, opus_int32 shift){\r
        SKP_assert(shift >=  0);\r
        SKP_assert(shift < 16);\r
        return a >> shift;\r
 }\r
 #undef SKP_RSHIFT32\r
-SKP_INLINE SKP_int32 SKP_RSHIFT32(SKP_int32 a, SKP_int32 shift){\r
+SKP_INLINE opus_int32 SKP_RSHIFT32(opus_int32 a, opus_int32 shift){\r
        SKP_assert(shift >=  0);\r
        SKP_assert(shift < 32);\r
        return a >> shift;\r
 }\r
 #undef SKP_RSHIFT64\r
-SKP_INLINE SKP_int64 SKP_RSHIFT64(SKP_int64 a, SKP_int64 shift){\r
+SKP_INLINE opus_int64 SKP_RSHIFT64(opus_int64 a, opus_int64 shift){\r
        SKP_assert(shift >=  0);\r
        SKP_assert(shift <= 63);\r
        return a >> shift;\r
 }\r
 \r
 #undef SKP_RSHIFT_uint\r
-SKP_INLINE SKP_uint32 SKP_RSHIFT_uint(SKP_uint32 a, SKP_int32 shift){\r
+SKP_INLINE opus_uint32 SKP_RSHIFT_uint(opus_uint32 a, opus_int32 shift){\r
        SKP_assert(shift >=  0);\r
        SKP_assert(shift <= 32);\r
        return a >> shift;\r
 }\r
 \r
 #undef SKP_ADD_LSHIFT\r
-SKP_INLINE SKP_int32 SKP_ADD_LSHIFT(SKP_int32 a, SKP_int32 b, SKP_int32 shift){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_ADD_LSHIFT(opus_int32 a, opus_int32 b, opus_int32 shift){\r
+       opus_int32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 31);\r
        ret = a + (b << shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) << shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a + (((opus_int64)b) << shift));\r
        return ret;                             // shift >= 0\r
 }\r
 #undef SKP_ADD_LSHIFT32\r
-SKP_INLINE SKP_int32 SKP_ADD_LSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_ADD_LSHIFT32(opus_int32 a, opus_int32 b, opus_int32 shift){\r
+       opus_int32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 31);\r
        ret = a + (b << shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) << shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a + (((opus_int64)b) << shift));\r
        return ret;                             // shift >= 0\r
 }\r
 #undef SKP_ADD_LSHIFT_uint\r
-SKP_INLINE SKP_uint32 SKP_ADD_LSHIFT_uint(SKP_uint32 a, SKP_uint32 b, SKP_int32 shift){\r
-       SKP_uint32 ret;\r
+SKP_INLINE opus_uint32 SKP_ADD_LSHIFT_uint(opus_uint32 a, opus_uint32 b, opus_int32 shift){\r
+       opus_uint32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 32);\r
        ret = a + (b << shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) << shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a + (((opus_int64)b) << shift));\r
        return ret;                             // shift >= 0\r
 }\r
 #undef SKP_ADD_RSHIFT\r
-SKP_INLINE SKP_int32 SKP_ADD_RSHIFT(SKP_int32 a, SKP_int32 b, SKP_int32 shift){                \r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_ADD_RSHIFT(opus_int32 a, opus_int32 b, opus_int32 shift){            \r
+       opus_int32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 31);\r
        ret = a + (b >> shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) >> shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a + (((opus_int64)b) >> shift));\r
        return ret;                             // shift  > 0\r
 }\r
 #undef SKP_ADD_RSHIFT32\r
-SKP_INLINE SKP_int32 SKP_ADD_RSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){              \r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_ADD_RSHIFT32(opus_int32 a, opus_int32 b, opus_int32 shift){          \r
+       opus_int32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 31);\r
        ret = a + (b >> shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) >> shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a + (((opus_int64)b) >> shift));\r
        return ret;                             // shift  > 0\r
 }\r
 #undef SKP_ADD_RSHIFT_uint\r
-SKP_INLINE SKP_uint32 SKP_ADD_RSHIFT_uint(SKP_uint32 a, SKP_uint32 b, SKP_int32 shift){                \r
-       SKP_uint32 ret;\r
+SKP_INLINE opus_uint32 SKP_ADD_RSHIFT_uint(opus_uint32 a, opus_uint32 b, opus_int32 shift){            \r
+       opus_uint32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 32);\r
        ret = a + (b >> shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) >> shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a + (((opus_int64)b) >> shift));\r
        return ret;                             // shift  > 0\r
 }\r
 #undef SKP_SUB_LSHIFT32\r
-SKP_INLINE SKP_int32 SKP_SUB_LSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_SUB_LSHIFT32(opus_int32 a, opus_int32 b, opus_int32 shift){\r
+       opus_int32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 31);\r
        ret = a - (b << shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a - (((SKP_int64)b) << shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a - (((opus_int64)b) << shift));\r
        return ret;                             // shift >= 0\r
 }\r
 #undef SKP_SUB_RSHIFT32\r
-SKP_INLINE SKP_int32 SKP_SUB_RSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){              \r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_SUB_RSHIFT32(opus_int32 a, opus_int32 b, opus_int32 shift){          \r
+       opus_int32 ret;\r
        SKP_assert(shift >= 0);\r
        SKP_assert(shift <= 31);\r
        ret = a - (b >> shift);\r
-       SKP_assert((SKP_int64)ret == (SKP_int64)a - (((SKP_int64)b) >> shift));\r
+       SKP_assert((opus_int64)ret == (opus_int64)a - (((opus_int64)b) >> shift));\r
        return ret;                             // shift  > 0\r
 }\r
 \r
 #undef SKP_RSHIFT_ROUND\r
-SKP_INLINE SKP_int32 SKP_RSHIFT_ROUND(SKP_int32 a, SKP_int32 shift){\r
-       SKP_int32 ret;\r
+SKP_INLINE opus_int32 SKP_RSHIFT_ROUND(opus_int32 a, opus_int32 shift){\r
+       opus_int32 ret;\r
        SKP_assert(shift > 0);          /* the marco definition can't handle a shift of zero */\r
        SKP_assert(shift < 32);\r
        ret = shift == 1 ? (a >> 1) + (a & 1) : ((a >> (shift - 1)) + 1) >> 1;\r
-       SKP_assert((SKP_int64)ret == ((SKP_int64)a + ((SKP_int64)1 << (shift - 1))) >> shift);\r
+       SKP_assert((opus_int64)ret == ((opus_int64)a + ((opus_int64)1 << (shift - 1))) >> shift);\r
        return ret;\r
 }\r
 \r
 #undef SKP_RSHIFT_ROUND64\r
-SKP_INLINE SKP_int64 SKP_RSHIFT_ROUND64(SKP_int64 a, SKP_int32 shift){\r
-       SKP_int64 ret;\r
+SKP_INLINE opus_int64 SKP_RSHIFT_ROUND64(opus_int64 a, opus_int32 shift){\r
+       opus_int64 ret;\r
        SKP_assert(shift > 0);          /* the marco definition can't handle a shift of zero */\r
        SKP_assert(shift < 64);\r
        ret = shift == 1 ? (a >> 1) + (a & 1) : ((a >> (shift - 1)) + 1) >> 1;\r
@@ -508,44 +508,44 @@ SKP_INLINE SKP_int64 SKP_RSHIFT_ROUND64(SKP_int64 a, SKP_int32 shift){
 \r
 // SKP_abs is used on floats also, so doesn't work...\r
 //#undef       SKP_abs\r
-//SKP_INLINE SKP_int32 SKP_abs(SKP_int32 a){\r
+//SKP_INLINE opus_int32 SKP_abs(opus_int32 a){\r
 //     SKP_assert(a != 0x80000000);\r
 //     return (((a) >  0)  ? (a) : -(a));                      // Be careful, SKP_abs returns wrong when input equals to SKP_intXX_MIN\r
 //}\r
 \r
 #undef SKP_abs_int64\r
-SKP_INLINE SKP_int64 SKP_abs_int64(SKP_int64 a){\r
+SKP_INLINE opus_int64 SKP_abs_int64(opus_int64 a){\r
        SKP_assert(a != 0x8000000000000000);\r
        return (((a) >  0)  ? (a) : -(a));                      // Be careful, SKP_abs returns wrong when input equals to SKP_intXX_MIN\r
 }\r
 \r
 #undef SKP_abs_int32\r
-SKP_INLINE SKP_int32 SKP_abs_int32(SKP_int32 a){\r
+SKP_INLINE opus_int32 SKP_abs_int32(opus_int32 a){\r
        SKP_assert(a != 0x80000000);\r
        return abs(a);\r
 }\r
 \r
 #undef SKP_CHECK_FIT8\r
-SKP_INLINE SKP_int8 SKP_CHECK_FIT8( SKP_int64 a ){\r
-       SKP_int8 ret;\r
-       ret = (SKP_int8)a;\r
-       SKP_assert( (SKP_int64)ret == a );\r
+SKP_INLINE opus_int8 SKP_CHECK_FIT8( opus_int64 a ){\r
+       opus_int8 ret;\r
+       ret = (opus_int8)a;\r
+       SKP_assert( (opus_int64)ret == a );\r
        return( ret ); \r
 }\r
 \r
 #undef SKP_CHECK_FIT16\r
-SKP_INLINE SKP_int16 SKP_CHECK_FIT16( SKP_int64 a ){\r
-       SKP_int16 ret;\r
-       ret = (SKP_int16)a;\r
-       SKP_assert( (SKP_int64)ret == a );\r
+SKP_INLINE opus_int16 SKP_CHECK_FIT16( opus_int64 a ){\r
+       opus_int16 ret;\r
+       ret = (opus_int16)a;\r
+       SKP_assert( (opus_int64)ret == a );\r
        return( ret ); \r
 }\r
 \r
 #undef SKP_CHECK_FIT32\r
-SKP_INLINE SKP_int32 SKP_CHECK_FIT32( SKP_int64 a ){\r
-       SKP_int32 ret;\r
-       ret = (SKP_int32)a;\r
-       SKP_assert( (SKP_int64)ret == a );\r
+SKP_INLINE opus_int32 SKP_CHECK_FIT32( opus_int64 a ){\r
+       opus_int32 ret;\r
+       ret = (opus_int32)a;\r
+       SKP_assert( (opus_int64)ret == a );\r
        return( ret ); \r
 }\r
 \r