Update SILK code using the CELT range coder
[opus.git] / src_SigProc_FIX / SKP_Silk_MacroDebug.h
1 #ifndef _SIGPROCFIX_API_DEBUG_H_\r
2 #define _SIGPROCFIX_API_DEBUG_H_\r
3 \r
4 // Redefine macro functions with extensive assertion in Win32_DEBUG mode. \r
5 // As function can't be undefined, this file can't work with SigProcFIX_MacroCount.h\r
6 \r
7 #if 0 && defined (_WIN32) && defined (_DEBUG) && !defined (SKP_MACRO_COUNT)\r
8 \r
9 #undef  SKP_ADD16\r
10 SKP_INLINE SKP_int16 SKP_ADD16(SKP_int16 a, SKP_int16 b){\r
11         SKP_int16 ret;\r
12 \r
13         ret = a + b;\r
14         SKP_assert( ret == SKP_ADD_SAT16( a, b ));\r
15         return ret;\r
16 }\r
17 \r
18 #undef  SKP_ADD32\r
19 SKP_INLINE SKP_int32 SKP_ADD32(SKP_int32 a, SKP_int32 b){\r
20         SKP_int32 ret;\r
21 \r
22         ret = a + b;\r
23         SKP_assert( ret == SKP_ADD_SAT32( a, b ));\r
24         return ret;\r
25 }\r
26 \r
27 #undef  SKP_ADD64\r
28 SKP_INLINE SKP_int64 SKP_ADD64(SKP_int64 a, SKP_int64 b){\r
29         SKP_int64 ret;\r
30 \r
31         ret = a + b;\r
32         SKP_assert( ret == SKP_ADD_SAT64( a, b ));\r
33         return ret;\r
34 }\r
35 \r
36 #undef  SKP_SUB16\r
37 SKP_INLINE SKP_int16 SKP_SUB16(SKP_int16 a, SKP_int16 b){\r
38         SKP_int16 ret;\r
39 \r
40         ret = a - b;\r
41         SKP_assert( ret == SKP_SUB_SAT16( a, b ));\r
42         return ret;\r
43 }\r
44 \r
45 #undef  SKP_SUB32\r
46 SKP_INLINE SKP_int32 SKP_SUB32(SKP_int32 a, SKP_int32 b){\r
47         SKP_int32 ret;\r
48 \r
49         ret = a - b;\r
50         SKP_assert( ret == SKP_SUB_SAT32( a, b ));\r
51         return ret;\r
52 }\r
53 \r
54 #undef  SKP_SUB64\r
55 SKP_INLINE SKP_int64 SKP_SUB64(SKP_int64 a, SKP_int64 b){\r
56         SKP_int64 ret;\r
57 \r
58         ret = a - b;\r
59         SKP_assert( ret == SKP_SUB_SAT64( a, b ));\r
60         return ret;\r
61 }\r
62 \r
63 #undef SKP_ADD_SAT16\r
64 SKP_INLINE SKP_int16 SKP_ADD_SAT16( SKP_int16 a16, SKP_int16 b16 ) {\r
65         SKP_int16 res;\r
66         res = (SKP_int16)SKP_SAT16( SKP_ADD32( (SKP_int32)(a16), (b16) ) );\r
67         SKP_assert( res == SKP_SAT16( ( SKP_int32 )a16 + ( SKP_int32 )b16 ) );\r
68         return res;\r
69 }\r
70 \r
71 #undef SKP_ADD_SAT32\r
72 SKP_INLINE SKP_int32 SKP_ADD_SAT32(SKP_int32 a32, SKP_int32 b32){\r
73         SKP_int32 res;\r
74         res =   ((((a32) + (b32)) & 0x80000000) == 0 ?                                                                  \\r
75                         ((((a32) & (b32)) & 0x80000000) != 0 ? SKP_int32_MIN : (a32)+(b32)) :   \\r
76                         ((((a32) | (b32)) & 0x80000000) == 0 ? SKP_int32_MAX : (a32)+(b32)) );\r
77         SKP_assert( res == SKP_SAT32( ( SKP_int64 )a32 + ( SKP_int64 )b32 ) );\r
78         return res;\r
79 }\r
80 \r
81 #undef SKP_ADD_SAT64\r
82 SKP_INLINE SKP_int64 SKP_ADD_SAT64( SKP_int64 a64, SKP_int64 b64 ) {\r
83         SKP_int64 res;\r
84         res =   ((((a64) + (b64)) & 0x8000000000000000LL) == 0 ?                                                                \\r
85                         ((((a64) & (b64)) & 0x8000000000000000LL) != 0 ? SKP_int64_MIN : (a64)+(b64)) : \\r
86                         ((((a64) | (b64)) & 0x8000000000000000LL) == 0 ? SKP_int64_MAX : (a64)+(b64)) );\r
87         if( res != a64 + b64 ) {\r
88                 // Check that we saturated to the correct extreme value\r
89                 SKP_assert( ( res == SKP_int64_MAX && ( ( a64 >> 1 ) + ( b64 >> 1 ) > ( SKP_int64_MAX >> 3 ) ) ) ||\r
90                                         ( res == SKP_int64_MIN && ( ( a64 >> 1 ) + ( b64 >> 1 ) < ( SKP_int64_MIN >> 3 ) ) ) );\r
91         } else {\r
92                 // Saturation not necessary\r
93                 SKP_assert( res == a64 + b64 );\r
94         }\r
95         return res;\r
96 }\r
97 \r
98 #undef SKP_SUB_SAT16\r
99 SKP_INLINE SKP_int16 SKP_SUB_SAT16( SKP_int16 a16, SKP_int16 b16 ) {\r
100         SKP_int16 res;\r
101         res = (SKP_int16)SKP_SAT16( SKP_SUB32( (SKP_int32)(a16), (b16) ) );\r
102         SKP_assert( res == SKP_SAT16( ( SKP_int32 )a16 - ( SKP_int32 )b16 ) );\r
103         return res;\r
104 }\r
105 \r
106 #undef SKP_SUB_SAT32\r
107 SKP_INLINE SKP_int32 SKP_SUB_SAT32( SKP_int32 a32, SKP_int32 b32 ) {\r
108         SKP_int32 res;\r
109         res =   ((((a32)-(b32)) & 0x80000000) == 0 ?                                                                                    \\r
110                         (( (a32) & ((b32)^0x80000000) & 0x80000000) ? SKP_int32_MIN : (a32)-(b32)) :    \\r
111                         ((((a32)^0x80000000) & (b32)  & 0x80000000) ? SKP_int32_MAX : (a32)-(b32)) );\r
112         SKP_assert( res == SKP_SAT32( ( SKP_int64 )a32 - ( SKP_int64 )b32 ) );\r
113         return res;\r
114 }\r
115 \r
116 #undef SKP_SUB_SAT64\r
117 SKP_INLINE SKP_int64 SKP_SUB_SAT64( SKP_int64 a64, SKP_int64 b64 ) {\r
118         SKP_int64 res;\r
119         res =   ((((a64)-(b64)) & 0x8000000000000000LL) == 0 ?                                                                                                          \\r
120                         (( (a64) & ((b64)^0x8000000000000000LL) & 0x8000000000000000LL) ? SKP_int64_MIN : (a64)-(b64)) :        \\r
121                         ((((a64)^0x8000000000000000LL) & (b64)  & 0x8000000000000000LL) ? SKP_int64_MAX : (a64)-(b64)) );\r
122 \r
123         if( res != a64 - b64 ) {\r
124                 // Check that we saturated to the correct extreme value\r
125                 SKP_assert( ( res == SKP_int64_MAX && ( ( a64 >> 1 ) + ( b64 >> 1 ) > ( SKP_int64_MAX >> 3 ) ) ) ||\r
126                                         ( res == SKP_int64_MIN && ( ( a64 >> 1 ) + ( b64 >> 1 ) < ( SKP_int64_MIN >> 3 ) ) ) );\r
127         } else {\r
128                 // Saturation not necessary\r
129                 SKP_assert( res == a64 - b64 );\r
130         }\r
131         return res;\r
132 }\r
133 \r
134 #undef SKP_MUL\r
135 SKP_INLINE SKP_int32 SKP_MUL(SKP_int32 a32, SKP_int32 b32){\r
136         SKP_int32 ret;\r
137         SKP_int64 ret64; // Will easily show how many bits that are needed\r
138         ret = a32 * b32;\r
139         ret64 = (SKP_int64)a32 * (SKP_int64)b32; \r
140         SKP_assert((SKP_int64)ret == ret64 );           //Check output overflow\r
141         return ret;\r
142 }\r
143 \r
144 #undef SKP_MUL_uint\r
145 SKP_INLINE SKP_uint32 SKP_MUL_uint(SKP_uint32 a32, SKP_uint32 b32){\r
146         SKP_uint32 ret;\r
147         ret = a32 * b32;\r
148         SKP_assert((SKP_uint64)ret == (SKP_uint64)a32 * (SKP_uint64)b32);               //Check output overflow\r
149         return ret;\r
150 }\r
151 #undef SKP_MLA\r
152 SKP_INLINE SKP_int32 SKP_MLA(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
153         SKP_int32 ret;\r
154         ret = a32 + b32 * c32;\r
155         SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (SKP_int64)c32); //Check output overflow\r
156         return ret;\r
157 }\r
158 \r
159 #undef SKP_MLA_uint\r
160 SKP_INLINE SKP_int32 SKP_MLA_uint(SKP_uint32 a32, SKP_uint32 b32, SKP_uint32 c32){\r
161         SKP_uint32 ret;\r
162         ret = a32 + b32 * c32;\r
163         SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (SKP_int64)c32); //Check output overflow\r
164         return ret;\r
165 }\r
166 \r
167 #undef  SKP_SMULWB\r
168 SKP_INLINE SKP_int32 SKP_SMULWB(SKP_int32 a32, SKP_int32 b32){  \r
169         SKP_int32 ret;\r
170         ret = (a32 >> 16) * (SKP_int32)((SKP_int16)b32) + (((a32 & 0x0000FFFF) * (SKP_int32)((SKP_int16)b32)) >> 16);\r
171         SKP_assert((SKP_int64)ret == ((SKP_int64)a32 * (SKP_int16)b32) >> 16);\r
172         return ret;\r
173 }\r
174 #undef  SKP_SMLAWB\r
175 SKP_INLINE SKP_int32 SKP_SMLAWB(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){   \r
176         SKP_int32 ret;\r
177         ret = SKP_ADD32( a32, SKP_SMULWB( b32, c32 ) );\r
178         SKP_assert(SKP_ADD32( a32, SKP_SMULWB( b32, c32 ) ) == SKP_ADD_SAT32( a32, SKP_SMULWB( b32, c32 ) ));\r
179         return ret;\r
180 }\r
181 \r
182 #undef SKP_SMULWT\r
183 SKP_INLINE SKP_int32 SKP_SMULWT(SKP_int32 a32, SKP_int32 b32){\r
184         SKP_int32 ret;\r
185         ret = (a32 >> 16) * (b32 >> 16) + (((a32 & 0x0000FFFF) * (b32 >> 16)) >> 16);\r
186         SKP_assert((SKP_int64)ret == ((SKP_int64)a32 * (b32 >> 16)) >> 16);\r
187         return ret;\r
188 }\r
189 #undef SKP_SMLAWT\r
190 SKP_INLINE SKP_int32 SKP_SMLAWT(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
191         SKP_int32 ret;\r
192         ret = a32 + ((b32 >> 16) * (c32 >> 16)) + (((b32 & 0x0000FFFF) * ((c32 >> 16)) >> 16));\r
193         SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (((SKP_int64)b32 * (c32 >> 16)) >> 16));\r
194         return ret;\r
195 }\r
196 \r
197 #undef SKP_SMULL\r
198 SKP_INLINE SKP_int64 SKP_SMULL(SKP_int64 a64, SKP_int64 b64){\r
199         SKP_int64 ret64;\r
200         ret64 = a64 * b64;\r
201         if( b64 != 0 ) {\r
202                 SKP_assert( a64 == (ret64 / b64) );\r
203         } else if( a64 != 0 ) {\r
204                 SKP_assert( b64 == (ret64 / a64) );\r
205         }\r
206         return ret64;\r
207 }\r
208 \r
209 // no checking needed for SKP_SMULBB\r
210 #undef  SKP_SMLABB\r
211 SKP_INLINE SKP_int32 SKP_SMLABB(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
212         SKP_int32 ret;\r
213         ret = a32 + (SKP_int32)((SKP_int16)b32) * (SKP_int32)((SKP_int16)c32);\r
214         SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (SKP_int16)c32);\r
215         return ret;\r
216 }\r
217 \r
218 // no checking needed for SKP_SMULBT\r
219 #undef  SKP_SMLABT\r
220 SKP_INLINE SKP_int32 SKP_SMLABT(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
221         SKP_int32 ret;\r
222         ret = a32 + ((SKP_int32)((SKP_int16)b32)) * (c32 >> 16);\r
223         SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (SKP_int64)b32 * (c32 >> 16));\r
224         return ret;\r
225 }\r
226 \r
227 // no checking needed for SKP_SMULTT\r
228 #undef  SKP_SMLATT\r
229 SKP_INLINE SKP_int32 SKP_SMLATT(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){\r
230         SKP_int32 ret;\r
231         ret = a32 + (b32 >> 16) * (c32 >> 16);\r
232         SKP_assert((SKP_int64)ret == (SKP_int64)a32 + (b32 >> 16) * (c32 >> 16));\r
233         return ret;\r
234 }\r
235 \r
236 #undef  SKP_SMULWW\r
237 SKP_INLINE SKP_int32 SKP_SMULWW(SKP_int32 a32, SKP_int32 b32){  \r
238         SKP_int32 ret, tmp1, tmp2;\r
239         SKP_int64 ret64;\r
240 \r
241         ret  = SKP_SMULWB( a32, b32 );\r
242         tmp1 = SKP_RSHIFT_ROUND( b32, 16 );\r
243         tmp2 = SKP_MUL( a32, tmp1 );\r
244         \r
245         SKP_assert( (SKP_int64)tmp2 == (SKP_int64) a32 * (SKP_int64) tmp1 );\r
246         \r
247         tmp1 = ret;\r
248         ret  = SKP_ADD32( tmp1, tmp2 );\r
249         SKP_assert( SKP_ADD32( tmp1, tmp2 ) == SKP_ADD_SAT32( tmp1, tmp2 ) );\r
250         \r
251         ret64 = SKP_RSHIFT64( SKP_SMULL( a32, b32 ), 16 );\r
252         SKP_assert( (SKP_int64)ret == ret64 );\r
253 \r
254         return ret;\r
255 }\r
256 \r
257 #undef  SKP_SMLAWW\r
258 SKP_INLINE SKP_int32 SKP_SMLAWW(SKP_int32 a32, SKP_int32 b32, SKP_int32 c32){   \r
259         SKP_int32 ret, tmp;\r
260 \r
261         tmp = SKP_SMULWW( b32, c32 );\r
262         ret = SKP_ADD32( a32, tmp );\r
263         SKP_assert( ret == SKP_ADD_SAT32( a32, tmp ) ); \r
264         return ret;\r
265 }\r
266 \r
267 // multiply-accumulate macros that allow overflow in the addition (ie, no asserts in debug mode)\r
268 #undef  SKP_MLA_ovflw\r
269 #define SKP_MLA_ovflw(a32, b32, c32)    ((a32) + ((b32) * (c32)))\r
270 #undef  SKP_SMLABB_ovflw\r
271 #define SKP_SMLABB_ovflw(a32, b32, c32) ((a32) + ((SKP_int32)((SKP_int16)(b32))) * (SKP_int32)((SKP_int16)(c32)))\r
272 #undef  SKP_SMLABT_ovflw\r
273 #define SKP_SMLABT_ovflw(a32, b32, c32) ((a32) + ((SKP_int32)((SKP_int16)(b32))) * ((c32) >> 16))\r
274 #undef  SKP_SMLATT_ovflw\r
275 #define SKP_SMLATT_ovflw(a32, b32, c32) ((a32) + ((b32) >> 16) * ((c32) >> 16))\r
276 #undef  SKP_SMLAWB_ovflw\r
277 #define SKP_SMLAWB_ovflw(a32, b32, c32) ((a32) + ((((b32) >> 16) * (SKP_int32)((SKP_int16)(c32))) + ((((b32) & 0x0000FFFF) * (SKP_int32)((SKP_int16)(c32))) >> 16)))\r
278 #undef  SKP_SMLAWT_ovflw\r
279 #define SKP_SMLAWT_ovflw(a32, b32, c32) ((a32) + (((b32) >> 16) * ((c32) >> 16)) + ((((b32) & 0x0000FFFF) * ((c32) >> 16)) >> 16))\r
280 \r
281 // no checking needed for SKP_SMULL\r
282 // no checking needed for SKP_SMLAL\r
283 // no checking needed for SKP_SMLALBB\r
284 // no checking needed for SigProcFIX_CLZ16\r
285 // no checking needed for SigProcFIX_CLZ32\r
286 \r
287 #undef SKP_DIV32\r
288 SKP_INLINE SKP_int32 SKP_DIV32(SKP_int32 a32, SKP_int32 b32){\r
289         SKP_assert( b32 != 0 );\r
290         return a32 / b32;\r
291 }\r
292 \r
293 #undef SKP_DIV32_16\r
294 SKP_INLINE SKP_int32 SKP_DIV32_16(SKP_int32 a32, SKP_int32 b32){\r
295         SKP_assert( b32 != 0 );\r
296         SKP_assert( b32 <= SKP_int16_MAX );\r
297         SKP_assert( b32 >= SKP_int16_MIN );\r
298         return a32 / b32;\r
299 }\r
300 \r
301 // no checking needed for SKP_SAT8\r
302 // no checking needed for SKP_SAT16\r
303 // no checking needed for SKP_SAT32\r
304 // no checking needed for SKP_POS_SAT32\r
305 // no checking needed for SKP_ADD_POS_SAT8\r
306 // no checking needed for SKP_ADD_POS_SAT16\r
307 // no checking needed for SKP_ADD_POS_SAT32\r
308 // no checking needed for SKP_ADD_POS_SAT64\r
309 #undef  SKP_LSHIFT8\r
310 SKP_INLINE SKP_int8 SKP_LSHIFT8(SKP_int8 a, SKP_int32 shift){\r
311         SKP_int8 ret;\r
312         ret = a << shift;\r
313         SKP_assert(shift >= 0);\r
314         SKP_assert(shift < 8);\r
315         SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
316         return ret;\r
317 }\r
318 #undef  SKP_LSHIFT16\r
319 SKP_INLINE SKP_int16 SKP_LSHIFT16(SKP_int16 a, SKP_int32 shift){\r
320         SKP_int16 ret;\r
321         ret = a << shift;\r
322         SKP_assert(shift >= 0);\r
323         SKP_assert(shift < 16);\r
324         SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
325         return ret;\r
326 }\r
327 #undef  SKP_LSHIFT32\r
328 SKP_INLINE SKP_int32 SKP_LSHIFT32(SKP_int32 a, SKP_int32 shift){\r
329         SKP_int32 ret;\r
330         ret = a << shift;\r
331         SKP_assert(shift >= 0);\r
332         SKP_assert(shift < 32);\r
333         SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
334         return ret;\r
335 }\r
336 #undef  SKP_LSHIFT64\r
337 SKP_INLINE SKP_int64 SKP_LSHIFT64(SKP_int64 a, SKP_int shift){\r
338         SKP_assert(shift >= 0);\r
339         SKP_assert(shift < 64);\r
340         return a << shift;\r
341 }\r
342 \r
343 #undef  SKP_LSHIFT_ovflw\r
344 SKP_INLINE SKP_int32 SKP_LSHIFT_ovflw(SKP_int32 a, SKP_int32 shift){\r
345         SKP_assert(shift >= 0);                 /* no check for overflow */\r
346         return a << shift;\r
347 }\r
348 \r
349 #undef  SKP_LSHIFT_uint\r
350 SKP_INLINE SKP_uint32 SKP_LSHIFT_uint(SKP_uint32 a, SKP_int32 shift){\r
351         SKP_uint32 ret;\r
352         ret = a << shift;\r
353         SKP_assert(shift >= 0);\r
354         SKP_assert((SKP_int64)ret == ((SKP_int64)a) << shift);\r
355         return ret;\r
356 }\r
357 \r
358 #undef  SKP_RSHIFT8\r
359 SKP_INLINE SKP_int8 SKP_RSHIFT8(SKP_int8 a, SKP_int32 shift){\r
360         SKP_assert(shift >=  0);\r
361         SKP_assert(shift < 8);\r
362         return a >> shift;\r
363 }\r
364 #undef  SKP_RSHIFT16\r
365 SKP_INLINE SKP_int16 SKP_RSHIFT16(SKP_int16 a, SKP_int32 shift){\r
366         SKP_assert(shift >=  0);\r
367         SKP_assert(shift < 16);\r
368         return a >> shift;\r
369 }\r
370 #undef  SKP_RSHIFT32\r
371 SKP_INLINE SKP_int32 SKP_RSHIFT32(SKP_int32 a, SKP_int32 shift){\r
372         SKP_assert(shift >=  0);\r
373         SKP_assert(shift < 32);\r
374         return a >> shift;\r
375 }\r
376 #undef  SKP_RSHIFT64\r
377 SKP_INLINE SKP_int64 SKP_RSHIFT64(SKP_int64 a, SKP_int64 shift){\r
378         SKP_assert(shift >=  0);\r
379         SKP_assert(shift <= 63);\r
380         return a >> shift;\r
381 }\r
382 \r
383 #undef  SKP_RSHIFT_uint\r
384 SKP_INLINE SKP_uint32 SKP_RSHIFT_uint(SKP_uint32 a, SKP_int32 shift){\r
385         SKP_assert(shift >=  0);\r
386         SKP_assert(shift <= 32);\r
387         return a >> shift;\r
388 }\r
389 \r
390 #undef  SKP_ADD_LSHIFT\r
391 SKP_INLINE SKP_int32 SKP_ADD_LSHIFT(SKP_int32 a, SKP_int32 b, SKP_int32 shift){\r
392         SKP_int32 ret;\r
393         SKP_assert(shift >= 0);\r
394         SKP_assert(shift <= 31);\r
395         ret = a + (b << shift);\r
396         SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) << shift));\r
397         return ret;                             // shift >= 0\r
398 }\r
399 #undef  SKP_ADD_LSHIFT32\r
400 SKP_INLINE SKP_int32 SKP_ADD_LSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){\r
401         SKP_int32 ret;\r
402         SKP_assert(shift >= 0);\r
403         SKP_assert(shift <= 31);\r
404         ret = a + (b << shift);\r
405         SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) << shift));\r
406         return ret;                             // shift >= 0\r
407 }\r
408 #undef  SKP_ADD_LSHIFT_uint\r
409 SKP_INLINE SKP_uint32 SKP_ADD_LSHIFT_uint(SKP_uint32 a, SKP_uint32 b, SKP_int32 shift){\r
410         SKP_uint32 ret;\r
411         SKP_assert(shift >= 0);\r
412         SKP_assert(shift <= 32);\r
413         ret = a + (b << shift);\r
414         SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) << shift));\r
415         return ret;                             // shift >= 0\r
416 }\r
417 #undef  SKP_ADD_RSHIFT\r
418 SKP_INLINE SKP_int32 SKP_ADD_RSHIFT(SKP_int32 a, SKP_int32 b, SKP_int32 shift){         \r
419         SKP_int32 ret;\r
420         SKP_assert(shift >= 0);\r
421         SKP_assert(shift <= 31);\r
422         ret = a + (b >> shift);\r
423         SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) >> shift));\r
424         return ret;                             // shift  > 0\r
425 }\r
426 #undef  SKP_ADD_RSHIFT32\r
427 SKP_INLINE SKP_int32 SKP_ADD_RSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){               \r
428         SKP_int32 ret;\r
429         SKP_assert(shift >= 0);\r
430         SKP_assert(shift <= 31);\r
431         ret = a + (b >> shift);\r
432         SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) >> shift));\r
433         return ret;                             // shift  > 0\r
434 }\r
435 #undef  SKP_ADD_RSHIFT_uint\r
436 SKP_INLINE SKP_uint32 SKP_ADD_RSHIFT_uint(SKP_uint32 a, SKP_uint32 b, SKP_int32 shift){         \r
437         SKP_uint32 ret;\r
438         SKP_assert(shift >= 0);\r
439         SKP_assert(shift <= 32);\r
440         ret = a + (b >> shift);\r
441         SKP_assert((SKP_int64)ret == (SKP_int64)a + (((SKP_int64)b) >> shift));\r
442         return ret;                             // shift  > 0\r
443 }\r
444 #undef  SKP_SUB_LSHIFT32\r
445 SKP_INLINE SKP_int32 SKP_SUB_LSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){\r
446         SKP_int32 ret;\r
447         SKP_assert(shift >= 0);\r
448         SKP_assert(shift <= 31);\r
449         ret = a - (b << shift);\r
450         SKP_assert((SKP_int64)ret == (SKP_int64)a - (((SKP_int64)b) << shift));\r
451         return ret;                             // shift >= 0\r
452 }\r
453 #undef  SKP_SUB_RSHIFT32\r
454 SKP_INLINE SKP_int32 SKP_SUB_RSHIFT32(SKP_int32 a, SKP_int32 b, SKP_int32 shift){               \r
455         SKP_int32 ret;\r
456         SKP_assert(shift >= 0);\r
457         SKP_assert(shift <= 31);\r
458         ret = a - (b >> shift);\r
459         SKP_assert((SKP_int64)ret == (SKP_int64)a - (((SKP_int64)b) >> shift));\r
460         return ret;                             // shift  > 0\r
461 }\r
462 \r
463 #undef  SKP_RSHIFT_ROUND\r
464 SKP_INLINE SKP_int32 SKP_RSHIFT_ROUND(SKP_int32 a, SKP_int32 shift){\r
465         SKP_int32 ret;\r
466         SKP_assert(shift > 0);          /* the marco definition can't handle a shift of zero */\r
467         SKP_assert(shift < 32);\r
468         ret = shift == 1 ? (a >> 1) + (a & 1) : ((a >> (shift - 1)) + 1) >> 1;\r
469         SKP_assert((SKP_int64)ret == ((SKP_int64)a + ((SKP_int64)1 << (shift - 1))) >> shift);\r
470         return ret;\r
471 }\r
472 \r
473 #undef  SKP_RSHIFT_ROUND64\r
474 SKP_INLINE SKP_int64 SKP_RSHIFT_ROUND64(SKP_int64 a, SKP_int32 shift){\r
475         SKP_int64 ret;\r
476         SKP_assert(shift > 0);          /* the marco definition can't handle a shift of zero */\r
477         SKP_assert(shift < 64);\r
478         ret = shift == 1 ? (a >> 1) + (a & 1) : ((a >> (shift - 1)) + 1) >> 1;\r
479         return ret;\r
480 }\r
481 \r
482 // SKP_abs is used on floats also, so doesn't work...\r
483 //#undef        SKP_abs\r
484 //SKP_INLINE SKP_int32 SKP_abs(SKP_int32 a){\r
485 //      SKP_assert(a != 0x80000000);\r
486 //      return (((a) >  0)  ? (a) : -(a));                      // Be careful, SKP_abs returns wrong when input equals to SKP_intXX_MIN\r
487 //}\r
488 \r
489 #undef  SKP_abs_int64\r
490 SKP_INLINE SKP_int64 SKP_abs_int64(SKP_int64 a){\r
491         SKP_assert(a != 0x8000000000000000);\r
492         return (((a) >  0)  ? (a) : -(a));                      // Be careful, SKP_abs returns wrong when input equals to SKP_intXX_MIN\r
493 }\r
494 \r
495 #undef  SKP_abs_int32\r
496 SKP_INLINE SKP_int32 SKP_abs_int32(SKP_int32 a){\r
497         SKP_assert(a != 0x80000000);\r
498         return abs(a);\r
499 }\r
500 \r
501 #undef  SKP_CHECK_FIT8\r
502 SKP_INLINE SKP_int8 SKP_CHECK_FIT8( SKP_int64 a ){\r
503         SKP_int8 ret;\r
504         ret = (SKP_int8)a;\r
505         SKP_assert( (SKP_int64)ret == a );\r
506         return( ret ); \r
507 }\r
508 \r
509 #undef  SKP_CHECK_FIT16\r
510 SKP_INLINE SKP_int16 SKP_CHECK_FIT16( SKP_int64 a ){\r
511         SKP_int16 ret;\r
512         ret = (SKP_int16)a;\r
513         SKP_assert( (SKP_int64)ret == a );\r
514         return( ret ); \r
515 }\r
516 \r
517 #undef  SKP_CHECK_FIT32\r
518 SKP_INLINE SKP_int32 SKP_CHECK_FIT32( SKP_int64 a ){\r
519         SKP_int32 ret;\r
520         ret = (SKP_int32)a;\r
521         SKP_assert( (SKP_int64)ret == a );\r
522         return( ret ); \r
523 }\r
524 \r
525 // no checking for SKP_NSHIFT_MUL_32_32\r
526 // no checking for SKP_NSHIFT_MUL_16_16 \r
527 // no checking needed for SKP_min\r
528 // no checking needed for SKP_max\r
529 // no checking needed for SKP_sign\r
530 \r
531 #endif\r
532 #endif\r