4b6c03a1a82e85f1f49a8dbc749e6135d90e8604
[opus.git] / doc / draft-ietf-codec-opus.xml
1 <?xml version='1.0'?>
2 <!DOCTYPE rfc SYSTEM 'rfc2629.dtd'>
3 <?rfc toc="yes" symrefs="yes" ?>
4
5 <rfc ipr="trust200902" category="std" docName="draft-ietf-codec-opus-03">
6
7 <front>
8 <title abbrev="Interactive Audio Codec">Definition of the Opus Audio Codec</title>
9
10
11 <author initials="JM" surname="Valin" fullname="Jean-Marc Valin">
12 <organization>Octasic Inc.</organization>
13 <address>
14 <postal>
15 <street>4101, Molson Street</street>
16 <city>Montreal</city>
17 <region>Quebec</region>
18 <code></code>
19 <country>Canada</country>
20 </postal>
21 <phone>+1 514 282-8858</phone>
22 <email>jean-marc.valin@octasic.com</email>
23 </address>
24 </author>
25
26 <author initials="K." surname="Vos" fullname="Koen Vos">
27 <organization>Skype Technologies S.A.</organization>
28 <address>
29 <postal>
30 <street>Stadsgarden 6</street>
31 <city>Stockholm</city>
32 <region></region>
33 <code>11645</code>
34 <country>SE</country>
35 </postal>
36 <phone>+46 855 921 989</phone>
37 <email>koen.vos@skype.net</email>
38 </address>
39 </author>
40
41
42 <date day="15" month="February" year="2011" />
43
44 <area>General</area>
45
46 <workgroup></workgroup>
47
48 <abstract>
49 <t>
50 This document describes the Opus codec, designed for interactive speech and audio 
51 transmission over the Internet.
52 </t>
53 </abstract>
54 </front>
55
56 <middle>
57
58 <section anchor="introduction" title="Introduction">
59 <t>
60 We propose the Opus codec based on a linear prediction layer (LP) and an
61 MDCT-based enhancement layer. The main idea behind the proposal is that
62 the speech low frequencies are usually more efficiently coded using
63 linear prediction codecs (such as CELP variants), while the higher frequencies
64 are more efficiently coded in the transform domain (e.g. MDCT). For low 
65 sampling rates, the MDCT layer is not useful and only the LP-based layer is
66 used. On the other hand, non-speech signals are not always adequately coded
67 using linear prediction, so for music only the MDCT-based layer is used.
68 </t>
69
70 <t>
71 In this proposed prototype, the LP layer is based on the 
72 <eref target='http://developer.skype.com/silk'>SILK</eref> codec 
73 <xref target="SILK"></xref> and the MDCT layer is based on the 
74 <eref target='http://www.celt-codec.org/'>CELT</eref>  codec
75  <xref target="CELT"></xref>.
76 </t>
77
78 <t>This is a work in progress.</t>
79 </section>
80
81 <section anchor="hybrid" title="Opus Codec">
82
83 <t>
84 In hybrid mode, each frame is coded first by the LP layer and then by the MDCT 
85 layer. In the current prototype, the cutoff frequency is 8 kHz. In the MDCT
86 layer, all bands below 8 kHz are discarded, such that there is no coding
87 redundancy between the two layers. Also both layers use the same instance of 
88 the range coder to encode the signal, which ensures that no "padding bits" are
89 wasted. The hybrid approach makes it easy to support both constant bit-rate
90 (CBR) and varaible bit-rate (VBR) coding. Although the SILK layer used is VBR,
91 it is easy to make the bit allocation of the CELT layer produce a final stream
92 that is CBR by using all the bits left unused by the SILK layer.
93 </t>
94
95 <t>
96 In addition to their frame size, the SILK and CELT codecs require
97 a look-ahead of 5.2 ms and 2.5 ms, respectively. SILK's look-ahead is due to
98 noise shaping estimation (5 ms) and the internal resampling (0.2 ms), while
99 CELT's look-ahead is due to the overlapping MDCT windows. To compensate for the
100 difference, the CELT encoder input is delayed by 2.7 ms. This ensures that low
101 frequencies and high frequencies arrive at the same time.
102 </t>
103
104
105 <section title="Source Code">
106 <t>
107 The source code is currently available in a
108 <eref target='git://git.xiph.org/users/jm/ietfcodec.git'>Git repository</eref> 
109 which references two other
110 repositories (for SILK and CELT). Development snapshots are provided at 
111 <eref target='http://opus-codec.org/'/>.
112
113 </t>
114 </section>
115
116 </section>
117
118 <section anchor="modes" title="Codec Modes">
119 <t>
120 There are three possible operating modes for the proposed prototype:
121 <list style="numbers">
122 <t>A linear prediction (LP) mode for use in low bit-rate connections with up to 8 kHz audio bandwidth (16 kHz sampling rate)</t>
123 <t>A hybrid (LP+MDCT) mode for full-bandwidth speech at medium bitrates</t>
124 <t>An MDCT-only mode for very low delay speech transmission as well as music transmission.</t>
125 </list>
126 Each of these modes supports a number of difference frame sizes and sampling
127 rates. In order to distinguish between the various modes and configurations,
128 we define a single-byte table-of-contents (TOC) header that can used in the transport layer 
129 (e.g RTP) to signal this information. The following describes the proposed
130 TOC byte.
131 </t>
132
133 <t>
134 The LP mode supports the following configurations (numbered from 0 to 11):
135 <list style="symbols">
136 <t>8 kHz:  10, 20, 40, 60 ms (0..3)</t>
137 <t>12 kHz: 10, 20, 40, 60 ms (4..7)</t>
138 <t>16 kHz: 10, 20, 40, 60 ms (8..11)</t>
139 </list>
140 for a total of 12 configurations.
141 </t>
142
143 <t>
144 The hybrid mode supports the following configurations (numbered from 12 to 15):
145 <list style="symbols">
146 <t>32 kHz: 10, 20 ms (12..13)</t>
147 <t>48 kHz: 10, 20 ms (14..15)</t>
148 </list>
149 for a total of 4 configurations.
150 </t>
151
152 <t>
153 The MDCT-only mode supports the following configurations (numbered from 16 to 31):
154 <list style="symbols">
155 <t>8 kHz:  2.5, 5, 10, 20 ms (16..19)</t>
156 <t>16 kHz: 2.5, 5, 10, 20 ms (20..23)</t>
157 <t>32 kHz: 2.5, 5, 10, 20 ms (24..27)</t>
158 <t>48 kHz: 2.5, 5, 10, 20 ms (28..31)</t>
159 </list>
160 for a total of 16 configurations.
161 </t>
162
163 <t>
164 There is thus a total of 32 configurations, encoded in 5 bits. On bit is used to signal mono vs stereo, which leaves 2 bits for the number of frames per packets (codes 0 to 3):
165 <list style="symbols">
166 <t>0:    1 frames in the packet</t>
167 <t>1:    2 frames in the packet, each with equal compressed size</t>
168 <t>2:    2 frames in the packet, with different compressed size</t>
169 <t>3:    arbitrary number of frames in the packet</t>
170 </list>
171 For code 2, the TOC byte is followed by the length of the first frame, encoded as described below.
172 For code 3, the TOC byte is followed by a byte encoding the number of frames in the packet, with the MSB indicating VBR. In the VBR case, the byte indicating the number of frames is followed by N-1 frame 
173 lengths encoded as described below. As an additional limit, the audio duration contained
174 within a packet may not exceed 120 ms.
175 </t>
176
177 <t>
178 The compressed size of the frames (if needed) is indicated -- usually -- with one byte, with the following meaning:
179 <list style="symbols">
180 <t>0:          No frame (DTX or lost packet)</t>
181 <t>1-251:      Size of the frame in bytes</t>
182 <t>252-255:    A second byte is needed. The total size is (size[1]*4)+size[0]</t>
183 </list>
184 </t>
185
186 <t>
187 The maximum size representable is 255*4+255=1275 bytes. For 20 ms frames, that 
188 represents a bit-rate of 510 kb/s, which is really the highest rate anyone would want 
189 to use in stereo mode (beyond that point, lossless codecs would be more appropriate).
190 </t>
191
192 <section anchor="examples" title="Examples">
193 <t>
194 Simplest case: one narrowband mono 20-ms SILK frame
195 </t>
196
197 <t>
198 <figure>
199 <artwork><![CDATA[
200  0                   1                   2                   3
201  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
202 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
203 |    1    |0|0|0|               compressed data...              |
204 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
205 ]]></artwork>
206 </figure>
207 </t>
208
209 <t>
210 Two 48 kHz mono 5 ms CELT frames of the same compressed size:
211 </t>
212
213 <t>
214 <figure>
215 <artwork><![CDATA[
216  0                   1                   2                   3
217  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
218 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
219 |    29   |0|0|1|               compressed data...              |
220 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
221 ]]></artwork>
222 </figure>
223 </t>
224
225 <t>
226 Two 48 kHz mono 20-ms hybrid frames of different compressed size:
227 </t>
228
229 <t>
230 <figure>
231 <artwork><![CDATA[
232  0                   1                   2                   3
233  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
234 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
235 |    15   |0|1|1|       2       |   frame size  |compressed data|
236 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
237 |                       compressed data...                      |
238 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
239 ]]></artwork>
240 </figure>
241 </t>
242
243 <t>
244 Four 48 kHz stereo 20-ms CELT frame of the same compressed size:
245
246 </t>
247
248 <t>
249 <figure>
250 <artwork><![CDATA[
251  0                   1                   2                   3
252  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
253 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
254 |    31   |1|1|0|       4       |      compressed data...       |
255 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
256 ]]></artwork>
257 </figure>
258 </t>
259 </section>
260
261
262 </section>
263
264 <section title="Opus Decoder">
265 <t>
266 The Opus decoder consists of two main blocks: the SILK decoder and the CELT decoder. 
267 The output of the Opus decode is the sum of the outputs from the SILK and CELT decoders
268 with proper sample rate conversion and delay compensation as illustrated in the
269 block diagram below. At any given time, one or both of the SILK and CELT decoders
270 may be active. 
271 <figure>
272 <artwork>
273 <![CDATA[
274                        +-------+    +----------+
275                        | SILK  |    |  sample  |
276                     +->|encoder|--->|   rate   |----+
277 bit-    +-------+   |  |       |    |conversion|    v
278 stream  | Range |---+  +-------+    +----------+  /---\  audio
279 ------->|decoder|                                 | + |------>
280         |       |---+  +-------+    +----------+  \---/
281         +-------+   |  | CELT  |    | Delay    |    ^
282                     +->|decoder|----| compens- |----+
283                        |       |    | ation    |
284                        +-------+    +----------+
285 ]]>
286 </artwork>
287 </figure>
288 </t>
289
290 <section anchor="range-decoder" title="Range Decoder">
291 <t>
292 The range decoder extracts the symbols and integers encoded using the range encoder in
293 <xref target="range-encoder"></xref>. The range decoder maintains an internal
294 state vector composed of the two-tuple (dif,rng), representing the
295 difference between the high end of the current range and the actual
296 coded value, and the size of the current range, respectively. Both
297 dif and rng are 32-bit unsigned integer values. rng is initialized to
298 2^7. dif is initialized to rng minus the top 7 bits of the first
299 input octet. Then the range is immediately normalized, using the
300 procedure described in the following section.
301 </t>
302
303 <section anchor="decoding-symbols" title="Decoding Symbols">
304 <t>
305    Decoding symbols is a two-step process. The first step determines
306    a value fs that lies within the range of some symbol in the current
307    context. The second step updates the range decoder state with the
308    three-tuple (fl,fh,ft) corresponding to that symbol, as defined in
309    <xref target="encoding-symbols"></xref>.
310 </t>
311 <t>
312    The first step is implemented by ec_decode() 
313    (rangedec.c), 
314    and computes fs = ft-min((dif-1)/(rng/ft)+1,ft), where ft is
315    the sum of the frequency counts in the current context, as described
316    in <xref target="encoding-symbols"></xref>. The divisions here are exact integer division. 
317 </t>
318 <t>
319    In the reference implementation, a special version of ec_decode()
320    called ec_decode_bin() (rangeenc.c) is defined using
321    the parameter ftb instead of ft. It is mathematically equivalent to
322    calling ec_decode() with ft = (1&lt;&lt;ftb), but avoids one of the
323    divisions.
324 </t>
325 <t>
326    The decoder then identifies the symbol in the current context
327    corresponding to fs; i.e., the one whose three-tuple (fl,fh,ft)
328    satisfies fl &lt;= fs &lt; fh. This tuple is used to update the decoder
329    state according to dif = dif - (rng/ft)*(ft-fh), and if fl is greater
330    than zero, rng = (rng/ft)*(fh-fl), or otherwise rng = rng - (rng/ft)*(ft-fh). After this update, the range is normalized.
331 </t>
332 <t>
333    To normalize the range, the following process is repeated until
334    rng > 2^23. First, rng is set to (rng&lt;8)&amp;0xFFFFFFFF. Then the next
335    8 bits of input are read into sym, using the remaining bit from the
336    previous input octet as the high bit of sym, and the top 7 bits of the
337    next octet for the remaining bits of sym. If no more input octets
338    remain, zero bits are used instead. Then, dif is set to
339    (dif&lt;&lt;8)-sym&amp;0xFFFFFFFF (i.e., using wrap-around if the subtraction
340    overflows a 32-bit register). Finally, if dif is larger than 2^31,
341    dif is then set to dif - 2^31. This process is carried out by
342    ec_dec_normalize() (rangedec.c).
343 </t>
344 </section>
345
346 <section anchor="decoding-ints" title="Decoding Uniformly Distributed Integers">
347 <t>
348    Functions ec_dec_uint() or ec_dec_bits() are based on ec_decode() and
349    decode one of N equiprobable symbols, each with a frequency of 1,
350    where N may be as large as 2^32-1. Because ec_decode() is limited to
351    a total frequency of 2^16-1, this is done by decoding a series of
352    symbols in smaller contexts.
353 </t>
354 <t>
355    ec_dec_bits() (entdec.c) is defined, like
356    ec_decode_bin(), to take a single parameter ftb, with ftb &lt; 32.
357    and ftb &lt; 32, and produces an ftb-bit decoded integer value, t,
358    initialized to zero. While ftb is greater than 8, it decodes the next
359    8 most significant bits of the integer, s = ec_decode_bin(8), updates
360    the decoder state with the 3-tuple (s,s+1,256), adds those bits to
361    the current value of t, t = t&lt;&lt;8 | s, and subtracts 8 from ftb. Then
362    it decodes the remaining bits of the integer, s = ec_decode_bin(ftb),
363    updates the decoder state with the 3 tuple (s,s+1,1&lt;&lt;ftb), and adds
364    those bits to the final values of t, t = t&lt;&lt;ftb | s.
365 </t>
366 <t>
367    ec_dec_uint() (entdec.c) takes a single parameter,
368    ft, which is not necessarily a power of two, and returns an integer,
369    t, with a value between 0 and ft-1, inclusive, which is initialized to zero. Let
370    ftb be the location of the highest 1 bit in the two's-complement
371    representation of (ft-1), or -1 if no bits are set. If ftb>8, then
372    the top 8 bits of t are decoded using t = ec_decode((ft-1>>ftb-8)+1),
373    the decoder state is updated with the three-tuple
374    (s,s+1,(ft-1>>ftb-8)+1), and the remaining bits are decoded with
375    t = t&lt;&lt;ftb-8|ec_dec_bits(ftb-8). If, at this point, t >= ft, then
376    the current frame is corrupt, and decoding should stop. If the
377    original value of ftb was not greater than 8, then t is decoded with
378    t = ec_decode(ft), and the decoder state is updated with the
379    three-tuple (t,t+1,ft).
380 </t>
381 </section>
382
383 <section anchor="decoder-tell" title="Current Bit Usage">
384 <t>
385    The bit allocation routines in CELT need to be able to determine a
386    conservative upper bound on the number of bits that have been used
387    to decode from the current frame thus far. This drives allocation
388    decisions which must match those made in the encoder. This is
389    computed in the reference implementation to fractional bit precision
390    by the function ec_dec_tell() (rangedec.c). Like all
391    operations in the range decoder, it must be implemented in a
392    bit-exact manner, and must produce exactly the same value returned by
393    ec_enc_tell() after encoding the same symbols.
394 </t>
395 </section>
396
397 </section>
398
399       <section anchor='outline_decoder' title='SILK Decoder'>
400         <t>
401           At the receiving end, the received packets are by the range decoder split into a number of frames contained in the packet. Each of which contains the necessary information to reconstruct a 20 ms frame of the output signal.
402         </t>
403         <section title="Decoder Modules">
404           <t>
405             An overview of the decoder is given in <xref target="decoder_figure" />.
406             <figure align="center" anchor="decoder_figure">
407               <artwork align="center">
408                 <![CDATA[
409    
410    +---------+    +------------+    
411 -->| Range   |--->| Decode     |---------------------------+
412  1 | Decoder | 2  | Parameters |----------+       5        |
413    +---------+    +------------+     4    |                |
414                        3 |                |                |
415                         \/               \/               \/
416                   +------------+   +------------+   +------------+
417                   | Generate   |-->| LTP        |-->| LPC        |-->
418                   | Excitation |   | Synthesis  |   | Synthesis  | 6
419                   +------------+   +------------+   +------------+
420
421 1: Range encoded bitstream
422 2: Coded parameters
423 3: Pulses and gains
424 4: Pitch lags and LTP coefficients
425 5: LPC coefficients
426 6: Decoded signal
427 ]]>
428               </artwork>
429               <postamble>Decoder block diagram.</postamble>
430             </figure>
431           </t>
432
433           <section title='Range Decoder'>
434             <t>
435               The range decoder decodes the encoded parameters from the received bitstream. Output from this function includes the pulses and gains for the excitation signal generation, as well as LTP and LSF codebook indices, which are needed for decoding LTP and LPC coefficients needed for LTP and LPC synthesis filtering the excitation signal, respectively.
436             </t>
437           </section>
438
439           <section title='Decode Parameters'>
440             <t>
441               Pulses and gains are decoded from the parameters that was decoded by the range decoder.
442             </t>
443
444             <t>
445               When a voiced frame is decoded and LTP codebook selection and indices are received, LTP coefficients are decoded using the selected codebook by choosing the vector that corresponds to the given codebook index in that codebook. This is done for each of the four subframes.
446               The LPC coefficients are decoded from the LSF codebook by first adding the chosen vectors, one vector from each stage of the codebook. The resulting LSF vector is stabilized using the same method that was used in the encoder, see
447               <xref target='lsf_stabilizer_overview_section' />. The LSF coefficients are then converted to LPC coefficients, and passed on to the LPC synthesis filter.
448             </t>
449           </section>
450
451           <section title='Generate Excitation'>
452             <t>
453               The pulses signal is multiplied with the quantization gain to create the excitation signal.
454             </t>
455           </section>
456
457           <section title='LTP Synthesis'>
458             <t>
459               For voiced speech, the excitation signal e(n) is input to an LTP synthesis filter that will recreate the long term correlation that was removed in the LTP analysis filter and generate an LPC excitation signal e_LPC(n), according to
460               <figure align="center">
461                 <artwork align="center">
462                   <![CDATA[
463                    d
464                   __
465 e_LPC(n) = e(n) + \  e(n - L - i) * b_i,
466                   /_
467                  i=-d
468 ]]>
469                 </artwork>
470               </figure>
471               using the pitch lag L, and the decoded LTP coefficients b_i.
472
473               For unvoiced speech, the output signal is simply a copy of the excitation signal, i.e., e_LPC(n) = e(n).
474             </t>
475           </section>
476
477           <section title='LPC Synthesis'>
478             <t>
479               In a similar manner, the short-term correlation that was removed in the LPC analysis filter is recreated in the LPC synthesis filter. The LPC excitation signal e_LPC(n) is filtered using the LTP coefficients a_i, according to
480               <figure align="center">
481                 <artwork align="center">
482                   <![CDATA[
483                  d_LPC
484                   __
485 y(n) = e_LPC(n) + \  e_LPC(n - i) * a_i,
486                   /_
487                   i=1
488 ]]>
489                 </artwork>
490               </figure>
491               where d_LPC is the LPC synthesis filter order, and y(n) is the decoded output signal.
492             </t>
493           </section>
494         </section>
495       </section>
496
497
498 <section title="CELT Decoder">
499
500 <t>
501 Insert decoder figure.
502
503 </t>
504
505 <texttable anchor='table_example'>
506 <ttcol align='center'>Symbol(s)</ttcol>
507 <ttcol align='center'>PDF</ttcol>
508 <ttcol align='center'>Condition</ttcol>
509 <c>silence</c>      <c>logp=15</c> <c></c>
510 <c>post-filter</c>  <c>logp=1</c> <c></c>
511 <c>octave</c>       <c>uniform (6)</c><c>post-filter</c>
512 <c>period</c>       <c>raw bits (4+octave)</c><c>post-filter</c>
513 <c>gain</c>         <c>raw bits (3)</c><c>post-filter</c>
514 <c>tapset</c>       <c>[2, 1, 1]/4</c><c>post-filter</c>
515 <c>transient</c>    <c>logp=3</c><c></c>
516 <c>coarse energy</c><c><xref target="energy-decoding"/></c><c></c>
517 <c>tf_change</c>    <c><xref target="transient-decoding"/></c><c></c>
518 <c>tf_select</c>    <c>logp=1</c><c><xref target="transient-decoding"/></c>
519 <c>spread</c>       <c>[7, 2, 21, 2]/32</c><c></c>
520 <c>dyn. alloc.</c>  <c><xref target="allocation"/></c><c></c>
521 <c>alloc. trim</c>  <c>[2, 2, 5, 10, 22, 46, 22, 10, 5, 2, 2]/128</c><c></c>
522 <c>skip (*)</c>     <c>logp=1</c><c><xref target="allocation"/></c>
523 <c>intensity (*)</c><c>uniform</c><c><xref target="allocation"/></c>
524 <c>dual (*)</c>     <c>logp=1</c><c></c>
525 <c>fine energy</c>  <c><xref target="energy-decoding"/></c><c></c>
526 <c>residual</c>     <c><xref target="PVQ-decoder"/></c><c></c>
527 <c>anti-collapse</c><c>logp=1</c><c>stereo && transient</c>
528 <c>finalize</c>     <c><xref target="energy-decoding"/></c><c></c>
529 <postamble>Order of the symbols in the CELT section of the bit-stream</postamble>
530 </texttable>
531
532 <t>
533 The decoder extracts information from the range-coded bit-stream in the order
534 described in the figure above. In some circumstances, it is 
535 possible for a decoded value to be out of range due to a very small amount of redundancy
536 in the encoding of large integers by the range coder.
537 In that case, the decoder should assume there has been an error in the coding, 
538 decoding, or transmission and SHOULD take measures to conceal the error and/or report
539 to the application that a problem has occurred.
540 </t>
541
542 <section anchor="transient-decoding" title="Transient Decoding">
543 <t>
544 The <spanx style="emph">transient</spanx> flag encoded in the bit-stream has a
545 probability of 1/8. When it is set, then the MDCT coefficients represent multiple 
546 short MDCTs in the frame. When not set, the coefficients represent a single
547 long MDCT for the frame. In addition to the global transient flag is a per-band
548 binary flag to change the time-frequency (tf) resolution independently in each band. The 
549 change in tf resolution is defined in tf_select_table[][] in celt.c and depends
550 on the frame size, whether the transient flag is set, and the value of tf_select.
551 The tf_select flag uses a 1/2 probability, but is only decoded 
552 if it can have an impact on the result knowing the value of all per-band
553 tf_change flags. 
554 </t>
555 </section>
556
557 <section anchor="energy-decoding" title="Energy Envelope Decoding">
558 <t>
559 The energy of each band is extracted from the bit-stream in two steps according
560 to the same coarse-fine strategy used in the encoder. First, the coarse energy is
561 decoded in unquant_coarse_energy() (quant_bands.c)
562 based on the probability of the Laplace model used by the encoder.
563 </t>
564
565 <t>
566 After the coarse energy is decoded, the same allocation function as used in the
567 encoder is called. This determines the number of
568 bits to decode for the fine energy quantization. The decoding of the fine energy bits
569 is performed by unquant_fine_energy() (quant_bands.c).
570 Finally, like the encoder, the remaining bits in the stream (that would otherwise go unused)
571 are decoded using unquant_energy_finalise() (quant_bands.c).
572 </t>
573 </section>
574
575 <section anchor="allocation" title="Bit allocation">
576 <t>Bit allocation is performed based only on information available to both
577 the encoder and decoder. The same calculations are performed in a bit-exact
578 manner in both the encoder and decoder to ensure that the result is always
579 exactly the same. Any mismatch causes corruption of the decoded output.
580 The allocation is computed by compute_allocation() (rate.c),
581 which is used in both the encoder and the decoder.</t>
582
583 <t>For a given band, the bit allocation is nearly constant across
584 frames that use the same number of bits for Q1, yielding a 
585 pre-defined signal-to-mask ratio (SMR) for each band. Because the
586 bands each have a width of one Bark, this is equivalent to modeling the
587 masking occurring within each critical band, while ignoring inter-band
588 masking and tone-vs-noise characteristics. While this is not an
589 optimal bit allocation, it provides good results without requiring the
590 transmission of any allocation information. Additionally, the encoder
591 is able to signal alterations to the implicit allocation via
592 two means: There is an entropy coded tilt parameter can be used to tilt the
593 allocation to favor low or high frequencies, and there is a boost parameter
594 which can be used to shift large amounts of additional precision into
595 individual bands.
596 </t>
597
598
599 <t>
600 For every encoded or decoded frame, a target allocation must be computed
601 using the projected allocation. In the reference implementation this is
602 performed by compute_allocation() (rate.c).
603 The target computation begins by calculating the available space as the
604 number of eighth-bits which can be fit in the frame after Q1 is stored according
605 to the range coder (ec_tell_frac()) and reserving one eighth-bit.
606 Then the two projected prototype allocations whose sums multiplied by 8 are nearest
607 to that value are determined. These two projected prototype allocations are then interpolated
608 by finding the highest integer interpolation coefficient in the range 0-63
609 such that the sum of the higher prototype times the coefficient divided by
610 64 plus the sum of the lower prototype multiplied is less than or equal to the
611 available eighth-bits. During the interpolation a maximum allocation
612 in each band is imposed along with a threshold hard minimum allocation for
613 each band.
614 Starting from the last coded band a binary decision is coded for each
615 band over the minimum threshold to determine if that band should instead
616 recieve only the minimum allocation. This process stops at the first
617 non-minimum band, the first band to recieve an explicitly coded boost,
618 or the first band in the frame, whichever comes first.
619 The reference implementation performs this step in interp_bits2pulses()
620 using a binary search for the interpolation. (rate.c).
621 </t>
622
623 <t>
624 Because the computed target will sometimes be somewhat smaller than the
625 available space, the excess space is divided by the number of bands, and this amount
626 is added equally to each band which was not forced to the minimum value.
627 </t>
628
629 <t>
630 The allocation target is separated into a portion used for fine energy
631 and a portion used for the Spherical Vector Quantizer (PVQ). The fine energy
632 quantizer operates in whole-bit steps and is allocated based on an offset
633 fraction of the total usable space. Excess bits above the maximums are
634 left unallocated and placed into the rolling balance maintained during
635 the quantization process.
636 </t>
637
638 </section>
639
640 <section anchor="PVQ-decoder" title="Spherical VQ Decoder">
641 <t>
642 In order to correctly decode the PVQ codewords, the decoder must perform exactly the same
643 bits to pulses conversion as the encoder.
644 </t>
645
646 <section anchor="bits-pulses" title="Bits to Pulses">
647 <t>
648 Although the allocation is performed in 1/8th bit units, the quantization requires
649 an integer number of pulses K. To do this, the encoder searches for the value
650 of K that produces the number of bits that is the nearest to the allocated value
651 (rounding down if exactly half-way between two values), subject to not exceeding
652 the total number of bits available. For efficiency reasons the search is performed against a
653 precomputated allocation table which only permits some K values for each N. The number of
654 codebooks entries can be computed as explained in <xref target="cwrs-encoding"></xref>. The difference
655 between the number of bits allocated and the number of bits used is accumulated to a
656 <spanx style="emph">balance</spanx> (initialised to zero) that helps adjusting the
657 allocation for the next bands. One third of the balance is applied to the
658 bit allocation of the each band to help achieving the target allocation. The only
659 exceptions are the band before the last and the last band, for which half the balance
660 and the whole balance are applied, respectively.
661 </t>
662 </section>
663
664 <section anchor="cwrs-decoder" title="Index Decoding">
665 <t>
666 The decoding of the codeword from the index is performed as specified in 
667 <xref target="PVQ"></xref>, as implemented in function
668 decode_pulses() (cwrs.c).
669 </t>
670 </section>
671
672 <section anchor="normalised-decoding" title="Normalised Vector Decoding">
673 <t>
674 The spherical codebook is decoded by alg_unquant() (vq.c).
675 The index of the PVQ entry is obtained from the range coder and converted to 
676 a pulse vector by decode_pulses() (cwrs.c).
677 </t>
678
679 <t>The decoded normalized vector for each band is equal to</t>
680 <t>X' = y/||y||,</t>
681
682 <t>
683 This operation is implemented in mix_pitch_and_residual() (vq.c), 
684 which is the same function as used in the encoder.
685 </t>
686 </section>
687
688
689 </section>
690
691 <section anchor="denormalization" title="Denormalization">
692 <t>
693 Just like each band was normalized in the encoder, the last step of the decoder before
694 the inverse MDCT is to denormalize the bands. Each decoded normalized band is
695 multiplied by the square root of the decoded energy. This is done by denormalise_bands()
696 (bands.c).
697 </t>
698 </section>
699
700 <section anchor="inverse-mdct" title="Inverse MDCT">
701 <t>The inverse MDCT implementation has no special characteristics. The
702 input is N frequency-domain samples and the output is 2*N time-domain 
703 samples, while scaling by 1/2. The output is windowed using the same window 
704 as the encoder. The IMDCT and windowing are performed by mdct_backward
705 (mdct.c). If a time-domain pre-emphasis 
706 window was applied in the encoder, the (inverse) time-domain de-emphasis window
707 is applied on the IMDCT result. 
708 </t>
709
710 <section anchor="post-filter" title="Post-filter">
711 <t>
712 The output of the inverse MDCT (after weighted overlap-add) is sent to the
713 post-filter. Although the post-filter is applied at the end, the post-filter
714 parameters are encoded at the beginning, just after the silence flag.
715 The post-filter can be switched on or off using one bit (logp=1).
716 If the post-filter is enabled, then the octave is decoded as an integer value
717 between 0 and 6 of uniform probability. Once the octave is known, the fine pitch
718 within the octave is decoded using 4+octave raw bits. The final pitch period
719 is equal to (16&lt;&lt;octave)+fine_pitch-1 so it is bounded between 15 and 1022,
720 inclusively. Next, the gain is decoded as three raw bits and is equal to 
721 G=3*(int_gain+1)/32. The set of post-filter taps is decoded last using 
722 a pdf equal to [2, 1, 1]/4. Tapset zero corresponds to the filter coefficients
723 g0 = 0.3066406250, g1 = 0.2170410156, g2 = 0.1296386719. Tapset one
724 corresponds to the filter coefficients g0 = 0.4638671875, g1 = 0.2680664062,
725 g2 = 0, and tapset two uses filter coefficients g0 = 0.7998046875,
726 g1 = 0.1000976562, g2 = 0.
727 </t>
728
729 <t>
730 The post-filter response is thus computed as:
731               <figure align="center">
732                 <artwork align="center">
733                   <![CDATA[
734    y(n) = x(n) + G*(g0*y(n-T) + g1*(y(n-T+1)+y(n-T+1)) 
735                               + g2*(y(n-T+2)+y(n-T+2)))
736 ]]>
737                 </artwork>
738               </figure>
739
740 During a transition between different gains, a smooth transition is calculated
741 using the square of the MDCT window. It is important that values of y(n) be 
742 interpolated one at a time such that the past value of y(n) used is interpolated.
743 </t>
744 </section>
745
746 <section anchor="deemphasis" title="De-emphasis">
747 <t>
748 After the post-filter, 
749 the signal is de-emphasized using the inverse of the pre-emphasis filter 
750 used in the encoder: 1/A(z)=1/(1-alpha_p*z^-1), where alpha_p=0.8500061035.
751 </t>
752 </section>
753
754 </section>
755
756 <section anchor="Packet Loss Concealment" title="Packet Loss Concealment (PLC)">
757 <t>
758 Packet loss concealment (PLC) is an optional decoder-side feature which 
759 SHOULD be included when transmitting over an unreliable channel. Because 
760 PLC is not part of the bit-stream, there are several possible ways to 
761 implement PLC with different complexity/quality trade-offs. The PLC in
762 the reference implementation finds a periodicity in the decoded
763 signal and repeats the windowed waveform using the pitch offset. The windowed
764 waveform is overlapped in such a way as to preserve the time-domain aliasing
765 cancellation with the previous frame and the next frame. This is implemented 
766 in celt_decode_lost() (mdct.c).
767 </t>
768 </section>
769
770 </section>
771
772 </section>
773
774
775 <!--  ******************************************************************* -->
776 <!--  **************************   OPUS ENCODER   *********************** -->
777 <!--  ******************************************************************* -->
778
779 <section title="Codec Encoder">
780 <t>
781 Opus encoder block diagram.
782 <figure>
783 <artwork>
784 <![CDATA[
785          +----------+    +-------+
786          |  sample  |    | SILK  |
787       +->|   rate   |--->|encoder|--+
788       |  |conversion|    |       |  |
789 audio |  +----------+    +-------+  |    +-------+
790 ------+                             +--->| Range |
791       |  +-------+                       |encoder|---->
792       |  | CELT  |                  +--->|       | bit-stream
793       +->|encoder|------------------+    +-------+
794          |       |
795          +-------+
796 ]]>
797 </artwork>
798 </figure>
799 </t>
800
801 <section anchor="range-encoder" title="Range Coder">
802 <t>
803 Opus uses an entropy coder based upon <xref target="range-coding"></xref>, 
804 which is itself a rediscovery of the FIFO arithmetic code introduced by <xref target="coding-thesis"></xref>.
805 It is very similar to arithmetic encoding, except that encoding is done with
806 digits in any base instead of with bits, 
807 so it is faster when using larger bases (i.e.: an octet). All of the
808 calculations in the range coder must use bit-exact integer arithmetic.
809 </t>
810
811 <t>
812 The range coder also acts as the bit-packer for Opus. It is
813 used in three different ways, to encode:
814 <list style="symbols">
815 <t>entropy-coded symbols with a fixed probability model using ec_encode(), (rangeenc.c)</t>
816 <t>integers from 0 to 2^M-1 using ec_enc_uint() or ec_enc_bits(), (entenc.c)</t>
817 <t>integers from 0 to N-1 (where N is not a power of two) using ec_enc_uint(). (entenc.c)</t>
818 </list>
819 </t>
820
821 <t>
822 The range encoder maintains an internal state vector composed of the
823 four-tuple (low,rng,rem,ext), representing the low end of the current
824 range, the size of the current range, a single buffered output octet,
825 and a count of additional carry-propagating output octets. Both rng
826 and low are 32-bit unsigned integer values, rem is an octet value or
827 the special value -1, and ext is an integer with at least 16 bits.
828 This state vector is initialized at the start of each each frame to
829 the value (0,2^31,-1,0).
830 </t>
831
832 <t>
833 Each symbol is drawn from a finite alphabet and coded in a separate
834 context which describes the size of the alphabet and the relative
835 frequency of each symbol in that alphabet. Opus only uses static
836 contexts; they are not adapted to the statistics of the data that is
837 coded.
838 </t>
839
840 <section anchor="encoding-symbols" title="Encoding Symbols">
841 <t>
842    The main encoding function is ec_encode() (rangeenc.c),
843    which takes as an argument a three-tuple (fl,fh,ft)
844    describing the range of the symbol to be encoded in the current
845    context, with 0 &lt;= fl &lt; fh &lt;= ft &lt;= 65535. The values of this tuple
846    are derived from the probability model for the symbol. Let f(i) be
847    the frequency of the ith symbol in the current context. Then the
848    three-tuple corresponding to the kth symbol is given by
849    <![CDATA[
850 fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
851 ]]>
852 </t>
853 <t>
854    ec_encode() updates the state of the encoder as follows. If fl is
855    greater than zero, then low = low + rng - (rng/ft)*(ft-fl) and 
856    rng = (rng/ft)*(fh-fl). Otherwise, low is unchanged and
857    rng = rng - (rng/ft)*(fh-fl). The divisions here are exact integer
858    division. After this update, the range is normalized.
859 </t>
860 <t>
861    To normalize the range, the following process is repeated until
862    rng > 2^23. First, the top 9 bits of low, (low>>23), are placed into
863    a carry buffer. Then, low is set to <![CDATA[(low << 8 & 0x7FFFFFFF) and rng
864    is set to (rng<<8)]]>. This process is carried out by
865    ec_enc_normalize() (rangeenc.c).
866 </t>
867 <t>
868    The 9 bits produced in each iteration of the normalization loop
869    consist of 8 data bits and a carry flag. The final value of the
870    output bits is not determined until carry propagation is accounted
871    for. Therefore the reference implementation buffers a single
872    (non-propagating) output octet and keeps a count of additional
873    propagating (0xFF) output octets. An implementation MAY choose to use
874    any mathematically equivalent scheme to perform carry propagation.
875 </t>
876 <t>
877    The function ec_enc_carry_out() (rangeenc.c) performs
878    this buffering. It takes a 9-bit input value, c, from the normalization
879    8-bit output and a carry bit. If c is 0xFF, then ext is incremented
880    and no octets are output. Otherwise, if rem is not the special value
881    -1, then the octet (rem+(c>>8)) is output. Then ext octets are output
882    with the value 0 if the carry bit is set, or 0xFF if it is not, and
883    rem is set to the lower 8 bits of c. After this, ext is set to zero.
884 </t>
885 <t>
886    In the reference implementation, a special version of ec_encode()
887    called ec_encode_bin() (rangeenc.c) is defined to
888    take a two-tuple (fl,ftb), where <![CDATA[0 <= fl < 2^ftb and ftb < 16. It is
889    mathematically equivalent to calling ec_encode() with the three-tuple
890    (fl,fl+1,1<<ftb)]]>, but avoids using division.
891
892 </t>
893 </section>
894
895 <section anchor="encoding-ints" title="Encoding Uniformly Distributed Integers">
896 <t>
897    Functions ec_enc_uint() or ec_enc_bits() are based on ec_encode() and 
898    encode one of N equiprobable symbols, each with a frequency of 1,
899    where N may be as large as 2^32-1. Because ec_encode() is limited to
900    a total frequency of 2^16-1, this is done by encoding a series of
901    symbols in smaller contexts.
902 </t>
903 <t>
904    ec_enc_bits() (entenc.c) is defined, like
905    ec_encode_bin(), to take a two-tuple (fl,ftb), with <![CDATA[0 <= fl < 2^ftb
906    and ftb < 32. While ftb is greater than 8, it encodes bits (ftb-8) to
907    (ftb-1) of fl, e.g., (fl>>ftb-8&0xFF) using ec_encode_bin() and
908    subtracts 8 from ftb. Then, it encodes the remaining bits of fl, e.g.,
909    (fl&(1<<ftb)-1)]]>, again using ec_encode_bin().
910 </t>
911 <t>
912    ec_enc_uint() (entenc.c) takes a two-tuple (fl,ft),
913    where ft is not necessarily a power of two. Let ftb be the location
914    of the highest 1 bit in the two's-complement representation of
915    (ft-1), or -1 if no bits are set. If ftb>8, then the top 8 bits of fl
916    are encoded using ec_encode() with the three-tuple
917    (fl>>ftb-8,(fl>>ftb-8)+1,(ft-1>>ftb-8)+1), and the remaining bits
918    are encoded with ec_enc_bits using the two-tuple
919    <![CDATA[(fl&(1<<ftb-8)-1,ftb-8). Otherwise, fl is encoded with ec_encode()
920    directly using the three-tuple (fl,fl+1,ft)]]>.
921 </t>
922 </section>
923
924 <section anchor="encoder-finalizing" title="Finalizing the Stream">
925 <t>
926    After all symbols are encoded, the stream must be finalized by
927    outputting a value inside the current range. Let end be the integer
928    in the interval [low,low+rng) with the largest number of trailing
929    zero bits. Then while end is not zero, the top 9 bits of end, e.g.,
930    <![CDATA[(end>>23), are sent to the carry buffer, and end is replaced by
931    (end<<8&0x7FFFFFFF). Finally, if the value in carry buffer, rem, is]]>
932    neither zero nor the special value -1, or the carry count, ext, is
933    greater than zero, then 9 zero bits are sent to the carry buffer.
934    After the carry buffer is finished outputting octets, the rest of the
935    output buffer is padded with zero octets. Finally, rem is set to the
936    special value -1. This process is implemented by ec_enc_done()
937    (rangeenc.c).
938 </t>
939 </section>
940
941 <section anchor="encoder-tell" title="Current Bit Usage">
942 <t>
943    The bit allocation routines in Opus need to be able to determine a
944    conservative upper bound on the number of bits that have been used
945    to encode the current frame thus far. This drives allocation
946    decisions and ensures that the range code will not overflow the
947    output buffer. This is computed in the reference implementation to
948    fractional bit precision by the function ec_enc_tell() 
949    (rangeenc.c).
950    Like all operations in the range encoder, it must
951    be implemented in a bit-exact manner.
952 </t>
953 </section>
954
955 </section>
956
957         <section title='SILK Encoder'>
958           <t>
959             In the following, we focus on the core encoder and describe its components. For simplicity, we will refer to the core encoder simply as the encoder in the remainder of this document. An overview of the encoder is given in <xref target="encoder_figure" />.
960           </t>
961
962           <figure align="center" anchor="encoder_figure">
963             <artwork align="center">
964               <![CDATA[
965                                                               +---+
966                                +----------------------------->|   |
967         +---------+            |     +---------+              |   |
968         |Voice    |            |     |LTP      |              |   |
969  +----->|Activity |-----+      +---->|Scaling  |---------+--->|   |
970  |      |Detector |  3  |      |     |Control  |<+  12   |    |   |
971  |      +---------+     |      |     +---------+ |       |    |   |
972  |                      |      |     +---------+ |       |    |   |
973  |                      |      |     |Gains    | |  11   |    |   |
974  |                      |      |  +->|Processor|-|---+---|--->| R |
975  |                      |      |  |  |         | |   |   |    | a |
976  |                     \/      |  |  +---------+ |   |   |    | n |
977  |                 +---------+ |  |  +---------+ |   |   |    | g |
978  |                 |Pitch    | |  |  |LSF      | |   |   |    | e |
979  |              +->|Analysis |-+  |  |Quantizer|-|---|---|--->|   |
980  |              |  |         |4|  |  |         | | 8 |   |    | E |->
981  |              |  +---------+ |  |  +---------+ |   |   |    | n |14
982  |              |              |  |   9/\  10|   |   |   |    | c |
983  |              |              |  |    |    \/   |   |   |    | o |
984  |              |  +---------+ |  |  +----------+|   |   |    | d |
985  |              |  |Noise    | +--|->|Prediction|+---|---|--->| e |
986  |              +->|Shaping  |-|--+  |Analysis  || 7 |   |    | r |
987  |              |  |Analysis |5|  |  |          ||   |   |    |   |
988  |              |  +---------+ |  |  +----------+|   |   |    |   |
989  |              |              |  |       /\     |   |   |    |   |
990  |              |    +---------|--|-------+      |   |   |    |   |
991  |              |    |        \/  \/            \/  \/  \/    |   |
992  |  +---------+ |    |      +---------+       +------------+  |   |
993  |  |High-Pass| |    |      |         |       |Noise       |  |   |
994 -+->|Filter   |-+----+----->|Prefilter|------>|Shaping     |->|   |
995 1   |         |      2      |         |   6   |Quantization|13|   |
996     +---------+             +---------+       +------------+  +---+
997
998 1:  Input speech signal
999 2:  High passed input signal
1000 3:  Voice activity estimate
1001 4:  Pitch lags (per 5 ms) and voicing decision (per 20 ms)
1002 5:  Noise shaping quantization coefficients
1003   - Short term synthesis and analysis 
1004     noise shaping coefficients (per 5 ms)
1005   - Long term synthesis and analysis noise 
1006     shaping coefficients (per 5 ms and for voiced speech only)
1007   - Noise shaping tilt (per 5 ms)
1008   - Quantizer gain/step size (per 5 ms)
1009 6:  Input signal filtered with analysis noise shaping filters
1010 7:  Short and long term prediction coefficients
1011     LTP (per 5 ms) and LPC (per 20 ms)
1012 8:  LSF quantization indices
1013 9:  LSF coefficients
1014 10: Quantized LSF coefficients 
1015 11: Processed gains, and synthesis noise shape coefficients
1016 12: LTP state scaling coefficient. Controlling error propagation
1017    / prediction gain trade-off
1018 13: Quantized signal
1019 14: Range encoded bitstream
1020
1021 ]]>
1022             </artwork>
1023             <postamble>Encoder block diagram.</postamble>
1024           </figure>
1025
1026           <section title='Voice Activity Detection'>
1027             <t>
1028               The input signal is processed by a VAD (Voice Activity Detector) to produce a measure of voice activity, and also spectral tilt and signal-to-noise estimates, for each frame. The VAD uses a sequence of half-band filterbanks to split the signal in four subbands: 0 - Fs/16, Fs/16 - Fs/8, Fs/8 - Fs/4, and Fs/4 - Fs/2, where Fs is the sampling frequency, that is, 8, 12, 16 or 24 kHz. The lowest subband, from 0 - Fs/16 is high-pass filtered with a first-order MA (Moving Average) filter (with transfer function H(z) = 1-z^(-1)) to reduce the energy at the lowest frequencies. For each frame, the signal energy per subband is computed. In each subband, a noise level estimator tracks the background noise level and an SNR (Signal-to-Noise Ratio) value is computed as the logarithm of the ratio of energy to noise level. Using these intermediate variables, the following parameters are calculated for use in other SILK modules:
1029               <list style="symbols">
1030                 <t>
1031                   Average SNR. The average of the subband SNR values.
1032                 </t>
1033
1034                 <t>
1035                   Smoothed subband SNRs. Temporally smoothed subband SNR values.
1036                 </t>
1037
1038                 <t>
1039                   Speech activity level. Based on the average SNR and a weighted average of the subband energies.
1040                 </t>
1041
1042                 <t>
1043                   Spectral tilt. A weighted average of the subband SNRs, with positive weights for the low subbands and negative weights for the high subbands.
1044                 </t>
1045               </list>
1046             </t>
1047           </section>
1048
1049           <section title='High-Pass Filter'>
1050             <t>
1051               The input signal is filtered by a high-pass filter to remove the lowest part of the spectrum that contains little speech energy and may contain background noise. This is a second order ARMA (Auto Regressive Moving Average) filter with a cut-off frequency around 70 Hz.
1052             </t>
1053             <t>
1054               In the future, a music detector may also be used to lower the cut-off frequency when the input signal is detected to be music rather than speech.
1055             </t>
1056           </section>
1057
1058           <section title='Pitch Analysis' anchor='pitch_estimator_overview_section'>
1059             <t>
1060               The high-passed input signal is processed by the open loop pitch estimator shown in <xref target='pitch_estimator_figure' />.
1061               <figure align="center" anchor="pitch_estimator_figure">
1062                 <artwork align="center">
1063                   <![CDATA[
1064                                  +--------+  +----------+     
1065                                  |2 x Down|  |Time-     |      
1066                               +->|sampling|->|Correlator|     |
1067                               |  |        |  |          |     |4
1068                               |  +--------+  +----------+    \/
1069                               |                    | 2    +-------+
1070                               |                    |  +-->|Speech |5
1071     +---------+    +--------+ |                   \/  |   |Type   |->
1072     |LPC      |    |Down    | |              +----------+ |       |
1073  +->|Analysis | +->|sample  |-+------------->|Time-     | +-------+
1074  |  |         | |  |to 8 kHz|                |Correlator|----------->
1075  |  +---------+ |  +--------+                |__________|          6
1076  |       |      |                                  |3
1077  |      \/      |                                 \/ 
1078  |  +---------+ |                            +----------+
1079  |  |Whitening| |                            |Time-     |    
1080 -+->|Filter   |-+--------------------------->|Correlator|----------->
1081 1   |         |                              |          |          7
1082     +---------+                              +----------+ 
1083                                             
1084 1: Input signal
1085 2: Lag candidates from stage 1
1086 3: Lag candidates from stage 2
1087 4: Correlation threshold
1088 5: Voiced/unvoiced flag
1089 6: Pitch correlation
1090 7: Pitch lags 
1091 ]]>
1092                 </artwork>
1093                 <postamble>Block diagram of the pitch estimator.</postamble>
1094               </figure>
1095               The pitch analysis finds a binary voiced/unvoiced classification, and, for frames classified as voiced, four pitch lags per frame - one for each 5 ms subframe - and a pitch correlation indicating the periodicity of the signal. The input is first whitened using a Linear Prediction (LP) whitening filter, where the coefficients are computed through standard Linear Prediction Coding (LPC) analysis. The order of the whitening filter is 16 for best results, but is reduced to 12 for medium complexity and 8 for low complexity modes. The whitened signal is analyzed to find pitch lags for which the time correlation is high. The analysis consists of three stages for reducing the complexity:
1096               <list style="symbols">
1097                 <t>In the first stage, the whitened signal is downsampled to 4 kHz (from 8 kHz) and the current frame is correlated to a signal delayed by a range of lags, starting from a shortest lag corresponding to 500 Hz, to a longest lag corresponding to 56 Hz.</t>
1098
1099                 <t>
1100                   The second stage operates on a 8 kHz signal ( downsampled from 12, 16 or 24 kHz ) and measures time correlations only near the lags corresponding to those that had sufficiently high correlations in the first stage. The resulting correlations are adjusted for a small bias towards short lags to avoid ending up with a multiple of the true pitch lag. The highest adjusted correlation is compared to a threshold depending on:
1101                   <list style="symbols">
1102                     <t>
1103                       Whether the previous frame was classified as voiced
1104                     </t>
1105                     <t>
1106                       The speech activity level
1107                     </t>
1108                     <t>
1109                       The spectral tilt.
1110                     </t>
1111                   </list>
1112                   If the threshold is exceeded, the current frame is classified as voiced and the lag with the highest adjusted correlation is stored for a final pitch analysis of the highest precision in the third stage.
1113                 </t>
1114                 <t>
1115                   The last stage operates directly on the whitened input signal to compute time correlations for each of the four subframes independently in a narrow range around the lag with highest correlation from the second stage.
1116                 </t>
1117               </list>
1118             </t>
1119           </section>
1120
1121           <section title='Noise Shaping Analysis' anchor='noise_shaping_analysis_overview_section'>
1122             <t>
1123               The noise shaping analysis finds gains and filter coefficients used in the prefilter and noise shaping quantizer. These parameters are chosen such that they will fulfil several requirements:
1124               <list style="symbols">
1125                 <t>Balancing quantization noise and bitrate. The quantization gains determine the step size between reconstruction levels of the excitation signal. Therefore, increasing the quantization gain amplifies quantization noise, but also reduces the bitrate by lowering the entropy of the quantization indices.</t>
1126                 <t>Spectral shaping of the quantization noise; the noise shaping quantizer is capable of reducing quantization noise in some parts of the spectrum at the cost of increased noise in other parts without substantially changing the bitrate. By shaping the noise such that it follows the signal spectrum, it becomes less audible. In practice, best results are obtained by making the shape of the noise spectrum slightly flatter than the signal spectrum.</t>
1127                 <t>Deemphasizing spectral valleys; by using different coefficients in the analysis and synthesis part of the prefilter and noise shaping quantizer, the levels of the spectral valleys can be decreased relative to the levels of the spectral peaks such as speech formants and harmonics. This reduces the entropy of the signal, which is the difference between the coded signal and the quantization noise, thus lowering the bitrate.</t>
1128                 <t>Matching the levels of the decoded speech formants to the levels of the original speech formants; an adjustment gain and a first order tilt coefficient are computed to compensate for the effect of the noise shaping quantization on the level and spectral tilt.</t>
1129               </list>
1130             </t>
1131             <t>
1132               <figure align="center" anchor="noise_shape_analysis_spectra_figure">
1133                 <artwork align="center">
1134                   <![CDATA[
1135   / \   ___
1136    |   // \\
1137    |  //   \\     ____
1138    |_//     \\___//  \\         ____
1139    | /  ___  \   /    \\       //  \\
1140  P |/  /   \  \_/      \\_____//    \\
1141  o |  /     \     ____  \     /      \\
1142  w | /       \___/    \  \___/  ____  \\___ 1
1143  e |/                  \       /    \  \    
1144  r |                    \_____/      \  \__ 2
1145    |                                  \     
1146    |                                   \___ 3
1147    |
1148    +---------------------------------------->
1149                     Frequency
1150
1151 1: Input signal spectrum
1152 2: Deemphasized and level matched spectrum
1153 3: Quantization noise spectrum
1154 ]]>
1155                 </artwork>
1156                 <postamble>Noise shaping and spectral de-emphasis illustration.</postamble>
1157               </figure>
1158               <xref target='noise_shape_analysis_spectra_figure' /> shows an example of an input signal spectrum (1). After de-emphasis and level matching, the spectrum has deeper valleys (2). The quantization noise spectrum (3) more or less follows the input signal spectrum, while having slightly less pronounced peaks. The entropy, which provides a lower bound on the bitrate for encoding the excitation signal, is proportional to the area between the deemphasized spectrum (2) and the quantization noise spectrum (3). Without de-emphasis, the entropy is proportional to the area between input spectrum (1) and quantization noise (3) - clearly higher.
1159             </t>
1160
1161             <t>
1162               The transformation from input signal to deemphasized signal can be described as a filtering operation with a filter
1163               <figure align="center">
1164                 <artwork align="center">
1165                   <![CDATA[
1166                                      Wana(z)
1167 H(z) = G * ( 1 - c_tilt * z^(-1) ) * -------
1168                                      Wsyn(z),
1169             ]]>
1170                 </artwork>
1171               </figure>
1172               having an adjustment gain G, a first order tilt adjustment filter with
1173               tilt coefficient c_tilt, and where
1174               <figure align="center">
1175                 <artwork align="center">
1176                   <![CDATA[
1177                16                                 d
1178                __                                __
1179 Wana(z) = (1 - \ (a_ana(k) * z^(-k))*(1 - z^(-L) \ b_ana(k)*z^(-k)),
1180                /_                                /_  
1181                k=1                               k=-d
1182             ]]>
1183                 </artwork>
1184               </figure>
1185               is the analysis part of the de-emphasis filter, consisting of the short-term shaping filter with coefficients a_ana(k), and the long-term shaping filter with coefficients b_ana(k) and pitch lag L. The parameter d determines the number of long-term shaping filter taps.
1186             </t>
1187
1188             <t>
1189               Similarly, but without the tilt adjustment, the synthesis part can be written as
1190               <figure align="center">
1191                 <artwork align="center">
1192                   <![CDATA[
1193                16                                 d
1194                __                                __
1195 Wsyn(z) = (1 - \ (a_syn(k) * z^(-k))*(1 - z^(-L) \ b_syn(k)*z^(-k)).
1196                /_                                /_  
1197                k=1                               k=-d
1198             ]]>
1199                 </artwork>
1200               </figure>
1201             </t>
1202             <t>
1203               All noise shaping parameters are computed and applied per subframe of 5 milliseconds. First, an LPC analysis is performed on a windowed signal block of 15 milliseconds. The signal block has a look-ahead of 5 milliseconds relative to the current subframe, and the window is an asymmetric sine window. The LPC analysis is done with the autocorrelation method, with an order of 16 for best quality or 12 in low complexity operation. The quantization gain is found as the square-root of the residual energy from the LPC analysis, multiplied by a value inversely proportional to the coding quality control parameter and the pitch correlation.
1204             </t>
1205             <t>
1206               Next we find the two sets of short-term noise shaping coefficients a_ana(k) and a_syn(k), by applying different amounts of bandwidth expansion to the coefficients found in the LPC analysis. This bandwidth expansion moves the roots of the LPC polynomial towards the origo, using the formulas
1207               <figure align="center">
1208                 <artwork align="center">
1209                   <![CDATA[
1210  a_ana(k) = a(k)*g_ana^k, and
1211  a_syn(k) = a(k)*g_syn^k,
1212             ]]>
1213                 </artwork>
1214               </figure>
1215               where a(k) is the k'th LPC coefficient and the bandwidth expansion factors g_ana and g_syn are calculated as
1216               <figure align="center">
1217                 <artwork align="center">
1218                   <![CDATA[
1219 g_ana = 0.94 - 0.02*C, and
1220 g_syn = 0.94 + 0.02*C,
1221             ]]>
1222                 </artwork>
1223               </figure>
1224               where C is the coding quality control parameter between 0 and 1. Applying more bandwidth expansion to the analysis part than to the synthesis part gives the desired de-emphasis of spectral valleys in between formants.
1225             </t>
1226
1227             <t>
1228               The long-term shaping is applied only during voiced frames. It uses three filter taps, described by
1229               <figure align="center">
1230                 <artwork align="center">
1231                   <![CDATA[
1232 b_ana = F_ana * [0.25, 0.5, 0.25], and
1233 b_syn = F_syn * [0.25, 0.5, 0.25].
1234             ]]>
1235                 </artwork>
1236               </figure>
1237               For unvoiced frames these coefficients are set to 0. The multiplication factors F_ana and F_syn are chosen between 0 and 1, depending on the coding quality control parameter, as well as the calculated pitch correlation and smoothed subband SNR of the lowest subband. By having F_ana less than F_syn, the pitch harmonics are emphasized relative to the valleys in between the harmonics.
1238             </t>
1239
1240             <t>
1241               The tilt coefficient c_tilt is for unvoiced frames chosen as
1242               <figure align="center">
1243                 <artwork align="center">
1244                   <![CDATA[
1245 c_tilt = 0.4, and as
1246 c_tilt = 0.04 + 0.06 * C
1247             ]]>
1248                 </artwork>
1249               </figure>
1250               for voiced frames, where C again is the coding quality control parameter and is between 0 and 1.
1251             </t>
1252             <t>
1253               The adjustment gain G serves to correct any level mismatch between original and decoded signal that might arise from the noise shaping and de-emphasis. This gain is computed as the ratio of the prediction gain of the short-term analysis and synthesis filter coefficients. The prediction gain of an LPC synthesis filter is the square-root of the output energy when the filter is excited by a unit-energy impulse on the input. An efficient way to compute the prediction gain is by first computing the reflection coefficients from the LPC coefficients through the step-down algorithm, and extracting the prediction gain from the reflection coefficients as
1254               <figure align="center">
1255                 <artwork align="center">
1256                   <![CDATA[
1257                K
1258               ___
1259  predGain = ( | | 1 - (r_k)^2 )^(-0.5),
1260               k=1
1261             ]]>
1262                 </artwork>
1263               </figure>
1264               where r_k is the k'th reflection coefficient.
1265             </t>
1266
1267             <t>
1268               Initial values for the quantization gains are computed as the square-root of the residual energy of the LPC analysis, adjusted by the coding quality control parameter. These quantization gains are later adjusted based on the results of the prediction analysis.
1269             </t>
1270           </section>
1271
1272           <section title='Prefilter'>
1273             <t>
1274               In the prefilter the input signal is filtered using the spectral valley de-emphasis filter coefficients from the noise shaping analysis, see <xref target='noise_shaping_analysis_overview_section' />. By applying only the noise shaping analysis filter to the input signal, it provides the input to the noise shaping quantizer.
1275             </t>
1276           </section>
1277           <section title='Prediction Analysis' anchor='pred_ana_overview_section'>
1278             <t>
1279               The prediction analysis is performed in one of two ways depending on how the pitch estimator classified the frame. The processing for voiced and unvoiced speech are described in <xref target='pred_ana_voiced_overview_section' /> and <xref target='pred_ana_unvoiced_overview_section' />, respectively. Inputs to this function include the pre-whitened signal from the pitch estimator, see <xref target='pitch_estimator_overview_section' />.
1280             </t>
1281
1282             <section title='Voiced Speech' anchor='pred_ana_voiced_overview_section'>
1283               <t>
1284                 For a frame of voiced speech the pitch pulses will remain dominant in the pre-whitened input signal. Further whitening is desirable as it leads to higher quality at the same available bit-rate. To achieve this, a Long-Term Prediction (LTP) analysis is carried out to estimate the coefficients of a fifth order LTP filter for each of four sub-frames. The LTP coefficients are used to find an LTP residual signal with the simulated output signal as input to obtain better modelling of the output signal. This LTP residual signal is the input to an LPC analysis where the LPCs are estimated using Burgs method, such that the residual energy is minimized. The estimated LPCs are converted to a Line Spectral Frequency (LSF) vector, and quantized as described in <xref target='lsf_quantizer_overview_section' />. After quantization, the quantized LSF vector is converted to LPC coefficients and hence by using these quantized coefficients the encoder remains fully synchronized with the decoder. The LTP coefficients are quantized using a method described in <xref target='ltp_quantizer_overview_section' />. The quantized LPC and LTP coefficients are now used to filter the high-pass filtered input signal and measure a residual energy for each of the four subframes.
1285               </t>
1286             </section>
1287             <section title='Unvoiced Speech' anchor='pred_ana_unvoiced_overview_section'>
1288               <t>
1289                 For a speech signal that has been classified as unvoiced there is no need for LTP filtering as it has already been determined that the pre-whitened input signal is not periodic enough within the allowed pitch period range for an LTP analysis to be worth-while the cost in terms of complexity and rate. Therefore, the pre-whitened input signal is discarded and instead the high-pass filtered input signal is used for LPC analysis using Burgs method. The resulting LPC coefficients are converted to an LSF vector, quantized as described in the following section and transformed back to obtain quantized LPC coefficients. The quantized LPC coefficients are used to filter the high-pass filtered input signal and measure a residual energy for each of the four subframes.
1290               </t>
1291             </section>
1292           </section>
1293
1294           <section title='LSF Quantization' anchor='lsf_quantizer_overview_section'>
1295             <t>The purpose of quantization in general is to significantly lower the bit rate at the cost of some introduced distortion. A higher rate should always result in lower distortion, and lowering the rate will generally lead to higher distortion. A commonly used but generally sub-optimal approach is to use a quantization method with a constant rate where only the error is minimized when quantizing.</t>
1296             <section title='Rate-Distortion Optimization'>
1297               <t>Instead, we minimize an objective function that consists of a weighted sum of rate and distortion, and use a codebook with an associated non-uniform rate table. Thus, we take into account that the probability mass function for selecting the codebook entries are by no means guaranteed to be uniform in our scenario. The advantage of this approach is that it ensures that rarely used codebook vector centroids, which are modelling statistical outliers in the training set can be quantized with a low error but with a relatively high cost in terms of a high rate. At the same time this approach also provides the advantage that frequently used centroids are modelled with low error and a relatively low rate. This approach will lead to equal or lower distortion than the fixed rate codebook at any given average rate, provided that the data is similar to the data used for training the codebook.</t>
1298             </section>
1299
1300             <section title='Error Mapping' anchor='lsf_error_mapping_overview_section'>
1301               <t>
1302                 Instead of minimizing the error in the LSF domain, we map the errors to better approximate spectral distortion by applying an individual weight to each element in the error vector. The weight vectors are calculated for each input vector using the Inverse Harmonic Mean Weighting (IHMW) function proposed by Laroia et al., see <xref target="laroia-icassp" />.
1303                 Consequently, we solve the following minimization problem, i.e.,
1304                 <figure align="center">
1305                   <artwork align="center">
1306                     <![CDATA[
1307 LSF_q = argmin { (LSF - c)' * W * (LSF - c) + mu * rate },
1308         c in C
1309             ]]>
1310                   </artwork>
1311                 </figure>
1312                 where LSF_q is the quantized vector, LSF is the input vector to be quantized, and c is the quantized LSF vector candidate taken from the set C of all possible outcomes of the codebook.
1313               </t>
1314             </section>
1315             <section title='Multi-Stage Vector Codebook'>
1316               <t>
1317                 We arrange the codebook in a multiple stage structure to achieve a quantizer that is both memory efficient and highly scalable in terms of computational complexity, see e.g. <xref target="sinervo-norsig" />. In the first stage the input is the LSF vector to be quantized, and in any other stage s > 1, the input is the quantization error from the previous stage, see <xref target='lsf_quantizer_structure_overview_figure' />.
1318                 <figure align="center" anchor="lsf_quantizer_structure_overview_figure">
1319                   <artwork align="center">
1320                     <![CDATA[
1321       Stage 1:           Stage 2:                Stage S:
1322     +----------+       +----------+            +----------+
1323     |  c_{1,1} |       |  c_{2,1} |            |  c_{S,1} | 
1324 LSF +----------+ res_1 +----------+  res_{S-1} +----------+
1325 --->|  c_{1,2} |------>|  c_{2,2} |--> ... --->|  c_{S,2} |--->
1326     +----------+       +----------+            +----------+ res_S =
1327         ...                ...                     ...      LSF-LSF_q
1328     +----------+       +----------+            +----------+ 
1329     |c_{1,M1-1}|       |c_{2,M2-1}|            |c_{S,MS-1}|
1330     +----------+       +----------+            +----------+     
1331     | c_{1,M1} |       | c_{2,M2} |            | c_{S,MS} |
1332     +----------+       +----------+            +----------+
1333 ]]>
1334                   </artwork>
1335                   <postamble>Multi-Stage LSF Vector Codebook Structure.</postamble>
1336                 </figure>
1337               </t>
1338
1339               <t>
1340                 By storing total of M codebook vectors, i.e.,
1341                 <figure align="center">
1342                   <artwork align="center">
1343                     <![CDATA[
1344      S
1345     __
1346 M = \  Ms,
1347     /_
1348     s=1
1349 ]]>
1350                   </artwork>
1351                 </figure>
1352                 where M_s is the number of vectors in stage s, we obtain a total of
1353                 <figure align="center">
1354                   <artwork align="center">
1355                     <![CDATA[
1356      S
1357     ___
1358 T = | | Ms
1359     s=1
1360 ]]>
1361                   </artwork>
1362                 </figure>
1363                 possible combinations for generating the quantized vector. It is for example possible to represent 2^36 uniquely combined vectors using only 216 vectors in memory, as done in SILK for voiced speech at all sample frequencies above 8 kHz.
1364               </t>
1365             </section>
1366             <section title='Survivor Based Codebook Search'>
1367               <t>
1368                 This number of possible combinations is far too high for a full search to be carried out for each frame so for all stages but the last, i.e., s smaller than S, only the best min( L, Ms ) centroids are carried over to stage s+1. In each stage the objective function, i.e., the weighted sum of accumulated bit-rate and distortion, is evaluated for each codebook vector entry and the results are sorted. Only the best paths and the corresponding quantization errors are considered in the next stage. In the last stage S the single best path through the multistage codebook is determined. By varying the maximum number of survivors from each stage to the next L, the complexity can be adjusted in real-time at the cost of a potential increase when evaluating the objective function for the resulting quantized vector. This approach scales all the way between the two extremes, L=1 being a greedy search, and the desirable but infeasible full search, L=T/MS. In fact, a performance almost as good as what can be achieved with the infeasible full search can be obtained at a substantially lower complexity by using this approach, see e.g. <xref target='leblanc-tsap' />.
1369               </t>
1370             </section>
1371             <section title='LSF Stabilization' anchor='lsf_stabilizer_overview_section'>
1372               <t>If the input is stable, finding the best candidate will usually result in the quantized vector also being stable, but due to the multi-stage approach it could in theory happen that the best quantization candidate is unstable and because of this there is a need to explicitly ensure that the quantized vectors are stable. Therefore we apply a LSF stabilization method which ensures that the LSF parameters are within valid range, increasingly sorted, and have minimum distances between each other and the border values that have been pre-determined as the 0.01 percentile distance values from a large training set.</t>
1373             </section>
1374             <section title='Off-Line Codebook Training'>
1375               <t>
1376                 The vectors and rate tables for the multi-stage codebook have been trained by minimizing the average of the objective function for LSF vectors from a large training set.
1377               </t>
1378             </section>
1379           </section>
1380
1381           <section title='LTP Quantization' anchor='ltp_quantizer_overview_section'>
1382             <t>
1383               For voiced frames, the prediction analysis described in <xref target='pred_ana_voiced_overview_section' /> resulted in four sets (one set per subframe) of five LTP coefficients, plus four weighting matrices. Also, the LTP coefficients for each subframe are quantized using entropy constrained vector quantization. A total of three vector codebooks are available for quantization, with different rate-distortion trade-offs. The three codebooks have 10, 20 and 40 vectors and average rates of about 3, 4, and 5 bits per vector, respectively. Consequently, the first codebook has larger average quantization distortion at a lower rate, whereas the last codebook has smaller average quantization distortion at a higher rate. Given the weighting matrix W_ltp and LTP vector b, the weighted rate-distortion measure for a codebook vector cb_i with rate r_i is give by
1384               <figure align="center">
1385                 <artwork align="center">
1386                   <![CDATA[
1387  RD = u * (b - cb_i)' * W_ltp * (b - cb_i) + r_i,
1388 ]]>
1389                 </artwork>
1390               </figure>
1391               where u is a fixed, heuristically-determined parameter balancing the distortion and rate. Which codebook gives the best performance for a given LTP vector depends on the weighting matrix for that LTP vector. For example, for a low valued W_ltp, it is advantageous to use the codebook with 10 vectors as it has a lower average rate. For a large W_ltp, on the other hand, it is often better to use the codebook with 40 vectors, as it is more likely to contain the best codebook vector.
1392               The weighting matrix W_ltp depends mostly on two aspects of the input signal. The first is the periodicity of the signal; the more periodic the larger W_ltp. The second is the change in signal energy in the current subframe, relative to the signal one pitch lag earlier. A decaying energy leads to a larger W_ltp than an increasing energy. Both aspects do not fluctuate very fast which causes the W_ltp matrices for different subframes of one frame often to be similar. As a result, one of the three codebooks typically gives good performance for all subframes. Therefore the codebook search for the subframe LTP vectors is constrained to only allow codebook vectors to be chosen from the same codebook, resulting in a rate reduction.
1393             </t>
1394
1395             <t>
1396               To find the best codebook, each of the three vector codebooks is used to quantize all subframe LTP vectors and produce a combined weighted rate-distortion measure for each vector codebook and the vector codebook with the lowest combined rate-distortion over all subframes is chosen. The quantized LTP vectors are used in the noise shaping quantizer, and the index of the codebook plus the four indices for the four subframe codebook vectors are passed on to the range encoder.
1397             </t>
1398           </section>
1399
1400
1401           <section title='Noise Shaping Quantizer'>
1402             <t>
1403               The noise shaping quantizer independently shapes the signal and coding noise spectra to obtain a perceptually higher quality at the same bitrate.
1404             </t>
1405             <t>
1406               The prefilter output signal is multiplied with a compensation gain G computed in the noise shaping analysis. Then the output of a synthesis shaping filter is added, and the output of a prediction filter is subtracted to create a residual signal. The residual signal is multiplied by the inverse quantized quantization gain from the noise shaping analysis, and input to a scalar quantizer. The quantization indices of the scalar quantizer represent a signal of pulses that is input to the pyramid range encoder. The scalar quantizer also outputs a quantization signal, which is multiplied by the quantized quantization gain from the noise shaping analysis to create an excitation signal. The output of the prediction filter is added to the excitation signal to form the quantized output signal y(n). The quantized output signal y(n) is input to the synthesis shaping and prediction filters.
1407             </t>
1408
1409           </section>
1410
1411           <section title='Range Encoder'>
1412             <t>
1413               Range encoding is a well known method for entropy coding in which a bitstream sequence is continually updated with every new symbol, based on the probability for that symbol. It is similar to arithmetic coding but rather than being restricted to generating binary output symbols, it can generate symbols in any chosen number base. In SILK all side information is range encoded. Each quantized parameter has its own cumulative density function based on histograms for the quantization indices obtained by running a training database.
1414             </t>
1415
1416             <section title='Bitstream Encoding Details'>
1417               <t>
1418                 TBD.
1419               </t>
1420             </section>
1421           </section>
1422         </section>
1423
1424
1425 <section title="CELT Encoder">
1426 <t>
1427 Copy from CELT draft.
1428 </t>
1429
1430 <section anchor="prefilter" title="Pre-filter">
1431 <t>
1432 Inverse of the post-filter
1433 </t>
1434 </section>
1435
1436
1437 <section anchor="forward-mdct" title="Forward MDCT">
1438
1439 <t>The MDCT implementation has no special characteristics. The
1440 input is a windowed signal (after pre-emphasis) of 2*N samples and the output is N
1441 frequency-domain samples. A <spanx style="emph">low-overlap</spanx> window is used to reduce the algorithmic delay. 
1442 It is derived from a basic (full overlap) window that is the same as the one used in the Vorbis codec: W(n)=[sin(pi/2*sin(pi/2*(n+.5)/L))]^2. The low-overlap window is created by zero-padding the basic window and inserting ones in the middle, such that the resulting window still satisfies power complementarity. The MDCT is computed in mdct_forward() (mdct.c), which includes the windowing operation and a scaling of 2/N.
1443 </t>
1444 </section>
1445
1446 <section anchor="normalization" title="Bands and Normalization">
1447 <t>
1448 The MDCT output is divided into bands that are designed to match the ear's critical 
1449 bands for the smallest (2.5ms) frame size. The larger frame sizes use integer
1450 multiplies of the 2.5ms layout. For each band, the encoder
1451 computes the energy that will later be encoded. Each band is then normalized by the 
1452 square root of the <spanx style="strong">non-quantized</spanx> energy, such that each band now forms a unit vector X.
1453 The energy and the normalization are computed by compute_band_energies()
1454 and normalise_bands() (bands.c), respectively.
1455 </t>
1456 </section>
1457
1458 <section anchor="energy-quantization" title="Energy Envelope Quantization">
1459
1460 <t>
1461 It is important to quantize the energy with sufficient resolution because
1462 any energy quantization error cannot be compensated for at a later
1463 stage. Regardless of the resolution used for encoding the shape of a band,
1464 it is perceptually important to preserve the energy in each band. CELT uses a
1465 coarse-fine strategy for encoding the energy in the base-2 log domain, 
1466 as implemented in quant_bands.c</t>
1467
1468 <section anchor="coarse-energy" title="Coarse energy quantization">
1469 <t>
1470 The coarse quantization of the energy uses a fixed resolution of 6 dB.
1471 To minimize the bitrate, prediction is applied both in time (using the previous frame)
1472 and in frequency (using the previous bands). The prediction using the
1473 previous frame can be disabled, creating an "intra" frame where the energy
1474 is coded without reference to prior frames. An encoder is able to choose the
1475 mode used at will based on both loss robustness and efficiency
1476 considerations.
1477 The 2-D z-transform of
1478 the prediction filter is: A(z_l, z_b)=(1-a*z_l^-1)*(1-z_b^-1)/(1-b*z_b^-1)
1479 where b is the band index and l is the frame index. The prediction coefficients
1480 applied depend on the frame size in use when not using intra energy and a=0 b=4915/32768
1481 when using intra energy.
1482 The time-domain prediction is based on the final fine quantization of the previous
1483 frame, while the frequency domain (within the current frame) prediction is based
1484 on coarse quantization only (because the fine quantization has not been computed
1485 yet). The prediction is clamped internally so that fixed point implementations with
1486 limited dynamic range to not suffer desynchronization.  Identical prediction
1487 clamping must be implemented in all encoders and decoders.
1488 We approximate the ideal
1489 probability distribution of the prediction error using a Laplace distribution
1490 with seperate parameters for each frame size in intra and inter-frame modes. The
1491 coarse energy quantization is performed by quant_coarse_energy() and 
1492 quant_coarse_energy() (quant_bands.c). The encoding of the Laplace-distributed values is
1493 implemented in ec_laplace_encode() (laplace.c).
1494 </t>
1495
1496 <!-- FIXME: bit budget consideration -->
1497 </section> <!-- coarse energy -->
1498
1499 <section anchor="fine-energy" title="Fine energy quantization">
1500 <t>
1501 After the coarse energy quantization and encoding, the bit allocation is computed 
1502 (<xref target="allocation"></xref>) and the number of bits to use for refining the
1503 energy quantization is determined for each band. Let B_i be the number of fine energy bits 
1504 for band i; the refinement is an integer f in the range [0,2^B_i-1]. The mapping between f
1505 and the correction applied to the coarse energy is equal to (f+1/2)/2^B_i - 1/2. Fine
1506 energy quantization is implemented in quant_fine_energy() 
1507 (quant_bands.c).
1508 </t>
1509
1510 <t>
1511 If any bits are unused at the end of the encoding process, these bits are used to
1512 increase the resolution of the fine energy encoding in some bands. Priority is given
1513 to the bands for which the allocation (<xref target="allocation"></xref>) was rounded
1514 down. At the same level of priority, lower bands are encoded first. Refinement bits
1515 are added until there is no more room for fine energy or until each band
1516 has gained an additional bit of precision or has the maximum fine
1517 energy precision. This is implemented in quant_energy_finalise()
1518 (quant_bands.c).
1519 </t>
1520
1521 </section> <!-- fine energy -->
1522
1523
1524 </section> <!-- Energy quant -->
1525
1526
1527 <section anchor="pvq" title="Spherical Vector Quantization">
1528 <t>CELT uses a Pyramid Vector Quantization (PVQ) <xref target="PVQ"></xref>
1529 codebook for quantizing the details of the spectrum in each band that have not
1530 been predicted by the pitch predictor. The PVQ codebook consists of all sums
1531 of K signed pulses in a vector of N samples, where two pulses at the same position
1532 are required to have the same sign. Thus the codebook includes 
1533 all integer codevectors y of N dimensions that satisfy sum(abs(y(j))) = K.
1534 </t>
1535
1536 <t>
1537 In bands where there are sufficient bits allocated the PVQ is used to encode
1538 the unit vector that results from the normalization in 
1539 <xref target="normalization"></xref> directly. Given a PVQ codevector y, 
1540 the unit vector X is obtained as X = y/||y||, where ||.|| denotes the 
1541 L2 norm.
1542 </t>
1543
1544
1545 <section anchor="pvq-search" title="PVQ Search">
1546
1547 <t>
1548 The search for the best codevector y is performed by alg_quant()
1549 (vq.c). There are several possible approaches to the 
1550 search with a tradeoff between quality and complexity. The method used in the reference
1551 implementation computes an initial codeword y1 by projecting the residual signal 
1552 R = X - p' onto the codebook pyramid of K-1 pulses:
1553 </t>
1554 <t>
1555 y0 = round_towards_zero( (K-1) * R / sum(abs(R)))
1556 </t>
1557
1558 <t>
1559 Depending on N, K and the input data, the initial codeword y0 may contain from 
1560 0 to K-1 non-zero values. All the remaining pulses, with the exception of the last one, 
1561 are found iteratively with a greedy search that minimizes the normalized correlation
1562 between y and R:
1563 </t>
1564
1565 <t>
1566 J = -R^T*y / ||y||
1567 </t>
1568
1569 <t>
1570 The search described above is considered to be a good trade-off between quality
1571 and computational cost. However, there are other possible ways to search the PVQ
1572 codebook and the implementors MAY use any other search methods.
1573 </t>
1574 </section>
1575
1576
1577 <section anchor="cwrs-encoding" title="Index Encoding">
1578 <t>
1579 The best PVQ codeword is encoded as a uniformly-distributed integer value
1580 by encode_pulses() (cwrs.c).
1581 The codeword is converted to a unique index in the same way as specified in 
1582 <xref target="PVQ"></xref>. The indexing is based on the calculation of V(N,K) (denoted N(L,K) in <xref target="PVQ"></xref>), which is the number of possible combinations of K pulses 
1583 in N samples. The number of combinations can be computed recursively as 
1584 V(N,K) = V(N+1,K) + V(N,K+1) + V(N+1,K+1), with V(N,0) = 1 and V(0,K) = 0, K != 0. 
1585 There are many different ways to compute V(N,K), including pre-computed tables and direct
1586 use of the recursive formulation. The reference implementation applies the recursive
1587 formulation one line (or column) at a time to save on memory use,
1588 along with an alternate,
1589 univariate recurrence to initialise an arbitrary line, and direct
1590 polynomial solutions for small N. All of these methods are
1591 equivalent, and have different trade-offs in speed, memory usage, and
1592 code size. Implementations MAY use any methods they like, as long as
1593 they are equivalent to the mathematical definition.
1594 </t>
1595
1596 <t>
1597 The indexing computations are performed using 32-bit unsigned integers. For large codebooks,
1598 32-bit integers are not sufficient. Instead of using 64-bit integers (or more), the encoding
1599 is for these cases is handled by splitting each band into two equal vectors of
1600 size N/2 prior to quantization. A quantized gain parameter with precision
1601 derived from the current allocation is entropy coded to represent the relative gains of each side of
1602 the split and the entire quantization process is recursively applied.
1603 Multiple levels of splitting may be applied upto a frame size dependent limit.
1604 The same recursive mechanism is applied for the joint coding of stereo
1605 audio.
1606 </t>
1607 </section>
1608
1609 </section>
1610
1611
1612 <section anchor="stereo" title="Stereo support">
1613 <t>
1614 When encoding a stereo stream, some parameters are shared across the left and right channels, while others are transmitted separately for each channel, or jointly encoded. Only one copy of the flags for the features, transients and pitch (pitch
1615 period and filter parameters) are transmitted. The coarse and fine energy parameters are transmitted separately for each channel. Both the coarse energy and fine energy (including the remaining fine bits at the end of the stream) have the left and right bands interleaved in the stream, with the left band encoded first.
1616 </t>
1617
1618 <t>
1619 The main difference between mono and stereo coding is the PVQ coding of the normalized vectors. In stereo mode, a normalized mid-side (M-S) encoding is used. Let L and R be the normalized vector of a certain band for the left and right channels, respectively. The mid and side vectors are computed as M=L+R and S=L-R and no longer have unit norm.
1620 </t>
1621
1622 <t>
1623 From M and S, an angular parameter theta=2/pi*atan2(||S||, ||M||) is computed. The theta parameter is converted to a Q14 fixed-point parameter itheta, which is quantized on a scale from 0 to 1 with an interval of 2^-qb, where qb is
1624 based the number of bits allocated to the band. From here on, the value of itheta MUST be treated in a bit-exact manner since both the encoder and decoder rely on it to infer the bit allocation.
1625 </t>
1626 <t>
1627 Let m=M/||M|| and s=S/||S||; m and s are separately encoded with the PVQ encoder described in <xref target="pvq"></xref>. The number of bits allocated to m and s depends on the value of itheta.
1628 </t>
1629
1630 </section>
1631
1632
1633 <section anchor="synthesis" title="Synthesis">
1634 <t>
1635 After all the quantization is completed, the quantized energy is used along with the 
1636 quantized normalized band data to resynthesize the MDCT spectrum. The inverse MDCT (<xref target="inverse-mdct"></xref>) and the weighted overlap-add are applied and the signal is stored in the <spanx style="emph">synthesis
1637 buffer</spanx>.
1638 The encoder MAY omit this step of the processing if it does not need the decoded output.
1639 </t>
1640 </section>
1641
1642 <section anchor="vbr" title="Variable Bitrate (VBR)">
1643 <t>
1644 Each CELT frame can be encoded in a different number of octets, making it possible to vary the bitrate at will. This property can be used to implement source-controlled variable bitrate (VBR). Support for VBR is OPTIONAL for the encoder, but a decoder MUST be prepared to decode a stream that changes its bit-rate dynamically. The method used to vary the bit-rate in VBR mode is left to the implementor, as long as each frame can be decoded by the reference decoder.
1645 </t>
1646 </section>
1647
1648 </section>
1649
1650 </section>
1651
1652
1653 <section title="Conformance">
1654
1655 <t>
1656 It is the intention to allow the greatest possible choice of freedom in 
1657 implementing the specification. For this reason, outside of a few exceptions
1658 noted in this section, conformance is defined through the reference
1659 implementation of the decoder provided in Appendix <xref target="ref-implementation"></xref>.
1660 Although this document includes an English description of the codec, should 
1661 the description contradict the source code of the reference implementation, 
1662 the latter shall take precedence.
1663 </t>
1664
1665 <t>
1666 Compliance with this specification means that a decoder's output MUST be
1667 within the thresholds specified compared to the reference implementation
1668 using the opus_compare.m tool in Appendix <xref
1669 target="opus-compare"></xref>.
1670 </t>
1671 </section>
1672
1673 <section anchor="security" title="Security Considerations">
1674
1675 <t>
1676 The codec needs to take appropriate security considerations 
1677 into account, as outlined in <xref target="DOS"/> and <xref target="SECGUIDE"/>.
1678 It is extremely important for the decoder to be robust against malicious
1679 payloads. Malicious payloads must not cause the decoder to overrun its
1680 allocated memory or to take much more resources to decode. Although problems
1681 in encoders are typically rarer, the same applies to the encoder. Malicious
1682 audio stream must not cause the encoder to misbehave because this would
1683 allow an attacker to attack transcoding gateways.
1684 </t>
1685 <t>
1686 The reference implementation contains no known buffer overflow or cases where
1687 a specially crafter packet or audio segment could cause a significant increase
1688 in CPU load. However, on certain CPU architectures where denormalized 
1689 floating-point operations are much slower it is possible for some audio content
1690 (e.g. silence or near-silence) to cause such an increase
1691 in CPU load. For such architectures, it is RECOMMENDED to add very small
1692 floating-point offsets to prevent significant numbers of denormalized
1693 operations or to configure the hardware to zeroize denormal numbers.
1694 No such issue exists for the fixed-point reference implementation.
1695 </t>
1696 </section> 
1697
1698
1699 <section title="IANA Considerations ">
1700 <t>
1701 This document has no actions for IANA.
1702 </t>
1703 </section>
1704
1705 <section anchor="Acknowledgments" title="Acknowledgments">
1706 <t>
1707 Thanks to all other developers, including Raymond Chen, Soeren Skak Jensen, Gregory Maxwell, 
1708 Christopher Montgomery, Karsten Vandborg Soerensen, and Timothy Terriberry.
1709 </t>
1710 </section> 
1711
1712 </middle>
1713
1714 <back>
1715
1716 <references title="Informative References">
1717
1718 <reference anchor='SILK'>
1719 <front>
1720 <title>SILK Speech Codec</title>
1721 <author initials='K.' surname='Vos' fullname='K. Vos'>
1722 <organization /></author>
1723 <author initials='S.' surname='Jensen' fullname='S. Jensen'>
1724 <organization /></author>
1725 <author initials='K.' surname='Soerensen' fullname='K. Soerensen'>
1726 <organization /></author>
1727 <date year='2010' month='March' />
1728 <abstract>
1729 <t></t>
1730 </abstract></front>
1731 <seriesInfo name='Internet-Draft' value='draft-vos-silk-01' />
1732 <format type='TXT' target='http://tools.ietf.org/html/draft-vos-silk-01' />
1733 </reference>
1734
1735       <reference anchor="laroia-icassp">
1736         <front>
1737           <title abbrev="Robust and Efficient Quantization of Speech LSP">
1738             Robust and Efficient Quantization of Speech LSP Parameters Using Structured Vector Quantization
1739           </title>
1740           <author initials="R.L." surname="Laroia" fullname="R.">
1741             <organization/>
1742           </author>
1743           <author initials="N.P." surname="Phamdo" fullname="N.">
1744             <organization/>
1745           </author>
1746           <author initials="N.F." surname="Farvardin" fullname="N.">
1747             <organization/>
1748           </author>
1749         </front>
1750         <seriesInfo name="ICASSP-1991, Proc. IEEE Int. Conf. Acoust., Speech, Signal Processing, pp. 641-644, October" value="1991"/>
1751       </reference>
1752
1753       <reference anchor="sinervo-norsig">
1754         <front>
1755           <title abbrev="SVQ versus MSVQ">Evaluation of Split and Multistage Techniques in LSF Quantization</title>
1756           <author initials="U.S." surname="Sinervo" fullname="Ulpu Sinervo">
1757             <organization/>
1758           </author>
1759           <author initials="J.N." surname="Nurminen" fullname="Jani Nurminen">
1760             <organization/>
1761           </author>
1762           <author initials="A.H." surname="Heikkinen" fullname="Ari Heikkinen">
1763             <organization/>
1764           </author>
1765           <author initials="J.S." surname="Saarinen" fullname="Jukka Saarinen">
1766             <organization/>
1767           </author>
1768         </front>
1769         <seriesInfo name="NORSIG-2001, Norsk symposium i signalbehandling, Trondheim, Norge, October" value="2001"/>
1770       </reference>
1771
1772       <reference anchor="leblanc-tsap">
1773         <front>
1774           <title>Efficient Search and Design Procedures for Robust Multi-Stage VQ of LPC Parameters for 4 kb/s Speech Coding</title>
1775           <author initials="W.P." surname="LeBlanc" fullname="">
1776             <organization/>
1777           </author>
1778           <author initials="B." surname="Bhattacharya" fullname="">
1779             <organization/>
1780           </author>
1781           <author initials="S.A." surname="Mahmoud" fullname="">
1782             <organization/>
1783           </author>
1784           <author initials="V." surname="Cuperman" fullname="">
1785             <organization/>
1786           </author>
1787         </front>
1788         <seriesInfo name="IEEE Transactions on Speech and Audio Processing, Vol. 1, No. 4, October" value="1993" />
1789       </reference>
1790
1791 <reference anchor='CELT'>
1792 <front>
1793 <title>Constrained-Energy Lapped Transform (CELT) Codec</title>
1794 <author initials='J-M.' surname='Valin' fullname='J-M. Valin'>
1795 <organization /></author>
1796 <author initials='T.' surname='Terriberry' fullname='T. Terriberry'>
1797 <organization /></author>
1798 <author initials='G.' surname='Maxwell' fullname='G. Maxwell'>
1799 <organization /></author>
1800 <author initials='C.' surname='Montgomery' fullname='C. Montgomery'>
1801 <organization /></author>
1802 <date year='2010' month='July' />
1803 <abstract>
1804 <t></t>
1805 </abstract></front>
1806 <seriesInfo name='Internet-Draft' value='draft-valin-celt-codec-02' />
1807 <format type='TXT' target='http://tools.ietf.org/html/draft-valin-celt-codec-02' />
1808 </reference>
1809
1810 <reference anchor='DOS'>
1811 <front>
1812 <title>Internet Denial-of-Service Considerations</title>
1813 <author initials='M.' surname='Handley' fullname='M. Handley'>
1814 <organization /></author>
1815 <author initials='E.' surname='Rescorla' fullname='E. Rescorla'>
1816 <organization /></author>
1817 <author>
1818 <organization>IAB</organization></author>
1819 <date year='2006' month='December' />
1820 <abstract>
1821 <t>This document provides an overview of possible avenues for denial-of-service (DoS) attack on Internet systems.  The aim is to encourage protocol designers and network engineers towards designs that are more robust.  We discuss partial solutions that reduce the effectiveness of attacks, and how some solutions might inadvertently open up alternative vulnerabilities.  This memo provides information for the Internet community.</t></abstract></front>
1822 <seriesInfo name='RFC' value='4732' />
1823 <format type='TXT' octets='91844' target='ftp://ftp.isi.edu/in-notes/rfc4732.txt' />
1824 </reference>
1825
1826 <reference anchor='SECGUIDE'>
1827 <front>
1828 <title>Guidelines for Writing RFC Text on Security Considerations</title>
1829 <author initials='E.' surname='Rescorla' fullname='E. Rescorla'>
1830 <organization /></author>
1831 <author initials='B.' surname='Korver' fullname='B. Korver'>
1832 <organization /></author>
1833 <date year='2003' month='July' />
1834 <abstract>
1835 <t>All RFCs are required to have a Security Considerations section.  Historically, such sections have been relatively weak.  This document provides guidelines to RFC authors on how to write a good Security Considerations section.  This document specifies an Internet Best Current Practices for the Internet Community, and requests discussion and suggestions for improvements.</t></abstract></front>
1836
1837 <seriesInfo name='BCP' value='72' />
1838 <seriesInfo name='RFC' value='3552' />
1839 <format type='TXT' octets='110393' target='ftp://ftp.isi.edu/in-notes/rfc3552.txt' />
1840 </reference>
1841
1842 <reference anchor="range-coding">
1843 <front>
1844 <title>Range encoding: An algorithm for removing redundancy from a digitised message</title>
1845 <author initials="G." surname="Nigel" fullname=""><organization/></author>
1846 <author initials="N." surname="Martin" fullname=""><organization/></author>
1847 <date year="1979" />
1848 </front>
1849 <seriesInfo name="Proc. Institution of Electronic and Radio Engineers International Conference on Video and Data Recording" value="" />
1850 </reference> 
1851
1852 <reference anchor="coding-thesis">
1853 <front>
1854 <title>Source coding algorithms for fast data compression</title>
1855 <author initials="R." surname="Pasco" fullname=""><organization/></author>
1856 <date month="May" year="1976" />
1857 </front>
1858 <seriesInfo name="Ph.D. thesis" value="Dept. of Electrical Engineering, Stanford University" />
1859 </reference>
1860
1861 <reference anchor="PVQ">
1862 <front>
1863 <title>A Pyramid Vector Quantizer</title>
1864 <author initials="T." surname="Fischer" fullname=""><organization/></author>
1865 <date month="July" year="1986" />
1866 </front>
1867 <seriesInfo name="IEEE Trans. on Information Theory, Vol. 32" value="pp. 568-583" />
1868 </reference> 
1869
1870 </references> 
1871
1872 <section anchor="ref-implementation" title="Reference Implementation">
1873
1874 <t>This appendix contains the complete source code for the
1875 reference implementation of the Opus codec written in C. This
1876 implementation can be compiled for 
1877 either floating-point or fixed-point architectures.
1878 </t>
1879
1880 <t>The implementation can be compiled with either a C89 or a C99
1881 compiler. It is reasonably optimized for most platforms such that
1882 only architecture-specific optimizations are likely to be useful.
1883 The FFT used is a slightly modified version of the KISS-FFT package,
1884 but it is easy to substitute any other FFT library.
1885 </t>
1886
1887 <section title="Extracting the source">
1888 <t>
1889 The complete source code can be extracted from this draft, by running the
1890 following command line:
1891
1892 <list style="symbols">
1893 <t><![CDATA[
1894 cat draft-ietf-codec-opus.txt | grep '^\ \ \ ###' | sed 's/\s\s\s###//' | base64 -d > opus_source.tar.gz
1895 ]]></t>
1896 <t>
1897 tar xzvf opus_source.tar.gz
1898 </t>
1899 <t>cd opus_source</t>
1900 <t>make</t>
1901 </list>
1902
1903 </t>
1904 </section>
1905
1906 <section title="Base64-encoded source code">
1907 <t>
1908 <?rfc include="opus_source.base64"?>
1909 </t>
1910 </section>
1911
1912 </section>
1913
1914 <section anchor="opus-compare" title="opus_compare.m">
1915 <t>
1916 <?rfc include="opus_compare_escaped.m"?>
1917 </t>
1918 </section>
1919
1920 </back>
1921
1922 </rfc>