afbfa93642e92e493a7d3a9b2afaa5bfa93086dc
[opus.git] / doc / draft-ietf-codec-opus.xml
1 <?xml version="1.0" encoding="utf-8"?>
2 <!DOCTYPE rfc SYSTEM 'rfc2629.dtd'>
3 <?rfc toc="yes" symrefs="yes" ?>
4
5 <rfc ipr="trust200902" category="std" docName="draft-ietf-codec-opus-06">
6
7 <front>
8 <title abbrev="Interactive Audio Codec">Definition of the Opus Audio Codec</title>
9
10
11 <author initials="JM" surname="Valin" fullname="Jean-Marc Valin">
12 <organization>Octasic Inc.</organization>
13 <address>
14 <postal>
15 <street>4101, Molson Street</street>
16 <city>Montreal</city>
17 <region>Quebec</region>
18 <code></code>
19 <country>Canada</country>
20 </postal>
21 <phone>+1 514 282-8858</phone>
22 <email>jean-marc.valin@octasic.com</email>
23 </address>
24 </author>
25
26 <author initials="K." surname="Vos" fullname="Koen Vos">
27 <organization>Skype Technologies S.A.</organization>
28 <address>
29 <postal>
30 <street>Stadsgarden 6</street>
31 <city>Stockholm</city>
32 <region></region>
33 <code>11645</code>
34 <country>SE</country>
35 </postal>
36 <phone>+46 855 921 989</phone>
37 <email>koen.vos@skype.net</email>
38 </address>
39 </author>
40
41
42 <date day="31" month="March" year="2011" />
43
44 <area>General</area>
45
46 <workgroup></workgroup>
47
48 <abstract>
49 <t>
50 This document describes the Opus codec, designed for interactive speech and audio 
51 transmission over the Internet.
52 </t>
53 </abstract>
54 </front>
55
56 <middle>
57
58 <section anchor="introduction" title="Introduction">
59 <t>
60 We propose the Opus codec, based on a linear prediction layer (LP) and an
61 MDCT-based layer. The main idea behind the proposal is that
62 in speech, low frequencies are usually more efficiently coded using
63 linear prediction codecs (such as CELP variants), while music and higher speech frequencies
64 are more efficiently coded in the transform domain (e.g. MDCT). For low 
65 sampling rates, the MDCT layer is not useful and only the LP-based layer is
66 used. On the other hand, non-speech signals are not always adequately coded
67 using linear prediction, so for music only the MDCT-based layer is used.
68 </t>
69
70 <t>
71 The Opus LP layer is based on the 
72 <eref target='http://developer.skype.com/silk'>SILK</eref> codec 
73 <xref target="SILK"></xref> while the MDCT layer is based on the 
74 <eref target='http://www.celt-codec.org/'>CELT</eref>  codec
75  <xref target="CELT"></xref>.
76 </t>
77
78 <t>The primary normative part of this specification is provided by the source
79 code part of the document. The codec contains significant amounts of fixed-point
80 arithmetic which must be performed exactly, including all rounding considerations,
81 and so any useful specification must make extensive use of domain-specific
82 symbolic language to adequately define these operations. Additionally, any
83 conflict between the symbolic representation and the included reference
84 implementation must be resolved. For the practical reasons of compatibility and
85 testability it would be advantageous to give the reference implementation to
86 have priority in any disagreement. The C language is also one of the most
87 widely understood human-readable symbolic representations for machine
88 behavior. For these reasons this RFC utilizes the reference implementation
89 as the sole symbolic representation of the codec.</t>
90
91 <t>While the symbolic representation is unambiguous and complete it is not
92 always the easiest way to understand the codec's operation. For this reason
93 this document also describes significant parts of the codec in English and
94 takes the opportunity to explain the rationale behind many of the more
95 surprising elements of the design. These descriptions are intended to be
96 accurate and informative, but the limitations of common english sometimes
97 result in ambiguity, so it is intended that the reader will always read
98 them alongside the symbolic representation. Numerous references to the
99 implementation are provided for this purpose. The descriptions sometimes
100 differ from the reference in ordering or through mathematical simplification
101 wherever such deviation made an explanation easier to understand.
102 For example, the right shift and left shift operations in the reference
103 implementation are often described using division and multiplication in the text.
104 In general, the text is focused on the 'what' and 'why' while the symbolic
105 representation most clearly provides the 'how'.
106 </t>
107
108 </section>
109
110 <section anchor="hybrid" title="Opus Codec">
111
112 <t>
113 In hybrid mode, each frame is coded first by the LP layer and then by the MDCT 
114 layer. In the current prototype, the cutoff frequency is 8 kHz. In the MDCT
115 layer, all bands below 8 kHz are discarded, such that there is no coding
116 redundancy between the two layers. Also, both layers use the same instance of 
117 the range coder to encode the signal, which ensures that no "padding bits" are
118 wasted. The hybrid approach makes it easy to support both constant bit-rate
119 (CBR) and varaible bit-rate (VBR) coding. Although the SILK layer used is VBR,
120 it is easy to make the bit allocation of the CELT layer produce a final stream
121 that is CBR by using all the bits left unused by the SILK layer.
122 </t>
123
124 <t>
125 In addition to their frame size, the SILK and CELT codecs require
126 a look-ahead of 5.2 ms and 2.5 ms, respectively. SILK's look-ahead is due to
127 noise shaping estimation (5 ms) and the internal resampling (0.2 ms), while
128 CELT's look-ahead is due to the overlapping MDCT windows. To compensate for the
129 difference, the CELT encoder input is delayed by 2.7 ms. This ensures that low
130 frequencies and high frequencies arrive at the same time.
131 </t>
132
133
134 <section title="Source Code">
135 <t>
136 The source code is currently available in a
137 <eref target='git://git.xiph.org/users/jm/ietfcodec.git'>Git repository</eref> 
138 which references two other
139 repositories (for SILK and CELT). Development snapshots are provided at 
140 <eref target='http://opus-codec.org/'/>.
141
142 </t>
143 </section>
144
145 </section>
146
147 <section anchor="modes" title="Codec Modes">
148 <t>
149 There are three possible operating modes for the proposed prototype:
150 <list style="numbers">
151 <t>A linear prediction (LP) mode for use in low bit-rate connections with up to 8 kHz audio bandwidth (16 kHz sampling rate)</t>
152 <t>A hybrid (LP+MDCT) mode for full-bandwidth speech at medium bitrates</t>
153 <t>An MDCT-only mode for very low delay speech transmission as well as music transmission.</t>
154 </list>
155 Each of these modes supports a number of different frame sizes and sampling
156 rates. In order to distinguish between the various modes and configurations,
157 we define a single-byte table-of-contents (TOC) header that can used in the transport layer 
158 (e.g., RTP) to signal this information. The following describes the proposed
159 TOC byte.
160 </t>
161
162 <t>
163 The LP mode supports the following configurations (numbered from 0 to 11):
164 <list style="symbols">
165 <t>8 kHz:  10, 20, 40, 60 ms (0..3)</t>
166 <t>12 kHz: 10, 20, 40, 60 ms (4..7)</t>
167 <t>16 kHz: 10, 20, 40, 60 ms (8..11)</t>
168 </list>
169 for a total of 12 configurations.
170 </t>
171
172 <t>
173 The hybrid mode supports the following configurations (numbered from 12 to 15):
174 <list style="symbols">
175 <t>32 kHz: 10, 20 ms (12..13)</t>
176 <t>48 kHz: 10, 20 ms (14..15)</t>
177 </list>
178 for a total of 4 configurations.
179 </t>
180
181 <t>
182 The MDCT-only mode supports the following configurations (numbered from 16 to 31):
183 <list style="symbols">
184 <t>8 kHz:  2.5, 5, 10, 20 ms (16..19)</t>
185 <t>16 kHz: 2.5, 5, 10, 20 ms (20..23)</t>
186 <t>32 kHz: 2.5, 5, 10, 20 ms (24..27)</t>
187 <t>48 kHz: 2.5, 5, 10, 20 ms (28..31)</t>
188 </list>
189 for a total of 16 configurations.
190 </t>
191
192 <t>
193 There is thus a total of 32 configurations, encoded in 5 bits. One bit is used to signal mono vs stereo, which leaves 2 bits for the number of frames per packets (codes 0 to 3):
194 <list style="symbols">
195 <t>0:    1 frame in the packet</t>
196 <t>1:    2 frames in the packet, each with equal compressed size</t>
197 <t>2:    2 frames in the packet, with different compressed size</t>
198 <t>3:    arbitrary number of frames in the packet</t>
199 </list>
200 For code 2, the TOC byte is followed by the length of the first frame, encoded as described below.
201 For code 3, the TOC byte is followed by a byte encoding the number of frames in the packet, with 
202 bit 7 indicating VBR and bit 6 indicating that padding is inserted. In the VBR case, the byte 
203 indicating the number of frames is followed by N-1 frame 
204 lengths encoded as described below. As an additional limit, the audio duration contained
205 within a packet MUST NOT exceed 120 ms.
206 </t>
207
208 <t>
209 When padding is used, the number of bytes of padding is encoded in the following bytes. Values 
210 from 0-254 indicate that 0-254 bytes of padding are included at the end. If the value is 255,
211 then the padding is 254 bytes, plus the padding value encoded in the next byte. By using code
212 255 multiple times, it is possible to add any amount of padding. The padding bytes produced by
213 the encoder MUST be zero, but the decoder MUST accept any value for the padding bytes. 
214 </t>
215
216 <t>
217 The compressed size of the frames (if needed) is indicated -- usually -- with one byte, with the following meaning:
218 <list style="symbols">
219 <t>0:          No frame (DTX or lost packet)</t>
220 <t>1-251:      Size of the frame in bytes</t>
221 <t>252-255:    A second byte is needed. The total size is (size[1]*4)+size[0]</t>
222 </list>
223 </t>
224
225 <t>
226 The maximum size representable is 255*4+255=1275 bytes. For 20 ms frames, that 
227 represents a bit-rate of 510 kb/s, which is really the highest rate anyone would want 
228 to use in stereo mode.
229 Beyond that point, lossless codecs would be more appropriate.
230 It is also roughly the maximum useful rate of the MDCT layer, as shortly
231 thereafter additional bits are no longer able to improve quality.
232 </t>
233
234 <section anchor="examples" title="Examples">
235 <t>
236 Simplest case: one narrowband mono 20-ms SILK frame
237 </t>
238
239 <t>
240 <figure>
241 <artwork><![CDATA[
242  0                   1                   2                   3
243  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
244 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
245 |    1    |0|0|0|               compressed data...              |
246 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
247 ]]></artwork>
248 </figure>
249 </t>
250
251 <t>
252 Two 48 kHz mono 5 ms CELT frames of the same compressed size:
253 </t>
254
255 <t>
256 <figure>
257 <artwork><![CDATA[
258  0                   1                   2                   3
259  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
260 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
261 |    29   |0|0|1|               compressed data...              |
262 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
263 ]]></artwork>
264 </figure>
265 </t>
266
267 <t>
268 Two 48 kHz mono 20-ms hybrid frames of different compressed size:
269 </t>
270
271 <t>
272 <figure>
273 <artwork><![CDATA[
274  0                   1                   2                   3
275  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
276 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
277 |    15   |0|1|1|       2       |   frame size  |compressed data|
278 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
279 |                       compressed data...                      |
280 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
281 ]]></artwork>
282 </figure>
283 </t>
284
285 <t>
286 Four 48 kHz stereo 20-ms CELT frame of the same compressed size:
287
288 </t>
289
290 <t>
291 <figure>
292 <artwork><![CDATA[
293  0                   1                   2                   3
294  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
295 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
296 |    31   |1|1|0|       4       |      compressed data...       |
297 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
298 ]]></artwork>
299 </figure>
300 </t>
301 </section>
302
303
304 </section>
305
306 <section title="Opus Decoder">
307 <t>
308 The Opus decoder consists of two main blocks: the SILK decoder and the CELT decoder. 
309 The output of the Opus decode is the sum of the outputs from the SILK and CELT decoders
310 with proper sample rate conversion and delay compensation as illustrated in the
311 block diagram below. At any given time, one or both of the SILK and CELT decoders
312 may be active. 
313 <figure>
314 <artwork>
315 <![CDATA[
316                        +-------+    +----------+
317                        | SILK  |    |  sample  |
318                     +->|encoder|--->|   rate   |----+
319 bit-    +-------+   |  |       |    |conversion|    v
320 stream  | Range |---+  +-------+    +----------+  /---\  audio
321 ------->|decoder|                                 | + |------>
322         |       |---+  +-------+    +----------+  \---/
323         +-------+   |  | CELT  |    | Delay    |    ^
324                     +->|decoder|----| compens- |----+
325                        |       |    | ation    |
326                        +-------+    +----------+
327 ]]>
328 </artwork>
329 </figure>
330 </t>
331
332 <section anchor="range-decoder" title="Range Decoder">
333 <t>
334 Opus uses an entropy coder based upon <xref target="range-coding"></xref>, 
335 which is itself a rediscovery of the FIFO arithmetic code introduced by <xref target="coding-thesis"></xref>.
336 It is very similar to arithmetic encoding, except that encoding is done with
337 digits in any base instead of with bits, 
338 so it is faster when using larger bases (i.e., an octet). All of the
339 calculations in the range coder must use bit-exact integer arithmetic.
340 </t>
341 <t>
342 Each symbol is drawn from a finite alphabet and coded in a separate
343 <spanx style="emph">context</spanx> which describes the size of the
344 alphabet and the relative frequency of each symbol in that alphabet.
345 Opus only uses static contexts; they are not adapted to the
346 statistics of the data that is coded.
347 </t>
348 <t>
349    The parameters needed to encode or decode a symbol in a given context are
350    represented by a three-tuple (fl,fh,ft), with
351    0 &lt;= fl &lt; fh &lt;= ft &lt;= 65535.
352    The values of this tuple are derived from the probability model for the
353    symbol, represented by traditional
354    <spanx style="emph">frequency counts</spanx> (although, since
355    Opus uses static contexts, these are not updated as symbols are decoded).
356    Let f(i) be the frequency of the ith symbol in the current context.
357    Then the three-tuple corresponding to the kth symbol is given by
358    <![CDATA[
359 fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
360 ]]>
361 </t>
362 <t>
363 The range decoder extracts the symbols and integers encoded using the range encoder in
364 <xref target="range-encoder"></xref>. The range decoder maintains an internal
365 state vector composed of the two-tuple (val,rng), representing the
366 difference between the high end of the current range and the actual
367 coded value, minus one, and the size of the current range, respectively. Both
368 val and rng are 32-bit unsigned integer values. rng is initialized to
369 2^7. val is initialized to rng minus the top 7 bits of the first
370 input octet, minus one. Then the range is immediately normalized, using the
371 procedure described in the following section.
372 </t>
373
374 <section anchor="decoding-symbols" title="Decoding Symbols">
375 <t>
376    Decoding symbols is a two-step process. The first step determines
377    a value fs, which lies within the range of some symbol in the current
378    context. The second step updates the range decoder state with the
379    three-tuple (fl,fh,ft) corresponding to that symbol.
380 </t>
381 <t>
382    The first step is implemented by ec_decode()
383    (entdec.c),
384    and computes fs = ft-min(val/(rng/ft)+1,ft).
385    The divisions here are exact integer division.
386 </t>
387 <t>
388    The decoder then identifies the symbol in the current context
389    corresponding to fs; i.e., the one whose three-tuple (fl,fh,ft)
390    satisfies fl &lt;= fs &lt; fh. This tuple is used to update the decoder
391    state according to dif = dif - (rng/ft)*(ft-fh), and if fl is greater
392    than zero, rng = (rng/ft)*(fh-fl), or otherwise rng = rng - (rng/ft)*(ft-fh). After this update, the range is normalized.
393 </t>
394 <t>
395    To normalize the range, the following process is repeated until
396    rng > 2^23. First, rng is set to (rng&lt;&lt;8)&amp;0xFFFFFFFF. Then the next
397    8 bits of input are read into sym, using the remaining bit from the
398    previous input octet as the high bit of sym, and the top 7 bits of the
399    next octet for the remaining bits of sym. If no more input octets
400    remain, zero bits are used instead. Then, val is set to
401    (val&lt;&lt;8)+256-sym-1&amp;0x7FFFFFFF.
402    If a decoder consumes all of the bytes allocated to the current frame, it
403    MUST continue to use zero where any further input bytes are required.
404    This process is carried out by ec_dec_normalize() (entdec.c).
405 </t>
406 </section>
407
408 <section anchor="decoding-alternate" title="Alternate Decoding Methods">
409 <t>
410 The reference implementation uses three additional decoding methods that are
411 exactly equivalent to the above, but make assumptions and simplifications that
412 allow for a much more efficient implementation.
413 </t>
414 <t>
415    The first is ec_decode_bin (entdec.c), which is defined using the parameter
416    ftb instead of ft.
417    It is mathematically equivalent to calling ec_decode() with
418    ft = (1&lt;&lt;ftb), but avoids one of the divisions.
419 </t>
420 <t>
421    The next is ec_dec_bit_logp() (entdec.c), which decodes a single binary
422    symbol, replacing both the ec_decode() and ec_dec_update() steps.
423    The context is described by a single parameter, logp, which is the (negative
424    of the) base-2 logarithm of the probability of a '1'.
425    It is mathematically equivalent to calling ec_decode() with
426    ft = (1&lt;&lt;logp), followed by ec_dec_update() with
427    fl = 0, fh = (1&lt;&lt;logp)-1, ft = (1&lt;&lt;logp) if the returned value
428    of fs is less than (1&lt;&lt;logp)-1 (a '0' was decoded), and with
429    fl = (1&lt;&lt;logp)-1, fh = ft = (1&lt;&lt;logp) otherwise (a '1' was
430    decoded), but it avoids all multiplications and divisions.
431 </t>
432 <t>
433    The last is ec_dec_icdf() (entdec.c), which decodes a single symbol with a
434    table-based context of up to 8 bits, also replacing both the ec_decode() and
435    ec_dec_update() steps, as well as the search for the decoded symbol
436    inbetween.
437    The context is described by two parameters, an icdf
438    (<spanx style="emph">inverse</spanx> cumulative distribution function)
439    table and ftb.
440    As with ec_decode_bin(), (1&lt;&lt;ftb) is equivalent to ft.
441    idcf[k], on the other hand, stores (1&lt;&lt;ftb)-fh for the kth symbol in
442    the context, which is equal to (1&lt;&lt;ftb)-fl for the (k+1)st symbol.
443    fl for the 0th symbol is assumed to be 0, and the table is terminated by a
444    value of 0 (where fh == ft).
445    It is mathematically equivalent to calling ec_decode() with
446    ft = (1&lt;&lt;ftb), using the returned value fs to search the table for the
447    first entry where (1&lt;&lt;ftb)-fs &gt; icdf[k], and calling
448    ec_dec_update() with fl = (1&lt;&lt;ftb)-icdf[k-1] (or 0 if k == 0),
449    fh = (1&lt;&lt;ftb)-idcf[k], and ft = (1&lt;&lt;ftb).
450    Combining the search with the update allows the division to be replaced by a
451    series of multiplications (which are much cheaper), and using an inverse
452    CDF allows the representation of frequencies up to 256 in an 8-bit table
453    without any special cases.
454 </t>
455 </section>
456
457 <section anchor="decoding-bits" title="Decoding Raw Bits">
458 <t>
459    The CELT layer also allows directly encoding a series of
460    <spanx style="emph">raw</spanx> bits, outside
461    of the range coder, implemented in ec_dec_bits() (entdec.c).
462    This is both more efficient, and more robust to bit-errors, which will
463    desynchronize the range coder.
464    The raw bits are packed at the end of the packet, starting by storing the
465    least significant bit of the value to be packed in the least significant bit
466    of the last byte, filling up to the most significant bit in
467    the last byte, and the continuing in the least significant bit of the
468    penultimate byte, and so on.
469    Because the range decoder must read several bytes ahead in the stream, the
470    input consumed by raw bits MAY overlap with the input consumed by the range
471    coder, and a decoder MUST allow this.
472    The format should render it impossible to attempt to read more raw bits than
473    there are actual bits in the frame, though a decoder MAY wish to check for
474    this and report an error.
475 </t>
476 </section>
477
478 <section anchor="decoding-ints" title="Decoding Uniformly Distributed Integers">
479 <t>
480    The ec_dec_uint() function is based on ec_decode() and decodes one of N
481    equiprobable symbols, each with a frequency of 1, where N may be as large as
482    2^32-1.
483    Because ec_decode() is limited to a total frequency of 2^16-1, this is done
484    by decoding a series of symbols in smaller contexts.
485 </t>
486
487 <t>
488    ec_dec_uint() (entdec.c) takes a single parameter,
489    ft, which is not necessarily a power of two, and returns an integer,
490    t, with a value between 0 and ft-1, inclusive, which is initialized to zero. Let
491    ftb be the location of the highest 1 bit in the two's-complement
492    representation of (ft-1), or -1 if no bits are set. If ftb>8, then
493    the top 8 bits of t are decoded using t = ec_decode((ft-1>>ftb-8)+1),
494    the decoder state is updated with the three-tuple
495    (t,t+1,(ft-1&gt;&gt;ftb-8)+1), and the remaining bits are decoded with
496    t = t&lt;&lt;ftb-8|ec_dec_bits(ftb-8). If, at this point, t >= ft, then
497    the current frame is corrupt.
498    In that case, the decoder should assume there has been an error in the
499    coding, decoding, or transmission and SHOULD take measures to conceal the
500    error and/or report to the application that a problem has occurred.
501    If the
502    original value of ftb was not greater than 8, then t is decoded with
503    t = ec_decode(ft), and the decoder state is updated with the
504    three-tuple (t,t+1,ft).
505 </t>
506 </section>
507
508 <section anchor="decoder-tell" title="Current Bit Usage">
509 <t>
510    The bit allocation routines in CELT need to be able to determine a
511    conservative upper bound on the number of bits that have been used
512    from the current frame thus far. This drives allocation
513    decisions which must match those made in the encoder. This is
514    computed in the reference implementation to whole-bit precision by
515    the function ec_tell() (entcode.h) and to fractional 1/8th bit
516    precision by the function ec_tell_frac() (entcode.c).
517    Like all operations in the range coder, it must be implemented in a
518    bit-exact manner, and must produce exactly the same value returned by
519    the same functions in the encoder after encoding the same symbols.
520 </t>
521 </section>
522
523 </section>
524
525       <section anchor='outline_decoder' title='SILK Decoder'>
526         <t>
527           At the receiving end, the received packets are by the range decoder split into a number of frames contained in the packet. Each of which contains the necessary information to reconstruct a 20 ms frame of the output signal.
528         </t>
529         <section title="Decoder Modules">
530           <t>
531             An overview of the decoder is given in <xref target="decoder_figure" />.
532             <figure align="center" anchor="decoder_figure">
533               <artwork align="center">
534                 <![CDATA[
535    
536    +---------+    +------------+    
537 -->| Range   |--->| Decode     |---------------------------+
538  1 | Decoder | 2  | Parameters |----------+       5        |
539    +---------+    +------------+     4    |                |
540                        3 |                |                |
541                         \/               \/               \/
542                   +------------+   +------------+   +------------+
543                   | Generate   |-->| LTP        |-->| LPC        |-->
544                   | Excitation |   | Synthesis  |   | Synthesis  | 6
545                   +------------+   +------------+   +------------+
546
547 1: Range encoded bitstream
548 2: Coded parameters
549 3: Pulses and gains
550 4: Pitch lags and LTP coefficients
551 5: LPC coefficients
552 6: Decoded signal
553 ]]>
554               </artwork>
555               <postamble>Decoder block diagram.</postamble>
556             </figure>
557           </t>
558
559           <section title='Range Decoder'>
560             <t>
561               The range decoder decodes the encoded parameters from the received bitstream. Output from this function includes the pulses and gains for the excitation signal generation, as well as LTP and LSF codebook indices, which are needed for decoding LTP and LPC coefficients needed for LTP and LPC synthesis filtering the excitation signal, respectively.
562             </t>
563           </section>
564
565           <section title='Decode Parameters'>
566             <t>
567               Pulses and gains are decoded from the parameters that were decoded by the range decoder.
568             </t>
569
570             <t>
571               When a voiced frame is decoded and LTP codebook selection and indices are received, LTP coefficients are decoded using the selected codebook by choosing the vector that corresponds to the given codebook index in that codebook. This is done for each of the four subframes.
572               The LPC coefficients are decoded from the LSF codebook by first adding the chosen vectors, one vector from each stage of the codebook. The resulting LSF vector is stabilized using the same method that was used in the encoder, see
573               <xref target='lsf_stabilizer_overview_section' />. The LSF coefficients are then converted to LPC coefficients, and passed on to the LPC synthesis filter.
574             </t>
575           </section>
576
577           <section title='Generate Excitation'>
578             <t>
579               The pulses signal is multiplied with the quantization gain to create the excitation signal.
580             </t>
581           </section>
582
583           <section title='LTP Synthesis'>
584             <t>
585               For voiced speech, the excitation signal e(n) is input to an LTP synthesis filter that will recreate the long term correlation that was removed in the LTP analysis filter and generate an LPC excitation signal e_LPC(n), according to
586               <figure align="center">
587                 <artwork align="center">
588                   <![CDATA[
589                    d
590                   __
591 e_LPC(n) = e(n) + \  e(n - L - i) * b_i,
592                   /_
593                  i=-d
594 ]]>
595                 </artwork>
596               </figure>
597               using the pitch lag L, and the decoded LTP coefficients b_i.
598
599               For unvoiced speech, the output signal is simply a copy of the excitation signal, i.e., e_LPC(n) = e(n).
600             </t>
601           </section>
602
603           <section title='LPC Synthesis'>
604             <t>
605               In a similar manner, the short-term correlation that was removed in the LPC analysis filter is recreated in the LPC synthesis filter. The LPC excitation signal e_LPC(n) is filtered using the LTP coefficients a_i, according to
606               <figure align="center">
607                 <artwork align="center">
608                   <![CDATA[
609                  d_LPC
610                   __
611 y(n) = e_LPC(n) + \  e_LPC(n - i) * a_i,
612                   /_
613                   i=1
614 ]]>
615                 </artwork>
616               </figure>
617               where d_LPC is the LPC synthesis filter order, and y(n) is the decoded output signal.
618             </t>
619           </section>
620         </section>
621       </section>
622
623
624 <section title="CELT Decoder">
625
626 <t>
627 Insert decoder figure.
628
629 </t>
630
631 <texttable anchor='table_example'>
632 <ttcol align='center'>Symbol(s)</ttcol>
633 <ttcol align='center'>PDF</ttcol>
634 <ttcol align='center'>Condition</ttcol>
635 <c>silence</c>      <c>[32767, 1]/32768</c> <c></c>
636 <c>post-filter</c>  <c>[1, 1]/2</c> <c></c>
637 <c>octave</c>       <c>uniform (6)</c><c>post-filter</c>
638 <c>period</c>       <c>raw bits (4+octave)</c><c>post-filter</c>
639 <c>gain</c>         <c>raw bits (3)</c><c>post-filter</c>
640 <c>tapset</c>       <c>[2, 1, 1]/4</c><c>post-filter</c>
641 <c>transient</c>    <c>[7, 1]/8</c><c></c>
642 <c>intra</c>        <c>[7, 1]/8</c><c></c>
643 <c>coarse energy</c><c><xref target="energy-decoding"/></c><c></c>
644 <c>tf_change</c>    <c><xref target="transient-decoding"/></c><c></c>
645 <c>tf_select</c>    <c>[1, 1]/2</c><c><xref target="transient-decoding"/></c>
646 <c>spread</c>       <c>[7, 2, 21, 2]/32</c><c></c>
647 <c>dyn. alloc.</c>  <c><xref target="allocation"/></c><c></c>
648 <c>alloc. trim</c>  <c>[2, 2, 5, 10, 22, 46, 22, 10, 5, 2, 2]/128</c><c></c>
649 <c>skip</c>         <c>[1, 1]/2</c><c><xref target="allocation"/></c>
650 <c>intensity</c>    <c>uniform</c><c><xref target="allocation"/></c>
651 <c>dual</c>         <c>[1, 1]/2</c><c></c>
652 <c>fine energy</c>  <c><xref target="energy-decoding"/></c><c></c>
653 <c>residual</c>     <c><xref target="PVQ-decoder"/></c><c></c>
654 <c>anti-collapse</c><c>[1, 1]/2</c><c><xref target="anti-collapse"/></c>
655 <c>finalize</c>     <c><xref target="energy-decoding"/></c><c></c>
656 <postamble>Order of the symbols in the CELT section of the bit-stream.</postamble>
657 </texttable>
658
659 <t>
660 The decoder extracts information from the range-coded bit-stream in the order
661 described in the figure above. In some circumstances, it is 
662 possible for a decoded value to be out of range due to a very small amount of redundancy
663 in the encoding of large integers by the range coder.
664 In that case, the decoder should assume there has been an error in the coding, 
665 decoding, or transmission and SHOULD take measures to conceal the error and/or report
666 to the application that a problem has occurred.
667 </t>
668
669 <section anchor="transient-decoding" title="Transient Decoding">
670 <t>
671 The <spanx style="emph">transient</spanx> flag encoded in the bit-stream has a
672 probability of 1/8. When it is set, then the MDCT coefficients represent multiple 
673 short MDCTs in the frame. When not set, the coefficients represent a single
674 long MDCT for the frame. In addition to the global transient flag is a per-band
675 binary flag to change the time-frequency (tf) resolution independently in each band. The 
676 change in tf resolution is defined in tf_select_table[][] in celt.c and depends
677 on the frame size, whether the transient flag is set, and the value of tf_select.
678 The tf_select flag uses a 1/2 probability, but is only decoded 
679 if it can have an impact on the result knowing the value of all per-band
680 tf_change flags. 
681 </t>
682 </section>
683
684 <section anchor="energy-decoding" title="Energy Envelope Decoding">
685
686 <t>
687 It is important to quantize the energy with sufficient resolution because
688 any energy quantization error cannot be compensated for at a later
689 stage. Regardless of the resolution used for encoding the shape of a band,
690 it is perceptually important to preserve the energy in each band. CELT uses a 
691 three-step coarse-fine-fine strategy for encoding the energy in the base-2 log
692 domain, as implemented in quant_bands.c</t>
693
694 <section anchor="coarse-energy-decoding" title="Coarse energy decoding">
695 <t>
696 Coarse quantization of the energy uses a fixed resolution of 6 dB
697 (integer part of base-2 log). To minimize the bitrate, prediction is applied
698 both in time (using the previous frame) and in frequency (using the previous
699 bands). The part of the prediction that is based on the
700 previous frame can be disabled, creating an "intra" frame where the energy
701 is coded without reference to prior frames. The decoder first reads the intra flag
702 to determine what prediction is used.
703 The 2-D z-transform of
704 the prediction filter is: A(z_l, z_b)=(1-a*z_l^-1)*(1-z_b^-1)/(1-b*z_b^-1)
705 where b is the band index and l is the frame index. The prediction coefficients
706 applied depend on the frame size in use when not using intra energy and a=0 b=4915/32768
707 when using intra energy.
708 The time-domain prediction is based on the final fine quantization of the previous
709 frame, while the frequency domain (within the current frame) prediction is based
710 on coarse quantization only (because the fine quantization has not been computed
711 yet). The prediction is clamped internally so that fixed point implementations with
712 limited dynamic range to not suffer desynchronization.  
713 We approximate the ideal
714 probability distribution of the prediction error using a Laplace distribution
715 with seperate parameters for each frame size in intra and inter-frame modes. The
716 coarse energy quantization is performed by unquant_coarse_energy() and 
717 unquant_coarse_energy_impl() (quant_bands.c). The encoding of the Laplace-distributed values is
718 implemented in ec_laplace_decode() (laplace.c).
719 </t>
720
721 </section>
722
723 <section anchor="fine-energy-decoding" title="Fine energy quantization">
724 <t>
725 The number of bits assigned to fine energy quantization in each band is determined
726 by the bit allocation computation described in <xref target="allocation"></xref>. 
727 Let B_i be the number of fine energy bits 
728 for band i; the refinement is an integer f in the range [0,2^B_i-1]. The mapping between f
729 and the correction applied to the coarse energy is equal to (f+1/2)/2^B_i - 1/2. Fine
730 energy quantization is implemented in quant_fine_energy() (quant_bands.c). 
731 </t>
732 <t>
733 When some bits are left "unused" after all other flags have been decoded, these bits
734 are assigned to a "final" step of fine allocation. In effect, these bits are used
735 to add one extra fine energy bit per band per channel. The allocation process 
736 determines two <spanx style="emph">priorities</spanx> for the final fine bits. 
737 Any remaining bits are first assigned only to bands of priority 0, starting 
738 from band 0 and going up. If all bands of priority 0 have received one bit per
739 channel, then bands of priority 1 are assigned an extra bit per channel, 
740 starting from band 0. If any bit is left after this, they are left unused.
741 This is implemented in unquant_energy_finalise() (quant_bands.c).
742 </t>
743
744 </section> <!-- fine energy -->
745
746 </section> <!-- Energy decode -->
747
748 <section anchor="allocation" title="Bit allocation">
749 <t>Many codecs transmit significant amounts of side information for
750 the purpose of controlling bit allocation within a frame. Often this
751 side information controls bit usage indirectly and must be carefully
752 selected to achieve the desired rate constraints.</t>
753
754 <t>The band-energy normalized structure of Opus MDCT mode ensures that a
755 constant bit allocation for the shape content of a band will result in a
756 roughly constant tone to noise ratio, which provides for fairly consistent
757 perceptual performance. The effectiveness of this approach is the result of
758 two factors: The band energy, which is understood to be perceptually
759 important on its own, is always preserved regardless of the shape precision and because
760 the constant tone-to-noise ratio implies a constant intra-band noise to masking ratio.
761 Intra-band masking is the strongest of the perceptual masking effects. This structure
762 means that the ideal allocation is more consistent from frame to frame than
763 it is for other codecs without an equivalent structure.</t>
764
765 <t>Because the bit allocation is used to drive the decoding of the range-coder
766 stream it MUST be recovered exactly so that identical coding decisions are 
767 made in the encoder and decoder. Any deviation from the reference's resulting
768 bit allocation will result in corrupted output, though implementers are 
769 free to implement the procedure in any way which produces identical results.</t>
770
771 <t>Because all of the information required to decode a frame must be derived
772 from that frame alone in order to retain robustness to packet loss the
773 overhead of explicitly signaling the allocation would be considerable,
774 especially for low-latency (small frame size) applications, 
775 even though the allocation is relatively static.</t>
776
777 <t>For this reason, in the MDCT mode Opus uses a primarily implicit bit
778 allocation. The available bit-stream capacity is known in advance to both
779 the encoder and decoder without additional signaling, ultimately from the
780 packet sizes expressed by a higher level protocol. Using this information
781 the codec interpolates an allocation from a hard-coded table.</t>
782
783 <t>While the band-energy structure effectively models intra-band masking,
784 it ignores the weaker inter-band masking, band-temporal masking, and
785 other less significant perceptual effects. While these effects can
786 often be ignored they can become significant for particular samples. One
787 mechanism available to encoders would be to simply increase the overall
788 rate for these frames, but this is not possible in a constant rate mode
789 and can be fairly inefficient. As a result three explicitly signaled
790 mechanisms are provided to alter the implicit allocation:</t>
791
792 <t>
793 <list style="symbols">
794 <t>Band boost</t>
795 <t>Allocation trim</t>
796 <t>band skipping</t>
797 </list>
798 </t>
799
800 <t>The first of these mechanisms, band boost, allows an encoder to boost
801 the allocation in specific bands. The second, allocation trim, works by
802 biasing the overall allocation towards higher or lower frequency bands. The third, band
803 skipping, selects which low-precision high frequency bands
804 will be allocated no shape bits at all.</t>
805
806 <t>In stereo mode there are also two additional parameters 
807 potentially coded as part of the allocation procedure: a parameter to allow the
808 selective elimination of allocation for the 'side' in jointly coded bands,
809 and a flag to deactivate joint coding. These values are not signaled if
810 they would be meaningless in the overall context of the allocation.</t>
811
812 <t>Because every signaled adjustment increases overhead and implementation
813 complexity none were included speculatively: The reference encoder makes use
814 of all of these mechanisms. While the decision logic in the reference was
815 found to be effective enough to justify the overhead and complexity further
816 analysis techniques may be discovered which increase the effectiveness of these 
817 parameters. As with other signaled parameters, encoder is free to choose the
818 values in any manner but unless a technique is known to deliver superior
819 perceptual results the methods used by the reference implementation should be
820 used.</t>
821
822 <t>The process of allocation consists of the following steps: determining the per-band
823 maximum allocation vector, decoding the boosts, decoding the tilt, determining
824 the remaining capacity the frame, searching the mode table for the
825 entry nearest but not exceeding the available space (subject to the tilt, boosts, band
826 maximums, and band minimums), linear interpolation, reallocation of
827 unused bits with concurrent skip decoding, determination of the 
828 fine-energy vs shape split, and final reallocation. This process results
829 in an shape allocation per-band (in 1/8th bit units), a per-band fine-energy
830 allocation (in 1 bit per channel units), a set of band priorities for
831 controlling the use of remaining bits at the end of the frame, and a 
832 remaining balance of unallocated space which is usually zero except
833 at very high rates.</t>
834
835 <t>The maximum allocation vector is an approximation of the maximum space
836 which can be used by each band for a given mode. The value is 
837 approximate because the shape encoding is variable rate (due
838 to entropy coding of splitting parameters). Setting the maximum too low reduces the 
839 maximum achievable quality in a band while setting it too high
840 may result in waste: bit-stream capacity available at the end
841 of the frame which can not be put to any use. The maximums 
842 specified by the codec reflect the average maximum. In the reference
843 the maximums are provided partially computed form, in order to fit in less
844 memory, as a static table (XXX cache.caps). Implementations are expected
845 to simply use the same table data but the procedure for generating
846 this table is included in rate.c as part of compute_pulse_cache().</t>
847
848 <t>To convert the values in cache.caps into the actual maximums: First
849 set nbBands to the maximum number of bands for this mode and stereo to
850 zero if stereo is not in use and one otherwise. For each band assign N
851 to the number of MDCT bins covered by the band (for one channel), set LM
852 to the shift value for the frame size (e.g. 0 for 120, 1 for 240, 3 for 480)
853 then set i to nbBands*(2*LM+stereo). Then set the maximum for the band to
854 the i-th index of cache.caps + 64 and multiply by the number of channels
855 in the current frame (one or two) and by N then divide the result by 4
856 using truncating integer division. The resulting vector will be called
857 cap[]. The elements fit in signed 16 bit integers but do not fit in 8 bits.
858 This procedure is implemented in the reference in the function init_caps() in celt.c.
859 </t>
860
861 <t>The band boosts are represented by a series of binary symbols which
862 are coded with very low probability. Each band can potentially be boosted
863 multiple times, subject to the frame actually having enough room to obey
864 the boost and having enough room to code the boost symbol. The default
865 coding cost for a boost starts out at six bits, but subsequent boosts
866 in a band cost only a single bit and every time a band is boosted the
867 initial cost is reduced (down to a minimum of two). Since the initial
868 cost of coding a boost is 6 bits the coding cost of the boost symbols when
869 completely unused is 0.48 bits/frame for a 21 band mode (21*-log2(1-1/2^6)).</t>
870
871 <t>To decode the band boosts: First set 'dynalloc_logp' to 6, the initial
872 amount of storage required to signal a boost in bits, 'total_bits' to the
873 size of the frame in 8th-bits, 'total_boost' to zero, and 'tell' to the total number
874 of 8th bits decoded
875 so far. For each band from the coding start (0 normally, but 17 in hybrid mode)
876 to the coding end (which changes depending on the signaled bandwidth): Set 'width'
877 to the number of MDCT bins in this band for all channels. Take the larger of width
878 and 64, then the minimum of that value and the width times eight and set 'quanta'
879 to the result. This represents a boost step size of six bits subject to limits
880 of 1/bit/sample and 1/8th bit/sample. Set 'boost' to zero and 'dynalloc_loop_logp'
881 to dynalloc_logp. While dynalloc_loop_log (the current worst case symbol cost) in
882 8th bits plus tell is less than total_bits plus total_boost and boost is less than cap[] for this
883 band: Decode a bit from the bitstream with a with dynalloc_loop_logp as the cost
884 of a one, update tell to reflect the current used capacity, if the decoded value
885 is zero break the  loop otherwise add quanta to boost and total_boost, subtract quanta from 
886 total_bits, and set dynalloc_loop_log to 1. When the while loop finishes
887 boost contains the boost for this band. If boost is non-zero and dynalloc_logp
888 is greater than 2 decrease dynalloc_logp.  Once this process has been
889 execute on all bands the band boosts have been decoded. This procedure
890 is implemented around line 2352 of celt.c.</t>
891
892 <t>At very low rates it's possible that there won't be enough available
893 space to execute the inner loop even once. In these cases band boost
894 is not possible but its overhead is completely eliminated. Because of the
895 high cost of band boost when activated a reasonable encoder should not be 
896 using it at very low rates. The reference implements its dynalloc decision
897 logic at around 1269 of celt.c</t>
898
899 <t>The allocation trim is a integer value from 0-10. The default value of
900 5 indicates no trim. The trim parameter is entropy coded in order to
901 lower the coding cost of less extreme adjustments. Values lower than 
902 5 bias the allocation towards lower frequencies and values above 5
903 bias it towards higher frequencies. Like other signaled parameters, signaling
904 of the trim is gated so that it is not included if there is insufficient space
905 available in the bitstream. To decode the trim first set
906 the trim value to 5 then iff the count of decoded 8th bits so far (ec_tell_frac)
907 plus 48 (6 bits) is less than or equal to the total frame size in 8th
908 bits minus total_boost (a product of the above band boost procedure) then
909 decode the trim value using the inverse CDF {127, 126, 124, 119, 109, 87, 41, 19, 9, 4, 2, 0}.</t>
910
911 <t>Stereo parameters</t>
912
913 <t>Anti-collapse reservation</t>
914
915 <t>The allocation computation first begins by setting up some initial conditions.
916 'total' is set to the available remaining 8th bits, computed by taking the
917 size of the coded frame times 8 and subtracting ec_tell_frac(). From this value one (8th bit)
918 is subtracted to assure that the resulting allocation will be conservative. 'anti_collapse_rsv'
919 is set to 8 (8th bits) iff the frame is a transient, LM is greater than 1, and total is
920 greater than or equal to (LM+2) * 8. Total is then decremented by anti_collapse_rsv and clamped
921 to be equal to or greater than zero. 'skip_rsv' is set to 8 (8th bits) if total is greater than
922 8, otherwise it is zero. Total is then decremented by skip_rsv. This reserves space for the
923 final skipping flag.</t>
924
925 <t>If the current frame is stereo intensity_rsv is set to the conservative log2 in 8th bits
926 of the number of coded bands for this frame (given by the table LOG2_FRAC_TABLE). If 
927 intensity_rsv is greater than total then intensity_rsv is set to zero otherwise total is
928 decremented by intensity_rsv, and if total is still greater than 8 dual_stereo_rsv is
929 set to 8 and total is decremented by dual_stereo_rsv.</t>
930
931 <t>The allocation process then computes a vector representing the hard minimum amounts allocation
932 any band will receive for shape. This minimum is higher than the technical limit of the PVQ
933 process, but very low rate allocations produce excessively an sparse spectrum and these bands
934 are better served by having no allocation at all. For each coded band set thresh[band] to
935 twenty-four times the number of MDCT bins in the band and divide by 16. If 8 times the number
936 of channels is greater, use that instead. This sets the minimum allocation to one bit per channel
937 or 48 128th bits per MDCT bin, whichever is greater. The band size dependent part of this
938 value is not scaled by the channel count because at the very low rates where this limit is 
939 applicable there will usually be no bits allocated to the side.</t>
940
941 <t>The previously decoded allocation trim is used to derive a vector of per-band adjustments,
942 'trim_offsets[]'. For each coded band take the alloc_trim and subtract 5 and LM then multiply 
943 the result by number of channels, the number MDCT bins in the shortest frame size for this mode,
944 the number remaining bands, 2^LM, and 8. Then divide this value by 64. Finally, if the
945 number of MDCT bins in the band per channel is only one 8 times the number of channels is subtracted
946 in order to diminish the allocation by one bit because width 1 bands receive greater benefit
947 from the coarse energy coding.</t>
948
949
950 </section>
951
952 <section anchor="PVQ-decoder" title="Shape Decoder">
953 <t>
954 In each band, the normalized <spanx style="emph">shape</spanx> is encoded
955 using a vector quantization scheme called a "Pyramid vector quantizer". 
956 </t>
957
958 <t>In
959 the simplest case, the number of bits allocated in 
960 <xref target="allocation"></xref> is converted to a number of pulses as described
961 by <xref target="bits-pulses"></xref>. Knowing the number of pulses and the
962 number of samples in the band, the decoder calculates the size of the codebook
963 as detailed in <xref target="cwrs-decoder"></xref>. The size is used to decode 
964 an unsigned integer (uniform probability model), which is the codeword index.
965 This index is converted into the corresponding vector as explained in
966 <xref target="cwrs-decoder"></xref>. This vector is then scaled to unit norm.
967 </t>
968
969 <section anchor="bits-pulses" title="Bits to Pulses">
970 <t>
971 Although the allocation is performed in 1/8th bit units, the quantization requires
972 an integer number of pulses K. To do this, the encoder searches for the value
973 of K that produces the number of bits that is the nearest to the allocated value
974 (rounding down if exactly half-way between two values), subject to not exceeding
975 the total number of bits available. For efficiency reasons the search is performed against a
976 precomputated allocation table which only permits some K values for each N. The number of
977 codebooks entries can be computed as explained in <xref target="cwrs-encoding"></xref>. The difference
978 between the number of bits allocated and the number of bits used is accumulated to a
979 <spanx style="emph">balance</spanx> (initialised to zero) that helps adjusting the
980 allocation for the next bands. One third of the balance is applied to the
981 bit allocation of the each band to help achieving the target allocation. The only
982 exceptions are the band before the last and the last band, for which half the balance
983 and the whole balance are applied, respectively.
984 </t>
985 </section>
986
987 <section anchor="cwrs-decoder" title="Index Decoding">
988
989 <t>
990 The codeword is decoded as a uniformly-distributed integer value
991 by decode_pulses() (cwrs.c).
992 The codeword is converted from a unique index in the same way as specified in 
993 <xref target="PVQ"></xref>. The indexing is based on the calculation of V(N,K) 
994 (denoted N(L,K) in <xref target="PVQ"></xref>), which is the number of possible
995 combinations of K pulses 
996 in N samples. The number of combinations can be computed recursively as 
997 V(N,K) = V(N-1,K) + V(N,K-1) + V(N-1,K-1), with V(N,0) = 1 and V(0,K) = 0, K != 0. 
998 There are many different ways to compute V(N,K), including pre-computed tables and direct
999 use of the recursive formulation. The reference implementation applies the recursive
1000 formulation one line (or column) at a time to save on memory use,
1001 along with an alternate,
1002 univariate recurrence to initialise an arbitrary line, and direct
1003 polynomial solutions for small N. All of these methods are
1004 equivalent, and have different trade-offs in speed, memory usage, and
1005 code size. Implementations MAY use any methods they like, as long as
1006 they are equivalent to the mathematical definition.
1007 </t>
1008
1009 <t>
1010 The decoding of the codeword from the index is performed as specified in 
1011 <xref target="PVQ"></xref>, as implemented in function
1012 decode_pulses() (cwrs.c).
1013 </t>
1014 </section>
1015
1016 <section anchor="spreading" title="Spreading">
1017 <t>
1018 </t>
1019 </section>
1020
1021 <section anchor="split" title="Split decoding">
1022 <t>
1023 To avoid the need for multi-precision calculations when decoding PVQ codevectors,
1024 the maximum size allowed for codebooks is 32 bits. When larger codebooks are
1025 needed, the vector is instead split in two sub-vectors of size N/2. 
1026 A quantized gain parameter with precision
1027 derived from the current allocation is entropy coded to represent the relative
1028 gains of each side of the split and the entire decoding process is recursively
1029 applied. Multiple levels of splitting may be applied up to a frame size 
1030 dependent limit. The same recursive mechanism is applied for the joint coding
1031 of stereo audio.
1032 </t>
1033
1034 </section>
1035
1036 <section anchor="tf-change" title="Time-Frequency change">
1037 <t>
1038 </t>
1039 </section>
1040
1041
1042 </section>
1043
1044 <section anchor="anti-collapse" title="Anti-collapse processing">
1045 <t>
1046 When the frame has the transient bit set...
1047 </t>
1048 </section>
1049
1050 <section anchor="denormalization" title="Denormalization">
1051 <t>
1052 Just like each band was normalized in the encoder, the last step of the decoder before
1053 the inverse MDCT is to denormalize the bands. Each decoded normalized band is
1054 multiplied by the square root of the decoded energy. This is done by denormalise_bands()
1055 (bands.c).
1056 </t>
1057 </section>
1058
1059 <section anchor="inverse-mdct" title="Inverse MDCT">
1060 <t>The inverse MDCT implementation has no special characteristics. The
1061 input is N frequency-domain samples and the output is 2*N time-domain 
1062 samples, while scaling by 1/2. The output is windowed using the same window 
1063 as the encoder. The IMDCT and windowing are performed by mdct_backward
1064 (mdct.c). If a time-domain pre-emphasis 
1065 window was applied in the encoder, the (inverse) time-domain de-emphasis window
1066 is applied on the IMDCT result. 
1067 </t>
1068
1069 <section anchor="post-filter" title="Post-filter">
1070 <t>
1071 The output of the inverse MDCT (after weighted overlap-add) is sent to the
1072 post-filter. Although the post-filter is applied at the end, the post-filter
1073 parameters are encoded at the beginning, just after the silence flag.
1074 The post-filter can be switched on or off using one bit (logp=1).
1075 If the post-filter is enabled, then the octave is decoded as an integer value
1076 between 0 and 6 of uniform probability. Once the octave is known, the fine pitch
1077 within the octave is decoded using 4+octave raw bits. The final pitch period
1078 is equal to (16&lt;&lt;octave)+fine_pitch-1 so it is bounded between 15 and 1022,
1079 inclusively. Next, the gain is decoded as three raw bits and is equal to 
1080 G=3*(int_gain+1)/32. The set of post-filter taps is decoded last using 
1081 a pdf equal to [2, 1, 1]/4. Tapset zero corresponds to the filter coefficients
1082 g0 = 0.3066406250, g1 = 0.2170410156, g2 = 0.1296386719. Tapset one
1083 corresponds to the filter coefficients g0 = 0.4638671875, g1 = 0.2680664062,
1084 g2 = 0, and tapset two uses filter coefficients g0 = 0.7998046875,
1085 g1 = 0.1000976562, g2 = 0.
1086 </t>
1087
1088 <t>
1089 The post-filter response is thus computed as:
1090               <figure align="center">
1091                 <artwork align="center">
1092                   <![CDATA[
1093    y(n) = x(n) + G*(g0*y(n-T) + g1*(y(n-T+1)+y(n-T+1)) 
1094                               + g2*(y(n-T+2)+y(n-T+2)))
1095 ]]>
1096                 </artwork>
1097               </figure>
1098
1099 During a transition between different gains, a smooth transition is calculated
1100 using the square of the MDCT window. It is important that values of y(n) be 
1101 interpolated one at a time such that the past value of y(n) used is interpolated.
1102 </t>
1103 </section>
1104
1105 <section anchor="deemphasis" title="De-emphasis">
1106 <t>
1107 After the post-filter, 
1108 the signal is de-emphasized using the inverse of the pre-emphasis filter 
1109 used in the encoder: 1/A(z)=1/(1-alpha_p*z^-1), where alpha_p=0.8500061035.
1110 </t>
1111 </section>
1112
1113 </section>
1114
1115 <section anchor="Packet Loss Concealment" title="Packet Loss Concealment (PLC)">
1116 <t>
1117 Packet loss concealment (PLC) is an optional decoder-side feature which 
1118 SHOULD be included when transmitting over an unreliable channel. Because 
1119 PLC is not part of the bit-stream, there are several possible ways to 
1120 implement PLC with different complexity/quality trade-offs. The PLC in
1121 the reference implementation finds a periodicity in the decoded
1122 signal and repeats the windowed waveform using the pitch offset. The windowed
1123 waveform is overlapped in such a way as to preserve the time-domain aliasing
1124 cancellation with the previous frame and the next frame. This is implemented 
1125 in celt_decode_lost() (mdct.c).
1126 </t>
1127 </section>
1128
1129 </section>
1130
1131 </section>
1132
1133
1134 <!--  ******************************************************************* -->
1135 <!--  **************************   OPUS ENCODER   *********************** -->
1136 <!--  ******************************************************************* -->
1137
1138 <section title="Codec Encoder">
1139 <t>
1140 Opus encoder block diagram.
1141 <figure>
1142 <artwork>
1143 <![CDATA[
1144          +----------+    +-------+
1145          |  sample  |    | SILK  |
1146       +->|   rate   |--->|encoder|--+
1147       |  |conversion|    |       |  |
1148 audio |  +----------+    +-------+  |    +-------+
1149 ------+                             +--->| Range |
1150       |  +-------+                       |encoder|---->
1151       |  | CELT  |                  +--->|       | bit-stream
1152       +->|encoder|------------------+    +-------+
1153          |       |
1154          +-------+
1155 ]]>
1156 </artwork>
1157 </figure>
1158 </t>
1159
1160 <section anchor="range-encoder" title="Range Coder">
1161 <t>
1162 The range coder also acts as the bit-packer for Opus. It is
1163 used in three different ways, to encode:
1164 <list style="symbols">
1165 <t>entropy-coded symbols with a fixed probability model using ec_encode(), (entenc.c)</t>
1166 <t>integers from 0 to 2^M-1 using ec_enc_uint() or ec_enc_bits(), (entenc.c)</t>
1167 <t>integers from 0 to N-1 (where N is not a power of two) using ec_enc_uint(). (entenc.c)</t>
1168 </list>
1169 </t>
1170
1171 <t>
1172 The range encoder maintains an internal state vector composed of the
1173 four-tuple (low,rng,rem,ext), representing the low end of the current
1174 range, the size of the current range, a single buffered output octet,
1175 and a count of additional carry-propagating output octets. Both rng
1176 and low are 32-bit unsigned integer values, rem is an octet value or
1177 the special value -1, and ext is an integer with at least 16 bits.
1178 This state vector is initialized at the start of each each frame to
1179 the value (0,2^31,-1,0). The reference implementation re-uses the
1180 'val' field of the entropy coder structure to hold low, in order to
1181 allow the same structure to be used for encoding and decoding, but
1182 we maintain the distinction here for clarity.
1183 </t>
1184
1185 <section anchor="encoding-symbols" title="Encoding Symbols">
1186 <t>
1187    The main encoding function is ec_encode() (entenc.c),
1188    which takes as an argument a three-tuple (fl,fh,ft)
1189    describing the range of the symbol to be encoded in the current
1190    context, with 0 &lt;= fl &lt; fh &lt;= ft &lt;= 65535. The values of this tuple
1191    are derived from the probability model for the symbol. Let f(i) be
1192    the frequency of the ith symbol in the current context. Then the
1193    three-tuple corresponding to the kth symbol is given by
1194    <![CDATA[
1195 fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
1196 ]]>
1197 </t>
1198 <t>
1199    ec_encode() updates the state of the encoder as follows. If fl is
1200    greater than zero, then low = low + rng - (rng/ft)*(ft-fl) and 
1201    rng = (rng/ft)*(fh-fl). Otherwise, low is unchanged and
1202    rng = rng - (rng/ft)*(fh-fl). The divisions here are exact integer
1203    division. After this update, the range is normalized.
1204 </t>
1205 <t>
1206    To normalize the range, the following process is repeated until
1207    rng &gt; 2^23. First, the top 9 bits of low, (low&gt;&gt;23), are placed into
1208    a carry buffer. Then, low is set to <![CDATA[(low << 8 & 0x7FFFFFFF) and rng
1209    is set to (rng<<8)]]>. This process is carried out by
1210    ec_enc_normalize() (entenc.c).
1211 </t>
1212 <t>
1213    The 9 bits produced in each iteration of the normalization loop
1214    consist of 8 data bits and a carry flag. The final value of the
1215    output bits is not determined until carry propagation is accounted
1216    for. Therefore the reference implementation buffers a single
1217    (non-propagating) output octet and keeps a count of additional
1218    propagating (0xFF) output octets. An implementation MAY choose to use
1219    any mathematically equivalent scheme to perform carry propagation.
1220 </t>
1221 <t>
1222    The function ec_enc_carry_out() (entenc.c) performs
1223    this buffering. It takes a 9-bit input value, c, from the normalization:
1224    8 bits of output and a carry bit. If c is 0xFF, then ext is incremented
1225    and no octets are output. Otherwise, if rem is not the special value
1226    -1, then the octet (rem+(c>>8)) is output. Then ext octets are output
1227    with the value 0 if the carry bit is set, or 0xFF if it is not, and
1228    rem is set to the lower 8 bits of c. After this, ext is set to zero.
1229 </t>
1230 <t>
1231    In the reference implementation, a special version of ec_encode()
1232    called ec_encode_bin() (entenc.c) is defined to
1233    take a two-tuple (fl,ftb), where <![CDATA[0 <= fl < 2^ftb and ftb < 16. It is
1234    mathematically equivalent to calling ec_encode() with the three-tuple
1235    (fl,fl+1,1<<ftb)]]>, but avoids using division.
1236
1237 </t>
1238 </section>
1239
1240 <section anchor="encoding-bits" title="Encoding Raw Bits">
1241 <t>
1242    The CELT layer also allows directly encoding a series of raw bits, outside
1243    of the range coder, implemented in ec_enc_bits() (entenc.c).
1244    The raw bits are packed at the end of the packet, starting by storing the
1245    least significant bit of the value to be packed in the least significant bit
1246    of the last byte, filling up to the most significant bit in
1247    the last byte, and the continuing in the least significant bit of the
1248    penultimate byte, and so on.
1249    This packing may continue into the last byte output by the range coder,
1250    though the format should render it impossible to overwrite any set bit
1251    produced by the range coder when the procedure in
1252    <xref target='encoder-finalizing'/> is followed to finalize the stream.
1253 </t>
1254 </section>
1255
1256 <section anchor="encoding-ints" title="Encoding Uniformly Distributed Integers">
1257 <t>
1258    The function ec_enc_uint() is based on ec_encode() and encodes one of N
1259    equiprobable symbols, each with a frequency of 1, where N may be as large as
1260    2^32-1. Because ec_encode() is limited to a total frequency of 2^16-1, this
1261    is done by encoding a series of symbols in smaller contexts.
1262 </t>
1263 <t>
1264    ec_enc_uint() (entenc.c) takes a two-tuple (fl,ft),
1265    where ft is not necessarily a power of two. Let ftb be the location
1266    of the highest 1 bit in the two's-complement representation of
1267    (ft-1), or -1 if no bits are set. If ftb>8, then the top 8 bits of fl
1268    are encoded using ec_encode() with the three-tuple
1269    (fl>>ftb-8,(fl>>ftb-8)+1,(ft-1>>ftb-8)+1), and the remaining bits
1270    are encoded as raw bits. Otherwise, fl is encoded with ec_encode() directly
1271    using the three-tuple (fl,fl+1,ft).
1272 </t>
1273 </section>
1274
1275 <section anchor="encoder-finalizing" title="Finalizing the Stream">
1276 <t>
1277    After all symbols are encoded, the stream must be finalized by
1278    outputting a value inside the current range. Let end be the integer
1279    in the interval [low,low+rng) with the largest number of trailing
1280    zero bits, b, such that end+(1&lt;&lt;b)-1 is also in the interval
1281    [low,low+rng). Then while end is not zero, the top 9 bits of end, e.g.,
1282    <![CDATA[(end>>23), are sent to the carry buffer, and end is replaced by
1283    (end<<8&0x7FFFFFFF). Finally, if the value in carry buffer, rem, is]]>
1284    neither zero nor the special value -1, or the carry count, ext, is
1285    greater than zero, then 9 zero bits are sent to the carry buffer.
1286    After the carry buffer is finished outputting octets, the rest of the
1287    output buffer (if any) is padded with zero bits, until it reaches the raw
1288    bits. Finally, rem is set to the
1289    special value -1. This process is implemented by ec_enc_done()
1290    (entenc.c).
1291 </t>
1292 </section>
1293
1294 <section anchor="encoder-tell" title="Current Bit Usage">
1295 <t>
1296    The bit allocation routines in Opus need to be able to determine a
1297    conservative upper bound on the number of bits that have been used
1298    to encode the current frame thus far. This drives allocation
1299    decisions and ensures that the range coder and raw bits will not
1300    overflow the output buffer. This is computed in the
1301    reference implementation to whole-bit precision by
1302    the function ec_tell() (entcode.h) and to fractional 1/8th bit
1303    precision by the function ec_tell_frac() (entcode.c).
1304    Like all operations in the range coder, it must be implemented in a
1305    bit-exact manner, and must produce exactly the same value returned by
1306    the same functions in the decoder after decoding the same symbols.
1307 </t>
1308 </section>
1309
1310 </section>
1311
1312         <section title='SILK Encoder'>
1313           <t>
1314             In the following, we focus on the core encoder and describe its components. For simplicity, we will refer to the core encoder simply as the encoder in the remainder of this document. An overview of the encoder is given in <xref target="encoder_figure" />.
1315           </t>
1316
1317           <figure align="center" anchor="encoder_figure">
1318             <artwork align="center">
1319               <![CDATA[
1320                                                               +---+
1321                                +----------------------------->|   |
1322         +---------+            |     +---------+              |   |
1323         |Voice    |            |     |LTP      |              |   |
1324  +----->|Activity |-----+      +---->|Scaling  |---------+--->|   |
1325  |      |Detector |  3  |      |     |Control  |<+  12   |    |   |
1326  |      +---------+     |      |     +---------+ |       |    |   |
1327  |                      |      |     +---------+ |       |    |   |
1328  |                      |      |     |Gains    | |  11   |    |   |
1329  |                      |      |  +->|Processor|-|---+---|--->| R |
1330  |                      |      |  |  |         | |   |   |    | a |
1331  |                     \/      |  |  +---------+ |   |   |    | n |
1332  |                 +---------+ |  |  +---------+ |   |   |    | g |
1333  |                 |Pitch    | |  |  |LSF      | |   |   |    | e |
1334  |              +->|Analysis |-+  |  |Quantizer|-|---|---|--->|   |
1335  |              |  |         |4|  |  |         | | 8 |   |    | E |->
1336  |              |  +---------+ |  |  +---------+ |   |   |    | n |14
1337  |              |              |  |   9/\  10|   |   |   |    | c |
1338  |              |              |  |    |    \/   |   |   |    | o |
1339  |              |  +---------+ |  |  +----------+|   |   |    | d |
1340  |              |  |Noise    | +--|->|Prediction|+---|---|--->| e |
1341  |              +->|Shaping  |-|--+  |Analysis  || 7 |   |    | r |
1342  |              |  |Analysis |5|  |  |          ||   |   |    |   |
1343  |              |  +---------+ |  |  +----------+|   |   |    |   |
1344  |              |              |  |       /\     |   |   |    |   |
1345  |              |    +---------|--|-------+      |   |   |    |   |
1346  |              |    |        \/  \/            \/  \/  \/    |   |
1347  |  +---------+ |    |      +---------+       +------------+  |   |
1348  |  |High-Pass| |    |      |         |       |Noise       |  |   |
1349 -+->|Filter   |-+----+----->|Prefilter|------>|Shaping     |->|   |
1350 1   |         |      2      |         |   6   |Quantization|13|   |
1351     +---------+             +---------+       +------------+  +---+
1352
1353 1:  Input speech signal
1354 2:  High passed input signal
1355 3:  Voice activity estimate
1356 4:  Pitch lags (per 5 ms) and voicing decision (per 20 ms)
1357 5:  Noise shaping quantization coefficients
1358   - Short term synthesis and analysis 
1359     noise shaping coefficients (per 5 ms)
1360   - Long term synthesis and analysis noise 
1361     shaping coefficients (per 5 ms and for voiced speech only)
1362   - Noise shaping tilt (per 5 ms)
1363   - Quantizer gain/step size (per 5 ms)
1364 6:  Input signal filtered with analysis noise shaping filters
1365 7:  Short and long term prediction coefficients
1366     LTP (per 5 ms) and LPC (per 20 ms)
1367 8:  LSF quantization indices
1368 9:  LSF coefficients
1369 10: Quantized LSF coefficients 
1370 11: Processed gains, and synthesis noise shape coefficients
1371 12: LTP state scaling coefficient. Controlling error propagation
1372    / prediction gain trade-off
1373 13: Quantized signal
1374 14: Range encoded bitstream
1375
1376 ]]>
1377             </artwork>
1378             <postamble>Encoder block diagram.</postamble>
1379           </figure>
1380
1381           <section title='Voice Activity Detection'>
1382             <t>
1383               The input signal is processed by a VAD (Voice Activity Detector) to produce a measure of voice activity, and also spectral tilt and signal-to-noise estimates, for each frame. The VAD uses a sequence of half-band filterbanks to split the signal in four subbands: 0 - Fs/16, Fs/16 - Fs/8, Fs/8 - Fs/4, and Fs/4 - Fs/2, where Fs is the sampling frequency, that is, 8, 12, 16 or 24 kHz. The lowest subband, from 0 - Fs/16 is high-pass filtered with a first-order MA (Moving Average) filter (with transfer function H(z) = 1-z^(-1)) to reduce the energy at the lowest frequencies. For each frame, the signal energy per subband is computed. In each subband, a noise level estimator tracks the background noise level and an SNR (Signal-to-Noise Ratio) value is computed as the logarithm of the ratio of energy to noise level. Using these intermediate variables, the following parameters are calculated for use in other SILK modules:
1384               <list style="symbols">
1385                 <t>
1386                   Average SNR. The average of the subband SNR values.
1387                 </t>
1388
1389                 <t>
1390                   Smoothed subband SNRs. Temporally smoothed subband SNR values.
1391                 </t>
1392
1393                 <t>
1394                   Speech activity level. Based on the average SNR and a weighted average of the subband energies.
1395                 </t>
1396
1397                 <t>
1398                   Spectral tilt. A weighted average of the subband SNRs, with positive weights for the low subbands and negative weights for the high subbands.
1399                 </t>
1400               </list>
1401             </t>
1402           </section>
1403
1404           <section title='High-Pass Filter'>
1405             <t>
1406               The input signal is filtered by a high-pass filter to remove the lowest part of the spectrum that contains little speech energy and may contain background noise. This is a second order ARMA (Auto Regressive Moving Average) filter with a cut-off frequency around 70 Hz.
1407             </t>
1408             <t>
1409               In the future, a music detector may also be used to lower the cut-off frequency when the input signal is detected to be music rather than speech.
1410             </t>
1411           </section>
1412
1413           <section title='Pitch Analysis' anchor='pitch_estimator_overview_section'>
1414             <t>
1415               The high-passed input signal is processed by the open loop pitch estimator shown in <xref target='pitch_estimator_figure' />.
1416               <figure align="center" anchor="pitch_estimator_figure">
1417                 <artwork align="center">
1418                   <![CDATA[
1419                                  +--------+  +----------+     
1420                                  |2 x Down|  |Time-     |      
1421                               +->|sampling|->|Correlator|     |
1422                               |  |        |  |          |     |4
1423                               |  +--------+  +----------+    \/
1424                               |                    | 2    +-------+
1425                               |                    |  +-->|Speech |5
1426     +---------+    +--------+ |                   \/  |   |Type   |->
1427     |LPC      |    |Down    | |              +----------+ |       |
1428  +->|Analysis | +->|sample  |-+------------->|Time-     | +-------+
1429  |  |         | |  |to 8 kHz|                |Correlator|----------->
1430  |  +---------+ |  +--------+                |__________|          6
1431  |       |      |                                  |3
1432  |      \/      |                                 \/ 
1433  |  +---------+ |                            +----------+
1434  |  |Whitening| |                            |Time-     |    
1435 -+->|Filter   |-+--------------------------->|Correlator|----------->
1436 1   |         |                              |          |          7
1437     +---------+                              +----------+ 
1438                                             
1439 1: Input signal
1440 2: Lag candidates from stage 1
1441 3: Lag candidates from stage 2
1442 4: Correlation threshold
1443 5: Voiced/unvoiced flag
1444 6: Pitch correlation
1445 7: Pitch lags 
1446 ]]>
1447                 </artwork>
1448                 <postamble>Block diagram of the pitch estimator.</postamble>
1449               </figure>
1450               The pitch analysis finds a binary voiced/unvoiced classification, and, for frames classified as voiced, four pitch lags per frame - one for each 5 ms subframe - and a pitch correlation indicating the periodicity of the signal. The input is first whitened using a Linear Prediction (LP) whitening filter, where the coefficients are computed through standard Linear Prediction Coding (LPC) analysis. The order of the whitening filter is 16 for best results, but is reduced to 12 for medium complexity and 8 for low complexity modes. The whitened signal is analyzed to find pitch lags for which the time correlation is high. The analysis consists of three stages for reducing the complexity:
1451               <list style="symbols">
1452                 <t>In the first stage, the whitened signal is downsampled to 4 kHz (from 8 kHz) and the current frame is correlated to a signal delayed by a range of lags, starting from a shortest lag corresponding to 500 Hz, to a longest lag corresponding to 56 Hz.</t>
1453
1454                 <t>
1455                   The second stage operates on a 8 kHz signal ( downsampled from 12, 16 or 24 kHz ) and measures time correlations only near the lags corresponding to those that had sufficiently high correlations in the first stage. The resulting correlations are adjusted for a small bias towards short lags to avoid ending up with a multiple of the true pitch lag. The highest adjusted correlation is compared to a threshold depending on:
1456                   <list style="symbols">
1457                     <t>
1458                       Whether the previous frame was classified as voiced
1459                     </t>
1460                     <t>
1461                       The speech activity level
1462                     </t>
1463                     <t>
1464                       The spectral tilt.
1465                     </t>
1466                   </list>
1467                   If the threshold is exceeded, the current frame is classified as voiced and the lag with the highest adjusted correlation is stored for a final pitch analysis of the highest precision in the third stage.
1468                 </t>
1469                 <t>
1470                   The last stage operates directly on the whitened input signal to compute time correlations for each of the four subframes independently in a narrow range around the lag with highest correlation from the second stage.
1471                 </t>
1472               </list>
1473             </t>
1474           </section>
1475
1476           <section title='Noise Shaping Analysis' anchor='noise_shaping_analysis_overview_section'>
1477             <t>
1478               The noise shaping analysis finds gains and filter coefficients used in the prefilter and noise shaping quantizer. These parameters are chosen such that they will fulfil several requirements:
1479               <list style="symbols">
1480                 <t>Balancing quantization noise and bitrate. The quantization gains determine the step size between reconstruction levels of the excitation signal. Therefore, increasing the quantization gain amplifies quantization noise, but also reduces the bitrate by lowering the entropy of the quantization indices.</t>
1481                 <t>Spectral shaping of the quantization noise; the noise shaping quantizer is capable of reducing quantization noise in some parts of the spectrum at the cost of increased noise in other parts without substantially changing the bitrate. By shaping the noise such that it follows the signal spectrum, it becomes less audible. In practice, best results are obtained by making the shape of the noise spectrum slightly flatter than the signal spectrum.</t>
1482                 <t>Deemphasizing spectral valleys; by using different coefficients in the analysis and synthesis part of the prefilter and noise shaping quantizer, the levels of the spectral valleys can be decreased relative to the levels of the spectral peaks such as speech formants and harmonics. This reduces the entropy of the signal, which is the difference between the coded signal and the quantization noise, thus lowering the bitrate.</t>
1483                 <t>Matching the levels of the decoded speech formants to the levels of the original speech formants; an adjustment gain and a first order tilt coefficient are computed to compensate for the effect of the noise shaping quantization on the level and spectral tilt.</t>
1484               </list>
1485             </t>
1486             <t>
1487               <figure align="center" anchor="noise_shape_analysis_spectra_figure">
1488                 <artwork align="center">
1489                   <![CDATA[
1490   / \   ___
1491    |   // \\
1492    |  //   \\     ____
1493    |_//     \\___//  \\         ____
1494    | /  ___  \   /    \\       //  \\
1495  P |/  /   \  \_/      \\_____//    \\
1496  o |  /     \     ____  \     /      \\
1497  w | /       \___/    \  \___/  ____  \\___ 1
1498  e |/                  \       /    \  \    
1499  r |                    \_____/      \  \__ 2
1500    |                                  \     
1501    |                                   \___ 3
1502    |
1503    +---------------------------------------->
1504                     Frequency
1505
1506 1: Input signal spectrum
1507 2: Deemphasized and level matched spectrum
1508 3: Quantization noise spectrum
1509 ]]>
1510                 </artwork>
1511                 <postamble>Noise shaping and spectral de-emphasis illustration.</postamble>
1512               </figure>
1513               <xref target='noise_shape_analysis_spectra_figure' /> shows an example of an input signal spectrum (1). After de-emphasis and level matching, the spectrum has deeper valleys (2). The quantization noise spectrum (3) more or less follows the input signal spectrum, while having slightly less pronounced peaks. The entropy, which provides a lower bound on the bitrate for encoding the excitation signal, is proportional to the area between the deemphasized spectrum (2) and the quantization noise spectrum (3). Without de-emphasis, the entropy is proportional to the area between input spectrum (1) and quantization noise (3) - clearly higher.
1514             </t>
1515
1516             <t>
1517               The transformation from input signal to deemphasized signal can be described as a filtering operation with a filter
1518               <figure align="center">
1519                 <artwork align="center">
1520                   <![CDATA[
1521                                      Wana(z)
1522 H(z) = G * ( 1 - c_tilt * z^(-1) ) * -------
1523                                      Wsyn(z),
1524             ]]>
1525                 </artwork>
1526               </figure>
1527               having an adjustment gain G, a first order tilt adjustment filter with
1528               tilt coefficient c_tilt, and where
1529               <figure align="center">
1530                 <artwork align="center">
1531                   <![CDATA[
1532                16                                 d
1533                __                                __
1534 Wana(z) = (1 - \ (a_ana(k) * z^(-k))*(1 - z^(-L) \ b_ana(k)*z^(-k)),
1535                /_                                /_  
1536                k=1                               k=-d
1537             ]]>
1538                 </artwork>
1539               </figure>
1540               is the analysis part of the de-emphasis filter, consisting of the short-term shaping filter with coefficients a_ana(k), and the long-term shaping filter with coefficients b_ana(k) and pitch lag L. The parameter d determines the number of long-term shaping filter taps.
1541             </t>
1542
1543             <t>
1544               Similarly, but without the tilt adjustment, the synthesis part can be written as
1545               <figure align="center">
1546                 <artwork align="center">
1547                   <![CDATA[
1548                16                                 d
1549                __                                __
1550 Wsyn(z) = (1 - \ (a_syn(k) * z^(-k))*(1 - z^(-L) \ b_syn(k)*z^(-k)).
1551                /_                                /_  
1552                k=1                               k=-d
1553             ]]>
1554                 </artwork>
1555               </figure>
1556             </t>
1557             <t>
1558               All noise shaping parameters are computed and applied per subframe of 5 milliseconds. First, an LPC analysis is performed on a windowed signal block of 15 milliseconds. The signal block has a look-ahead of 5 milliseconds relative to the current subframe, and the window is an asymmetric sine window. The LPC analysis is done with the autocorrelation method, with an order of 16 for best quality or 12 in low complexity operation. The quantization gain is found as the square-root of the residual energy from the LPC analysis, multiplied by a value inversely proportional to the coding quality control parameter and the pitch correlation.
1559             </t>
1560             <t>
1561               Next we find the two sets of short-term noise shaping coefficients a_ana(k) and a_syn(k), by applying different amounts of bandwidth expansion to the coefficients found in the LPC analysis. This bandwidth expansion moves the roots of the LPC polynomial towards the origo, using the formulas
1562               <figure align="center">
1563                 <artwork align="center">
1564                   <![CDATA[
1565  a_ana(k) = a(k)*g_ana^k, and
1566  a_syn(k) = a(k)*g_syn^k,
1567             ]]>
1568                 </artwork>
1569               </figure>
1570               where a(k) is the k'th LPC coefficient and the bandwidth expansion factors g_ana and g_syn are calculated as
1571               <figure align="center">
1572                 <artwork align="center">
1573                   <![CDATA[
1574 g_ana = 0.94 - 0.02*C, and
1575 g_syn = 0.94 + 0.02*C,
1576             ]]>
1577                 </artwork>
1578               </figure>
1579               where C is the coding quality control parameter between 0 and 1. Applying more bandwidth expansion to the analysis part than to the synthesis part gives the desired de-emphasis of spectral valleys in between formants.
1580             </t>
1581
1582             <t>
1583               The long-term shaping is applied only during voiced frames. It uses three filter taps, described by
1584               <figure align="center">
1585                 <artwork align="center">
1586                   <![CDATA[
1587 b_ana = F_ana * [0.25, 0.5, 0.25], and
1588 b_syn = F_syn * [0.25, 0.5, 0.25].
1589             ]]>
1590                 </artwork>
1591               </figure>
1592               For unvoiced frames these coefficients are set to 0. The multiplication factors F_ana and F_syn are chosen between 0 and 1, depending on the coding quality control parameter, as well as the calculated pitch correlation and smoothed subband SNR of the lowest subband. By having F_ana less than F_syn, the pitch harmonics are emphasized relative to the valleys in between the harmonics.
1593             </t>
1594
1595             <t>
1596               The tilt coefficient c_tilt is for unvoiced frames chosen as
1597               <figure align="center">
1598                 <artwork align="center">
1599                   <![CDATA[
1600 c_tilt = 0.4, and as
1601 c_tilt = 0.04 + 0.06 * C
1602             ]]>
1603                 </artwork>
1604               </figure>
1605               for voiced frames, where C again is the coding quality control parameter and is between 0 and 1.
1606             </t>
1607             <t>
1608               The adjustment gain G serves to correct any level mismatch between original and decoded signal that might arise from the noise shaping and de-emphasis. This gain is computed as the ratio of the prediction gain of the short-term analysis and synthesis filter coefficients. The prediction gain of an LPC synthesis filter is the square-root of the output energy when the filter is excited by a unit-energy impulse on the input. An efficient way to compute the prediction gain is by first computing the reflection coefficients from the LPC coefficients through the step-down algorithm, and extracting the prediction gain from the reflection coefficients as
1609               <figure align="center">
1610                 <artwork align="center">
1611                   <![CDATA[
1612                K
1613               ___
1614  predGain = ( | | 1 - (r_k)^2 )^(-0.5),
1615               k=1
1616             ]]>
1617                 </artwork>
1618               </figure>
1619               where r_k is the k'th reflection coefficient.
1620             </t>
1621
1622             <t>
1623               Initial values for the quantization gains are computed as the square-root of the residual energy of the LPC analysis, adjusted by the coding quality control parameter. These quantization gains are later adjusted based on the results of the prediction analysis.
1624             </t>
1625           </section>
1626
1627           <section title='Prefilter'>
1628             <t>
1629               In the prefilter the input signal is filtered using the spectral valley de-emphasis filter coefficients from the noise shaping analysis, see <xref target='noise_shaping_analysis_overview_section' />. By applying only the noise shaping analysis filter to the input signal, it provides the input to the noise shaping quantizer.
1630             </t>
1631           </section>
1632           <section title='Prediction Analysis' anchor='pred_ana_overview_section'>
1633             <t>
1634               The prediction analysis is performed in one of two ways depending on how the pitch estimator classified the frame. The processing for voiced and unvoiced speech are described in <xref target='pred_ana_voiced_overview_section' /> and <xref target='pred_ana_unvoiced_overview_section' />, respectively. Inputs to this function include the pre-whitened signal from the pitch estimator, see <xref target='pitch_estimator_overview_section' />.
1635             </t>
1636
1637             <section title='Voiced Speech' anchor='pred_ana_voiced_overview_section'>
1638               <t>
1639                 For a frame of voiced speech the pitch pulses will remain dominant in the pre-whitened input signal. Further whitening is desirable as it leads to higher quality at the same available bit-rate. To achieve this, a Long-Term Prediction (LTP) analysis is carried out to estimate the coefficients of a fifth order LTP filter for each of four sub-frames. The LTP coefficients are used to find an LTP residual signal with the simulated output signal as input to obtain better modelling of the output signal. This LTP residual signal is the input to an LPC analysis where the LPCs are estimated using Burgs method, such that the residual energy is minimized. The estimated LPCs are converted to a Line Spectral Frequency (LSF) vector, and quantized as described in <xref target='lsf_quantizer_overview_section' />. After quantization, the quantized LSF vector is converted to LPC coefficients and hence by using these quantized coefficients the encoder remains fully synchronized with the decoder. The LTP coefficients are quantized using a method described in <xref target='ltp_quantizer_overview_section' />. The quantized LPC and LTP coefficients are now used to filter the high-pass filtered input signal and measure a residual energy for each of the four subframes.
1640               </t>
1641             </section>
1642             <section title='Unvoiced Speech' anchor='pred_ana_unvoiced_overview_section'>
1643               <t>
1644                 For a speech signal that has been classified as unvoiced there is no need for LTP filtering as it has already been determined that the pre-whitened input signal is not periodic enough within the allowed pitch period range for an LTP analysis to be worth-while the cost in terms of complexity and rate. Therefore, the pre-whitened input signal is discarded and instead the high-pass filtered input signal is used for LPC analysis using Burgs method. The resulting LPC coefficients are converted to an LSF vector, quantized as described in the following section and transformed back to obtain quantized LPC coefficients. The quantized LPC coefficients are used to filter the high-pass filtered input signal and measure a residual energy for each of the four subframes.
1645               </t>
1646             </section>
1647           </section>
1648
1649           <section title='LSF Quantization' anchor='lsf_quantizer_overview_section'>
1650             <t>The purpose of quantization in general is to significantly lower the bit rate at the cost of some introduced distortion. A higher rate should always result in lower distortion, and lowering the rate will generally lead to higher distortion. A commonly used but generally sub-optimal approach is to use a quantization method with a constant rate where only the error is minimized when quantizing.</t>
1651             <section title='Rate-Distortion Optimization'>
1652               <t>Instead, we minimize an objective function that consists of a weighted sum of rate and distortion, and use a codebook with an associated non-uniform rate table. Thus, we take into account that the probability mass function for selecting the codebook entries are by no means guaranteed to be uniform in our scenario. The advantage of this approach is that it ensures that rarely used codebook vector centroids, which are modelling statistical outliers in the training set can be quantized with a low error but with a relatively high cost in terms of a high rate. At the same time this approach also provides the advantage that frequently used centroids are modelled with low error and a relatively low rate. This approach will lead to equal or lower distortion than the fixed rate codebook at any given average rate, provided that the data is similar to the data used for training the codebook.</t>
1653             </section>
1654
1655             <section title='Error Mapping' anchor='lsf_error_mapping_overview_section'>
1656               <t>
1657                 Instead of minimizing the error in the LSF domain, we map the errors to better approximate spectral distortion by applying an individual weight to each element in the error vector. The weight vectors are calculated for each input vector using the Inverse Harmonic Mean Weighting (IHMW) function proposed by Laroia et al., see <xref target="laroia-icassp" />.
1658                 Consequently, we solve the following minimization problem, i.e.,
1659                 <figure align="center">
1660                   <artwork align="center">
1661                     <![CDATA[
1662 LSF_q = argmin { (LSF - c)' * W * (LSF - c) + mu * rate },
1663         c in C
1664             ]]>
1665                   </artwork>
1666                 </figure>
1667                 where LSF_q is the quantized vector, LSF is the input vector to be quantized, and c is the quantized LSF vector candidate taken from the set C of all possible outcomes of the codebook.
1668               </t>
1669             </section>
1670             <section title='Multi-Stage Vector Codebook'>
1671               <t>
1672                 We arrange the codebook in a multiple stage structure to achieve a quantizer that is both memory efficient and highly scalable in terms of computational complexity, see e.g. <xref target="sinervo-norsig" />. In the first stage the input is the LSF vector to be quantized, and in any other stage s > 1, the input is the quantization error from the previous stage, see <xref target='lsf_quantizer_structure_overview_figure' />.
1673                 <figure align="center" anchor="lsf_quantizer_structure_overview_figure">
1674                   <artwork align="center">
1675                     <![CDATA[
1676       Stage 1:           Stage 2:                Stage S:
1677     +----------+       +----------+            +----------+
1678     |  c_{1,1} |       |  c_{2,1} |            |  c_{S,1} | 
1679 LSF +----------+ res_1 +----------+  res_{S-1} +----------+
1680 --->|  c_{1,2} |------>|  c_{2,2} |--> ... --->|  c_{S,2} |--->
1681     +----------+       +----------+            +----------+ res_S =
1682         ...                ...                     ...      LSF-LSF_q
1683     +----------+       +----------+            +----------+ 
1684     |c_{1,M1-1}|       |c_{2,M2-1}|            |c_{S,MS-1}|
1685     +----------+       +----------+            +----------+     
1686     | c_{1,M1} |       | c_{2,M2} |            | c_{S,MS} |
1687     +----------+       +----------+            +----------+
1688 ]]>
1689                   </artwork>
1690                   <postamble>Multi-Stage LSF Vector Codebook Structure.</postamble>
1691                 </figure>
1692               </t>
1693
1694               <t>
1695                 By storing total of M codebook vectors, i.e.,
1696                 <figure align="center">
1697                   <artwork align="center">
1698                     <![CDATA[
1699      S
1700     __
1701 M = \  Ms,
1702     /_
1703     s=1
1704 ]]>
1705                   </artwork>
1706                 </figure>
1707                 where M_s is the number of vectors in stage s, we obtain a total of
1708                 <figure align="center">
1709                   <artwork align="center">
1710                     <![CDATA[
1711      S
1712     ___
1713 T = | | Ms
1714     s=1
1715 ]]>
1716                   </artwork>
1717                 </figure>
1718                 possible combinations for generating the quantized vector. It is for example possible to represent 2^36 uniquely combined vectors using only 216 vectors in memory, as done in SILK for voiced speech at all sample frequencies above 8 kHz.
1719               </t>
1720             </section>
1721             <section title='Survivor Based Codebook Search'>
1722               <t>
1723                 This number of possible combinations is far too high for a full search to be carried out for each frame so for all stages but the last, i.e., s smaller than S, only the best min( L, Ms ) centroids are carried over to stage s+1. In each stage the objective function, i.e., the weighted sum of accumulated bit-rate and distortion, is evaluated for each codebook vector entry and the results are sorted. Only the best paths and the corresponding quantization errors are considered in the next stage. In the last stage S the single best path through the multistage codebook is determined. By varying the maximum number of survivors from each stage to the next L, the complexity can be adjusted in real-time at the cost of a potential increase when evaluating the objective function for the resulting quantized vector. This approach scales all the way between the two extremes, L=1 being a greedy search, and the desirable but infeasible full search, L=T/MS. In fact, a performance almost as good as what can be achieved with the infeasible full search can be obtained at a substantially lower complexity by using this approach, see e.g. <xref target='leblanc-tsap' />.
1724               </t>
1725             </section>
1726             <section title='LSF Stabilization' anchor='lsf_stabilizer_overview_section'>
1727               <t>If the input is stable, finding the best candidate will usually result in the quantized vector also being stable, but due to the multi-stage approach it could in theory happen that the best quantization candidate is unstable and because of this there is a need to explicitly ensure that the quantized vectors are stable. Therefore we apply a LSF stabilization method which ensures that the LSF parameters are within valid range, increasingly sorted, and have minimum distances between each other and the border values that have been pre-determined as the 0.01 percentile distance values from a large training set.</t>
1728             </section>
1729             <section title='Off-Line Codebook Training'>
1730               <t>
1731                 The vectors and rate tables for the multi-stage codebook have been trained by minimizing the average of the objective function for LSF vectors from a large training set.
1732               </t>
1733             </section>
1734           </section>
1735
1736           <section title='LTP Quantization' anchor='ltp_quantizer_overview_section'>
1737             <t>
1738               For voiced frames, the prediction analysis described in <xref target='pred_ana_voiced_overview_section' /> resulted in four sets (one set per subframe) of five LTP coefficients, plus four weighting matrices. Also, the LTP coefficients for each subframe are quantized using entropy constrained vector quantization. A total of three vector codebooks are available for quantization, with different rate-distortion trade-offs. The three codebooks have 10, 20 and 40 vectors and average rates of about 3, 4, and 5 bits per vector, respectively. Consequently, the first codebook has larger average quantization distortion at a lower rate, whereas the last codebook has smaller average quantization distortion at a higher rate. Given the weighting matrix W_ltp and LTP vector b, the weighted rate-distortion measure for a codebook vector cb_i with rate r_i is give by
1739               <figure align="center">
1740                 <artwork align="center">
1741                   <![CDATA[
1742  RD = u * (b - cb_i)' * W_ltp * (b - cb_i) + r_i,
1743 ]]>
1744                 </artwork>
1745               </figure>
1746               where u is a fixed, heuristically-determined parameter balancing the distortion and rate. Which codebook gives the best performance for a given LTP vector depends on the weighting matrix for that LTP vector. For example, for a low valued W_ltp, it is advantageous to use the codebook with 10 vectors as it has a lower average rate. For a large W_ltp, on the other hand, it is often better to use the codebook with 40 vectors, as it is more likely to contain the best codebook vector.
1747               The weighting matrix W_ltp depends mostly on two aspects of the input signal. The first is the periodicity of the signal; the more periodic the larger W_ltp. The second is the change in signal energy in the current subframe, relative to the signal one pitch lag earlier. A decaying energy leads to a larger W_ltp than an increasing energy. Both aspects do not fluctuate very fast which causes the W_ltp matrices for different subframes of one frame often to be similar. As a result, one of the three codebooks typically gives good performance for all subframes. Therefore the codebook search for the subframe LTP vectors is constrained to only allow codebook vectors to be chosen from the same codebook, resulting in a rate reduction.
1748             </t>
1749
1750             <t>
1751               To find the best codebook, each of the three vector codebooks is used to quantize all subframe LTP vectors and produce a combined weighted rate-distortion measure for each vector codebook and the vector codebook with the lowest combined rate-distortion over all subframes is chosen. The quantized LTP vectors are used in the noise shaping quantizer, and the index of the codebook plus the four indices for the four subframe codebook vectors are passed on to the range encoder.
1752             </t>
1753           </section>
1754
1755
1756           <section title='Noise Shaping Quantizer'>
1757             <t>
1758               The noise shaping quantizer independently shapes the signal and coding noise spectra to obtain a perceptually higher quality at the same bitrate.
1759             </t>
1760             <t>
1761               The prefilter output signal is multiplied with a compensation gain G computed in the noise shaping analysis. Then the output of a synthesis shaping filter is added, and the output of a prediction filter is subtracted to create a residual signal. The residual signal is multiplied by the inverse quantized quantization gain from the noise shaping analysis, and input to a scalar quantizer. The quantization indices of the scalar quantizer represent a signal of pulses that is input to the pyramid range encoder. The scalar quantizer also outputs a quantization signal, which is multiplied by the quantized quantization gain from the noise shaping analysis to create an excitation signal. The output of the prediction filter is added to the excitation signal to form the quantized output signal y(n). The quantized output signal y(n) is input to the synthesis shaping and prediction filters.
1762             </t>
1763
1764           </section>
1765
1766           <section title='Range Encoder'>
1767             <t>
1768               Range encoding is a well known method for entropy coding in which a bitstream sequence is continually updated with every new symbol, based on the probability for that symbol. It is similar to arithmetic coding but rather than being restricted to generating binary output symbols, it can generate symbols in any chosen number base. In SILK all side information is range encoded. Each quantized parameter has its own cumulative density function based on histograms for the quantization indices obtained by running a training database.
1769             </t>
1770
1771             <section title='Bitstream Encoding Details'>
1772               <t>
1773                 TBD.
1774               </t>
1775             </section>
1776           </section>
1777         </section>
1778
1779
1780 <section title="CELT Encoder">
1781 <t>
1782 Copy from CELT draft.
1783 </t>
1784
1785 <section anchor="prefilter" title="Pre-filter">
1786 <t>
1787 Inverse of the post-filter
1788 </t>
1789 </section>
1790
1791
1792 <section anchor="forward-mdct" title="Forward MDCT">
1793
1794 <t>The MDCT implementation has no special characteristics. The
1795 input is a windowed signal (after pre-emphasis) of 2*N samples and the output is N
1796 frequency-domain samples. A <spanx style="emph">low-overlap</spanx> window is used to reduce the algorithmic delay. 
1797 It is derived from a basic (full overlap) window that is the same as the one used in the Vorbis codec: W(n)=[sin(pi/2*sin(pi/2*(n+.5)/L))]^2. The low-overlap window is created by zero-padding the basic window and inserting ones in the middle, such that the resulting window still satisfies power complementarity. The MDCT is computed in mdct_forward() (mdct.c), which includes the windowing operation and a scaling of 2/N.
1798 </t>
1799 </section>
1800
1801 <section anchor="normalization" title="Bands and Normalization">
1802 <t>
1803 The MDCT output is divided into bands that are designed to match the ear's critical 
1804 bands for the smallest (2.5ms) frame size. The larger frame sizes use integer
1805 multiplies of the 2.5ms layout. For each band, the encoder
1806 computes the energy that will later be encoded. Each band is then normalized by the 
1807 square root of the <spanx style="strong">non-quantized</spanx> energy, such that each band now forms a unit vector X.
1808 The energy and the normalization are computed by compute_band_energies()
1809 and normalise_bands() (bands.c), respectively.
1810 </t>
1811 </section>
1812
1813 <section anchor="energy-quantization" title="Energy Envelope Quantization">
1814
1815 <t>
1816 It is important to quantize the energy with sufficient resolution because
1817 any energy quantization error cannot be compensated for at a later
1818 stage. Regardless of the resolution used for encoding the shape of a band,
1819 it is perceptually important to preserve the energy in each band. CELT uses a
1820 coarse-fine strategy for encoding the energy in the base-2 log domain, 
1821 as implemented in quant_bands.c</t>
1822
1823 <section anchor="coarse-energy" title="Coarse energy quantization">
1824 <t>
1825 The coarse quantization of the energy uses a fixed resolution of 6 dB.
1826 To minimize the bitrate, prediction is applied both in time (using the previous frame)
1827 and in frequency (using the previous bands). The prediction using the
1828 previous frame can be disabled, creating an "intra" frame where the energy
1829 is coded without reference to prior frames. An encoder is able to choose the
1830 mode used at will based on both loss robustness and efficiency
1831 considerations.
1832 The 2-D z-transform of
1833 the prediction filter is: A(z_l, z_b)=(1-a*z_l^-1)*(1-z_b^-1)/(1-b*z_b^-1)
1834 where b is the band index and l is the frame index. The prediction coefficients
1835 applied depend on the frame size in use when not using intra energy and a=0 b=4915/32768
1836 when using intra energy.
1837 The time-domain prediction is based on the final fine quantization of the previous
1838 frame, while the frequency domain (within the current frame) prediction is based
1839 on coarse quantization only (because the fine quantization has not been computed
1840 yet). The prediction is clamped internally so that fixed point implementations with
1841 limited dynamic range to not suffer desynchronization.  Identical prediction
1842 clamping must be implemented in all encoders and decoders.
1843 We approximate the ideal
1844 probability distribution of the prediction error using a Laplace distribution
1845 with seperate parameters for each frame size in intra and inter-frame modes. The
1846 coarse energy quantization is performed by quant_coarse_energy() and 
1847 quant_coarse_energy() (quant_bands.c). The encoding of the Laplace-distributed values is
1848 implemented in ec_laplace_encode() (laplace.c).
1849 </t>
1850
1851 <!-- FIXME: bit budget consideration -->
1852 </section> <!-- coarse energy -->
1853
1854 <section anchor="fine-energy" title="Fine energy quantization">
1855 <t>
1856 After the coarse energy quantization and encoding, the bit allocation is computed 
1857 (<xref target="allocation"></xref>) and the number of bits to use for refining the
1858 energy quantization is determined for each band. Let B_i be the number of fine energy bits 
1859 for band i; the refinement is an integer f in the range [0,2^B_i-1]. The mapping between f
1860 and the correction applied to the coarse energy is equal to (f+1/2)/2^B_i - 1/2. Fine
1861 energy quantization is implemented in quant_fine_energy() 
1862 (quant_bands.c).
1863 </t>
1864
1865 <t>
1866 If any bits are unused at the end of the encoding process, these bits are used to
1867 increase the resolution of the fine energy encoding in some bands. Priority is given
1868 to the bands for which the allocation (<xref target="allocation"></xref>) was rounded
1869 down. At the same level of priority, lower bands are encoded first. Refinement bits
1870 are added until there is no more room for fine energy or until each band
1871 has gained an additional bit of precision or has the maximum fine
1872 energy precision. This is implemented in quant_energy_finalise()
1873 (quant_bands.c).
1874 </t>
1875
1876 </section> <!-- fine energy -->
1877
1878
1879 </section> <!-- Energy quant -->
1880
1881
1882 <section anchor="pvq" title="Spherical Vector Quantization">
1883 <t>CELT uses a Pyramid Vector Quantization (PVQ) <xref target="PVQ"></xref>
1884 codebook for quantizing the details of the spectrum in each band that have not
1885 been predicted by the pitch predictor. The PVQ codebook consists of all sums
1886 of K signed pulses in a vector of N samples, where two pulses at the same position
1887 are required to have the same sign. Thus the codebook includes 
1888 all integer codevectors y of N dimensions that satisfy sum(abs(y(j))) = K.
1889 </t>
1890
1891 <t>
1892 In bands where there are sufficient bits allocated the PVQ is used to encode
1893 the unit vector that results from the normalization in 
1894 <xref target="normalization"></xref> directly. Given a PVQ codevector y, 
1895 the unit vector X is obtained as X = y/||y||, where ||.|| denotes the 
1896 L2 norm.
1897 </t>
1898
1899
1900 <section anchor="pvq-search" title="PVQ Search">
1901
1902 <t>
1903 The search for the best codevector y is performed by alg_quant()
1904 (vq.c). There are several possible approaches to the 
1905 search with a tradeoff between quality and complexity. The method used in the reference
1906 implementation computes an initial codeword y1 by projecting the residual signal 
1907 R = X - p' onto the codebook pyramid of K-1 pulses:
1908 </t>
1909 <t>
1910 y0 = round_towards_zero( (K-1) * R / sum(abs(R)))
1911 </t>
1912
1913 <t>
1914 Depending on N, K and the input data, the initial codeword y0 may contain from 
1915 0 to K-1 non-zero values. All the remaining pulses, with the exception of the last one, 
1916 are found iteratively with a greedy search that minimizes the normalized correlation
1917 between y and R:
1918 </t>
1919
1920 <t>
1921 J = -R^T*y / ||y||
1922 </t>
1923
1924 <t>
1925 The search described above is considered to be a good trade-off between quality
1926 and computational cost. However, there are other possible ways to search the PVQ
1927 codebook and the implementors MAY use any other search methods.
1928 </t>
1929 </section>
1930
1931
1932 <section anchor="cwrs-encoding" title="Index Encoding">
1933 <t>
1934 The best PVQ codeword is encoded as a uniformly-distributed integer value
1935 by encode_pulses() (cwrs.c).
1936 The codeword is converted from a unique index in the same way as specified in 
1937 <xref target="PVQ"></xref>. The indexing is based on the calculation of V(N,K) 
1938 (denoted N(L,K) in <xref target="PVQ"></xref>), which is the number of possible
1939 combinations of K pulses in N samples.
1940 </t>
1941
1942 </section>
1943
1944 </section>
1945
1946
1947 <section anchor="stereo" title="Stereo support">
1948 <t>
1949 When encoding a stereo stream, some parameters are shared across the left and right channels, while others are transmitted separately for each channel, or jointly encoded. Only one copy of the flags for the features, transients and pitch (pitch
1950 period and filter parameters) are transmitted. The coarse and fine energy parameters are transmitted separately for each channel. Both the coarse energy and fine energy (including the remaining fine bits at the end of the stream) have the left and right bands interleaved in the stream, with the left band encoded first.
1951 </t>
1952
1953 <t>
1954 The main difference between mono and stereo coding is the PVQ coding of the normalized vectors. In stereo mode, a normalized mid-side (M-S) encoding is used. Let L and R be the normalized vector of a certain band for the left and right channels, respectively. The mid and side vectors are computed as M=L+R and S=L-R and no longer have unit norm.
1955 </t>
1956
1957 <t>
1958 From M and S, an angular parameter theta=2/pi*atan2(||S||, ||M||) is computed. The theta parameter is converted to a Q14 fixed-point parameter itheta, which is quantized on a scale from 0 to 1 with an interval of 2^-qb, where qb is
1959 based the number of bits allocated to the band. From here on, the value of itheta MUST be treated in a bit-exact manner since both the encoder and decoder rely on it to infer the bit allocation.
1960 </t>
1961 <t>
1962 Let m=M/||M|| and s=S/||S||; m and s are separately encoded with the PVQ encoder described in <xref target="pvq"></xref>. The number of bits allocated to m and s depends on the value of itheta.
1963 </t>
1964
1965 </section>
1966
1967
1968 <section anchor="synthesis" title="Synthesis">
1969 <t>
1970 After all the quantization is completed, the quantized energy is used along with the 
1971 quantized normalized band data to resynthesize the MDCT spectrum. The inverse MDCT (<xref target="inverse-mdct"></xref>) and the weighted overlap-add are applied and the signal is stored in the <spanx style="emph">synthesis
1972 buffer</spanx>.
1973 The encoder MAY omit this step of the processing if it does not need the decoded output.
1974 </t>
1975 </section>
1976
1977 <section anchor="vbr" title="Variable Bitrate (VBR)">
1978 <t>
1979 Each CELT frame can be encoded in a different number of octets, making it possible to vary the bitrate at will. This property can be used to implement source-controlled variable bitrate (VBR). Support for VBR is OPTIONAL for the encoder, but a decoder MUST be prepared to decode a stream that changes its bit-rate dynamically. The method used to vary the bit-rate in VBR mode is left to the implementor, as long as each frame can be decoded by the reference decoder.
1980 </t>
1981 </section>
1982
1983 </section>
1984
1985 </section>
1986
1987
1988 <section title="Conformance">
1989
1990 <t>
1991 It is the intention to allow the greatest possible choice of freedom in 
1992 implementing the specification. For this reason, outside of a few exceptions
1993 noted in this section, conformance is defined through the reference
1994 implementation of the decoder provided in Appendix <xref target="ref-implementation"></xref>.
1995 Although this document includes an English description of the codec, should 
1996 the description contradict the source code of the reference implementation, 
1997 the latter shall take precedence.
1998 </t>
1999
2000 <t>
2001 Compliance with this specification means that a decoder's output MUST be
2002 within the thresholds specified compared to the reference implementation
2003 using the opus_compare.m tool in Appendix <xref
2004 target="opus-compare"></xref>.
2005 </t>
2006 </section>
2007
2008 <section anchor="security" title="Security Considerations">
2009
2010 <t>
2011 The codec needs to take appropriate security considerations 
2012 into account, as outlined in <xref target="DOS"/> and <xref target="SECGUIDE"/>.
2013 It is extremely important for the decoder to be robust against malicious
2014 payloads. Malicious payloads must not cause the decoder to overrun its
2015 allocated memory or to take much more resources to decode. Although problems
2016 in encoders are typically rarer, the same applies to the encoder. Malicious
2017 audio stream must not cause the encoder to misbehave because this would
2018 allow an attacker to attack transcoding gateways.
2019 </t>
2020 <t>
2021 The reference implementation contains no known buffer overflow or cases where
2022 a specially crafter packet or audio segment could cause a significant increase
2023 in CPU load. However, on certain CPU architectures where denormalized 
2024 floating-point operations are much slower it is possible for some audio content
2025 (e.g. silence or near-silence) to cause such an increase
2026 in CPU load. For such architectures, it is RECOMMENDED to add very small
2027 floating-point offsets to prevent significant numbers of denormalized
2028 operations or to configure the hardware to zeroize denormal numbers.
2029 No such issue exists for the fixed-point reference implementation.
2030 </t>
2031 </section> 
2032
2033
2034 <section title="IANA Considerations ">
2035 <t>
2036 This document has no actions for IANA.
2037 </t>
2038 </section>
2039
2040 <section anchor="Acknowledgments" title="Acknowledgments">
2041 <t>
2042 Thanks to all other developers, including Raymond Chen, Soeren Skak Jensen, Gregory Maxwell, 
2043 Christopher Montgomery, Karsten Vandborg Soerensen, and Timothy Terriberry. We would also
2044 like to thank Igor Dyakonov, Jan Skoglund for their help with subjective testing of the
2045 Opus codec. Thanks to John Ridges, Keith Yan and many others on the Opus and CELT mailing lists
2046 for their bug reports and feeback.
2047 </t>
2048 </section> 
2049
2050 </middle>
2051
2052 <back>
2053
2054 <references title="Informative References">
2055
2056 <reference anchor='SILK'>
2057 <front>
2058 <title>SILK Speech Codec</title>
2059 <author initials='K.' surname='Vos' fullname='K. Vos'>
2060 <organization /></author>
2061 <author initials='S.' surname='Jensen' fullname='S. Jensen'>
2062 <organization /></author>
2063 <author initials='K.' surname='Soerensen' fullname='K. Soerensen'>
2064 <organization /></author>
2065 <date year='2010' month='March' />
2066 <abstract>
2067 <t></t>
2068 </abstract></front>
2069 <seriesInfo name='Internet-Draft' value='draft-vos-silk-01' />
2070 <format type='TXT' target='http://tools.ietf.org/html/draft-vos-silk-01' />
2071 </reference>
2072
2073       <reference anchor="laroia-icassp">
2074         <front>
2075           <title abbrev="Robust and Efficient Quantization of Speech LSP">
2076             Robust and Efficient Quantization of Speech LSP Parameters Using Structured Vector Quantization
2077           </title>
2078           <author initials="R.L." surname="Laroia" fullname="R.">
2079             <organization/>
2080           </author>
2081           <author initials="N.P." surname="Phamdo" fullname="N.">
2082             <organization/>
2083           </author>
2084           <author initials="N.F." surname="Farvardin" fullname="N.">
2085             <organization/>
2086           </author>
2087         </front>
2088         <seriesInfo name="ICASSP-1991, Proc. IEEE Int. Conf. Acoust., Speech, Signal Processing, pp. 641-644, October" value="1991"/>
2089       </reference>
2090
2091       <reference anchor="sinervo-norsig">
2092         <front>
2093           <title abbrev="SVQ versus MSVQ">Evaluation of Split and Multistage Techniques in LSF Quantization</title>
2094           <author initials="U.S." surname="Sinervo" fullname="Ulpu Sinervo">
2095             <organization/>
2096           </author>
2097           <author initials="J.N." surname="Nurminen" fullname="Jani Nurminen">
2098             <organization/>
2099           </author>
2100           <author initials="A.H." surname="Heikkinen" fullname="Ari Heikkinen">
2101             <organization/>
2102           </author>
2103           <author initials="J.S." surname="Saarinen" fullname="Jukka Saarinen">
2104             <organization/>
2105           </author>
2106         </front>
2107         <seriesInfo name="NORSIG-2001, Norsk symposium i signalbehandling, Trondheim, Norge, October" value="2001"/>
2108       </reference>
2109
2110       <reference anchor="leblanc-tsap">
2111         <front>
2112           <title>Efficient Search and Design Procedures for Robust Multi-Stage VQ of LPC Parameters for 4 kb/s Speech Coding</title>
2113           <author initials="W.P." surname="LeBlanc" fullname="">
2114             <organization/>
2115           </author>
2116           <author initials="B." surname="Bhattacharya" fullname="">
2117             <organization/>
2118           </author>
2119           <author initials="S.A." surname="Mahmoud" fullname="">
2120             <organization/>
2121           </author>
2122           <author initials="V." surname="Cuperman" fullname="">
2123             <organization/>
2124           </author>
2125         </front>
2126         <seriesInfo name="IEEE Transactions on Speech and Audio Processing, Vol. 1, No. 4, October" value="1993" />
2127       </reference>
2128
2129 <reference anchor='CELT'>
2130 <front>
2131 <title>Constrained-Energy Lapped Transform (CELT) Codec</title>
2132 <author initials='J-M.' surname='Valin' fullname='J-M. Valin'>
2133 <organization /></author>
2134 <author initials='T.' surname='Terriberry' fullname='T. Terriberry'>
2135 <organization /></author>
2136 <author initials='G.' surname='Maxwell' fullname='G. Maxwell'>
2137 <organization /></author>
2138 <author initials='C.' surname='Montgomery' fullname='C. Montgomery'>
2139 <organization /></author>
2140 <date year='2010' month='July' />
2141 <abstract>
2142 <t></t>
2143 </abstract></front>
2144 <seriesInfo name='Internet-Draft' value='draft-valin-celt-codec-02' />
2145 <format type='TXT' target='http://tools.ietf.org/html/draft-valin-celt-codec-02' />
2146 </reference>
2147
2148 <reference anchor='DOS'>
2149 <front>
2150 <title>Internet Denial-of-Service Considerations</title>
2151 <author initials='M.' surname='Handley' fullname='M. Handley'>
2152 <organization /></author>
2153 <author initials='E.' surname='Rescorla' fullname='E. Rescorla'>
2154 <organization /></author>
2155 <author>
2156 <organization>IAB</organization></author>
2157 <date year='2006' month='December' />
2158 <abstract>
2159 <t>This document provides an overview of possible avenues for denial-of-service (DoS) attack on Internet systems.  The aim is to encourage protocol designers and network engineers towards designs that are more robust.  We discuss partial solutions that reduce the effectiveness of attacks, and how some solutions might inadvertently open up alternative vulnerabilities.  This memo provides information for the Internet community.</t></abstract></front>
2160 <seriesInfo name='RFC' value='4732' />
2161 <format type='TXT' octets='91844' target='ftp://ftp.isi.edu/in-notes/rfc4732.txt' />
2162 </reference>
2163
2164 <reference anchor='SECGUIDE'>
2165 <front>
2166 <title>Guidelines for Writing RFC Text on Security Considerations</title>
2167 <author initials='E.' surname='Rescorla' fullname='E. Rescorla'>
2168 <organization /></author>
2169 <author initials='B.' surname='Korver' fullname='B. Korver'>
2170 <organization /></author>
2171 <date year='2003' month='July' />
2172 <abstract>
2173 <t>All RFCs are required to have a Security Considerations section.  Historically, such sections have been relatively weak.  This document provides guidelines to RFC authors on how to write a good Security Considerations section.  This document specifies an Internet Best Current Practices for the Internet Community, and requests discussion and suggestions for improvements.</t></abstract></front>
2174
2175 <seriesInfo name='BCP' value='72' />
2176 <seriesInfo name='RFC' value='3552' />
2177 <format type='TXT' octets='110393' target='ftp://ftp.isi.edu/in-notes/rfc3552.txt' />
2178 </reference>
2179
2180 <reference anchor="range-coding">
2181 <front>
2182 <title>Range encoding: An algorithm for removing redundancy from a digitised message</title>
2183 <author initials="G." surname="Nigel" fullname=""><organization/></author>
2184 <author initials="N." surname="Martin" fullname=""><organization/></author>
2185 <date year="1979" />
2186 </front>
2187 <seriesInfo name="Proc. Institution of Electronic and Radio Engineers International Conference on Video and Data Recording" value="" />
2188 </reference> 
2189
2190 <reference anchor="coding-thesis">
2191 <front>
2192 <title>Source coding algorithms for fast data compression</title>
2193 <author initials="R." surname="Pasco" fullname=""><organization/></author>
2194 <date month="May" year="1976" />
2195 </front>
2196 <seriesInfo name="Ph.D. thesis" value="Dept. of Electrical Engineering, Stanford University" />
2197 </reference>
2198
2199 <reference anchor="PVQ">
2200 <front>
2201 <title>A Pyramid Vector Quantizer</title>
2202 <author initials="T." surname="Fischer" fullname=""><organization/></author>
2203 <date month="July" year="1986" />
2204 </front>
2205 <seriesInfo name="IEEE Trans. on Information Theory, Vol. 32" value="pp. 568-583" />
2206 </reference> 
2207
2208 </references> 
2209
2210 <section anchor="ref-implementation" title="Reference Implementation">
2211
2212 <t>This appendix contains the complete source code for the
2213 reference implementation of the Opus codec written in C. This
2214 implementation can be compiled for 
2215 either floating-point or fixed-point architectures.
2216 </t>
2217
2218 <t>The implementation can be compiled with either a C89 or a C99
2219 compiler. It is reasonably optimized for most platforms such that
2220 only architecture-specific optimizations are likely to be useful.
2221 The FFT used is a slightly modified version of the KISS-FFT package,
2222 but it is easy to substitute any other FFT library.
2223 </t>
2224
2225 <section title="Extracting the source">
2226 <t>
2227 The complete source code can be extracted from this draft, by running the
2228 following command line:
2229
2230 <list style="symbols">
2231 <t><![CDATA[
2232 cat draft-ietf-codec-opus.txt | grep '^\ \ \ ###' | sed 's/\s\s\s###//' | base64 -d > opus_source.tar.gz
2233 ]]></t>
2234 <t>
2235 tar xzvf opus_source.tar.gz
2236 </t>
2237 <t>cd opus_source</t>
2238 <t>make</t>
2239 </list>
2240
2241 </t>
2242 </section>
2243
2244 <section title="Base64-encoded source code">
2245 <t>
2246 <?rfc include="opus_source.base64"?>
2247 </t>
2248 </section>
2249
2250 </section>
2251
2252 <section anchor="opus-compare" title="opus_compare.m">
2253 <t>
2254 <?rfc include="opus_compare_escaped.m"?>
2255 </t>
2256 </section>
2257
2258 </back>
2259
2260 </rfc>