opus_demo now returns 1 on mismatch
[opus.git] / doc / draft-ietf-codec-opus.xml
index 61efb11..02b6d87 100644 (file)
@@ -2,23 +2,23 @@
 <!DOCTYPE rfc SYSTEM 'rfc2629.dtd'>
 <?rfc toc="yes" symrefs="yes" ?>
-<rfc ipr="trust200902" category="std" docName="draft-ietf-codec-opus-07">
+<rfc ipr="trust200902" category="std" docName="draft-ietf-codec-opus-08">
 <title abbrev="Interactive Audio Codec">Definition of the Opus Audio Codec</title>
 <author initials="JM" surname="Valin" fullname="Jean-Marc Valin">
-<organization>Octasic Inc.</organization>
+<organization>Mozilla Corporation</organization>
-<street>4101, Molson Street</street>
+<street>650 Castro Street</street>
+<city>Mountain View</city>
-<phone>+1 514 282-8858</phone>
+<phone>+1 650 903-0800</phone>
@@ -38,7 +38,7 @@
-<author initials="T." surname="Terriberry" fullname="Timothy Terriberry">
+<author initials="T&#x2E;B." surname="Terriberry" fullname="Timothy B. Terriberry">
 <organization>Mozilla Corporation</organization>
@@ -53,7 +53,7 @@
-<date day="7" month="July" year="2011" />
+<date day="16" month="August" year="2011" />
-This document defines the Opus codec, designed for interactive speech and audio
- transmission over the Internet.
+This document defines the Opus interactive speech and audio codec.
+Opus is designed to handle a wide range of interactive audio applications,
+ including Voice over IP, videoconferencing, in-game chat, and even live,
+ distributed music performances.
+It scales from low bit-rate narrowband speech at 6 kb/s to very high quality
+ stereo music at 510 kb/s.
+Opus uses both linear prediction (LP) and the Modified Discrete Cosine
+ Transform (MDCT) to achieve good compression of both speech and music.
@@ -71,7 +77,9 @@ This document defines the Opus codec, designed for interactive speech and audio
 <section anchor="introduction" title="Introduction">
-The Opus codec is a real-time interactive audio codec composed of a linear
+The Opus codec is a real-time interactive audio codec designed to meet the requirements
+described in <xref target="requirements"></xref>. 
+It is composed of a linear
  prediction (LP)-based layer and a Modified Discrete Cosine Transform
  (MDCT)-based layer.
 The main idea behind using two layers is that in speech, linear prediction
@@ -86,7 +94,7 @@ Thus a codec with both layers available can operate over a wider range than
 The primary normative part of this specification is provided by the source code
  in <xref target="ref-implementation"></xref>.
-In general, only the decoder portion of this software is normative, though a
+Only the decoder portion of this software is normative, though a
  significant amount of code is shared by both the encoder and decoder.
 <!--TODO: Forward reference conformance test-->
 The decoder contains significant amounts of integer and fixed-point arithmetic
@@ -126,7 +134,7 @@ representation most clearly provides the "how".
 The key words "MUST", "MUST NOT", "REQUIRED", "SHALL", "SHALL NOT", "SHOULD",
  "SHOULD NOT", "RECOMMENDED", "MAY", and "OPTIONAL" in this document are to be
- interpreted as described in RFC 2119.
+ interpreted as described in RFC 2119 <xref target="rfc2119"></xref>.
 Even when using floating-point, various operations in the codec require
@@ -142,24 +150,24 @@ E.g., the text will explicitly indicate any shifts required after a
 Expressions, where included in the text, follow C operator rules and
- precedence, with the exception that syntax like "2**n" is used to indicate 2
- raised to the power n.
+ precedence, with the exception that the syntax "x**y" is used to indicate x
+ raised to the power y.
 The text also makes use of the following functions:
-<section anchor="min" title="min(x,y)">
+<section anchor="min" toc="exclude" title="min(x,y)">
 The smallest of two values x and y.
-<section anchor="max" title="max(x,y)">
+<section anchor="max" toc="exclude" title="max(x,y)">
 The largest of two values x and y.
-<section anchor="clamp" title="clamp(lo,x,hi)">
+<section anchor="clamp" toc="exclude" title="clamp(lo,x,hi)">
 <figure align="center">
 <artwork align="center"><![CDATA[
 clamp(lo,x,hi) = max(lo,min(x,hi))
@@ -170,7 +178,7 @@ With this definition, if lo&gt;hi, the lower bound is the one that is enforced.
-<section anchor="sign" title="sign(x)">
+<section anchor="sign" toc="exclude" title="sign(x)">
 The sign of x, i.e.,
 <figure align="center">
@@ -183,13 +191,13 @@ sign(x) = <  0,  x == 0 ,
-<section anchor="log2" title="log2(f)">
+<section anchor="log2" toc="exclude" title="log2(f)">
 The base-two logarithm of f.
-<section anchor="ilog" title="ilog(n)">
+<section anchor="ilog" toc="exclude" title="ilog(n)">
 The minimum number of bits required to store a positive integer n in two's
  complement notation, or 0 for a non-positive integer n.
@@ -227,24 +235,41 @@ At any given time, either the LP layer, the MDCT layer, or both, may be active.
 It can seamlessly switch between all of its various operating modes, giving it
  a great deal of flexibility to adapt to varying content and network
  conditions without renegotiating the current session.
-Internally, the codec always operates at a 48&nbsp;kHz sampling rate, though it
allows input and output of various bandwidths, defined as follows:
+The codec allows input and output of various audio bandwidths, defined as
+ follows:
+<texttable anchor="audio-bandwidth">
 <ttcol align="right">Audio Bandwidth</ttcol>
-<ttcol align="right">Sampling Rate (Effective)</ttcol>
+<ttcol align="right">Sample Rate (Effective)</ttcol>
 <c>NB (narrowband)</c>       <c>4&nbsp;kHz</c>  <c>8&nbsp;kHz</c>
 <c>MB (medium-band)</c>      <c>6&nbsp;kHz</c> <c>12&nbsp;kHz</c>
 <c>WB (wideband)</c>         <c>8&nbsp;kHz</c> <c>16&nbsp;kHz</c>
 <c>SWB (super-wideband)</c> <c>12&nbsp;kHz</c> <c>24&nbsp;kHz</c>
-<c>FB (fullband)</c>        <c>20&nbsp;kHz</c> <c>48&nbsp;kHz</c>
+<c>FB (fullband)</c>        <c>20&nbsp;kHz (*)</c> <c>48&nbsp;kHz</c>
-These can be chosen independently on the encoder and decoder side, e.g., a
- fullband signal can be decoded as wideband, or vice versa.
-This approach ensures a sender and receiver can always interoperate, regardless
- of the capabilities of their actual audio hardware.
+(*) Although the sampling theorem allows a bandwidth as large as half the
+ sampling rate, Opus never codes audio above 20&nbsp;kHz, as that is the
+ generally accepted upper limit of human hearing.
+Opus defines super-wideband (SWB) with an effective sample rate of 24&nbsp;kHz,
+ unlike some other audio coding standards that use 32&nbsp;kHz.
+This was chosen for a number of reasons.
+The band layout in the MDCT layer naturally allows skipping coefficients for
+ frequencies over 12&nbsp;kHz, but does not allow cleanly dropping just those
+ frequencies over 16&nbsp;kHz.
+A sample rate of 24&nbsp;kHz also makes resampling in the MDCT layer easier,
+ as 24 evenly divides 48, and when 24&nbsp;kHz is sufficient, it can save
+ computation in other processing, such as Acoustic Echo Cancellation (AEC).
+Experimental changes to the band layout to allow a 16&nbsp;kHz cutoff
+ (32&nbsp;kHz effective sample rate) showed potential quality degredations at
+ other sample rates, and at typical bitrates the number of bits saved by using
+ such a cutoff instead of coding in fullband (FB) mode is very small.
+Therefore, if an application wishes to process a signal sampled at 32&nbsp;kHz,
+ it should just use FB.
@@ -252,19 +277,18 @@ The LP layer is based on the
  <eref target='http://developer.skype.com/silk'>SILK</eref> codec
  <xref target="SILK"></xref>.
 It supports NB, MB, or WB audio and frame sizes from 10&nbsp;ms to 60&nbsp;ms,
- and requires an additional 5.2&nbsp;ms look-ahead for noise shaping estimation
(5&nbsp;ms) and internal resampling (0.2&nbsp;ms).
+ and requires an additional 5&nbsp;ms look-ahead for noise shaping estimation.
A small additional delay (up to 1.2 ms) may be required for sampling rate conversion.
 Like Vorbis and many other modern codecs, SILK is inherently designed for
- variable-bitrate (VBR) coding, though an encoder can with sufficient effort
- produce constant-bitrate (CBR) or near-CBR streams.
+ variable-bitrate (VBR) coding, though the encoder can also produce constant-bitrate (CBR).
 The MDCT layer is based on the
  <eref target='http://www.celt-codec.org/'>CELT</eref>  codec
  <xref target="CELT"></xref>.
-It supports sampling NB, WB, SWB, or FB audio and frame sizes from 2.5&nbsp;ms
to 20&nbsp;ms, and requires an additional 2.5&nbsp;ms look-ahead due to the
+It supports NB, WB, SWB, or FB audio and frame sizes from 2.5&nbsp;ms to
+ 20&nbsp;ms, and requires an additional 2.5&nbsp;ms look-ahead due to the
  overlapping MDCT windows.
 The CELT codec is inherently designed for CBR coding, but unlike many CBR
  codecs it is not limited to a set of predetermined rates.
@@ -277,8 +301,8 @@ On the other hand, non-speech signals are not always adequately coded using
-A hybrid mode allows the use of both layers simultaneously with a frame size of
10 or 20&nbsp;ms and a SWB or FB audio bandwidth.
+A "Hybrid" mode allows the use of both layers simultaneously with a frame size
of 10&nbsp;or 20&nbsp;ms and a SWB or FB audio bandwidth.
 Each frame is split into a low frequency signal and a high frequency signal,
  with a cutoff of 8&nbsp;kHz.
 The LP layer then codes the low frequency signal, followed by the MDCT layer
@@ -288,11 +312,29 @@ In the MDCT layer, all bands below 8&nbsp;kHz are discarded, so there is no
-At the decoder, the two decoder outputs are simply added together.
+The sample rate (in contrast to the actual audio bandwidth) can be chosen
+ independently on the encoder and decoder side, e.g., a fullband signal can be
+ decoded as wideband, or vice versa.
+This approach ensures a sender and receiver can always interoperate, regardless
+ of the capabilities of their actual audio hardware.
+Internally, the LP layer always operates at a sample rate of twice the audio
+ bandwidth, up to a maximum of 16&nbsp;kHz, which it continues to use for SWB
+ and FB.
+The decoder simply resamples its output to support different sample rates.
+The MDCT layer always operates internally at a sample rate of 48&nbsp;kHz.
+Since all the supported sample rates evenly divide this rate, and since the
+ the decoder may easily zero out the high frequency portion of the spectrum in
+ the frequency domain, it can simply decimate the MDCT layer output to achieve
+ the other supported sample rates very cheaply.
+After conversion to the common, desired output sample rate, the decoder simply
+ adds the output from the two layers together.
 To compensate for the different look-aheads required by each layer, the CELT
  encoder input is delayed by an additional 2.7&nbsp;ms.
 This ensures that low frequencies and high frequencies arrive at the same time.
-This extra delay MAY be reduced by an encoder by using less lookahead for noise
+This extra delay may be reduced by an encoder by using less look-ahead for noise
  shaping or using a simpler resampler in the LP layer, but this will reduce
 However, the base 2.5&nbsp;ms look-ahead in the CELT layer cannot be reduced in
@@ -308,23 +350,157 @@ Although the LP layer is VBR, the bit allocation of the MDCT layer can produce
  a final stream that is CBR by using all the bits left unused by the LP layer.
+<section title="Control Parameters">
+The Opus codec includes a number of control parameters which can be changed dynamically during
+regular operation of the codec, without interrupting the audio stream from the encoder to the decoder.
+These parameters only affect the encoder since any impact they have on the bit-stream is signalled
+in-band such that a decoder can decode any Opus stream without any out-of-band signalling. Any Opus
+implementation can add or modify these control parameters without affecting interoperability. The most
+important encoder control parameters in the reference encoder are listed below.
+<section title="Bitrate">
+Opus supports all bitrates from 6 kb/s to 510 kb/s. All other parameters being
+equal, higher bit-rate results in higher quality. For a frame size of 20 ms, these
+are the bitrate "sweet spots" for Opus in various configurations:
+<list style="symbols">
+<t>8-12 kb/s for narrowband speech</t>
+<t>16-20 kb/s for wideband speech</t>
+<t>28-40 kb/s for fullband speech</t>
+<t>48-64 kb/s for fullband mono music</t>
+<t>64-128 kb/s for fullband stereo music</t>
+<section title="Number of channels (mono/stereo)">
+Opus can transmit either mono or stereo audio within one stream. When
+decoding a mono stream in stereo, the left and right channels will be
+identical and when decoding a stereo channel in mono, the mono output
+will be the average of the encoded left and right channels. In some cases
+it is desirable to encode a stereo input stream in mono (e.g. because the
+bit-rate is insufficient for good quality stereo). The number of channels
+encoded can be selected in real-time, but by default the reference encoder
+attempts to make the best decision possible given the current bitrate. 
+<section title="Audio bandwidth">
+The audio bandwidths supported by Opus are listed in 
+<xref target="audio-bandwidth"></xref>. Just like for the number of channels,
+any decoder can decode audio encoded at any bandwidth. For example, any Opus
+decoder operating at 8 kHz can decode a fullband Opus stream and any Opus decoder
+operating at 48 kHz can decode a narrowband stream. Similarly, the reference encoder
+can take a 48 kHz input signal and encode it in narrowband. The higher the audio
+bandwidth, the higher the required bitrate to achieve acceptable quality. 
+The audio bandwidth can be explicitly specified in real-time, but by default
+the reference encoder attempts to make the best bandwidth decision possible given
+the current bitrate. 
+<section title="Frame duration">
+Opus can encode frames of 2.5, 5, 10, 20, 40 or 60 ms. It can also combine
+multiple frames into packets of up to 120 ms. Because of the overhead from 
+IP/UDP/RTP headers, sending fewer packets per second reduces the
+bitrate, but increases latency and sensitivity to packet losses as
+losing one packet constitutes a loss of a bigger chunk of audio
+signal.  Increasing the frame duration also slightly improves coding
+efficiency, but the gain becomes small for frame sizes above 20 ms. For
+this reason, 20 ms frames tend to be a good choice for most applications. 
+<section title="Complexity">
+There are various aspects of the Opus encoding process where trade-offs
+can be made between CPU complexity and quality/bitrate. In the reference
+encoder, the complexity is selected using an integer from 0 to 10, where
+0 is the lowest complexity and 10 is the highest. Examples of
+computations for which such trade-offs may occur are:
+<list style="symbols">
+<t>the filter order of the pitch analysis whitening filter the short-term noise shaping filter;</t>
+<t>The number of states in delayed decision quantization of the
+residual signal;</t>
+<t>The use of certain bit-stream features such as variable time-frequency
+resolution and pitch post-filter.</t>
+<section title="Packet loss resilience">
+Audio codecs often exploit inter-frame correlations to reduce the
+bitrate at a cost in error propagation: after losing one packet
+several packets need to be received before the decoder is able to
+accurately reconstruct the speech signal.  The extent to which Opus
+exploits inter-frame dependencies can be adjusted on the fly to
+choose a trade-off between bitrate and amount of error propagation.
+<section title="Forward error correction (FEC)">
+   Another mechanism providing robustness against packet loss is the in-
+   band Forward Error Correction (FEC).  Packets that are determined to
+   contain perceptually important speech information, such as onsets or
+   transients, are encoded again at a lower bitrate and this re-encoded
+   information is added to a subsequent packet.
+<section title="Constant/variable bit-rate">
+Opus is more efficient when operating with variable bitrate (VBR), which is
+the default. However, in some (rare) applications, constant bit-rate (CBR)
+is required. There are two main reasons to operate in CBR mode: 
+<list style="symbols">
+<t>When the transport only supports a fixed size for each compressed frame</t>
+<t>When security is important <spanx style="emph">and</spanx> the input audio
+not a normal conversation but is highly constrained (e.g. yes/no, recorded prompts)
+<xref target="SRTP-VBR"></xref> </t>
+When low-latency transmission is required over a relatively slow connection, then
+constrained VBR can also be used. This uses VBR in a way that simulates a
+"bit reservoir" and is equivalent to what MP3 and AAC call CBR (i.e. not true
+CBR due to the bit reservoir).
+<section title="Discontinuous transmission (DTX)">
+   Discontinuous Transmission (DTX) reduces the bitrate during silence
+   or background noise.  When DTX is enabled, only one frame is encoded
+   every 400 milliseconds.
-<section anchor="modes" title="Codec Modes">
+<section anchor="modes" title="Internal Framing">
 As described, the two layers can be combined in three possible operating modes:
 <list style="numbers">
-<t>A LP-only mode for use in low bitrate connections with an audio bandwidth of
- WB or less,</t>
-<t>A hybrid (LP+MDCT) mode for SWB or FB speech at medium bitrates, and</t>
+<t>An LP-only mode for use in low bitrate connections with an audio bandwidth
of WB or less,</t>
+<t>A Hybrid (LP+MDCT) mode for SWB or FB speech at medium bitrates, and</t>
 <t>An MDCT-only mode for very low delay speech transmission as well as music
- transmission.</t>
+ transmission (NB to FB).</t>
-A single packet may contain multiple audio frames, however they must share a
- common set of parameters, including the operating mode, audio bandwidth, frame
size, and channel count.
+A single packet may contain multiple audio frames.
+However, they must share a common set of parameters, including the operating
mode, audio bandwidth, frame size, and channel count (mono vs. stereo).
 This section describes the possible combinations of these parameters and the
  internal framing used to pack multiple frames into a single packet.
 This framing is not self-delimiting.
@@ -366,17 +542,23 @@ The top five bits of the TOC byte, labeled "config", encode one of 32 possible
 <ttcol>Configuration Number(s)</ttcol>
-<ttcol>Frame Size(s)</ttcol>
-<c>0...3</c>   <c>LP-only</c>   <c>NB</c>  <c>10, 20, 40, 60&nbsp;ms</c>
-<c>4...7</c>   <c>LP-only</c>   <c>MB</c>  <c>10, 20, 40, 60&nbsp;ms</c>
-<c>8...11</c>  <c>LP-only</c>   <c>WB</c>  <c>10, 20, 40, 60&nbsp;ms</c>
+<ttcol>Frame Sizes</ttcol>
+<c>0...3</c>   <c>SILK-only</c> <c>NB</c>  <c>10, 20, 40, 60&nbsp;ms</c>
+<c>4...7</c>   <c>SILK-only</c> <c>MB</c>  <c>10, 20, 40, 60&nbsp;ms</c>
+<c>8...11</c>  <c>SILK-only</c> <c>WB</c>  <c>10, 20, 40, 60&nbsp;ms</c>
 <c>12...13</c> <c>Hybrid</c>    <c>SWB</c> <c>10, 20&nbsp;ms</c>
 <c>14...15</c> <c>Hybrid</c>    <c>FB</c>  <c>10, 20&nbsp;ms</c>
-<c>16...19</c> <c>MDCT-only</c> <c>NB</c>  <c>2.5, 5, 10, 20&nbsp;ms</c>
-<c>20...23</c> <c>MDCT-only</c> <c>WB</c>  <c>2.5, 5, 10, 20&nbsp;ms</c>
-<c>24...27</c> <c>MDCT-only</c> <c>SWB</c> <c>2.5, 5, 10, 20&nbsp;ms</c>
-<c>28...31</c> <c>MDCT-only</c> <c>FB</c>  <c>2.5, 5, 10, 20&nbsp;ms</c>
+<c>16...19</c> <c>CELT-only</c> <c>NB</c>  <c>2.5, 5, 10, 20&nbsp;ms</c>
+<c>20...23</c> <c>CELT-only</c> <c>WB</c>  <c>2.5, 5, 10, 20&nbsp;ms</c>
+<c>24...27</c> <c>CELT-only</c> <c>SWB</c> <c>2.5, 5, 10, 20&nbsp;ms</c>
+<c>28...31</c> <c>CELT-only</c> <c>FB</c>  <c>2.5, 5, 10, 20&nbsp;ms</c>
+The configuration numbers in each range (e.g., 0...3 for NB SILK-only)
+ correspond to the various choices of frame size, in the same order.
+For example, configuration 0 has a 10&nbsp;ms frame size and configuration 3
+ has a 60&nbsp;ms frame size.
 One additional bit, labeled "s", is used to signal mono vs. stereo, with 0
@@ -411,23 +593,22 @@ This section describes how frames are packed according to each possible value
 <section anchor="frame-length-coding" title="Frame Length Coding">
-When a packet contains multiple VBR frames, the compressed length of one or
more of these frames is indicated with a one or two byte sequence, with the
- meaning of the first byte as follows:
+When a packet contains multiple VBR frames (i.e., code 2 or 3), the compressed
length of one or more of these frames is indicated with a one or two byte
sequence, with the meaning of the first byte as follows:
 <list style="symbols">
-<t>0:          No frame (DTX or lost packet)</t>
+<t>0:          No frame (discontinuous transmission (DTX) or lost packet)</t>
 <!--TODO: Would be nice to be clearer about the distinction between "frame
  size" (in samples or ms) and "the compressed size of the frame" (in bytes).
 "the compressed length of the frame" is maybe a little better, but not when we
  jump back and forth to talking about sizes.-->
-<t>1...251:    Size of the frame in bytes</t>
-<t>252...255:  A second byte is needed. The total size is (size[1]*4)+size[0]</t>
+<t>1...251:    Length of the frame in bytes</t>
+<t>252...255:  A second byte is needed. The total length is (len[1]*4)+len[0]</t>
-The maximum representable size is 255*4+255=1275&nbsp;bytes. This limit MUST NOT
-be exceeded, even when no length field is used.
+The maximum representable length is 255*4+255=1275&nbsp;bytes.
 For 20&nbsp;ms frames, this represents a bitrate of 510&nbsp;kb/s, which is
  approximately the highest useful rate for lossily compressed fullband stereo
@@ -438,7 +619,7 @@ It is also roughly the maximum useful rate of the MDCT layer, as shortly
-No length is transmitted for the last frame in a VBR packet, or any of the
+No length is transmitted for the last frame in a VBR packet, or for any of the
  frames in a CBR packet, as it can be inferred from the total size of the
  packet and the size of all other data in the packet.
 However, the length of any individual frame MUST NOT exceed 1275&nbsp;bytes, to
@@ -446,7 +627,7 @@ However, the length of any individual frame MUST NOT exceed 1275&nbsp;bytes, to
-<section title="One Frame in the Packet (Code&nbsp;0)">
+<section title="Code 0: One Frame in the Packet">
 For code&nbsp;0 packets, the TOC byte is immediately followed by N-1&nbsp;bytes
@@ -468,7 +649,7 @@ For code&nbsp;0 packets, the TOC byte is immediately followed by N-1&nbsp;bytes
-<section title="Two Frames in the Packet, Each with Equal Compressed Size (Code&nbsp;1)">
+<section title="Code 1: Two Frames in the Packet, Each with Equal Compressed Size">
 For code 1 packets, the TOC byte is immediately followed by the
  (N-1)/2&nbsp;bytes of compressed data for the first frame, followed by
@@ -496,7 +677,7 @@ The number of payload bytes available for compressed data, N-1, MUST be even
-<section title="Two Frames in the Packet, with Different Compressed Sizes (Code&nbsp;2)">
+<section title="Code 2: Two Frames in the Packet, with Different Compressed Sizes">
 For code 2 packets, the TOC byte is followed by a one or two byte sequence
  indicating the length of the first frame (marked N1 in the figure below),
@@ -504,8 +685,14 @@ For code 2 packets, the TOC byte is followed by a one or two byte sequence
 The remaining N-N1-2 or N-N1-3&nbsp;bytes are the compressed data for the
  second frame.
 This is illustrated in <xref target="code2_packet"/>.
-The length of the first frame, N1, MUST be no larger than the size of the
+A code 2 packet MUST contain enough bytes to represent a valid length.
+For example, a 1-byte code 2 packet is always invalid, and a 2-byte code 2
+ packet whose second byte is in the range 252...255 is also invalid.
+The length of the first frame, N1, MUST also be no larger than the size of the
  payload remaining after decoding that length for all code 2 packets.
+This makes, for example, a 2-byte code 2 packet with a second byte in the range
+ 1...250 invalid as well (the only valid 2-byte code 2 packet is one where the
+ length of both frames is zero).
 <figure anchor="code2_packet" title="A Code 2 Packet" align="center">
 <artwork align="center"><![CDATA[
@@ -526,15 +713,16 @@ The length of the first frame, N1, MUST be no larger than the size of the
-<section title="An Arbitrary Number of Frames in the Packet (Code&nbsp;3)">
+<section title="Code 3: An Arbitrary Number of Frames in the Packet">
-Code 3 packets may encode an arbitrary number of packets, as well as additional
+Code 3 packets may encode an arbitrary number of frames, as well as additional
  padding, called "Opus padding" to indicate that this padding is added at the
  Opus layer, rather than at the transport layer.
-For code 3 packets, the TOC byte is followed by a byte encoding the number of
- frames in the packet in bits 0 to 5 (marked "M" in the figure below), with bit
- 6 indicating whether or not Opus padding is inserted (marked "p" in the figure
- below), and bit 7 indicating VBR (marked "v" in the figure below).
+Code 3 packets MUST have at least 2 bytes.
+The TOC byte is followed by a byte encoding the number of frames in the packet
+ in bits 0 to 5 (marked "M" in the figure below), with bit 6 indicating whether
+ or not Opus padding is inserted (marked "p" in the figure below), and bit 7
+ indicating VBR (marked "v" in the figure below).
 M MUST NOT be zero, and the audio duration contained within a packet MUST NOT
  exceed 120&nbsp;ms.
 This limits the maximum frame count for any frame size to 48 (for 2.5&nbsp;ms
@@ -558,14 +746,16 @@ Values from 0...254 indicate that 0...254&nbsp;bytes of padding are included,
  in addition to the byte(s) used to indicate the size of the padding.
 If the value is 255, then the size of the additional padding is 254&nbsp;bytes,
  plus the padding value encoded in the next byte.
-The additional padding bytes appear at the end of the packet, and SHOULD be set
- to zero by the encoder, however the decoder MUST accept any value for the
- padding bytes.
-By using code 255 multiple times, it is possible to create a packet of any
+There MUST be at least one more byte in the packet in this case.
+By using the value 255 multiple times, it is possible to create a packet of any
  specific, desired size.
+The additional padding bytes appear at the end of the packet, and MUST be set
+ to zero by the encoder to avoid creating a covert channel.
+The decoder MUST accept any value for the padding bytes, however.
 Let P be the total amount of padding, including both the trailing padding bytes
- themselves and the header bytes used to indicate how many there are.
-Then P MUST be no more than N-2 for CBR packets, or N-M-1 for VBR packets.
+ themselves and the header bytes used to indicate how many trailing bytes there
+ are.
+Then P MUST be no more than N-2.
 In the CBR case, the compressed length of each frame in bytes is equal to the
@@ -608,9 +798,9 @@ The compressed data for all M frames then follows, each of size
 In the VBR case, the (optional) padding length is followed by M-1 frame
  lengths (indicated by "N1" to "N[M-1]" in the figure below), each encoded in a
  one or two byte sequence as described above.
-The packet MUST contain enough data for the M-1 lengths after the (optional)
- padding, and the sum of these lengths MUST be no larger than the number of
- bytes remaining in the packet after decoding them.
+The packet MUST contain enough data for the M-1 lengths after removing the
+ (optional) padding, and the sum of these lengths MUST be no larger than the
number of bytes remaining in the packet after decoding them.
 The compressed data for all M frames follows, each frame consisting of the
  indicated number of bytes, with the final frame consuming any remaining bytes
  before the final padding, as illustrated in <xref target="code3cbr_packet"/>.
@@ -682,7 +872,7 @@ Two FB mono 5&nbsp;ms CELT frames of the same compressed size:
-Two FB mono 20&nbsp;ms hybrid frames of different compressed size:
+Two FB mono 20&nbsp;ms Hybrid frames of different compressed size:
@@ -714,10 +904,28 @@ Four FB stereo 20&nbsp;ms CELT frames of the same compressed size:
 <section title="Extending Opus">
-A receiver MUST NOT process packets which violate the rules above as normal
- Opus packets.
+A receiver MUST NOT process packets which violate any of the rules above as
normal Opus packets.
 They are reserved for future applications, such as in-band headers (containing
- metadata, etc.) or multichannel support.
+ metadata, etc.).
+These constraints are summarized here for reference:
+<list style="symbols">
+<t>Packets are at least one byte.</t>
+<t>No implicit frame length is larger than 1275 bytes.</t>
+<t>Code 1 packets have an odd total length, N, so that (N-1)/2 is an
+ integer.</t>
+<t>Code 2 packets have enough bytes after the TOC for a valid frame length, and
+ that length is no larger than the number of bytes remaining in the packet.</t>
+<t>Code 3 packets contain at least one frame, but no more than 120&nbsp;ms of
+ audio total.</t>
+<t>The length of a CBR code 3 packet, N, is at least two bytes, the size of the
+ padding, P (including both the padding length bytes in the header and the
+ trailing padding bytes) is no more than N-2, and the frame count, M, satisfies
+ the constraint that (N-2-P) is an integer multiple of M.</t>
+<t>VBR code 3 packets are large enough to contain all the header bytes (TOC
+ byte, frame count byte, any padding length bytes, and any frame length bytes),
+ plus the length of the first M-1 frames, plus any trailing padding bytes.</t>
@@ -725,26 +933,28 @@ They are reserved for future applications, such as in-band headers (containing
 <section title="Opus Decoder">
-The Opus decoder consists of two main blocks: the SILK decoder and the CELT decoder.
-The output of the Opus decode is the sum of the outputs from the SILK and CELT decoders
-with proper sample rate conversion and delay compensation as illustrated in the
-block diagram below. At any given time, one or both of the SILK and CELT decoders
-may be active.
+The Opus decoder consists of two main blocks: the SILK decoder and the CELT
+ decoder.
+At any given time, one or both of the SILK and CELT decoders may be active.
+The output of the Opus decode is the sum of the outputs from the SILK and CELT
+ decoders with proper sample rate conversion and delay compensation on the SILK
+ side, and optional decimation (when decoding to sample rates less than
+ 48&nbsp;kHz) on the CELT side, as illustrated in the block diagram below.
-                       +-------+    +----------+
-                       | SILK  |    |  sample  |
-                    +->|decoder|--->|   rate   |----+
-bit-    +-------+   |  |       |    |conversion|    v
-stream  | Range |---+  +-------+    +----------+  /---\  audio
-------->|decoder|                                 | + |------>
-        |       |---+  +-------+    +----------+  \---/
-        +-------+   |  | CELT  |    | Delay    |    ^
-                    +->|decoder|----| compens- |----+
-                       |       |    | ation    |
-                       +-------+    +----------+
+                         +---------+    +------------+
+                         |  SILK   |    |   Sample   |
+                      +->| Decoder |--->|    Rate    |----+
+Bit-    +---------+   |  |         |    | Conversion |    v
+stream  |  Range  |---+  +---------+    +------------+  /---\  Audio
+------->| Decoder |                                     | + |------>
+        |         |---+  +---------+    +------------+  \---/
+        +---------+   |  |  CELT   |    | Decimation |    ^
+                      +->| Decoder |--->| (Optional) |----+
+                         |         |    |            |
+                         +---------+    +------------+
@@ -772,7 +982,7 @@ Raw bits are only used in the CELT layer.
 <figure anchor="rawbits-example" title="Illustrative example of packing range
  coder and raw bits data">
 <artwork align="center"><![CDATA[
- 0               1               2               3
              0               1               2               3
  7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0
 | Range coder data (packed MSb to LSb) ->                       :
@@ -790,8 +1000,6 @@ Raw bits are only used in the CELT layer.
 Each symbol coded by the range coder is drawn from a finite alphabet and coded
  in a separate "context", which describes the size of the alphabet and the
  relative frequency of each symbol in that alphabet.
-Opus only uses static contexts.
-They are not adapted to the statistics of the data as it is coded.
 Suppose there is a context with n symbols, identified with an index that ranges
@@ -800,8 +1008,8 @@ The parameters needed to encode or decode a symbol in this context are
  represented by a three-tuple (fl[k],&nbsp;fh[k],&nbsp;ft), with
 The values of this tuple are derived from the probability model for the
- symbol, represented by traditional "frequency counts" (although, since Opus
- uses static contexts, these are not updated as symbols are decoded).
+ symbol, represented by traditional "frequency counts". Because Opus
+ uses static contexts these are not updated as symbols are decoded.
 Let f[i] be the frequency of symbol i.
 Then the three-tuple corresponding to symbol k is given by
@@ -871,8 +1079,8 @@ rng = rng - (rng/ft)*(ft-fh[k]).
-Using a special case for the first symbolrather than the last symbol, as is
- commonly done in other arithmetic coders, ensures that all the truncation
+Using a special case for the first symbol (rather than the last symbol, as is
+ commonly done in other arithmetic coders) ensures that all the truncation
  error from the finite precision arithmetic accumulates in symbol 0.
 This makes the cost of coding a 0 slightly smaller, on average, than its
  estimated probability indicates and makes the cost of coding any other symbol
@@ -927,7 +1135,7 @@ If the range decoder consumes all of the bytes belonging to the current frame,
 <figure anchor="finalize-example" title="Illustrative example of raw bits
  overlapping range coder data">
 <artwork align="center"><![CDATA[
              n+1             n+2             n+3
              n              n+1             n+2             n+3
  7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0
 :     | <----------- Overlap region ------------> |             :
@@ -1040,7 +1248,7 @@ The format should render it impossible to attempt to read more raw bits than
-<section anchor="decoding-ints" title="Decoding Uniformly Distributed Integers">
+<section anchor="ec_dec_uint" title="Decoding Uniformly Distributed Integers">
 The ec_dec_uint() (entdec.c) function decodes one of ft equiprobable values in
  the range 0 to ft-1, inclusive, each with a frequency of 1, where ft may be as
@@ -1050,7 +1258,7 @@ Because ec_decode() is limited to a total frequency of 2**16-1, this is split
  value, and, if necessary, raw bits representing the remaining bits.
 The limit of 8 bits in the range coded symbol is a trade-off between
  implementation complexity, modeling error (since the symbols no longer truly
- have equal coding cost) and rounding error introduced by the range coder
+ have equal coding cost), and rounding error introduced by the range coder
  itself (which gets larger as more bits are included).
 Using raw bits reduces the maximum number of divisions required in the worst
  case, but means that it may be possible to decode a value outside the range
@@ -1108,22 +1316,22 @@ In practice, although the number of bits used so far is an upper bound,
 However, this error is bounded, and periodic calls to ec_tell() or
  ec_tell_frac() at precisely defined points in the decoding process prevent it
  from accumulating.
-For a symbol that requires a whole number of bits (i.e., ft/(fh[k]-fl[k]) is a
- power of two, including values of ft larger than 2**8 with ec_dec_uint()), and
there are at least p 1/8th bits available, decoding the symbol will never
- advance the decoder past the end of the frame, i.e., will never "bust" the
- budget.
-Frames contain a whole number of bits, and the return value of ec_tell_frac()
- will only advance by more than p 1/8th bits in this case if there was a
fractional number of bits remaining, and by no more than the fractional part.
+For a range coder symbol that requires a whole number of bits (i.e.,
+ for which ft/(fh[k]-fl[k]) is a power of two), where there are at least p
1/8th bits available, decoding the symbol will never cause ec_tell() or
+ ec_tell_frac() to exceed the size of the frame ("bust the budget").
+In this case the return value of ec_tell_frac() will only advance by more than
+ p 1/8th bits if there was an additional, fractional number of bits remaining,
+ and it will never advance beyond the next whole-bit boundary, which is safe,
since frames always contain a whole number of bits.
 However, when p is not a whole number of bits, an extra 1/8th bit is required
- to ensure decoding the symbol will not bust.
+ to ensure that decoding the symbol will not bust the budget.
 The reference implementation keeps track of the total number of whole bits that
- have been processed by the decoder so far in a variable nbits_total, including
- the (possibly fractional number of bits) that are currently buffered (but not
consumed) inside the range coder.
+ have been processed by the decoder so far in the variable nbits_total,
+ including the (possibly fractional) number of bits that are currently
buffered, but not consumed, inside the range coder.
 nbits_total is initialized to 33 just after the initial range renormalization
  process completes (or equivalently, it can be initialized to 9 before the
  first renormalization).
@@ -1154,13 +1362,38 @@ ec_tell_frac() estimates the number of bits buffered in rng to fractional
 Since rng must be greater than 2**23 after renormalization, l must be at least
-Let r = rng&gt;&gt;(l-16), so that 32768 &lt;= r &lt; 65536, an unsigned Q15
- value representing the fractional part of rng.
+<figure align="center">
+<artwork align="center">
+r_Q15 = rng >> (l-16) ,
+ so that 32768 &lt;= r_Q15 &lt; 65536, an unsigned Q15 value representing the
+ fractional part of rng.
 Then the following procedure can be used to add one bit of precision to l.
-First, update r = r*r&gt;&gt;15.
-Then add the 16th bit of r to l via l = 2*l + (r&gt;&gt;16).
-Finally, if this bit was a 1, reduce r by a factor of two via r = r&gt;&gt;1,
- so that it once again lies in the range 32768 &lt;= r &lt; 65536.
+First, update
+<figure align="center">
+<artwork align="center">
+r_Q15 = (r_Q15*r_Q15) >> 15 .
+Then add the 16th bit of r_Q15 to l via
+<figure align="center">
+<artwork align="center">
+l = 2*l + (r_Q15 >> 16) .
+Finally, if this bit was a 1, reduce r_Q15 by a factor of two via
+<figure align="center">
+<artwork align="center">
+r_Q15 = r_Q15 >> 1 ,
+ so that it once again lies in the range 32768 &lt;= r_Q15 &lt; 65536.
 This procedure is repeated three times to extend l to 1/8th bit precision.
@@ -1172,27 +1405,100 @@ ec_tell_frac() then returns (nbits_total*8 - l).
-<section anchor='outline_decoder' title='SILK Decoder'>
+<section anchor="silk_decoder_outline" title="SILK Decoder">
 The decoder's LP layer uses a modified version of the SILK codec (herein simply
  called "SILK"), which runs a decoded excitation signal through adaptive
  long-term and short-term prediction synthesis filters.
-It runs in NB, MB, and WB modes internally.
-When used in a hybrid frame in SWB or FB mode, the LP layer itself still only
- runs in WB mode.
+It runs at NB, MB, and WB sample rates internally.
+When used in a SWB or FB Hybrid frame, the LP layer itself still only runs in
+ WB.
+<section title="SILK Decoder Modules">
+An overview of the decoder is given in <xref target="decoder_figure"/>.
+<figure align="center" anchor="decoder_figure">
+<artwork align="center">
+   +---------+    +------------+
+-->| Range   |--->| Decode     |---------------------------+
+ 1 | Decoder | 2  | Parameters |----------+       5        |
+   +---------+    +------------+     4    |                |
+                       3 |                |                |
+                        \/               \/               \/
+                  +------------+   +------------+   +------------+
+                  | Generate   |-->| LTP        |-->| LPC        |
+                  | Excitation |   | Synthesis  |   | Synthesis  |
+                  +------------+   +------------+   +------------+
+                                          ^                |
+                                          |                |
+                      +-------------------+----------------+
+                      |                                      6
+                      |   +------------+   +-------------+
+                      +-->| Stereo     |-->| Sample Rate |-->
+                        8 | Unmixing   | 7 | Conversion  | 8
+                          +------------+   +-------------+
+1: Range encoded bitstream
+2: Coded parameters
+3: Pulses, LSb's, and signs
+4: Pitch lags, LTP coefficients
+5: LPC coefficients and gains
+6: Decoded signal (mono or mid-side stereo)
+7: Unmixed signal (mono or left-right stereo)
+8: Resampled signal
+<postamble>Decoder block diagram.</postamble>
+The decoder feeds the bitstream (1) to the range decoder from
+ <xref target="range-decoder"/>, and then decodes the parameters in it (2)
+ using the procedures detailed in
+ Sections&nbsp;<xref format="counter" target="silk_header_bits"/>
+ through&nbsp;<xref format="counter" target="silk_signs"/>.
+These parameters (3, 4, 5) are used to generate an excitation signal (see
+ <xref target="silk_excitation_reconstruction"/>), which is fed to an optional
+ long-term prediction (LTP) filter (voiced frames only, see
+ <xref target="silk_ltp_synthesis"/>) and then a short-term prediction filter
+ (see <xref target="silk_lpc_synthesis"/>), producing the decoded signal (6).
+For stereo streams, the mid-side representation is converted to separate left
+ and right channels (7).
+The result is finally resampled to the desired output sample rate (e.g.,
+ 48&nbsp;kHz) so that the resampled signal (8) can be mixed with the CELT
+ layer.
+<section anchor="silk_layer_organization" title="LP Layer Organization">
 Internally, the LP layer of a single Opus frame is composed of either a single
- 10&nbsp;ms SILK frame or between one and three 20&nbsp;ms SILK frames.
-Each SILK frame is in turn composed of either two or four 5&nbsp;ms subframes.
+ 10&nbsp;ms regular SILK frame or between one and three 20&nbsp;ms regular SILK
+ frames.
+A stereo Opus frame may double the number of regular SILK frames (up to a total
+ of six), since it includes separate frames for a mid channel and, optionally,
+ a side channel.
 Optional Low Bit-Rate Redundancy (LBRR) frames, which are reduced-bitrate
- encodings of previous SILK frames, may appear to aid in recovery from packet
- loss.
+ encodings of previous SILK frames, may be included to aid in recovery from
packet loss.
 If present, these appear before the regular SILK frames.
-They are in most respects identical to regular active SILK frames, except that
- they are usually encoded with a lower bitrate, and from here on this draft
- will use "SILK frame" to refer to either one and "regular SILK frame" if it
- needs to draw a distinction between the two.
+They are in most respects identical to regular, active SILK frames, except that
+ they are usually encoded with a lower bitrate.
+This draft uses "SILK frame" to refer to either one and "regular SILK frame" if
+ it needs to draw a distinction between the two.
+Logically, each SILK frame is in turn composed of either two or four 5&nbsp;ms
+ subframes.
+Various parameters, such as the quantization gain of the excitation and the
+ pitch lag and filter coefficients can vary on a subframe-by-subframe basis.
+Physically, the parameters for each subframe are interleaved in the bitstream,
+ as described in the relevant sections for each parameter.
 All of these frames and subframes are decoded from the same range coder, with
@@ -1209,144 +1515,145 @@ Stereo support in SILK uses a variant of mid-side coding, allowing a mono
  decoder to simply decode the mid channel.
 However, the data for the two channels is interleaved, so a mono decoder must
  still unpack the data for the side channel.
-It would be required to do so anyway for hybrid Opus frames, or to support
+It would be required to do so anyway for Hybrid Opus frames, or to support
  decoding individual 20&nbsp;ms frames.
-<texttable anchor="silk_symbols">
-<ttcol align="center">Symbol(s)</ttcol>
-<ttcol align="center">PDF</ttcol>
-<ttcol align="center">Condition</ttcol>
-<c>VAD flags</c>     <c>{1, 1}/2</c>                    <c></c>
-<c>LBRR flag</c>     <c>{1, 1}/2</c>                    <c></c>
-<c>Per-frame LBRR flags</c> <c><xref target="silk_lbrr_flags"/></c> <c><xref target="silk_lbrr_flags"/></c>
-<c>Frame Type</c>    <c><xref target="silk_frame_type"/></c>    <c></c>
-<c>Gain index</c>    <c><xref target="silk_gains"/></c> <c></c>
-Order of the symbols in the SILK section of the bit-stream.
-<section title="Decoder Modules">
-An overview of the decoder is given in <xref target="decoder_figure"/>.
+<xref target="silk_symbols"/> summarizes the overal grouping of the contents of
+ the LP layer.
+Figures&nbsp;<xref format="counter" target="silk_mono_60ms_frame"/>
+ and&nbsp;<xref format="counter" target="silk_stereo_60ms_frame"/> illustrate
+ the ordering of the various SILK frames for a 60&nbsp;ms Opus frame, for both
+ mono and stereo, respectively.
-<figure align="center" anchor="decoder_figure">
-<artwork align="center">
-   +---------+    +------------+
--->| Range   |--->| Decode     |---------------------------+
- 1 | Decoder | 2  | Parameters |----------+       5        |
-   +---------+    +------------+     4    |                |
-                       3 |                |                |
-                        \/               \/               \/
-                  +------------+   +------------+   +------------+
-                  | Generate   |-->| LTP        |-->| LPC        |-->
-                  | Excitation |   | Synthesis  |   | Synthesis  | 6
-                  +------------+   +------------+   +------------+
+<texttable anchor="silk_symbols">
+<ttcol align="center">Symbol(s)</ttcol>
+<ttcol align="center">PDF(s)</ttcol>
+<ttcol align="center">Condition</ttcol>
-1: Range encoded bitstream
-2: Coded parameters
-3: Pulses and gains
-4: Pitch lags and LTP coefficients
-5: LPC coefficients
-6: Decoded signal
-<postamble>Decoder block diagram.</postamble>
+<c>VAD flags</c>
+<c>{1, 1}/2</c>
-          <section title='Range Decoder'>
-            <t>
-              The range decoder decodes the encoded parameters from the received bitstream. Output from this function includes the pulses and gains for the excitation signal generation, as well as LTP and LSF codebook indices, which are needed for decoding LTP and LPC coefficients needed for LTP and LPC synthesis filtering the excitation signal, respectively.
-            </t>
-          </section>
+<c>LBRR flag</c>
+<c>{1, 1}/2</c>
-          <section title='Decode Parameters'>
-            <t>
-              Pulses and gains are decoded from the parameters that were decoded by the range decoder.
-            </t>
+<c>Per-frame LBRR flags</c>
+<c><xref target="silk_lbrr_flag_pdfs"/></c>
+<c><xref target="silk_lbrr_flags"/></c>
-            <t>
-              When a voiced frame is decoded and LTP codebook selection and indices are received, LTP coefficients are decoded using the selected codebook by choosing the vector that corresponds to the given codebook index in that codebook. This is done for each of the four subframes.
-              The LPC coefficients are decoded from the LSF codebook by first adding the chosen LSF vector and the decoded LSF residual signal. The resulting LSF vector is stabilized using the same method that was used in the encoder, see
-              <xref target='lsf_stabilizer_overview_section' />. The LSF coefficients are then converted to LPC coefficients, and passed on to the LPC synthesis filter.
-            </t>
-          </section>
+<c>LBRR Frame(s)</c>
+<c><xref target="silk_frame"/></c>
+<c><xref target="silk_lbrr_flags"/></c>
-          <section title='Generate Excitation'>
-            <t>
-              The pulses signal is multiplied with the quantization gain to create the excitation signal.
-            </t>
-          </section>
+<c>Regular SILK Frame(s)</c>
+<c><xref target="silk_frame"/></c>
-          <section title='LTP Synthesis'>
-            <t>
-              For voiced speech, the excitation signal e(n) is input to an LTP synthesis filter that will recreate the long term correlation that was removed in the LTP analysis filter and generate an LPC excitation signal e_LPC(n), according to
-              <figure align="center">
-                <artwork align="center">
-                  <![CDATA[
-                   d
-                  __
-e_LPC(n) = e(n) + \  e_LPC(n - L - i) * b_i,
-                  /_
-                 i=-d
-                </artwork>
-              </figure>
-              using the pitch lag L, and the decoded LTP coefficients b_i.
-              The number of LTP coefficients is 5, and thus d&nbsp;=&nbsp;2.
+Organization of the SILK layer of an Opus frame.
-              For unvoiced speech, the output signal is simply a copy of the excitation signal, i.e., e_LPC(n) = e(n).
-            </t>
-          </section>
+<figure align="center" anchor="silk_mono_60ms_frame"
+ title="A 60&nbsp;ms Mono Frame">
+<artwork align="center"><![CDATA[
+|            VAD Flags            |
+|            LBRR Flag            |
+| Per-Frame LBRR Flags (Optional) |
+|     LBRR Frame 1 (Optional)     |
+|     LBRR Frame 2 (Optional)     |
+|     LBRR Frame 3 (Optional)     |
+|      Regular SILK Frame 1       |
+|      Regular SILK Frame 2       |
+|      Regular SILK Frame 3       |
-          <section title='LPC Synthesis'>
-            <t>
-              In a similar manner, the short-term correlation that was removed in the LPC analysis filter is recreated in the LPC synthesis filter. The LPC excitation signal e_LPC(n) is filtered using the LTP coefficients a_i, according to
-              <figure align="center">
-                <artwork align="center">
-                  <![CDATA[
-                 d_LPC
-                  __
-y(n) = e_LPC(n) + \  y(n - i) * a_i,
-                  /_
-                  i=1
-                </artwork>
-              </figure>
-              where d_LPC is the LPC synthesis filter order, and y(n) is the decoded output signal.
-            </t>
-          </section>
-        </section>
+<figure align="center" anchor="silk_stereo_60ms_frame"
+ title="A 60&nbsp;ms Stereo Frame">
+<artwork align="center"><![CDATA[
+|             Mid VAD Flags             |
+|             Mid LBRR Flag             |
+|             Side VAD Flags            |
+|             Side LBRR Flag            |
+|  Mid Per-Frame LBRR Flags (Optional)  |
+| Side Per-Frame LBRR Flags (Optional)  |
+|     Mid LBRR Frame 1 (Optional)       |
+|     Side LBRR Frame 1 (Optional)      |
+|     Mid LBRR Frame 2 (Optional)       |
+|     Side LBRR Frame 2 (Optional)      |
+|     Mid LBRR Frame 3 (Optional)       |
+|     Side LBRR Frame 3 (Optional)      |
+|      Mid Regular SILK Frame 1         |
+| Side Regular SILK Frame 1 (Optional)  |
+|      Mid Regular SILK Frame 2         |
+| Side Regular SILK Frame 2 (Optional)  |
+|      Mid Regular SILK Frame 3         |
+| Side Regular SILK Frame 3 (Optional)  |
-<!--TODO: Document mandated decoder resets-->
-<section title="Header Bits">
+<section anchor="silk_header_bits" title="Header Bits">
 The LP layer begins with two to eight header bits, decoded in silk_Decode()
- (silk_dec_API.c).
+ (dec_API.c).
 These consist of one Voice Activity Detection (VAD) bit per frame (up to 3),
  followed by a single flag indicating the presence of LBRR frames.
-For a stereo packet, these flags correspond to the mid channel, and a second
- set of flags is included for the side channel.
+For a stereo packet, these first flags correspond to the mid channel, and a
+ second set of flags is included for the side channel.
-Because these are the first symbols decoded by the range coder, they can be
- extracted directly from the upper bits of the first byte of compressed data.
+Because these are the first symbols decoded by the range coder and because they
+ are coded as binary values with uniform probability, they can be extracted
+ directly from the most significant bits of the first byte of compressed data.
 Thus, a receiver can determine if an Opus frame contains any active SILK frames
  without the overhead of using the range decoder.
-<section anchor="silk_lbrr_flags" title="LBRR Flags">
+<section anchor="silk_lbrr_flags" title="Per-Frame LBRR Flags">
-For Opus frames longer than 20&nbsp;ms, a set of per-frame LBRR flags is
+For Opus frames longer than 20&nbsp;ms, a set of LBRR flags is
  decoded for each channel that has its LBRR flag set.
-For 40&nbsp;ms Opus frames the 2-frame LBRR flag PDF from
- <xref target="silk_lbrr_flag_pdfs"/> is used, and for 60&nbsp;ms Opus frames
- the 3-frame LBRR flag PDF is used.
+Each set contains one flag per 20&nbsp;ms SILK frame.
+40&nbsp;ms Opus frames use the 2-frame LBRR flag PDF from
+ <xref target="silk_lbrr_flag_pdfs"/>, and 60&nbsp;ms Opus frames use the
+ 3-frame LBRR flag PDF.
 For each channel, the resulting 2- or 3-bit integer contains the corresponding
  LBRR flag for each frame, packed in order from the LSb to the MSb.
@@ -1359,103 +1666,453 @@ For each channel, the resulting 2- or 3-bit integer contains the corresponding
-LBRR frames do not include their own separate VAD flags.
-An LBRR frame is only meant to be transmitted for active speech, thus all LBRR
- frames are treated as active.
+A 10&nbsp;or 20&nbsp;ms Opus frame does not contain any per-frame LBRR flags,
+ as there may be at most one LBRR frame per channel.
+The global LBRR flag in the header bits (see <xref target="silk_header_bits"/>)
+ is already sufficient to indicate the presence of that single LBRR frame.
-<section title="SILK Frame Contents">
+<section anchor="silk_lbrr_frames" title="LBRR Frames">
-Each SILK frame includes a set of side information that encodes the frame type,
- quantization type and gains, short-term prediction filter coefficients, LSF
- interpolation weight, long-term prediction filter lags and gains, and a
- linear congruential generator (LCG) seed.
-The quantized excitation signal follows these at the end of the frame.
+The LBRR frames, if present, contain an encoded representation of the signal
+ immediately prior to the current Opus frame as if it were encoded with the
+ current mode, frame size, audio bandwidth, and channel count, even if those
+ differ from the prior Opus frame.
+When one of these parameters changes from one Opus frame to the next, this
+ implies that the LBRR frames of the current Opus frame may not be simple
+ drop-in replacements for the contents of the previous Opus frame.
-<section anchor="silk_frame_type" title="Frame Type">
-Each SILK frame begins with a single "frame type" symbol that jointly codes the
- signal type and quantization offset type of the corresponding frame.
-If the current frame is a regular SILK frame whose VAD bit was not set (an
- "inactive" frame), then the frame type symbol takes on the value either 0 or 1
- and is decoded using the first PDF in <xref target="silk_frame_type_pdfs"/>.
-If the frame is an LBRR frame or a regular SILK frame whose VAD flag was set
- (an "active" frame), then the symbol ranges from 2 to 5, inclusive, and is
- decoded using the second PDF in <xref target="silk_frame_type_pdfs"/>.
-<xref target="silk_frame_type_table"/> translates between the value of the
- frame type symbol and the corresponding signal type and quantization offset
- type.
+For example, when switching from 20&nbsp;ms to 60&nbsp;ms, the 60&nbsp;ms Opus
+ frame may contain LBRR frames covering up to three prior 20&nbsp;ms Opus
+ frames, even if those frames already contained LBRR frames covering some of
+ the same time periods.
+When switching from 20&nbsp;ms to 10&nbsp;ms, the 10&nbsp;ms Opus frame can
+ contain an LBRR frame covering at most half the prior 20&nbsp;ms Opus frame,
+ potentially leaving a hole that needs to be concealed from even a single
+ packet loss.
+When switching from mono to stereo, the LBRR frames in the first stereo Opus
+ frame MAY contain a non-trivial side channel.
-<texttable anchor="silk_frame_type_pdfs" title="Frame Type PDFs">
-<ttcol>VAD Flag</ttcol>
-<c>Inactive</c> <c>{26, 230, 0, 0, 0, 0}/256</c>
-<c>Active</c>   <c>{0, 0, 24, 74, 148, 10}/256</c>
-<texttable anchor="silk_frame_type_table"
- title="Signal Type and Quantization Offset Type from Frame Type">
-<ttcol>Frame Type</ttcol>
-<ttcol>Signal Type</ttcol>
-<ttcol align="right">Quantization Offset Type</ttcol>
-<c>0</c> <c>Inactive</c> <c>0</c>
-<c>1</c> <c>Inactive</c> <c>1</c>
-<c>2</c> <c>Unvoiced</c> <c>0</c>
-<c>3</c> <c>Unvoiced</c> <c>1</c>
-<c>4</c> <c>Voiced</c>   <c>0</c>
-<c>5</c> <c>Voiced</c>   <c>1</c>
-<section anchor="silk_gains" title="Sub-Frame Gains">
-A separate quantization gain is coded for each 5&nbsp;ms subframe.
-These gains control the step size between quantization levels of the excitation
- signal and, therefore, the quality of the reconstruction.
-They are independent of the pitch gains coded for voiced frames.
-The quantization gains are themselves uniformly quantized to 6&nbsp;bits on a
- log scale, giving them a resolution of approximately 1.369&nbsp;dB and a range
- of approximately 1.94&nbsp;dB to 88.21&nbsp;dB.
+In order to properly produce LBRR frames under all conditions, an encoder might
+ need to buffer up to 60&nbsp;ms of audio and re-encode it during these
+ transitions.
+However, the reference implmentation opts to disable LBRR frames at the
+ transition point for simplicity.
-For the first LBRR frame, an LBRR frame where the previous LBRR frame was not
- coded, or the first regular SILK frame in an Opus frame, the first subframe
- uses an independent coding method.
-The 3 most significant bits of the quantization gain are decoded using a PDF
- selected from <xref target="silk_independent_gain_msb_pdfs"/> based on the
decoded signal type.
+The LBRR frames immediately follow the LBRR flags, prior to any regular SILK
+ frames.
+<xref target="silk_frame"/> describes their exact contents.
+LBRR frames do not include their own separate VAD flags.
+LBRR frames are only meant to be transmitted for active speech, thus all LBRR
frames are treated as active.
-<texttable anchor="silk_independent_gain_msb_pdfs"
- title="PDFs for Independent Quantization Gain MSb Coding">
-<ttcol align="left">Signal Type</ttcol>
-<ttcol align="left">PDF</ttcol>
-<c>Inactive</c> <c>{32, 112, 68, 29, 12,  1,  1, 1}/256</c>
-<c>Unvoiced</c> <c>{2,   17, 45, 60, 62, 47, 19, 4}/256</c>
-<c>Voiced</c>   <c>{1,    3, 26, 71, 94, 50,  9, 2}/256</c>
+In a stereo Opus frame longer than 20&nbsp;ms, although the per-frame LBRR
+ flags for the mid channel are coded as a unit before the per-frame LBRR flags
+ for the side channel, the LBRR frames themselves are interleaved.
+The decoder parses an LBRR frame for the mid channel of a given 20&nbsp;ms
+ interval (if present) and then immediately parses the corresponding LBRR
+ frame for the side channel (if present), before proceeding to the next
+ 20&nbsp;ms interval.
+<section anchor="silk_regular_frames" title="Regular SILK Frames">
-The 3 least significant bits are decoded using a uniform PDF:
+The regular SILK frame(s) follow the LBRR frames (if any).
+<xref target="silk_frame"/> describes their contents, as well.
+Unlike the LBRR frames, a regular SILK frame is coded for each time interval in
+ an Opus frame, even if the corresponding VAD flags are unset.
+For stereo Opus frames longer than 20&nbsp;ms, the regular mid and side SILK
+ frames for each 20&nbsp;ms interval are interleaved, just as with the LBRR
+ frames.
+The side frame may be skipped by coding an appropriate flag, as detailed in
+ <xref target="silk_mid_only_flag"/>.
-<texttable anchor="silk_independent_gain_lsb_pdf"
- title="PDF for Independent Quantization Gain LSb Coding">
-<ttcol align="left">PDF</ttcol>
-<c>{32, 32, 32, 32, 32, 32, 32, 32}/256</c>
+<section anchor="silk_frame" title="SILK Frame Contents">
-For all other subframes (including the first subframe of frames not listed as
- using independent coding above), the quantization gain is coded relative to
- the gain from the previous subframe.
-The PDF in <xref target="silk_delta_gain_pdf"/> yields a delta gain index
- between 0 and 40, inclusive.
+Each SILK frame includes a set of side information that encodes
+<list style="symbols">
+<t>The frame type and quantization type (<xref target="silk_frame_type"/>),</t>
+<t>Quantization gains (<xref target="silk_gains"/>),</t>
+<t>Short-term prediction filter coefficients (<xref target="silk_nlsfs"/>),</t>
+<t>An LSF interpolation weight (<xref target="silk_nlsf_interpolation"/>),</t>
+Long-term prediction filter lags and gains (<xref target="silk_ltp_params"/>),
+ and
-<texttable anchor="silk_delta_gain_pdf"
- title="PDF for Delta Quantization Gain Coding">
+<t>A linear congruential generator (LCG) seed (<xref target="silk_seed"/>).</t>
+The quantized excitation signal (see <xref target="silk_excitation"/>) follows
+ these at the end of the frame.
+<xref target="silk_frame_symbols"/> details the overall organization of a
+ SILK frame.
+<texttable anchor="silk_frame_symbols">
+<ttcol align="center">Symbol(s)</ttcol>
+<ttcol align="center">PDF(s)</ttcol>
+<ttcol align="center">Condition</ttcol>
+<c>Stereo Prediction Weights</c>
+<c><xref target="silk_stereo_pred_pdfs"/></c>
+<c><xref target="silk_stereo_pred"/></c>
+<c>Mid-only Flag</c>
+<c><xref target="silk_mid_only_pdf"/></c>
+<c><xref target="silk_mid_only_flag"/></c>
+<c>Frame Type</c>
+<c><xref target="silk_frame_type"/></c>
+<c>Subframe Gains</c>
+<c><xref target="silk_gains"/></c>
+<c>Normalized LSF Stage 1 Index</c>
+<c><xref target="silk_nlsf_stage1_pdfs"/></c>
+<c>Normalized LSF Stage 2 Residual</c>
+<c><xref target="silk_nlsf_stage2"/></c>
+<c>Normalized LSF Interpolation Weight</c>
+<c><xref target="silk_nlsf_interp_pdf"/></c>
+<c><xref target="silk_nlsf_interpolation"/></c>
+<c>Primary Pitch Lag</c>
+<c><xref target="silk_ltp_lags"/></c>
+<c>Voiced frame</c>
+<c>Subframe Pitch Contour</c>
+<c><xref target="silk_pitch_contour_pdfs"/></c>
+<c>Voiced frame</c>
+<c>Periodicity Index</c>
+<c><xref target="silk_perindex_pdf"/></c>
+<c>Voiced frame</c>
+<c>LTP Filter</c>
+<c><xref target="silk_ltp_filter_pdfs"/></c>
+<c>Voiced frame</c>
+<c>LTP Scaling</c>
+<c><xref target="silk_ltp_scaling_pdf"/></c>
+<c><xref target="silk_ltp_scaling"/></c>
+<c>LCG Seed</c>
+<c><xref target="silk_seed_pdf"/></c>
+<c>Excitation Rate Level</c>
+<c><xref target="silk_rate_level_pdfs"/></c>
+<c>Excitation Pulse Counts</c>
+<c><xref target="silk_pulse_count_pdfs"/></c>
+<c>Excitation Pulse Locations</c>
+<c><xref target="silk_pulse_locations"/></c>
+<c>Non-zero pulse count</c>
+<c>Excitation LSb's</c>
+<c><xref target="silk_shell_lsb_pdf"/></c>
+<c><xref target="silk_pulse_counts"/></c>
+<c>Excitation Signs</c>
+<c><xref target="silk_sign_pdfs"/></c>
+<c><xref target="silk_signs"/></c>
+Order of the symbols in an individual SILK frame.
+<section anchor="silk_stereo_pred" toc="include"
+ title="Stereo Prediction Weights">
+A SILK frame corresponding to the mid channel of a stereo Opus frame begins
+ with a pair of side channel prediction weights, designed such that zeros
+ indicate normal mid-side coupling.
+Since these weights can change on every frame, the first portion of each frame
+ linearly interpolates between the previous weights and the current ones, using
+ zeros for the previous weights if none are available.
+These prediction weights are never included in a mono Opus frame, and the
+ previous weights are reset to zeros on any transition from mono to stereo.
+They are also not included in an LBRR frame for the side channel, even if the
+ LBRR flags indicate the corresponding mid channel was not coded.
+In that case, the previous weights are used, again substituting in zeros if no
+ previous weights are available since the last decoder reset
+ (see <xref target="switching"/>).
+To summarize, these weights are coded if and only if
+<list style="symbols">
+<t>This is a stereo Opus frame (<xref target="toc_byte"/>), and</t>
+<t>The current SILK frame corresponds to the mid channel.</t>
+The prediction weights are coded in three separate pieces, which are decoded
+ by silk_stereo_decode_pred() (decode_stereo_pred.c).
+The first piece jointly codes the high-order part of a table index for both
+ weights.
+The second piece codes the low-order part of each table index.
+The third piece codes an offset used to linearly interpolate between table
+ indices.
+The details are as follows.
+Let n be an index decoded with the 25-element stage-1 PDF in
+ <xref target="silk_stereo_pred_pdfs"/>.
+Then let i0 and i1 be indices decoded with the stage-2 and stage-3 PDFs in
+ <xref target="silk_stereo_pred_pdfs"/>, respectively, and let i2 and i3
+ be two more indices decoded with the stage-2 and stage-3 PDFs, all in that
+ order.
+<texttable anchor="silk_stereo_pred_pdfs" title="Stereo Weight PDFs">
+<ttcol align="left">Stage</ttcol>
+<ttcol align="left">PDF</ttcol>
+<c>Stage 1</c>
+<c>{7,  2,  1,  1,  1,
+   10, 24,  8,  1,  1,
+    3, 23, 92, 23,  3,
+    1,  1,  8, 24, 10,
+    1,  1,  1,  2,  7}/256</c>
+<c>Stage 2</c>
+<c>{85, 86, 85}/256</c>
+<c>Stage 3</c>
+<c>{51, 51, 52, 51, 51}/256</c>
+Then use n, i0, and i2 to form two table indices, wi0 and wi1, according to
+<figure align="center">
+<artwork align="center"><![CDATA[
+wi0 = i0 + 3*(n/5)
+wi1 = i2 + 3*(n%5)
+ where the division is exact integer division.
+The range of these indices is 0 to 14, inclusive.
+Let w[i] be the i'th weight from <xref target="silk_stereo_weights_table"/>.
+Then the two prediction weights, w0_Q13 and w1_Q13, are
+<figure align="center">
+<artwork align="center"><![CDATA[
+w1_Q13 = w_Q13[wi1]
+         + ((w_Q13[wi1+1] - w_Q13[wi1])*6554) >> 16)*(2*i3 + 1)
+w0_Q13 = w_Q13[wi0]
+         + ((w_Q13[wi0+1] - w_Q13[wi0])*6554) >> 16)*(2*i1 + 1)
+         - w1_Q13
+N.b., w1_Q13 is computed first here, because w0_Q13 depends on it.
+<texttable anchor="silk_stereo_weights_table"
+ title="Stereo Weight Table">
+<ttcol align="left">Index</ttcol>
+<ttcol align="right">Weight (Q13)</ttcol>
+ <c>0</c> <c>-13732</c>
+ <c>1</c> <c>-10050</c>
+ <c>2</c>  <c>-8266</c>
+ <c>3</c>  <c>-7526</c>
+ <c>4</c>  <c>-6500</c>
+ <c>5</c>  <c>-5000</c>
+ <c>6</c>  <c>-2950</c>
+ <c>7</c>   <c>-820</c>
+ <c>8</c>    <c>820</c>
+ <c>9</c>   <c>2950</c>
+<c>10</c>   <c>5000</c>
+<c>11</c>   <c>6500</c>
+<c>12</c>   <c>7526</c>
+<c>13</c>   <c>8266</c>
+<c>14</c>  <c>10050</c>
+<c>15</c>  <c>13732</c>
+<section anchor="silk_mid_only_flag" toc="include" title="Mid-only Flag">
+A flag appears after the stereo prediction weights that indicates if only the
+ mid channel is coded for this time interval.
+It appears only when
+<list style="symbols">
+<t>This is a stereo Opus frame (see <xref target="toc_byte"/>),</t>
+<t>The current SILK frame corresponds to the mid channel, and</t>
+<list style="symbols">
+<t>This is a regular SILK frame where the VAD flags
+ (see <xref target="silk_header_bits"/>) indicate that the corresponding side
+ channel is not active.</t>
+This is an LBRR frame where the LBRR flags
+ (see <xref target="silk_header_bits"/> and <xref target="silk_lbrr_flags"/>)
+ indicate that the corresponding side channel is not coded.
+It is omitted when there are no stereo weights, for all of the same reasons.
+It is also omitted for a regular SILK frame when the VAD flag of the
+ corresponding side channel frame is set (indicating it is active).
+The side channel must be coded in this case, making the mid-only flag
+ redundant.
+It is also omitted for an LBRR frame when the corresponding LBRR flags
+ indicate the side channel is coded.
+When the flag is present, the decoder reads a single value using the PDF in
+ <xref target="silk_mid_only_pdf"/>, as implemented in
+ silk_stereo_decode_mid_only() (decode_stereo_pred.c).
+If the flag is set, then there is no corresponding SILK frame for the side
+ channel, the entire decoding process for the side channel is skipped, and
+ zeros are fed to the stereo unmixing process (see
+ <xref target="silk_stereo_unmixing"/>) instead.
+As stated above, LBRR frames still include this flag when the LBRR flag
+ indicates that the side channel is not coded.
+In that case, if this flag is zero (indicating that there should be a side
+ channel), then Packet Loss Concealment (PLC, see
+ <xref target="Packet Loss Concealment"/>) SHOULD be invoked to recover a
+ side channel signal.
+<texttable anchor="silk_mid_only_pdf" title="Mid-only Flag PDF">
+<ttcol align="left">PDF</ttcol>
+<c>{192, 64}/256</c>
+<section anchor="silk_frame_type" toc="include" title="Frame Type">
+Each SILK frame contains a single "frame type" symbol that jointly codes the
+ signal type and quantization offset type of the corresponding frame.
+If the current frame is a regular SILK frame whose VAD bit was not set (an
+ "inactive" frame), then the frame type symbol takes on a value of either 0 or
+ 1 and is decoded using the first PDF in <xref target="silk_frame_type_pdfs"/>.
+If the frame is an LBRR frame or a regular SILK frame whose VAD flag was set
+ (an "active" frame), then the value of the symbol may range from 2 to 5,
+ inclusive, and is decoded using the second PDF in
+ <xref target="silk_frame_type_pdfs"/>.
+<xref target="silk_frame_type_table"/> translates between the value of the
+ frame type symbol and the corresponding signal type and quantization offset
+ type.
+<texttable anchor="silk_frame_type_pdfs" title="Frame Type PDFs">
+<ttcol>VAD Flag</ttcol>
+<c>Inactive</c> <c>{26, 230, 0, 0, 0, 0}/256</c>
+<c>Active</c>   <c>{0, 0, 24, 74, 148, 10}/256</c>
+<texttable anchor="silk_frame_type_table"
+ title="Signal Type and Quantization Offset Type from Frame Type">
+<ttcol>Frame Type</ttcol>
+<ttcol>Signal Type</ttcol>
+<ttcol align="right">Quantization Offset Type</ttcol>
+<c>0</c> <c>Inactive</c> <c>Low</c>
+<c>1</c> <c>Inactive</c> <c>High</c>
+<c>2</c> <c>Unvoiced</c> <c>Low</c>
+<c>3</c> <c>Unvoiced</c> <c>High</c>
+<c>4</c> <c>Voiced</c>   <c>Low</c>
+<c>5</c> <c>Voiced</c>   <c>High</c>
+<section anchor="silk_gains" toc="include" title="Subframe Gains">
+A separate quantization gain is coded for each 5&nbsp;ms subframe.
+These gains control the step size between quantization levels of the excitation
+ signal and, therefore, the quality of the reconstruction.
+They are independent of the pitch gains coded for voiced frames.
+The quantization gains are themselves uniformly quantized to 6&nbsp;bits on a
+ log scale, giving them a resolution of approximately 1.369&nbsp;dB and a range
+ of approximately 1.94&nbsp;dB to 88.21&nbsp;dB.
+The subframe gains are either coded independently, or relative to the gain from
+ the most recent coded subframe in the same channel.
+Independent coding is used if and only if
+<list style="symbols">
+This is the first subframe in the current SILK frame, and
+<list style="symbols">
+This is the first SILK frame of its type (LBRR or regular) for this channel in
+ the current Opus frame, or
+ </t>
+The previous SILK frame of the same type (LBRR or regular) for this channel in
+ the same Opus frame was not coded.
+In an independently coded subframe gain, the 3 most significant bits of the
+ quantization gain are decoded using a PDF selected from
+ <xref target="silk_independent_gain_msb_pdfs"/> based on the decoded signal
+ type (see <xref target="silk_frame_type"/>).
+<texttable anchor="silk_independent_gain_msb_pdfs"
+ title="PDFs for Independent Quantization Gain MSb Coding">
+<ttcol align="left">Signal Type</ttcol>
+<ttcol align="left">PDF</ttcol>
+<c>Inactive</c> <c>{32, 112, 68, 29, 12,  1,  1, 1}/256</c>
+<c>Unvoiced</c>  <c>{2,  17, 45, 60, 62, 47, 19, 4}/256</c>
+<c>Voiced</c>    <c>{1,   3, 26, 71, 94, 50,  9, 2}/256</c>
+The 3 least significant bits are decoded using a uniform PDF:
+<texttable anchor="silk_independent_gain_lsb_pdf"
+ title="PDF for Independent Quantization Gain LSb Coding">
+<ttcol align="left">PDF</ttcol>
+<c>{32, 32, 32, 32, 32, 32, 32, 32}/256</c>
+For subframes which do not have an independent gain (including the first
+ subframe of frames not listed as using independent coding above), the
+ quantization gain is coded relative to the gain from the previous subframe (in
+ the same channel).
+The PDF in <xref target="silk_delta_gain_pdf"/> yields a delta gain index
+ between 0 and 40, inclusive.
+<texttable anchor="silk_delta_gain_pdf"
+ title="PDF for Delta Quantization Gain Coding">
 <ttcol align="left">PDF</ttcol>
 <c>{6,   5,  11,  31, 132,  21,   8,   4,
     3,   2,   2,   2,   1,   1,   1,   1,
@@ -1466,16 +2123,18 @@ The PDF in <xref target="silk_delta_gain_pdf"/> yields a delta gain index
 The following formula translates this index into a quantization gain for the
  current subframe using the gain from the previous subframe:
 <figure align="center">
 <artwork align="center"><![CDATA[
 log_gain = min(max(2*gain_index - 16,
-                   previous_log_gain + gain_index - 4), 63)
+                   previous_log_gain + gain_index - 4), 63) .
+The value here is not clamped at 0, and may reach values as low as -16 over the
+ course of consecutive subframes within a single Opus frame.
-silk_gains_dequant() (silk_gain_quant.c) dequantizes the gain for the
k'th subframe and converts it into a linear Q16 scale factor via
+silk_gains_dequant() (gain_quant.c) dequantizes log_gain for the k'th subframe
+ and converts it into a linear Q16 scale factor via
 <figure align="center">
 <artwork align="center"><![CDATA[
 gain_Q16[k] = silk_log2lin((0x1D1C71*log_gain>>16) + 2090)
@@ -1483,11 +2142,11 @@ gain_Q16[k] = silk_log2lin((0x1D1C71*log_gain>>16) + 2090)
-The function silk_log2lin() (silk_log2lin.c) computes an approximation of
of 2**(inLog_Q7/128.0), where inLog_Q7 is its Q7 input.
+The function silk_log2lin() (log2lin.c) computes an approximation of
+ 2**(inLog_Q7/128.0), where inLog_Q7 is its Q7 input.
 Let i = inLog_Q7&gt;&gt;7 be the integer part of inLogQ7 and
  f = inLog_Q7&amp;127 be the fractional part.
-Then, if i &lt; 16, then
+If i &lt; 16, then
 <figure align="center">
 <artwork align="center"><![CDATA[
 (1<<i) + (((-174*f*(128-f)>>16)+f)>>7)*(1<<i)
@@ -1500,16 +2159,19 @@ Otherwise, silk_log2lin uses
 (1<<i) + ((-174*f*(128-f)>>16)+f)*((1<<i)>>7) .
+The final Q16 gain values lies between 4096 and 1686110208, inclusive
+ (representing scale factors of 0.0625 to 25728, respectively).
-<section anchor="silk_nlsfs" title="Normalized Line Spectral Frequencies">
+<section anchor="silk_nlsfs" toc="include" title="Normalized Line Spectral
+ Frequency (LSF) and Linear Predictive Coding (LPC) Coefficients">
-Normalized Line Spectral Frequencies (LSFs) follow the quantization gains in
- the bitstream, and represent the Linear Prediction Coefficients (LPCs) for the
- current SILK frame.
-Once decoded, they form an increasing list of Q15 values between 0 and 1.
+A set of normalized Line Spectral Frequency (LSF) coefficients follow the
+ quantization gains in the bitstream, and represent the Linear Predictive
+ Coding (LPC) coefficients for the current SILK frame.
+Once decoded, the normalized LSFs form an increasing list of Q15 values between
+ 0 and 1.
 These represent the interleaved zeros on the unit circle between 0 and pi
  (hence "normalized") in the standard decomposition of the LPC filter into a
  symmetric part and an anti-symmetric part (P and Q in
@@ -1519,9 +2181,23 @@ Because of non-linear effects in the decoding process, an implementation SHOULD
 An encoder SHOULD also use the same process.
-The normalized LSFs are coded using a two-stage vector quantizer (VQ).
+The normalized LSFs are coded using a two-stage vector quantizer (VQ)
+ (<xref target="silk_nlsf_stage1"/> and <xref target="silk_nlsf_stage2"/>).
 NB and MB frames use an order-10 predictor, while WB frames use an order-16
  predictor, and thus have different sets of tables.
+After reconstructing the normalized LSFs
+ (<xref target="silk_nlsf_reconstruction"/>), the decoder runs them through a
+ stabilization process (<xref target="silk_nlsf_stabilization"/>), interpolates
+ them between frames (<xref target="silk_nlsf_interpolation"/>), converts them
+ back into LPC coefficients (<xref target="silk_nlsf2lpc"/>), and then runs
+ them through further processes to limit the range of the coefficients
+ (<xref target="silk_lpc_range_limit"/>) and the gain of the filter
+ (<xref target="silk_lpc_gain_limit"/>).
+All of this is necessary to ensure the reconstruction process is stable.
+<section anchor="silk_nlsf_stage1" title="Stage 1 Normalized LSF Decoding">
 The first VQ stage uses a 32-element codebook, coded with one of the PDFs in
  <xref target="silk_nlsf_stage1_pdfs"/>, depending on the audio bandwidth and
  the signal type of the current SILK frame.
@@ -1570,6 +2246,9 @@ The actual codebook elements are listed in
+<section anchor="silk_nlsf_stage2" title="Stage 2 Normalized LSF Decoding">
 A total of 16 PDFs are available for the LSF residual in the second stage: the
  8 (a...h) for NB and MB frames given in
@@ -1759,7 +2438,7 @@ Decoding the second stage residual proceeds as follows.
 For each coefficient, the decoder reads a symbol using the PDF corresponding to
  I1 from either <xref target="silk_nlsf_nbmb_stage2_cb_sel"/> or
  <xref target="silk_nlsf_wb_stage2_cb_sel"/>, and subtracts 4 from the result
- to given an index in the range -4 to 4, inclusive.
+ to give an index in the range -4 to 4, inclusive.
 If the index is either -4 or 4, it reads a second symbol using the PDF in
  <xref target="silk_nlsf_ext_pdf"/>, and adds the value of this second symbol
  to the index, using the same sign.
@@ -1774,7 +2453,7 @@ This gives the index, I2[k], a total range of -10 to 10, inclusive.
 The decoded indices from both stages are translated back into normalized LSF
- coefficients in silk_NLSF_decode() (silk_NLSF_decode.c).
+ coefficients in silk_NLSF_decode() (NLSF_decode.c).
 The stage-2 indices represent residuals after both the first stage of the VQ
  and a separate backwards-prediction step.
 The backwards prediction process in the encoder subtracts a prediction from
@@ -1812,7 +2491,7 @@ There are two lists for NB and MB, and another two lists for WB, giving two
 The prediction is undone using the procedure implemented in
- silk_NLSF_residual_dequant() (silk_NLSF_decode.c), which is as follows.
+ silk_NLSF_residual_dequant() (NLSF_decode.c), which is as follows.
 Each coefficient selects its prediction weight from one of the two lists based
  on the stage-1 index, I1.
 <xref target="silk_nlsf_nbmb_weight_sel"/> gives the selections for each
@@ -1824,8 +2503,8 @@ Let d_LPC be the order of the codebook, i.e., 10 for NB and MB, and 16 for WB,
 Then, the stage-2 residual for each coefficient is computed via
 <figure align="center">
 <artwork align="center"><![CDATA[
-  res_Q10[k] = (k+1 < d_LPC ? (res_Q10[k+1]*pred_Q8[k])>>8 : 0)
-               + ((((I2[k]<<10) + sign(I2[k])*102)*qstep)>>16) ,
+res_Q10[k] = (k+1 < d_LPC ? (res_Q10[k+1]*pred_Q8[k])>>8 : 0)
+             + ((((I2[k]<<10) + sign(I2[k])*102)*qstep)>>16) ,
  where qstep is the Q16 quantization step size, which is 11796 for NB and MB
@@ -1977,10 +2656,19 @@ Then, the stage-2 residual for each coefficient is computed via
 <c><spanx style="vbare">C&nbsp;&nbsp;C&nbsp;&nbsp;D&nbsp;&nbsp;C&nbsp;&nbsp;C&nbsp;&nbsp;D&nbsp;&nbsp;D&nbsp;&nbsp;D&nbsp;&nbsp;C&nbsp;&nbsp;C&nbsp;&nbsp;D&nbsp;&nbsp;C&nbsp;&nbsp;C&nbsp;&nbsp;D&nbsp;&nbsp;C</spanx></c>
+<section anchor="silk_nlsf_reconstruction"
+ title="Reconstructing the Normalized LSF Coefficients">
+Once the stage-1 index I1 and the stage-2 residual res_Q10[] have been decoded,
+ the final normalized LSF coefficients can be reconstructed.
 The spectral distortion introduced by the quantization of each LSF coefficient
  varies, so the stage-2 residual is weighted accordingly, using the
- low-complexity weighting function proposed in <xref target="laroia-icassp"/>.
+ low-complexity Inverse Harmonic Mean Weighting (IHMW) function proposed in
+ <xref target="laroia-icassp"/>.
 The weights are derived directly from the stage-1 codebook vector.
 Let cb1_Q8[k] be the k'th entry of the stage-1 codebook vector from
  <xref target="silk_nlsf_nbmb_codebook"/> or
@@ -2008,17 +2696,19 @@ w_Q9[k] = y + ((213*f*y)>>16)
 The cb1_Q8[] vector completely determines these weights, and they may be
- tabulated and stored as 13-bit unsigned values (with a range of 1819 to 5227)
- to avoid computing them when decoding.
-The reference implementation computes them on the fly in
- silk_NLSF_VQ_weights_laroia() (silk_NLSF_VQ_weights_laroia.c) and its
- caller, to reduce the amount of ROM required.
+ tabulated and stored as 13-bit unsigned values (with a range of 1819 to 5227,
+ inclusive) to avoid computing them when decoding.
+The reference implementation already requires code to compute these weights on
+ unquantized coefficients in the encoder, in silk_NLSF_VQ_weights_laroia()
+ (NLSF_VQ_weights_laroia.c) and its callers, so it reuses that code in the
+ decoder instead of using a pre-computed table to reduce the amount of ROM
+ required.
 <texttable anchor="silk_nlsf_nbmb_codebook"
            title="Codebook Vectors for NB/MB Normalized LSF Stage 1 Decoding">
+<ttcol>Codebook (Q8)</ttcol>
 <c><spanx style="vbare">&nbsp;0&nbsp;&nbsp;&nbsp;1&nbsp;&nbsp;&nbsp;2&nbsp;&nbsp;&nbsp;3&nbsp;&nbsp;&nbsp;4&nbsp;&nbsp;&nbsp;5&nbsp;&nbsp;&nbsp;6&nbsp;&nbsp;&nbsp;7&nbsp;&nbsp;&nbsp;8&nbsp;&nbsp;&nbsp;9</spanx></c>
@@ -2090,7 +2780,7 @@ The reference implementation computes them on the fly in
 <texttable anchor="silk_nlsf_wb_codebook"
            title="Codebook Vectors for WB Normalized LSF Stage 1 Decoding">
+<ttcol>Codebook (Q8)</ttcol>
 <c><spanx style="vbare">&nbsp;0&nbsp;&nbsp;1&nbsp;&nbsp;2&nbsp;&nbsp;3&nbsp;&nbsp;4&nbsp;&nbsp;&nbsp;5&nbsp;&nbsp;&nbsp;6&nbsp;&nbsp;&nbsp;7&nbsp;&nbsp;&nbsp;8&nbsp;&nbsp;&nbsp;9&nbsp;&nbsp;10&nbsp;&nbsp;11&nbsp;&nbsp;12&nbsp;&nbsp;13&nbsp;&nbsp;14&nbsp;&nbsp;15</spanx></c>
@@ -2169,18 +2859,22 @@ NLSF_Q15[k] = (cb1_Q8[k]<<7) + (res_Q10[k]<<14)/w_Q9[k] ,
  where the division is exact integer division.
-However, nothing thus far in the reconstruction process, nor in the
- quantization process in the encoder, guarantees that the coefficients are
- monotonically increasing and separated well enough to ensure a stable filter.
+However, nothing in either the reconstruction process or the
+ quantization process in the encoder thus far guarantees that the coefficients
+ are monotonically increasing and separated well enough to ensure a stable
+ filter.
 When using the reference encoder, roughly 2% of frames violate this constraint.
 The next section describes a stabilization procedure used to make these
 <section anchor="silk_nlsf_stabilization" title="Normalized LSF Stabilization">
+<!--TODO: Clean up lsf_stabilizer_overview_section-->
 The normalized LSF stabilization procedure is implemented in
- silk_NLSF_stabilize() (silk_NLSF_stabilize.c).
+ silk_NLSF_stabilize() (NLSF_stabilize.c).
 This process ensures that consecutive values of the normalized LSF
  coefficients, NLSF_Q15[], are spaced some minimum distance apart
  (predetermined to be the 0.01 percentile of a large training set).
@@ -2255,12 +2949,12 @@ center_freq_Q15 = clamp(min_center_Q15[i],
    NLSF_Q15[i] = NLSF_Q15[i-1] + NDeltaMin_Q15[i] .
-Then the procedure repeats again, until it has executed 20 times, or until
it stops because the coefficients satisfy all the constraints.
+Then the procedure repeats again, until it has either executed 20 times or
has stopped because the coefficients satisfy all the constraints.
-After the 20th repetition of the above, the following fallback procedure
- executes once.
+After the 20th repetition of the above procedure, the following fallback
procedure executes once.
 First, the values of NLSF_Q15[k] for 0&nbsp;&lt;=&nbsp;k&nbsp;&lt;&nbsp;d_LPC
  are sorted in ascending order.
 Then for each value of k from 0 to d_LPC-1, NLSF_Q15[k] is set to
@@ -2282,14 +2976,15 @@ min(NLSF_Q15[k], NLSF_Q15[k+1] - NDeltaMin_Q15[k+1]) .
 <section anchor="silk_nlsf_interpolation" title="Normalized LSF Interpolation">
 For 20&nbsp;ms SILK frames, the first half of the frame (i.e., the first two
- sub-frames) may use normalized LSF coefficients that are interpolated between
- the decoded LSFs for the previous frame and the current frame.
+ subframes) may use normalized LSF coefficients that are interpolated between
+ the decoded LSFs for the most recent coded frame (in the same channel) and the
+ current frame.
 A Q2 interpolation factor follows the LSF coefficient indices in the bitstream,
  which is decoded using the PDF in <xref target="silk_nlsf_interp_pdf"/>.
-This happens in silk_decode_indices() (silk_decode_indices.c).
-For the first frame after a decoder reset, when no prior LSF coefficients are
- available, the decoder still decodes this factor, but ignores its value and
- always uses 4 instead.
+This happens in silk_decode_indices() (decode_indices.c).
+For the first frame after a decoder reset (see <xref target="switching"/>),
+ when no prior LSF coefficients are available, the decoder still decodes this
factor, but ignores its value and always uses 4 instead.
 For 10&nbsp;ms SILK frames, this factor is not stored at all.
@@ -2311,12 +3006,12 @@ n1_Q15[k] = n0_Q15[k] + (w_Q2*(n2_Q15[k] - n0_Q15[k]) >> 2) .
 This interpolation is performed in silk_decode_parameters()
- (silk_decode_parameters.c).
+ (decode_parameters.c).
 <section anchor="silk_nlsf2lpc"
        title="Converting Normalized LSF Coefficients to LPCs">
title="Converting Normalized LSFs to LPC Coefficients">
 Any LPC filter A(z) can be split into a symmetric part P(z) and an
  anti-symmetric part Q(z) such that
@@ -2363,37 +3058,66 @@ Q(z) = (1 - z  ) *  | |  (1 - 2*cos(pi*n[2*k+1])*z  + z  )
 However, SILK performs this reconstruction using a fixed-point approximation so
  that all decoders can reproduce it in a bit-exact manner to avoid prediction
-The function silk_NLSF2A() (silk_NLSF2A.c) implements this procedure.
+The function silk_NLSF2A() (NLSF2A.c) implements this procedure.
 To start, it approximates cos(pi*n[k]) using a table lookup with linear
 The encoder SHOULD use the inverse of this piecewise linear approximation,
- rather than true the inverse of the cosine function, when deriving the
+ rather than the true inverse of the cosine function, when deriving the
  normalized LSF coefficients.
+These values are also re-ordered to improve numerical accuracy when
+ constructing the LPC polynomials.
+<texttable anchor="silk_nlsf_orderings"
+           title="LSF Ordering for Polynomial Evaluation">
+<ttcol align="right">NB and MB</ttcol>
+<ttcol align="right">WB</ttcol>
+ <c>0</c>  <c>0</c>  <c>0</c>
+ <c>1</c>  <c>9</c> <c>15</c>
+ <c>2</c>  <c>6</c>  <c>8</c>
+ <c>3</c>  <c>3</c>  <c>7</c>
+ <c>4</c>  <c>4</c>  <c>4</c>
+ <c>5</c>  <c>5</c> <c>11</c>
+ <c>6</c>  <c>8</c> <c>12</c>
+ <c>7</c>  <c>1</c>  <c>3</c>
+ <c>8</c>  <c>2</c>  <c>2</c>
+ <c>9</c>  <c>7</c> <c>13</c>
+<c>10</c>      <c/> <c>10</c>
+<c>11</c>      <c/>  <c>5</c>
+<c>12</c>      <c/>  <c>6</c>
+<c>13</c>      <c/>  <c>9</c>
+<c>14</c>      <c/> <c>14</c>
+<c>15</c>      <c/>  <c>1</c>
 The top 7 bits of each normalized LSF coefficient index a value in the table,
  and the next 8 bits interpolate between it and the next value.
-Let i&nbsp;=&nbsp;n[k]&gt;&gt;8 be the integer index and
- f&nbsp;=&nbsp;n[k]&amp;255 be the fractional part of a given coefficient.
-Then the approximated cosine, c_Q17[k], is
+Let i&nbsp;=&nbsp;(n[k]&nbsp;&gt;&gt;&nbsp;8) be the integer index and
+ f&nbsp;=&nbsp;(n[k]&nbsp;&amp;&nbsp;255) be the fractional part of a given
+ coefficient.
+Then the re-ordered, approximated cosine, c_Q17[ordering[k]], is
 <figure align="center">
 <artwork align="center"><![CDATA[
-c_Q17[k] = (cos_Q13[i]*256 + (cos_Q13[i+1]-cos_Q13[i])*f + 8) >> 4 ,
+c_Q17[ordering[k]] = (cos_Q13[i]*256
+                      + (cos_Q13[i+1]-cos_Q13[i])*f + 8) >> 4 ,
- where cos_Q13[i] is the corresponding entry of
- <xref target="silk_cos_table"/>.
+ where ordering[k] is the k'th entry of the column of
+ <xref target="silk_nlsf_orderings"/> corresponding to the current audio
+ bandwidth and cos_Q13[i] is the i'th entry of <xref target="silk_cos_table"/>.
 <texttable anchor="silk_cos_table"
            title="Q13 Cosine Table for LSF Conversion">
-<ttcol align="right"></ttcol>
-<ttcol align="right">0</ttcol>
-<ttcol align="right">1</ttcol>
-<ttcol align="right">2</ttcol>
-<ttcol align="right">3</ttcol>
+<ttcol align="right">i</ttcol>
+<ttcol align="right">+0</ttcol>
+<ttcol align="right">+1</ttcol>
+<ttcol align="right">+2</ttcol>
+<ttcol align="right">+3</ttcol>
  <c>8192</c> <c>8190</c> <c>8182</c> <c>8170</c>
@@ -2463,7 +3187,7 @@ c_Q17[k] = (cos_Q13[i]*256 + (cos_Q13[i+1]-cos_Q13[i])*f + 8) >> 4 ,
-Given the list of cosine values, silk_NLSF2A_find_poly() (silk_NLSF2A.c)
+Given the list of cosine values, silk_NLSF2A_find_poly() (NLSF2A.c)
  computes the coefficients of P and Q, described here via a simple recurrence.
 Let p_Q16[k][j] and q_Q16[k][j] be the coefficients of the products of the
  first (k+1) root pairs for P and Q, with j indexing the coefficient number.
@@ -2476,7 +3200,7 @@ As boundary conditions, assume
 Also, assume p_Q16[k][k+2]&nbsp;=&nbsp;p_Q16[k][k] and
  q_Q16[k][k+2]&nbsp;=&nbsp;q_Q16[k][k] (because of the symmetry).
-Then, for 0&nbsp;&lt;k&nbsp;&lt;&nbsp;d2 and 0&nbsp;&lt;=&nbsp;j&nbsp;&lt;=&nbsp;k+1,
+Then, for 0&nbsp;&lt;&nbsp;k&nbsp;&lt;&nbsp;d2 and 0&nbsp;&lt;=&nbsp;j&nbsp;&lt;=&nbsp;k+1,
 <figure align="center">
 <artwork align="center"><![CDATA[
 p_Q16[k][j] = p_Q16[k-1][j] + p_Q16[k-1][j-2]
@@ -2514,7 +3238,7 @@ The promotion of the expression from Q16 to Q17 implicitly scales the result
-<section anchor="silk_lpc_range"
+<section anchor="silk_lpc_range_limit"
  title="Limiting the Range of the LPC Coefficients">
 The a32_Q17[] coefficients are too large to fit in a 16-bit value, which
@@ -2528,7 +3252,7 @@ Even floating-point decoders SHOULD perform these steps, to avoid mismatch.
 For each round, the process first finds the index k such that abs(a32_Q17[k])
- is the largest, breaking ties by using the lower value of k.
+ is largest, breaking ties by choosing the lowest value of k.
 Then, it computes the corresponding Q12 precision value, maxabs_Q12, subject to
  an upper bound to avoid overflow in subsequent computations:
 <figure align="center">
@@ -2552,9 +3276,8 @@ This is an approximation of the chirp factor needed to reduce the target
  too large.
-silk_bwexpander_32() (silk_bwexpander_32.c) performs the bandwidth expansion
- (again, only when maxabs_Q12 is greater than 32767) using the following
- recurrence:
+silk_bwexpander_32() (bwexpander_32.c) performs the bandwidth expansion (again,
+ only when maxabs_Q12 is greater than 32767) using the following recurrence:
 <figure align="center">
 <artwork align="center"><![CDATA[
  a32_Q17[k] = (a32_Q17[k]*sc_Q16[k]) >> 16
@@ -2581,23 +3304,26 @@ a32_Q17[k] = clamp(-32768, (a32_Q17[k]+16) >> 5, 32767) << 5 .
 Because this performs the actual saturation in the Q12 domain, but converts the
  coefficients back to the Q17 domain for the purposes of prediction gain
  limiting, this step must be performed after the 10th round of bandwidth
- expansion, regardless of whether or not the Q12 version of any of the
coefficients still overflow a 16-bit integer.
+ expansion, regardless of whether or not the Q12 version of any coefficient
still overflows a 16-bit integer.
 This saturation is not performed if maxabs_Q12 drops to 32767 or less prior to
  the 10th round.
-<section title="Limiting the Prediction Gain of the LPC Filter">
+<section anchor="silk_lpc_gain_limit"
+ title="Limiting the Prediction Gain of the LPC Filter">
+The prediction gain of an LPC synthesis filter is the square-root of the output
+ energy when the filter is excited by a unit-energy impulse.
 Even if the Q12 coefficients would fit, the resulting filter may still have a
  significant gain (especially for voiced sounds), making the filter unstable.
 silk_NLSF2A() applies up to 18 additional rounds of bandwidth expansion to
  limit the prediction gain.
 Instead of controlling the amount of bandwidth expansion using the prediction
  gain itself (which may diverge to infinity for an unstable filter),
- silk_NLSF2A() uses LPC_inverse_pred_gain_QA() (silk_LPC_inv_pred_gain.c)
to compute the reflection coefficients associated with the filter.
+ silk_NLSF2A() uses silk_LPC_inverse_pred_gain_QA() (LPC_inv_pred_gain.c) to
+ compute the reflection coefficients associated with the filter.
 The filter is stable if and only if the magnitude of these coefficients is
  sufficiently less than one.
 The reflection coefficients, rc[k], can be computed using a simple Levinson
@@ -2615,99 +3341,128 @@ a[k-1][n] = --------------------------- .
-However, LPC_inverse_pred_gain_QA() approximates this using fixed-point
+However, silk_LPC_inverse_pred_gain_QA() approximates this using fixed-point
  arithmetic to guarantee reproducible results across platforms and
-It is important to run on the real Q12 coefficients that will be used during
- reconstruction, because small changes in the coefficients can make a stable
- filter unstable, but increasing the precision back to Q16 allows more accurate
- computation of the reflection coefficients.
+Since small changes in the coefficients can make a stable filter unstable, it
+ takes the real Q12 coefficients that will be used during reconstruction as
+ input.
 Thus, let
 <figure align="center">
 <artwork align="center"><![CDATA[
-a32_Q16[d_LPC-1][n] = ((a32_Q17[n] + 16) >> 5) << 4
+a32_Q12[n] = (a32_Q17[n] + 16) >> 5
+ be the Q12 version of the LPC coefficients that will eventually be used.
+As a simple initial check, the decoder computes the DC response as
+<figure align="center">
+<artwork align="center"><![CDATA[
+        d_PLC-1
+          __
+DC_resp = \   a32_Q12[n]
+          /_
+          n=0
+ and if DC_resp&nbsp;&gt;&nbsp;4096, the filter is unstable.
+Increasing the precision of these Q12 coefficients to Q24 for intermediate
+ computations allows more accurate computation of the reflection coefficients,
+ so the decoder initializes the recurrence via
+<figure align="center">
+<artwork align="center"><![CDATA[
+a32_Q24[d_LPC-1][n] = a32_Q12[n] << 12 .
- be the Q16 representation of the Q12 version of the LPC coefficients that will
- eventually be used.
 Then for each k from d_LPC-1 down to 0, if
- abs(a32_Q16[k][k])&nbsp;&gt;&nbsp;65520, the filter is unstable and the
+ abs(a32_Q24[k][k])&nbsp;&gt;&nbsp;16773022, the filter is unstable and the
  recurrence stops.
-Otherwise, the row k-1 of a32_Q16 is computed from row k as
+Otherwise, row k-1 of a32_Q24 is computed from row k as
 <figure align="center">
 <artwork align="center"><![CDATA[
-      rc_Q31[k] = -a32_Q16[k][k] << 15 ,
+      rc_Q31[k] = -a32_Q24[k][k] << 7 ,
+     div_Q30[k] = (1<<30) - (rc_Q31[k]*rc_Q31[k] >> 32) ,
-     div_Q30[k] = (1<<30) - 1 - (rc_Q31[k]*rc_Q31[k] >> 32) ,
+          b1[k] = ilog(div_Q30[k]) ,
-          b1[k] = ilog(div_Q30[k]) - 16 ,
+          b2[k] = b1[k] - 16 ,
                         (1<<29) - 1
-     inv_Qb1[k] = ----------------------- ,
-                  div_Q30[k] >> (b1[k]+1)
+     inv_Qb2[k] = ----------------------- ,
+                  div_Q30[k] >> (b2[k]+1)
      err_Q29[k] = (1<<29)
-                  - ((div_Q30[k]<<(15-b1[k]))*inv_Qb1[k] >> 16) ,
+                  - ((div_Q30[k]<<(15-b2[k]))*inv_Qb2[k] >> 16) ,
-     mul_Q16[k] = ((inv_Qb1[k] << 16)
-                   + (err_Q29[k]*inv_Qb1[k] >> 13)) >> b1[k] ,
+    gain_Qb1[k] = ((inv_Qb2[k] << 16)
+                   + (err_Q29[k]*inv_Qb2[k] >> 13)) ,
-          b2[k] = ilog(mul_Q16[k]) - 15 ,
+num_Q24[k-1][n] = a32_Q24[k][n]
+                  - ((a32_Q24[k][k-n-1]*rc_Q31[k] + (1<<30)) >> 31) ,
-  t_Q16[k-1][n] = a32_Q16[k][n]
-                  - ((a32_Q16[k][k-n-1]*rc_Q31[k] >> 32) << 1) ,
-a32_Q16[k-1][n] = ((t_Q16[k-1][n] *
-                    (mul_Q16[k] << (16-b2[k]))) >> 32) << b2[k] .
+a32_Q24[k-1][n] = (num_Q24[k-1][n]*gain_Qb1[k]
+                   + (1<<(b1[k]-1))) >> b1[k] ,
+ where 0&nbsp;&lt;=&nbsp;n&nbsp;&lt;&nbsp;k-1.
 Here, rc_Q30[k] are the reflection coefficients.
-div_Q30[k] is the denominator for each iteration, and mul_Q16[k] is its
- multiplicative inverse.
-inv_Qb1[k], which ranges from 16384 to 32767, is a low-precision version of
- that inverse (with b1[k] fractional bits, where b1[k] ranges from 3 to 14).
-err_Q29[k] is the residual error, ranging from -32392 to 32763, which is used
+div_Q30[k] is the denominator for each iteration, and gain_Qb1[k] is its
+ multiplicative inverse (with b1[k] fractional bits, where b1[k] ranges from
+ 20 to 31).
+inv_Qb2[k], which ranges from 16384 to 32767, is a low-precision version of
+ that inverse (with b2[k] fractional bits).
+err_Q29[k] is the residual error, ranging from -32763 to 32392, which is used
  to improve the accuracy.
-t_Q16[k-1][n], 0&nbsp;&lt;=&nbsp;n&nbsp;&lt;&nbsp;k, are the numerators for the
- next row of coefficients in the recursion, and a32_Q16[k-1][n] is the final
version of that row.
-Every multiply in this procedure except the one used to compute mul_Q16[k]
+The values t_Q24[k-1][n] for each n are the numerators for the next row of
+ coefficients in the recursion, and a32_Q24[k-1][n] is the final version of
+ that row.
+Every multiply in this procedure except the one used to compute gain_Qb1[k]
  requires more than 32 bits of precision, but otherwise all intermediate
  results fit in 32 bits or less.
 In practice, because each row only depends on the next one, an implementation
  does not need to store them all.
-If abs(a32_Q16[k][k])&nbsp;&lt;=&nbsp;65520 for
+If abs(a32_Q24[k][k])&nbsp;&lt;=&nbsp;16773022 for
  0&nbsp;&lt;=&nbsp;k&nbsp;&lt;&nbsp;d_LPC, then the filter is considered stable.
+However, the problem of determining stability is ill-conditioned when the
+ filter contains several reflection coefficients whose magnitude is very close
+ to one.
+This fixed-point algorithm is not mathematically guaranteed to correctly
+ classify filters as stable or unstable in this case, though it does very well
+ in practice.
-On round i, 1&nbsp;&lt;=&nbsp;i&nbsp;&lt;=&nbsp;18, if the filter passes this
- stability check, then this procedure stops, and the final LPC coefficients to
- use for reconstruction<!--TODO: In section...--> are
+On round i, 1&nbsp;&lt;=&nbsp;i&nbsp;&lt;=&nbsp;18, if the filter passes these
+ stability checks, then this procedure stops, and the final LPC coefficients to
+ use for reconstruction in <xref target="silk_lpc_synthesis"/> are
 <figure align="center">
 <artwork align="center"><![CDATA[
 a_Q12[k] = (a32_Q17[k] + 16) >> 5 .
 Otherwise, a round of bandwidth expansion is applied using the same procedure
- as in <xref target="silk_lpc_range"/>, with
+ as in <xref target="silk_lpc_range_limit"/>, with
 <figure align="center">
 <artwork align="center"><![CDATA[
 sc_Q16[0] = 65536 - i*(i+9) .
-If, after the 18th round, the filter still fails the stability check, then
+If, after the 18th round, the filter still fails these stability checks, then
  a_Q12[k] is set to 0 for all k.
-<section anchor="silk_ltp_params"
+<section anchor="silk_ltp_params" toc="include"
  title="Long-Term Prediction (LTP) Parameters">
 After the normalized LSF indices and, for 20&nbsp;ms frames, the LSF
  interpolation index, voiced frames (see <xref target="silk_frame_type"/>)
- include additional Long-Term Prediction (LTP) parameters.
+ include additional LTP parameters.
 There is one primary lag index for each SILK frame, but this is refined to
  produce a separate lag index per subframe using a vector quantizer.
 Each subframe also gets its own prediction gain coefficient.
@@ -2716,12 +3471,24 @@ Each subframe also gets its own prediction gain coefficient.
 <section anchor="silk_ltp_lags" title="Pitch Lags">
 The primary lag index is coded either relative to the primary lag of the prior
- frame or as an absolute index.
-Like the quantization gains, the first LBRR frame, an LBRR frame where the
- previous LBRR frame was not coded, or the first regular SILK frame in an Opus
- frame all code the pitch lag as an absolute index.
-When the prior frame was not voiced, this also forces absolute coding.
+ frame in the same channel, or as an absolute index.
+Absolute coding is used if and only if
+<list style="symbols">
+This is the first SILK frame of its type (LBRR or regular) for this channel in
+ the current Opus frame,
+The previous SILK frame of the same type (LBRR or regular) for this channel in
+ the same Opus frame was not coded, or
+That previous SILK frame was coded, but was not voiced (see
+ <xref target="silk_frame_type"/>).
 With absolute coding, the primary pitch lag may range from 2&nbsp;ms
  (inclusive) up to 18&nbsp;ms (exclusive), corresponding to pitches from
@@ -2775,8 +3542,8 @@ Otherwise, the final primary pitch lag is then
 lag = lag_prev + (delta_lag_index - 9)
- where lag_prev is the primary pitch lag from the previous frame and
- delta_lag_index is the value just decoded.
+ where lag_prev is the primary pitch lag from the most recent frame in the same
channel and delta_lag_index is the value just decoded.
 This allows a per-frame change in the pitch lag of -8 to +11 samples.
 The decoder does no clamping at this point, so this value can fall outside the
  range of 2&nbsp;ms to 18&nbsp;ms, and the decoder must use this unclamped
@@ -2786,7 +3553,7 @@ However, because an Opus frame can use relative coding for at most two
 <texttable anchor="silk_rel_pitch_pdf"
- title="PDF for Pitch Lag Change">
+ title="PDF for Primary Pitch Lag Change">
 <ttcol align="left">PDF</ttcol>
 <c>{46,  2,  2,  3,  4,  6, 10, 15,
     26, 38, 30, 22, 15, 10,  7,  6,
@@ -2800,10 +3567,10 @@ After the primary pitch lag, a "pitch contour", stored as a single entry from
 The codebook index is decoded using one of the PDFs in
  <xref target="silk_pitch_contour_pdfs"/> depending on the current frame size
  and audio bandwidth.
-<xref target="silk_pitch_contour_cb_nb10ms"/> through
- <xref target="silk_pitch_contour_cb_mbwb20ms"/> give the corresponding offsets
- to apply to the primary pitch lag for each subframe given the decoded codebook
- index.
+Tables&nbsp;<xref format="counter" target="silk_pitch_contour_cb_nb10ms"/>
+ through&nbsp;<xref format="counter" target="silk_pitch_contour_cb_mbwb20ms"/>
+ give the corresponding offsets to apply to the primary pitch lag for each
subframe given the decoded codebook index.
 <texttable anchor="silk_pitch_contour_pdfs"
@@ -2825,7 +3592,7 @@ The codebook index is decoded using one of the PDFs in
     13, 10,  9,  9,  8,  6,  6,  6,
      5,  4,  4,  4,  3,  3,  3,  2,
      2,  2,  2,  2,  2,  2,  1,  1,
-     1,  1}</c>
+     1,  1}/256</c>
 <texttable anchor="silk_pitch_contour_cb_nb10ms"
@@ -2914,7 +3681,7 @@ The codebook index is decoded using one of the PDFs in
 The final pitch lag for each subframe is assembled in silk_decode_pitch()
- (silk_decode_pitch.c).
+ (decode_pitch.c).
 Let lag be the primary pitch lag for the current SILK frame, contour_index be
  index of the VQ codebook, and lag_cb[contour_index][k] be the corresponding
  entry of the codebook from the appropriate table given above for the k'th
@@ -2933,12 +3700,25 @@ pitch_lags[k] = clamp(lag_min, lag + lag_cb[contour_index][k],
-<section anchor="silk_ltp_coeffs" title="LTP Filter Coefficients">
+<section anchor="silk_ltp_filter" title="LTP Filter Coefficients">
+SILK uses a separate 5-tap pitch filter for each subframe, selected from one
+ of three codebooks.
+The three codebooks each represent different rate-distortion trade-offs, with
+ average rates of 1.61&nbsp;bits/subframe, 3.68&nbsp;bits/subframe, and
+ 4.85&nbsp;bits/subframe, respectively.
-SILK can use a separate 5-tap pitch filter for each subframe.
-It selects the filter to use from one of three codebooks.
-All of the subframes in a SILK frame must choose their filter from the same
- codebook, itself chosen via an explicitly-coded "periodicity index".
+The importance of the filter coefficients generally depends on two factors: the
+ periodicity of the signal and relative energy between the current subframe and
+ the signal from one period earlier.
+Greater periodicity and decaying energy both lead to more important filter
+ coefficients, and thus should be coded with lower distortion and higher rate.
+These properties are relatively stable over the duration of a single SILK
+ frame, hence all of the subframes in a SILK frame choose their filter from the
+ same codebook.
+This is signaled with an explicitly-coded "periodicity index".
 This immediately follows the subframe pitch lags, and is coded using the
  3-entry PDF from <xref target="silk_perindex_pdf"/>.
@@ -2949,15 +3729,15 @@ This immediately follows the subframe pitch lags, and is coded using the
-The index of the filter for use for each subframe follows.
+The indices of the filters for each subframe follow.
 They are all coded using the PDF from <xref target="silk_ltp_filter_pdfs"/>
  corresponding to the periodicity index.
-<xref target="silk_ltp_filter_coeffs0"/> through
- <xref target="silk_ltp_filter_coeffs2"/> contain the corresponding filter taps
- as signed Q7 integers.
+Tables&nbsp;<xref format="counter" target="silk_ltp_filter_coeffs0"/>
+ through&nbsp;<xref format="counter" target="silk_ltp_filter_coeffs2"/>
contain the corresponding filter taps as signed Q7 integers.
-<texttable anchor="silk_ltp_filter_pdfs" title="Periodicity Index PDF">
+<texttable anchor="silk_ltp_filter_pdfs" title="LTP Filter PDFs">
 <ttcol>Periodicity Index</ttcol>
 <ttcol align="right">Codebook Size</ttcol>
@@ -3105,23 +3885,45 @@ They are all coded using the PDF from <xref target="silk_ltp_filter_pdfs"/>
 <section anchor="silk_ltp_scaling" title="LTP Scaling Parameter">
-After the LTP filter coefficients, an LTP scaling parameter may appear.
-This allows the encoder to trade-off the prediction gain between
- packets against the recovery time after packet loss.
-Like the quantization gains, only the first LBRR frame in an Opus frame,
- an LBRR frame where the prior LBRR frame was not coded, and the first regular
- SILK frame in an Opus frame include this field, and, like all of the other
- LTP parameters, only for frames that are also voiced.
-Unlike absolute-coding for pitch lags, a SILK frame will not include this field
- just because the prior frame was not voiced.
+An LTP scaling parameter appears after the LTP filter coefficients if and only
+ if
+<list style="symbols">
+<t>This is a voiced frame (see <xref target="silk_frame_type"/>), and</t>
+<list style="symbols">
+This SILK frame corresponds to the first time interval of the
+ current Opus frame for its type (LBRR or regular), or
-If present, the value is coded using the 3-entry PDF in
+This is an LBRR frame where the LBRR flags (see
+ <xref target="silk_lbrr_flags"/>) indicate the previous LBRR frame in the same
+ channel is not coded.
+This allows the encoder to trade off the prediction gain between
+ packets against the recovery time after packet loss.
+Unlike absolute-coding for pitch lags, regular SILK frames that are not at the
+ start of an Opus frame (i.e., that do not correspond to the first 20&nbsp;ms
+ time interval in Opus frames of 40&nbsp;or 60&nbsp;ms) do not include this
+ field, even if the prior frame was not voiced, or (in the case of the side
+ channel) not even coded.
+After an uncoded frame in the side channel, the LTP buffer (see
+ <xref target="silk_ltp_synthesis"/>) is cleared to zero, and is thus in a
+ known state.
+In contrast, LBRR frames do include this field when the prior frame was not
+ coded, since the LTP buffer contains the output of the PLC, which is
+ non-normative.
+If present, the decoder reads a value using the 3-entry PDF in
  <xref target="silk_ltp_scaling_pdf"/>.
 The three possible values represent Q14 scale factors of 15565, 12288, and
  8192, respectively (corresponding to approximately 0.95, 0.75, and 0.5).
 Frames that do not code the scaling parameter use the default factor of 15565
- (0.95).
+ (approximately 0.95).
 <texttable anchor="silk_ltp_scaling_pdf"
@@ -3134,15 +3936,18 @@ Frames that do not code the scaling parameter use the default factor of 15565
-<section anchor="silk_seed" title="Linear Congruential Generator (LCG) Seed">
+<section anchor="silk_seed" toc="include"
+ title="Linear Congruential Generator (LCG) Seed">
-SILK uses a linear congruential generator (LCG) to inject pseudorandom noise
- into the quantized excitation.
+As described in <xref target="silk_excitation_reconstruction"/>, SILK uses a
+ linear congruential generator (LCG) to inject pseudorandom noise into the
+ quantized excitation
 To ensure synchronization of this process between the encoder and decoder, each
  SILK frame stores a 2-bit seed after the LTP parameters (if any).
-The encoder may consider the choice of this seed during quantization, meaning
- the flexibility to choose the LCG seed can reduce distortion.
-The seed is decoded with the uniform 4-entry PDF in
+The encoder may consider the choice of seed during quantization, and the
+ flexibility of this choice lets it reduce distortion, helping to pay for the
+ bit cost required to signal it.
+The decoder reads the seed using the uniform 4-entry PDF in
  <xref target="silk_seed_pdf"/>, yielding a value between 0 and 3, inclusive.
@@ -3154,13 +3959,13 @@ The seed is decoded with the uniform 4-entry PDF in
-<section anchor="silk_excitation" title="Excitation">
+<section anchor="silk_excitation" toc="include" title="Excitation">
 SILK codes the excitation using a modified version of the Pyramid Vector
  Quantization (PVQ) codebook <xref target="PVQ"/>.
-The PVQ codebook consists of all sums of K signed, unit pulses in a vector of
- dimension N, where two pulses at the same position are required to have the
- same sign.
+The PVQ codebook is designed for Laplace-distributed values and consists of all
+ sums of K signed, unit pulses in a vector of dimension N, where two pulses at
the same position are required to have the same sign.
 Thus the codebook includes all integer codevectors y of dimension N that
 <figure align="center">
@@ -3174,14 +3979,14 @@ j=0
 Unlike regular PVQ, SILK uses a variable-length, rather than fixed-length,
-This encoding is more suited to the Gaussian-like distribution of the
+This encoding is better suited to the more Gaussian-like distribution of the
  coefficient magnitudes and the non-uniform distribution of their signs (caused
  by the quantization offset described below).
-SILK also handles large codebooks by coding the least significant bits (LSBs)
+SILK also handles large codebooks by coding the least significant bits (LSb's)
  of each coefficient directly.
 This adds a small coding efficiency loss, but greatly reduces the computation
  time and ROM size required for decoding, as implemented in
- silk_decode_pulses() (silk_decode_pulses.c).
+ silk_decode_pulses() (decode_pulses.c).
@@ -3245,17 +4050,25 @@ An encoder should, but is not required to, use the most efficient rate level.
 <section anchor="silk_pulse_counts" title="Pulses Per Shell Block">
 The total number of pulses in each of the shell blocks follows the rate level.
-The pulse counts for all of the shell blocks are coded in a row, before the
- content of any of the blocks.
+The pulse counts for all of the shell blocks are coded consecutively, before
the content of any of the blocks.
 Each block may have anywhere from 0 to 16 pulses, inclusive, coded using the
  18-entry PDF in <xref target="silk_pulse_count_pdfs"/> corresponding to the
  rate level from <xref target="silk_rate_level"/>.
 The special value 17 indicates that this block has one or more additional
- LSBs to decode for each coefficient.
-If it is encountered, another value is decoded using the PDF corresponding to
- the special rate level&nbsp;9 instead of the normal rate level.
-This process repeats until a value less than 17 is decoded, and the number of
- extra LSBs used is set to the number of 17's decoded for that block.
+ LSb's to decode for each coefficient.
+If the decoder encounters this value, it decodes another value for the actual
+ pulse count of the block, but uses the PDF corresponding to the special rate
+ level&nbsp;9 instead of the normal rate level.
+This process repeats until the decoder reads a value less than 17, and it then
+ sets the number of extra LSb's used to the number of 17's decoded for that
+ block.
+If it reads the value 17 ten times, then the next iteration uses the special
+ rate level&nbsp;10 instead of 9.
+The probability of decoding a 17 when using the PDF for rate level&nbsp;10 is
+ zero, ensuring that the number of LSb's for a block will not exceed 10.
+The cumulative distribution for rate level&nbsp;10 is just a shifted version of
+ that for 9 and thus does not require any additional storage.
 <texttable anchor="silk_pulse_count_pdfs"
@@ -3282,20 +4095,22 @@ This process repeats until a value less than 17 is decoded, and the number of
 <c>{1, 2, 2, 5, 9, 14, 20, 24, 27, 28, 26, 23, 20, 15, 11, 8, 6, 15}/256</c>
 <c>{1, 1, 1, 6, 27, 58, 56, 39, 25, 14, 10, 6, 3, 3, 2, 1, 1, 2}/256</c>
+<c>{2, 1, 6, 27, 58, 56, 39, 25, 14, 10, 6, 3, 3, 2, 1, 1, 2, 0}/256</c>
-<section title="Pulse Magnitude Decoding">
+<section anchor="silk_pulse_locations" title="Pulse Location Decoding">
-The locations of the pulses in each shell block follows the pulse counts,
- as decoded by silk_shell_decoder() (silk_shell_coder.c).
+The locations of the pulses in each shell block follow the pulse counts,
+ as decoded by silk_shell_decoder() (shell_coder.c).
 As with the pulse counts, these locations are coded for all the shell blocks
  before any of the remaining information for each block.
 Unlike many other codecs, SILK places no restriction on the distribution of
  pulses within a shell block.
 All of the pulses may be placed in a single location, or each one in a unique
- location, or anything in-between.
+ location, or anything in between.
@@ -3306,9 +4121,9 @@ The process then recurses into the left half, and after that returns, the
  right half (preorder traversal).
 The PDF to use is chosen by the size of the current partition (16, 8, 4, or 2)
  and the number of pulses in the partition (1 to 16, inclusive).
-<xref target="silk_shell_code3_pdfs"/> through
- <xref target="silk_shell_code0_pdfs"/> list the PDFs use for each partition
- size and pulse count.
+Tables&nbsp;<xref format="counter" target="silk_shell_code3_pdfs"/>
+ through&nbsp;<xref format="counter" target="silk_shell_code0_pdfs"/> list the
PDFs used for each partition size and pulse count.
 This process skips partitions without any pulses, i.e., where the initial pulse
  count from <xref target="silk_pulse_counts"/> was zero, or where the split in
  the prior level indicated that all of the pulses fell on the other side.
@@ -3405,69 +4220,532 @@ These partitions have nothing to code, so they require no PDF.
+<section anchor="silk_shell_lsb" title="LSb Decoding">
+After the decoder reads the pulse locations for all blocks, it reads the LSb's
+ (if any) for each block in turn.
+Inside each block, it reads all the LSb's for each coefficient in turn, even
+ those where no pulses were allocated, before proceeding to the next one.
+They are coded from most significant to least significant, and they all use the
+ PDF in <xref target="silk_shell_lsb_pdf"/>.
+<texttable anchor="silk_shell_lsb_pdf" title="PDF for Excitation LSb's">
+<c>{136, 120}/256</c>
-<section title="LBRR Frames">
-LBRR frames, if present, immediately follow the header bits, prior to any
- regular SILK frames.
-Each frame whose LBRR flag was set includes a separate set of data for each
- channel.
+The number of LSb's read for each coefficient in a block is determined in
+ <xref target="silk_pulse_counts"/>.
+The magnitude of the coefficient is initially equal to the number of pulses
+ placed at that location in <xref target="silk_pulse_locations"/>.
+As each LSb is decoded, the magnitude is doubled, and then the value of the LSb
+ added to it, to obtain an updated magnitude.
-<section title="CELT Decoder">
+<section anchor="silk_signs" title="Sign Decoding">
+After decoding the pulse locations and the LSb's, the decoder knows the
+ magnitude of each coefficient in the excitation.
+It then decodes a sign for all coefficients with a non-zero magnitude, using
+ one of the PDFs from <xref target="silk_sign_pdfs"/>.
+If the value decoded is 0, then the coefficient magnitude is negated.
+Otherwise, it remains positive.
-The CELT layer is decoded based on the following symbols and sets of symbols:
+The decoder chooses the PDF for the sign based on the signal type and
+ quantization offset type (from <xref target="silk_frame_type"/>) and the
+ number of pulses in the block (from <xref target="silk_pulse_counts"/>).
+The number of pulses in the block does not take into account any LSb's.
+Most PDFs are skewed towards negative signs because of the quantizaton offset,
+ but the PDFs for zero pulses are highly skewed towards positive signs.
+If a block contains many positive coefficients, it is sometimes beneficial to
+ code it solely using LSb's (i.e., with zero pulses), since the encoder may be
+ able to save enough bits on the signs to justify the less efficient
+ coefficient magnitude encoding.
-<texttable anchor='table_example'>
-<ttcol align='center'>Symbol(s)</ttcol>
-<ttcol align='center'>PDF</ttcol>
-<ttcol align='center'>Condition</ttcol>
-<c>silence</c>      <c>{32767, 1}/32768</c> <c></c>
-<c>post-filter</c>  <c>{1, 1}/2</c> <c></c>
-<c>octave</c>       <c>uniform (6)</c><c>post-filter</c>
-<c>period</c>       <c>raw bits (4+octave)</c><c>post-filter</c>
-<c>gain</c>         <c>raw bits (3)</c><c>post-filter</c>
-<c>tapset</c>       <c>{2, 1, 1}/4</c><c>post-filter</c>
-<c>transient</c>    <c>{7, 1}/8</c><c></c>
-<c>intra</c>        <c>{7, 1}/8</c><c></c>
-<c>coarse energy</c><c><xref target="energy-decoding"/></c><c></c>
-<c>tf_change</c>    <c><xref target="transient-decoding"/></c><c></c>
-<c>tf_select</c>    <c>{1, 1}/2</c><c><xref target="transient-decoding"/></c>
-<c>spread</c>       <c>{7, 2, 21, 2}/32</c><c></c>
-<c>dyn. alloc.</c>  <c><xref target="allocation"/></c><c></c>
-<c>alloc. trim</c>  <c>{2, 2, 5, 10, 22, 46, 22, 10, 5, 2, 2}/128</c><c></c>
-<c>skip</c>         <c>{1, 1}/2</c><c><xref target="allocation"/></c>
-<c>intensity</c>    <c>uniform</c><c><xref target="allocation"/></c>
-<c>dual</c>         <c>{1, 1}/2</c><c></c>
-<c>fine energy</c>  <c><xref target="energy-decoding"/></c><c></c>
-<c>residual</c>     <c><xref target="PVQ-decoder"/></c><c></c>
-<c>anti-collapse</c><c>{1, 1}/2</c><c><xref target="anti-collapse"/></c>
-<c>finalize</c>     <c><xref target="energy-decoding"/></c><c></c>
-<postamble>Order of the symbols in the CELT section of the bit-stream.</postamble>
+<texttable anchor="silk_sign_pdfs"
+ title="PDFs for Excitation Signs">
+<ttcol>Signal Type</ttcol>
+<ttcol>Quantization Offset Type</ttcol>
+<ttcol>Pulse Count</ttcol>
+<c>Inactive</c> <c>Low</c>  <c>0</c>         <c>{2, 254}/256</c>
+<c>Inactive</c> <c>Low</c>  <c>1</c>         <c>{207, 49}/256</c>
+<c>Inactive</c> <c>Low</c>  <c>2</c>         <c>{189, 67}/256</c>
+<c>Inactive</c> <c>Low</c>  <c>3</c>         <c>{179, 77}/256</c>
+<c>Inactive</c> <c>Low</c>  <c>4</c>         <c>{174, 82}/256</c>
+<c>Inactive</c> <c>Low</c>  <c>5</c>         <c>{163, 93}/256</c>
+<c>Inactive</c> <c>Low</c>  <c>6 or more</c> <c>{157, 99}/256</c>
+<c>Inactive</c> <c>High</c> <c>0</c>         <c>{58, 198}/256</c>
+<c>Inactive</c> <c>High</c> <c>1</c>         <c>{245, 11}/256</c>
+<c>Inactive</c> <c>High</c> <c>2</c>         <c>{238, 18}/256</c>
+<c>Inactive</c> <c>High</c> <c>3</c>         <c>{232, 24}/256</c>
+<c>Inactive</c> <c>High</c> <c>4</c>         <c>{225, 31}/256</c>
+<c>Inactive</c> <c>High</c> <c>5</c>         <c>{220, 36}/256</c>
+<c>Inactive</c> <c>High</c> <c>6 or more</c> <c>{211, 45}/256</c>
+<c>Unvoiced</c> <c>Low</c>  <c>0</c>         <c>{1, 255}/256</c>
+<c>Unvoiced</c> <c>Low</c>  <c>1</c>         <c>{210, 46}/256</c>
+<c>Unvoiced</c> <c>Low</c>  <c>2</c>         <c>{190, 66}/256</c>
+<c>Unvoiced</c> <c>Low</c>  <c>3</c>         <c>{178, 78}/256</c>
+<c>Unvoiced</c> <c>Low</c>  <c>4</c>         <c>{169, 87}/256</c>
+<c>Unvoiced</c> <c>Low</c>  <c>5</c>         <c>{162, 94}/256</c>
+<c>Unvoiced</c> <c>Low</c>  <c>6 or more</c> <c>{152, 104}/256</c>
+<c>Unvoiced</c> <c>High</c> <c>0</c>         <c>{48, 208}/256</c>
+<c>Unvoiced</c> <c>High</c> <c>1</c>         <c>{242, 14}/256</c>
+<c>Unvoiced</c> <c>High</c> <c>2</c>         <c>{235, 21}/256</c>
+<c>Unvoiced</c> <c>High</c> <c>3</c>         <c>{224, 32}/256</c>
+<c>Unvoiced</c> <c>High</c> <c>4</c>         <c>{214, 42}/256</c>
+<c>Unvoiced</c> <c>High</c> <c>5</c>         <c>{205, 51}/256</c>
+<c>Unvoiced</c> <c>High</c> <c>6 or more</c> <c>{190, 66}/256</c>
+<c>Voiced</c>   <c>Low</c>  <c>0</c>         <c>{1, 255}/256</c>
+<c>Voiced</c>   <c>Low</c>  <c>1</c>         <c>{162, 94}/256</c>
+<c>Voiced</c>   <c>Low</c>  <c>2</c>         <c>{152, 104}/256</c>
+<c>Voiced</c>   <c>Low</c>  <c>3</c>         <c>{147, 109}/256</c>
+<c>Voiced</c>   <c>Low</c>  <c>4</c>         <c>{144, 112}/256</c>
+<c>Voiced</c>   <c>Low</c>  <c>5</c>         <c>{141, 115}/256</c>
+<c>Voiced</c>   <c>Low</c>  <c>6 or more</c> <c>{138, 118}/256</c>
+<c>Voiced</c>   <c>High</c> <c>0</c>         <c>{8, 248}/256</c>
+<c>Voiced</c>   <c>High</c> <c>1</c>         <c>{203, 53}/256</c>
+<c>Voiced</c>   <c>High</c> <c>2</c>         <c>{187, 69}/256</c>
+<c>Voiced</c>   <c>High</c> <c>3</c>         <c>{176, 80}/256</c>
+<c>Voiced</c>   <c>High</c> <c>4</c>         <c>{168, 88}/256</c>
+<c>Voiced</c>   <c>High</c> <c>5</c>         <c>{161, 95}/256</c>
+<c>Voiced</c>   <c>High</c> <c>6 or more</c> <c>{154, 102}/256</c>
+<section anchor="silk_excitation_reconstruction"
+ title="Reconstructing the Excitation">
-The decoder extracts information from the range-coded bit-stream in the order
-described in the figure above. In some circumstances, it is
-possible for a decoded value to be out of range due to a very small amount of redundancy
-in the encoding of large integers by the range coder.
-In that case, the decoder should assume there has been an error in the coding,
-decoding, or transmission and SHOULD take measures to conceal the error and/or report
-to the application that a problem has occurred.
+After the signs have been read, there is enough information to reconstruct the
+ complete excitation signal.
+This requires adding a constant quantization offset to each non-zero sample,
+ and then pseudorandomly inverting and offsetting every sample.
+The constant quantization offset varies depending on the signal type and
+ quantization offset type (see <xref target="silk_frame_type"/>).
+<texttable anchor="silk_quantization_offsets"
+ title="Excitation Quantization Offsets">
+<ttcol align="left">Signal Type</ttcol>
+<ttcol align="left">Quantization Offset Type</ttcol>
+<ttcol align="right">Quantization Offset (Q25)</ttcol>
+<c>Inactive</c> <c>Low</c>  <c>100</c>
+<c>Inactive</c> <c>High</c> <c>240</c>
+<c>Unvoiced</c> <c>Low</c>  <c>100</c>
+<c>Unvoiced</c> <c>High</c> <c>240</c>
+<c>Voiced</c>   <c>Low</c>   <c>32</c>
+<c>Voiced</c>   <c>High</c> <c>100</c>
+Let e_raw[i] be the raw excitation value at position i, with a magnitude
+ composed of the pulses at that location (see
+ <xref target="silk_pulse_locations"/>) combined with any additional LSb's (see
+ <xref target="silk_shell_lsb"/>), and with the corresponding sign decoded in
+ <xref target="silk_signs"/>.
+Additionally, let seed be the current pseudorandom seed, which is initialized
+ to the value decoded from <xref target="silk_seed"/> for the first sample in
+ the current SILK frame, and updated for each subsequent sample according to
+ the procedure below.
+Finally, let offset_Q25 be the quantization offset from
+ <xref target="silk_quantization_offsets"/>.
+Then the following procedure produces the final reconstructed excitation value,
+ e_Q25[i]:
+<figure align="center">
+<artwork align="center"><![CDATA[
+e_Q25[i] = (e_raw[i] << 10) - sign(e_raw[i])*80 + offset_Q25;
+    seed = (196314165*seed + 907633515) & 0xFFFFFFFF;
+e_Q25[i] = (seed & 0x80000000) ? -(e_Q25[i] + 1) : e_Q25[i];
+    seed = (seed + e_raw[i]) & 0xFFFFFFFF;
+When e_raw[i] is zero, sign() returns 0 by the definition in
+ <xref target="sign"/>, so the 80 term does not get added.
+ offset does not get added.
+The final e_Q25[i] value may require more than 16 bits per sample, but will not
+ require more than 25, including the sign.
+<section anchor="silk_frame_reconstruction" toc="include"
+ title="SILK Frame Reconstruction">
+The remainder of the reconstruction process for the frame does not need to be
+ bit-exact, as small errors should only introduce proportionally small
+ distortions.
+Although the reference implementation only includes a fixed-point version of
+ the remaining steps, this section describes them in terms of a floating-point
+ version for simplicity.
+This produces a signal with a nominal range of -1.0 to 1.0.
+silk_decode_core() (decode_core.c) contains the code for the main
+ reconstruction process.
+It proceeds subframe-by-subframe, since quantization gains, LTP parameters, and
+ (in 20&nbsp;ms SILK frames) LPC coefficients can vary from one to the
+ next.
+Let a_Q12[k] be the LPC coefficients for the current subframe.
+If this is the first or second subframe of a 20&nbsp;ms SILK frame and the LSF
+ interpolation factor, w_Q2 (see <xref target="silk_nlsf_interpolation"/>), is
+ less than 4, then these correspond to the final LPC coefficients produced by
+ <xref target="silk_lpc_gain_limit"/> from the interpolated LSF coefficients,
+ n1_Q15[k] (computed in <xref target="silk_nlsf_interpolation"/>).
+Otherwise, they correspond to the final LPC coefficients produced from the
+ uninterpolated LSF coefficients for the current frame, n2_Q15[k].
+Also, let n be the number of samples in a subframe (40 for NB, 60 for MB, and
+ 80 for WB), s be the index of the current subframe in this SILK frame (0 or 1
+ for 10&nbsp;ms frames, or 0 to 3 for 20&nbsp;ms frames), and j be the index of
+ the first sample in the residual corresponding to the current subframe.
+<section anchor="silk_ltp_synthesis" title="LTP Synthesis">
+Voiced SILK frames (see <xref target="silk_frame_type"/>) pass the excitation
+ through an LTP filter using the parameters decoded in
+ <xref target="silk_ltp_params"/> to produce an LPC residual.
+The LTP filter requires LPC residual values from before the current subframe as
+ input.
+However, since the LPCs may have changed, it obtains this residual by
+ "rewhitening" the corresponding output signal using the LPCs from the current
+ subframe.
+Let e_Q25[i] be the excitation, and out[i] be the fully reconstructed output
+ signal from previous subframes (see <xref target="silk_lpc_synthesis"/>), or
+ zeros in the first subframe for this channel after either
+<list style="symbols">
+<t>An uncoded regular SILK frame in the side channel, or</t>
+<t>A decoder reset (see <xref target="switching"/>).</t>
+Let LTP_scale_Q14 be the LTP scaling parameter from
+ <xref target="silk_ltp_scaling"/> for the first two subframes in any SILK
+ frame, as well as the last two subframes in a 20&nbsp;ms SILK frame where
+ w_Q2&nbsp;==&nbsp;4.
+Otherwise let LTP_scale_Q14 be 16384 (corresponding to 1.0).
+Then, for i such that
+ (j&nbsp;-&nbsp;pitch_lags[s]&nbsp;-&nbsp;d_LPC&nbsp;-&nbsp;2)&nbsp;&lt;=&nbsp;i&nbsp;&lt;&nbsp;j,
+ where pitch_lags[s] is the pitch lag for the current subframe from
+ <xref target="silk_ltp_lags"/>, out[i] is rewhitened into an LPC residual,
+ res[i], via
+<figure align="center">
+<artwork align="center"><![CDATA[
+            4.0*LTP_scale_Q14
+res[i] = ------------------------ * clamp(-1.0,
+         max(gain_Q16[s], 131076)
+                                   d_LPC-1
+                                     __              a_Q12[k]
+                            out[i] - \  out[i-k-1] * --------, 1.0) .
+                                     /_               4096.0
+                                     k=0
+This requires storage to buffer up to 306 values of out[i] from previous
+ subframes.
+This corresponds to WB with a maximum of 18&nbsp;ms&nbsp;*&nbsp;16&nbsp;kHz
+ samples of pitch lag, plus 2 samples for the width of the LTP filter, plus 16
+ samples for d_LPC.
+Let b_Q7[k] be the coefficients of the LTP filter taken from the
+ codebook entry in one of
+ Tables&nbsp;<xref format="counter" target="silk_ltp_filter_coeffs0"/>
+ through&nbsp;<xref format="counter" target="silk_ltp_filter_coeffs2"/>
+ corresponding to the index decoded for the current subframe in
+ <xref target="silk_ltp_filter"/>.
+Then for i such that j&nbsp;&lt;=&nbsp;i&nbsp;&lt;&nbsp;(j&nbsp;+&nbsp;n),
+ the LPC residual is
+<figure align="center">
+<artwork align="center"><![CDATA[
+                       4
+          e_Q25[i]    __                                  b_Q7[k]
+res[i] = ---------- + \  res[i - pitch_lags[s] + 2 - k] * ------- .
+         33554432.0   /_                                   128.0
+                      k=0
+For unvoiced frames, the LPC residual for
+ j&nbsp;&lt;=&nbsp;i&nbsp;&lt;&nbsp;(j&nbsp;+&nbsp;n) is simply a normalized
+ copy of the excitation signal, i.e.,
+<figure align="center">
+<artwork align="center"><![CDATA[
+          e_Q25[i]
+res[i] = ----------
+         33554432.0
+<section anchor="silk_lpc_synthesis" title="LPC Synthesis">
+LPC synthesis uses the short-term LPC filter to predict the next output
+ coefficient.
+For i such that (j&nbsp;-&nbsp;d_LPC)&nbsp;&lt;=&nbsp;i&nbsp;&lt;&nbsp;j, let
+ lpc[i] be the result of LPC synthesis from the previous subframe, or zeros in
+ the first subframe for this channel after either
+<list style="symbols">
+<t>An uncoded regular SILK frame in the side channel, or</t>
+<t>A decoder reset (see <xref target="switching"/>).</t>
+Then for i such that j&nbsp;&lt;=&nbsp;i&nbsp;&lt;&nbsp;(j&nbsp;+&nbsp;n), the
+ result of LPC synthesis for the current subframe is
+<figure align="center">
+<artwork align="center"><![CDATA[
+                              d_LPC-1
+         gain_Q16[i]            __              a_Q12[k]
+lpc[i] = ----------- * res[i] + \  lpc[i-k-1] * -------- .
+           65536.0              /_               4096.0
+                                k=0
+The decoder saves the final d_LPC values, i.e., lpc[i] such that
+ (j&nbsp;+&nbsp;n&nbsp;-&nbsp;d_LPC)&nbsp;&lt;=&nbsp;i&nbsp;&lt;&nbsp;(j&nbsp;+&nbsp;n),
+ to feed into the LPC synthesis of the next subframe.
+This requires storage for up to 16 values of lpc[i] (for WB frames).
+Then, the signal is clamped into the final nominal range:
+<figure align="center">
+<artwork align="center"><![CDATA[
+out[i] = clamp(-1.0, lpc[i], 1.0) .
+This clamping occurs entirely after the LPC synthesis filter has run.
+The decoder saves the unclamped values, lpc[i], to feed into the LPC filter for
+ the next subframe, but saves the clamped values, out[i], for rewhitening in
+ voiced frames.
+<section anchor="silk_stereo_unmixing" title="Stereo Unmixing">
+For stereo streams, after decoding a frame from each channel, the decoder must
+ convert the mid-side (MS) representation into a left-right (LR)
+ representation.
+The function silk_stereo_MS_to_LR (stereo_MS_to_LR.c) implements this process.
+In it, the decoder predicts the side channel using a) a simple low-passed
+ version of the mid channel, and b) the unfiltered mid channel, using the
+ prediction weights decoded in <xref target="silk_stereo_pred"/>.
+This simple low-pass filter imposes a one-sample delay.
+In order to allow seamless switching between stereo and mono, mono streams must
+ also impose the same one-sample delay.
+The encoder requires an additional one-sample delay for both mono and stereo
+ streams, though an encoder may omit the delay for mono if it knows it will
+ never switch to stereo.
+The unmixing process operates in two phases.
+The first phase lasts for 8&nbsp;ms, during which it interpolates the
+ prediction weights from the previous frame, prev_w0_Q13 and prev_w1_Q13, to
+ the values for the current frame, w0_Q13 and w1_Q13.
+The second phase simply uses these weights for the remainder of the frame.
+Let mid[i] and side[i] be the contents of out[i] (from
+ <xref target="silk_lpc_synthesis"/>) for the current mid and side channels,
+ respectively, and let left[i] and right[i] be the corresponding stereo output
+ channels.
+If the side channel is not coded (see <xref target="silk_mid_only_flag"/>),
+ then side[i] is set to zero.
+Also let j be defined as in <xref target="silk_frame_reconstruction"/>, n1 be
+ the number of samples in phase&nbsp;1 (64 for NB, 96 for MB, and 128 for WB),
+ and n2 be the total number of samples in the frame.
+Then for i such that j&nbsp;&lt;=&nbsp;i&nbsp;&lt;&nbsp;(j&nbsp;+&nbsp;n2),
+ the left and right channel output is
+<figure align="center">
+<artwork align="center"><![CDATA[
+              prev_w0_Q13                  (w0_Q13 - prev_w0_Q13)
+        w0 =  ----------- + min(i - j, n1)*---------------------- ,
+                8192.0                           8192.0*n1
+              prev_w1_Q13                  (w1_Q13 - prev_w1_Q13)
+        w1 =  ----------- + min(i - j, n1)*---------------------- ,
+                8192.0                            8192.0*n1
+             mid[i-2] + 2*mid[i-1] + mid[i]
+        p0 = ------------------------------ ,
+                          4.0
+ left[i] = clamp(-1.0, (1 + w1)*mid[i-1] + side[i-1] + w0*p0, 1.0) ,
+right[i] = clamp(-1.0, (1 - w1)*mid[i-1] - side[i-1] - w0*p0, 1.0) .
+These formulas require twp samples prior to index&nbsp;j, the start of the
+ frame, for the mid channel, and one prior sample for the side channel.
+For the first frame after a decoder reset, zeros are used instead.
+<section title="Resampling">
+After stereo unmixing (if any), the decoder applies resampling to convert the
+ decoded SILK output to the sample rate desired by the application.
+This is necessary in order to mix the output
+This is necessary when decoding a Hybrid frame at SWB or FB sample rates, or
+ whenver the decoder wants the output at a different sample rate than the
+ internal SILK sampling rate (e.g., to allow a constant sample rate when the
+ audio bandwidth changes, or to allow mixing with audio from other
+ applications).
+The resampler itself is non-normative, and a decoder can use any method it
+ wants to perform the resampling.
+However, a minimum amount of delay is imposed to allow the resampler to
+ operate, and this delay is normative, so that the corresponding delay can be
+ applied to the MDCT layer in the encoder.
+A decoder is always free to use a resampler which requires more delay than
+ allowed for here (e.g., to improve quality), but then it most delay the output
+ of the MDCT layer by this extra amount.
+Keeping as much delay as possible on the encoder side allows an encoder which
+ knows it will never use any of the SILK or Hybrid modes to skip this delay.
+By contrast, if it were all applied by the decoder, then a decoder which
+ processes audio in fixed-size blocks would be forced to delay the output of
+ CELT frames just in case of a later switch to a SILK or Hybrid mode.
+<xref target="silk_resampler_delay_alloc"/> gives the maximum resampler delay
+ in samples at 48&nbsp;kHz for each SILK audio bandwidth.
+The reference implementation is able to resample to any of the supported
+ output sampling rates (8, 12, 16, 24, or 48&nbsp;kHz) within or near this
+ delay constraint.
+Because the actual output rate may not be 48&nbsp;kHz, it may not be possible
+ to achieve exactly these delays while using a whole number of input or output
+ samples.
+Some resampling filters (including those used by the reference implementation)
+ may add a delay that is not itself an exact integer at either rate.
+However, such deviations are unlikely to be perceptible.
+The delays listed here are the ones that should be targeted by the encoder.
+<texttable anchor="silk_resampler_delay_alloc"
+ title="SILK Resampler Delay Allocations">
+<ttcol>Audio Bandwidth</ttcol>
+<ttcol>Delay in Samples at 48&nbsp;kHz</ttcol>
+<c>NB</c> <c>18</c>
+<c>MB</c> <c>32</c>
+<c>WB</c> <c>24</c>
+<section title="CELT Decoder">
+An overview of the decoder is given in <xref target="celt-decoder-overview"/>.
+<figure anchor="celt-decoder-overview" title="Structure of the CELT decoder">
+<artwork align="center"><![CDATA[
+               +---------+
+               | Coarse  |
+            +->| decoder |----+
+            |  +---------+    |
+            |                 |
+            |  +---------+    v
+            |  |  Fine   |  +---+
+            +->| decoder |->| + |
+            |  +---------+  +---+
+            |       ^         |
++---------+ |       |         |
+|  Range  | | +----------+    v
+| Decoder |-+ |   Bit    | +-----+
++---------+ | |Allocation| | 2^x |
+            | +----------+ +-----+
+            |       |         |
+            |       v         v               +--------+
+            |  +---------+  +---+  +-------+  | pitch  |
+            +->|   PVQ   |->| * |->| IMDCT |->| post-  |--->
+            |  | decoder |  +---+  +-------+  | filter |
+            |  +---------+                    +--------+
+            |                                      ^
+            +--------------------------------------+
+The decoder is based on the following symbols and sets of symbols:
+<texttable anchor="celt_symbols">
+<ttcol align="center">Symbol(s)</ttcol>
+<ttcol align="center">PDF</ttcol>
+<ttcol align="center">Condition</ttcol>
+<c>silence</c>      <c>{32767, 1}/32768</c> <c></c>
+<c>post-filter</c>  <c>{1, 1}/2</c> <c></c>
+<c>octave</c>       <c>uniform (6)</c><c>post-filter</c>
+<c>period</c>       <c>raw bits (4+octave)</c><c>post-filter</c>
+<c>gain</c>         <c>raw bits (3)</c><c>post-filter</c>
+<c>tapset</c>       <c>{2, 1, 1}/4</c><c>post-filter</c>
+<c>transient</c>    <c>{7, 1}/8</c><c></c>
+<c>intra</c>        <c>{7, 1}/8</c><c></c>
+<c>coarse energy</c><c><xref target="energy-decoding"/></c><c></c>
+<c>tf_change</c>    <c><xref target="transient-decoding"/></c><c></c>
+<c>tf_select</c>    <c>{1, 1}/2</c><c><xref target="transient-decoding"/></c>
+<c>spread</c>       <c>{7, 2, 21, 2}/32</c><c></c>
+<c>dyn. alloc.</c>  <c><xref target="allocation"/></c><c></c>
+<c>alloc. trim</c>  <c>{2, 2, 5, 10, 22, 46, 22, 10, 5, 2, 2}/128</c><c></c>
+<c>skip</c>         <c>{1, 1}/2</c><c><xref target="allocation"/></c>
+<c>intensity</c>    <c>uniform</c><c><xref target="allocation"/></c>
+<c>dual</c>         <c>{1, 1}/2</c><c></c>
+<c>fine energy</c>  <c><xref target="energy-decoding"/></c><c></c>
+<c>residual</c>     <c><xref target="PVQ-decoder"/></c><c></c>
+<c>anti-collapse</c><c>{1, 1}/2</c><c><xref target="anti-collapse"/></c>
+<c>finalize</c>     <c><xref target="energy-decoding"/></c><c></c>
+<postamble>Order of the symbols in the CELT section of the bitstream.</postamble>
+The decoder extracts information from the range-coded bitstream in the order
+described in the figure above. In some circumstances, it is
+possible for a decoded value to be out of range due to a very small amount of redundancy
+in the encoding of large integers by the range coder.
+In that case, the decoder should assume there has been an error in the coding,
+decoding, or transmission and SHOULD take measures to conceal the error and/or report
+to the application that a problem has occurred.
 <section anchor="transient-decoding" title="Transient Decoding">
-The "transient" flag encoded in the bit-stream has a probability of 1/8.
+The "transient" flag encoded in the bitstream has a probability of 1/8.
 When it is set, then the MDCT coefficients represent multiple
 short MDCTs in the frame. When not set, the coefficients represent a single
 long MDCT for the frame. In addition to the global transient flag is a per-band
@@ -3520,7 +4798,7 @@ yet). The prediction is clamped internally so that fixed point implementations w
 limited dynamic range do not suffer desynchronization.
 We approximate the ideal
 probability distribution of the prediction error using a Laplace distribution
-with separate parameters for each frame size in intra and inter-frame modes. The
+with separate parameters for each frame size in intra- and inter-frame modes. The
 coarse energy quantization is performed by unquant_coarse_energy() and
 unquant_coarse_energy_impl() (quant_bands.c). The encoding of the Laplace-distributed values is
 implemented in ec_laplace_decode() (laplace.c).
@@ -3545,7 +4823,7 @@ determines two "priorities" for the final fine bits.
 Any remaining bits are first assigned only to bands of priority 0, starting
 from band 0 and going up. If all bands of priority 0 have received one bit per
 channel, then bands of priority 1 are assigned an extra bit per channel,
-starting from band 0. If any bit is left after this, they are left unused.
+starting from band 0. If any bits are left after this, they are left unused.
 This is implemented in unquant_energy_finalise() (quant_bands.c).
@@ -3553,7 +4831,7 @@ This is implemented in unquant_energy_finalise() (quant_bands.c).
 </section> <!-- Energy decode -->
-<section anchor="allocation" title="Bit allocation">
+<section anchor="allocation" title="Bit Allocation">
 <t>Many codecs transmit significant amounts of side information for
 the purpose of controlling bit allocation within a frame. Often this
 side information controls bit usage indirectly and must be carefully
@@ -3563,35 +4841,35 @@ selected to achieve the desired rate constraints.</t>
 constant bit allocation for the shape content of a band will result in a
 roughly constant tone to noise ratio, which provides for fairly consistent
 perceptual performance. The effectiveness of this approach is the result of
-two factors: The band energy, which is understood to be perceptually
-important on its own, is always preserved regardless of the shape precision and because
+two factors: that the band energy, which is understood to be perceptually
+important on its own, is always preserved regardless of the shape precision, and because
 the constant tone-to-noise ratio implies a constant intra-band noise to masking ratio.
 Intra-band masking is the strongest of the perceptual masking effects. This structure
 means that the ideal allocation is more consistent from frame to frame than
 it is for other codecs without an equivalent structure.</t>
 <t>Because the bit allocation is used to drive the decoding of the range-coder
-stream it MUST be recovered exactly so that identical coding decisions are
+stream, it MUST be recovered exactly so that identical coding decisions are
 made in the encoder and decoder. Any deviation from the reference's resulting
 bit allocation will result in corrupted output, though implementers are
 free to implement the procedure in any way which produces identical results.</t>
 <t>Because all of the information required to decode a frame must be derived
-from that frame alone in order to retain robustness to packet loss the
+from that frame alone in order to retain robustness to packet loss, the
 overhead of explicitly signaling the allocation would be considerable,
 especially for low-latency (small frame size) applications,
 even though the allocation is relatively static.</t>
 <t>For this reason, in the MDCT mode Opus uses a primarily implicit bit
-allocation. The available bit-stream capacity is known in advance to both
+allocation. The available bitstream capacity is known in advance to both
 the encoder and decoder without additional signaling, ultimately from the
-packet sizes expressed by a higher level protocol. Using this information
+packet sizes expressed by a higher-level protocol. Using this information
 the codec interpolates an allocation from a hard-coded table.</t>
 <t>While the band-energy structure effectively models intra-band masking,
 it ignores the weaker inter-band masking, band-temporal masking, and
 other less significant perceptual effects. While these effects can
-often be ignored they can become significant for particular samples. One
+often be ignored, they can become significant for particular samples. One
 mechanism available to encoders would be to simply increase the overall
 rate for these frames, but this is not possible in a constant rate mode
 and can be fairly inefficient. As a result three explicitly signaled
@@ -3601,7 +4879,7 @@ mechanisms are provided to alter the implicit allocation:</t>
 <list style="symbols">
 <t>Band boost</t>
 <t>Allocation trim</t>
-<t>band skipping</t>
+<t>Band skipping</t>
@@ -3611,58 +4889,58 @@ biasing the overall allocation towards higher or lower frequency bands. The thir
 skipping, selects which low-precision high frequency bands
 will be allocated no shape bits at all.</t>
-<t>In stereo mode there are also two additional parameters
+<t>In stereo mode there are two additional parameters
 potentially coded as part of the allocation procedure: a parameter to allow the
 selective elimination of allocation for the 'side' in jointly coded bands,
 and a flag to deactivate joint coding. These values are not signaled if
 they would be meaningless in the overall context of the allocation.</t>
 <t>Because every signaled adjustment increases overhead and implementation
-complexity none were included speculatively: The reference encoder makes use
+complexity, none were included speculatively: the reference encoder makes use
 of all of these mechanisms. While the decision logic in the reference was
-found to be effective enough to justify the overhead and complexity further
+found to be effective enough to justify the overhead and complexity, further
 analysis techniques may be discovered which increase the effectiveness of these
-parameters. As with other signaled parameters, encoder is free to choose the
-values in any manner but unless a technique is known to deliver superior
+parameters. As with other signaled parameters, an encoder is free to choose the
+values in any manner, but unless a technique is known to deliver superior
 perceptual results the methods used by the reference implementation should be
-<t>The process of allocation consists of the following steps: determining the per-band
+<t>The allocation process consists of the following steps: determining the per-band
 maximum allocation vector, decoding the boosts, decoding the tilt, determining
-the remaining capacity the frame, searching the mode table for the
+the remaining capacity of the frame, searching the mode table for the
 entry nearest but not exceeding the available space (subject to the tilt, boosts, band
 maximums, and band minimums), linear interpolation, reallocation of
 unused bits with concurrent skip decoding, determination of the
-fine-energy vs shape split, and final reallocation. This process results
-in an shape allocation per-band (in 1/8th bit units), a per-band fine-energy
+fine-energy vs. shape split, and final reallocation. This process results
+in a per-band shape allocation (in 1/8th bit units), a per-band fine-energy
 allocation (in 1 bit per channel units), a set of band priorities for
 controlling the use of remaining bits at the end of the frame, and a
-remaining balance of unallocated space which is usually zero except
+remaining balance of unallocated space, which is usually zero except
 at very high rates.</t>
 <t>The maximum allocation vector is an approximation of the maximum space
-which can be used by each band for a given mode. The value is
+that can be used by each band for a given mode. The value is
 approximate because the shape encoding is variable rate (due
 to entropy coding of splitting parameters). Setting the maximum too low reduces the
 maximum achievable quality in a band while setting it too high
-may result in waste: bit-stream capacity available at the end
+may result in waste: bitstream capacity available at the end
 of the frame which can not be put to any use. The maximums
 specified by the codec reflect the average maximum. In the reference
-the maximums are provided partially computed form, in order to fit in less
-memory, as a static table (XXX cache.caps). Implementations are expected
-to simply use the same table data but the procedure for generating
+the maximums are provided in partially computed form, in order to fit in less
+memory as a static table (see cache_caps50[] in static_modes_float.h). Implementations are expected
+to simply use the same table data, but the procedure for generating
 this table is included in rate.c as part of compute_pulse_cache().</t>
-<t>To convert the values in cache.caps into the actual maximums: First
-set nbBands to the maximum number of bands for this mode and stereo to
-zero if stereo is not in use and one otherwise. For each band assign N
+<t>To convert the values in cache.caps into the actual maximums: first
+set nbBands to the maximum number of bands for this mode, and stereo to
+zero if stereo is not in use and one otherwise. For each band set N
 to the number of MDCT bins covered by the band (for one channel), set LM
-to the shift value for the frame size (e.g. 0 for 120, 1 for 240, 3 for 480)
+to the shift value for the frame size (e.g. 0 for 120, 1 for 240, 3 for 480),
 then set i to nbBands*(2*LM+stereo). Then set the maximum for the band to
 the i-th index of cache.caps + 64 and multiply by the number of channels
-in the current frame (one or two) and by N then divide the result by 4
+in the current frame (one or two) and by N, then divide the result by 4
 using truncating integer division. The resulting vector will be called
-cap[]. The elements fit in signed 16 bit integers but do not fit in 8 bits.
+cap[]. The elements fit in signed 16-bit integers but do not fit in 8 bits.
 This procedure is implemented in the reference in the function init_caps() in celt.c.
@@ -3673,15 +4951,15 @@ the boost and having enough room to code the boost symbol. The default
 coding cost for a boost starts out at six bits, but subsequent boosts
 in a band cost only a single bit and every time a band is boosted the
 initial cost is reduced (down to a minimum of two). Since the initial
-cost of coding a boost is 6 bits the coding cost of the boost symbols when
+cost of coding a boost is 6 bits, the coding cost of the boost symbols when
 completely unused is 0.48 bits/frame for a 21 band mode (21*-log2(1-1/2**6)).</t>
 <t>To decode the band boosts: First set 'dynalloc_logp' to 6, the initial
 amount of storage required to signal a boost in bits, 'total_bits' to the
-size of the frame in 8th-bits, 'total_boost' to zero, and 'tell' to the total number
+size of the frame in 8th bits, 'total_boost' to zero, and 'tell' to the total number
 of 8th bits decoded
-so far. For each band from the coding start (0 normally, but 17 in hybrid mode)
-to the coding end (which changes depending on the signaled bandwidth): Set 'width'
+so far. For each band from the coding start (0 normally, but 17 in Hybrid mode)
+to the coding end (which changes depending on the signaled bandwidth): set 'width'
 to the number of MDCT bins in this band for all channels. Take the larger of width
 and 64, then the minimum of that value and the width times eight and set 'quanta'
 to the result. This represents a boost step size of six bits subject to limits
@@ -3693,16 +4971,16 @@ of a one, update tell to reflect the current used capacity, if the decoded value
 is zero break the  loop otherwise add quanta to boost and total_boost, subtract quanta from
 total_bits, and set dynalloc_loop_log to 1. When the while loop finishes
 boost contains the boost for this band. If boost is non-zero and dynalloc_logp
-is greater than 2 decrease dynalloc_logp.  Once this process has been
-execute on all bands the band boosts have been decoded. This procedure
+is greater than 2, decrease dynalloc_logp.  Once this process has been
+executed on all bands, the band boosts have been decoded. This procedure
 is implemented around line 2352 of celt.c.</t>
-<t>At very low rates it's possible that there won't be enough available
+<t>At very low rates it is possible that there won't be enough available
 space to execute the inner loop even once. In these cases band boost
 is not possible but its overhead is completely eliminated. Because of the
-high cost of band boost when activated a reasonable encoder should not be
+high cost of band boost when activated, a reasonable encoder should not be
 using it at very low rates. The reference implements its dynalloc decision
-logic at around 1269 of celt.c</t>
+logic around line 1269 of celt.c.</t>
 <t>The allocation trim is a integer value from 0-10. The default value of
 5 indicates no trim. The trim parameter is entropy coded in order to
@@ -3710,57 +4988,62 @@ lower the coding cost of less extreme adjustments. Values lower than
 5 bias the allocation towards lower frequencies and values above 5
 bias it towards higher frequencies. Like other signaled parameters, signaling
 of the trim is gated so that it is not included if there is insufficient space
-available in the bitstream. To decode the trim first set
-the trim value to 5 then iff the count of decoded 8th bits so far (ec_tell_frac)
+available in the bitstream. To decode the trim, first set
+the trim value to 5, then iff the count of decoded 8th bits so far (ec_tell_frac)
 plus 48 (6 bits) is less than or equal to the total frame size in 8th
-bits minus total_boost (a product of the above band boost procedure) then
+bits minus total_boost (a product of the above band boost procedure),
 decode the trim value using the inverse CDF {127, 126, 124, 119, 109, 87, 41, 19, 9, 4, 2, 0}.</t>
-<t>Stereo parameters</t>
+<t>For 10 ms and 20 ms frames using short blocks and that have at least LM+2 bits left prior to
+the allocation process, then one anti-collapse bit is reserved in the allocation process so it can
+be decoded later. Following the the anti-collapse reservation, one bit is reserved for skip if available.</t>
-<t>Anti-collapse reservation</t>
+<t>For stereo frames, bits are reserved for intensity stereo and for dual stereo. Intensity stereo 
+requires ilog2(end-start) bits. Those bits are reserved if there is enough bits left. Following this, one
+bit is reserved for dual stereo if available.</t>
-<t>The allocation computation first begins by setting up some initial conditions.
-'total' is set to the available remaining 8th bits, computed by taking the
-size of the coded frame times 8 and subtracting ec_tell_frac(). From this value one (8th bit)
-is subtracted to assure that the resulting allocation will be conservative. 'anti_collapse_rsv'
+<t>The allocation computation begins by setting up some initial conditions.
+'total' is set to the remaining available 8th bits, computed by taking the
+size of the coded frame times 8 and subtracting ec_tell_frac(). From this value, one (8th bit)
+is subtracted to ensure that the resulting allocation will be conservative. 'anti_collapse_rsv'
 is set to 8 (8th bits) iff the frame is a transient, LM is greater than 1, and total is
 greater than or equal to (LM+2) * 8. Total is then decremented by anti_collapse_rsv and clamped
 to be equal to or greater than zero. 'skip_rsv' is set to 8 (8th bits) if total is greater than
 8, otherwise it is zero. Total is then decremented by skip_rsv. This reserves space for the
 final skipping flag.</t>
-<t>If the current frame is stereo intensity_rsv is set to the conservative log2 in 8th bits
+<t>If the current frame is stereo, intensity_rsv is set to the conservative log2 in 8th bits
 of the number of coded bands for this frame (given by the table LOG2_FRAC_TABLE). If
-intensity_rsv is greater than total then intensity_rsv is set to zero otherwise total is
-decremented by intensity_rsv, and if total is still greater than 8 dual_stereo_rsv is
+intensity_rsv is greater than total then intensity_rsv is set to zero. Otherwise total is
+decremented by intensity_rsv, and if total is still greater than 8, dual_stereo_rsv is
 set to 8 and total is decremented by dual_stereo_rsv.</t>
 <t>The allocation process then computes a vector representing the hard minimum amounts allocation
 any band will receive for shape. This minimum is higher than the technical limit of the PVQ
-process, but very low rate allocations produce excessively an sparse spectrum and these bands
-are better served by having no allocation at all. For each coded band set thresh[band] to
+process, but very low rate allocations produce an excessively sparse spectrum and these bands
+are better served by having no allocation at all. For each coded band, set thresh[band] to
 twenty-four times the number of MDCT bins in the band and divide by 16. If 8 times the number
 of channels is greater, use that instead. This sets the minimum allocation to one bit per channel
-or 48 128th bits per MDCT bin, whichever is greater. The band size dependent part of this
-value is not scaled by the channel count because at the very low rates where this limit is
+or 48 128th bits per MDCT bin, whichever is greater. The band-size dependent part of this
+value is not scaled by the channel count, because at the very low rates where this limit is
 applicable there will usually be no bits allocated to the side.</t>
 <t>The previously decoded allocation trim is used to derive a vector of per-band adjustments,
-'trim_offsets[]'. For each coded band take the alloc_trim and subtract 5 and LM then multiply
-the result by number of channels, the number MDCT bins in the shortest frame size for this mode,
-the number remaining bands, 2**LM, and 8. Then divide this value by 64. Finally, if the
-number of MDCT bins in the band per channel is only one 8 times the number of channels is subtracted
-in order to diminish the allocation by one bit because width 1 bands receive greater benefit
+'trim_offsets[]'. For each coded band take the alloc_trim and subtract 5 and LM. Then multiply
+the result by the number of channels, the number of MDCT bins in the shortest frame size for this mode,
+the number of remaining bands, 2**LM, and 8. Then divide this value by 64. Finally, if the
+number of MDCT bins in the band per channel is only one, 8 times the number of channels is subtracted
+in order to diminish the allocation by one bit, because width 1 bands receive greater benefit
 from the coarse energy coding.</t>
-<section anchor="PVQ-decoder" title="Shape Decoder">
+<section anchor="PVQ-decoder" title="Shape Decoding">
 In each band, the normalized "shape" is encoded
-using a vector quantization scheme called a "Pyramid vector quantizer".
+using a vector quantization scheme called a "pyramid vector quantizer".
@@ -3778,32 +5061,35 @@ This index is converted into the corresponding vector as explained in
 Although the allocation is performed in 1/8th bit units, the quantization requires
 an integer number of pulses K. To do this, the encoder searches for the value
-of K that produces the number of bits that is the nearest to the allocated value
-(rounding down if exactly half-way between two values), subject to not exceeding
-the total number of bits available. For efficiency reasons the search is performed against a
+of K that produces the number of bits nearest to the allocated value
+(rounding down if exactly halfway between two values), not to exceed
+the total number of bits available. For efficiency reasons, the search is performed against a
 precomputed allocation table which only permits some K values for each N. The number of
-codebooks entries can be computed as explained in <xref target="cwrs-encoding"></xref>. The difference
+codebook entries can be computed as explained in <xref target="cwrs-decoder"></xref>. The difference
 between the number of bits allocated and the number of bits used is accumulated to a
-"balance" (initialized to zero) that helps adjusting the
+"balance" (initialized to zero) that helps adjust the
 allocation for the next bands. One third of the balance is applied to the
-bit allocation of the each band to help achieving the target allocation. The only
+bit allocation of each band to help achieve the target allocation. The only
 exceptions are the band before the last and the last band, for which half the balance
 and the whole balance are applied, respectively.
-<section anchor="cwrs-decoder" title="Index Decoding">
+<section anchor="cwrs-decoder" title="PVQ Decoding">
-The codeword is decoded as a uniformly-distributed integer value
-by decode_pulses() (cwrs.c).
-The codeword is converted from a unique index in the same way as specified in
+Decoding of PVQ vectors is implemented in decode_pulses() (cwrs.c).
+The uique codeword index is decoded as a uniformly-distributed integer value between 0 and
+V(N,K)-1, where V(N,K) is the number of possible combinations of K pulses in 
+N samples. The index is then converted to a vector in the same way specified in
 <xref target="PVQ"></xref>. The indexing is based on the calculation of V(N,K)
-(denoted N(L,K) in <xref target="PVQ"></xref>), which is the number of possible
-combinations of K pulses
-in N samples. The number of combinations can be computed recursively as
+(denoted N(L,K) in <xref target="PVQ"></xref>).
+ The number of combinations can be computed recursively as
 V(N,K) = V(N-1,K) + V(N,K-1) + V(N-1,K-1), with V(N,0) = 1 and V(0,K) = 0, K != 0.
-There are many different ways to compute V(N,K), including pre-computed tables and direct
+There are many different ways to compute V(N,K), including precomputed tables and direct
 use of the recursive formulation. The reference implementation applies the recursive
 formulation one line (or column) at a time to save on memory use,
 along with an alternate,
@@ -3815,14 +5101,63 @@ they are equivalent to the mathematical definition.
-The decoding of the codeword from the index is performed as specified in
-<xref target="PVQ"></xref>, as implemented in function
-decode_pulses() (cwrs.c).
+The decoded vector is normalised such that its
+L2-norm equals one.
 <section anchor="spreading" title="Spreading">
+The normalised vector decoded in <xref target="cwrs-decoder"/> is then rotated
+for the purpose of avoiding tonal artefacts. The rotation gain is equal to
+<figure align="center">
+<artwork align="center"><![CDATA[
+g_r = N / (N + f_r*K)
+where N is the number of dimensions, K is the number of pulses, and f_r depends on
+the value of the "spread" parameter in the bit-stream.
+<texttable anchor="spread values" title="Spreading values">
+<ttcol>Spread value</ttcol>
+ <c>0</c> <c>infinite (no rotation)</c>
+ <c>1</c> <c>15</c>
+ <c>2</c> <c>10</c>
+ <c>3</c> <c>5</c>
+The rotation angle is then calculated as
+<figure align="center">
+<artwork align="center"><![CDATA[
+                 2
+        pi *  g_r
+theta = ----------
+            4
+A 2-D rotation R(i,j) between points x_i and x_j is defined as:
+<figure align="center">
+<artwork align="center"><![CDATA[
+x_i' =  cos(theta)*x_i + sin(theta)*x_j
+x_j' = -sin(theta)*x_i + cos(theta)*x_j
+An N-D rotation is then achieved by applying a series of 2-D rotations back and forth, in the
+following order: R(x_1, x_2), R(x_2, x_3), ..., R(x_N-2, X_N-1), R(x_N-1, X_N),
+R(x_N-2, X_N-1), ..., R(x_1, x_2).
+If the decoded vector represents more
+than one time block, then the following process is applied separately on each time block.
+Also, if each block represents 8 samples or more, then another N-D rotation, by 
+(pi/2-theta), is applied <spanx style="emph">before</spanx> the rotation described above. This
+extra rotation is applied in an interleaved manner with a stride equal to round(sqrt(N/nb_blocks))
@@ -3833,7 +5168,7 @@ the maximum size allowed for codebooks is 32 bits. When larger codebooks are
 needed, the vector is instead split in two sub-vectors of size N/2.
 A quantized gain parameter with precision
 derived from the current allocation is entropy coded to represent the relative
-gains of each side of the split and the entire decoding process is recursively
+gains of each side of the split, and the entire decoding process is recursively
 applied. Multiple levels of splitting may be applied up to a frame size
 dependent limit. The same recursive mechanism is applied for the joint coding
 of stereo audio.
@@ -3843,16 +5178,80 @@ of stereo audio.
 <section anchor="tf-change" title="Time-Frequency change">
+The time-frequency (TF) parameters are used to control the time-frequency resolution tradeoff
+in each coded band. For each band, there are two possible TF choices. For the first
+band coded, the PDF is {3, 1}/4 for frames marked as transient and {15, 1}/16 for
+the other frames. For subsequent bands, the TF choice is coded relative to the 
+previous TF choice with probability {15, 1}/15 for transient frames and {31, 1}/32
+otherwise. The mapping between the decoded TF choices and the adjustment in TF
+resolution is shown in the tables below.
+<texttable anchor='tf_00'>
+<ttcol align='center'>Frame size (ms)</ttcol>
+<ttcol align='center'>0</ttcol>
+<ttcol align='center'>1</ttcol>
+<c>2.5</c>      <c>0</c> <c>-1</c>
+<c>5</c>      <c>0</c> <c>-1</c>
+<c>10</c>      <c>0</c> <c>-2</c>
+<c>20</c>      <c>0</c> <c>-2</c>
+<postamble>TF adjustments for non-transient frames and tf_select=0</postamble>
+<texttable anchor='tf_01'>
+<ttcol align='center'>Frame size (ms)</ttcol>
+<ttcol align='center'>0</ttcol>
+<ttcol align='center'>1</ttcol>
+<c>2.5</c>      <c>0</c> <c>-1</c>
+<c>5</c>      <c>0</c> <c>-2</c>
+<c>10</c>      <c>0</c> <c>-3</c>
+<c>20</c>      <c>0</c> <c>-3</c>
+<postamble>TF adjustments for non-transient frames and tf_select=1</postamble>
+<texttable anchor='tf_10'>
+<ttcol align='center'>Frame size (ms)</ttcol>
+<ttcol align='center'>0</ttcol>
+<ttcol align='center'>1</ttcol>
+<c>2.5</c>      <c>0</c> <c>-1</c>
+<c>5</c>      <c>1</c> <c>0</c>
+<c>10</c>      <c>2</c> <c>0</c>
+<c>20</c>      <c>3</c> <c>0</c>
+<postamble>TF adjustments for transient frames and tf_select=0</postamble>
+<texttable anchor='tf_11'>
+<ttcol align='center'>Frame size (ms)</ttcol>
+<ttcol align='center'>0</ttcol>
+<ttcol align='center'>1</ttcol>
+<c>2.5</c>      <c>0</c> <c>-1</c>
+<c>5</c>      <c>1</c> <c>-1</c>
+<c>10</c>      <c>1</c> <c>-1</c>
+<c>20</c>      <c>1</c> <c>-1</c>
+<postamble>TF adjustments for transient frames and tf_select=1</postamble>
+A negative TF adjustment means that the temporal resolution is increased,
+while a positive TF adjustment means that the frequency resolution is increased.
+Changes in TF resolution are implemented using the Hadamard transform. To increase
+the time resolution by N, N "levels" of the Hadamard transform are applied to the
+decoded vector for each interleaved MDCT vector. To increase the frequency resolution
+(assumes a transient frame), then N levels of the Hadamard transform are applied 
+<spanx style="emph">across</spanx> the interleaved MDCT vector. In the case of increased
+time resolution the decoder uses the "sequency order" because the input vector 
+is sorted in time.
-<section anchor="anti-collapse" title="Anti-collapse processing">
+<section anchor="anti-collapse" title="Anti-Collapse Processing">
 When the frame has the transient bit set, an anti-collapse bit is decoded.
-When anti-collapse is set, then the energy in each small MDCT is prevented
+When anti-collapse is set, the energy in each small MDCT is prevented
 from collapsing to zero. For each band of each MDCT where a collapse is
 detected, a pseudo-random signal is inserted with an energy corresponding
 to the min energy over the two previous frames. A renormalization step is
@@ -3871,13 +5270,23 @@ multiplied by the square root of the decoded energy. This is done by denormalise
 <section anchor="inverse-mdct" title="Inverse MDCT">
 <t>The inverse MDCT implementation has no special characteristics. The
 input is N frequency-domain samples and the output is 2*N time-domain
-samples, while scaling by 1/2. The output is windowed using the same window
-as the encoder. The IMDCT and windowing are performed by mdct_backward
-(mdct.c). If a time-domain pre-emphasis
-window was applied in the encoder, the (inverse) time-domain de-emphasis window
-is applied on the IMDCT result.
+samples, while scaling by 1/2. A "low-overlap" window is used to reduce the algorithmic delay.
+It is derived from a basic (full overlap) 240-sample version of the window used by the Vorbis codec:
+<figure align="center">
+<artwork align="center"><![CDATA[
+                                      2
+       /   /pi      /pi   n + 1/2\ \ \ 
+W(n) = |sin|-- * sin|-- * -------| | | .
+       \   \2       \2       L   / / /
+The low-overlap window is created by zero-padding the basic window and inserting ones in the 
+middle, such that the resulting window still satisfies power complementarity. The IMDCT and 
+windowing are performed by mdct_backward (mdct.c).
 <section anchor="post-filter" title="Post-filter">
@@ -3891,7 +5300,7 @@ between 0 and 6 of uniform probability. Once the octave is known, the fine pitch
 within the octave is decoded using 4+octave raw bits. The final pitch period
 is equal to (16&lt;&lt;octave)+fine_pitch-1 so it is bounded between 15 and 1022,
 inclusively. Next, the gain is decoded as three raw bits and is equal to
-G=3*(int_gain+1)/32. The set of post-filter taps is decoded last using
+G=3*(int_gain+1)/32. The set of post-filter taps is decoded last, using
 a pdf equal to {2, 1, 1}/4. Tapset zero corresponds to the filter coefficients
 g0 = 0.3066406250, g1 = 0.2170410156, g2 = 0.1296386719. Tapset one
 corresponds to the filter coefficients g0 = 0.4638671875, g1 = 0.2680664062,
@@ -3935,78 +5344,416 @@ where alpha_p=0.8500061035.
 <section anchor="Packet Loss Concealment" title="Packet Loss Concealment (PLC)">
-Packet loss concealment (PLC) is an optional decoder-side feature which
-SHOULD be included when transmitting over an unreliable channel. Because
-PLC is not part of the bit-stream, there are several possible ways to
-implement PLC with different complexity/quality trade-offs. The PLC in
-the reference implementation finds a periodicity in the decoded
+Packet loss concealment (PLC) is an optional decoder-side feature that
+SHOULD be included when receiving from an unreliable channel. Because
+PLC is not part of the bitstream, there are many acceptable ways to
+implement PLC with different complexity/quality trade-offs.
+The PLC in
+the reference implementation depends on the mode of last packet received.
+In CELT mode, the PLC finds a periodicity in the decoded
 signal and repeats the windowed waveform using the pitch offset. The windowed
 waveform is overlapped in such a way as to preserve the time-domain aliasing
 cancellation with the previous frame and the next frame. This is implemented
-in celt_decode_lost() (mdct.c).
+in celt_decode_lost() (mdct.c).  In SILK mode, the PLC uses LPC extrapolation
+from the previous frame, implemented in silk_PLC() (PLC.c).
+<section anchor="clock-drift" title="Clock Drift Compensation">
+Clock drift refers to the gradual desynchronization of two endpoints
+whose sample clocks run at different frequencies while they are streaming
+live audio.  Differences in clock frequencies are generally attributable to
+manufacturing variation in the endpoints' clock hardware.  For long-lived
+streams, the time difference between sender and receiver can grow without
+When the sender's clock runs slower than the receiver's, the effect is similar
+to packet loss: too few packets are received.  The receiver can distinguish
+between drift and loss if the transport provides packet timestamps.  A receiver
+for live streams SHOULD conceal the effects of drift, and MAY do so by invoking
+the PLC.
+When the sender's clock runs faster than the receiver's, too many packets will
+be received.  The receiver MAY respond by skipping any packet (i.e. not
+submitting the packet for decoding).  This is likely to produce a less severe
+artifact than if the frame were dropped after decoding.
+A decoder MAY employ a more sophisticated drift compensation method. For
+example, the
+<eref target='http://code.google.com/p/webrtc/source/browse/trunk/src/modules/audio_coding/NetEQ/main/source/?r=583'>NetEQ component</eref>
+of the
+<eref target='http://code.google.com/p/webrtc/'>WebRTC.org codebase</eref>
+compensates for drift by adding or removing
+one period when the signal is highly periodic. The reference implementation of
+Opus allows a caller to learn whether the current frame's signal is highly
+periodic, and if so what the period is, using the OPUS_GET_PITCH() request.
 <section anchor="switching" title="Mode Switching">
+<!--TODO: Document mandated decoder resets and fix references to here-->
+Switching between the Opus coding modes, audio bandwidths, and channel counts
+ requires careful consideration to avoid audible glitches.
+Switching between any two configurations of the CELT-only mode, any two
+ configurations of the Hybrid mode, or from WB SILK to Hybrid mode does not
+ require any special treatment in the decoder, as the MDCT overlap will smooth
+ the transition.
+Switching from Hybrid mode to WB SILK requires adding in the final contents
+ of the CELT overlap buffer to the first SILK-only packet.
+This can be done by decoding a 2.5&nbsp;ms silence frame with the CELT decoder
+ using the channel count of the SILK-only packet (and any choice of audio
+ bandwidth), which will correctly handle the cases when the channel count
+ changes as well.
+When changing the channel count for SILK-only or Hybrid packets, the encoder
+ can avoid glitches by smoothly varying the stereo width of the input signal
+ before or after the transition, and SHOULD do so.
+However, other transitions between SILK-only packets or between NB or MB SILK
+ and Hybrid packets may cause glitches, because neither the LSF coefficients
+ nor the LTP, LPC, stereo unmixing, and resampler buffers are available at the
+ new sample rate.
+These switches SHOULD be delayed by the encoder until quiet periods or
+ transients, where the inevitable glitches will be less audible. Additionally,
+ the bit-stream MAY include redundant side information ("redundancy"), in the 
+ form of additional CELT frames embedded in each of the Opus frames around the
+ transition.
+The other transitions that cannot be easily handled are those where the lower
+ frequencies switch between the SILK LP-based model and the CELT MDCT model.
+However, an encoder may not have an opportunity to delay such a switch to a
+ convenient point.
+For example, if the content switches from speech to music, and the encoder does
+ not have enough latency in its analysis to detect this in advance, there may
+ be no convenient silence period during which to make the transition for quite
+ some time.
+To avoid or reduces glitches during these problematic mode transitions, and
+ also between audio bandwidth changes in the SILK-only modes, transitions MAY
+ include redundant side information ("redundancy"), in the form of an
+ additional CELT frame embedded in the Opus frame.
+A transition between coding the lower frequencies with the LP model and the
+ MDCT model or a transition that involves changing the SILK bandwidth 
+ is only normatively specified when it includes redundancy.
+For those without redundancy, it is RECOMMENDED that the decoder use a
+ concealment technique (e.g., make use of a PLC algorithm) to "fill in" the
+ gap or discontinuity caused by the mode transition.
+Therefore, PLC MUST NOT be applied during any normative transition, i.e., when
+<list style="symbols">
+<t>A packet includes redundancy for this transition (as described below),</t>
+<t>The transition is between any WB SILK packet and any Hybrid packet, or vice
+ versa,</t>
+<t>The transition is between any two Hybrid mode packets, or</t>
+<t>The transition is between any two CELT mode packets,</t>
+ unless there is actual packet loss.
+<section anchor="side-info" title="Transition Side Information (Redundancy)">
+Transitions with side information include an extra 5&nbsp;ms "redundant" CELT
+ frame within the Opus frame.
+This frame is designed to fill in the gap or discontinuity in the different
+ layers without requiring the decoder to conceal it.
+For transitions from CELT-only to SILK-only or Hybrid, the redundant frame is
+ inserted in the first Opus frame after the transition (i.e., the first
+ SILK-only or Hybrid frame).
+For transitions from SILK-only or Hybrid to CELT-only, the redundant frame is
+ inserted in the last Opus frame before the transition (i.e., the last
+ SILK-only or Hybrid frame).
+<section anchor="opus_redundancy_flag" title="Redundancy Flag">
+The presence of redundancy is signaled in all SILK-only and Hybrid frames, not
+ just those involved in a mode transition.
+This allows the frames to be decoded correctly even if an adjacent frame is
+ lost.
+For for SILK-only frames, this signaling is implicit, based on the size of the
+ of the Opus frame and the number of bits consumed decoding the SILK portion of
+ it.
+After decoding the SILK portion of the Opus frame, the decoder uses ec_tell()
+ (see <xref target="ec_tell"/>) to check if there are at least 17 bits
+ remaining.
+If so, then the frame contains redundancy.
+For Hybrid frames, this signaling is explicit.
+After decoding the SILK portion of the Opus frame, the decoder uses ec_tell()
+ (see <xref target="ec_tell"/>) to ensure there are at least 37 bits remaining.
+If so, it reads a symbol with the PDF in
+ <xref target="opus_redundancy_flag_pdf"/>, and if the value is 1, then the
+ frame contains redundancy.
+Otherwise (if there were fewer than 37 bits left or the value was 0), the frame
+ does not contain redundancy.
+<texttable anchor="opus_redundancy_flag_pdf" title="Redundancy Flag PDF">
+<c>{4095, 1}/4096</c>
+<section anchor="opus_redundancy_pos" title="Redundancy Position Flag">
+Since the current frame is a SILK-only or a Hybrid frame, it must be at least
+ 10&nbsp;ms.
+Therefore, it needs an additional flag to indicate whether the redundant
+ 5&nbsp;ms CELT frame should be mixed into the beginning of the current frame,
+ or the end.
+After determining that a frame contains redundancy, the decoder reads a
+ 1&nbsp;bit symbol with a uniform PDF
+ (<xref target="opus_redundancy_pos_pdf"/>).
+<texttable anchor="opus_redundancy_pos_pdf" title="Redundancy Position PDF">
+<c>{1, 1}/2</c>
+If the value is zero, this is the first frame in the transition, and the
+ redundancy belongs at the end.
+If the value is one, this is the second frame in the transition, and the
+ redundancy belongs at the beginning.
+There is no way to specify that an Opus frame contains separate redundant CELT
+ frames at both the beginning and the end.
+<section anchor="opus_redundancy_size" title="Redundancy Size">
+Unlike the CELT portion of a Hybrid frame, the redundant CELT frame does not
+ use the same entropy coder state as the rest of the Opus frame, because this
+ would break the CELT bit allocation mechanism in Hybrid frames.
+Thus, a redundant CELT frame always starts and ends on a byte boundary, even in
+ SILK-only frames, where this is not strictly necessary.
+For SILK-only frames, the number of bytes in the redundant CELT frame is simply
+ the number of whole bytes remaining, which must be at least 2, due to the
+ space check in <xref target="opus_redundancy_flag"/>.
+For Hybrid frames, the number of bytes is equal to 2, plus a decoded unsigned
+ integer less than 256 (see <xref target="ec_dec_uint"/>).
+This may be more than the number of whole bytes remaining in the Opus frame,
+ in which case the frame is invalid.
+However, a decoder is not required to ignore the entire frame, as this may be
+ the result of a bit error that desynchronized the range coder.
+There may still be useful data before the error, and a decoder MAY keep any
+ audio decoded so far instead of invoking the PLC, but it is RECOMMENDED that
+ the decoder stop decoding and discard the rest of the current Opus frame.
+It would have been possible to avoid these invalid states in the design of Opus
+ by limiting the range of the explicit length decoded from Hybrid frames by the
+ actual number of whole bytes remaining.
+However, this would require an encoder to determine the rate allocation for the
+ MDCT layer up front, before it began encoding that layer.
+By allowing some invalid sizes, the encoder is able to defer that decision
+ until much later.
+When encoding Hybrid frames which do not include redundancy, the encoder must
+ still decide up-front if it wishes to use the minimum 37 bits required to
+ trigger encoding of the redundancy flag, but this is a much looser
+ restriction.
+After determining the size of the redundant CELT frame, the decoder reduces
+ the size of the buffer currently in use by the range coder by that amount.
+The CELT layer read any raw bits from the end of this reduced buffer, and all
+ calculations of the number of bits remaining in the buffer must be done using
+ this new, reduced size, rather than the original size of the Opus frame.
+<section anchor="opus_redundancy_decoding" title="Decoding the Redundancy">
-Switching between the Opus coding modes requires careful consideration. More
-specifically, the transitions that cannot be easily handled are the ones where
-the lower frequencies have to switch between the SILK LP-based model and the CELT
-transform model. If nothing is done, a glitch will occur for these transitions.
-On the other hand, switching between the SILK-only modes and the hybrid mode
-does not require any special treatment.
+The redundant frame is decoded like any other CELT-only frame, with the
+ exception that it does not contain a TOC byte.
+The frame size is fixed at 5&nbsp;ms, the channel count is set to that of the
+ current frame, and the audio bandwidth is also set to that of the current
+ frame, with the exception that for MB SILK frames, it is set to WB.
-There are two ways to avoid or reduce glitches during the problematic mode 
-transitions: with, or without side information. Only transitions with side
-information are normatively specified. For transitions with no side
-information, it is RECOMMENDED for the decoder to use a concealment technique
-(e.g. make use of the PLC algorithm) to "fill in"
-the gap or the discontinuity caused by the mode transition. Note that this
-concealment MUST NOT be applied when switching between the SILK mode and the
-hybrid mode or vice versa. Similarly, it MUST NOT be applied when merely
-changing the bandwidth within the same mode.
+If the redundancy belongs at the beginning (in a CELT-only to SILK-only or
+ Hybrid transition), the final reconstructed output uses the first 2.5&nbsp;ms
+ of audio output by the decoder for the redundant frame is as-is, discarding
+ the corresponding output from the SILK-only or Hybrid portion of the frame.
+<!--TODO: equations-->
+The remaining 2.5&nbsp;ms is cross-lapped with the decoded SILK/Hybrid signal
+ using the CELT's power-complementary MDCT window to ensure a smooth
+ transition.
-<section anchor="side-info" title="Switching Side Information">
-Switching with side information involves transmitting in-band a 5-ms
-"redundant" CELT frame within the Opus frame.
-This frame is designed to fill-in the gap or discontinuity without requiring
-the decoder to conceal it. For transitions from a CELT-only frame to a 
-SILK-only or hybrid frame, the redundant frame is inserted in the frame
-following the transition (i.e. the SILK-only/hybrid frame). For transitions
-from a SILK-only/hybrid frame to a CELT-only frame, the redundant frame is
-inserted in the first frame. For all SILK-only and hybrid frames (not only
-those involved in a mode transition), a binary symbol of probability 2^-12
-needs to be decoded just after the SILK part of the bit-stream. When the
-symbol value is 1, then the frame includes an embedded redundant frame. The
-redundant frame always starts and ends on byte boundaries. For SILK-only
-frames, the number of bytes is simply the number of whole remaining bytes.
-For hybrid frames, the number of bytes is equal to 2, plus a decoded unsigned
-integer (ec_dec_uint()) between 0 and 255. For hybrid frames, the redundant
-frame is placed at the end of the frame, after the CELT layer of the
-hybrid frame. The redundant frame is decoded like any other CELT-only frame,
-with the exception that it does not contain a TOC byte. The bandwidth
-is instead set to the same bandwidth of the current frame (for mediumband 
-frames, the redundant frame is set to wideband).
+If the redundancy belongs at the end (in a SILK-only or Hybrid to CELT-only
+ transition), only the second half (2.5&nbsp;ms) of the audio output by the
+ decoder for the redundant frame is used.
+In that case, the second half of the redundant frame is cross-lapped with the
+ end of the SILK/Hybrid signal, again using CELT's power-complementary MDCT
+ window to ensure a smooth transition.
+<section anchor="decoder-reset" title="State Reset">
+When a transition occurs, the state of the SILK or the CELT decoder (or both)
+ may need to be reset before decoding a frame in the new mode.
+This avoids reusing "out of date" memory, which may not have been updated in
+ some time or may not be in a well-defined state due to, e.g., PLC.
+The SILK state is reset before every SILK-only or Hybrid frame where the
+ previous frame was CELT-only.
+The CELT state is reset every time the operating mode changes and the new mode
+ is either Hybrid or CELT-only, except when the transition uses redundancy as
+ described above.
+When switching from SILK-only or Hybrid to CELT-only with redundancy, the CELT
+ state is reset before decoding the redundant CELT frame embedded in the
+ SILK-only or Hybrid frame, but it is not reset before decoding the following
+ CELT-only frame.
+When switching from CELT-only mode to SILK-only or Hybrid mode with redundancy,
+ the CELT decoder is not reset for decoding the redundant CELT frame.
+<section title="Summary of Transitions">
+<xref target="normative_transitions"/> illustrates all of the normative
+ transitions involving a mode change, an audio bandwidth change, or both.
+Each one uses an S, H, or C to represent an Opus frames in the corresponding
+ modes.
+In addition, an R indicates the presence of redundancy in the Opus frame it is
+ cross-lapped with.
+Its location in the first or last 5&nbsp;ms is assumed to correspond to whether
+ it is the frame before or after the transition.
+Other uses of redundancy are non-normative.
+Finally, a c indicates the contents of the CELT overlap buffer after the
+ previously decoded frame (i.e., as extracted by decoding a silence frame).
+<figure align="center" anchor="normative_transitions"
+ title="Normative Transitions">
+<artwork align="center"><![CDATA[
+SILK to SILK with Redundancy:             S -> S -> S   ;S -> S -> S
+                                                    &    &
+                                                   !R -> R
+NB or MB SILK to Hybrid with Redundancy:  S -> S -> S
+                                                    &
+                                                   !R ->;H -> H -> H
+WB SILK to Hybrid:                        S -> S -> S ->!H -> H -> H
+SILK to CELT with Redundancy:             S -> S -> S
+                                                    &
+                                                   !R -> C -> C -> C
+Hybrid to NB or MB SILK with Redundancy:  H -> H -> H   ;S -> S -> S
+                                                    &    &
+                                                   !R -> R
+Hybrid to WB SILK:                        H -> H -> H -> c
+                                                      \  +
+                                                       > S -> S -> S
+Hybrid to CELT with Redundancy:           H -> H -> H
+                                                    &
+                                                   !R -> C -> C -> C
+CELT to SILK with Redundancy:             C -> C -> C -> R
+                                                         &
+                                                        ;S -> S -> S
+CELT to Hybrid with Redundancy:           C -> C -> C -> R
+                                                         &
+                                                        |H -> H -> H
+S   SILK-only frame                 ;   SILK decoder reset
+H   Hybrid frame                    |   CELT and SILK decoder resets
+C   CELT-only frame                 !   CELT decoder reset
+c   CELT overlap                    +   Direct mixing
+R   Redundant CELT frame            &   Windowed cross-lap
+The first two and the last two Opus frames in each example are illustrative,
+ i.e., there is no requirement that a stream remain in the same configuration
+ for three consecutive frames before or after a switch.
-For CELT-only to SILK-only/hybrid transitions, the first
-2.5 ms of the redundant frame is used as-is for the reconstructed
-output. The remaining 2.5 ms is overlapped and added (cross-faded using
-the square of the MDCT power-complementary window) to the decoded SILK/hybrid
-signal, ensuring a smooth transition. For SILK-only/hyrid to CELT-only
-transitions, only the second half of the 5-ms decoded redundant frame is used.
-In that case, only a 2.5-ms cross-fade is applied, still using the 
-power-complementary window.
+The behavior of transitions without redundancy where PLC is allowed is non-normative.
+An encoder might still wish to use these transitions if, for example, it
+ doesn't want to add the extra bitrate required for redundancy or if it makes
+ a decision to switch after it has already transmitted the frame that would
+ have had to contain the redundancy.
+<xref target="nonnormative_transitions"/> illustrates the recommended
+ cross-lapping and decoder resets for these transitions.
+<figure align="center" anchor="nonnormative_transitions"
+ title="Recommended Non-Normative Transitions">
+<artwork align="center"><![CDATA[
+SILK to SILK (audio bandwidth change):    S -> S -> S   ;S -> S -> S
+NB or MB SILK to Hybrid:                  S -> S -> S   |H -> H -> H
+SILK to CELT without Redundancy:          S -> S -> S -> P
+                                                         &
+                                                        !C -> C -> C
+Hybrid to NB or MB SILK:                  H -> H -> H -> c
+                                                         +
+                                                        ;S -> S -> S
+Hybrid to CELT without Redundancy:        H -> H -> H -> P
+                                                         &
+                                                        !C -> C -> C
+CELT to SILK without Redundancy:          C -> C -> C -> P
+                                                         &
+                                                        ;S -> S -> S
+CELT to Hybrid without Redundancy:        C -> C -> C -> P
+                                                         &
+                                                        |H -> H -> H
+S   SILK-only frame                 ;   SILK decoder reset
+H   Hybrid frame                    |   CELT and SILK decoder resets
+C   CELT-only frame                 !   CELT decoder reset
+P   Packet Loss Concealment         &   Windowed cross-lap
+Encoders SHOULD NOT use other transitions, e.g., those that involve redundancy
+ in ways not illustrated in <xref target="normative_transitions"/>.
@@ -4018,28 +5765,64 @@ power-complementary window.
 <!--  **************************   OPUS ENCODER   *********************** -->
 <!--  ******************************************************************* -->
-<section title="Codec Encoder">
+<section title="Opus Encoder">
-Opus encoder block diagram.
+Just like the decoder, the Opus encoder also normally consists of two main blocks: the
+SILK encoder and the CELT encoder. However, unlike the case of the decoder, a valid
+(though potentially suboptimal) Opus encoder is not required to support all modes and
+may thus only include a SILK encoder module or a CELT encoder module. 
+The output bit-stream of the Opus encoding contains bits from the SILK and CELT
+ encoders, though these are not separable due to the use of a range coder. 
+A block diagram of the encoder is illustrated below.
-         +----------+    +-------+
-         |  sample  |    | SILK  |
-      +->|   rate   |--->|encoder|--+
-      |  |conversion|    |       |  |
-audio |  +----------+    +-------+  |    +-------+
-------+                             +--->| Range |
-      |  +-------+                       |encoder|---->
-      |  | CELT  |                  +--->|       | bit-stream
-      +->|encoder|------------------+    +-------+
-         |       |
-         +-------+
+                    +----------+    +-------+
+                    |  sample  |    | SILK  |
+                 +->|   rate   |--->|encoder|--+
+  +-----------+  |  |conversion|    |       |  |
+  | Optional  |  |  +----------+    +-------+  |   +-------+
+->| high-pass |--+                             +-->| Range |
+  +  filter   +  |  +------------+  +-------+      |encoder|---->
+  +-----------+  |  |   Delay    |  | CELT  |  +-->|       | bit-
+                 +->|compensation|->|encoder|--+   +-------+ stream
+                    |            |  |       |
+                    +------------+  +-------+
+For a normal encoder where both the SILK and the CELT modules are included, an optimal
+encoder should select which coding mode to use at run-time depending on the conditions.
+In the reference implementation, the frame size is selected by the application, but the
+other configuration parameters (number of channels, bandwidth, mode) are automatically
+selected (unless explicitly overridden by the application) depend on the following:
+<list style="symbols">
+<t>Requested bit-rate</t>
+<t>Input sampling rate</t>
+<t>Type of signal (speech vs music)</t>
+<t>Frame size in use</t>
+The type of signal currently needs to be provided by the application (though it can be
+changed in real-time). An Opus encoder implementation could also do automatic detection,
+but since Opus is an interactive codec, such an implementation would likely have to either
+delay the signal (for non-interactive application) or delay the mode switching decisions (for
+interactive applications).
+When the encoder is configured for voice over IP applications, the input signal is 
+filtered by a high-pass filter to remove the lowest part of the spectrum
+that contains little speech energy and may contain background noise. This is a second order
+Auto Regressive Moving Average (ARMA) filter with a cut-off frequency around 50&nbsp;Hz.
+In the future, a music detector may also be used to lower the cut-off frequency when the 
+input signal is detected to be music rather than speech.
 <section anchor="range-encoder" title="Range Coder">
 The range coder also acts as the bit-packer for Opus. It is
@@ -4053,7 +5836,7 @@ used in three different ways, to encode:
 The range encoder maintains an internal state vector composed of the
-four-tuple (low,rng,rem,ext), representing the low end of the current
+four-tuple (low,rng,rem,ext) representing the low end of the current
 range, the size of the current range, a single buffered output octet,
 and a count of additional carry-propagating output octets. Both rng
 and low are 32-bit unsigned integer values, rem is an octet value or
@@ -4098,7 +5881,7 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
    output bits is not determined until carry propagation is accounted
    for. Therefore the reference implementation buffers a single
    (non-propagating) output octet and keeps a count of additional
-   propagating (0xFF) output octets. An implementation MAY choose to use
+   propagating (0xFF) output octets. An implementation may choose to use
    any mathematically equivalent scheme to perform carry propagation.
@@ -4127,7 +5910,7 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
    The raw bits are packed at the end of the packet, starting by storing the
    least significant bit of the value to be packed in the least significant bit
    of the last byte, filling up to the most significant bit in
-   the last byte, and the continuing in the least significant bit of the
+   the last byte, and then continuing in the least significant bit of the
    penultimate byte, and so on.
    This packing may continue into the last byte output by the range coder,
    though the format should render it impossible to overwrite any set bit
@@ -4194,7 +5977,7 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
         <section title='SILK Encoder'>
-            In the following, we focus on the core encoder and describe its components. For simplicity, we will refer to the core encoder simply as the encoder in the remainder of this document. An overview of the encoder is given in <xref target="encoder_figure" />.
+            In the following, we focus on the core encoder and describe its components. For simplicity, we will refer to the core encoder simply as the encoder in the remainder of this section. An overview of the encoder is given in <xref target="encoder_figure" />.
           <figure align="center" anchor="encoder_figure">
@@ -4216,7 +5999,7 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
  |                 |Pitch    | |  |  |LSF      | |   |   |    | e |
  |              +->|Analysis |-+  |  |Quantizer|-|---|---|--->|   |
  |              |  |         |4|  |  |         | | 8 |   |    | E |->
- |              |  +---------+ |  |  +---------+ |   |   |    | n |14
+ |              |  +---------+ |  |  +---------+ |   |   |    | n | 2
  |              |              |  |   9/\  10|   |   |   |    | c |
  |              |              |  |    |    \/   |   |   |    | o |
  |              |  +---------+ |  |  +----------+|   |   |    | d |
@@ -4227,14 +6010,14 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
  |              |              |  |       /\     |   |   |    |   |
  |              |    +---------|--|-------+      |   |   |    |   |
  |              |    |        \/  \/            \/  \/  \/    |   |
- |  +---------+ |    |      +---------+       +------------+  |   |
- |  |High-Pass| |    |      |         |       |Noise       |  |   |
--+->|Filter   |-+----+----->|Prefilter|------>|Shaping     |->|   |
-1   |         |      2      |         |   6   |Quantization|13|   |
-    +---------+             +---------+       +------------+  +---+
+ |              |    |      +---------+       +------------+  |   |
+ |              |    |      |         |       |Noise       |  |   |
+-+--------------+----+----->|Prefilter|------>|Shaping     |->|   |
+1                           |         |   6   |Quantization|13|   |
+                            +---------+       +------------+  +---+
 1:  Input speech signal
-2:  High passed input signal
+2:  Range encoded bitstream
 3:  Voice activity estimate
 4:  Pitch lags (per 5 ms) and voicing decision (per 20 ms)
 5:  Noise shaping quantization coefficients
@@ -4254,7 +6037,6 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
 12: LTP state scaling coefficient. Controlling error propagation
    / prediction gain trade-off
 13: Quantized signal
-14: Range encoded bitstream
@@ -4263,7 +6045,7 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
           <section title='Voice Activity Detection'>
-              The input signal is processed by a VAD (Voice Activity Detector) to produce a measure of voice activity, and also spectral tilt and signal-to-noise estimates, for each frame. The VAD uses a sequence of half-band filterbanks to split the signal in four subbands: 0 - Fs/16, Fs/16 - Fs/8, Fs/8 - Fs/4, and Fs/4 - Fs/2, where Fs is the sampling frequency, that is, 8, 12, 16, or 24&nbsp;kHz. The lowest subband, from 0 - Fs/16 is high-pass filtered with a first-order MA (Moving Average) filter (with transfer function H(z) = 1-z**(-1)) to reduce the energy at the lowest frequencies. For each frame, the signal energy per subband is computed. In each subband, a noise level estimator tracks the background noise level and an SNR (Signal-to-Noise Ratio) value is computed as the logarithm of the ratio of energy to noise level. Using these intermediate variables, the following parameters are calculated for use in other SILK modules:
+              The input signal is processed by a Voice Activity Detector (VAD) to produce a measure of voice activity, spectral tilt, and signal-to-noise estimates for each frame. The VAD uses a sequence of half-band filterbanks to split the signal into four subbands: 0 - Fs/16, Fs/16 - Fs/8, Fs/8 - Fs/4, and Fs/4 - Fs/2, where Fs is the sampling frequency (8, 12, 16, or 24&nbsp;kHz). The lowest subband, from 0 - Fs/16, is high-pass filtered with a first-order moving average (MA) filter (with transfer function H(z) = 1-z**(-1)) to reduce the energy at the lowest frequencies. For each frame, the signal energy per subband is computed. In each subband, a noise level estimator tracks the background noise level and a Signal-to-Noise Ratio (SNR) value is computed as the logarithm of the ratio of energy to noise level. Using these intermediate variables, the following parameters are calculated for use in other SILK modules:
               <list style="symbols">
                   Average SNR. The average of the subband SNR values.
@@ -4284,18 +6066,9 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
-          <section title='High-Pass Filter'>
-            <t>
-              The input signal is filtered by a high-pass filter to remove the lowest part of the spectrum that contains little speech energy and may contain background noise. This is a second order ARMA (Auto Regressive Moving Average) filter with a cut-off frequency around 70&nbsp;Hz.
-            </t>
-            <t>
-              In the future, a music detector may also be used to lower the cut-off frequency when the input signal is detected to be music rather than speech.
-            </t>
-          </section>
           <section title='Pitch Analysis' anchor='pitch_estimator_overview_section'>
-              The high-passed input signal is processed by the open loop pitch estimator shown in <xref target='pitch_estimator_figure' />.
+              The input signal is processed by the open loop pitch estimator shown in <xref target='pitch_estimator_figure' />.
               <figure align="center" anchor="pitch_estimator_figure">
                 <artwork align="center">
@@ -4335,7 +6108,7 @@ fl=sum(f(i),i<k), fh=fl+f(i), and ft=sum(f(i)).
                 <t>In the first stage, the whitened signal is downsampled to 4&nbsp;kHz (from 8&nbsp;kHz) and the current frame is correlated to a signal delayed by a range of lags, starting from a shortest lag corresponding to 500&nbsp;Hz, to a longest lag corresponding to 56&nbsp;Hz.</t>
-                  The second stage operates on a 8&nbsp;kHz signal ( downsampled from 12, 16, or 24&nbsp;kHz ) and measures time correlations only near the lags corresponding to those that had sufficiently high correlations in the first stage. The resulting correlations are adjusted for a small bias towards short lags to avoid ending up with a multiple of the true pitch lag. The highest adjusted correlation is compared to a threshold depending on:
+                  The second stage operates on an 8&nbsp;kHz signal (downsampled from 12, 16, or 24&nbsp;kHz) and measures time correlations only near the lags corresponding to those that had sufficiently high correlations in the first stage. The resulting correlations are adjusted for a small bias towards short lags to avoid ending up with a multiple of the true pitch lag. The highest adjusted correlation is compared to a threshold depending on:
                   <list style="symbols">
                       Whether the previous frame was classified as voiced
@@ -4438,7 +6211,7 @@ Wsyn(z) = (1 - \ (a_syn(k) * z  )*(1 - z  * \ b_syn(k) * z  ).
-              All noise shaping parameters are computed and applied per subframe of 5 milliseconds. First, an LPC analysis is performed on a windowed signal block of 15 milliseconds. The signal block has a look-ahead of 5 milliseconds relative to the current subframe, and the window is an asymmetric sine window. The LPC analysis is done with the autocorrelation method, with an order of 16 for best quality or 12 in low complexity operation. The quantization gain is found as the square-root of the residual energy from the LPC analysis, multiplied by a value inversely proportional to the coding quality control parameter and the pitch correlation.
+              All noise shaping parameters are computed and applied per subframe of 5&nbsp;ms. First, an LPC analysis is performed on a windowed signal block of 15&nbsp;ms. The signal block has a look-ahead of 5&nbsp;ms relative to the current subframe, and the window is an asymmetric sine window. The LPC analysis is done with the autocorrelation method, with an order of 16 for best quality or 12 in low complexity operation. The quantization gain is found by taking the square root of the residual energy from the LPC analysis and multiplying it by a value inversely proportional to the coding quality control parameter and the pitch correlation.
               Next we find the two sets of short-term noise shaping coefficients a_ana(k) and a_syn(k), by applying different amounts of bandwidth expansion to the coefficients found in the LPC analysis. This bandwidth expansion moves the roots of the LPC polynomial towards the origin, using the formulas
@@ -4453,7 +6226,7 @@ Wsyn(z) = (1 - \ (a_syn(k) * z  )*(1 - z  * \ b_syn(k) * z  ).
-              where a(k) is the k'th LPC coefficient and the bandwidth expansion factors g_ana and g_syn are calculated as
+              where a(k) is the k'th LPC coefficient, and the bandwidth expansion factors g_ana and g_syn are calculated as
               <figure align="center">
                 <artwork align="center">
@@ -4494,7 +6267,7 @@ c_tilt = 0.04 + 0.06 * C
               for voiced frames, where C again is the coding quality control parameter and is between 0 and 1.
-              The adjustment gain G serves to correct any level mismatch between original and decoded signal that might arise from the noise shaping and de-emphasis. This gain is computed as the ratio of the prediction gain of the short-term analysis and synthesis filter coefficients. The prediction gain of an LPC synthesis filter is the square-root of the output energy when the filter is excited by a unit-energy impulse on the input. An efficient way to compute the prediction gain is by first computing the reflection coefficients from the LPC coefficients through the step-down algorithm, and extracting the prediction gain from the reflection coefficients as
+              The adjustment gain G serves to correct any level mismatch between the original and decoded signals that might arise from the noise shaping and de-emphasis. This gain is computed as the ratio of the prediction gain of the short-term analysis and synthesis filter coefficients. The prediction gain of an LPC synthesis filter is the square root of the output energy when the filter is excited by a unit-energy impulse on the input. An efficient way to compute the prediction gain is by first computing the reflection coefficients from the LPC coefficients through the step-down algorithm, and extracting the prediction gain from the reflection coefficients as
               <figure align="center">
                 <artwork align="center">
@@ -4515,35 +6288,35 @@ c_tilt = 0.04 + 0.06 * C
           <section title='Prefilter'>
-              In the prefilter the input signal is filtered using the spectral valley de-emphasis filter coefficients from the noise shaping analysis, see <xref target='noise_shaping_analysis_overview_section' />. By applying only the noise shaping analysis filter to the input signal, it provides the input to the noise shaping quantizer.
+              In the prefilter the input signal is filtered using the spectral valley de-emphasis filter coefficients from the noise shaping analysis (see <xref target='noise_shaping_analysis_overview_section'/>). By applying only the noise shaping analysis filter to the input signal, it provides the input to the noise shaping quantizer.
           <section title='Prediction Analysis' anchor='pred_ana_overview_section'>
-              The prediction analysis is performed in one of two ways depending on how the pitch estimator classified the frame. The processing for voiced and unvoiced speech are described in <xref target='pred_ana_voiced_overview_section' /> and <xref target='pred_ana_unvoiced_overview_section' />, respectively. Inputs to this function include the pre-whitened signal from the pitch estimator, see <xref target='pitch_estimator_overview_section' />.
+              The prediction analysis is performed in one of two ways depending on how the pitch estimator classified the frame. The processing for voiced and unvoiced speech is described in <xref target='pred_ana_voiced_overview_section' /> and <xref target='pred_ana_unvoiced_overview_section' />, respectively. Inputs to this function include the pre-whitened signal from the pitch estimator (see <xref target='pitch_estimator_overview_section'/>).
             <section title='Voiced Speech' anchor='pred_ana_voiced_overview_section'>
-                For a frame of voiced speech the pitch pulses will remain dominant in the pre-whitened input signal. Further whitening is desirable as it leads to higher quality at the same available bitrate. To achieve this, a Long-Term Prediction (LTP) analysis is carried out to estimate the coefficients of a fifth order LTP filter for each of four subframes. The LTP coefficients are used to find an LTP residual signal with the simulated output signal as input to obtain better modeling of the output signal. This LTP residual signal is the input to an LPC analysis where the LPCs are estimated using Burgs method, such that the residual energy is minimized. The estimated LPCs are converted to a Line Spectral Frequency (LSF) vector, and quantized as described in <xref target='lsf_quantizer_overview_section' />. After quantization, the quantized LSF vector is converted to LPC coefficients and hence by using these quantized coefficients the encoder remains fully synchronized with the decoder. The LTP coefficients are quantized using a method described in <xref target='ltp_quantizer_overview_section' />. The quantized LPC and LTP coefficients are now used to filter the high-pass filtered input signal and measure a residual energy for each of the four subframes.
+                For a frame of voiced speech the pitch pulses will remain dominant in the pre-whitened input signal. Further whitening is desirable as it leads to higher quality at the same available bitrate. To achieve this, a Long-Term Prediction (LTP) analysis is carried out to estimate the coefficients of a fifth-order LTP filter for each of four subframes. The LTP coefficients are used to find an LTP residual signal with the simulated output signal as input to obtain better modeling of the output signal. This LTP residual signal is the input to an LPC analysis where the LPCs are estimated using Burg's method, such that the residual energy is minimized. The estimated LPCs are converted to a Line Spectral Frequency (LSF) vector and quantized as described in <xref target='lsf_quantizer_overview_section' />. After quantization, the quantized LSF vector is converted back to LPC coefficients using the full procedure in <xref target="silk_nlsfs"/>. By using LPC coefficients derived from the quantized LSF coefficients, the encoder remains fully synchronized with the decoder. The LTP coefficients are quantized using a method described in <xref target='ltp_quantizer_overview_section' />. The quantized LPC and LTP coefficients are then used to filter the input signal and measure residual energy for each of the four subframes.
             <section title='Unvoiced Speech' anchor='pred_ana_unvoiced_overview_section'>
-                For a speech signal that has been classified as unvoiced there is no need for LTP filtering as it has already been determined that the pre-whitened input signal is not periodic enough within the allowed pitch period range for an LTP analysis to be worth-while the cost in terms of complexity and rate. Therefore, the pre-whitened input signal is discarded and instead the high-pass filtered input signal is used for LPC analysis using Burgs method. The resulting LPC coefficients are converted to an LSF vector, quantized as described in the following section and transformed back to obtain quantized LPC coefficients. The quantized LPC coefficients are used to filter the high-pass filtered input signal and measure a residual energy for each of the four subframes.
+                For a speech signal that has been classified as unvoiced, there is no need for LTP filtering, as it has already been determined that the pre-whitened input signal is not periodic enough within the allowed pitch period range for LTP analysis to be worth the cost in terms of complexity and rate. The pre-whitened input signal is therefore discarded, and instead the input signal is used for LPC analysis using Burg's method. The resulting LPC coefficients are converted to an LSF vector and quantized as described in the following section. They are then transformed back to obtain quantized LPC coefficients, which are then used to filter the input signal and measure residual energy for each of the four subframes.
           <section title='LSF Quantization' anchor='lsf_quantizer_overview_section'>
-            <t>The purpose of quantization in general is to significantly lower the bit rate at the cost of some introduced distortion. A higher rate should always result in lower distortion, and lowering the rate will generally lead to higher distortion. A commonly used but generally sub-optimal approach is to use a quantization method with a constant rate where only the error is minimized when quantizing.</t>
+            <t>In general, the purpose of quantization is to significantly lower the bitrate at the cost of introducing some distortion. A higher rate should always result in lower distortion, and lowering the rate will generally lead to higher distortion. A commonly used but generally suboptimal approach is to use a quantization method with a constant rate, where only the error is minimized when quantizing.</t>
             <section title='Rate-Distortion Optimization'>
-              <t>Instead, we minimize an objective function that consists of a weighted sum of rate and distortion, and use a codebook with an associated non-uniform rate table. Thus, we take into account that the probability mass function for selecting the codebook entries are by no means guaranteed to be uniform in our scenario. The advantage of this approach is that it ensures that rarely used codebook vector centroids, which are modeling statistical outliers in the training set can be quantized with a low error but with a relatively high cost in terms of a high rate. At the same time this approach also provides the advantage that frequently used centroids are modeled with low error and a relatively low rate. This approach will lead to equal or lower distortion than the fixed rate codebook at any given average rate, provided that the data is similar to the data used for training the codebook.</t>
+              <t>Instead, we minimize an objective function that consists of a weighted sum of rate and distortion, and use a codebook with an associated non-uniform rate table. Thus, we take into account that the probability mass function for selecting the codebook entries is by no means guaranteed to be uniform in our scenario. This approach has several advantages. It ensures that rarely used codebook vector centroids, which are modeling statistical outliers in the training set, are quantized with low error at the expense of a high rate. At the same time, it allows modeling frequently used centroids with low error and a relatively low rate. This approach leads to equal or lower distortion than the fixed-rate codebook at any given average rate, provided that the data is similar to that used for training the codebook.</t>
             <section title='Error Mapping' anchor='lsf_error_mapping_overview_section'>
-                Instead of minimizing the error in the LSF domain, we map the errors to better approximate spectral distortion by applying an individual weight to each element in the error vector. The weight vectors are calculated for each input vector using the Inverse Harmonic Mean Weighting (IHMW) function proposed by Laroia et al., see <xref target="laroia-icassp" />.
+                Instead of minimizing the error in the LSF domain, we map the errors to better approximate spectral distortion by applying an individual weight to each element in the error vector. The weight vectors are calculated for each input vector using the Inverse Harmonic Mean Weighting (IHMW) function proposed by Laroia et al. (see <xref target="laroia-icassp" />).
                 Consequently, we solve the following minimization problem, i.e.,
                 <figure align="center">
                   <artwork align="center">
@@ -4556,64 +6329,13 @@ LSF_q = argmin { (LSF - c)' * W * (LSF - c) + mu * rate },
                 where LSF_q is the quantized vector, LSF is the input vector to be quantized, and c is the quantized LSF vector candidate taken from the set C of all possible outcomes of the codebook.
-            <section title='Multi-Stage Vector Codebook'>
-              <t>
-                We arrange the codebook in a multiple stage structure to achieve a quantizer that is both memory efficient and highly scalable in terms of computational complexity, see e.g. <xref target="sinervo-norsig" />. In the first stage the input is the LSF vector to be quantized, and in any other stage s > 1, the input is the quantization error from the previous stage, see <xref target='lsf_quantizer_structure_overview_figure' />.
-              </t>
-                <figure align="center" anchor="lsf_quantizer_structure_overview_figure">
-                  <artwork align="center">
-                    <![CDATA[
-      Stage 1:           Stage 2:                Stage S:
-    +----------+       +----------+            +----------+
-    |  c_{1,1} |       |  c_{2,1} |            |  c_{S,1} |
-LSF +----------+ res_1 +----------+  res_{S-1} +----------+
---->|  c_{1,2} |------>|  c_{2,2} |--> ... --->|  c_{S,2} |--->
-    +----------+       +----------+            +----------+ res_S =
-        ...                ...                     ...      LSF-LSF_q
-    +----------+       +----------+            +----------+
-    |c_{1,M1-1}|       |c_{2,M2-1}|            |c_{S,MS-1}|
-    +----------+       +----------+            +----------+
-    | c_{1,M1} |       | c_{2,M2} |            | c_{S,MS} |
-    +----------+       +----------+            +----------+
-                  </artwork>
-                  <postamble>Multi-Stage LSF Vector Codebook Structure.</postamble>
-                </figure>
-              <t>
-                By storing total of M codebook vectors, i.e.,
-                <figure align="center">
-                  <artwork align="center">
-                    <![CDATA[
-     S
-    __
-M = \  Ms,
-    /_
-    s=1
-                  </artwork>
-                </figure>
-                where M_s is the number of vectors in stage s, we obtain a total of
-                <figure align="center">
-                  <artwork align="center">
-                    <![CDATA[
-     S
-    ___
-T = | | Ms
-    s=1
-                  </artwork>
-                </figure>
-                possible combinations for generating the quantized vector. It is for example possible to represent 2**36 uniquely combined vectors using only 216 vectors in memory, as done in SILK for voiced speech at all sample frequencies above 8&nbsp;kHz.
-              </t>
-            </section>
             <section title='Survivor Based Codebook Search'>
-                This number of possible combinations is far too high for a full search to be carried out for each frame so for all stages but the last, i.e., s smaller than S, only the best min( L, Ms ) centroids are carried over to stage s+1. In each stage the objective function, i.e., the weighted sum of accumulated bitrate and distortion, is evaluated for each codebook vector entry and the results are sorted. Only the best paths and the corresponding quantization errors are considered in the next stage. In the last stage S the single best path through the multistage codebook is determined. By varying the maximum number of survivors from each stage to the next L, the complexity can be adjusted in real-time at the cost of a potential increase when evaluating the objective function for the resulting quantized vector. This approach scales all the way between the two extremes, L=1 being a greedy search, and the desirable but infeasible full search, L=T/MS. In fact, a performance almost as good as what can be achieved with the infeasible full search can be obtained at a substantially lower complexity by using this approach, see e.g. <xref target='leblanc-tsap' />.
+                This number of possible combinations is far too high to carry out a full search for each frame, so for all stages but the last (i.e., s smaller than S), only the best min(L, Ms) centroids are carried over to stage s+1. In each stage, the objective function (i.e., the weighted sum of accumulated bitrate and distortion) is evaluated for each codebook vector entry and the results are sorted. Only the best paths and their corresponding quantization errors are considered in the next stage. In the last stage, S, the single best path through the multistage codebook is determined. By varying the maximum number of survivors from each stage to the next, L, the complexity can be adjusted in real time, at the cost of a potential increase when evaluating the objective function for the resulting quantized vector. This approach scales all the way between the two extremes, L=1 being a greedy search, and the desirable but infeasible full search, L=T/MS. Performance almost as good as that of the infeasible full search can be obtained at substantially lower complexity by using this approach (see, e.g., <xref target='leblanc-tsap'/>).
             <section title='LSF Stabilization' anchor='lsf_stabilizer_overview_section'>
-              <t>If the input is stable, finding the best candidate will usually result in the quantized vector also being stable, but due to the multi-stage approach it could in theory happen that the best quantization candidate is unstable and because of this there is a need to explicitly ensure that the quantized vectors are stable. Therefore we apply a LSF stabilization method which ensures that the LSF parameters are within valid range, increasingly sorted, and have minimum distances between each other and the border values that have been pre-determined as the 0.01 percentile distance values from a large training set.</t>
+              <t>If the input is stable, finding the best candidate usually results in a quantized vector that is also stable. Due to the multi-stage approach, however, it is theoretically possible that the best quantization candidate is unstable. Because of this, it is necessary to explicitly ensure that the quantized vectors are stable. Therefore we apply an LSF stabilization method which ensures that the LSF parameters are within valid range, increasingly sorted, and have minimum distances between each other and the border values that have been predetermined as the 0.01 percentile distance values from a large training set.</t>
             <section title='Off-Line Codebook Training'>
@@ -4624,7 +6346,7 @@ T = | | Ms
           <section title='LTP Quantization' anchor='ltp_quantizer_overview_section'>
-              For voiced frames, the prediction analysis described in <xref target='pred_ana_voiced_overview_section' /> resulted in four sets (one set per subframe) of five LTP coefficients, plus four weighting matrices. Also, the LTP coefficients for each subframe are quantized using entropy constrained vector quantization. A total of three vector codebooks are available for quantization, with different rate-distortion trade-offs. The three codebooks have 10, 20 and 40 vectors and average rates of about 3, 4, and 5 bits per vector, respectively. Consequently, the first codebook has larger average quantization distortion at a lower rate, whereas the last codebook has smaller average quantization distortion at a higher rate. Given the weighting matrix W_ltp and LTP vector b, the weighted rate-distortion measure for a codebook vector cb_i with rate r_i is give by
+              For voiced frames, the prediction analysis described in <xref target='pred_ana_voiced_overview_section' /> resulted in four sets (one set per subframe) of five LTP coefficients, plus four weighting matrices. The LTP coefficients for each subframe are quantized using entropy constrained vector quantization. A total of three vector codebooks are available for quantization, with different rate-distortion trade-offs. The three codebooks have 10, 20, and 40 vectors and average rates of about 3, 4, and 5 bits per vector, respectively. Consequently, the first codebook has larger average quantization distortion at a lower rate, whereas the last codebook has smaller average quantization distortion at a higher rate. Given the weighting matrix W_ltp and LTP vector b, the weighted rate-distortion measure for a codebook vector cb_i with rate r_i is give by
               <figure align="center">
                 <artwork align="center">
@@ -4633,11 +6355,11 @@ T = | | Ms
               where u is a fixed, heuristically-determined parameter balancing the distortion and rate. Which codebook gives the best performance for a given LTP vector depends on the weighting matrix for that LTP vector. For example, for a low valued W_ltp, it is advantageous to use the codebook with 10 vectors as it has a lower average rate. For a large W_ltp, on the other hand, it is often better to use the codebook with 40 vectors, as it is more likely to contain the best codebook vector.
-              The weighting matrix W_ltp depends mostly on two aspects of the input signal. The first is the periodicity of the signal; the more periodic the larger W_ltp. The second is the change in signal energy in the current subframe, relative to the signal one pitch lag earlier. A decaying energy leads to a larger W_ltp than an increasing energy. Both aspects do not fluctuate very fast which causes the W_ltp matrices for different subframes of one frame often to be similar. As a result, one of the three codebooks typically gives good performance for all subframes. Therefore the codebook search for the subframe LTP vectors is constrained to only allow codebook vectors to be chosen from the same codebook, resulting in a rate reduction.
+              The weighting matrix W_ltp depends mostly on two aspects of the input signal. The first is the periodicity of the signal; the more periodic, the larger W_ltp. The second is the change in signal energy in the current subframe, relative to the signal one pitch lag earlier. A decaying energy leads to a larger W_ltp than an increasing energy. Both aspects fluctuate relatively slowly, which causes the W_ltp matrices for different subframes of one frame often to be similar. Because of this, one of the three codebooks typically gives good performance for all subframes, and therefore the codebook search for the subframe LTP vectors is constrained to only allow codebook vectors to be chosen from the same codebook, resulting in a rate reduction.
-              To find the best codebook, each of the three vector codebooks is used to quantize all subframe LTP vectors and produce a combined weighted rate-distortion measure for each vector codebook and the vector codebook with the lowest combined rate-distortion over all subframes is chosen. The quantized LTP vectors are used in the noise shaping quantizer, and the index of the codebook plus the four indices for the four subframe codebook vectors are passed on to the range encoder.
+              To find the best codebook, each of the three vector codebooks is used to quantize all subframe LTP vectors and produce a combined weighted rate-distortion measure for each vector codebook. The vector codebook with the lowest combined rate-distortion over all subframes is chosen. The quantized LTP vectors are used in the noise shaping quantizer, and the index of the codebook plus the four indices for the four subframe codebook vectors are passed on to the range encoder.
@@ -4652,46 +6374,30 @@ T = | | Ms
-          <section title='Range Encoder'>
-            <t>
-              Range encoding is a well known method for entropy coding in which a bitstream sequence is continually updated with every new symbol, based on the probability for that symbol. It is similar to arithmetic coding but rather than being restricted to generating binary output symbols, it can generate symbols in any chosen number base. In SILK all side information is range encoded. Each quantized parameter has its own cumulative density function based on histograms for the quantization indices obtained by running a training database.
-            </t>
-            <section title='Bitstream Encoding Details'>
-              <t>
-                TBD.
-              </t>
-            </section>
-          </section>
 <section title="CELT Encoder">
-Copy from CELT draft.
+Most of the aspects of the CELT encoder can be directly derived from the description 
+of the decoder. For example, the filters and rotations in the encoder are simply the
+inverse of the operation performed by the decoder. Similarly, the quantizers generally
+optimize for the mean square error (because noise shaping is part of the bit-stream itself),
+so no special search is required. For this reason, only the less straightforward aspects of the 
+encoder are described here.
-<section anchor="prefilter" title="Pre-filter">
-Inverse of the post-filter
-<section anchor="forward-mdct" title="Forward MDCT">
-<t>The MDCT implementation has no special characteristics. The
-input is a windowed signal (after pre-emphasis) of 2*N samples and the output is N
-frequency-domain samples. A "low-overlap" window is used to reduce the algorithmic delay.
-It is derived from a basic (full overlap) window that is the same as the one used in the Vorbis codec:
-<figure align="center">
-<artwork align="center"><![CDATA[
-            pi       pi   n + 1/2   2
-W(n) = [sin(-- * sin(-- * -------))] .
-            2        2       L
-The low-overlap window is created by zero-padding the basic window and inserting ones in the middle, such that the resulting window still satisfies power complementarity. The MDCT is computed in mdct_forward() (mdct.c), which includes the windowing operation and a scaling of 2/N.
+<section anchor="pitch-prefilter" title="Pitch Prefilter">
+<t>The pitch prefilter is applied after the pre-emphasis. It is applied 
+in such a way as to be the inverse of the decoder's post-filter. The main non-obvious aspect of the
+prefilter is the selection of the pitch period. The pitch search should be optimised for the 
+following criteria:
+<list style="symbols">
+<t>continuity: it is important that the pitch period
+does not change abruptly between frames; and</t>
+<t>avoidance of pitch multiples: when the period used is a multiple of the real period 
+(lower frequency fundamental), the post-filter loses most of its ability to reduce noise</t>
@@ -4699,7 +6405,7 @@ The low-overlap window is created by zero-padding the basic window and inserting
 The MDCT output is divided into bands that are designed to match the ear's critical
 bands for the smallest (2.5&nbsp;ms) frame size. The larger frame sizes use integer
-multiplies of the 2.5&nbsp;ms layout. For each band, the encoder
+multiples of the 2.5&nbsp;ms layout. For each band, the encoder
 computes the energy that will later be encoded. Each band is then normalized by the
 square root of the <spanx style="strong">unquantized</spanx> energy, such that each band now forms a unit vector X.
 The energy and the normalization are computed by compute_band_energies()
@@ -4710,80 +6416,39 @@ and normalise_bands() (bands.c), respectively.
 <section anchor="energy-quantization" title="Energy Envelope Quantization">
-It is important to quantize the energy with sufficient resolution because
-any energy quantization error cannot be compensated for at a later
-stage. Regardless of the resolution used for encoding the shape of a band,
-it is perceptually important to preserve the energy in each band. CELT uses a
-coarse-fine strategy for encoding the energy in the base-2 log domain,
-as implemented in quant_bands.c</t>
-<section anchor="coarse-energy" title="Coarse energy quantization">
-The coarse quantization of the energy uses a fixed resolution of 6 dB.
-To minimize the bitrate, prediction is applied both in time (using the previous frame)
-and in frequency (using the previous bands). The prediction using the
-previous frame can be disabled, creating an "intra" frame where the energy
-is coded without reference to prior frames. An encoder is able to choose the
-mode used at will based on both loss robustness and efficiency
-The 2-D z-transform of
-the prediction filter is:
-<figure align="center">
-<artwork align="center"><![CDATA[
-                            -1          -1
-              (1 - alpha*z_l  )*(1 - z_b  )
-A(z_l, z_b) = -----------------------------
-                                 -1
-                     1 - beta*z_b
-where b is the band index and l is the frame index. The prediction coefficients
-applied depend on the frame size in use when not using intra energy and are alpha=0, beta=4915/32768
-when using intra energy.
-The time-domain prediction is based on the final fine quantization of the previous
-frame, while the frequency domain (within the current frame) prediction is based
-on coarse quantization only (because the fine quantization has not been computed
-yet). The prediction is clamped internally so that fixed point implementations with
-limited dynamic range do not suffer desynchronization.  Identical prediction
-clamping must be implemented in all encoders and decoders.
-We approximate the ideal
-probability distribution of the prediction error using a Laplace distribution
-with separate parameters for each frame size in intra and inter-frame modes. The
-coarse energy quantization is performed by quant_coarse_energy() and
-quant_coarse_energy() (quant_bands.c). The encoding of the Laplace-distributed values is
-implemented in ec_laplace_encode() (laplace.c).
+Energy quantization (both coarse and fine) can be easily understood from the decoding process.
+The quantizer simply minimizes the log energy error for each band, with the exception that at
+very low rate, larger errors are allowed in the coarse energy to minimize the bit-rate. When the
+avaialble CPU requirements allow it, it is best to try encoding the coarse energy both with and without
+inter-frame prediction such that the best prediction mode can be selected. The optimal mode depends on
+the coding rate, the available bit-rate, and the current rate of packet loss. 
+</section> <!-- Energy quant -->
-<!-- FIXME: bit budget consideration -->
-</section> <!-- coarse energy -->
-<section anchor="fine-energy" title="Fine energy quantization">
+<section title="Time-Frequency Decision">
-After the coarse energy quantization and encoding, the bit allocation is computed
-(<xref target="allocation"></xref>) and the number of bits to use for refining the
-energy quantization is determined for each band. Let B_i be the number of fine energy bits
-for band i; the refinement is an integer f in the range [0,2**B_i-1]. The mapping between f
-and the correction applied to the coarse energy is equal to (f+1/2)/2**B_i - 1/2. Fine
-energy quantization is implemented in quant_fine_energy()
+The choice of time-frequency resolution used in <xref target="tf-change"></xref> is based on
+rate-distortion (RD) optimization. The distortion is the L1-norm (sum of absolute values) of each band
+after each TF resolution under consideration. The L1 norm is used because it represents the entropy
+for a Laplacian source. The number of bits required to code a change in TF resolution between
+two bands is higher than the cost of having those two bands use the same resolution, which is
+what requires the RD optimization. The optimal decision is computed using the Viterbi algorithm.
+See tf_analysis() in celt/celt.c.
+<section title="Spreading Values Decision">
-If any bits are unused at the end of the encoding process, these bits are used to
-increase the resolution of the fine energy encoding in some bands. Priority is given
-to the bands for which the allocation (<xref target="allocation"></xref>) was rounded
-down. At the same level of priority, lower bands are encoded first. Refinement bits
-are added until there is no more room for fine energy or until each band
-has gained an additional bit of precision or has the maximum fine
-energy precision. This is implemented in quant_energy_finalise()
+The choice of the spreading value in <xref target="spread values"></xref> has an
+impact on the nature of the coding noise introduced by CELT. The larger the f_r value, the
+lower the impact of the rotation, and the more tonal the coding noise. The
+more tonal the signal, the more tonal the noise should be, so the CELT encoder determines 
+the optimal value for f_r by estimating how tonal the signal is. The tonality estimate
+is based on discrete pdf (4-bin histogram) of each band. Bands that have a large number of small
+values are considered more tonal and a decision is made by combining all bands with more than
+8 samples. See spreading_decision() in celt/bands.c.
-</section> <!-- fine energy -->
-</section> <!-- Energy quant -->
 <section anchor="pvq" title="Spherical Vector Quantization">
 <t>CELT uses a Pyramid Vector Quantization (PVQ) <xref target="PVQ"></xref>
@@ -4808,23 +6473,23 @@ L2 norm.
 The search for the best codevector y is performed by alg_quant()
 (vq.c). There are several possible approaches to the
-search with a tradeoff between quality and complexity. The method used in the reference
-implementation computes an initial codeword y1 by projecting the residual signal
-R = X - p' onto the codebook pyramid of K-1 pulses:
+search, with a trade-off between quality and complexity. The method used in the reference
+implementation computes an initial codeword y1 by projecting the normalized spectrum
+X onto the codebook pyramid of K-1 pulses:
-y0 = round_towards_zero( (K-1) * R / sum(abs(R)))
+y0 = truncate_towards_zero( (K-1) * X / sum(abs(X)))
 Depending on N, K and the input data, the initial codeword y0 may contain from
 0 to K-1 non-zero values. All the remaining pulses, with the exception of the last one,
 are found iteratively with a greedy search that minimizes the normalized correlation
-between y and R:
+between y and X:
 <figure align="center">
 <artwork align="center"><![CDATA[
-J = -R * y / ||y||
+J = -X * y / ||y||
@@ -4832,61 +6497,16 @@ J = -R * y / ||y||
 The search described above is considered to be a good trade-off between quality
 and computational cost. However, there are other possible ways to search the PVQ
-codebook and the implementers MAY use any other search methods.
+codebook and the implementers MAY use any other search methods. See alg_quant() in celt/vq.c.
-<section anchor="cwrs-encoding" title="Index Encoding">
-The best PVQ codeword is encoded as a uniformly-distributed integer value
-by encode_pulses() (cwrs.c).
-The codeword is converted from a unique index in the same way as specified in
-<xref target="PVQ"></xref>. The indexing is based on the calculation of V(N,K)
-(denoted N(L,K) in <xref target="PVQ"></xref>), which is the number of possible
-combinations of K pulses in N samples.
-<section anchor="stereo" title="Stereo support">
-When encoding a stereo stream, some parameters are shared across the left and right channels, while others are transmitted separately for each channel, or jointly encoded. Only one copy of the flags for the features, transients and pitch (pitch
-period and filter parameters) are transmitted. The coarse and fine energy parameters are transmitted separately for each channel. Both the coarse energy and fine energy (including the remaining fine bits at the end of the stream) have the left and right bands interleaved in the stream, with the left band encoded first.
-The main difference between mono and stereo coding is the PVQ coding of the normalized vectors. In stereo mode, a normalized mid-side (M-S) encoding is used. Let L and R be the normalized vector of a certain band for the left and right channels, respectively. The mid and side vectors are computed as M=L+R and S=L-R and no longer have unit norm.
-From M and S, an angular parameter theta=2/pi*atan2(||S||, ||M||) is computed. The theta parameter is converted to a Q14 fixed-point parameter itheta, which is quantized on a scale from 0 to 1 with an interval of 2**(-qb), where qb is
-based the number of bits allocated to the band. From here on, the value of itheta MUST be treated in a bit-exact manner since both the encoder and decoder rely on it to infer the bit allocation.
-Let m=M/||M|| and s=S/||S||; m and s are separately encoded with the PVQ encoder described in <xref target="pvq"></xref>. The number of bits allocated to m and s depends on the value of itheta.
-<section anchor="synthesis" title="Synthesis">
-After all the quantization is completed, the quantized energy is used along with the
-quantized normalized band data to resynthesize the MDCT spectrum. The inverse MDCT (<xref target="inverse-mdct"></xref>) and the weighted overlap-add are applied and the signal is stored in the "synthesis
-The encoder MAY omit this step of the processing if it does not need the decoded output.
-<section anchor="vbr" title="Variable Bitrate (VBR)">
-Each CELT frame can be encoded in a different number of octets, making it possible to vary the bitrate at will. This property can be used to implement source-controlled variable bitrate (VBR). Support for VBR is OPTIONAL for the encoder, but a decoder MUST be prepared to decode a stream that changes its bitrate dynamically. The method used to vary the bitrate in VBR mode is left to the implementer, as long as each frame can be decoded by the reference decoder.
@@ -4907,18 +6527,20 @@ the latter shall take precedence.
 Compliance with this specification means that a decoder's output MUST be
- within the thresholds specified by the opus_compare.c tool in
- <xref target="opus-compare"/> compared to the reference implementation.
+ within the thresholds specified by the opus_compare.c tool (included
+ with the code) when compared to the reference implementation. Either the floating-point
+ implementation or the fixed-point implementation can be used as a reference and being
+ within the threshold for one of the two is sufficient.
 To complement the Opus specification, the "Opus Custom" codec is defined to
-handle special sampling rates and frame rates that are not supported by the
+handle special sample rates and frame rates that are not supported by the
 main Opus specification. Use of Opus Custom is discouraged for all but very
-special applications for which a frame size different from 2.5, 5, 10, 20 ms is
+special applications for which a frame size different from 2.5, 5, 10, or 20&nbsp;ms is
 needed (for either complexity or latency reasons). Such applications will not
 be compatible with the "main" Opus codec. In Opus Custom operation,
-only the CELT later is available, which is available using the celt_* function
+only the CELT layer is available, which is available using the celt_* function
 calls in celt.h.
@@ -4927,7 +6549,7 @@ calls in celt.h.
 <section anchor="security" title="Security Considerations">
-The codec needs to take appropriate security considerations
+Implementations of the Opus codec need to take appropriate security considerations
 into account, as outlined in <xref target="DOS"/> and <xref target="SECGUIDE"/>.
 It is extremely important for the decoder to be robust against malicious
@@ -4935,7 +6557,7 @@ Malicious payloads must not cause the decoder to overrun its allocated memory
  or to take an excessive amount of resources to decode.
 Although problems
 in encoders are typically rarer, the same applies to the encoder. Malicious
-audio stream must not cause the encoder to misbehave because this would
+audio streams must not cause the encoder to misbehave because this would
 allow an attacker to attack transcoding gateways.
@@ -4943,22 +6565,47 @@ The reference implementation contains no known buffer overflow or cases where
  a specially crafted packet or audio segment could cause a significant increase
  in CPU load.
 However, on certain CPU architectures where denormalized floating-point
- operations are much slower than normal floating-point operations it is
- possible for some audio content (e.g., silence or near-silence) to cause such
+ operations are much slower than normal floating-point operations, it is
+ possible for some audio content (e.g., silence or near-silence) to cause a certain
  an increase in CPU load.
 Denormals can be introduced by reordering operations in the compiler and depend
- on the target architecture, so it is difficult to guarantee an implementation
+ on the target architecture, so it is difficult to guarantee that an implementation
  avoids them.
-For such architectures, it is RECOMMENDED that one add very small
- floating-point offsets to prevent significant numbers of denormalized
- operations or to configure the hardware to treat denormals as zero (DAZ).
-<!--TODO: Add small offsets to what? We should be explicit-->
+For architectures on which denormals are problematic, adding very small
+ floating-point offsets to the affected signals to prevent significant numbers
+ of denormalized operations is RECOMMENDED.
+Alternatively, it is often possible to configure the hardware to treat
+ denormals as zero (DAZ).
 No such issue exists for the fixed-point reference implementation.
+<t>The reference implementation was validated in the following conditions:
+<list style="numbers">
+Sending the decoder valid packets generated by the reference encoder and
+ verifying that the decoder's final range coder state matches that of the
+ encoder.
+Sending the decoder packets generated by the reference encoder and then
+ subjected to random corruption.
+<t>Sending the decoder random packets.</t>
+Sending the decoder packets generated by a version of the reference encoder
+ modified to make random coding decisions (internal fuzzing), including mode
+ switching, and verifying that the range coder final states match.
+In all of the conditions above, both the encoder and the decoder were run
+ inside the <eref target="http://valgrind.org/">Valgrind</eref> memory
+ debugger, which tracks reads and writes to invalid memory regions as well as
+ the use of uninitialized memory.
+There were no errors reported on any of the tested conditions.
-<section title="IANA Considerations ">
+<section title="IANA Considerations">
 This document has no actions for IANA.
@@ -4968,9 +6615,9 @@ This document has no actions for IANA.
 Thanks to all other developers, including Raymond Chen, Soeren Skak Jensen, Gregory Maxwell,
 Christopher Montgomery, and Karsten Vandborg Soerensen. We would also
-like to thank Igor Dyakonov, Jan Skoglund for their help with subjective testing of the
-Opus codec. Thanks to John Ridges, Keith Yan and many others on the Opus and CELT mailing lists
-for their bug reports and feeback.
+like to thank Igor Dyakonov, Jan Skoglund, and Christian Hoene for their help with subjective testing of the
+Opus codec. Thanks to Ralph Giles, John Ridges, Ben Schwartz, Keith Yan, Christian Hoene, Kat Walsh, and many others on the Opus and CELT mailing lists
+for their bug reports and feedback.
@@ -4978,8 +6625,39 @@ for their bug reports and feeback.
+<references title="Normative References">
+<reference anchor="rfc2119">
+<title>Key words for use in RFCs to Indicate Requirement Levels </title>
+<author initials="S." surname="Bradner" fullname="Scott Bradner"></author>
+<seriesInfo name="RFC" value="2119" />
 <references title="Informative References">
+<reference anchor='requirements'>
+<title>Requirements for an Internet Audio Codec</title>
+<author initials='J.-M.' surname='Valin' fullname='J.-M. Valin'>
+<organization /></author>
+<author initials='K.' surname='Vos' fullname='K. Vos'>
+<organization /></author>
+<date year='2011' month='August' />
+<t>This document provides specific requirements for an Internet audio
+   codec.  These requirements address quality, sample rate, bit-rate,
+   and packet-loss robustness, as well as other desirable properties.
+<seriesInfo name='RFC' value='6366' />
+<format type='TXT' target='http://tools.ietf.org/rfc/rfc6366.txt' />
 <reference anchor='SILK'>
 <title>SILK Speech Codec</title>
@@ -5015,25 +6693,6 @@ for their bug reports and feeback.
         <seriesInfo name="ICASSP-1991, Proc. IEEE Int. Conf. Acoust., Speech, Signal Processing, pp. 641-644, October" value="1991"/>
-      <reference anchor="sinervo-norsig">
-        <front>
-          <title abbrev="SVQ versus MSVQ">Evaluation of Split and Multistage Techniques in LSF Quantization</title>
-          <author initials="U.S." surname="Sinervo" fullname="Ulpu Sinervo">
-            <organization/>
-          </author>
-          <author initials="J.N." surname="Nurminen" fullname="Jani Nurminen">
-            <organization/>
-          </author>
-          <author initials="A.H." surname="Heikkinen" fullname="Ari Heikkinen">
-            <organization/>
-          </author>
-          <author initials="J.S." surname="Saarinen" fullname="Jukka Saarinen">
-            <organization/>
-          </author>
-        </front>
-        <seriesInfo name="NORSIG-2001, Norsk symposium i signalbehandling, Trondheim, Norge, October" value="2001"/>
-      </reference>
       <reference anchor="leblanc-tsap">
           <title>Efficient Search and Design Procedures for Robust Multi-Stage VQ of LPC Parameters for 4&nbsp;kb/s Speech Coding</title>
@@ -5058,7 +6717,7 @@ for their bug reports and feeback.
 <title>Constrained-Energy Lapped Transform (CELT) Codec</title>
 <author initials='J-M.' surname='Valin' fullname='J-M. Valin'>
 <organization /></author>
-<author initials='T.' surname='Terriberry' fullname='T. Terriberry'>
+<author initials='T&#x2E;B.' surname='Terriberry' fullname='Timothy B. Terriberry'>
 <organization /></author>
 <author initials='G.' surname='Maxwell' fullname='G. Maxwell'>
 <organization /></author>
@@ -5072,6 +6731,21 @@ for their bug reports and feeback.
 <format type='TXT' target='http://tools.ietf.org/html/draft-valin-celt-codec-02' />
+<reference anchor='SRTP-VBR'>
+<title>Guidelines for the use of Variable Bit Rate Audio with Secure RTP</title>
+<author initials='C.' surname='Perkins' fullname='K. Vos'>
+<organization /></author>
+<author initials='J.M.' surname='Valin' fullname='J.M. Valin'>
+<organization /></author>
+<date year='2011' month='July' />
+<seriesInfo name='Internet-Draft' value='draft-ietf-avtcore-srtp-vbr-audio-03' />
+<format type='TXT' target='http://tools.ietf.org/html/draft-ietf-avtcore-srtp-vbr-audio-03' />
 <reference anchor='DOS'>
 <title>Internet Denial-of-Service Considerations</title>
@@ -5137,18 +6811,44 @@ for their bug reports and feeback.
 <section anchor="ref-implementation" title="Reference Implementation">
 <t>This appendix contains the complete source code for the
-reference implementation of the Opus codec written in C. This
-implementation can be compiled for
-either floating-point or fixed-point architectures.
+reference implementation of the Opus codec written in C. By default, 
+this implementation relies on floating-point arithmetic, but it can be
+compiled to use only fixed-point arithmetic by defining the FIXED_POINT
+macro. Information on building and using the reference implementation is
+available in the README file.
 <t>The implementation can be compiled with either a C89 or a C99
 compiler. It is reasonably optimized for most platforms such that
 only architecture-specific optimizations are likely to be useful.
-The FFT used is a slightly modified version of the KISS-FFT package,
+The FFT used is a slightly modified version of the KISS-FFT library,
 but it is easy to substitute any other FFT library.
+While the reference implementation does not rely on any 
+<spanx style="emph">undefined behavior</spanx> as defined by C89 or C99,
+it relies on common <spanx style="emph">implementation-defined behavior</spanx>
+for two's complement architectures:
+<list style="symbols">
+<t>Right shifts of negative values are consistent with two's complement arithmetic, so that a>>b is equivalent to floor(a/(2^b))</t>
+<t>For conversion to a signed integer of N bits, the value is reduced modulo 2^N to be within range of the type</t>
+<t>The result of integer division of a negative values is truncated towards zero</t>
+<t>The compiler provides a 64-bit integer type (a C99 requirement which is supported by most c89 compilers)</t>
+In its current form, the reference implementation also requires the following
+architectural characteristics to obtain acceptable performance:
+<list style="symbols">
+<t>two's complement arithmetic</t>
+<t>at least a 16 bit by 16 bit integer multiplier (32-bit result)</t>
+<t>at least a 32-bit adder/accumulator</t>
 <section title="Extracting the source">
 The complete source code can be extracted from this draft, by running the
@@ -5156,7 +6856,7 @@ following command line:
 <list style="symbols">
-cat draft-ietf-codec-opus.txt | grep '^\ \ \ ###' | sed 's/\s\s\s###//' | base64 -d > opus_source.tar.gz
+cat draft-ietf-codec-opus.txt | grep '^\ \ \ ###' | sed -e 's/\s\s\s###//' | base64 -d > opus_source.tar.gz
 tar xzvf opus_source.tar.gz
@@ -5165,6 +6865,14 @@ tar xzvf opus_source.tar.gz
+On systems where the base64 utility is not present, the following commands can be used instead:
+<list style="symbols">
+cat draft-ietf-codec-opus.txt | grep '^\ \ \ ###' | sed -e 's/\s\s\s###//' > opus.b64
+<t>openssl base64 -d -in opus.b64 > opus_source.tar.gz</t>
@@ -5184,13 +6892,7 @@ Development snapshots are provided at
-<section anchor="opus-compare" title="opus_compare.c">
-<?rfc include="opus_compare_escaped.c"?>
 <section anchor="self-delimiting-framing" title="Self-Delimiting Framing">
 To use the internal framing described in <xref target="modes"/>, the decoder
@@ -5210,7 +6912,7 @@ It is RECOMMENDED that a transport layer choose exactly one framing scheme,
 For example, although a regular Opus stream does not support more than two
  channels, a multi-channel Opus stream may be formed from several one- and
  two-channel streams.
-To pack an Opus packets from each of these streams together in a single packet
+To pack an Opus packet from each of these streams together in a single packet
  at the transport layer, one could use the self-delimiting framing for all but
  the last stream, and then the regular, undelimited framing for the last one.
 Reverting to the undelimited framing for the last stream saves overhead