Асимметричные системы счисления - Asymmetric numeral systems
Эта статья включает в себя список общих Рекомендации, но он остается в основном непроверенным, потому что ему не хватает соответствующих встроенные цитаты.Май 2017 г.) (Узнайте, как и когда удалить этот шаблон сообщения) ( |
Системы счисления |
---|
Индусско-арабская система счисления |
Восточная Азия |
Европейский |
Американец |
По алфавиту |
Бывший |
Позиционные системы к основание |
Нестандартные позиционные системы счисления |
Список систем счисления |
Асимметричные системы счисления (ANS)[1] это семья энтропийное кодирование методы, введенные Ярославом (Ярек) Дудой[2] из Ягеллонский университет, используется в Сжатие данных с 2014 года[3] благодаря улучшенной производительности по сравнению с ранее используемыми методами, которая работает до 30 раз быстрее.[4] ANS сочетает в себе степень сжатия арифметическое кодирование (который использует почти точное распределение вероятностей), со стоимостью обработки, аналогичной стоимости Кодирование Хаффмана. В табличном варианте ANS (tANS) это достигается путем построения конечный автомат работать с большим алфавитом без умножения.
Среди прочего, ANS используется в Facebook Zстандарт компрессор[5][6] (также используется, например, в Linux ядро[7] Android[8] операционная система, была опубликована как RFC 8478 за MIME[9] и HTTP[10]), в яблоко LZFSE компрессор[11] Google Компрессор Draco 3D[12](используется, например, в Pixar Универсальное описание сцены формат[13]) и компрессор изображений ПИК,[14] в CRAM Компрессор ДНК[15] из SAMtools коммунальные услуги, Dropbox Компрессор ДивАНС,[16] И в JPEG XL[17] стандарт сжатия изображений нового поколения.
Основная идея - закодировать информацию в одно натуральное число. . В стандартной двоичной системе счисления мы можем добавить немного информации для добавив в конце что дает нам .Для энтропийного кодировщика это оптимально, если .ANS обобщает этот процесс для произвольных наборов символов. с соответствующим распределением вероятностей .В ANS, если является результатом добавления информации из к , тогда . Эквивалентно, , куда это количество бит информации, хранящейся в числе и это количество битов, содержащихся в символе .
Для правила кодирования набор натуральных чисел разбивается на непересекающиеся подмножества, соответствующие разным символам - например, на четные и нечетные числа, но с плотностями, соответствующими распределению вероятностей символов для кодирования. Затем добавить информацию из символа в информацию, уже сохраненную в текущем номере , идем к номеру позиция -й выход из -е подмножество.
Есть альтернативные способы его применения на практике - прямые математические формулы для шагов кодирования и декодирования (варианты uABS и rANS) или можно поместить все поведение в таблицу (вариант tANS). Ренормализация используется для предотвращения переход к бесконечности - передача накопленных битов в поток битов или из него.
Энтропийное кодирование
Предположим, что будет закодирована последовательность из 1000 нулей и единиц, что потребует 1000 бит для непосредственного сохранения. Однако, если каким-то образом известно, что он содержит только 1 ноль и 999 единиц, было бы достаточно закодировать положение нуля, что требует только здесь бит вместо исходных 1000 бит.
Обычно такая длина последовательности, содержащие нули и те, с некоторой вероятностью , называются комбинации. С помощью Приближение Стирлинга мы получаем их асимптотическое число
называется Энтропия Шеннона.
Следовательно, чтобы выбрать одну такую последовательность, нам потребуется примерно биты. Это все еще биты, если однако он также может быть намного меньше. Например нам нужно только биты для .
An энтропийный кодер позволяет кодировать последовательность символов, используя приблизительно биты энтропии Шеннона на символ. Например, ANS можно напрямую использовать для перечисления комбинаций: назначать разные натуральные числа каждой последовательности символов, имеющих фиксированные пропорции, почти оптимальным образом.
В отличие от комбинаций кодирования, это распределение вероятностей обычно варьируется в компрессорах данных. Для этой цели энтропию Шеннона можно рассматривать как средневзвешенное значение: символ вероятности содержит биты информации. ANS кодирует информацию в одно натуральное число , интерпретируется как содержащий биты информации. Добавление информации из символа вероятности увеличивает это информационное содержание до . Следовательно, новый номер, содержащий обе информации, должен быть .
Основные понятия ВНС
Представьте, что есть некоторая информация, хранящаяся в натуральном числе. , например, как битовая последовательность его двоичного расширения. Чтобы добавить информацию из двоичной переменной , мы можем использовать функцию кодирования , который сдвигает все биты на одну позицию вверх и помещает новый бит в наименее значимую позицию. Теперь функция декодирования позволяет получить предыдущий и этот добавленный бит: . Мы можем начать с начальное состояние, затем используйте функция на последовательных битах конечной последовательности битов для получения окончательного число, хранящее всю эту последовательность. Затем используя работать несколько раз, пока позволяет получить битовую последовательность в обратном порядке.
Описанная выше процедура оптимальна для равномерного (симметричного) распределения вероятностей символов . ANS обобщает его, чтобы сделать его оптимальным для любого выбранного (асимметричного) распределения вероятностей символов: . Пока в приведенном выше примере был выбор между четным и нечетным , в ANS это четное / нечетное деление натуральных чисел заменено делением на подмножества, имеющие плотности, соответствующие предполагаемому распределению вероятностей : до позиции , примерно вхождения символа .
Функция кодирования возвращает -е появление из такого подмножества, соответствующее символу . Предположение о плотности эквивалентно условию . Предполагая, что натуральное число содержит битовая информация, . Следовательно, символ вероятности кодируется как содержащий бит информации, которая требуется от энтропийные кодеры.
Единый двоичный вариант (uABS)
Начнем с двоичного алфавита и распределения вероятностей , . До позиции мы хотим примерно аналоги нечетных чисел (для ). Мы можем выбрать это количество появлений как , получающий . Этот вариант называется uABS и приводит к следующим функциям декодирования и кодирования:[18]
Расшифровка:
s = потолок((Икс+1)*п) - потолок(Икс*п) // 0, если фракт (x * p) <1-p, иначе 1если s = 0 тогда new_x = Икс - потолок(Икс*п) // D (x) = (new_x, 0)если s = 1 тогда new_x = потолок(Икс*п) // D (x) = (new_x, 1)
Кодировка:
если s = 0 тогда new_x = потолок((Икс+1)/(1-п)) - 1 // C (x, 0) = new_xесли s = 1 тогда new_x = этаж(Икс/п) // C (x, 1) = new_x
За это составляет стандартную двоичную систему (с перевернутыми 0 и 1), для другого он становится оптимальным для данного распределения вероятностей. Например, для эти формулы приводят к таблице для малых значений :
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | ||||||||
0 | 1 | 2 | 3 | 4 | 5 | 6 |
Символ соответствует подмножеству натуральных чисел с плотностью , которые в данном случае являются позициями . В качестве , эти позиции увеличиваются на 3 или 4. Поскольку здесь узор символов повторяется каждые 10 позиций.
Кодирование можно найти, взяв строку, соответствующую данному символу , и выбирая данный в этом ряду. Тогда в верхнем ряду . Например, от среднего до верхнего ряда.
Представьте, что мы хотели бы закодировать последовательность '0100', начиная с . Первый приводит нас к , тогда к , тогда к , тогда к . Используя функцию декодирования на этом финале , мы можем получить последовательность символов. Используя для этого таблицу, в первой строке определяет столбец, затем непустая строка и записанное значение определяют соответствующий и .
Варианты диапазона (rANS) и потоковая передача
Вариант диапазона также использует арифметические формулы, но позволяет работать с большим алфавитом. Интуитивно он делит набор натуральных чисел на размер. диапазонов и разделить каждый из них идентичным образом на поддиапазоны пропорций, заданных предполагаемым распределением вероятностей.
Начнем с квантования распределения вероятностей до знаменатель, где выбирается (обычно 8-12 бит): для некоторых естественных числа (размеры поддиапазонов).
Обозначить , кумулятивная функция распределения:
За обозначают функцию (обычно в таблице)
символ (y) = s такой, что CDF [s] <= y
Теперь функция кодирования:
C (x, s) = (floor (x / f [s]) << n) + (x% f [s]) + CDF [s]
Расшифровка: s = символ (x & маска)
D (x) = (f [s] * (x >> n) + (x & mask) - CDF [s], s)
Таким образом мы можем закодировать последовательность символов в большое натуральное число . Чтобы избежать использования арифметики с большими числами, на практике используются варианты потоков: путем перенормировки: отправка младших битов в битовый поток или из него (обычно и являются степенями 2).
В варианте RANS это например 32 бит. Для 16-битной перенормировки , декодер при необходимости перезаполняет младшие биты из битового потока:
если (x <(1 << 16)) x = (x << 16) + read16bits ()
Табличный вариант (tANS)
Вариант tANS помещает все поведение (включая перенормировку) для в таблицу, которая дает конечный автомат избегая необходимости умножения.
Наконец, шаг цикла декодирования можно записать как:
т = decodingTable(Икс); Икс = т.newX + readBits(т.nbBits); // переход состоянияwriteSymbol(т.символ); // декодированный символ
Шаг цикла кодирования:
s = ReadSymbol();nbBits = (Икс + нс[s]) >> р; // # бит для перенормировкиwriteBits(Икс, nbBits); // отправляем младшие биты в битовый потокИкс = encodingTable[Начните[s] + (Икс >> nbBits)];
Конкретное кодирование tANS определяется путем присвоения символа каждому позиции, их количество появлений должно быть пропорционально предполагаемой вероятности. Например, можно выбрать присвоение "abdacdac" для распределения вероятностей Pr (a) = 3/8, Pr (b) = 1/8, Pr (c) = 2/8, Pr (d) = 2/8. Если символы назначены в диапазонах длин, являющихся степенями двойки, мы получим Кодирование Хаффмана. Например, префиксный код a-> 0, b-> 100, c-> 101, d-> 11 будет получен для tANS с присвоением символа «aaaabcdd».
Замечания
Что касается кодирования Хаффмана, изменение распределения вероятностей tANS относительно дорого, поэтому оно в основном используется в статических ситуациях, обычно с некоторыми Лемпель-Зив схема (например, ZSTD, LZFSE). В этом случае файл разбивается на блоки - для каждого из них независимо подсчитываются частоты символов, которые после аппроксимации (квантования) записываются в заголовок блока и используются как статическое распределение вероятностей для tANS.
Напротив, rANS обычно используется как более быстрая замена кодирование диапазона (например. CRAM, ЛЗНА, Драко, АВ1). Он требует умножения, но более эффективен с точки зрения памяти и подходит для динамической адаптации распределений вероятностей.
Кодирование и декодирование ANS выполняются в противоположных направлениях, что делает его куча для символов. Это неудобство обычно устраняется путем кодирования в обратном направлении, после чего декодирование может выполняться вперед. Для зависимости от контекста, например Марковская модель кодировщику необходимо использовать контекст с точки зрения последующего декодирования. Для адаптивности кодировщик должен сначала пойти вперед, чтобы найти вероятности, которые будут использоваться (спрогнозированы) декодером, и сохранить их в буфере, а затем закодировать в обратном направлении, используя буферизованные вероятности.
Конечное состояние кодирования требуется для начала декодирования, следовательно, его необходимо сохранить в сжатом файле. Эти затраты могут быть компенсированы сохранением некоторой информации в исходном состоянии кодировщика. Например, вместо того, чтобы начинать с состояния «10000», начните с состояния «1 ****», где «*» - это некоторые дополнительные сохраненные биты, которые можно получить в конце декодирования. В качестве альтернативы это состояние можно использовать в качестве контрольной суммы, запустив кодирование с фиксированного состояния и проверив, является ли конечное состояние декодирования ожидаемым.
Смотрите также
- Энтропийное кодирование
- Кодирование Хаффмана
- Арифметическое кодирование
- Кодирование диапазона
- Zстандарт Компрессор Facebook
- LZFSE Компрессор Apple
Рекомендации
- ^ Дж. Дуда, К. Тахбуб, Н. Дж. Гадил, Э. Дж. Делп, Использование асимметричных систем счисления как точная замена кодирования Хаффмана, Симпозиум по кодированию изображений, 2015.
- ^ http://th.if.uj.edu.pl/~dudaj/
- ^ Дуда, Ярек (6 октября 2019 г.). «Список компрессоров, использующих ANS, реализации и другие материалы». Получено 6 октября, 2019.
- ^ "Google обвиняется в попытке запатентовать технологию общественного достояния". Пищевой компьютер. 11 сентября 2017 года.
- ^ Меньшее и быстрое сжатие данных с Zstandard, Facebook, август 2016 г.
- ^ 5 способов, которыми Facebook улучшил масштабирование с помощью Zstandard, Facebook, декабрь 2018 г.
- ^ Сжатие Zstd для Btrfs и Squashfs, установленное для Linux 4.14, уже используется в Facebook, Phoronix, сентябрь 2017
- ^ «Zstd в выпуске Android P».
- ^ Zstandard Compression и тип носителя application / zstd (стандарт электронной почты)
- ^ Параметры протокола передачи гипертекста (HTTP), IANA
- ^ Apple открывает исходный код своего нового алгоритма сжатия LZFSE, InfoQ, июль 2016 г.
- ^ Библиотека сжатия Google Draco 3D
- ^ Google и Pixar добавляют сжатие Draco в универсальный формат описания сцены (USD)
- ^ Google PIK: новый формат изображений с потерями для Интернета
- ^ Спецификация формата CRAM (версия 3.0)
- ^ Улучшение сжатия вместе с DivANS
- ^ Ратушняк Александр; Вассенберг, Ян; Снейерс, Джон; Алакуйяла, Юрки; Вандевенн, Лоде; Версари, Лука; Обрик, Роберт; Забадка, Золтан; Ключников, Евгений; Комса, Юлия-Мария; Потемпа, Кшиштоф; Брюс, Мартин; Фиршинг, Мориц; Хасанова, Рената; Рууд ван Асселдонк; Букортт, Сами; Гомес, Себастьян; Фишбахер, Томас (2019). «Проект комитета системы кодирования изображений JPEG XL». arXiv:1908.03565 [eess.IV ].
- ^ Объяснение сжатия данных, Мэтт Махони
внешняя ссылка
- Аппаратные архитектуры с высокой пропускной способностью для энтропийного кодирования асимметричных систем счисления С. М. Наджмабади, З. Ван, Ю. Баруд, С. Саймон, ISPA 2015
- https://github.com/Cyan4973/FiniteStateEntropy Конечная энтропия (FSE) реализации tANS Янн Колле
- https://github.com/rygorous/ryg_rans Внедрение rANS Фабианом Гизеном
- https://github.com/jkbonfield/rans_static Быстрая реализация rANS и аритметического кодирования Джеймсом К. Бонфилдом
- https://github.com/facebook/zstd/ Facebook Zстандарт компрессор Янн Колле (автор LZ4 )
- https://github.com/lzfse/lzfse LZFSE компрессор (LZ + FSE) Apple Inc.
- Компрессор CRAM 3.0 DNA (заказ 1 rANS) (часть SAMtools ) к Европейский институт биоинформатики
- https://chromium-review.googlesource.com/#/c/318743 реализация для Google VP10
- https://chromium-review.googlesource.com/#/c/338781/ реализация для Google WebP
- https://github.com/google/draco/tree/master/core Google Библиотека сжатия Draco 3D
- https://aomedia.googlesource.com/aom/+/master/aom_dsp реализация Альянс открытых СМИ
- http://demonstrations.wolfram.com/DataCompressionUsingAsymmetricNumeralSystems/ Вольфрам Демонстрационный проект
- http://gamma.cs.unc.edu/GST/ GST: суперсжатый с возможностью декодирования с помощью графического процессора Текстуры
- Что такое сжатие книга А. Хэки, К. Маканлиса