|
Проблемы передачи информации, 1996, том 32, выпуск 1, страницы 35–40
(Mi ppi299)
|
|
|
|
Неравенства и алгоритмы универсального сжатия данных
Д. Зив
Аннотация:
Описываются неасимптотические равномерные границы эффективности алгоритмов сжатия данных в случае, когда длина $N$ доступной для кодера обучающей выборки (“предыстории”) недостаточно велика для получения максимального сжатия, а именно, энтропии источника. Конечной целью является
рассмотрение двух характеристик: энтропии $\ell$-го порядка $H(X_1^\ell)$ и связанной с ней условной энтропии $H(X_1^{\ell-k}|X_{-k+1}^0)$. Установленные границы основаны на классическом теоретико-информационном использовании свойства выпуклости. Тем не менее, показывается, что рассуждения о выпуклости, которые годятся для одних случаев, полностью бесполезны для других. Кроме того, эти классические рассуждения, если их правильно использовать, ведут к построению
эффективных алгоритмов сжатия данных в каждом из рассмотренных случаев.
В работе рассматриваются только однозначно декодируемые коды с фиксированной
длиной на входе и переменной длиной на выходе.
Образец цитирования:
Д. Зив, “Неравенства и алгоритмы универсального сжатия данных”, Пробл. передачи информ., 32:1 (1996), 35–40; Problems Inform. Transmission, 32:1 (1996), 28–32
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/ppi299 https://www.mathnet.ru/rus/ppi/v32/i1/p35
|
Статистика просмотров: |
Страница аннотации: | 308 | PDF полного текста: | 129 | Первая страница: | 1 |
|