|
Проблемы передачи информации, 2016, том 52, выпуск 4, страницы 3–13
(Mi ppi2218)
|
|
|
|
Эта публикация цитируется в 3 научных статьях (всего в 3 статьях)
Теория информации
О некоторых экстремальных задачах для взаимной информации и энтропии
В. В. Прелов Институт проблем передачи информации им. А. А. Харкевича РАН
Аннотация:
Рассматривается задача о нахождении максимума информации $I(X;Y)$ и минимума энтропии $H(X,Y)$ пары дискретных случайных величин $X$ и $Y$ при условии, что распределение вероятностей случайной величины $X$ фиксировано, а вероятность ошибки $\mathrm{Pr}\{Y\ne X\}$ принимает заданное значение $\varepsilon$, $0\le\varepsilon\le1$. Найдены точные значения для указанных величин, что позволяет в ряде случаев получить явные формулы как для максимума информации, так и для минимума энтропии в терминах распределения $X$ и параметра $\varepsilon$.
Поступила в редакцию: 01.12.2015 После переработки: 14.10.2016
Образец цитирования:
В. В. Прелов, “О некоторых экстремальных задачах для взаимной информации и энтропии”, Пробл. передачи информ., 52:4 (2016), 3–13; Problems Inform. Transmission, 52:4 (2016), 319–328
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/ppi2218 https://www.mathnet.ru/rus/ppi/v52/i4/p3
|
|