Математический сборник
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Скоро в журнале
Архив
Импакт-фактор
Правила для авторов
Лицензионный договор
Загрузить рукопись
Историческая справка

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Матем. сб.:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Математический сборник, 2021, том 212, номер 11, страницы 89–108
DOI: https://doi.org/10.4213/sm9484
(Mi sm9484)
 

Эта публикация цитируется в 1 научной статье (всего в 1 статье)

Об оптимальном восстановлении значений линейных операторов по информации, известной со случайной ошибкой

К. Ю. Кривошеев

Московский физико-технический институт (национальный исследовательский университет), г.  Долгопрудный, Московская обл.
Список литературы:
Аннотация: Рассмотрена задача оптимального восстановления значений линейных операторов на классах элементов, информация о которых известна со случайной ошибкой. Построены линейные оптимальные методы восстановления, которые используют, вообще говоря, не всю доступную для измерения информацию. В качестве следствия приводится оптимальный метод восстановления функции по конечному набору ее коэффициентов Фурье, заданных со случайной ошибкой.
Библиография: 14 названий.
Ключевые слова: оптимальное восстановление, минимаксное оценивание, коэффициенты Фурье, экстремальная задача, линейный оператор.
Поступила в редакцию: 24.07.2020 и 08.04.2021
Англоязычная версия:
Sbornik: Mathematics, 2021, Volume 212, Issue 11, Pages 1588–1607
DOI: https://doi.org/10.1070/SM9484
Реферативные базы данных:
Тип публикации: Статья
УДК: 517.518.8
MSC: 41A65

§ 1. Введение

Работа посвящена построению оптимальных методов восстановления значений одного семейства линейных операторов на классах элементов, информация о которых известна со случайной ошибкой. Сама проблематика оптимального восстановления значений линейных функционалов и операторов на классах множеств возникла в 60-е годы прошлого века (см. [1]–[5]) и касалась случая, когда информация об элементах этих множеств известна с детерминированной ошибкой. Общая постановка задачи оптимального восстановления в этой ситуации такова.

Пусть $X$ – векторное пространство, $Z$ – нормированное пространство и $T$: $X\to Z$ – линейный оператор. Наша цель заключается в том, чтобы наилучшим образом восстановить значения оператора $T$ на множестве (классе) $W\subset X$ по приближенной информации об элементах $W$. Точнее говоря, пусть задан линейный оператор $I\colon X\to \mathbb R^n$ и $\delta>0$. Информация о любом $x \in W$ представляет собой некоторый вектор $y = y(x) \in \mathbb{R}^n$ такой, что

$$ \begin{equation*} \|y-I(x)\| \leqslant \delta, \end{equation*} \notag $$
где $\|\cdot\|$ – какая-либо норма в $\mathbb R^n$.

Каждое отображение $\varphi\colon\mathbb R^n\to Z$ будем называть методом восстановления (значений оператора $T$ на множестве $W$). Погрешность метода $\varphi$ задается формулой

$$ \begin{equation*} e_0(T,W, \varphi)=\sup_{x \in W} \sup_{\substack{y \in \mathbb R^n\colon \\ \|y-I(x)\| \leqslant \delta}}\|T(x)-\varphi(y)\|_{Z}. \end{equation*} \notag $$
Оптимальный метод восстановления – это отображение $\widehat \varphi\colon\mathbb R^n\to Z$ с минимальной погрешностью, т.е.
$$ \begin{equation*} e_0(T,W, \widehat\varphi)=\inf_{\varphi} e_0(T,W, \varphi), \end{equation*} \notag $$
где инфимум берется по всем отображениям $\varphi\colon\mathbb R^n\to Z$.

Задача состоит в поиске оптимального метода восстановления (если он существует) и числа

$$ \begin{equation*} E_0(T,W)=\inf_{\varphi} e_0(T,W, \varphi), \end{equation*} \notag $$
где нижняя грань также берется по всем отображениям $\varphi\colon\mathbb R^n\to Z$, называемого погрешностью оптимального восстановления.

К настоящему времени имеется значительное число работ, в которых для различных задач восстановления найдены оптимальные методы (см. [6]–[10]).

Задача, подобная изложенной, рассматривается и в математической статистике, где информация об $x \in W$ представляет собой случайный вектор $y=y(x)$, распределенный по нормальному закону с математическим ожиданием $I(x)$ и ковариационной матрицей $\delta^2 \operatorname{Id}_n$ для всех $x\in W$ (здесь $\operatorname{Id}_n$ – единичная матрица порядка $n$), а погрешность восстановления определяется как

$$ \begin{equation} e_1(T,W, \varphi)=\sqrt{ \sup_{x \in W} \mathbb E \|T(x)- \varphi(y(x))\|_{Z}^2}, \end{equation} \tag{1.1} $$
где $\mathbb E$ обозначает математическое ожидание.

Такой постановке также посвящено немало работ (см., например, [11]–[14]). Несмотря на то, что формулировки задач с детерминированной и случайной ошибками весьма схожи, подходы к их решениям и полученные результаты во многом различаются. В частности, известно, что для задачи (1.1) даже в простейшем одномерном случае оптимальный метод нелинеен (см. [11], [12], [14]). Для задач оптимального восстановления с детерминированной ошибкой разработаны достаточно эффективные методы исследования, основанные на общей теории экстремума, которые позволяют в разных задачах находить оптимальные методы восстановления. В связи с этим представляется интересным адаптировать эти подходы к задачам оптимального восстановления и со случайной ошибкой. При этом мы не будем ограничиваться только нормальным распределением, а будем рассматривать произвольные распределения вектора $y(x)$ c фиксированным математическим ожиданием $I(x)$ и фиксированной оценкой для дисперсии.

Более точно, для каждого $x\in W$ и $\delta>0$ рассмотрим множество вероятностных распределений в $\mathbb R^n$

$$ \begin{equation} Y_\delta(x)=\bigl\{y=(y_{1}, y_{2}, \dots, y_{n}) \colon \mathbb E y=I(x), \,\mathbb V y_{k} \leqslant \delta^2, \, k=1, \dots, n \bigr\} \end{equation} \tag{1.2} $$
(здесь $\mathbb V$ обозначает дисперсию) и определим погрешность метода $\varphi\colon\mathbb R^n\to Z$ по формуле
$$ \begin{equation} e(T, W, \varphi)=\sqrt{\sup_{x \in W} \sup_{y \in Y_{\delta}(x)} \mathbb E \|T(x)- \varphi(y)\|_{Z}^2} \end{equation} \tag{1.3} $$
(будем рассматривать только те методы, для которых погрешность (1.3) определена).

Как и ранее, оптимальным методом восстановления называется отображение $\widehat \varphi\colon\mathbb R^n\to Z$ с минимальной погрешностью, т.е.

$$ \begin{equation*} e(T,W, \widehat\varphi)=\inf_{\varphi} e(T,W, \varphi). \end{equation*} \notag $$
Иными словами, оптимальный метод $\widehat{\varphi}$ обладает следующим свойством: супремум по всем парам $x \in W$, $y \in Y_{\delta}(x)$ величины $\mathbb E \|Tx-\varphi(y)\|^2$ минимален при $\varphi=\widehat{\varphi}$.

Задача состоит в поиске оптимального метода восстановления (если он существует) и погрешности оптимального восстановления

$$ \begin{equation*} E(T,W)=\inf_{\varphi} e(T,W, \varphi). \end{equation*} \notag $$

В настоящей работе рассматривается именно такая задача оптимального восстановления, о которой мы будем говорить как о задаче оптимального восстановления значений оператора $T$ на классе $W$ по информации (1.2). Для операторов определенного вида найдены оптимальные методы и точные значения погрешности оптимального восстановления. При этом различные эффекты, обнаруженные в задачах восстановления с детерминированной ошибкой (например, линейность оптимального метода и возможность использовать не всю доступную для измерения информацию), проявляются и здесь. В качестве следствия полученные результаты применяются к задаче оптимального восстановления функции по ее конечному набору коэффициентов Фурье, заданных со случайной ошибкой.

Благодарность

Автор выражает искреннюю благодарность Г. Г. Магарил-Ильяеву и К. Ю. Осипенко за постановку задачи и внимание к работе.

§ 2. Постановка задачи

Пусть $l_2$ – вещественное пространство суммируемых с квадратом последовательностей $x=(x_1,x_2,\dots)$. Если $e_1,e_2,\dots$ – стандартный базис в $l_2$, то $x=\sum_{k=1}^\infty x_k e_k$.

Пусть $\nu_k > 0$, $k=1,2,\dots$ . Определим подпространство $\mathcal W$ в $l_2$ и множество $W$ по правилу

$$ \begin{equation*} \mathcal{W}=\biggl\{x \in l_2\colon \sum_{k=1}^{\infty} \nu_{k} |x_{k}|^2 < \infty \biggr\}, \qquad W=\biggl\{x \in \mathcal{W}\colon \sum_{k=1}^{\infty} \nu_{k} |x_{k}|^2 \leqslant 1 \biggr\}. \end{equation*} \notag $$

Пусть, наконец, ненулевые вещественные числа $\mu_k$, $k=1,2,\dots$, таковы, что $|\mu_k|^2\leqslant C \nu_k$ для всех $k=1,2,\dots$ и некоторого $C>0$. Определим линейные операторы $T\colon \mathcal W\to l_2$ и $I\colon \mathcal W\to \mathbb R^{n}$ соответственно по формулам

$$ \begin{equation*} Tx=(\mu_1x_1,\mu_2x_2,\dots),\qquad Ix=(x_1,x_2,\dots,x_n), \end{equation*} \notag $$
где $x=(x_1,x_2,\dots)$.

Если обозначить $X=\mathcal W$ и $Z=l_2$, то в соответствии с общей постановкой нас интересует задача оптимального восстановления значений оператора $T$ на классе $W$ по информации (1.2).

§ 3. Основная теорема

Теорема 1. Пусть числа $\nu_{k}$ и $\mu_{k}$ таковы, что последовательность $\gamma_k=\sqrt{\nu_k}/|\mu_k|$, $k\in\mathbb N$, возрастает и

$$ \begin{equation*} \xi_{j}=\begin{cases} \displaystyle \biggl(\sum_{k=1}^{j} \nu_{k}\biggl(\frac{\gamma_{j}}{\gamma_{k}}-1\biggr)\biggr)^{-1/2}, & 1 < j \leqslant n+ 1, \\ +\infty, &j=1. \end{cases} \end{equation*} \notag $$
Тогда если $\xi_{m+1} \leqslant \delta < \xi_{m}$ при некотором $1 \leqslant m \leqslant n $ и
$$ \begin{equation*} \widehat{c}_{1}=1-\frac{ \delta^2 \sum_{k=1}^{m} {\nu_{k} \gamma_{1}}/{\gamma_{k}}}{1+\delta^2 \sum_{k=1}^{m} \nu_{k}}, \end{equation*} \notag $$
то метод
$$ \begin{equation*} \widehat{\varphi}(y_1, \dots, y_{n})=\sum_{k=1}^{m} \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1}\biggr) \mu_k y_k e_k \end{equation*} \notag $$
является оптимальным и при этом
$$ \begin{equation*} E(T, W)=\sqrt{\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+ \delta^2 \sum_{k=1}^{m} \mu_{k}^2 \biggl(1-\frac{\gamma_k (1- \widehat{c}_1)}{\gamma_1}\biggr)^2}. \end{equation*} \notag $$
Если $\delta < \xi_{n+1}$, то метод
$$ \begin{equation*} \widehat{\varphi}(y_1, \dots, y_{n}) =\sum_{k=1}^{n} \biggl(1-\frac{\gamma_k}{\gamma_{n+1}} \biggr) \mu_k y_k e_k \end{equation*} \notag $$
оптимален и
$$ \begin{equation*} E(T, W)=\sqrt{\frac{1}{\gamma_{n+1}^2}+ \delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_{k}}{\gamma_{n+1}} \biggr)^2}. \end{equation*} \notag $$

§ 4. Доказательство теоремы 1

Доказательство теоремы 1 разобьем на несколько частей. Сначала докажем оценку снизу для погрешности оптимального восстановления, а затем построим метод, на котором эта оценка будет достигаться.

4.1. Оценка снизу

Теорема 2. Пусть $W$ – произвольное подмножество $l_2$, симметричное относительно “координатных плоскостей” $\{x \in l_2 \colon x_{k}=0\}$ при всех $k \in \mathbb N$. Тогда для погрешности оптимального восстановления справедлива оценка

$$ \begin{equation} E^2(T, W) \geqslant \sup_{\tau \in W }\sum_{i=1}^{n} \frac{ \delta^2 \mu_{i}^2 \tau_{i}^2 }{\delta^2+\tau_{i}^2}+\mu_{n+1}^2 \tau_{n+1}^2. \end{equation} \tag{4.1} $$

Доказательство. Зафиксируем элемент $\tau \in W$ такой, что
$$ \begin{equation*} \tau_{i} \geqslant 0, \quad i=1, 2, \dots, n+1, \qquad \tau_{i}=0, \quad i > n+1. \end{equation*} \notag $$
Заметим, что для нахождения супремума в правой части (4.1) достаточно рассматривать только такие $\tau$.

Положим

$$ \begin{equation*} B=\{x \in l_2 \colon x_{i}^2=\tau_{i}^2, \ i=1, 2, \dots\}. \end{equation*} \notag $$
Поскольку $W$ симметрично относительно всех “координатных плоскостей” $\{x\in l_2\colon x_{k}= 0\}$, ясно, что $B \subset W$.

Обозначим

$$ \begin{equation*} p_{i}=\frac{\delta^2}{\delta^2+\tau_{i}^2}, \qquad i=1, 2, \dots, n. \end{equation*} \notag $$
Не умаляя общности, для удобства обозначений предположим, что
$$ \begin{equation*} \tau_{1} \geqslant \tau_{2} \geqslant \dots \geqslant \tau_{n}, \qquad p_{1} \leqslant p_{2} \leqslant \dots \leqslant p_{n}. \end{equation*} \notag $$

Пусть $m=\max \{i\colon 1 \leqslant i \leqslant n,\,\tau_{i} > 0\}$. Произвольный элемент $x \in B$ можно записать в виде

$$ \begin{equation*} x=\sum_{i=1}^{m} s_{i}(x) \tau_{i} e_{i}+s_{n+1}(x) \tau_{n+1} e_{n+1}, \end{equation*} \notag $$
где $s_{i}(x) \in \{-1, +1\}$. Отметим также следующее равенство, справедливое при любом $x \in B$:
$$ \begin{equation*} \|T x\|_{l_2}^2=\sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2. \end{equation*} \notag $$
Напомним, информация об элементах $W$ представляет собой $n$-мерный вектор. Пусть $\{e_{i}'\}_{i=1}^{n}$ – стандартный базис в $\mathbb R^{n}$. Зададим распределение $\eta(x)$ для каждого $x \in B$:
$$ \begin{equation*} \eta(x)=\begin{cases} 0&\text{с вероятностью } p_{1}, \\ \dfrac{ s_{1}(x) \tau_{1} }{1-p_{1}} e_{1}' &\text{с вероятностью } p_{2}- p_{1}, \\ \dfrac{ s_{1}(x) \tau_{1} }{1-p_{1}} e_{1}'+\dfrac{ s_{2}(x) \tau_{2} }{1-p_{2}} e_{2}' &\text{с вероятностью } p_{3}-p_{2}, \\ \dots\dots\dots\dots\dots\dots\dots & \\ \displaystyle \sum_{i=1}^{m-1} \frac{ s_{{i}}(x) \tau_{{i}} }{1-p_{i}} e_{i}' &\text{с вероятностью } p_{m}-p_{{m-1}}, \\ \displaystyle \sum_{i=1}^{m} \frac{ s_{{i}}(x) \tau_{{i}} }{1-p_{i}} e_{i}' &\text{с вероятностью } 1-p_{m}. \end{cases} \end{equation*} \notag $$
Легко видеть, что первые $m$ компонент этого распределения имеют вид
$$ \begin{equation*} \eta_{i}(x)= \begin{cases} 0 &\text{с вероятностью } p_{i}, \\ \dfrac{x_i}{1-p_{i}} &\text{с вероятностью } 1-p_{i} \end{cases} \end{equation*} \notag $$
при любом $i=1, 2, \dots, m$. Остальные $n-m$ компонент тождественно равны нулю.

Условие $\eta(x) \in Y_\delta(x)$ проверяется напрямую:

$$ \begin{equation*} \begin{gathered} \, \mathbb E \eta_{i}(x)=(1-p_i) \frac{x_i}{1-p_{i}}= x_{i}, \\ \mathbb V \eta_{i}(x)=\mathbb E \eta_{i}^2(x)-(\mathbb E \eta_{i}(x) )^2 =(1-p_{i}) \frac{x_{i}^2}{(1-p_{i})^2}-x_{i}^2=\frac{\tau_{i}^2}{1-p_{i}}-\tau_{i}^2. \end{gathered} \end{equation*} \notag $$
Из определения $p_i$ следует, что
$$ \begin{equation*} 1-p_{i}=\frac{\tau_{i}^2}{\delta^2+\tau_{i}^2} \quad \Longrightarrow \quad \mathbb V \eta_{i}(x)=\frac{1}{1-p_{i}} \tau_{i}^2-\tau_{i}^2=\delta^2+\tau_{i}^2- \tau_{i}^2=\delta^2. \end{equation*} \notag $$
Для компонент $\eta_{i}(x)$, $ i > m$, необходимые требования на дисперсии и математические ожидания тоже соблюдаются. Проверим это отдельно:
$$ \begin{equation*} \mathbb E \eta_{i}(x)=0=x_i, \quad \mathbb V \eta_{i}(x)=0 \leqslant \delta^2, \qquad i=m+1, \dots, n. \end{equation*} \notag $$
Таким образом, $\eta(x) \in Y_\delta(x)$ для каждого $x \in B$.

Пусть $\varphi$ – произвольный метод восстановления. Мы знаем, что мощность множества $B$ конечна (не превосходит $2^{m+1}$), обозначим ее $|B|$. Имеем

$$ \begin{equation} \begin{aligned} \, \nonumber e^2(T, W, \varphi) &\geqslant \sup_{x \in B} \mathbb E \| T x-\varphi(\eta(x))\|_{l_2}^2 \\ \nonumber &=\sup_{x \in B} \biggl( \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2 \biggr) \\ \nonumber &\geqslant \frac{1}{|B|} \sum_{x \in B} \biggl( \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}'\biggr) \biggr\|_{l_2}^2 \biggr) \\ &=\frac{1}{|B|} \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \sum_{x \in B} \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2 . \end{aligned} \end{equation} \tag{4.2} $$
Здесь мы оценили супремум по $x \in B$ средним арифметическим. Предполагалось также, что $p_{0}=0$, $p_{m+1}=1$ и сумма по пустому множеству индексов равна нулю.

Рассмотрим для примера слагаемое $k=1$. В силу центральной симметричности $B$ получаем

$$ \begin{equation*} \begin{aligned} \, & \frac{1}{|B|} p_1 \sum_{x \in B}\| T x-\varphi(0)\|_{l_2}^2 \\ &\qquad=\frac{1}{2|B|} p_1 \sum_{x \in B}\|T x-\varphi(0)\|_{l_2}^2 +\frac{1}{2|B|} p_1 \sum_{x \in B}\|- T x-\varphi(0)\|_{l_2}^2 \\ &\qquad \geqslant \frac{1}{|B|} p_1 \sum_{x \in B}\|T x\|_{l_2}^2 =p_1 \biggl( \sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2 \biggr). \end{aligned} \end{equation*} \notag $$
Перейдем к общему случаю. Определим “сечения”:
$$ \begin{equation*} B_{s_{1}, s_{2}, \dots, s_{k-1}}=\bigl\{x \in B\colon s_{1}(x)=s_1, s_{2}(x)=s_2, \dots, s_{k-1}(x)=s_{k-1} \bigr\} \end{equation*} \notag $$

для всех $k=1, \dots, m+1$ (если $k=1$, то соответствующее сечение совпадает с $B$). Теперь оценим $k$-е слагаемое (4.2):

$$ \begin{equation} \begin{aligned} \, & \frac{1}{|B|} (p_{k}-p_{k-1}) \sum_{x \in B} \biggl\| T x-\varphi \biggl( \sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2 \nonumber \\ &\qquad =\frac{1}{|B|} (p_{k}-p_{k-1}) \sum_{s_{1}, s_2, \dots, s_{k-1}} \sum_{ x \in B_{s_{1}, \dots, s_{k-1}}} \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2. \end{aligned} \end{equation} \tag{4.3} $$
“Сечения” описываются следующим образом:
$$ \begin{equation*} \begin{gathered} \, x \in B_{s_{1}, s_{2}, \dots, s_{k-1}} \quad \Longrightarrow \quad x= \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)+z(x), \\ z(x)=\sum_{i=k}^{m} s_{i}(x) \tau_{i} e_i+s_{n+1}(x) \tau_{n+1} e_{n+1}. \end{gathered} \end{equation*} \notag $$
При этом для любого $x \in B$ верно
$$ \begin{equation*} \|T z(x)\|_{l_2}^2=\sum_{i=k}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2. \end{equation*} \notag $$
Множества $B_{s_{1}, \dots, s_{k-1}}$ тоже центрально-симметричны, но с центром не в нуле:
$$ \begin{equation*} x\,{=}\biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)\,{+}\,z(x)\,{\in}\, B_{s_{1}, s_{2}, \dots, s_{k-1}} \quad \Longrightarrow \quad \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)\,{-}\,z(x)\,{\in}\, B_{s_{1}, s_{2}, \dots, s_{k-1}}. \end{equation*} \notag $$
Теперь оценим снизу (4.3) с помощью этой центральной симметричности:
$$ \begin{equation*} \begin{aligned} \, & \frac{p_{k}-p_{k-1}}{|B|} \sum_{s_{1}, \dots, s_{k-1}} \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} }{1-p_i} e_{i}'\biggr) \biggr\|_{l_2}^2 \\ &\ \ =\frac{p_{k}-p_{k-1}}{|B|} \sum_{s_{1}, \dots, s_{k-1}} \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \biggl\| T \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)+T z(x) -\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} e_{i}' }{1-p_i} \biggr) \biggr\|_{l_2}^2 \\ &\ \ =\frac{p_{k}-p_{k-1}}{2|B|} \sum_{s_{1}, \dots, s_{k-1}} \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \biggl( \biggl\|T \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)+T z(x)-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} e_{i}' }{1-p_i} \biggr) \biggr\|_{l_2}^2 \\ &\ \ \qquad +\biggl\|T \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr) -T z(x)-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} e_{i}' }{1-p_i} \biggr) \biggr\|_{l_2}^2\biggr) \\ &\ \ \geqslant \frac{p_{k}-p_{k-1}}{|B|} \sum_{s_{1}, \dots, s_{k-1}} \, \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \|T z(x)\|_{l_2}^2 =\frac{p_{k}-p_{k-1}}{|B|} \sum_{x \in B}\|T z(x)\|_{l_2}^2 \\ &\ \ =(p_{k}-p_{k-1}) \biggl( \sum_{i=k}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2 \biggr). \end{aligned} \end{equation*} \notag $$
Суммируя по всем $k=1, 2, \dots, m+1$, получим
$$ \begin{equation*} \begin{aligned} \, &e^{2}(T, W, \varphi) \geqslant \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \biggl( \sum_{i=k}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2 \biggr) \\ &\qquad =\mu_{n+1}^2 \tau_{n+1}^2 +\sum_{k=1}^{m} \sum_{i \geqslant k} (p_{k}-p_{k-1}) \mu_{i}^2 \tau_{i}^2 =\mu_{n+1}^2 \tau_{n+1}^2+\sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2 \sum_{k=1}^{i} (p_{k}-p_{k-1}) \\ &\qquad=\mu_{n+1}^2 \tau_{n+1}^2+\sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2 p_{i}. \end{aligned} \end{equation*} \notag $$
Учитывая определение $p_{i}$, имеем
$$ \begin{equation*} e^{2}(T, W, \varphi) \geqslant \sum_{i=1}^{m} \frac{\delta^2 \mu_{i}^2 \tau_{i}^2}{\delta^2+ \tau_{i}^2}+\mu_{n+1}^2 \tau_{n+1}^2=\sum_{i=1}^{n} \frac{\delta^2 \mu_{i}^2 \tau_{i}^2}{\delta^2+\tau_{i}^2}+\mu_{n+1}^2 \tau_{n+1}^2. \end{equation*} \notag $$
Поскольку элемент $\tau \in W$ и метод $\varphi$ были выбраны произвольно, теорема 2 доказана.

4.2. Оценка сверху

Среди всех методов восстановления выделим множество

$$ \begin{equation*} \begin{aligned} \, D&=\bigl\{\varphi\colon\mathbb R^n\to l_2\mid \exists\,\alpha_1, \alpha_2, \dots, \alpha_n \in \mathbb R\colon \\ &\qquad\varphi(y_1, y_2, \dots, y_n)=(\alpha_{1} y_1, \alpha_{2} y_2, \dots, \alpha_{n} y_{n}, 0, 0, \dots ) \bigr\}. \end{aligned} \end{equation*} \notag $$
Сначала найдем метод $\widehat{\varphi}$ – решение задачи минимизации (будем называть его оптимальным $D$-методом)
$$ \begin{equation*} e^2(T, W, \varphi) \to \min, \qquad \varphi \in D, \end{equation*} \notag $$
а затем, основываясь на теореме 2, покажем, что $E(T, W) \geqslant e(T, W, \widehat{\varphi})$, т.е. метод $\widehat{\varphi}$ будет оптимальным.

Лемма 1. Для любого метода $\varphi \in D$ квадрат его погрешности выражается через соответствующие этому методу коэффициенты $\alpha_1, \dots, \alpha_n$ по правилу

$$ \begin{equation*} e^{2}(T, W, \varphi)=\max\biggl\{\frac{(\mu_1-\alpha_{1})^2}{\nu_1}, \dots, \frac{(\mu_n- \alpha_{n})^2}{\nu_n}, \frac{\mu_{n+1}^2}{\nu_{n+1}}, \frac{\mu_{n+2}^2}{\nu_{n+2}}, \dots \biggr\}+\delta^2 \sum_{k=1}^{n} \alpha_{k}^2. \end{equation*} \notag $$

Доказательство. Перейдем от случайных векторов $y \in Y_\delta(x)$, у которых математическое ожидание зависит от $x$, к векторам
$$ \begin{equation*} z=y-I x \end{equation*} \notag $$
с нулевым математическим ожиданием.

Рассмотрим более подробно величину $e^2(T, W, \varphi)$ для произвольного метода $\varphi$ из множества $D$:

$$ \begin{equation} \begin{aligned} \, \notag &e^2(T, W, \varphi) =\sup_{\substack{x \in W\\ y \in Y_\delta(x)}} \mathbb E \| T x- \varphi(y)\|_{l_2}^2 =\sup_{\substack{x \in W\\ y \in Y_\delta(x)}} \mathbb E \| T x-\varphi(Ix)- \varphi(z)\|_{l_2}^2 \\ &\qquad=\sup_{\substack{x \in W \\ y \in Y_\delta(x)}} \bigl(\|T x-\varphi(I x)\|_{l_2}^2 +\mathbb E \|\varphi(z)\|_{l_2}^2 -2 \mathbb E\langle T x-\varphi(I x), \varphi(z)\rangle \bigr). \end{aligned} \end{equation} \tag{4.4} $$
Ограничения, связанные с определением множества $Y_\delta(x)$, легко выразить в терминах $z$:
$$ \begin{equation*} \mathbb E z=0, \qquad \mathbb V z_{k} \leqslant \delta^2, \quad k=1, 2, \dots, n. \end{equation*} \notag $$
Условие $\varphi \in D$ позволяет записать
$$ \begin{equation*} \begin{aligned} \, &\mathbb E\langle T x-\varphi(I x), \varphi(z)\rangle \\ &\qquad =\mathbb E \biggl\langle T x- \varphi(I x), \sum_{k=1}^{n} \alpha_{k} z_{k} e_k \biggr\rangle =\sum_{k=1}^{n} \alpha_{k}\langle T x-\varphi(I x), e_k\rangle \mathbb E z_{k}=0. \end{aligned} \end{equation*} \notag $$
Отсюда следует, что третье слагаемое в нижней строке формулы (4.4) для погрешности восстановления равно нулю. Распишем теперь второе слагаемое под знаком супремума (4.4):
$$ \begin{equation*} \mathbb E \|\varphi(z)\|_{l_2}^2=\mathbb E \sum_{k=1}^{n} \alpha_{k}^2 z_{k}^{2}(x)=\sum_{k=1}^{n} \alpha_{k}^2 \mathbb V z_{k}. \end{equation*} \notag $$
Подставляя полученные результаты в (4.4), находим
$$ \begin{equation*} \begin{aligned} \, &e^2(T, W, \varphi) =\sup_{x \in W} \ \sup_{y \in Y_\delta(x)} \biggl( \|T x-\varphi(I x)\|_{l_2}^2 +\sum_{k=1}^{n} \alpha_{k}^2 \mathbb V z_{k} \biggr) \\ &\qquad=\sup_{x \in W} \biggl( \|T x-\varphi(I x)\|_{l_2}^2 +\delta^2 \sum_{k=1}^{n} \alpha_{k}^2 \biggr) =\sup_{x \in W}(\|T x-\varphi(I x)\|_{l_2}^2)+\delta^2 \sum_{k=1}^{n} \alpha_{k}^2. \end{aligned} \end{equation*} \notag $$
Избавимся теперь от супремума по $x \in W$. Для этого нужно решить экстремальную задачу (при фиксированном $\varphi$)
$$ \begin{equation*} \|T x-\varphi(I x)\|_{l_2}^2 \to \max_{x}, \qquad x \in W. \end{equation*} \notag $$
Переписывая в более явном виде, получаем задачу линейного программирования
$$ \begin{equation} \sum_{k=1}^{n} (\mu_{k}-\alpha_{k})^2 |x_{k}|^2 +\sum_{k=n+1}^{\infty} \mu_{k}^2 |x_{k}|^2 \to \max_{\{x_k\} },\qquad \sum_{k=1}^{\infty} \nu_{k} |x_{k}|^2 \leqslant 1. \end{equation} \tag{4.5} $$
Покажем, что максимальное значение целевого функционала в этой задаче равно
$$ \begin{equation} \max\biggl\{\frac{(\mu_1-\alpha_{1})^2}{\nu_1}, \frac{(\mu_2-\alpha_{2})^2}{\nu_2}, \dots , \frac{(\mu_{n}-\alpha_{n})^2}{\nu_{n}}, \frac{\mu_{n+1}^2}{\nu_{n+1}}, \frac{\mu_{n+2}^2}{\nu_{n+2}}, \dots \biggr\}. \end{equation} \tag{4.6} $$
Чтобы доказать это, введем вспомогательные обозначения $X_{k}=\nu_{k} |x_{k}|^2, \ k \geqslant 1$, после чего (4.5) примет вид
$$ \begin{equation*} \sum_{k=1}^{n} \frac{(\mu_{k}-\alpha_{k})^2}{\nu_{k}} X_{k} +\sum_{k=n+1}^{\infty} \frac{\mu_{k}^2}{\nu_{k}} X_{k} \to \max_{\{X_k\} }, \qquad \sum_{k=1}^{\infty} X_{k} \leqslant 1, \quad X_{k} \geqslant 0. \end{equation*} \notag $$
Максимальное значение в полученной задаче, очевидно, совпадает с (4.6). Лемма 1 доказана.

4.3. Построение оптимального $D$-метода

Как показано в лемме 1, погрешность метода $\varphi \in D$ является функцией соответствующих ему коэффициентов $\alpha_1, \dots, \alpha_n$. Для нахождения оптимального $D$-метода $\widehat{\varphi}$ нужно найти точку минимума этой функции. Имеем задачу минимизации

$$ \begin{equation} \begin{aligned} \, \notag e^{2}(T, W, \varphi) & =\max\biggl\{\frac{(\mu_1-\alpha_{1})^2}{\nu_1}, \dots, \frac{(\mu_n- \alpha_{n})^2}{\nu_n}, \frac{\mu_{n+1}^2}{\nu_{n+1}}, \frac{\mu_{n+2}^2}{\nu_{n+2}}, \dots \biggr\} \\ &\qquad +\delta^2 \sum_{k=1}^{n} \alpha_{k}^2 \to \min_{ \{\alpha_k\} }. \end{aligned} \end{equation} \tag{4.7} $$
Положим
$$ \begin{equation*} c_{k}=\frac{\alpha_{k}}{\mu_{k}}, \quad k=1, 2, \dots, n, \qquad \gamma_{k}=\sqrt{ \frac{\nu_{k}}{\mu_{k}^2} }, \quad k=1, 2, \dots\,. \end{equation*} \notag $$
Исходя из сделанного в формулировке теоремы 1 предположения о возрастании последовательности $\{\gamma_k\}$, преобразуем (4.7) следующим образом:
$$ \begin{equation} e^{2}(T, W, \varphi)=\max\biggl\{\frac{(1-c_{1})^2}{\gamma_{1}^2}, \dots, \frac{(1- c_{n})^2}{\gamma_{n}^2}, \frac{1}{\gamma_{n+1}^2} \biggr\}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 c_{k}^2 \to \min_{ \{c_k\} } . \end{equation} \tag{4.8} $$
Заметим, что задача (4.8) строго выпуклая, поэтому ее решение единственно. Пусть $\widehat{c}_1,\dots,\widehat{c}_{n}$ – оптимальные в этой задаче значения переменных. Тогда им соответствует оптимальный $D$-метод
$$ \begin{equation*} \widehat{\varphi}(y_1, y_2, \dots, y_n)=\sum_{k=1}^{n} \widehat{c}_k \mu_k y_k e_k. \end{equation*} \notag $$
Проведем решение (4.8) в несколько шагов.

4.4. Аналитическое решение задачи (4.8)

Шаг 1. Все $\widehat{c}_k$ ($1 \leqslant k \leqslant n$) принадлежат отрезку $[0, 1]$.

Чтобы доказать это утверждение, будем рассуждать от противного. Допустим, $\widehat{c}_k < 0$ для некоторого $k$. Подставим в целевой функционал (4.8) значение $c_k=-\widehat{c}_k$ вместо $c_k= \widehat{c}_k$, зафиксировав значения остальных переменных. Такая замена не меняет величину $c_{k}^2$, но уменьшает $(1-c_k)^2$, т.е. значение целевого функционала не увеличивается. Аналогично, если $\widehat{c}_k > 1$, то присвоим $c_k$ значение, симметричное $\widehat{c}_k$ относительно единицы; $(1-c_k)^2$ не изменится, а $c_{k}^2$ уменьшится. Таким образом, можно считать, что

$$ \begin{equation*} \widehat{c}_k \in [0, 1] \quad \forall\, k \in \{1, 2, \dots, n\}. \end{equation*} \notag $$

Шаг 2. Предположим, что при каком-то $k > 1$

$$ \begin{equation} \frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2} < \frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2}. \end{equation} \tag{4.9} $$
В силу шага 1 имеется ограничение
$$ \begin{equation*} \frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2} \leqslant \frac{1}{\gamma_{k}^2}. \end{equation*} \notag $$
Будем уменьшать $c_1$, начиная с $c_1=\widehat{c}_1$ (зафиксировав $c_2=\widehat{c}_2,\dots,c_{n}=\widehat{c}_{n}$), до тех пор, пока не будет достигнуто равенство
$$ \begin{equation*} \frac{(1-c_1)^2}{\gamma_{1}^2}=\frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2}. \end{equation*} \notag $$
Условия $\gamma_1 \leqslant \gamma_2 \leqslant \dots \leqslant \gamma_{n}$ гарантируют, что найденное в результате этого процесса значение $c_1$ неотрицательно. Кроме того, величина
$$ \begin{equation} \max\biggl\{\frac{(1-c_1)^2}{\gamma_{1}^2}, \frac{(1-c_2)^2}{\gamma_{2}^2}, \dots , \frac{(1- c_{n})^2}{\gamma_{n}^2}, \frac{1}{\gamma_{n+1}^2} \biggr\} \end{equation} \tag{4.10} $$
не увеличилась. Следовательно, рассматриваемый процесс приводит к уменьшению целевого функционала (4.8), что противоречит определению $ \widehat{c}_1 $. Тогда справедливо обратное к (4.9) неравенство
$$ \begin{equation} \frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2} \geqslant \frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2}, \qquad k=2, 3, \dots, n. \end{equation} \tag{4.11} $$
Аналогично доказывается, что для последнего слагаемого под знаком максимума в (4.10)
$$ \begin{equation} \frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2} \geqslant \frac{1}{\gamma_{n+1}^2} \quad\Longleftrightarrow \quad \widehat{c}_1 \leqslant 1-\frac{\gamma_{1}}{\gamma_{n+1}}. \end{equation} \tag{4.12} $$
С другой стороны, похожие соображения можно использовать не только для $c_1$, но и для других переменных. Допустим, при некотором $ k > 1$
$$ \begin{equation*} \frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2} < \frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}. \end{equation*} \notag $$
При уменьшении $c_k$ (стартуя с $ c_k=\widehat{c}_k$) максимум (4.10) не будет изменяться и целевой функционал (4.8) будет убывать. Однако этот процесс остановится, если:

Отсюда следует, что $\widehat{c}_k$ либо равно нулю, либо (если $1-{\gamma_{k} (1- \widehat{c}_1)}/{\gamma_1} \geqslant 0$) выражается формулой (4.13). Запишем это в кратком виде так:

$$ \begin{equation} \widehat{c}_k=\biggl[1-\frac{\gamma_{k} (1-\widehat{c}_1)}{\gamma_1}\biggr]_{+}. \end{equation} \tag{4.14} $$
Здесь $[t]_{+}=\max(0, t)$.

Таким образом, все коэффициенты оптимального $D$-метода выражены через $\widehat{c}_1$. Собирая вместе (4.8), (4.11), (4.12), (4.14), получим одномерную задачу для поиска $\widehat{c}_1$

$$ \begin{equation*} \frac{(1-c_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl[1-\frac{\gamma_{k} (1-c_1)}{\gamma_1}\biggr]_{+}^2 \to \min_{c_1}, \qquad 0 \leqslant c_1 \leqslant 1-\frac{\gamma_{1}}{\gamma_{n+1}}. \end{equation*} \notag $$
Домножим целевой функционал на $\gamma_{1}^2$. После несложных упрощений имеем
$$ \begin{equation} g(c_1) \stackrel{\text{def}}{\equiv} (1\,{-}\,c_1)^2\,{+}\,\delta^2 \sum_{k=1}^{n} \nu_{k} \biggl[c_1\,{-}\,1+\frac{\gamma_{1}}{\gamma_{k}} \biggr]_{+}^2 \to \min_{c_1}, \qquad 0 \leqslant c_1 \leqslant 1-\frac{\gamma_1}{\gamma_{n+1}}. \end{equation} \tag{4.15} $$
Здесь мы по-прежнему минимизируем погрешность метода (с точностью до константы). В частности, для оптимального $D$-метода
$$ \begin{equation} \begin{aligned} \, \notag e^2(T, W, \widehat{\varphi}) &=\frac{g(\widehat{c}_1)}{\gamma_{1}^2}=\frac{(1- \widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl[1-\frac{\gamma_{k} (1- \widehat{c}_1)}{\gamma_1}\biggr]_{+}^2 \\ &=\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \widehat{c}_{k}^{\,2}. \end{aligned} \end{equation} \tag{4.16} $$

Шаг 3. Исследуем (4.15). Эта задача строго выпуклая и дифференцируемая по $ c_1 $. Вычислим призводную целевого функционала (4.15):

$$ \begin{equation} g'(c_1)=2(c_1-1)+2 \delta^2 \sum_{k=1}^{n} \nu_{k} \biggl[c_1-1+ \frac{\gamma_{1}}{\gamma_{k}} \biggr]_{+}. \end{equation} \tag{4.17} $$
Предположим, что при каком-то $1 \leqslant m \leqslant n$
$$ \begin{equation} 1-\frac{\gamma_1}{\gamma_m} < \widehat{c}_1 \leqslant 1-\frac{\gamma_1}{\gamma_{m+1}}. \end{equation} \tag{4.18} $$
Тогда
$$ \begin{equation*} g'(\widehat{c}_1)=2(\widehat{c}_1-1)+2 \delta^2 \sum_{k=1}^{m} \nu_{k} \biggl(\widehat{c}_1-1+\frac{\gamma_{1}}{\gamma_{k}} \biggr). \end{equation*} \notag $$
Из того, что $g'(\widehat{c}_1)=0$, следует
$$ \begin{equation} \widehat{c}_1=1-\frac{ \delta^2 \sum_{k=1}^{m}({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}}. \end{equation} \tag{4.19} $$
Подставляя это в (4.18), получаем двойное неравенство, которое можно представить в виде условия на $\delta$:
$$ \begin{equation*} \xi_{m+1}^2=\frac{1}{ \sum_{k=1}^{m+1} \nu_{k} ({\gamma_{m+1}}/{\gamma_{k}}-1)} \leqslant \delta^2 < \frac{1}{ \sum_{k=1}^{m} \nu_{k} ({\gamma_{m}}/{\gamma_{k}}- 1)}=\xi_{m}^2. \end{equation*} \notag $$
Таким образом, при $\xi_{m+1} \leqslant \delta < \xi_m$ коэффициент $\widehat{c}_1$ задается формулой (4.19). Согласно (4.14)
$$ \begin{equation*} \begin{gathered} \, \widehat{c}_k=\biggl[ 1-\frac{\gamma_{k}(1-\widehat{c}_1)}{\gamma_1} \biggr]_{+} , \\ \widehat{c}_{k} > 0 \quad \Longleftrightarrow \quad 1-\frac{\gamma_{k} (1- \widehat{c}_1)}{\gamma_{1}} > 0 \quad \Longleftrightarrow\quad \widehat{c}_1 > 1- \frac{\gamma_{1}}{\gamma_{k}}. \end{gathered} \end{equation*} \notag $$
Сравнив это с (4.18), несложно видеть, что $\widehat{c}_{k} > 0$ только при $k \leqslant m$. Отсюда находим оптимальный $D$-метод:
$$ \begin{equation*} \widehat{\varphi}(y_1, y_2, \dots, y_{n})=\sum_{k=1}^{m} \biggl(1-\frac{\gamma_k (1- \widehat{c}_1)}{\gamma_1} \biggr) \mu_k y_k e_k. \end{equation*} \notag $$
Пусть $\delta < \xi_{n+1}$. В этом случае согласно (4.17)
$$ \begin{equation*} \begin{aligned} \, g'\biggl( 1-\frac{\gamma_{1}}{\gamma_{n+1}} \biggr) &= \frac{-2 \gamma_{1}}{\gamma_{n+1}}+2 \delta^2 \sum_{k=1}^{n} \nu_{k} \biggl(\frac{\gamma_{1}}{\gamma_{k}}-\frac{\gamma_{1}}{\gamma_{n+1}} \biggr) \\ &=\frac{2 \gamma_{1}}{\gamma_{n+1}} \biggl(-1+\delta^2 \sum_{k=1}^{n} \nu_{k} \biggl( \frac{\gamma_{n+1}}{\gamma_{k}}-1\biggr )\biggr )=\frac{2 \gamma_{1}}{\gamma_{n+1}} \biggl(-1+ \frac{\delta^2}{\xi_{n+1}^2}\biggr ) \leqslant 0. \end{aligned} \end{equation*} \notag $$
В (4.15) имеем ограничение $0 \leqslant c_1 \leqslant 1-{\gamma_1}/{\gamma_{n+1}}$. Поэтому в силу строгого возрастания $g'(\cdot)$ на этом отрезке получим
$$ \begin{equation*} \widehat{c}_1=1-\frac{\gamma_1}{\gamma_{n+1}}. \end{equation*} \notag $$
Учитывая выражения для $\{\widehat{c}_{k}\}$, находим оптимальный $D$-метод:
$$ \begin{equation*} \widehat{\varphi}(y_1, y_2, \dots, y_{n})=\sum_{k=1}^{n} \biggl(1- \frac{\gamma_k}{\gamma_{n+1}}\biggr) \mu_k y_k e_k. \end{equation*} \notag $$

Следующая лемма дополняет полученные нами результаты.

Лемма 2. Предположим, $\xi_{m+1} \leqslant \delta < \xi_{m}$ при некотором $1 \leqslant m \leqslant n$. Тогда для погрешности оптимального $D$-метода верна формула

$$ \begin{equation} e^{2}(T, W, \widehat{\varphi})=\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_k. \end{equation} \tag{4.20} $$
В случае $\delta < \xi_{n+1}$
$$ \begin{equation} e^2(T, W, \widehat{\varphi})=\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \widehat{c}_k+ \frac{1}{\gamma_{n+1}^2} \biggl(1-\frac{\delta^2}{\xi_{n+1}^2}\biggr). \end{equation} \tag{4.21} $$

Доказательство. Сначала докажем (4.20). Напомним формулы для коэффициентов оптимального $D$-метода:
$$ \begin{equation*} \begin{gathered} \, \widehat{c}_1\,{=}\,1-\frac{\delta^2 \sum_{k=1}^{m} ({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}} \quad \Longrightarrow \quad (1-\widehat{c}_1)+ \delta^2 \sum_{k=1}^{m} \nu_{k} (1-\widehat{c}_1)-\delta^2 \sum_{k=1}^{m} \frac{\nu_{k} \gamma_{1}}{\gamma_{k}}=0, \\ \widehat{c}_k=\biggl[1-\frac{\gamma_{k} (1-\widehat{c}_1) }{\gamma_{1}} \biggr]_{+}, \qquad k=1, 2, \dots, n. \end{gathered} \end{equation*} \notag $$
Согласно полученным выше результатам ненулевыми будут первые $m$ из них. Поэтому для погрешности оптимального $D$-метода в соответствии с (4.16) имеем
$$ \begin{equation} e^2(T, W, \widehat{\varphi})=\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_{k}^2. \end{equation} \tag{4.22} $$
Для доказательства леммы будем использовать соотношения
$$ \begin{equation*} 1-\widehat{c}_k=\frac{\gamma_{k} (1-\widehat{c}_1) }{\gamma_{1}}, \qquad k=1, 2, \dots, m. \end{equation*} \notag $$
Составим разность правых частей (4.22) и (4.20) и покажем, что она равна нулю:
$$ \begin{equation*} \begin{aligned} \, & \frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_{k}^{\,2}- \delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_k \\ &\qquad =\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 (1-\widehat{c}_{k})^2- \delta^2 \sum_{k=1}^{m} \mu_{k}^2 (1-\widehat{c}_k) \\ &\qquad =\frac{1-\widehat{c}_1}{\gamma_{1}^2} \biggl( (1-\widehat{c}_1)+\delta^2 \sum_{k= 1}^{m} \mu_{k}^2 \gamma_{k}^2 (1-\widehat{c}_{1})-\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \gamma_{k} \gamma_{1} \biggr) \\ &\qquad =\frac{1-\widehat{c}_1}{\gamma_{1}^2} \biggl( (1-\widehat{c}_1)+\delta^2 \sum_{k= 1}^{m} \nu_{k} (1-\widehat{c}_{1})-\delta^2 \sum_{k=1}^{m} \frac{\nu_{k} \gamma_{1}}{\gamma_{k}} \biggr)=0. \end{aligned} \end{equation*} \notag $$
Похожие рассуждения можно провести, и если $\delta < \xi_{n+1}$. Воспользуемся формулами для коэффициентов метода $\widehat{\varphi}$
$$ \begin{equation*} \widehat{c}_k=1-\frac{\gamma_k}{\gamma_{n+1}}, \qquad k=1, 2, \dots, n. \end{equation*} \notag $$
Тогда из (4.22) находим
$$ \begin{equation} e^{2}(T, W, \widehat{\varphi})=\frac{1}{\gamma_{n+1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)^2. \end{equation} \tag{4.23} $$
Сравним правые части (4.21) и (4.23):
$$ \begin{equation*} \begin{aligned} \, & \delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)+ \frac{1}{\gamma_{n+1}^2} \biggl(1-\frac{\delta^2}{\xi_{n+1}^2}\biggr)-\frac{1}{\gamma_{n+1}^2}- \delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)^2 \\ &\qquad =\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)-\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)^2- \frac{\delta^2}{\gamma_{n+1}^2 \xi_{n+1}^2} \\ &\qquad =\delta^2 \sum_{k=1}^{n} \frac{\mu_{k}^2 \gamma_k}{\gamma_{n+1}} \biggl(1- \frac{\gamma_k}{\gamma_{n+1}}\biggr)-\frac{\delta^2}{\gamma_{n+1}^2 \xi_{n+1}^2} \\ &\qquad = \frac{\delta^2}{\gamma_{n+1}^2} \biggl(\sum_{k=1}^{n} \nu_k \biggl(\frac{\gamma_{n+1}}{\gamma_k}- 1\biggr)-\frac{1}{\xi_{n+1}^2}\biggr)=0. \end{aligned} \end{equation*} \notag $$
Лемма 2 доказана.

4.5. Завершение доказательства теоремы 1

Покажем, что построенный в предыдущем пункте метод $\widehat{\varphi}$ оптимальный. В соответствии с теоремой 2

$$ \begin{equation*} E^2(T, W) \geqslant \sup_{\tau \in W }\sum_{k=1}^{n} \frac{\delta^2 \mu_{k}^2\tau_{k}^2}{\delta^2+\tau_{k}^2}+\mu_{n+1}^2 \tau_{n+1}^2. \end{equation*} \notag $$

Пусть $\xi_{m+1} \leqslant \delta < \xi_m$, где $1 \leqslant m \leqslant n$. Выберем $\widehat{\tau} \in l_2$, удовлетворяющее условиям

$$ \begin{equation*} \widehat{\tau}_{k}^{\,2}=\delta^2 \biggl(\frac{\gamma_1}{(1-\widehat{c}_1) \gamma_k}-1\biggr),\quad k=1, 2, \dots, m,\qquad \widehat{\tau}_{k}=0,\quad k=m+1, \dots\,. \end{equation*} \notag $$

Здесь $\widehat{c}_1$, вообще говоря, зависит от $\delta$. На отрезке $\delta \in [\xi_{m+1}, \xi_m)$ справедлива формула

$$ \begin{equation*} \widehat{c}_1=1-\frac{\delta^2 \sum_{k=1}^{m} ({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}}. \end{equation*} \notag $$

Убедимся, что $\widehat{\tau} \in W$:

$$ \begin{equation*} \begin{aligned} \, \sum_{k=1}^{\infty} \nu_k \widehat{\tau}_{k}^{\,2} &=\delta^2 \sum_{k=1}^{m} \nu_k \biggl(\frac{\gamma_1}{(1-\widehat{c}_1) \gamma_k}-1\biggr) =\frac{\delta^2 \gamma_1}{1- \widehat{c}_1} \sum_{k=1}^{m} \frac{\nu_k}{\gamma_k}-\delta^2 \sum_{k=1}^{m} \nu_k \\ &=\biggl(1+\delta^2 \sum_{k=1}^{m} \nu_k\biggr )-\delta^2 \sum_{k=1}^{m} \nu_k=1. \end{aligned} \end{equation*} \notag $$

По теореме 2

$$ \begin{equation*} \begin{aligned} \, E^2(T, W) &\geqslant \sum_{k=1}^{m} \frac{ \delta^2 \mu_{k}^2 \widehat{\tau}_{k}^{\,2} }{\delta^2+ \widehat{\tau}_{k}^{\,2}}=\sum_{k=1}^{m} \frac{ \delta^4 \mu_{k}^2 ({\gamma_1}/((1- \widehat{c}_1) \gamma_k)-1) }{\delta^2 {\gamma_1}/((1-\widehat{c}_1) \gamma_k)} \\ &=\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1} \biggr)=\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_k=e^{2}(T, W, \widehat{\varphi}), \end{aligned} \end{equation*} \notag $$

что и требовалось.

Пусть $\delta < \xi_{n+1}$. В этом случае возьмем последовательность $\widehat{\tau} \in l_2$ такую, что

$$ \begin{equation*} \begin{gathered} \, \widehat{\tau}_{k}^{\,2}=\delta^2 \biggl(\frac{\gamma_{n+1}}{\gamma_{k}}-1\biggr),\quad k=1, 2, \dots, n,\qquad \widehat{\tau}_{n+1}^{\,2}=\frac{1}{\nu_{n+1}}\biggl(1-\sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \biggr), \\ \widehat{\tau}_{k}=0, \qquad k=n+2, n+3, \dots\,. \end{gathered} \end{equation*} \notag $$
Проверим, что $\widehat{\tau} \in W$. Для этого достаточно показать, что верно неравенство
$$ \begin{equation*} \sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \leqslant 1. \end{equation*} \notag $$
Произведем равносильные переходы, чтобы убедиться в его справедливости:
$$ \begin{equation*} \begin{gathered} \, \sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \leqslant 1 \quad \Longleftrightarrow\quad \delta^2 \sum_{k=1}^{n} \nu_k \biggl(\frac{\gamma_{n+1}}{\gamma_{k}}-1\biggr) \leqslant 1, \\ \delta^2 \leqslant \frac{1}{\sum_{k=1}^{n} \nu_k ({\gamma_{n+1}}/{\gamma_{k}}-1)} \quad \Longleftrightarrow\quad \delta^2 \leqslant \xi_{n+1}^2. \end{gathered} \end{equation*} \notag $$
Значит, $\widehat{\tau} \in W$. По теореме 2
$$ \begin{equation*} \begin{aligned} \, E^2(T, W) &\geqslant \sum_{k=1}^{n} \frac{ \delta^2 \mu_{k}^2 \widehat{\tau}_{k}^{\,2} }{\delta^2+ \widehat{\tau}_{k}^{\,2}}+\mu_{n+1}^2 \widehat{\tau}_{n+1}^2 \\ &=\sum_{k=1}^{n} \frac{ \delta^4 \mu_{k}^2 ({\gamma_{n+1}}/{\gamma_{k}}-1) }{\delta^2 ({\gamma_{n+1}}/{\gamma_{k}})}+\frac{\mu_{n+1}^2}{\nu_{n+1}}\biggl(1- \sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \biggr) \\ &=\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)+ \frac{1}{\gamma_{n+1}^2}\biggl(1-\delta^2 \sum_{k=1}^{n} \nu_k \biggl(\frac{\gamma_{n+1}}{\gamma_k}- 1 \biggr) \biggr) \\ &=\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \widehat{c}_k+\frac{1}{\gamma_{n+1}^2}\biggl(1- \frac{\delta^2}{\xi_{n+1}^2}\biggr )=e^{2}(T, W, \widehat{\varphi}), \end{aligned} \end{equation*} \notag $$
что и требовалось. Теорема 1 доказана.

4.6. Следствие теоремы 1

Небольшая модификация доказательства теоремы 1 позволяет получить несколько более общее утверждение.

Будем обозначать стандартный базис в $l_2$ индексами, начинающимися с нуля: $e_0,e_1,\dots$ . Оставаясь в рамках общей постановки задачи оптимального восстановления по информации (1.2), уточним определения множества $W$ и операторов $T$, $I$:

$$ \begin{equation*} \begin{gathered} \, \mathcal{W}=\biggl\{x \in l_2\colon \sum_{k=0}^{\infty} \nu_{k} |x_{k}|^2 < \infty \biggr\}, \qquad W=\biggl\{x \in \mathcal{W}\colon \sum_{k=0}^{\infty} \nu_{k} |x_{k}|^2 \leqslant 1 \biggr\}, \\ Tx=(\mu_0x_0,\mu_1x_1,\dots), \qquad Ix=(x_0,x_1,\dots,x_n), \end{gathered} \end{equation*} \notag $$
где $x=(x_0,x_1,\dots)$.

Теорема 3. 1. Пусть $\mu_k \neq 0$ при всех $k \in \mathbb Z_+$. Здесь $\mathbb Z_+$ – множество целых неотрицательных чисел.

2. Положим

$$ \begin{equation*} \gamma_{k}=\sqrt{ \frac{\nu_{k}}{\mu_{k}^2} }, \qquad k=0, 1, \dots, \end{equation*} \notag $$
и потребуем, чтобы последовательность $\{\gamma_k\}$ была возрастающей.

3. Пусть $\gamma_0=0$, $\gamma_k > 0$ при $k \geqslant 1$ или, эквивалентно, $\nu_0=0$, $\nu_k > 0$ при $k \geqslant 1$.

Положим

$$ \begin{equation*} \xi_{j}=\begin{cases} \displaystyle \biggl(\sum_{k=1}^{j} \nu_{k} \biggl(\frac{\gamma_{j}}{\gamma_{k}}-1 \biggr) \biggr)^{-1/2}, & 1 < j \leqslant n+1, \\ +\infty, & j=1. \end{cases} \end{equation*} \notag $$
Если $\xi_{m+1} \leqslant \delta < \xi_m$ при некотором $1 \leqslant m \leqslant n $, то оптимальный метод имеет вид
$$ \begin{equation*} \widehat{\varphi}(y_0, y_1, \dots, y_{n}) =\mu_0 y_0 e_0+\sum_{k=1}^{m} \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1}\biggr) \mu_k y_k e_k, \end{equation*} \notag $$
где
$$ \begin{equation*} \widehat{c}_{1}=1-\frac{ \delta^2 \sum_{k=1}^{m}({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}}. \end{equation*} \notag $$
При этом погрешность оптимального восстановления равна
$$ \begin{equation*} E(T, W)=\sqrt{\delta^2 \mu_{0}^2+\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1}\biggr)^2}. \end{equation*} \notag $$
Если же $\delta < \xi_{n+1}$, то метод
$$ \begin{equation*} \widehat{\varphi}(y_0, y_1, \dots, y_{n})=\mu_0 y_0 e_0+\sum_{k=1}^{n} \biggl(1- \frac{\gamma_k}{\gamma_{n+1}} \biggr) \mu_k y_k e_k \end{equation*} \notag $$
является оптимальным и его погрешность равна
$$ \begin{equation*} E(T, W)=\sqrt{\delta^2 \mu_{0}^2+\frac{1}{\gamma_{n+1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_{k}}{\gamma_{n+1}} \biggr)^2}. \end{equation*} \notag $$

§ 5. Применение к восстановлению функции по ее конечному набору коэффициентов Фурье

Пусть $\mathbb T$ – это отрезок $[-\pi, \pi]$ с идентифицированными концами, $\mathcal{W}_{2}^r(\mathbb T)$ – пространство вещественных $ 2 \pi $-периодических функций, у которых $ (r-1) $-я производная абсолютно непрерывна на $\mathbb T$, а $ r $-я производная принадлежит $L_2(\mathbb T)$ ($r \in \mathbb N$).

Введем в пространстве $L_2(\mathbb T)$ скалярное произведение и согласованную с ним норму:

$$ \begin{equation*} \langle f_1, f_2\rangle=\frac{1}{\pi} \int_{-\pi}^{\pi} f_1(t) f_2(t)\,dt, \qquad \|f_1\|_{L_2(\mathbb T)}^2=\frac{1}{\pi} \int_{-\pi}^{\pi} f_{1}^2(t) \, dt, \end{equation*} \notag $$
где $f_1$, $f_2$ – произвольные элементы $L_2(\mathbb T)$.

Положим

$$ \begin{equation*} F_{n} x=\bigl( a_{0}(x), a_{1}(x), \dots, a_{n}(x), b_{1}(x), b_{2}(x), \dots, b_{n}(x)\bigr), \end{equation*} \notag $$
где $\{a_{k}(x)\}$, $\{b_{k}(x)\}$ – коэффициенты Фурье $x \in \mathcal{W}_{2}^r(\mathbb T)$.

Определим класс функций:

$$ \begin{equation*} W_{2}^r(\mathbb T)=\{x \in \mathcal{W}_{2}^r(\mathbb T) \colon \|x^{(r)}\|_{L_2(\mathbb T)} \leqslant 1\}. \end{equation*} \notag $$

Сформулируем задачу оптимального восстановления функции из $W_{2}^r(\mathbb T)$ по конечному набору ее коэффициентов Фурье, известных со случайной ошибкой.

Для любых $x \in W_{2}^r(\mathbb T)$ и $\delta > 0$ рассмотрим множество всех вероятностных распределений в $\mathbb R^{2n+1}$ с математическим ожиданием $F_{n} x$ и дисперсией каждой из компонент не больше $\delta^2$:

$$ \begin{equation*} \begin{aligned} \, Y_\delta(x) &=\bigl\{y= (\widetilde{a}_{0}, \dots, \widetilde{a}_{n}, \widetilde{b}_{1}, \dots, \widetilde{b}_{n}) \colon \mathbb E y=F_{n} x, \\ &\qquad \mathbb V \widetilde{a}_k \leqslant \delta^2, \ k=0, 1, \dots, n, \ \mathbb V \widetilde{b}_k \leqslant \delta^{2}, \ k=1, \dots, n \bigr\}. \end{aligned} \end{equation*} \notag $$
Методы восстановления функций из $W_{2}^{r}(\mathbb{T})$ – это все отображения $\varphi\colon \mathbb R^{2 n+1} \to L_2(\mathbb T)$. Будем рассматривать только множество методов, для которых определена погрешность
$$ \begin{equation} e(W, \varphi)=\sqrt{\sup_{x \in W_{2}^r(\mathbb T)} \sup_{y \in Y_\delta(x)} \mathbb E \|x- \varphi(y)\|_{L_2(\mathbb T)}^2}. \end{equation} \tag{5.1} $$
Оптимальным методом называется метод восстановления $\widehat{\varphi}$ с минимальной погрешностью
$$ \begin{equation} e(W, \widehat\varphi)=\inf_{\varphi} e(W, \varphi), \end{equation} \tag{5.2} $$
а погрешность оптимального восстановления определяется по формуле
$$ \begin{equation*} E(W)=\inf_{\varphi} e(W, \varphi). \end{equation*} \notag $$
Задача состоит в том, чтобы найти оптимальный метод и погрешность оптимального восстановления.

Приведем решение поставленной задачи, основанное на применении общей теоремы 3.

Введем ортонормированный базис в пространстве $L_{2}(\mathbb T)$

$$ \begin{equation*} \biggl(\frac{1}{\sqrt{2}}, \cos t, \sin t, \dots, \cos kt, \sin kt, \dots\biggr ). \end{equation*} \notag $$
Преобразование Фурье
$$ \begin{equation*} x \longmapsto \biggl(\frac{a_{0}(x)}{\sqrt{2}}, a_{1}(x), b_{1}(x), \dots, a_{k}(x), b_{k}(x), \dots \biggr) \end{equation*} \notag $$
задает изометрический изоморфизм между пространствами $L_{2}(\mathbb T)$ и $l_2$. Кроме того, из равенства Парсеваля имеем
$$ \begin{equation*} \|x^{(r)}\|_{L_2(\mathbb T)}^2 \leqslant 1 \quad \Longleftrightarrow \quad \sum_{k=1}^{\infty} k^{2r} (a_{k}^{2}(x)+b_{k}^{2}(x)) \leqslant 1. \end{equation*} \notag $$
В соответствии с этим положим
$$ \begin{equation*} \begin{gathered} \, \nu_0=0, \qquad \nu_k=\nu_{k}'=k^{2r}, \quad k= 1, 2, \dots, \\ \mu_0=\frac{1}{\sqrt{2}}, \qquad \mu_k=\mu_{k}'=1, \quad k=1, 2, \dots\,. \end{gathered} \end{equation*} \notag $$
Таким образом, в данном случае применима теорема 3. Сформулируем ее следствие для рассматриваемой задачи.

Пусть

$$ \begin{equation*} \xi_{j}=\begin{cases} \displaystyle \biggl(2 \sum_{k=1}^{j} k^r (j^{r}-k^{r}) \biggr)^{-1/{2}}, &1 < j \leqslant n+1, \\ +\infty, &j=1. \end{cases} \end{equation*} \notag $$

Теорема 4. Если $\xi_{m+1} \leqslant \delta < \xi_m$ при некотором $1 \leqslant m \leqslant n $, то оптимальный метод имеет вид

$$ \begin{equation*} \widehat{\varphi}(\widetilde{a}_{0}, \dots, \widetilde{a}_{n}, \widetilde{b}_{1}, \dots, \widetilde{b}_{n})=\frac{\widetilde{a}_0}{2}+\sum_{k=1}^{m} (1-k^r (1- \widehat{c}_1))( \widetilde{a}_k \cos kt+\widetilde{b}_k \sin kt ), \end{equation*} \notag $$
где
$$ \begin{equation*} \widehat{c}_{1}=1-\frac{ 2 \delta^2 \sum_{k=1}^{m} k^r}{1+2 \delta^2 \sum_{k=1}^{m} k^{2r}}. \end{equation*} \notag $$
При этом погрешность оптимального восстановления равна
$$ \begin{equation*} E(W)=\sqrt{\frac{\delta^2}{2}+(1-\widehat{c}_1)^2+2 \delta^2 \sum_{k=1}^{m} (1-k^r (1- \widehat{c}_1))^2}. \end{equation*} \notag $$
Если же $\delta < \xi_{n+1}$, то метод
$$ \begin{equation*} \widehat{\varphi}(\widetilde{a}_{0}, \dots, \widetilde{a}_{n}, \widetilde{b}_{1}, \dots, \widetilde{b}_{n})=\frac{\widetilde{a}_0}{2}+\sum_{k=1}^{n} \biggl(1-\frac{k^r}{(n+1)^r} \biggr) (\widetilde{a}_k \cos kt+\widetilde{b}_k \sin kt ) \end{equation*} \notag $$
оптимальный и его погрешность равна
$$ \begin{equation*} E(W)=\sqrt{\frac{\delta^2}{2}+\frac{1}{(n+1)^{2r}}+2 \delta^2 \sum_{k=1}^{n} \biggl(1- \frac{k^r}{(n+1)^{r}} \biggr)^2}. \end{equation*} \notag $$

Замечание. Метод $\widehat{\varphi}$ из теоремы 4 оптимален в смысле (5.2), т.е. имеет наименьшую погрешность (5.1).

Как легко видеть, метод $\widehat{\varphi}$ линеен, использует, вообще говоря, не все доступные коэффициенты Фурье и определенным образом сглаживает используемые коэффициенты.

Список литературы

1. С. А. Смоляк, Об оптимальном восстановлении функций и функционалов от них, Дисс. … канд. физ.-матем. наук, МГУ, М., 1965
2. А. Г. Марчук, К. Ю. Осипенко, “Наилучшее приближение функций, заданных с погрешностью в конечном числе точек”, Матем. заметки, 17:3 (1975), 359–368  mathnet  mathscinet  zmath; англ. пер.: A. G. Marchuk, K. Yu. Osipenko, “Best approximation of functions specified with an error at a finite number of points”, Math. Notes, 17:3 (1975), 207–212  crossref
3. C. A. Micchelli, T. J. Rivlin, “A survey of optimal recovery”, Optimal estimation in approximation theory (Freudenstadt, 1976), Plenum, New York, 1977, 1–54  crossref  mathscinet  zmath
4. A. A. Melkman, C. A. Micchelli, “Optimal estimation of linear operators in Hilbert spaces from inaccurate data”, SIAM J. Numer. Anal., 16:1 (1979), 87–105  crossref  mathscinet  zmath
5. C. A. Micchelli, T. J. Rivlin, “Lectures on optimal recovery”, Numerical analysis (Lancaster, 1984), Lecture Notes in Math., 1129, Springer, Berlin, 1984, 21–93  crossref  mathscinet  zmath
6. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление функций и их производных по коэффициентам Фурье, заданным с погрешностью”, Матем. сб., 193:3 (2002), 79–100  mathnet  crossref  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Optimal recovery of functions and their derivatives from Fourier coefficients prescribed with an error”, Sb. Math., 193:3 (2002), 387–407  crossref
7. Н. Д. Выск, К. Ю. Осипенко, “Оптимальное восстановление решения волнового уравнения по неточным начальным данным”, Матем. заметки, 81:6 (2007), 803–815  mathnet  crossref  mathscinet  zmath; англ. пер.: N. D. Vysk, K. Yu. Osipenko, “Optimal reconstruction of the solution of the wave equation from inaccurate initial data”, Math. Notes, 81:6 (2007), 723–733  crossref
8. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “О наилучшем гармоническом синтезе периодических функций”, Фундамент. и прикл. матем., 18:5 (2013), 155–174  mathnet  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “On best harmonic synthesis of periodic functions”, J. Math. Sci. (N.Y.), 209:1 (2015), 115–129  crossref
9. К. Ю. Осипенко, “Оптимальное восстановление линейных операторов в неевклидовых метриках”, Матем. сб., 205:10 (2014), 77–106  mathnet  crossref  mathscinet  zmath; англ. пер.: K. Yu. Osipenko, “Optimal recovery of linear operators in non-Euclidean metrics”, Sb. Math., 205:10 (2014), 1442–1472  crossref  adsnasa
10. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Точность и оптимальность методов восстановления функций по их спектру”, Функциональные пространства, теория приближений, смежные разделы математического анализа, Сборник статей. К 110-летию со дня рождения академика Сергея Михайловича Никольского, Труды МИАН, 293, МАИК “Наука/Интерпериодика”, М., 2016, 201–216  mathnet  crossref  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Exactness and optimality of methods for recovering functions from their spectrum”, Proc. Steklov Inst. Math., 293 (2016), 194–208  crossref
11. L. Plaskota, Noisy information and computational complexity, Cambridge Univ. Press, Cambridge, 1996, xii+308 pp.  crossref  mathscinet  zmath  adsnasa
12. D. L. Donoho, “Statistical estimation and optimal recovery”, Ann. Statist., 22:1 (1994), 238–270  crossref  mathscinet  zmath  adsnasa
13. D. L. Donoho, R. C. Liu, B. MacGibbon, “Minimax risk over hyperrectangles, and implications”, Ann. Statist., 18:3 (1990), 1416–1437  crossref  mathscinet  zmath
14. С. В. Решетов, “Минимаксный риск для квадратично выпуклых множеств”, Вероятность и статистика. 15, Зап. науч. сем. ПОМИ, 368, ПОМИ, СПб., 2009, 181–189  mathnet  mathscinet  zmath; англ. пер.: S. Reshetov, “Minimax risk for quadratically convex sets”, J. Math. Sci. (N.Y.), 167:4 (2010), 537–542  crossref

Образец цитирования: К. Ю. Кривошеев, “Об оптимальном восстановлении значений линейных операторов по информации, известной со случайной ошибкой”, Матем. сб., 212:11 (2021), 89–108; K. Yu. Krivosheev, “On optimal recovery of values of linear operators from information known with a stochastic error”, Sb. Math., 212:11 (2021), 1588–1607
Цитирование в формате AMSBIB
\RBibitem{Kri21}
\by К.~Ю.~Кривошеев
\paper Об оптимальном восстановлении значений линейных операторов по информации, известной со случайной ошибкой
\jour Матем. сб.
\yr 2021
\vol 212
\issue 11
\pages 89--108
\mathnet{http://mi.mathnet.ru/sm9484}
\crossref{https://doi.org/10.4213/sm9484}
\zmath{https://zbmath.org/?q=an:1496.41015}
\adsnasa{https://adsabs.harvard.edu/cgi-bin/bib_query?2021SbMat.212.1588K}
\transl
\by K.~Yu.~Krivosheev
\paper On optimal recovery of values of linear operators from information known with a~stochastic error
\jour Sb. Math.
\yr 2021
\vol 212
\issue 11
\pages 1588--1607
\crossref{https://doi.org/10.1070/SM9484}
\isi{https://gateway.webofknowledge.com/gateway/Gateway.cgi?GWVersion=2&SrcApp=Publons&SrcAuth=Publons_CEL&DestLinkType=FullRecord&DestApp=WOS_CPL&KeyUT=000745284900001}
\scopus{https://www.scopus.com/record/display.url?origin=inward&eid=2-s2.0-85124221266}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/sm9484
  • https://doi.org/10.4213/sm9484
  • https://www.mathnet.ru/rus/sm/v212/i11/p89
  • Эта публикация цитируется в следующих 1 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Математический сборник Sbornik: Mathematics
    Статистика просмотров:
    Страница аннотации:244
    PDF русской версии:33
    PDF английской версии:14
    HTML русской версии:78
    Список литературы:33
    Первая страница:12
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024