|
Эта публикация цитируется в 1 научной статье (всего в 1 статье)
Об оптимальном восстановлении значений линейных операторов по информации, известной со случайной ошибкой
К. Ю. Кривошеев Московский физико-технический институт (национальный исследовательский университет), г. Долгопрудный, Московская обл.
Аннотация:
Рассмотрена задача оптимального восстановления значений линейных операторов на классах элементов, информация о которых известна со случайной ошибкой. Построены линейные оптимальные методы восстановления, которые используют, вообще говоря, не всю доступную для измерения информацию. В качестве следствия приводится оптимальный метод восстановления функции по конечному набору ее коэффициентов Фурье, заданных со случайной ошибкой.
Библиография: 14 названий.
Ключевые слова:
оптимальное восстановление, минимаксное оценивание, коэффициенты Фурье, экстремальная задача, линейный оператор.
Поступила в редакцию: 24.07.2020 и 08.04.2021
§ 1. Введение Работа посвящена построению оптимальных методов восстановления значений одного семейства линейных операторов на классах элементов, информация о которых известна со случайной ошибкой. Сама проблематика оптимального восстановления значений линейных функционалов и операторов на классах множеств возникла в 60-е годы прошлого века (см. [1]–[5]) и касалась случая, когда информация об элементах этих множеств известна с детерминированной ошибкой. Общая постановка задачи оптимального восстановления в этой ситуации такова. Пусть $X$ – векторное пространство, $Z$ – нормированное пространство и $T$: $X\to Z$ – линейный оператор. Наша цель заключается в том, чтобы наилучшим образом восстановить значения оператора $T$ на множестве (классе) $W\subset X$ по приближенной информации об элементах $W$. Точнее говоря, пусть задан линейный оператор $I\colon X\to \mathbb R^n$ и $\delta>0$. Информация о любом $x \in W$ представляет собой некоторый вектор $y = y(x) \in \mathbb{R}^n$ такой, что
$$
\begin{equation*}
\|y-I(x)\| \leqslant \delta,
\end{equation*}
\notag
$$
где $\|\cdot\|$ – какая-либо норма в $\mathbb R^n$. Каждое отображение $\varphi\colon\mathbb R^n\to Z$ будем называть методом восстановления (значений оператора $T$ на множестве $W$). Погрешность метода $\varphi$ задается формулой
$$
\begin{equation*}
e_0(T,W, \varphi)=\sup_{x \in W} \sup_{\substack{y \in \mathbb R^n\colon \\ \|y-I(x)\| \leqslant \delta}}\|T(x)-\varphi(y)\|_{Z}.
\end{equation*}
\notag
$$
Оптимальный метод восстановления – это отображение $\widehat \varphi\colon\mathbb R^n\to Z$ с минимальной погрешностью, т.е.
$$
\begin{equation*}
e_0(T,W, \widehat\varphi)=\inf_{\varphi} e_0(T,W, \varphi),
\end{equation*}
\notag
$$
где инфимум берется по всем отображениям $\varphi\colon\mathbb R^n\to Z$. Задача состоит в поиске оптимального метода восстановления (если он существует) и числа
$$
\begin{equation*}
E_0(T,W)=\inf_{\varphi} e_0(T,W, \varphi),
\end{equation*}
\notag
$$
где нижняя грань также берется по всем отображениям $\varphi\colon\mathbb R^n\to Z$, называемого погрешностью оптимального восстановления. К настоящему времени имеется значительное число работ, в которых для различных задач восстановления найдены оптимальные методы (см. [6]–[10]). Задача, подобная изложенной, рассматривается и в математической статистике, где информация об $x \in W$ представляет собой случайный вектор $y=y(x)$, распределенный по нормальному закону с математическим ожиданием $I(x)$ и ковариационной матрицей $\delta^2 \operatorname{Id}_n$ для всех $x\in W$ (здесь $\operatorname{Id}_n$ – единичная матрица порядка $n$), а погрешность восстановления определяется как
$$
\begin{equation}
e_1(T,W, \varphi)=\sqrt{ \sup_{x \in W} \mathbb E \|T(x)- \varphi(y(x))\|_{Z}^2},
\end{equation}
\tag{1.1}
$$
где $\mathbb E$ обозначает математическое ожидание. Такой постановке также посвящено немало работ (см., например, [11]–[14]). Несмотря на то, что формулировки задач с детерминированной и случайной ошибками весьма схожи, подходы к их решениям и полученные результаты во многом различаются. В частности, известно, что для задачи (1.1) даже в простейшем одномерном случае оптимальный метод нелинеен (см. [11], [12], [14]). Для задач оптимального восстановления с детерминированной ошибкой разработаны достаточно эффективные методы исследования, основанные на общей теории экстремума, которые позволяют в разных задачах находить оптимальные методы восстановления. В связи с этим представляется интересным адаптировать эти подходы к задачам оптимального восстановления и со случайной ошибкой. При этом мы не будем ограничиваться только нормальным распределением, а будем рассматривать произвольные распределения вектора $y(x)$ c фиксированным математическим ожиданием $I(x)$ и фиксированной оценкой для дисперсии. Более точно, для каждого $x\in W$ и $\delta>0$ рассмотрим множество вероятностных распределений в $\mathbb R^n$
$$
\begin{equation}
Y_\delta(x)=\bigl\{y=(y_{1}, y_{2}, \dots, y_{n}) \colon \mathbb E y=I(x), \,\mathbb V y_{k} \leqslant \delta^2, \, k=1, \dots, n \bigr\}
\end{equation}
\tag{1.2}
$$
(здесь $\mathbb V$ обозначает дисперсию) и определим погрешность метода $\varphi\colon\mathbb R^n\to Z$ по формуле
$$
\begin{equation}
e(T, W, \varphi)=\sqrt{\sup_{x \in W} \sup_{y \in Y_{\delta}(x)} \mathbb E \|T(x)- \varphi(y)\|_{Z}^2}
\end{equation}
\tag{1.3}
$$
(будем рассматривать только те методы, для которых погрешность (1.3) определена). Как и ранее, оптимальным методом восстановления называется отображение $\widehat \varphi\colon\mathbb R^n\to Z$ с минимальной погрешностью, т.е.
$$
\begin{equation*}
e(T,W, \widehat\varphi)=\inf_{\varphi} e(T,W, \varphi).
\end{equation*}
\notag
$$
Иными словами, оптимальный метод $\widehat{\varphi}$ обладает следующим свойством: супремум по всем парам $x \in W$, $y \in Y_{\delta}(x)$ величины $\mathbb E \|Tx-\varphi(y)\|^2$ минимален при $\varphi=\widehat{\varphi}$. Задача состоит в поиске оптимального метода восстановления (если он существует) и погрешности оптимального восстановления
$$
\begin{equation*}
E(T,W)=\inf_{\varphi} e(T,W, \varphi).
\end{equation*}
\notag
$$
В настоящей работе рассматривается именно такая задача оптимального восстановления, о которой мы будем говорить как о задаче оптимального восстановления значений оператора $T$ на классе $W$ по информации (1.2). Для операторов определенного вида найдены оптимальные методы и точные значения погрешности оптимального восстановления. При этом различные эффекты, обнаруженные в задачах восстановления с детерминированной ошибкой (например, линейность оптимального метода и возможность использовать не всю доступную для измерения информацию), проявляются и здесь. В качестве следствия полученные результаты применяются к задаче оптимального восстановления функции по ее конечному набору коэффициентов Фурье, заданных со случайной ошибкой. Благодарность Автор выражает искреннюю благодарность Г. Г. Магарил-Ильяеву и К. Ю. Осипенко за постановку задачи и внимание к работе.
§ 2. Постановка задачи Пусть $l_2$ – вещественное пространство суммируемых с квадратом последовательностей $x=(x_1,x_2,\dots)$. Если $e_1,e_2,\dots$ – стандартный базис в $l_2$, то $x=\sum_{k=1}^\infty x_k e_k$. Пусть $\nu_k > 0$, $k=1,2,\dots$ . Определим подпространство $\mathcal W$ в $l_2$ и множество $W$ по правилу
$$
\begin{equation*}
\mathcal{W}=\biggl\{x \in l_2\colon \sum_{k=1}^{\infty} \nu_{k} |x_{k}|^2 < \infty \biggr\}, \qquad W=\biggl\{x \in \mathcal{W}\colon \sum_{k=1}^{\infty} \nu_{k} |x_{k}|^2 \leqslant 1 \biggr\}.
\end{equation*}
\notag
$$
Пусть, наконец, ненулевые вещественные числа $\mu_k$, $k=1,2,\dots$, таковы, что $|\mu_k|^2\leqslant C \nu_k$ для всех $k=1,2,\dots$ и некоторого $C>0$. Определим линейные операторы $T\colon \mathcal W\to l_2$ и $I\colon \mathcal W\to \mathbb R^{n}$ соответственно по формулам
$$
\begin{equation*}
Tx=(\mu_1x_1,\mu_2x_2,\dots),\qquad Ix=(x_1,x_2,\dots,x_n),
\end{equation*}
\notag
$$
где $x=(x_1,x_2,\dots)$. Если обозначить $X=\mathcal W$ и $Z=l_2$, то в соответствии с общей постановкой нас интересует задача оптимального восстановления значений оператора $T$ на классе $W$ по информации (1.2).
§ 3. Основная теорема Теорема 1. Пусть числа $\nu_{k}$ и $\mu_{k}$ таковы, что последовательность $\gamma_k=\sqrt{\nu_k}/|\mu_k|$, $k\in\mathbb N$, возрастает и
$$
\begin{equation*}
\xi_{j}=\begin{cases} \displaystyle \biggl(\sum_{k=1}^{j} \nu_{k}\biggl(\frac{\gamma_{j}}{\gamma_{k}}-1\biggr)\biggr)^{-1/2}, & 1 < j \leqslant n+ 1, \\ +\infty, &j=1. \end{cases}
\end{equation*}
\notag
$$
Тогда если $\xi_{m+1} \leqslant \delta < \xi_{m}$ при некотором $1 \leqslant m \leqslant n $ и
$$
\begin{equation*}
\widehat{c}_{1}=1-\frac{ \delta^2 \sum_{k=1}^{m} {\nu_{k} \gamma_{1}}/{\gamma_{k}}}{1+\delta^2 \sum_{k=1}^{m} \nu_{k}},
\end{equation*}
\notag
$$
то метод
$$
\begin{equation*}
\widehat{\varphi}(y_1, \dots, y_{n})=\sum_{k=1}^{m} \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1}\biggr) \mu_k y_k e_k
\end{equation*}
\notag
$$
является оптимальным и при этом
$$
\begin{equation*}
E(T, W)=\sqrt{\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+ \delta^2 \sum_{k=1}^{m} \mu_{k}^2 \biggl(1-\frac{\gamma_k (1- \widehat{c}_1)}{\gamma_1}\biggr)^2}.
\end{equation*}
\notag
$$
Если $\delta < \xi_{n+1}$, то метод
$$
\begin{equation*}
\widehat{\varphi}(y_1, \dots, y_{n}) =\sum_{k=1}^{n} \biggl(1-\frac{\gamma_k}{\gamma_{n+1}} \biggr) \mu_k y_k e_k
\end{equation*}
\notag
$$
оптимален и
$$
\begin{equation*}
E(T, W)=\sqrt{\frac{1}{\gamma_{n+1}^2}+ \delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_{k}}{\gamma_{n+1}} \biggr)^2}.
\end{equation*}
\notag
$$
§ 4. Доказательство теоремы 1 Доказательство теоремы 1 разобьем на несколько частей. Сначала докажем оценку снизу для погрешности оптимального восстановления, а затем построим метод, на котором эта оценка будет достигаться. 4.1. Оценка снизу Теорема 2. Пусть $W$ – произвольное подмножество $l_2$, симметричное относительно “координатных плоскостей” $\{x \in l_2 \colon x_{k}=0\}$ при всех $k \in \mathbb N$. Тогда для погрешности оптимального восстановления справедлива оценка
$$
\begin{equation}
E^2(T, W) \geqslant \sup_{\tau \in W }\sum_{i=1}^{n} \frac{ \delta^2 \mu_{i}^2 \tau_{i}^2 }{\delta^2+\tau_{i}^2}+\mu_{n+1}^2 \tau_{n+1}^2.
\end{equation}
\tag{4.1}
$$
Доказательство. Зафиксируем элемент $\tau \in W$ такой, что
$$
\begin{equation*}
\tau_{i} \geqslant 0, \quad i=1, 2, \dots, n+1, \qquad \tau_{i}=0, \quad i > n+1.
\end{equation*}
\notag
$$
Заметим, что для нахождения супремума в правой части (4.1) достаточно рассматривать только такие $\tau$.
Положим
$$
\begin{equation*}
B=\{x \in l_2 \colon x_{i}^2=\tau_{i}^2, \ i=1, 2, \dots\}.
\end{equation*}
\notag
$$
Поскольку $W$ симметрично относительно всех “координатных плоскостей” $\{x\in l_2\colon x_{k}= 0\}$, ясно, что $B \subset W$.
Обозначим
$$
\begin{equation*}
p_{i}=\frac{\delta^2}{\delta^2+\tau_{i}^2}, \qquad i=1, 2, \dots, n.
\end{equation*}
\notag
$$
Не умаляя общности, для удобства обозначений предположим, что
$$
\begin{equation*}
\tau_{1} \geqslant \tau_{2} \geqslant \dots \geqslant \tau_{n}, \qquad p_{1} \leqslant p_{2} \leqslant \dots \leqslant p_{n}.
\end{equation*}
\notag
$$
Пусть $m=\max \{i\colon 1 \leqslant i \leqslant n,\,\tau_{i} > 0\}$. Произвольный элемент $x \in B$ можно записать в виде
$$
\begin{equation*}
x=\sum_{i=1}^{m} s_{i}(x) \tau_{i} e_{i}+s_{n+1}(x) \tau_{n+1} e_{n+1},
\end{equation*}
\notag
$$
где $s_{i}(x) \in \{-1, +1\}$. Отметим также следующее равенство, справедливое при любом $x \in B$:
$$
\begin{equation*}
\|T x\|_{l_2}^2=\sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2.
\end{equation*}
\notag
$$
Напомним, информация об элементах $W$ представляет собой $n$-мерный вектор. Пусть $\{e_{i}'\}_{i=1}^{n}$ – стандартный базис в $\mathbb R^{n}$. Зададим распределение $\eta(x)$ для каждого $x \in B$:
$$
\begin{equation*}
\eta(x)=\begin{cases} 0&\text{с вероятностью } p_{1}, \\ \dfrac{ s_{1}(x) \tau_{1} }{1-p_{1}} e_{1}' &\text{с вероятностью } p_{2}- p_{1}, \\ \dfrac{ s_{1}(x) \tau_{1} }{1-p_{1}} e_{1}'+\dfrac{ s_{2}(x) \tau_{2} }{1-p_{2}} e_{2}' &\text{с вероятностью } p_{3}-p_{2}, \\ \dots\dots\dots\dots\dots\dots\dots & \\ \displaystyle \sum_{i=1}^{m-1} \frac{ s_{{i}}(x) \tau_{{i}} }{1-p_{i}} e_{i}' &\text{с вероятностью } p_{m}-p_{{m-1}}, \\ \displaystyle \sum_{i=1}^{m} \frac{ s_{{i}}(x) \tau_{{i}} }{1-p_{i}} e_{i}' &\text{с вероятностью } 1-p_{m}. \end{cases}
\end{equation*}
\notag
$$
Легко видеть, что первые $m$ компонент этого распределения имеют вид
$$
\begin{equation*}
\eta_{i}(x)= \begin{cases} 0 &\text{с вероятностью } p_{i}, \\ \dfrac{x_i}{1-p_{i}} &\text{с вероятностью } 1-p_{i} \end{cases}
\end{equation*}
\notag
$$
при любом $i=1, 2, \dots, m$. Остальные $n-m$ компонент тождественно равны нулю.
Условие $\eta(x) \in Y_\delta(x)$ проверяется напрямую:
$$
\begin{equation*}
\begin{gathered} \, \mathbb E \eta_{i}(x)=(1-p_i) \frac{x_i}{1-p_{i}}= x_{i}, \\ \mathbb V \eta_{i}(x)=\mathbb E \eta_{i}^2(x)-(\mathbb E \eta_{i}(x) )^2 =(1-p_{i}) \frac{x_{i}^2}{(1-p_{i})^2}-x_{i}^2=\frac{\tau_{i}^2}{1-p_{i}}-\tau_{i}^2. \end{gathered}
\end{equation*}
\notag
$$
Из определения $p_i$ следует, что
$$
\begin{equation*}
1-p_{i}=\frac{\tau_{i}^2}{\delta^2+\tau_{i}^2} \quad \Longrightarrow \quad \mathbb V \eta_{i}(x)=\frac{1}{1-p_{i}} \tau_{i}^2-\tau_{i}^2=\delta^2+\tau_{i}^2- \tau_{i}^2=\delta^2.
\end{equation*}
\notag
$$
Для компонент $\eta_{i}(x)$, $ i > m$, необходимые требования на дисперсии и математические ожидания тоже соблюдаются. Проверим это отдельно:
$$
\begin{equation*}
\mathbb E \eta_{i}(x)=0=x_i, \quad \mathbb V \eta_{i}(x)=0 \leqslant \delta^2, \qquad i=m+1, \dots, n.
\end{equation*}
\notag
$$
Таким образом, $\eta(x) \in Y_\delta(x)$ для каждого $x \in B$.
Пусть $\varphi$ – произвольный метод восстановления. Мы знаем, что мощность множества $B$ конечна (не превосходит $2^{m+1}$), обозначим ее $|B|$. Имеем
$$
\begin{equation}
\begin{aligned} \, \nonumber e^2(T, W, \varphi) &\geqslant \sup_{x \in B} \mathbb E \| T x-\varphi(\eta(x))\|_{l_2}^2 \\ \nonumber &=\sup_{x \in B} \biggl( \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2 \biggr) \\ \nonumber &\geqslant \frac{1}{|B|} \sum_{x \in B} \biggl( \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}'\biggr) \biggr\|_{l_2}^2 \biggr) \\ &=\frac{1}{|B|} \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \sum_{x \in B} \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2 . \end{aligned}
\end{equation}
\tag{4.2}
$$
Здесь мы оценили супремум по $x \in B$ средним арифметическим. Предполагалось также, что $p_{0}=0$, $p_{m+1}=1$ и сумма по пустому множеству индексов равна нулю.
Рассмотрим для примера слагаемое $k=1$. В силу центральной симметричности $B$ получаем
$$
\begin{equation*}
\begin{aligned} \, & \frac{1}{|B|} p_1 \sum_{x \in B}\| T x-\varphi(0)\|_{l_2}^2 \\ &\qquad=\frac{1}{2|B|} p_1 \sum_{x \in B}\|T x-\varphi(0)\|_{l_2}^2 +\frac{1}{2|B|} p_1 \sum_{x \in B}\|- T x-\varphi(0)\|_{l_2}^2 \\ &\qquad \geqslant \frac{1}{|B|} p_1 \sum_{x \in B}\|T x\|_{l_2}^2 =p_1 \biggl( \sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2 \biggr). \end{aligned}
\end{equation*}
\notag
$$
Перейдем к общему случаю. Определим “сечения”:
$$
\begin{equation*}
B_{s_{1}, s_{2}, \dots, s_{k-1}}=\bigl\{x \in B\colon s_{1}(x)=s_1, s_{2}(x)=s_2, \dots, s_{k-1}(x)=s_{k-1} \bigr\}
\end{equation*}
\notag
$$
для всех $k=1, \dots, m+1$ (если $k=1$, то соответствующее сечение совпадает с $B$). Теперь оценим $k$-е слагаемое (4.2):
$$
\begin{equation}
\begin{aligned} \, & \frac{1}{|B|} (p_{k}-p_{k-1}) \sum_{x \in B} \biggl\| T x-\varphi \biggl( \sum_{i=1}^{k-1} \frac{s_{i}(x) \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2 \nonumber \\ &\qquad =\frac{1}{|B|} (p_{k}-p_{k-1}) \sum_{s_{1}, s_2, \dots, s_{k-1}} \sum_{ x \in B_{s_{1}, \dots, s_{k-1}}} \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} }{1-p_i} e_{i}' \biggr) \biggr\|_{l_2}^2. \end{aligned}
\end{equation}
\tag{4.3}
$$
“Сечения” описываются следующим образом:
$$
\begin{equation*}
\begin{gathered} \, x \in B_{s_{1}, s_{2}, \dots, s_{k-1}} \quad \Longrightarrow \quad x= \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)+z(x), \\ z(x)=\sum_{i=k}^{m} s_{i}(x) \tau_{i} e_i+s_{n+1}(x) \tau_{n+1} e_{n+1}. \end{gathered}
\end{equation*}
\notag
$$
При этом для любого $x \in B$ верно
$$
\begin{equation*}
\|T z(x)\|_{l_2}^2=\sum_{i=k}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2.
\end{equation*}
\notag
$$
Множества $B_{s_{1}, \dots, s_{k-1}}$ тоже центрально-симметричны, но с центром не в нуле:
$$
\begin{equation*}
x\,{=}\biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)\,{+}\,z(x)\,{\in}\, B_{s_{1}, s_{2}, \dots, s_{k-1}} \quad \Longrightarrow \quad \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)\,{-}\,z(x)\,{\in}\, B_{s_{1}, s_{2}, \dots, s_{k-1}}.
\end{equation*}
\notag
$$
Теперь оценим снизу (4.3) с помощью этой центральной симметричности:
$$
\begin{equation*}
\begin{aligned} \, & \frac{p_{k}-p_{k-1}}{|B|} \sum_{s_{1}, \dots, s_{k-1}} \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \biggl\| T x-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} }{1-p_i} e_{i}'\biggr) \biggr\|_{l_2}^2 \\ &\ \ =\frac{p_{k}-p_{k-1}}{|B|} \sum_{s_{1}, \dots, s_{k-1}} \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \biggl\| T \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)+T z(x) -\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} e_{i}' }{1-p_i} \biggr) \biggr\|_{l_2}^2 \\ &\ \ =\frac{p_{k}-p_{k-1}}{2|B|} \sum_{s_{1}, \dots, s_{k-1}} \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \biggl( \biggl\|T \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr)+T z(x)-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} e_{i}' }{1-p_i} \biggr) \biggr\|_{l_2}^2 \\ &\ \ \qquad +\biggl\|T \biggl(\sum_{i=1}^{k-1} s_{i} \tau_{i} e_i \biggr) -T z(x)-\varphi \biggl(\sum_{i=1}^{k-1} \frac{s_{i} \tau_{i} e_{i}' }{1-p_i} \biggr) \biggr\|_{l_2}^2\biggr) \\ &\ \ \geqslant \frac{p_{k}-p_{k-1}}{|B|} \sum_{s_{1}, \dots, s_{k-1}} \, \sum_{x \in B_{s_{1}, \dots, s_{k-1}}} \|T z(x)\|_{l_2}^2 =\frac{p_{k}-p_{k-1}}{|B|} \sum_{x \in B}\|T z(x)\|_{l_2}^2 \\ &\ \ =(p_{k}-p_{k-1}) \biggl( \sum_{i=k}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2 \biggr). \end{aligned}
\end{equation*}
\notag
$$
Суммируя по всем $k=1, 2, \dots, m+1$, получим
$$
\begin{equation*}
\begin{aligned} \, &e^{2}(T, W, \varphi) \geqslant \sum_{k=1}^{m+1} (p_{k}-p_{k-1}) \biggl( \sum_{i=k}^{m} \mu_{i}^2 \tau_{i}^2+\mu_{n+1}^2 \tau_{n+1}^2 \biggr) \\ &\qquad =\mu_{n+1}^2 \tau_{n+1}^2 +\sum_{k=1}^{m} \sum_{i \geqslant k} (p_{k}-p_{k-1}) \mu_{i}^2 \tau_{i}^2 =\mu_{n+1}^2 \tau_{n+1}^2+\sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2 \sum_{k=1}^{i} (p_{k}-p_{k-1}) \\ &\qquad=\mu_{n+1}^2 \tau_{n+1}^2+\sum_{i=1}^{m} \mu_{i}^2 \tau_{i}^2 p_{i}. \end{aligned}
\end{equation*}
\notag
$$
Учитывая определение $p_{i}$, имеем
$$
\begin{equation*}
e^{2}(T, W, \varphi) \geqslant \sum_{i=1}^{m} \frac{\delta^2 \mu_{i}^2 \tau_{i}^2}{\delta^2+ \tau_{i}^2}+\mu_{n+1}^2 \tau_{n+1}^2=\sum_{i=1}^{n} \frac{\delta^2 \mu_{i}^2 \tau_{i}^2}{\delta^2+\tau_{i}^2}+\mu_{n+1}^2 \tau_{n+1}^2.
\end{equation*}
\notag
$$
Поскольку элемент $\tau \in W$ и метод $\varphi$ были выбраны произвольно, теорема 2 доказана. 4.2. Оценка сверху Среди всех методов восстановления выделим множество
$$
\begin{equation*}
\begin{aligned} \, D&=\bigl\{\varphi\colon\mathbb R^n\to l_2\mid \exists\,\alpha_1, \alpha_2, \dots, \alpha_n \in \mathbb R\colon \\ &\qquad\varphi(y_1, y_2, \dots, y_n)=(\alpha_{1} y_1, \alpha_{2} y_2, \dots, \alpha_{n} y_{n}, 0, 0, \dots ) \bigr\}. \end{aligned}
\end{equation*}
\notag
$$
Сначала найдем метод $\widehat{\varphi}$ – решение задачи минимизации (будем называть его оптимальным $D$-методом)
$$
\begin{equation*}
e^2(T, W, \varphi) \to \min, \qquad \varphi \in D,
\end{equation*}
\notag
$$
а затем, основываясь на теореме 2, покажем, что $E(T, W) \geqslant e(T, W, \widehat{\varphi})$, т.е. метод $\widehat{\varphi}$ будет оптимальным. Лемма 1. Для любого метода $\varphi \in D$ квадрат его погрешности выражается через соответствующие этому методу коэффициенты $\alpha_1, \dots, \alpha_n$ по правилу
$$
\begin{equation*}
e^{2}(T, W, \varphi)=\max\biggl\{\frac{(\mu_1-\alpha_{1})^2}{\nu_1}, \dots, \frac{(\mu_n- \alpha_{n})^2}{\nu_n}, \frac{\mu_{n+1}^2}{\nu_{n+1}}, \frac{\mu_{n+2}^2}{\nu_{n+2}}, \dots \biggr\}+\delta^2 \sum_{k=1}^{n} \alpha_{k}^2.
\end{equation*}
\notag
$$
Доказательство. Перейдем от случайных векторов $y \in Y_\delta(x)$, у которых математическое ожидание зависит от $x$, к векторам
$$
\begin{equation*}
z=y-I x
\end{equation*}
\notag
$$
с нулевым математическим ожиданием.
Рассмотрим более подробно величину $e^2(T, W, \varphi)$ для произвольного метода $\varphi$ из множества $D$:
$$
\begin{equation}
\begin{aligned} \, \notag &e^2(T, W, \varphi) =\sup_{\substack{x \in W\\ y \in Y_\delta(x)}} \mathbb E \| T x- \varphi(y)\|_{l_2}^2 =\sup_{\substack{x \in W\\ y \in Y_\delta(x)}} \mathbb E \| T x-\varphi(Ix)- \varphi(z)\|_{l_2}^2 \\ &\qquad=\sup_{\substack{x \in W \\ y \in Y_\delta(x)}} \bigl(\|T x-\varphi(I x)\|_{l_2}^2 +\mathbb E \|\varphi(z)\|_{l_2}^2 -2 \mathbb E\langle T x-\varphi(I x), \varphi(z)\rangle \bigr). \end{aligned}
\end{equation}
\tag{4.4}
$$
Ограничения, связанные с определением множества $Y_\delta(x)$, легко выразить в терминах $z$:
$$
\begin{equation*}
\mathbb E z=0, \qquad \mathbb V z_{k} \leqslant \delta^2, \quad k=1, 2, \dots, n.
\end{equation*}
\notag
$$
Условие $\varphi \in D$ позволяет записать
$$
\begin{equation*}
\begin{aligned} \, &\mathbb E\langle T x-\varphi(I x), \varphi(z)\rangle \\ &\qquad =\mathbb E \biggl\langle T x- \varphi(I x), \sum_{k=1}^{n} \alpha_{k} z_{k} e_k \biggr\rangle =\sum_{k=1}^{n} \alpha_{k}\langle T x-\varphi(I x), e_k\rangle \mathbb E z_{k}=0. \end{aligned}
\end{equation*}
\notag
$$
Отсюда следует, что третье слагаемое в нижней строке формулы (4.4) для погрешности восстановления равно нулю. Распишем теперь второе слагаемое под знаком супремума (4.4):
$$
\begin{equation*}
\mathbb E \|\varphi(z)\|_{l_2}^2=\mathbb E \sum_{k=1}^{n} \alpha_{k}^2 z_{k}^{2}(x)=\sum_{k=1}^{n} \alpha_{k}^2 \mathbb V z_{k}.
\end{equation*}
\notag
$$
Подставляя полученные результаты в (4.4), находим
$$
\begin{equation*}
\begin{aligned} \, &e^2(T, W, \varphi) =\sup_{x \in W} \ \sup_{y \in Y_\delta(x)} \biggl( \|T x-\varphi(I x)\|_{l_2}^2 +\sum_{k=1}^{n} \alpha_{k}^2 \mathbb V z_{k} \biggr) \\ &\qquad=\sup_{x \in W} \biggl( \|T x-\varphi(I x)\|_{l_2}^2 +\delta^2 \sum_{k=1}^{n} \alpha_{k}^2 \biggr) =\sup_{x \in W}(\|T x-\varphi(I x)\|_{l_2}^2)+\delta^2 \sum_{k=1}^{n} \alpha_{k}^2. \end{aligned}
\end{equation*}
\notag
$$
Избавимся теперь от супремума по $x \in W$. Для этого нужно решить экстремальную задачу (при фиксированном $\varphi$)
$$
\begin{equation*}
\|T x-\varphi(I x)\|_{l_2}^2 \to \max_{x}, \qquad x \in W.
\end{equation*}
\notag
$$
Переписывая в более явном виде, получаем задачу линейного программирования
$$
\begin{equation}
\sum_{k=1}^{n} (\mu_{k}-\alpha_{k})^2 |x_{k}|^2 +\sum_{k=n+1}^{\infty} \mu_{k}^2 |x_{k}|^2 \to \max_{\{x_k\} },\qquad \sum_{k=1}^{\infty} \nu_{k} |x_{k}|^2 \leqslant 1.
\end{equation}
\tag{4.5}
$$
Покажем, что максимальное значение целевого функционала в этой задаче равно
$$
\begin{equation}
\max\biggl\{\frac{(\mu_1-\alpha_{1})^2}{\nu_1}, \frac{(\mu_2-\alpha_{2})^2}{\nu_2}, \dots , \frac{(\mu_{n}-\alpha_{n})^2}{\nu_{n}}, \frac{\mu_{n+1}^2}{\nu_{n+1}}, \frac{\mu_{n+2}^2}{\nu_{n+2}}, \dots \biggr\}.
\end{equation}
\tag{4.6}
$$
Чтобы доказать это, введем вспомогательные обозначения $X_{k}=\nu_{k} |x_{k}|^2, \ k \geqslant 1$, после чего (4.5) примет вид
$$
\begin{equation*}
\sum_{k=1}^{n} \frac{(\mu_{k}-\alpha_{k})^2}{\nu_{k}} X_{k} +\sum_{k=n+1}^{\infty} \frac{\mu_{k}^2}{\nu_{k}} X_{k} \to \max_{\{X_k\} }, \qquad \sum_{k=1}^{\infty} X_{k} \leqslant 1, \quad X_{k} \geqslant 0.
\end{equation*}
\notag
$$
Максимальное значение в полученной задаче, очевидно, совпадает с (4.6). Лемма 1 доказана. 4.3. Построение оптимального $D$-метода Как показано в лемме 1, погрешность метода $\varphi \in D$ является функцией соответствующих ему коэффициентов $\alpha_1, \dots, \alpha_n$. Для нахождения оптимального $D$-метода $\widehat{\varphi}$ нужно найти точку минимума этой функции. Имеем задачу минимизации
$$
\begin{equation}
\begin{aligned} \, \notag e^{2}(T, W, \varphi) & =\max\biggl\{\frac{(\mu_1-\alpha_{1})^2}{\nu_1}, \dots, \frac{(\mu_n- \alpha_{n})^2}{\nu_n}, \frac{\mu_{n+1}^2}{\nu_{n+1}}, \frac{\mu_{n+2}^2}{\nu_{n+2}}, \dots \biggr\} \\ &\qquad +\delta^2 \sum_{k=1}^{n} \alpha_{k}^2 \to \min_{ \{\alpha_k\} }. \end{aligned}
\end{equation}
\tag{4.7}
$$
Положим
$$
\begin{equation*}
c_{k}=\frac{\alpha_{k}}{\mu_{k}}, \quad k=1, 2, \dots, n, \qquad \gamma_{k}=\sqrt{ \frac{\nu_{k}}{\mu_{k}^2} }, \quad k=1, 2, \dots\,.
\end{equation*}
\notag
$$
Исходя из сделанного в формулировке теоремы 1 предположения о возрастании последовательности $\{\gamma_k\}$, преобразуем (4.7) следующим образом:
$$
\begin{equation}
e^{2}(T, W, \varphi)=\max\biggl\{\frac{(1-c_{1})^2}{\gamma_{1}^2}, \dots, \frac{(1- c_{n})^2}{\gamma_{n}^2}, \frac{1}{\gamma_{n+1}^2} \biggr\}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 c_{k}^2 \to \min_{ \{c_k\} } .
\end{equation}
\tag{4.8}
$$
Заметим, что задача (4.8) строго выпуклая, поэтому ее решение единственно. Пусть $\widehat{c}_1,\dots,\widehat{c}_{n}$ – оптимальные в этой задаче значения переменных. Тогда им соответствует оптимальный $D$-метод
$$
\begin{equation*}
\widehat{\varphi}(y_1, y_2, \dots, y_n)=\sum_{k=1}^{n} \widehat{c}_k \mu_k y_k e_k.
\end{equation*}
\notag
$$
Проведем решение (4.8) в несколько шагов. 4.4. Аналитическое решение задачи (4.8) Шаг 1. Все $\widehat{c}_k$ ($1 \leqslant k \leqslant n$) принадлежат отрезку $[0, 1]$. Чтобы доказать это утверждение, будем рассуждать от противного. Допустим, $\widehat{c}_k < 0$ для некоторого $k$. Подставим в целевой функционал (4.8) значение $c_k=-\widehat{c}_k$ вместо $c_k= \widehat{c}_k$, зафиксировав значения остальных переменных. Такая замена не меняет величину $c_{k}^2$, но уменьшает $(1-c_k)^2$, т.е. значение целевого функционала не увеличивается. Аналогично, если $\widehat{c}_k > 1$, то присвоим $c_k$ значение, симметричное $\widehat{c}_k$ относительно единицы; $(1-c_k)^2$ не изменится, а $c_{k}^2$ уменьшится. Таким образом, можно считать, что
$$
\begin{equation*}
\widehat{c}_k \in [0, 1] \quad \forall\, k \in \{1, 2, \dots, n\}.
\end{equation*}
\notag
$$
Шаг 2. Предположим, что при каком-то $k > 1$
$$
\begin{equation}
\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2} < \frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2}.
\end{equation}
\tag{4.9}
$$
В силу шага 1 имеется ограничение
$$
\begin{equation*}
\frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2} \leqslant \frac{1}{\gamma_{k}^2}.
\end{equation*}
\notag
$$
Будем уменьшать $c_1$, начиная с $c_1=\widehat{c}_1$ (зафиксировав $c_2=\widehat{c}_2,\dots,c_{n}=\widehat{c}_{n}$), до тех пор, пока не будет достигнуто равенство
$$
\begin{equation*}
\frac{(1-c_1)^2}{\gamma_{1}^2}=\frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2}.
\end{equation*}
\notag
$$
Условия $\gamma_1 \leqslant \gamma_2 \leqslant \dots \leqslant \gamma_{n}$ гарантируют, что найденное в результате этого процесса значение $c_1$ неотрицательно. Кроме того, величина
$$
\begin{equation}
\max\biggl\{\frac{(1-c_1)^2}{\gamma_{1}^2}, \frac{(1-c_2)^2}{\gamma_{2}^2}, \dots , \frac{(1- c_{n})^2}{\gamma_{n}^2}, \frac{1}{\gamma_{n+1}^2} \biggr\}
\end{equation}
\tag{4.10}
$$
не увеличилась. Следовательно, рассматриваемый процесс приводит к уменьшению целевого функционала (4.8), что противоречит определению $ \widehat{c}_1 $. Тогда справедливо обратное к (4.9) неравенство
$$
\begin{equation}
\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2} \geqslant \frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2}, \qquad k=2, 3, \dots, n.
\end{equation}
\tag{4.11}
$$
Аналогично доказывается, что для последнего слагаемого под знаком максимума в (4.10)
$$
\begin{equation}
\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2} \geqslant \frac{1}{\gamma_{n+1}^2} \quad\Longleftrightarrow \quad \widehat{c}_1 \leqslant 1-\frac{\gamma_{1}}{\gamma_{n+1}}.
\end{equation}
\tag{4.12}
$$
С другой стороны, похожие соображения можно использовать не только для $c_1$, но и для других переменных. Допустим, при некотором $ k > 1$
$$
\begin{equation*}
\frac{(1-\widehat{c}_k)^2}{\gamma_{k}^2} < \frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}.
\end{equation*}
\notag
$$
При уменьшении $c_k$ (стартуя с $ c_k=\widehat{c}_k$) максимум (4.10) не будет изменяться и целевой функционал (4.8) будет убывать. Однако этот процесс остановится, если: Отсюда следует, что $\widehat{c}_k$ либо равно нулю, либо (если $1-{\gamma_{k} (1- \widehat{c}_1)}/{\gamma_1} \geqslant 0$) выражается формулой (4.13). Запишем это в кратком виде так:
$$
\begin{equation}
\widehat{c}_k=\biggl[1-\frac{\gamma_{k} (1-\widehat{c}_1)}{\gamma_1}\biggr]_{+}.
\end{equation}
\tag{4.14}
$$
Здесь $[t]_{+}=\max(0, t)$. Таким образом, все коэффициенты оптимального $D$-метода выражены через $\widehat{c}_1$. Собирая вместе (4.8), (4.11), (4.12), (4.14), получим одномерную задачу для поиска $\widehat{c}_1$
$$
\begin{equation*}
\frac{(1-c_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl[1-\frac{\gamma_{k} (1-c_1)}{\gamma_1}\biggr]_{+}^2 \to \min_{c_1}, \qquad 0 \leqslant c_1 \leqslant 1-\frac{\gamma_{1}}{\gamma_{n+1}}.
\end{equation*}
\notag
$$
Домножим целевой функционал на $\gamma_{1}^2$. После несложных упрощений имеем
$$
\begin{equation}
g(c_1) \stackrel{\text{def}}{\equiv} (1\,{-}\,c_1)^2\,{+}\,\delta^2 \sum_{k=1}^{n} \nu_{k} \biggl[c_1\,{-}\,1+\frac{\gamma_{1}}{\gamma_{k}} \biggr]_{+}^2 \to \min_{c_1}, \qquad 0 \leqslant c_1 \leqslant 1-\frac{\gamma_1}{\gamma_{n+1}}.
\end{equation}
\tag{4.15}
$$
Здесь мы по-прежнему минимизируем погрешность метода (с точностью до константы). В частности, для оптимального $D$-метода
$$
\begin{equation}
\begin{aligned} \, \notag e^2(T, W, \widehat{\varphi}) &=\frac{g(\widehat{c}_1)}{\gamma_{1}^2}=\frac{(1- \widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl[1-\frac{\gamma_{k} (1- \widehat{c}_1)}{\gamma_1}\biggr]_{+}^2 \\ &=\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \widehat{c}_{k}^{\,2}. \end{aligned}
\end{equation}
\tag{4.16}
$$
Шаг 3. Исследуем (4.15). Эта задача строго выпуклая и дифференцируемая по $ c_1 $. Вычислим призводную целевого функционала (4.15):
$$
\begin{equation}
g'(c_1)=2(c_1-1)+2 \delta^2 \sum_{k=1}^{n} \nu_{k} \biggl[c_1-1+ \frac{\gamma_{1}}{\gamma_{k}} \biggr]_{+}.
\end{equation}
\tag{4.17}
$$
Предположим, что при каком-то $1 \leqslant m \leqslant n$
$$
\begin{equation}
1-\frac{\gamma_1}{\gamma_m} < \widehat{c}_1 \leqslant 1-\frac{\gamma_1}{\gamma_{m+1}}.
\end{equation}
\tag{4.18}
$$
Тогда
$$
\begin{equation*}
g'(\widehat{c}_1)=2(\widehat{c}_1-1)+2 \delta^2 \sum_{k=1}^{m} \nu_{k} \biggl(\widehat{c}_1-1+\frac{\gamma_{1}}{\gamma_{k}} \biggr).
\end{equation*}
\notag
$$
Из того, что $g'(\widehat{c}_1)=0$, следует
$$
\begin{equation}
\widehat{c}_1=1-\frac{ \delta^2 \sum_{k=1}^{m}({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}}.
\end{equation}
\tag{4.19}
$$
Подставляя это в (4.18), получаем двойное неравенство, которое можно представить в виде условия на $\delta$:
$$
\begin{equation*}
\xi_{m+1}^2=\frac{1}{ \sum_{k=1}^{m+1} \nu_{k} ({\gamma_{m+1}}/{\gamma_{k}}-1)} \leqslant \delta^2 < \frac{1}{ \sum_{k=1}^{m} \nu_{k} ({\gamma_{m}}/{\gamma_{k}}- 1)}=\xi_{m}^2.
\end{equation*}
\notag
$$
Таким образом, при $\xi_{m+1} \leqslant \delta < \xi_m$ коэффициент $\widehat{c}_1$ задается формулой (4.19). Согласно (4.14)
$$
\begin{equation*}
\begin{gathered} \, \widehat{c}_k=\biggl[ 1-\frac{\gamma_{k}(1-\widehat{c}_1)}{\gamma_1} \biggr]_{+} , \\ \widehat{c}_{k} > 0 \quad \Longleftrightarrow \quad 1-\frac{\gamma_{k} (1- \widehat{c}_1)}{\gamma_{1}} > 0 \quad \Longleftrightarrow\quad \widehat{c}_1 > 1- \frac{\gamma_{1}}{\gamma_{k}}. \end{gathered}
\end{equation*}
\notag
$$
Сравнив это с (4.18), несложно видеть, что $\widehat{c}_{k} > 0$ только при $k \leqslant m$. Отсюда находим оптимальный $D$-метод:
$$
\begin{equation*}
\widehat{\varphi}(y_1, y_2, \dots, y_{n})=\sum_{k=1}^{m} \biggl(1-\frac{\gamma_k (1- \widehat{c}_1)}{\gamma_1} \biggr) \mu_k y_k e_k.
\end{equation*}
\notag
$$
Пусть $\delta < \xi_{n+1}$. В этом случае согласно (4.17)
$$
\begin{equation*}
\begin{aligned} \, g'\biggl( 1-\frac{\gamma_{1}}{\gamma_{n+1}} \biggr) &= \frac{-2 \gamma_{1}}{\gamma_{n+1}}+2 \delta^2 \sum_{k=1}^{n} \nu_{k} \biggl(\frac{\gamma_{1}}{\gamma_{k}}-\frac{\gamma_{1}}{\gamma_{n+1}} \biggr) \\ &=\frac{2 \gamma_{1}}{\gamma_{n+1}} \biggl(-1+\delta^2 \sum_{k=1}^{n} \nu_{k} \biggl( \frac{\gamma_{n+1}}{\gamma_{k}}-1\biggr )\biggr )=\frac{2 \gamma_{1}}{\gamma_{n+1}} \biggl(-1+ \frac{\delta^2}{\xi_{n+1}^2}\biggr ) \leqslant 0. \end{aligned}
\end{equation*}
\notag
$$
В (4.15) имеем ограничение $0 \leqslant c_1 \leqslant 1-{\gamma_1}/{\gamma_{n+1}}$. Поэтому в силу строгого возрастания $g'(\cdot)$ на этом отрезке получим
$$
\begin{equation*}
\widehat{c}_1=1-\frac{\gamma_1}{\gamma_{n+1}}.
\end{equation*}
\notag
$$
Учитывая выражения для $\{\widehat{c}_{k}\}$, находим оптимальный $D$-метод:
$$
\begin{equation*}
\widehat{\varphi}(y_1, y_2, \dots, y_{n})=\sum_{k=1}^{n} \biggl(1- \frac{\gamma_k}{\gamma_{n+1}}\biggr) \mu_k y_k e_k.
\end{equation*}
\notag
$$
Следующая лемма дополняет полученные нами результаты. Лемма 2. Предположим, $\xi_{m+1} \leqslant \delta < \xi_{m}$ при некотором $1 \leqslant m \leqslant n$. Тогда для погрешности оптимального $D$-метода верна формула
$$
\begin{equation}
e^{2}(T, W, \widehat{\varphi})=\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_k.
\end{equation}
\tag{4.20}
$$
В случае $\delta < \xi_{n+1}$
$$
\begin{equation}
e^2(T, W, \widehat{\varphi})=\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \widehat{c}_k+ \frac{1}{\gamma_{n+1}^2} \biggl(1-\frac{\delta^2}{\xi_{n+1}^2}\biggr).
\end{equation}
\tag{4.21}
$$
Доказательство. Сначала докажем (4.20). Напомним формулы для коэффициентов оптимального $D$-метода:
$$
\begin{equation*}
\begin{gathered} \, \widehat{c}_1\,{=}\,1-\frac{\delta^2 \sum_{k=1}^{m} ({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}} \quad \Longrightarrow \quad (1-\widehat{c}_1)+ \delta^2 \sum_{k=1}^{m} \nu_{k} (1-\widehat{c}_1)-\delta^2 \sum_{k=1}^{m} \frac{\nu_{k} \gamma_{1}}{\gamma_{k}}=0, \\ \widehat{c}_k=\biggl[1-\frac{\gamma_{k} (1-\widehat{c}_1) }{\gamma_{1}} \biggr]_{+}, \qquad k=1, 2, \dots, n. \end{gathered}
\end{equation*}
\notag
$$
Согласно полученным выше результатам ненулевыми будут первые $m$ из них. Поэтому для погрешности оптимального $D$-метода в соответствии с (4.16) имеем
$$
\begin{equation}
e^2(T, W, \widehat{\varphi})=\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_{k}^2.
\end{equation}
\tag{4.22}
$$
Для доказательства леммы будем использовать соотношения
$$
\begin{equation*}
1-\widehat{c}_k=\frac{\gamma_{k} (1-\widehat{c}_1) }{\gamma_{1}}, \qquad k=1, 2, \dots, m.
\end{equation*}
\notag
$$
Составим разность правых частей (4.22) и (4.20) и покажем, что она равна нулю:
$$
\begin{equation*}
\begin{aligned} \, & \frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_{k}^{\,2}- \delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_k \\ &\qquad =\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 (1-\widehat{c}_{k})^2- \delta^2 \sum_{k=1}^{m} \mu_{k}^2 (1-\widehat{c}_k) \\ &\qquad =\frac{1-\widehat{c}_1}{\gamma_{1}^2} \biggl( (1-\widehat{c}_1)+\delta^2 \sum_{k= 1}^{m} \mu_{k}^2 \gamma_{k}^2 (1-\widehat{c}_{1})-\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \gamma_{k} \gamma_{1} \biggr) \\ &\qquad =\frac{1-\widehat{c}_1}{\gamma_{1}^2} \biggl( (1-\widehat{c}_1)+\delta^2 \sum_{k= 1}^{m} \nu_{k} (1-\widehat{c}_{1})-\delta^2 \sum_{k=1}^{m} \frac{\nu_{k} \gamma_{1}}{\gamma_{k}} \biggr)=0. \end{aligned}
\end{equation*}
\notag
$$
Похожие рассуждения можно провести, и если $\delta < \xi_{n+1}$. Воспользуемся формулами для коэффициентов метода $\widehat{\varphi}$
$$
\begin{equation*}
\widehat{c}_k=1-\frac{\gamma_k}{\gamma_{n+1}}, \qquad k=1, 2, \dots, n.
\end{equation*}
\notag
$$
Тогда из (4.22) находим
$$
\begin{equation}
e^{2}(T, W, \widehat{\varphi})=\frac{1}{\gamma_{n+1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)^2.
\end{equation}
\tag{4.23}
$$
Сравним правые части (4.21) и (4.23):
$$
\begin{equation*}
\begin{aligned} \, & \delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)+ \frac{1}{\gamma_{n+1}^2} \biggl(1-\frac{\delta^2}{\xi_{n+1}^2}\biggr)-\frac{1}{\gamma_{n+1}^2}- \delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)^2 \\ &\qquad =\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)-\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)^2- \frac{\delta^2}{\gamma_{n+1}^2 \xi_{n+1}^2} \\ &\qquad =\delta^2 \sum_{k=1}^{n} \frac{\mu_{k}^2 \gamma_k}{\gamma_{n+1}} \biggl(1- \frac{\gamma_k}{\gamma_{n+1}}\biggr)-\frac{\delta^2}{\gamma_{n+1}^2 \xi_{n+1}^2} \\ &\qquad = \frac{\delta^2}{\gamma_{n+1}^2} \biggl(\sum_{k=1}^{n} \nu_k \biggl(\frac{\gamma_{n+1}}{\gamma_k}- 1\biggr)-\frac{1}{\xi_{n+1}^2}\biggr)=0. \end{aligned}
\end{equation*}
\notag
$$
Лемма 2 доказана. 4.5. Завершение доказательства теоремы 1 Покажем, что построенный в предыдущем пункте метод $\widehat{\varphi}$ оптимальный. В соответствии с теоремой 2
$$
\begin{equation*}
E^2(T, W) \geqslant \sup_{\tau \in W }\sum_{k=1}^{n} \frac{\delta^2 \mu_{k}^2\tau_{k}^2}{\delta^2+\tau_{k}^2}+\mu_{n+1}^2 \tau_{n+1}^2.
\end{equation*}
\notag
$$
Пусть $\xi_{m+1} \leqslant \delta < \xi_m$, где $1 \leqslant m \leqslant n$. Выберем $\widehat{\tau} \in l_2$, удовлетворяющее условиям
$$
\begin{equation*}
\widehat{\tau}_{k}^{\,2}=\delta^2 \biggl(\frac{\gamma_1}{(1-\widehat{c}_1) \gamma_k}-1\biggr),\quad k=1, 2, \dots, m,\qquad \widehat{\tau}_{k}=0,\quad k=m+1, \dots\,.
\end{equation*}
\notag
$$
Здесь $\widehat{c}_1$, вообще говоря, зависит от $\delta$. На отрезке $\delta \in [\xi_{m+1}, \xi_m)$ справедлива формула
$$
\begin{equation*}
\widehat{c}_1=1-\frac{\delta^2 \sum_{k=1}^{m} ({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}}.
\end{equation*}
\notag
$$
Убедимся, что $\widehat{\tau} \in W$:
$$
\begin{equation*}
\begin{aligned} \, \sum_{k=1}^{\infty} \nu_k \widehat{\tau}_{k}^{\,2} &=\delta^2 \sum_{k=1}^{m} \nu_k \biggl(\frac{\gamma_1}{(1-\widehat{c}_1) \gamma_k}-1\biggr) =\frac{\delta^2 \gamma_1}{1- \widehat{c}_1} \sum_{k=1}^{m} \frac{\nu_k}{\gamma_k}-\delta^2 \sum_{k=1}^{m} \nu_k \\ &=\biggl(1+\delta^2 \sum_{k=1}^{m} \nu_k\biggr )-\delta^2 \sum_{k=1}^{m} \nu_k=1. \end{aligned}
\end{equation*}
\notag
$$
По теореме 2
$$
\begin{equation*}
\begin{aligned} \, E^2(T, W) &\geqslant \sum_{k=1}^{m} \frac{ \delta^2 \mu_{k}^2 \widehat{\tau}_{k}^{\,2} }{\delta^2+ \widehat{\tau}_{k}^{\,2}}=\sum_{k=1}^{m} \frac{ \delta^4 \mu_{k}^2 ({\gamma_1}/((1- \widehat{c}_1) \gamma_k)-1) }{\delta^2 {\gamma_1}/((1-\widehat{c}_1) \gamma_k)} \\ &=\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1} \biggr)=\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \widehat{c}_k=e^{2}(T, W, \widehat{\varphi}), \end{aligned}
\end{equation*}
\notag
$$
что и требовалось. Пусть $\delta < \xi_{n+1}$. В этом случае возьмем последовательность $\widehat{\tau} \in l_2$ такую, что
$$
\begin{equation*}
\begin{gathered} \, \widehat{\tau}_{k}^{\,2}=\delta^2 \biggl(\frac{\gamma_{n+1}}{\gamma_{k}}-1\biggr),\quad k=1, 2, \dots, n,\qquad \widehat{\tau}_{n+1}^{\,2}=\frac{1}{\nu_{n+1}}\biggl(1-\sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \biggr), \\ \widehat{\tau}_{k}=0, \qquad k=n+2, n+3, \dots\,. \end{gathered}
\end{equation*}
\notag
$$
Проверим, что $\widehat{\tau} \in W$. Для этого достаточно показать, что верно неравенство
$$
\begin{equation*}
\sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \leqslant 1.
\end{equation*}
\notag
$$
Произведем равносильные переходы, чтобы убедиться в его справедливости:
$$
\begin{equation*}
\begin{gathered} \, \sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \leqslant 1 \quad \Longleftrightarrow\quad \delta^2 \sum_{k=1}^{n} \nu_k \biggl(\frac{\gamma_{n+1}}{\gamma_{k}}-1\biggr) \leqslant 1, \\ \delta^2 \leqslant \frac{1}{\sum_{k=1}^{n} \nu_k ({\gamma_{n+1}}/{\gamma_{k}}-1)} \quad \Longleftrightarrow\quad \delta^2 \leqslant \xi_{n+1}^2. \end{gathered}
\end{equation*}
\notag
$$
Значит, $\widehat{\tau} \in W$. По теореме 2
$$
\begin{equation*}
\begin{aligned} \, E^2(T, W) &\geqslant \sum_{k=1}^{n} \frac{ \delta^2 \mu_{k}^2 \widehat{\tau}_{k}^{\,2} }{\delta^2+ \widehat{\tau}_{k}^{\,2}}+\mu_{n+1}^2 \widehat{\tau}_{n+1}^2 \\ &=\sum_{k=1}^{n} \frac{ \delta^4 \mu_{k}^2 ({\gamma_{n+1}}/{\gamma_{k}}-1) }{\delta^2 ({\gamma_{n+1}}/{\gamma_{k}})}+\frac{\mu_{n+1}^2}{\nu_{n+1}}\biggl(1- \sum_{k=1}^{n} \nu_k \widehat{\tau}_{k}^{\,2} \biggr) \\ &=\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_k}{\gamma_{n+1}}\biggr)+ \frac{1}{\gamma_{n+1}^2}\biggl(1-\delta^2 \sum_{k=1}^{n} \nu_k \biggl(\frac{\gamma_{n+1}}{\gamma_k}- 1 \biggr) \biggr) \\ &=\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \widehat{c}_k+\frac{1}{\gamma_{n+1}^2}\biggl(1- \frac{\delta^2}{\xi_{n+1}^2}\biggr )=e^{2}(T, W, \widehat{\varphi}), \end{aligned}
\end{equation*}
\notag
$$
что и требовалось. Теорема 1 доказана. 4.6. Следствие теоремы 1 Небольшая модификация доказательства теоремы 1 позволяет получить несколько более общее утверждение. Будем обозначать стандартный базис в $l_2$ индексами, начинающимися с нуля: $e_0,e_1,\dots$ . Оставаясь в рамках общей постановки задачи оптимального восстановления по информации (1.2), уточним определения множества $W$ и операторов $T$, $I$:
$$
\begin{equation*}
\begin{gathered} \, \mathcal{W}=\biggl\{x \in l_2\colon \sum_{k=0}^{\infty} \nu_{k} |x_{k}|^2 < \infty \biggr\}, \qquad W=\biggl\{x \in \mathcal{W}\colon \sum_{k=0}^{\infty} \nu_{k} |x_{k}|^2 \leqslant 1 \biggr\}, \\ Tx=(\mu_0x_0,\mu_1x_1,\dots), \qquad Ix=(x_0,x_1,\dots,x_n), \end{gathered}
\end{equation*}
\notag
$$
где $x=(x_0,x_1,\dots)$. Теорема 3. 1. Пусть $\mu_k \neq 0$ при всех $k \in \mathbb Z_+$. Здесь $\mathbb Z_+$ – множество целых неотрицательных чисел. 2. Положим
$$
\begin{equation*}
\gamma_{k}=\sqrt{ \frac{\nu_{k}}{\mu_{k}^2} }, \qquad k=0, 1, \dots,
\end{equation*}
\notag
$$
и потребуем, чтобы последовательность $\{\gamma_k\}$ была возрастающей. 3. Пусть $\gamma_0=0$, $\gamma_k > 0$ при $k \geqslant 1$ или, эквивалентно, $\nu_0=0$, $\nu_k > 0$ при $k \geqslant 1$. Положим
$$
\begin{equation*}
\xi_{j}=\begin{cases} \displaystyle \biggl(\sum_{k=1}^{j} \nu_{k} \biggl(\frac{\gamma_{j}}{\gamma_{k}}-1 \biggr) \biggr)^{-1/2}, & 1 < j \leqslant n+1, \\ +\infty, & j=1. \end{cases}
\end{equation*}
\notag
$$
Если $\xi_{m+1} \leqslant \delta < \xi_m$ при некотором $1 \leqslant m \leqslant n $, то оптимальный метод имеет вид
$$
\begin{equation*}
\widehat{\varphi}(y_0, y_1, \dots, y_{n}) =\mu_0 y_0 e_0+\sum_{k=1}^{m} \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1}\biggr) \mu_k y_k e_k,
\end{equation*}
\notag
$$
где
$$
\begin{equation*}
\widehat{c}_{1}=1-\frac{ \delta^2 \sum_{k=1}^{m}({\nu_{k} \gamma_{1}}/{\gamma_{k}})}{1+ \delta^2 \sum_{k=1}^{m} \nu_{k}}.
\end{equation*}
\notag
$$
При этом погрешность оптимального восстановления равна
$$
\begin{equation*}
E(T, W)=\sqrt{\delta^2 \mu_{0}^2+\frac{(1-\widehat{c}_1)^2}{\gamma_{1}^2}+\delta^2 \sum_{k=1}^{m} \mu_{k}^2 \biggl(1-\frac{\gamma_k (1-\widehat{c}_1)}{\gamma_1}\biggr)^2}.
\end{equation*}
\notag
$$
Если же $\delta < \xi_{n+1}$, то метод
$$
\begin{equation*}
\widehat{\varphi}(y_0, y_1, \dots, y_{n})=\mu_0 y_0 e_0+\sum_{k=1}^{n} \biggl(1- \frac{\gamma_k}{\gamma_{n+1}} \biggr) \mu_k y_k e_k
\end{equation*}
\notag
$$
является оптимальным и его погрешность равна
$$
\begin{equation*}
E(T, W)=\sqrt{\delta^2 \mu_{0}^2+\frac{1}{\gamma_{n+1}^2}+\delta^2 \sum_{k=1}^{n} \mu_{k}^2 \biggl(1-\frac{\gamma_{k}}{\gamma_{n+1}} \biggr)^2}.
\end{equation*}
\notag
$$
§ 5. Применение к восстановлению функции по ее конечному набору коэффициентов Фурье Пусть $\mathbb T$ – это отрезок $[-\pi, \pi]$ с идентифицированными концами, $\mathcal{W}_{2}^r(\mathbb T)$ – пространство вещественных $ 2 \pi $-периодических функций, у которых $ (r-1) $-я производная абсолютно непрерывна на $\mathbb T$, а $ r $-я производная принадлежит $L_2(\mathbb T)$ ($r \in \mathbb N$). Введем в пространстве $L_2(\mathbb T)$ скалярное произведение и согласованную с ним норму:
$$
\begin{equation*}
\langle f_1, f_2\rangle=\frac{1}{\pi} \int_{-\pi}^{\pi} f_1(t) f_2(t)\,dt, \qquad \|f_1\|_{L_2(\mathbb T)}^2=\frac{1}{\pi} \int_{-\pi}^{\pi} f_{1}^2(t) \, dt,
\end{equation*}
\notag
$$
где $f_1$, $f_2$ – произвольные элементы $L_2(\mathbb T)$. Положим
$$
\begin{equation*}
F_{n} x=\bigl( a_{0}(x), a_{1}(x), \dots, a_{n}(x), b_{1}(x), b_{2}(x), \dots, b_{n}(x)\bigr),
\end{equation*}
\notag
$$
где $\{a_{k}(x)\}$, $\{b_{k}(x)\}$ – коэффициенты Фурье $x \in \mathcal{W}_{2}^r(\mathbb T)$. Определим класс функций:
$$
\begin{equation*}
W_{2}^r(\mathbb T)=\{x \in \mathcal{W}_{2}^r(\mathbb T) \colon \|x^{(r)}\|_{L_2(\mathbb T)} \leqslant 1\}.
\end{equation*}
\notag
$$
Сформулируем задачу оптимального восстановления функции из $W_{2}^r(\mathbb T)$ по конечному набору ее коэффициентов Фурье, известных со случайной ошибкой. Для любых $x \in W_{2}^r(\mathbb T)$ и $\delta > 0$ рассмотрим множество всех вероятностных распределений в $\mathbb R^{2n+1}$ с математическим ожиданием $F_{n} x$ и дисперсией каждой из компонент не больше $\delta^2$:
$$
\begin{equation*}
\begin{aligned} \, Y_\delta(x) &=\bigl\{y= (\widetilde{a}_{0}, \dots, \widetilde{a}_{n}, \widetilde{b}_{1}, \dots, \widetilde{b}_{n}) \colon \mathbb E y=F_{n} x, \\ &\qquad \mathbb V \widetilde{a}_k \leqslant \delta^2, \ k=0, 1, \dots, n, \ \mathbb V \widetilde{b}_k \leqslant \delta^{2}, \ k=1, \dots, n \bigr\}. \end{aligned}
\end{equation*}
\notag
$$
Методы восстановления функций из $W_{2}^{r}(\mathbb{T})$ – это все отображения $\varphi\colon \mathbb R^{2 n+1} \to L_2(\mathbb T)$. Будем рассматривать только множество методов, для которых определена погрешность
$$
\begin{equation}
e(W, \varphi)=\sqrt{\sup_{x \in W_{2}^r(\mathbb T)} \sup_{y \in Y_\delta(x)} \mathbb E \|x- \varphi(y)\|_{L_2(\mathbb T)}^2}.
\end{equation}
\tag{5.1}
$$
Оптимальным методом называется метод восстановления $\widehat{\varphi}$ с минимальной погрешностью
$$
\begin{equation}
e(W, \widehat\varphi)=\inf_{\varphi} e(W, \varphi),
\end{equation}
\tag{5.2}
$$
а погрешность оптимального восстановления определяется по формуле
$$
\begin{equation*}
E(W)=\inf_{\varphi} e(W, \varphi).
\end{equation*}
\notag
$$
Задача состоит в том, чтобы найти оптимальный метод и погрешность оптимального восстановления. Приведем решение поставленной задачи, основанное на применении общей теоремы 3. Введем ортонормированный базис в пространстве $L_{2}(\mathbb T)$
$$
\begin{equation*}
\biggl(\frac{1}{\sqrt{2}}, \cos t, \sin t, \dots, \cos kt, \sin kt, \dots\biggr ).
\end{equation*}
\notag
$$
Преобразование Фурье
$$
\begin{equation*}
x \longmapsto \biggl(\frac{a_{0}(x)}{\sqrt{2}}, a_{1}(x), b_{1}(x), \dots, a_{k}(x), b_{k}(x), \dots \biggr)
\end{equation*}
\notag
$$
задает изометрический изоморфизм между пространствами $L_{2}(\mathbb T)$ и $l_2$. Кроме того, из равенства Парсеваля имеем
$$
\begin{equation*}
\|x^{(r)}\|_{L_2(\mathbb T)}^2 \leqslant 1 \quad \Longleftrightarrow \quad \sum_{k=1}^{\infty} k^{2r} (a_{k}^{2}(x)+b_{k}^{2}(x)) \leqslant 1.
\end{equation*}
\notag
$$
В соответствии с этим положим
$$
\begin{equation*}
\begin{gathered} \, \nu_0=0, \qquad \nu_k=\nu_{k}'=k^{2r}, \quad k= 1, 2, \dots, \\ \mu_0=\frac{1}{\sqrt{2}}, \qquad \mu_k=\mu_{k}'=1, \quad k=1, 2, \dots\,. \end{gathered}
\end{equation*}
\notag
$$
Таким образом, в данном случае применима теорема 3. Сформулируем ее следствие для рассматриваемой задачи. Пусть
$$
\begin{equation*}
\xi_{j}=\begin{cases} \displaystyle \biggl(2 \sum_{k=1}^{j} k^r (j^{r}-k^{r}) \biggr)^{-1/{2}}, &1 < j \leqslant n+1, \\ +\infty, &j=1. \end{cases}
\end{equation*}
\notag
$$
Теорема 4. Если $\xi_{m+1} \leqslant \delta < \xi_m$ при некотором $1 \leqslant m \leqslant n $, то оптимальный метод имеет вид
$$
\begin{equation*}
\widehat{\varphi}(\widetilde{a}_{0}, \dots, \widetilde{a}_{n}, \widetilde{b}_{1}, \dots, \widetilde{b}_{n})=\frac{\widetilde{a}_0}{2}+\sum_{k=1}^{m} (1-k^r (1- \widehat{c}_1))( \widetilde{a}_k \cos kt+\widetilde{b}_k \sin kt ),
\end{equation*}
\notag
$$
где
$$
\begin{equation*}
\widehat{c}_{1}=1-\frac{ 2 \delta^2 \sum_{k=1}^{m} k^r}{1+2 \delta^2 \sum_{k=1}^{m} k^{2r}}.
\end{equation*}
\notag
$$
При этом погрешность оптимального восстановления равна
$$
\begin{equation*}
E(W)=\sqrt{\frac{\delta^2}{2}+(1-\widehat{c}_1)^2+2 \delta^2 \sum_{k=1}^{m} (1-k^r (1- \widehat{c}_1))^2}.
\end{equation*}
\notag
$$
Если же $\delta < \xi_{n+1}$, то метод
$$
\begin{equation*}
\widehat{\varphi}(\widetilde{a}_{0}, \dots, \widetilde{a}_{n}, \widetilde{b}_{1}, \dots, \widetilde{b}_{n})=\frac{\widetilde{a}_0}{2}+\sum_{k=1}^{n} \biggl(1-\frac{k^r}{(n+1)^r} \biggr) (\widetilde{a}_k \cos kt+\widetilde{b}_k \sin kt )
\end{equation*}
\notag
$$
оптимальный и его погрешность равна
$$
\begin{equation*}
E(W)=\sqrt{\frac{\delta^2}{2}+\frac{1}{(n+1)^{2r}}+2 \delta^2 \sum_{k=1}^{n} \biggl(1- \frac{k^r}{(n+1)^{r}} \biggr)^2}.
\end{equation*}
\notag
$$
Замечание. Метод $\widehat{\varphi}$ из теоремы 4 оптимален в смысле (5.2), т.е. имеет наименьшую погрешность (5.1). Как легко видеть, метод $\widehat{\varphi}$ линеен, использует, вообще говоря, не все доступные коэффициенты Фурье и определенным образом сглаживает используемые коэффициенты.
|
|
|
Список литературы
|
|
|
1. |
С. А. Смоляк, Об оптимальном восстановлении функций и функционалов от них, Дисс. … канд. физ.-матем. наук, МГУ, М., 1965 |
2. |
А. Г. Марчук, К. Ю. Осипенко, “Наилучшее приближение функций, заданных с погрешностью в конечном числе точек”, Матем. заметки, 17:3 (1975), 359–368 ; англ. пер.: A. G. Marchuk, K. Yu. Osipenko, “Best approximation of functions specified with an error at a finite number of points”, Math. Notes, 17:3 (1975), 207–212 |
3. |
C. A. Micchelli, T. J. Rivlin, “A survey of optimal recovery”, Optimal estimation in approximation theory (Freudenstadt, 1976), Plenum, New York, 1977, 1–54 |
4. |
A. A. Melkman, C. A. Micchelli, “Optimal estimation of linear operators in Hilbert spaces from inaccurate data”, SIAM J. Numer. Anal., 16:1 (1979), 87–105 |
5. |
C. A. Micchelli, T. J. Rivlin, “Lectures on optimal recovery”, Numerical analysis (Lancaster, 1984), Lecture Notes in Math., 1129, Springer, Berlin, 1984, 21–93 |
6. |
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление функций и их производных по коэффициентам Фурье, заданным с погрешностью”, Матем. сб., 193:3 (2002), 79–100 ; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Optimal recovery of functions and their derivatives from Fourier coefficients prescribed with an error”, Sb. Math., 193:3 (2002), 387–407 |
7. |
Н. Д. Выск, К. Ю. Осипенко, “Оптимальное восстановление решения волнового уравнения по неточным начальным данным”, Матем. заметки, 81:6 (2007), 803–815 ; англ. пер.: N. D. Vysk, K. Yu. Osipenko, “Optimal reconstruction of the solution of the wave equation from inaccurate initial data”, Math. Notes, 81:6 (2007), 723–733 |
8. |
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “О наилучшем гармоническом синтезе периодических функций”, Фундамент. и прикл. матем., 18:5 (2013), 155–174 ; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “On best harmonic synthesis of periodic functions”, J. Math. Sci. (N.Y.), 209:1 (2015), 115–129 |
9. |
К. Ю. Осипенко, “Оптимальное восстановление линейных операторов в неевклидовых метриках”, Матем. сб., 205:10 (2014), 77–106 ; англ. пер.: K. Yu. Osipenko, “Optimal recovery of linear operators in non-Euclidean metrics”, Sb. Math., 205:10 (2014), 1442–1472 |
10. |
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Точность и оптимальность методов восстановления функций по их спектру”, Функциональные пространства, теория приближений, смежные разделы математического анализа, Сборник статей. К 110-летию со дня рождения академика Сергея Михайловича Никольского, Труды МИАН, 293, МАИК “Наука/Интерпериодика”, М., 2016, 201–216 ; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Exactness and optimality of methods for recovering functions from their spectrum”, Proc. Steklov Inst. Math., 293 (2016), 194–208 |
11. |
L. Plaskota, Noisy information and computational complexity, Cambridge Univ. Press, Cambridge, 1996, xii+308 pp. |
12. |
D. L. Donoho, “Statistical estimation and optimal recovery”, Ann. Statist., 22:1 (1994), 238–270 |
13. |
D. L. Donoho, R. C. Liu, B. MacGibbon, “Minimax risk over hyperrectangles, and implications”, Ann. Statist., 18:3 (1990), 1416–1437 |
14. |
С. В. Решетов, “Минимаксный риск для квадратично выпуклых множеств”, Вероятность и статистика. 15, Зап. науч. сем. ПОМИ, 368, ПОМИ, СПб., 2009, 181–189 ; англ. пер.: S. Reshetov, “Minimax risk for quadratically convex sets”, J. Math. Sci. (N.Y.), 167:4 (2010), 537–542 |
Образец цитирования:
К. Ю. Кривошеев, “Об оптимальном восстановлении значений линейных операторов по информации, известной со случайной ошибкой”, Матем. сб., 212:11 (2021), 89–108; K. Yu. Krivosheev, “On optimal recovery of values of linear operators from information known with a stochastic error”, Sb. Math., 212:11 (2021), 1588–1607
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/sm9484https://doi.org/10.4213/sm9484 https://www.mathnet.ru/rus/sm/v212/i11/p89
|
Статистика просмотров: |
Страница аннотации: | 244 | PDF русской версии: | 33 | PDF английской версии: | 14 | HTML русской версии: | 78 | Список литературы: | 33 | Первая страница: | 12 |
|