|
Эта публикация цитируется в 1 научной статье (всего в 1 статье)
Оптимальные методы восстановления решения уравнения теплопроводности, точные на тригонометрических полиномах
С. А. Унучек Национальный исследовательский университет «Московский энергетический институт»
Аннотация:
Рассматривается задача оптимального восстановления
решения уравнения теплопроводности на торе $\mathbb T$
по конечному набору неточно заданных коэффициентов Фурье
начальной температуры. При этом на методы накладываются
условия точности на подпространствах тригонометрических полиномов
фиксированной степени.
Библиография: 13 названий.
Ключевые слова:
оптимальное восстановление, уравнение теплопроводности,
преобразование Фурье, тригонометрические полиномы.
Поступило: 25.04.2022 Исправленный вариант: 09.08.2022
1. Введение Во многих прикладных задачах требуется восстановить некоторую характеристику объекта по другим его характеристикам, известным точно или с некоторой погрешностью. Существуют различные подходы к решению подобных задач. В основе одного из таких подходов лежит построение методов, точных на некотором подпространстве функций. Предполагается, что если заданная функция аппроксимируется функциями из этого подпространства с небольшой погрешностью, то и соответствующий метод будет иметь небольшую погрешность. Этот подход лежит в основе построения квадратурных формул, точных на алгебраических многочленах определенной степени, в частности, квадратурных формул Гаусса. В основе другого подхода построения методов восстановления характеристик объектов лежит идея Колмогорова [1] о наилучших средствах приближения классов функций конечномерными подпространствами. Ищется наилучший метод восстановления данной характеристики по априорной информации об объекте среди всех возможных методов восстановления из условия минимизации погрешности на всем классе функций. В дальнейшем на базе этой идеи стала развиваться теория оптимального восстановления, историю развития которой и конкретные результаты можно найти в монографиях и обзорных статьях [2]–[7]. В работах [8] и [9] было предложено совместить эти две идеи (построение методов, точных на подпространствах и в то же самое время оптимальных на классах функций). В данной работе также используется объединение двух подходов к построению численных методов восстановления решения уравнения теплопроводности на торе $\mathbb T$ по неточно заданным коэффициентам Фурье начальной температуры на некоторых классах функций. Аналогичные задачи оптимального восстановления решения уравнения теплопроводности в иных постановках рассматривались ранее в работах [10]–[13].
2. Оптимальное восстановление решения уравнения теплопроводности по конечному набору неточно заданных коэффициентов Фурье Рассмотрим задачу о нахождении решения уравнения теплопроводности
$$
\begin{equation*}
\begin{cases} u_t=u_{xx}, \\ u(\,\cdot\,,0)=f(\,\cdot\,),\ f(\,\cdot\,)\in {L_2(\mathbb T)}, \end{cases}
\end{equation*}
\notag
$$
заключающуюся в нахождении функции $u(\,\cdot\,{,}\,\cdot\,)$ при заданном распределении температуры $f(\,\cdot\,)$ в начальный момент времени. Последнее понимается так: $u(\,\cdot\,,t)\to f(\,\cdot\,)$ при $t\to0$ в метрике $L_2(\mathbb T)$. Хорошо известно, что решение этой задачи имеет вид
$$
\begin{equation*}
u(x,t)=\frac{a_0}{2}+ \sum_{k=1}^\infty e^{-k^2t}(a_k\cos kx+b_k\sin kx),
\end{equation*}
\notag
$$
где
$$
\begin{equation*}
\begin{alignedat}{2} a_k&=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos kx\,dx,&\qquad k&=0,1,\dots\,, \\ b_k&=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin kx\,dx,&\qquad k&=1,\dots\,. \end{alignedat}
\end{equation*}
\notag
$$
Рассмотрим задачу оптимального восстановления решения уравнения теплопроводности $u(\,\cdot\,,\tau)$, $\tau>0$, для граничных значений из некоторого класса $W\subset{L_2(\mathbb T)}$ по неточно заданному конечному числу коэффициентов Фурье решения $u(\,\cdot\,,T)$, $0<\tau<T$. Для любой функции $f(\,\cdot\,)\in{L_2(\mathbb T)}$ положим
$$
\begin{equation*}
Ff(\,\cdot\,)=(a_0,a_1,b_1,\dots,a_n,b_n),
\end{equation*}
\notag
$$
где $\{a_k\}_{k=0}^n$ и $\{b_k\}_{k=1}^n , n \in \mathbb N$ – коэффициенты Фурье функции $f(\,\cdot\,)$. Через $l_2^{2n+1}$ обозначим пространство векторов $a=(a_0,a_1,b_1,\dots,a_n,b_n)$ с нормой
$$
\begin{equation*}
\|a\|_{l_2^{2n+1}}=\biggl(\frac{a_0^2}{2}+ \sum_{k=1}^n(a_k^2+b_k^2)\biggr)^{1/2}.
\end{equation*}
\notag
$$
Будем считать, что для любой начальной функции $f(\,\cdot\,)\in W$ нам известен вектор ${\widetilde a}\in l_2^{2n+1}$ такой, что
$$
\begin{equation*}
\|Fu(\,\cdot\,,T)-{\widetilde a}\|_{l_2^{2n+1}}\leqslant\delta.
\end{equation*}
\notag
$$
Требуется по этой информации восстановить наилучшим образом решение $u(\,\cdot\,,\tau)$. Под методом восстановления $m$ понимается отображение $m\colon l_2^{2n+1}\to{L_2(\mathbb T)}$. Погрешность восстановления для метода $m$ определим следующим образом:
$$
\begin{equation*}
e(W,\delta,n,m)=\sup_{\substack{f(\,\cdot\,)\in W,\, {\widetilde a}\in l_2^{2n+1} \\ \|Fu(\,\cdot\,,T)-{\widetilde a}\|_{l_2^{2n+1}}\leqslant\delta}} \|u(\,\cdot\,,\tau)-m({\widetilde a})(\,\cdot\,)\|_{L_2(\mathbb T)}.
\end{equation*}
\notag
$$
Нас будет интересовать оптимальная погрешность восстановления
$$
\begin{equation*}
E(W,\delta,n)=\inf_{m\colon l_2^{2n+1}\to L_2(\mathbb T)}e(W,\delta,n,m),
\end{equation*}
\notag
$$
а также метод, на котором достигается нижняя грань (если таковой существует), называемый оптимальным. Из общих результатов о задачах восстановления [2] известно, что если $W$ – центрально-симметричный класс, имеет место следующая оценка:
$$
\begin{equation}
E(W,\delta,n)\geqslant\sup_{\substack{f(\,\cdot\,)\in W \\ \|Fu(\,\cdot\,,T)\|_{l_2^{2n+1}}\leqslant\delta}} \|u(\,\cdot\,,\tau)\|_{L_2(\mathbb T)}.
\end{equation}
\tag{2.1}
$$
Решать задачу оптимального восстановления начнем со случая, когда
$$
\begin{equation*}
W=B{L_2(\mathbb T)}=\{\,f(\,\cdot\,)\in L_2(\mathbb T)\colon \|f(\,\cdot\,)\|_{L_2(\mathbb T)}\leqslant1 \}.
\end{equation*}
\notag
$$
Положим $x_k=e^{2k^2T}$, $y_k=e^{2k^2(T-\tau)}$. Рассмотрим вогнутую кривую $y=x^{1-\tau/T}$, $x\geqslant0$. Очевидно, что точки $M_k=(x_k,y_k)$, $k=0,1,\dots,n+1$, лежат на этой кривой. Построим ломаную, соединяющую точки $M_k$ и $M_{k+1}$, $k=0,1,\dots,n$. Найдем минимальный номер $k_0$ (см. рис. 1), удовлетворяющий условию
$$
\begin{equation*}
y_{k_0}-\frac{y_{n+1}}{x_{n+1}}\,{x_{k_0}}= \max_{0\leqslant k\leqslant n}\biggl(y_{k}- \frac{y_{n+1}}{x_{n+1}}{x_{k}}\biggr).
\end{equation*}
\notag
$$
Положим
$$
\begin{equation}
\begin{aligned} \, \widehat{\lambda}_1&=\begin{cases} \dfrac{e^{2j^2(T-\tau)}e^{2(j+1)^2T}-e^{2(j+1)^2(T-\tau)}e^{2j^2T}} {e^{2(j+1)^2T}-e^{2j^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{j+1}}}\,; \sqrt{\dfrac{1}{x_{j}}}\,\biggr], \ j< k_0, \\ e^{2{k_0}^2(T-\tau)}\dfrac{e^{2(n+1)^2\tau}-e^{2{k_0}^2\tau}} {e^{2(n+1)^2\tau}}\,,& \delta\leqslant \sqrt{\dfrac{1}{x_{k_0}}}\,, \end{cases} \\ \nonumber \widehat{\lambda}_2&=\begin{cases} \dfrac{e^{2(j+1)^2(T-\tau)}-e^{2j^2(T-\tau)}} {e^{2(j+1)^2T}-e^{2j^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{j+1}}}\,; \sqrt{\dfrac{1}{x_{j}}}\,\biggr], \ j< k_0, \\ \dfrac{1}{e^{2(n+1)^2\tau}}\,, & \delta\leqslant \sqrt{\dfrac{1}{x_{k_0}}}\,. \end{cases} \end{aligned}
\end{equation}
\tag{2.2}
$$
Теорема 1. При $\delta<1$ погрешность оптимального восстановления
$$
\begin{equation*}
E(W,\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}\,,
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (2.2). Методы
$$
\begin{equation*}
m({\widetilde a})(x)=\frac{\alpha_0{\widetilde a}_0}{2}+ \sum_{k=1}^n(\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx),
\end{equation*}
\notag
$$
где $\alpha_0$, $\alpha_k$, $\beta_k$, $k=1,2,\dots$, такие, что
$$
\begin{equation}
\begin{alignedat}{2} \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}&\leqslant1,&\qquad 0&\leqslant k \leqslant n, \\ \frac{(e^{k^2(T-\tau)}-\beta_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\beta_k^2}{\widehat{\lambda}_1}&\leqslant1,&\qquad 1&\leqslant k \leqslant n, \end{alignedat}
\end{equation}
\tag{2.3}
$$
являются оптимальными. При $\delta\geqslant1$ $E(W,\delta,n)=1$, а метод $m({\widehat a})(x)=0$ является оптимальным. Доказательство. Очевидно, что класс $W$ центрально-симметричный. Согласно равенству Парсеваля экстремальная задача в правой части (2.1) может быть записана в виде (для удобства мы переходим к квадратам норм)
$$
\begin{equation}
\begin{gathered} \, \frac{a_0^2}2+\sum_{k=1}^\infty e^{-2k^2\tau}(a_k^2+b_k^2) \to\max,\qquad \frac{a_0^2}2+\sum_{k=1}^ne^{-2k^2T}(a_k^2+b_k^2)\leqslant\delta^2, \\ \frac{a_0^2}2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1. \end{gathered}
\end{equation}
\tag{2.4}
$$
Положим $c_0=a_0^2/2$, $c_k=e^{-2k^2T}(a_k^2+b_k^2)$. Тогда экстремальная задача (2.4) перепишется в виде
$$
\begin{equation}
\sum_{k=0}^\infty y_kc_k\to\max,\qquad \sum_{k=0}^n c_k\leqslant\delta^2,\quad \sum_{k=0}^\infty x_kc_k\leqslant1,\quad c_k\geqslant0,\quad k=0,1,\dots,n.
\end{equation}
\tag{2.5}
$$
Пусть $k_0 \geqslant 1$, $\delta^2 \in [1/x_{j+1};1/x_{j}]$, $j< k_0$. Положим $\widehat{c}_k=0$ при $k\ne j,j+1$, $j<n$, а $\widehat{c}_j$ и $\widehat{c}_{j+1}$ так, чтобы
$$
\begin{equation*}
\widehat{c}_j+\widehat{c}_{j+1}=\delta^2, \qquad e^{2j^2T}\widehat{c}_j+e^{2(j+1)^2T}\widehat{c}_{j+1}=1.
\end{equation*}
\notag
$$
Тогда
$$
\begin{equation*}
\widehat{c}_j= \frac{\delta^2e^{2(j+1)^2T}-1}{e^{2(j+1)^2T}-e^{2j^2T}}\,,\qquad \widehat{c}_{j+1}= \frac{1-\delta^2e^{2j^2T}}{e^{2(j+1)^2T}-e^{2j^2T}}\,.
\end{equation*}
\notag
$$
Таким образом, вектор $\widehat{c}=(0,\dots,0,\widehat{c}_j,\widehat{c}_{j+1},0,\dots,0)$ является допустимым в задаче (2.5). Следовательно, при таких $\delta$
$$
\begin{equation*}
\begin{aligned} \, E^2(W,\delta,n)&\geqslant e^{2j^2(T-\tau)} \frac{\delta^2e^{2(j+1)^2T}-1}{e^{2(j+1)^2T}-e^{2j^2T}}+ e^{2(j+1)^2(T-\tau)} \frac{1-\delta^2e^{2j^2T}}{e^{2(j+1)^2T}-e^{2j^2T}} \\ &=\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2, \end{aligned}
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (2.2). Рассмотрим случай $\delta^2\leqslant 1/x_{k_0}$. Пусть $\widehat{c}_k=0$ при $k\ne k_0,n+1$, а $\widehat{c}_{k_0}$ и $\widehat{c}_{n+1}$ удовлетворяют условиям
$$
\begin{equation*}
\widehat{c}_{k_0}={\delta^2}, \qquad \widehat{c}_{n+1}= \frac{1-\delta^2 e^{2{k_0}^2T}}{e^{2{(n+1)}^2T}}\,.
\end{equation*}
\notag
$$
Вектор $\widehat{c}=(0,\dots,0,\widehat{c}_{k_0},0,\dots,0, \widehat{c}_{n+1},0\dots,0)$ является допустимым в задаче (2.5). При таких $\delta$
$$
\begin{equation*}
E^2(W,\delta,n)\geqslant e^{2{k_0}^2(T-\tau)}{\delta^2}+ e^{2(n+1)^2(T-\tau)}\frac{1-\delta^2e^{2{k_0}^2T}}{e^{2{(n+1)}^2T}}= \widehat{\lambda}_1\delta^2+\widehat{\lambda}_2,
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (2.2). При $\delta\geqslant1$ вектор $c=(1,0,\dots)$ является допустимым в задаче (2.5). Поэтому в этом случае $E^2(W,\delta,n)\geqslant1$. Будем искать оптимальные методы среди методов вида
$$
\begin{equation}
m({\widetilde a})(x)=\frac{\alpha_0{\widetilde a}_0}2+ \sum_{k=1}^n (\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx).
\end{equation}
\tag{2.6}
$$
Для оценки погрешности таких методов надо оценить значение следующей экстремальной задачи
$$
\begin{equation}
\begin{aligned} \, &\frac{(a_0-\alpha_0{\widetilde a}_0)^2}2+ \sum_{k=1}^n ((e^{-k^2\tau}a_k-\alpha_k{\widetilde a}_k)^2+ (e^{-k^2\tau}b_k-\beta_k{\widetilde b}_k)^2) \\ &\qquad+\sum_{k={n+1}}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{(a_0-{\widetilde a}_0)^2}2+\sum_{k=1}^n ((e^{-k^2T}a_k-{\widetilde a}_k)^2 +(e^{-k^2T}b_k-{\widetilde b}_k)^2)\leqslant\delta^2,\qquad \frac{a_0^2}2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned}
\end{equation}
\tag{2.7}
$$
Положим $u_0=a_0-{\widetilde a}_0$, $u_k=e^{-k^2T}a_k-{\widetilde a}_k$, $v_k=e^{-k^2T}b_k-{\widetilde b}_k$, $k=1,2,\dots,n$. Тогда экстремальная задача (2.7) перепишется в виде
$$
\begin{equation}
\begin{aligned} \, &\frac{((1-\alpha_0)a_0+\alpha_0u_0)^2}2 \\ &\qquad+ \sum_{k=1}^n \bigl(((e^{-k^2\tau}-e^{-k^2T}\alpha_k)a_k+\alpha_ku_k)^2 +((e^{-k^2\tau}-e^{-k^2T}\beta_k)b_k+\beta_kv_k)^2\bigr) \\ &\qquad+ \sum_{k={n+1}}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{u_0^2}2+\sum_{k=1}^n(u_k^2+v_k^2)\leqslant\delta^2,\qquad \frac{a_0^2}2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned}
\end{equation}
\tag{2.8}
$$
Применяя неравенство Коши–Буняковского при $0\leqslant k \leqslant n$, получаем
$$
\begin{equation}
\begin{aligned} \, \nonumber ((e^{-k^2\tau}-e^{-k^2T}\alpha_k)a_k+\alpha_ku_k)^2&= \biggl(\frac{e^{-k^2\tau}-e^{-k^2T}\alpha_k} {\sqrt{\widehat{\lambda}_2}}\sqrt{\widehat{\lambda}_2}\,a_k+ \frac{\alpha_k}{\sqrt{\widehat{\lambda}_1}} \sqrt{\widehat{\lambda}_1}\,u_k\biggr)^2 \\ &\leqslant\biggl(\frac{(e^{-k^2\tau}- e^{-k^2T}\alpha_k)^2}{\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}\biggr) (\widehat{\lambda}_2a_k^2+\widehat{\lambda}_1u_k^2). \end{aligned}
\end{equation}
\tag{2.9}
$$
Аналогично получаем неравенство
$$
\begin{equation*}
((e^{-k^2\tau}-e^{-k^2T}\beta_k)b_k+\beta_kv_k)^2\leqslant \biggl(\frac{(e^{-k^2\tau}-e^{-k^2T}\beta_k)^2}{\widehat{\lambda}_2} +\frac{\beta_k^2}{\widehat{\lambda}_1}\biggr) (\widehat{\lambda}_2b_k^2+\widehat{\lambda}_1v_k^2).
\end{equation*}
\notag
$$
При $\delta^2 \in [1/x_{j+1};1/x_{j}]$, $j< k_0$ построим прямую, проходящую через точки $(x_j,y_j)$ и $(x_{j+1},y_{j+1})$. При $\delta^2 \leqslant 1/x_{k_0}$ построим прямую с угловым коэффициентом $y_{n+1}/x_{n+1}$, проходящую через точку $(x_{k_0},y_{k_0})$. Несложно убедиться, что в обоих случаях уравнение прямой имеет вид $y=\widehat{\lambda}_2x+\widehat{\lambda}_1$. Поэтому в силу вогнутости кривой, на которой лежат точки $(x_{k},y_{k})$, выполняетсяя неравенство $\widehat{\lambda}_2\geqslant e^{-2(n+1)^2\tau} \geqslant e^{-2k^2\tau}$ при $k\geqslant n+1$. Получаем, что максимизируемый функционал в (2.8) не превосходит величины
$$
\begin{equation*}
\begin{aligned} \, e(W,\delta,n,m)&\leqslant S\widehat{\lambda}_1 \biggl(\frac{u_0^2}{2}+\sum_{k=1}^n (u_k^2+v_k^2)\biggr) \\ &\qquad+S\widehat{\lambda}_2\biggl(\frac{a_0^2}2+ \sum_{k=1}^n(a_k^2+b_k^2)\biggr)+ \widehat{\lambda}_2\sum_{k=n+1}^\infty(a_k^2+b_k^2), \end{aligned}
\end{equation*}
\notag
$$
где
$$
\begin{equation*}
\begin{gathered} \, S=\max\{A,B\}, \\ A=\max_{0\leqslant k \leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}- \alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}\biggr), \qquad B=\max_{1\leqslant k \leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}- \beta_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\beta_k^2}{\widehat{\lambda}_1}\biggr). \end{gathered}
\end{equation*}
\notag
$$
Таким образом, если удастся выбрать $\alpha_0$, $\alpha_k$, $\beta_k$, $k=1,2,\dots, n$, так, что $S\leqslant1$, то будут справедливы неравенства
$$
\begin{equation*}
e(W,\delta,n,m)\leqslant\sqrt{\widehat{\lambda}_1\delta^2+ \widehat{\lambda}_2}\leqslant E(W,\delta),
\end{equation*}
\notag
$$
которые означают, что $m$ – оптимальный метод, а $E(W,\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}$ . Покажем, что такие $\alpha_0$, $\alpha_k$, $\beta_k$, $k=1,2,\dots,n$, существуют. В силу вогнутости кривой $y=x^{1-\tau/T}$, $x\geqslant0$, для всех точек $M_k=(x_k,y_k)$ имеет место неравенство
$$
\begin{equation*}
\widehat{\lambda}_2x_k+\widehat{\lambda}_1\geqslant y_k.
\end{equation*}
\notag
$$
Тем самым
$$
\begin{equation*}
e^{2k^2T}\widehat{\lambda}_2+\widehat{\lambda}_1 \geqslant e^{2k^2(T-\tau)},\qquad k=0,1,\dots,n.
\end{equation*}
\notag
$$
Преобразуем выражение $A$, выделив полный квадрат:
$$
\begin{equation*}
\frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}= \frac{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2}{e^{2k^2T} \widehat{\lambda}_1\widehat{\lambda}_2}\biggl(\alpha_k- \frac{e^{k^2(T-\tau)}\widehat{\lambda}_1}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2}\biggr)^2 +\frac{e^{2k^2(T-\tau)}}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2}\,.
\end{equation*}
\notag
$$
Положив
$$
\begin{equation*}
\alpha_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=0,1,\dots,n,
\end{equation*}
\notag
$$
получаем
$$
\begin{equation*}
\frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}=\frac{e^{2k^2(T-\tau)}} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\leqslant1.
\end{equation*}
\notag
$$
Следовательно, $A\leqslant1$. Положив
$$
\begin{equation*}
\beta_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=0,1,\dots,n,
\end{equation*}
\notag
$$
получаем, что $B\leqslant1$. Если $\delta\geqslant1$, то для метода $m({\widetilde a})(x)=0$ имеем
$$
\begin{equation*}
e^2(W,\delta,n,m)\leqslant \sup_{a_0^2/2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1} \biggl(\frac{a_0^2}{2}+ \sum_{k=1}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\biggr).
\end{equation*}
\notag
$$
Так как
$$
\begin{equation*}
\frac{a_0^2}2+\sum_{k=1}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\leqslant \frac{a_0^2}2+\sum_{k=1}^\infty (a_k^2+b_k^2),
\end{equation*}
\notag
$$
то $e(W,\delta,n,m)\leqslant1\leqslant E(W,\delta,n)$. Отсюда следует оптимальность метода $m({\widetilde a})(x)=0$ при $\delta\geqslant1$ и равенство $E(W,\delta,n)=1$.
3. Оптимальные методы восстановления решения уравнения теплопроводности, точные на подпространстве тригонометрических полиномов Будем говорить, что метод $m\colon l_2\to L_2(\mathbb T)$ точен на множестве $L\subset{L_2(\mathbb T)}$, если для любой функции из $L$ имеет место равенство
$$
\begin{equation*}
u(\,\cdot\,,\tau)=m(Fu(\,\cdot\,,T))(\,\cdot\,).
\end{equation*}
\notag
$$
Предложение 1 [9]. Если линейный метод ${\widehat m}$ оптимальный на классе $W$ и точный на множестве $L\subset{L_2(\mathbb T)}$, содержащем ноль, то он оптимальный и на классе $W+L$. При этом
$$
\begin{equation}
E(W,\delta)=E(W+L,\delta).
\end{equation}
\tag{3.1}
$$
Доказательство. Пусть $f(\,\cdot\,)\in W+L$, $f(\,\cdot\,)=f_1(\,\cdot\,)+f_2(\,\cdot\,)$, $f_1(\,\cdot\,)\in W$, $f_2(\,\cdot\,)\in L$. Предположим, что функция $y(\,\cdot\,)\in{L_2(\mathbb T)}$ такова, что
$$
\begin{equation*}
\|Fu(\,\cdot\,,T)-y(\,\cdot\,)\|_{L_2(\mathbb T)}\leqslant\delta.
\end{equation*}
\notag
$$
Обозначим через $u_j(\,\cdot\,{,}\,\cdot\,)$ решения уравнения теплопроводности для граничных функций $f_j(\,\cdot\,)$, $j=1,2$. Положим $y_1(\,\cdot\,)=y(\,\cdot\,)-Fu_2(\,\cdot\,,T)$. В силу того, что $Fu_1(\,\cdot\,,T)-y_1(\,\cdot\,)= Fu(\,\cdot\,,T)-y(\,\cdot\,)$, имеем
$$
\begin{equation*}
\|Fu_1(\,\cdot\,,T)-y_1(\,\cdot\,)\|_{L_2(\mathbb T)} \leqslant\delta.
\end{equation*}
\notag
$$
Из линейности и точности метода ${\widehat m}$ на $L$ следует равенство
$$
\begin{equation*}
\|u(\,\cdot\,,\tau)- {\widehat m}(y(\,\cdot\,))(\,\cdot\,))\|_{L_2(\mathbb T)}= \|u_1(\,\cdot\,,\tau)- {\widehat m}(y_1(\,\cdot\,))(\,\cdot\,))\|_{L_2(\mathbb T)}.
\end{equation*}
\notag
$$
Так как ${\widehat m}$ оптимальный метод на классе $W$, то
$$
\begin{equation*}
\|u(\,\cdot\,,\tau)- {\widehat m}(y(\,\cdot\,))(\,\cdot\,))\|_{L_2(\mathbb T)} \leqslant e(W,\delta,{\widehat m})=E(W,\delta).
\end{equation*}
\notag
$$
Тем самым
$$
\begin{equation*}
e(W+L,\delta,{\widehat m})\leqslant E(W,\delta).
\end{equation*}
\notag
$$
Так как $W\subset W+L$, то
$$
\begin{equation*}
E(W,\delta)\leqslant E(W+L,\delta)\leqslant e(W+L,\delta,{\widehat m})\leqslant E(W,\delta).
\end{equation*}
\notag
$$
Следовательно, ${\widehat m}$ – оптимальный метод на классе $W+L$ и имеет место равенство (3.1). Рассмотрим методы
$$
\begin{equation*}
m({\widetilde a})(x)=\frac{\alpha_0{\widetilde a}_0}2+ \sum_{k=1}^n (\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx),
\end{equation*}
\notag
$$
в которых $\alpha_k$ и $\beta_k$ удовлетворяют условиям (2.3). Если $k$ таково, что
$$
\begin{equation*}
e^{2k^2(T-\tau)}\leqslant\widehat{\lambda}_1,
\end{equation*}
\notag
$$
то можно положить $\alpha_k=\beta_k=e^{2k^2(T-\tau)}$. Так как при указанных $k$ выполняется неравенство $\widehat{\lambda}_1\geqslant1$, можно положить $\alpha_0=1$, $\alpha_k=\beta_k=e^{2k^2(T-\tau)}$ при $k=1,\dots,k_1$, где
$$
\begin{equation*}
k_1=\biggl[\sqrt{\frac{\ln\widehat{\lambda}_1}{2(T-\tau)}}\,\biggr],
\end{equation*}
\notag
$$
а $[a]$ – целая часть числа $a$. Звено ломаной, соединяющей точки $M_k$, от начала координат до точки $M_0$ имеет наклон $45^0$. В силу вогнутости остальные звенья имеют меньший угол наклона, следовательно, $\widehat{\lambda}_2 \leqslant 1$. Если
$$
\begin{equation*}
e^{-2k^2\tau}\leqslant\widehat{\lambda}_2,
\end{equation*}
\notag
$$
то можно положить $\alpha_k=\beta_k=0$. Таким образом, метод
$$
\begin{equation}
{\widehat m}({\widetilde a})(x)=\frac{{\widetilde a}_0}2+ \sum_{k=1}^{k_1}({\widetilde a}_k\cos kx+{\widetilde b}_k\sin kx) +\sum_{k=k_1+1}^{k_2}(\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx),
\end{equation}
\tag{3.2}
$$
где
$$
\begin{equation*}
k_2=\biggl\lceil\sqrt{\frac{\ln(1/\widehat{\lambda}_2)} {2\tau}}\,\biggr\rceil,
\end{equation*}
\notag
$$
а $\alpha_k$ и $\beta_k$ при $k=k_1+1,\dots,k_2$ удовлетворяют условиям (2.3), является оптимальным. У метода (3.2) имеется ряд достоинств по сравнению с другими оптимальными методами. Во-первых, он использует информацию не о всех приближенных коэффициентах Фурье, а только о тех, номера которых не превосходят $k_2$. Во-вторых, он точен на подпространстве тригонометрических полиномов степени не выше $k_1$. Действительно, пусть функция $f(\,\cdot\,)\in\mathcal T_{k_1}$ (через $\mathcal T_n$ будем обозначать множество тригонометрических полиномов степени не выше $n$). Тогда
$$
\begin{equation*}
\begin{aligned} \, u(x,\tau)-{\widehat m}(Fu(\,\cdot\,,T))(x)&=\frac{a_0}{2}+ \sum_{k=1}^{k_1}e^{-k^2\tau}(a_k\cos kx+b_k\sin kx) \\ &\qquad-\frac{a_0}{2}- \sum_{k=1}^{k_1}e^{-k^2T}(a_k\cos kx+b_k\sin kx)=0. \end{aligned}
\end{equation*}
\notag
$$
В силу предложения 1 получаем, что метод ${\widehat m}$ оптимален не только на классе $B{L_2(\mathbb T)}$, но и на более широком классе $B{L_2(\mathbb T)}+\mathcal T_{k_1}$. Поставим теперь задачу найти оптимальный метод восстановления и его погрешность на классе $B{L_2(\mathbb T)}+\mathcal T_{n_0}$ при всех $n_0\in \mathbb N$. Предложение 2. Функция
$$
\begin{equation*}
f(x)=\frac{a_0}2+\sum_{k=1}^\infty(a_k\cos kx+b_k\sin kx)
\end{equation*}
\notag
$$
принадлежит классу $B{L_2(\mathbb T)}+\mathcal T_{n_0}$ тогда и только тогда, когда
$$
\begin{equation}
\sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1.
\end{equation}
\tag{3.3}
$$
Доказательство. Пусть $f(\,\cdot\,)\in B{L_2(\mathbb T)}+\mathcal T_{n_0}$. Тогда $f(\,\cdot\,)=f_1(\,\cdot\,)+f_2(\,\cdot\,)$, где $f_1(\,\cdot\,)\in B{L_2(\mathbb T)}$, а $f_2(\,\cdot\,)\in \mathcal T_{n_0}$. Следовательно,
$$
\begin{equation*}
\begin{aligned} \, f_1(x)&=\frac{a^{(1)}_0}2+\sum_{k=1}^{n_0}(a^{(1)}_k\cos kx+ b^{(1)}_k\sin kx)+ \sum_{k={n_0}+1}^\infty(a_k\cos kx+b_k\sin kx), \\ f_2(x)&=\frac{a^{(2)}_0}2+ \sum_{k=1}^{n_0}(a^{(2)}_k\cos kx+b^{(2)}_k\sin kx). \end{aligned}
\end{equation*}
\notag
$$
В силу того, что $f_1{(\,\cdot\,)}\in B{L_2(\mathbb T)}$, имеем
$$
\begin{equation*}
\sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant \frac{{a^{(1)}_0}^2}2+\sum_{k=1}^{n_0}({a^{(1)}_k}^2+ {b_k^{(1)}}^2)+\sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1.
\end{equation*}
\notag
$$
Пусть выполнено условие (3.3). Тогда функцию $f{(\,\cdot\,)}$ можно записать в виде $f{(\,\cdot\,)}=f_1{(\,\cdot\,)}+f_2{(\,\cdot\,)}$, где
$$
\begin{equation*}
f_1(x)=\sum_{k={n_0}+1}^\infty(a_k\cos kx+b_k\sin kx),\qquad f_2(x)=\frac{a_0}{2}+\sum_{k=1}^{n_0}(a_k\cos kx+b_k\sin kx).
\end{equation*}
\notag
$$
В силу условия (3.3) $f_1{(\,\cdot\,)}\in BL_2(\mathbb T)$. Очевидно, что $f_2(\,\cdot\,)\in \mathcal T_{n_0}$. Таким образом, $f(\,\cdot\,)\in B{L_2(\mathbb T)}+\mathcal T_{n_0}$. Если неравенство
$$
\begin{equation*}
y_{n_0}+\frac{y_{n+1}}{x_{n+1}}x_k- y_k \geqslant 0\qquad\text{при}\quad 0\leqslant n_0\leqslant n
\end{equation*}
\notag
$$
не выполняется хотя бы для одного значения $k$ (см. рис. 2), найдем наименьший номер $k_3$ такой, что выражение $(y_k-y_{n_0})/x_k$ принимает наибольшее значение. Положим
$$
\begin{equation}
\begin{aligned} \, \widehat{\lambda}_1&=\begin{cases} y_{n_0},& y_{n_0}+\dfrac{y_{n+1}}{x_{n+1}}x_k-y_k \geqslant 0 \quad \forall\,k \leqslant n+1, \\ y_{n_0},& \delta > \sqrt{\dfrac{1}{x_{k_3}}}\,, \\ \dfrac{e^{-2j^2\tau}-e^{-2(j+1)^2\tau}} {e^{-2j^2T}-e^{-2(j+1)^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{k_0}}}\,; \sqrt{\dfrac{1}{x_{k_3}}}\,\biggr], \\ e^{2{k_0}^2(T-\tau)}\dfrac{e^{2(n+1)^2\tau}- e^{2{k_0}^2\tau}}{e^{2(n+1)^2\tau}}\,, & 0 \leqslant \delta < \sqrt{\dfrac{1}{x_{k_0}}}\,, \end{cases} \\ \widehat{\lambda}_2&=\begin{cases} \dfrac{y_{n+1}}{x_{n+1}}\,,& y_{n_0}+\dfrac{y_{n+1}}{x_{n+1}} x_k-y_k \geqslant 0 \quad \forall\,k \leqslant n+1, \\ \dfrac{y_{k_3}-y_{n_0}}{x_{k_3}}\,, & \delta > \sqrt{\dfrac{1}{x_{k_3}}}\,, \\ \dfrac{e^{-2(j+1)^2\tau}e^{-2j^2T}-e^{-2j^2\tau}e^{-2(j+1)^2T}} {e^{-2j^2T}-e^{-2(j+1)^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{k_0}}}\,; \sqrt{\dfrac{1}{x_{k_3}}}\,\biggr], \\ \dfrac{1}{e^{2(n+1)^2\tau}}\,, & 0 \leqslant \delta < \sqrt{\dfrac{1}{x_{k_0}}}\,. \end{cases} \nonumber \end{aligned}
\end{equation}
\tag{3.4}
$$
Теорема 2. Если $n_0 >n$, то $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)=+ \infty$. Если $n_0 \leqslant n$, то
$$
\begin{equation*}
E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}\,,
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4). Для любых $\alpha_k$, $\beta_k$, ${n_0+1} \leqslant k \leqslant n$, таких, что
$$
\begin{equation}
\frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1} \leqslant1, \qquad \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1} \leqslant1,
\end{equation}
\tag{3.5}
$$
методы
$$
\begin{equation*}
m({\widetilde a})(x)=\frac{{\widetilde a}_0}2+ \sum_{k=1}^{n_0}e^{k^2(T-\tau)} ({\widetilde a}_k\cos kx +{\widetilde b}_k\sin kx) +\sum_{k={n_0+1}}^n (\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx)
\end{equation*}
\notag
$$
являются оптимальными. Если $\delta\geqslant1$, то $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)=1$, а метод $m({\widetilde a})(x)=0$ является оптимальным. Доказательство. Из доказанного выше утверждения следует, что для оценки снизу погрешности оптимального восстановления $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)$ следует рассмотреть экстремальную задачу (см. (2.1), (2.4), (2.5))
$$
\begin{equation}
\sum_{k=0}^\infty y_k c_k\to\max,\quad \sum_{k=0}^{n} c_k\leqslant\delta^2, \quad \sum_{k={n_0}+1}^\infty x_k c_k\leqslant1,\quad k=0,1,\dots\,.
\end{equation}
\tag{3.6}
$$
Пусть $n_0 >n$. Положим $c_{n+1}=c e^{2(n+1)^2T}$, $c_k=0$, $k\ne n+1$, где $c>0$ – произвольная константа. Тогда
$$
\begin{equation*}
E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n) \geqslant c e^{-2(n+1)^2\tau}.
\end{equation*}
\notag
$$
Поскольку число $c$ можно взять сколь угодно большим, $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)=+ \infty$. Пусть $0\leqslant n_0\leqslant n$. Если неравенство $y_{n_0}+(y_{n+1}/x_{n+1})x_k-y_k \geqslant 0$ выполняется для всех $k \leqslant n+1$ (см. рис. 3), положим $c_k=0$ при $k\ne {n_0},{n+1}$, $c_{n_0}=\delta^2$, $c_{n+1}=1/x_{n+1}$. Последовательность $\{c_k\}$ является допустимой в экстремальной задаче (3.6). Значение максимизируемого функционала
$$
\begin{equation*}
E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},,n)= y_{n_0}\delta^2+\dfrac{y_{n+1}}{x_{n+1}}= {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2,
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4). Если $\delta^2 > 1/x_{k_3}$, положим $c_k=0$ при $k\ne {n_0},{k_3}$, $c_{n_0}=\delta^2-1/x_{k_3}$, $c_{k_3}=1/x_{k_3}$. Последовательность $\{c_k\}$ является допустимой в экстремальной задаче (3.6). Значение максимизируемого функционала
$$
\begin{equation*}
E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= y_{n_0}\delta^2+\dfrac{y_{k_3}-y_{n_0}}{x_{k_3}}= {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2,
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4). В случае $1/x_{k_0} \leqslant \delta^2 \leqslant 1/x_{k_3}$, найдем номер $j$ такой, что $1/x_{j+1} \leqslant \delta^2 \leqslant 1/x_{j}$. Положим $c_k=0$ при $k\ne {j},{j+1}$,
$$
\begin{equation*}
{c}_j=\frac{\delta^2e^{2(j+1)^2T}-1}{e^{2(j+1)^2T}-e^{2j^2T}}\,, \qquad {c}_{j+1}=\frac{1-\delta^2e^{2j^2T}}{e^{2(j+1)^2T}-e^{2j^2T}}\,.
\end{equation*}
\notag
$$
Последовательность $\{c_k\}$ является допустимой в экстремальной задаче (3.6). В этом случае значение максимизируемого функционала
$$
\begin{equation*}
E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2,
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4). При $0 \leqslant \delta^2 < 1/x_{k_0}$, положим
$$
\begin{equation*}
c_k=0,\quad k\ne k_0,n+1,\qquad c_{k_0}=\delta^2,\qquad c_{n+1}=\frac{1-\delta^2 e^{2{k_0}^2T}}{e^{2{(n+1)}^2T}}\,.
\end{equation*}
\notag
$$
Последовательность $\{c_k\}$ вновь является допустимой в экстремальной задаче (3.6). Значение максимизируемого функционала
$$
\begin{equation*}
E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= y_{k_0}\delta^2+y_{n+1}\frac{1-\delta^2 e^{2{k_0}^2T}} {e^{2{(n+1)}^2T}}={\widehat\lambda}_1\delta^2+{\widehat\lambda}_2,
\end{equation*}
\notag
$$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4). Пусть $n_0\leqslant n$. Будем искать оптимальные методы снова среди методов вида (2.6), считая, что $\alpha_0=1$ и $\alpha_k=\beta_k=e^{k^2(T-\tau)}$ при $k=1,\dots,{n_0}$. Для оценки погрешности таких методов надо оценить значение следующей экстремальной задачи:
$$
\begin{equation}
\begin{aligned} \, &\frac{(a_0-{\widetilde a}_0)^2}2+ \sum_{k=1}^n ((e^{-k^2\tau}a_k-\alpha_k{\widetilde a}_k)^2+ (e^{-2k^2\tau}b_k-\beta_k{\widetilde b}_k)^2) \\ &\qquad+\sum_{k={n+1}}^\infty e^{-k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{(a_0-{\widetilde a}_0)^2}2+\sum_{k=1}^{n}((e^{-k^2T}a_k- {\widetilde a}_k)^2+(e^{-k^2T}b_k-{\widetilde b}_k)^2) \leqslant\delta^2,\quad \sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned}
\end{equation}
\tag{3.7}
$$
Положим $u_0=a_0-{\widetilde a}_0$, $u_k=e^{-k^2T}a_k-{\widetilde a}_k$, $v_k=e^{-k^2T}b_k-{\widetilde b}_k$, $k=1,2,\dots,n$. Тогда экстремальная задача (3.7) перепишется в виде
$$
\begin{equation*}
\begin{aligned} \, &\frac{u_0^2}2+\sum_{k=1}^{n_0} e^{2k^2(T-\tau)}(u_k^2+v_k^2) \\ &\qquad+\sum_{k={n_0}+1}^n\bigl(((e^{-k^2\tau}-e^{-k^2T}\alpha_k)a_k+ \alpha_ku_k)^2 +((e^{-k^2\tau}-e^{-k^2T}\beta_k)b_k+\beta_kv_k)^2\bigr) \\ &\qquad+ \sum_{k={n+1}}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{u_0^2}2+\sum_{k=1}^{n}(u_k^2+v_k^2)\leqslant\delta^2,\qquad \sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned}
\end{equation*}
\notag
$$
Применяя неравенство Коши–Буняковского при $k=n_0+1,n_0+2,\dots,n$, получаем неравенства, аналогичные (2.9). Для всех $\delta$ выполняются неравенства $e^{-2k^2\tau} \leqslant e^{-2(n+1)^2\tau}\leqslant {\widehat\lambda}_2 $ при $k\geqslant n+1$. Отсюда следует оценка
$$
\begin{equation*}
\begin{aligned} \, e^2(W,\delta,n,m)&\leqslant\frac{u_0^2}{2}+ \sum_{k=1}^{n_0} e^{2k^2(T-\tau)}(u_k^2+v_k^2)+ {\widehat S}{\widehat\lambda}_1\sum_{k={n_0}+1}^n(u_k^2+v_k^2) \\ &\qquad+{\widehat S}{\widehat\lambda}_2\sum_{k={n_0}+1}^n (a_k^2+b_k^2)+{\widehat\lambda}_2\sum_{k={n}+1}^\infty(a_k^2+b_k^2), \end{aligned}
\end{equation*}
\notag
$$
где
$$
\begin{equation*}
{\widehat S}=\max\{{\widehat A},{\widehat B}\},
\end{equation*}
\notag
$$
а
$$
\begin{equation*}
{\widehat A}=\max_{{n_0}+1\leqslant k\leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}-\alpha_k)^2} {e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}\biggr), \qquad {\widehat B}=\max_{{n_0}+1\leqslant k\leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}-\beta_k)^2} {e^{2k^2T}\widehat{\lambda}_2}+ \frac{\beta_k^2}{\widehat{\lambda}_1}\biggr).
\end{equation*}
\notag
$$
Таким образом, если удастся выбрать $\alpha_k$, $\beta_k$, $k=n_0+1,n_0+2,\dots,n$, так, что ${\widehat S}\leqslant1$, то будут справедливы неравенства
$$
\begin{equation*}
\begin{aligned} \, e^2(W,\delta,n,m)&\leqslant\frac{u_0^2}{2}+ \sum_{k=1}^{n_0} e^{2k^2(T-\tau)}(u_k^2+v_k^2)+ {\widehat\lambda}_1\sum_{k={n_0}+1}^\infty(u_k^2+v_k^2)+{\widehat\lambda}_2 \\ &\leqslant{\widehat\lambda}_1\biggl(\frac{u_0^2}2+ \sum_{k=1}^\infty(u_k^2+v_k^2)\biggr)+ {\widehat\lambda}_2\leqslant {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2. \end{aligned}
\end{equation*}
\notag
$$
Последнее неравенство выполняется, так как ${\widehat{\lambda}_1}\geqslant y_{n_0}\geqslant y_k$ при $0\leqslant k \leqslant n_0$. Тем самым
$$
\begin{equation*}
e(W,\delta,n,m)\leqslant\sqrt{{\widehat\lambda}_1\delta^2+ {\widehat\lambda}_2}\leqslant E(W,\delta,n).
\end{equation*}
\notag
$$
Отсюда следует, что $m$ – оптимальный метод, а $E(W,\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}$ . Покажем, что такие $\alpha_k$, $\beta_k$, $k=n_0+1,n_0+2,\dots n$, существуют. В силу выпуклости кривой, проходящей через точки $M_k=(x_k,y_k)$ для всех $k \geqslant 0$ выполняется неравенство
$$
\begin{equation*}
-y_k+{\widehat\lambda}_1+{\widehat\lambda}_2 x_k\geqslant 0.
\end{equation*}
\notag
$$
Тем самым
$$
\begin{equation*}
{\widehat\lambda}_1+{\widehat\lambda}_2 e^{2k^2 T}\geqslant e^{2k^2 (T-\tau)}
\end{equation*}
\notag
$$
и
$$
\begin{equation*}
\frac{e^{k^2(T-\tau)}}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2} \leqslant \frac{\widehat{\lambda}_1}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2} < 1,\qquad k=1,2,\dots,n_0.
\end{equation*}
\notag
$$
Положим
$$
\begin{equation*}
\alpha_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=n_0+1,n_0+2,\dots\,.
\end{equation*}
\notag
$$
Тогда
$$
\begin{equation*}
\frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}= \frac{e^{2k^2(T-\tau)}} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\leqslant1.
\end{equation*}
\notag
$$
Следовательно, ${\widehat A}\leqslant1$. Положив
$$
\begin{equation*}
\beta_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=n_0+1,n_0+2,\dots,
\end{equation*}
\notag
$$
получаем, что ${\widehat B}\leqslant1$.
|
|
|
СПИСОК ЦИТИРОВАННОЙ ЛИТЕРАТУРЫ
|
|
|
1. |
А. Н. Колмогоров, “О наилучшем приближении функций заданного функционального класса”, Избранные труды, Т. 1, Наука, М., 2005, 209–212 |
2. |
C. A. Micchelli, T. J. Rivlin, “A survey of optimal recovery”, Optimal Estimation in Approximation Theory, Plenum Press, New York, 1977, 1–54 |
3. |
J. F. Traub, H. Woźniakowski, A General Theory of Optimal Algorithms, Academic Press, New York, 1980 |
4. |
В. В. Арестов, “Наилучшее восстановление операторов и родственные задачи”, Сборник трудов Всесоюзной школы по теории функций, Тр. МИАН СССР, 189, Наука, М., 1989, 3–20 |
5. |
L. Plaskota, Noisy Information and Computational Complexity, Cambridge Univ. Press, Cambridge, 1996 |
6. |
K. Yu. Osipenko, Optimal Recovery of Analytic Functions, Nova Science Publ., New York, 2000 |
7. |
Г. Г. Магарил-Ильяев, В. М. Тихомиров, Выпуклый анализ и его приложения, URSS, М., 2020 |
8. |
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Точность и оптимальность методов восстановления функций по их спектру”, Функциональные пространства, теория приближений, смежные разделы математического анализа, Труды МИАН, 293, МАИК «Наука/Интерпериодика», М., 2016, 201–216 |
9. |
Е. В. Балова, К. Ю. Осипенко, “Оптимальные методы восстановления решений задачи Дирихле, точные на подпространствах сферических гармоник”, Матем. заметки, 104:6 (2018), 803–811 |
10. |
К. Ю. Осипенко, “Оптимальное восстановление линейных операторов в неевклидовых метриках”, Матем. сб., 205:10 (2014), 77–106 |
11. |
Е. В. Введенская, “Об оптимальном восстановлении решения уравнения теплопроводности по неточно заданной температуре в различные моменты времени”, Владикавк. матем. журн., 8:1 (2006), 16–21 |
12. |
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление решения уравнения теплопроводности по неточным измерениям”, Матем. сб., 200:5 (2009), 37–54 |
13. |
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Об оптимальном восстановлении решений разностных уравнений по неточным измерениям”, Проблемы матем. анализа, 69 (2013), 47–54 |
Образец цитирования:
С. А. Унучек, “Оптимальные методы восстановления решения уравнения теплопроводности, точные на тригонометрических полиномах”, Матем. заметки, 113:1 (2023), 118–131; Math. Notes, 113:1 (2023), 116–128
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/mzm13563https://doi.org/10.4213/mzm13563 https://www.mathnet.ru/rus/mzm/v113/i1/p118
|
|