Математические заметки
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Скоро в журнале
Архив
Импакт-фактор
Правила для авторов
Лицензионный договор
Загрузить рукопись

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Матем. заметки:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Математические заметки, 2023, том 113, выпуск 1, страницы 118–131
DOI: https://doi.org/10.4213/mzm13563
(Mi mzm13563)
 

Эта публикация цитируется в 1 научной статье (всего в 1 статье)

Оптимальные методы восстановления решения уравнения теплопроводности, точные на тригонометрических полиномах

С. А. Унучек

Национальный исследовательский университет «Московский энергетический институт»
Список литературы:
Аннотация: Рассматривается задача оптимального восстановления решения уравнения теплопроводности на торе $\mathbb T$ по конечному набору неточно заданных коэффициентов Фурье начальной температуры. При этом на методы накладываются условия точности на подпространствах тригонометрических полиномов фиксированной степени.
Библиография: 13 названий.
Ключевые слова: оптимальное восстановление, уравнение теплопроводности, преобразование Фурье, тригонометрические полиномы.
Поступило: 25.04.2022
Исправленный вариант: 09.08.2022
Англоязычная версия:
Mathematical Notes, 2023, Volume 113, Issue 1, Pages 116–128
DOI: https://doi.org/10.1134/S0001434623010121
Реферативные базы данных:
Тип публикации: Статья
УДК: 517.51

1. Введение

Во многих прикладных задачах требуется восстановить некоторую характеристику объекта по другим его характеристикам, известным точно или с некоторой погрешностью. Существуют различные подходы к решению подобных задач.

В основе одного из таких подходов лежит построение методов, точных на некотором подпространстве функций. Предполагается, что если заданная функция аппроксимируется функциями из этого подпространства с небольшой погрешностью, то и соответствующий метод будет иметь небольшую погрешность. Этот подход лежит в основе построения квадратурных формул, точных на алгебраических многочленах определенной степени, в частности, квадратурных формул Гаусса.

В основе другого подхода построения методов восстановления характеристик объектов лежит идея Колмогорова [1] о наилучших средствах приближения классов функций конечномерными подпространствами. Ищется наилучший метод восстановления данной характеристики по априорной информации об объекте среди всех возможных методов восстановления из условия минимизации погрешности на всем классе функций. В дальнейшем на базе этой идеи стала развиваться теория оптимального восстановления, историю развития которой и конкретные результаты можно найти в монографиях и обзорных статьях [2]–[7].

В работах [8] и [9] было предложено совместить эти две идеи (построение методов, точных на подпространствах и в то же самое время оптимальных на классах функций). В данной работе также используется объединение двух подходов к построению численных методов восстановления решения уравнения теплопроводности на торе $\mathbb T$ по неточно заданным коэффициентам Фурье начальной температуры на некоторых классах функций.

Аналогичные задачи оптимального восстановления решения уравнения теплопроводности в иных постановках рассматривались ранее в работах [10]–[13].

2. Оптимальное восстановление решения уравнения теплопроводности по конечному набору неточно заданных коэффициентов Фурье

Рассмотрим задачу о нахождении решения уравнения теплопроводности

$$ \begin{equation*} \begin{cases} u_t=u_{xx}, \\ u(\,\cdot\,,0)=f(\,\cdot\,),\ f(\,\cdot\,)\in {L_2(\mathbb T)}, \end{cases} \end{equation*} \notag $$
заключающуюся в нахождении функции $u(\,\cdot\,{,}\,\cdot\,)$ при заданном распределении температуры $f(\,\cdot\,)$ в начальный момент времени. Последнее понимается так: $u(\,\cdot\,,t)\to f(\,\cdot\,)$ при $t\to0$ в метрике $L_2(\mathbb T)$.

Хорошо известно, что решение этой задачи имеет вид

$$ \begin{equation*} u(x,t)=\frac{a_0}{2}+ \sum_{k=1}^\infty e^{-k^2t}(a_k\cos kx+b_k\sin kx), \end{equation*} \notag $$
где
$$ \begin{equation*} \begin{alignedat}{2} a_k&=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos kx\,dx,&\qquad k&=0,1,\dots\,, \\ b_k&=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin kx\,dx,&\qquad k&=1,\dots\,. \end{alignedat} \end{equation*} \notag $$

Рассмотрим задачу оптимального восстановления решения уравнения теплопроводности $u(\,\cdot\,,\tau)$, $\tau>0$, для граничных значений из некоторого класса $W\subset{L_2(\mathbb T)}$ по неточно заданному конечному числу коэффициентов Фурье решения $u(\,\cdot\,,T)$, $0<\tau<T$. Для любой функции $f(\,\cdot\,)\in{L_2(\mathbb T)}$ положим

$$ \begin{equation*} Ff(\,\cdot\,)=(a_0,a_1,b_1,\dots,a_n,b_n), \end{equation*} \notag $$
где $\{a_k\}_{k=0}^n$ и $\{b_k\}_{k=1}^n , n \in \mathbb N$ – коэффициенты Фурье функции $f(\,\cdot\,)$. Через $l_2^{2n+1}$ обозначим пространство векторов $a=(a_0,a_1,b_1,\dots,a_n,b_n)$ с нормой
$$ \begin{equation*} \|a\|_{l_2^{2n+1}}=\biggl(\frac{a_0^2}{2}+ \sum_{k=1}^n(a_k^2+b_k^2)\biggr)^{1/2}. \end{equation*} \notag $$

Будем считать, что для любой начальной функции $f(\,\cdot\,)\in W$ нам известен вектор ${\widetilde a}\in l_2^{2n+1}$ такой, что

$$ \begin{equation*} \|Fu(\,\cdot\,,T)-{\widetilde a}\|_{l_2^{2n+1}}\leqslant\delta. \end{equation*} \notag $$
Требуется по этой информации восстановить наилучшим образом решение $u(\,\cdot\,,\tau)$. Под методом восстановления $m$ понимается отображение $m\colon l_2^{2n+1}\to{L_2(\mathbb T)}$. Погрешность восстановления для метода $m$ определим следующим образом:
$$ \begin{equation*} e(W,\delta,n,m)=\sup_{\substack{f(\,\cdot\,)\in W,\, {\widetilde a}\in l_2^{2n+1} \\ \|Fu(\,\cdot\,,T)-{\widetilde a}\|_{l_2^{2n+1}}\leqslant\delta}} \|u(\,\cdot\,,\tau)-m({\widetilde a})(\,\cdot\,)\|_{L_2(\mathbb T)}. \end{equation*} \notag $$
Нас будет интересовать оптимальная погрешность восстановления
$$ \begin{equation*} E(W,\delta,n)=\inf_{m\colon l_2^{2n+1}\to L_2(\mathbb T)}e(W,\delta,n,m), \end{equation*} \notag $$
а также метод, на котором достигается нижняя грань (если таковой существует), называемый оптимальным.

Из общих результатов о задачах восстановления [2] известно, что если $W$ – центрально-симметричный класс, имеет место следующая оценка:

$$ \begin{equation} E(W,\delta,n)\geqslant\sup_{\substack{f(\,\cdot\,)\in W \\ \|Fu(\,\cdot\,,T)\|_{l_2^{2n+1}}\leqslant\delta}} \|u(\,\cdot\,,\tau)\|_{L_2(\mathbb T)}. \end{equation} \tag{2.1} $$
Решать задачу оптимального восстановления начнем со случая, когда
$$ \begin{equation*} W=B{L_2(\mathbb T)}=\{\,f(\,\cdot\,)\in L_2(\mathbb T)\colon \|f(\,\cdot\,)\|_{L_2(\mathbb T)}\leqslant1 \}. \end{equation*} \notag $$
Положим $x_k=e^{2k^2T}$, $y_k=e^{2k^2(T-\tau)}$. Рассмотрим вогнутую кривую $y=x^{1-\tau/T}$, $x\geqslant0$. Очевидно, что точки $M_k=(x_k,y_k)$, $k=0,1,\dots,n+1$, лежат на этой кривой. Построим ломаную, соединяющую точки $M_k$ и $M_{k+1}$, $k=0,1,\dots,n$.

Найдем минимальный номер $k_0$ (см. рис. 1), удовлетворяющий условию

$$ \begin{equation*} y_{k_0}-\frac{y_{n+1}}{x_{n+1}}\,{x_{k_0}}= \max_{0\leqslant k\leqslant n}\biggl(y_{k}- \frac{y_{n+1}}{x_{n+1}}{x_{k}}\biggr). \end{equation*} \notag $$

Положим

$$ \begin{equation} \begin{aligned} \, \widehat{\lambda}_1&=\begin{cases} \dfrac{e^{2j^2(T-\tau)}e^{2(j+1)^2T}-e^{2(j+1)^2(T-\tau)}e^{2j^2T}} {e^{2(j+1)^2T}-e^{2j^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{j+1}}}\,; \sqrt{\dfrac{1}{x_{j}}}\,\biggr], \ j< k_0, \\ e^{2{k_0}^2(T-\tau)}\dfrac{e^{2(n+1)^2\tau}-e^{2{k_0}^2\tau}} {e^{2(n+1)^2\tau}}\,,& \delta\leqslant \sqrt{\dfrac{1}{x_{k_0}}}\,, \end{cases} \\ \nonumber \widehat{\lambda}_2&=\begin{cases} \dfrac{e^{2(j+1)^2(T-\tau)}-e^{2j^2(T-\tau)}} {e^{2(j+1)^2T}-e^{2j^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{j+1}}}\,; \sqrt{\dfrac{1}{x_{j}}}\,\biggr], \ j< k_0, \\ \dfrac{1}{e^{2(n+1)^2\tau}}\,, & \delta\leqslant \sqrt{\dfrac{1}{x_{k_0}}}\,. \end{cases} \end{aligned} \end{equation} \tag{2.2} $$

Теорема 1. При $\delta<1$ погрешность оптимального восстановления

$$ \begin{equation*} E(W,\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}\,, \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (2.2). Методы
$$ \begin{equation*} m({\widetilde a})(x)=\frac{\alpha_0{\widetilde a}_0}{2}+ \sum_{k=1}^n(\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx), \end{equation*} \notag $$
где $\alpha_0$, $\alpha_k$, $\beta_k$, $k=1,2,\dots$, такие, что
$$ \begin{equation} \begin{alignedat}{2} \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}&\leqslant1,&\qquad 0&\leqslant k \leqslant n, \\ \frac{(e^{k^2(T-\tau)}-\beta_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\beta_k^2}{\widehat{\lambda}_1}&\leqslant1,&\qquad 1&\leqslant k \leqslant n, \end{alignedat} \end{equation} \tag{2.3} $$
являются оптимальными.

При $\delta\geqslant1$ $E(W,\delta,n)=1$, а метод $m({\widehat a})(x)=0$ является оптимальным.

Доказательство. Очевидно, что класс $W$ центрально-симметричный.

Согласно равенству Парсеваля экстремальная задача в правой части (2.1) может быть записана в виде (для удобства мы переходим к квадратам норм)

$$ \begin{equation} \begin{gathered} \, \frac{a_0^2}2+\sum_{k=1}^\infty e^{-2k^2\tau}(a_k^2+b_k^2) \to\max,\qquad \frac{a_0^2}2+\sum_{k=1}^ne^{-2k^2T}(a_k^2+b_k^2)\leqslant\delta^2, \\ \frac{a_0^2}2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1. \end{gathered} \end{equation} \tag{2.4} $$
Положим $c_0=a_0^2/2$, $c_k=e^{-2k^2T}(a_k^2+b_k^2)$. Тогда экстремальная задача (2.4) перепишется в виде
$$ \begin{equation} \sum_{k=0}^\infty y_kc_k\to\max,\qquad \sum_{k=0}^n c_k\leqslant\delta^2,\quad \sum_{k=0}^\infty x_kc_k\leqslant1,\quad c_k\geqslant0,\quad k=0,1,\dots,n. \end{equation} \tag{2.5} $$

Пусть $k_0 \geqslant 1$, $\delta^2 \in [1/x_{j+1};1/x_{j}]$, $j< k_0$. Положим $\widehat{c}_k=0$ при $k\ne j,j+1$, $j<n$, а $\widehat{c}_j$ и $\widehat{c}_{j+1}$ так, чтобы

$$ \begin{equation*} \widehat{c}_j+\widehat{c}_{j+1}=\delta^2, \qquad e^{2j^2T}\widehat{c}_j+e^{2(j+1)^2T}\widehat{c}_{j+1}=1. \end{equation*} \notag $$
Тогда
$$ \begin{equation*} \widehat{c}_j= \frac{\delta^2e^{2(j+1)^2T}-1}{e^{2(j+1)^2T}-e^{2j^2T}}\,,\qquad \widehat{c}_{j+1}= \frac{1-\delta^2e^{2j^2T}}{e^{2(j+1)^2T}-e^{2j^2T}}\,. \end{equation*} \notag $$
Таким образом, вектор $\widehat{c}=(0,\dots,0,\widehat{c}_j,\widehat{c}_{j+1},0,\dots,0)$ является допустимым в задаче (2.5). Следовательно, при таких $\delta$
$$ \begin{equation*} \begin{aligned} \, E^2(W,\delta,n)&\geqslant e^{2j^2(T-\tau)} \frac{\delta^2e^{2(j+1)^2T}-1}{e^{2(j+1)^2T}-e^{2j^2T}}+ e^{2(j+1)^2(T-\tau)} \frac{1-\delta^2e^{2j^2T}}{e^{2(j+1)^2T}-e^{2j^2T}} \\ &=\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2, \end{aligned} \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (2.2).

Рассмотрим случай $\delta^2\leqslant 1/x_{k_0}$. Пусть $\widehat{c}_k=0$ при $k\ne k_0,n+1$, а $\widehat{c}_{k_0}$ и $\widehat{c}_{n+1}$ удовлетворяют условиям

$$ \begin{equation*} \widehat{c}_{k_0}={\delta^2}, \qquad \widehat{c}_{n+1}= \frac{1-\delta^2 e^{2{k_0}^2T}}{e^{2{(n+1)}^2T}}\,. \end{equation*} \notag $$
Вектор $\widehat{c}=(0,\dots,0,\widehat{c}_{k_0},0,\dots,0, \widehat{c}_{n+1},0\dots,0)$ является допустимым в задаче (2.5). При таких $\delta$
$$ \begin{equation*} E^2(W,\delta,n)\geqslant e^{2{k_0}^2(T-\tau)}{\delta^2}+ e^{2(n+1)^2(T-\tau)}\frac{1-\delta^2e^{2{k_0}^2T}}{e^{2{(n+1)}^2T}}= \widehat{\lambda}_1\delta^2+\widehat{\lambda}_2, \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (2.2).

При $\delta\geqslant1$ вектор $c=(1,0,\dots)$ является допустимым в задаче (2.5). Поэтому в этом случае $E^2(W,\delta,n)\geqslant1$.

Будем искать оптимальные методы среди методов вида

$$ \begin{equation} m({\widetilde a})(x)=\frac{\alpha_0{\widetilde a}_0}2+ \sum_{k=1}^n (\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx). \end{equation} \tag{2.6} $$
Для оценки погрешности таких методов надо оценить значение следующей экстремальной задачи
$$ \begin{equation} \begin{aligned} \, &\frac{(a_0-\alpha_0{\widetilde a}_0)^2}2+ \sum_{k=1}^n ((e^{-k^2\tau}a_k-\alpha_k{\widetilde a}_k)^2+ (e^{-k^2\tau}b_k-\beta_k{\widetilde b}_k)^2) \\ &\qquad+\sum_{k={n+1}}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{(a_0-{\widetilde a}_0)^2}2+\sum_{k=1}^n ((e^{-k^2T}a_k-{\widetilde a}_k)^2 +(e^{-k^2T}b_k-{\widetilde b}_k)^2)\leqslant\delta^2,\qquad \frac{a_0^2}2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned} \end{equation} \tag{2.7} $$

Положим $u_0=a_0-{\widetilde a}_0$, $u_k=e^{-k^2T}a_k-{\widetilde a}_k$, $v_k=e^{-k^2T}b_k-{\widetilde b}_k$, $k=1,2,\dots,n$. Тогда экстремальная задача (2.7) перепишется в виде

$$ \begin{equation} \begin{aligned} \, &\frac{((1-\alpha_0)a_0+\alpha_0u_0)^2}2 \\ &\qquad+ \sum_{k=1}^n \bigl(((e^{-k^2\tau}-e^{-k^2T}\alpha_k)a_k+\alpha_ku_k)^2 +((e^{-k^2\tau}-e^{-k^2T}\beta_k)b_k+\beta_kv_k)^2\bigr) \\ &\qquad+ \sum_{k={n+1}}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{u_0^2}2+\sum_{k=1}^n(u_k^2+v_k^2)\leqslant\delta^2,\qquad \frac{a_0^2}2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned} \end{equation} \tag{2.8} $$
Применяя неравенство Коши–Буняковского при $0\leqslant k \leqslant n$, получаем
$$ \begin{equation} \begin{aligned} \, \nonumber ((e^{-k^2\tau}-e^{-k^2T}\alpha_k)a_k+\alpha_ku_k)^2&= \biggl(\frac{e^{-k^2\tau}-e^{-k^2T}\alpha_k} {\sqrt{\widehat{\lambda}_2}}\sqrt{\widehat{\lambda}_2}\,a_k+ \frac{\alpha_k}{\sqrt{\widehat{\lambda}_1}} \sqrt{\widehat{\lambda}_1}\,u_k\biggr)^2 \\ &\leqslant\biggl(\frac{(e^{-k^2\tau}- e^{-k^2T}\alpha_k)^2}{\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}\biggr) (\widehat{\lambda}_2a_k^2+\widehat{\lambda}_1u_k^2). \end{aligned} \end{equation} \tag{2.9} $$
Аналогично получаем неравенство
$$ \begin{equation*} ((e^{-k^2\tau}-e^{-k^2T}\beta_k)b_k+\beta_kv_k)^2\leqslant \biggl(\frac{(e^{-k^2\tau}-e^{-k^2T}\beta_k)^2}{\widehat{\lambda}_2} +\frac{\beta_k^2}{\widehat{\lambda}_1}\biggr) (\widehat{\lambda}_2b_k^2+\widehat{\lambda}_1v_k^2). \end{equation*} \notag $$

При $\delta^2 \in [1/x_{j+1};1/x_{j}]$, $j< k_0$ построим прямую, проходящую через точки $(x_j,y_j)$ и $(x_{j+1},y_{j+1})$. При $\delta^2 \leqslant 1/x_{k_0}$ построим прямую с угловым коэффициентом $y_{n+1}/x_{n+1}$, проходящую через точку $(x_{k_0},y_{k_0})$. Несложно убедиться, что в обоих случаях уравнение прямой имеет вид $y=\widehat{\lambda}_2x+\widehat{\lambda}_1$. Поэтому в силу вогнутости кривой, на которой лежат точки $(x_{k},y_{k})$, выполняетсяя неравенство $\widehat{\lambda}_2\geqslant e^{-2(n+1)^2\tau} \geqslant e^{-2k^2\tau}$ при $k\geqslant n+1$.

Получаем, что максимизируемый функционал в (2.8) не превосходит величины

$$ \begin{equation*} \begin{aligned} \, e(W,\delta,n,m)&\leqslant S\widehat{\lambda}_1 \biggl(\frac{u_0^2}{2}+\sum_{k=1}^n (u_k^2+v_k^2)\biggr) \\ &\qquad+S\widehat{\lambda}_2\biggl(\frac{a_0^2}2+ \sum_{k=1}^n(a_k^2+b_k^2)\biggr)+ \widehat{\lambda}_2\sum_{k=n+1}^\infty(a_k^2+b_k^2), \end{aligned} \end{equation*} \notag $$
где
$$ \begin{equation*} \begin{gathered} \, S=\max\{A,B\}, \\ A=\max_{0\leqslant k \leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}- \alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}\biggr), \qquad B=\max_{1\leqslant k \leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}- \beta_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\beta_k^2}{\widehat{\lambda}_1}\biggr). \end{gathered} \end{equation*} \notag $$
Таким образом, если удастся выбрать $\alpha_0$, $\alpha_k$, $\beta_k$, $k=1,2,\dots, n$, так, что $S\leqslant1$, то будут справедливы неравенства
$$ \begin{equation*} e(W,\delta,n,m)\leqslant\sqrt{\widehat{\lambda}_1\delta^2+ \widehat{\lambda}_2}\leqslant E(W,\delta), \end{equation*} \notag $$
которые означают, что $m$ – оптимальный метод, а $E(W,\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}$ . Покажем, что такие $\alpha_0$, $\alpha_k$, $\beta_k$, $k=1,2,\dots,n$, существуют.

В силу вогнутости кривой $y=x^{1-\tau/T}$, $x\geqslant0$, для всех точек $M_k=(x_k,y_k)$ имеет место неравенство

$$ \begin{equation*} \widehat{\lambda}_2x_k+\widehat{\lambda}_1\geqslant y_k. \end{equation*} \notag $$
Тем самым
$$ \begin{equation*} e^{2k^2T}\widehat{\lambda}_2+\widehat{\lambda}_1 \geqslant e^{2k^2(T-\tau)},\qquad k=0,1,\dots,n. \end{equation*} \notag $$

Преобразуем выражение $A$, выделив полный квадрат:

$$ \begin{equation*} \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}= \frac{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2}{e^{2k^2T} \widehat{\lambda}_1\widehat{\lambda}_2}\biggl(\alpha_k- \frac{e^{k^2(T-\tau)}\widehat{\lambda}_1}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2}\biggr)^2 +\frac{e^{2k^2(T-\tau)}}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2}\,. \end{equation*} \notag $$

Положив

$$ \begin{equation*} \alpha_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=0,1,\dots,n, \end{equation*} \notag $$
получаем
$$ \begin{equation*} \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}=\frac{e^{2k^2(T-\tau)}} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\leqslant1. \end{equation*} \notag $$
Следовательно, $A\leqslant1$. Положив
$$ \begin{equation*} \beta_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=0,1,\dots,n, \end{equation*} \notag $$
получаем, что $B\leqslant1$.

Если $\delta\geqslant1$, то для метода $m({\widetilde a})(x)=0$ имеем

$$ \begin{equation*} e^2(W,\delta,n,m)\leqslant \sup_{a_0^2/2+\sum_{k=1}^\infty(a_k^2+b_k^2)\leqslant1} \biggl(\frac{a_0^2}{2}+ \sum_{k=1}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\biggr). \end{equation*} \notag $$
Так как
$$ \begin{equation*} \frac{a_0^2}2+\sum_{k=1}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\leqslant \frac{a_0^2}2+\sum_{k=1}^\infty (a_k^2+b_k^2), \end{equation*} \notag $$
то $e(W,\delta,n,m)\leqslant1\leqslant E(W,\delta,n)$. Отсюда следует оптимальность метода $m({\widetilde a})(x)=0$ при $\delta\geqslant1$ и равенство $E(W,\delta,n)=1$.

3. Оптимальные методы восстановления решения уравнения теплопроводности, точные на подпространстве тригонометрических полиномов

Будем говорить, что метод $m\colon l_2\to L_2(\mathbb T)$ точен на множестве $L\subset{L_2(\mathbb T)}$, если для любой функции из $L$ имеет место равенство

$$ \begin{equation*} u(\,\cdot\,,\tau)=m(Fu(\,\cdot\,,T))(\,\cdot\,). \end{equation*} \notag $$

Предложение 1 [9]. Если линейный метод ${\widehat m}$ оптимальный на классе $W$ и точный на множестве $L\subset{L_2(\mathbb T)}$, содержащем ноль, то он оптимальный и на классе $W+L$. При этом

$$ \begin{equation} E(W,\delta)=E(W+L,\delta). \end{equation} \tag{3.1} $$

Доказательство. Пусть $f(\,\cdot\,)\in W+L$, $f(\,\cdot\,)=f_1(\,\cdot\,)+f_2(\,\cdot\,)$, $f_1(\,\cdot\,)\in W$, $f_2(\,\cdot\,)\in L$. Предположим, что функция $y(\,\cdot\,)\in{L_2(\mathbb T)}$ такова, что

$$ \begin{equation*} \|Fu(\,\cdot\,,T)-y(\,\cdot\,)\|_{L_2(\mathbb T)}\leqslant\delta. \end{equation*} \notag $$
Обозначим через $u_j(\,\cdot\,{,}\,\cdot\,)$ решения уравнения теплопроводности для граничных функций $f_j(\,\cdot\,)$, $j=1,2$. Положим $y_1(\,\cdot\,)=y(\,\cdot\,)-Fu_2(\,\cdot\,,T)$. В силу того, что $Fu_1(\,\cdot\,,T)-y_1(\,\cdot\,)= Fu(\,\cdot\,,T)-y(\,\cdot\,)$, имеем
$$ \begin{equation*} \|Fu_1(\,\cdot\,,T)-y_1(\,\cdot\,)\|_{L_2(\mathbb T)} \leqslant\delta. \end{equation*} \notag $$
Из линейности и точности метода ${\widehat m}$ на $L$ следует равенство
$$ \begin{equation*} \|u(\,\cdot\,,\tau)- {\widehat m}(y(\,\cdot\,))(\,\cdot\,))\|_{L_2(\mathbb T)}= \|u_1(\,\cdot\,,\tau)- {\widehat m}(y_1(\,\cdot\,))(\,\cdot\,))\|_{L_2(\mathbb T)}. \end{equation*} \notag $$
Так как ${\widehat m}$ оптимальный метод на классе $W$, то
$$ \begin{equation*} \|u(\,\cdot\,,\tau)- {\widehat m}(y(\,\cdot\,))(\,\cdot\,))\|_{L_2(\mathbb T)} \leqslant e(W,\delta,{\widehat m})=E(W,\delta). \end{equation*} \notag $$
Тем самым
$$ \begin{equation*} e(W+L,\delta,{\widehat m})\leqslant E(W,\delta). \end{equation*} \notag $$

Так как $W\subset W+L$, то

$$ \begin{equation*} E(W,\delta)\leqslant E(W+L,\delta)\leqslant e(W+L,\delta,{\widehat m})\leqslant E(W,\delta). \end{equation*} \notag $$
Следовательно, ${\widehat m}$ – оптимальный метод на классе $W+L$ и имеет место равенство (3.1).

Рассмотрим методы

$$ \begin{equation*} m({\widetilde a})(x)=\frac{\alpha_0{\widetilde a}_0}2+ \sum_{k=1}^n (\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx), \end{equation*} \notag $$
в которых $\alpha_k$ и $\beta_k$ удовлетворяют условиям (2.3). Если $k$ таково, что
$$ \begin{equation*} e^{2k^2(T-\tau)}\leqslant\widehat{\lambda}_1, \end{equation*} \notag $$
то можно положить $\alpha_k=\beta_k=e^{2k^2(T-\tau)}$. Так как при указанных $k$ выполняется неравенство $\widehat{\lambda}_1\geqslant1$, можно положить $\alpha_0=1$, $\alpha_k=\beta_k=e^{2k^2(T-\tau)}$ при $k=1,\dots,k_1$, где
$$ \begin{equation*} k_1=\biggl[\sqrt{\frac{\ln\widehat{\lambda}_1}{2(T-\tau)}}\,\biggr], \end{equation*} \notag $$
а $[a]$ – целая часть числа $a$.

Звено ломаной, соединяющей точки $M_k$, от начала координат до точки $M_0$ имеет наклон $45^0$. В силу вогнутости остальные звенья имеют меньший угол наклона, следовательно, $\widehat{\lambda}_2 \leqslant 1$.

Если

$$ \begin{equation*} e^{-2k^2\tau}\leqslant\widehat{\lambda}_2, \end{equation*} \notag $$
то можно положить $\alpha_k=\beta_k=0$. Таким образом, метод
$$ \begin{equation} {\widehat m}({\widetilde a})(x)=\frac{{\widetilde a}_0}2+ \sum_{k=1}^{k_1}({\widetilde a}_k\cos kx+{\widetilde b}_k\sin kx) +\sum_{k=k_1+1}^{k_2}(\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx), \end{equation} \tag{3.2} $$
где
$$ \begin{equation*} k_2=\biggl\lceil\sqrt{\frac{\ln(1/\widehat{\lambda}_2)} {2\tau}}\,\biggr\rceil, \end{equation*} \notag $$
а $\alpha_k$ и $\beta_k$ при $k=k_1+1,\dots,k_2$ удовлетворяют условиям (2.3), является оптимальным.

У метода (3.2) имеется ряд достоинств по сравнению с другими оптимальными методами. Во-первых, он использует информацию не о всех приближенных коэффициентах Фурье, а только о тех, номера которых не превосходят $k_2$. Во-вторых, он точен на подпространстве тригонометрических полиномов степени не выше $k_1$. Действительно, пусть функция $f(\,\cdot\,)\in\mathcal T_{k_1}$ (через $\mathcal T_n$ будем обозначать множество тригонометрических полиномов степени не выше $n$). Тогда

$$ \begin{equation*} \begin{aligned} \, u(x,\tau)-{\widehat m}(Fu(\,\cdot\,,T))(x)&=\frac{a_0}{2}+ \sum_{k=1}^{k_1}e^{-k^2\tau}(a_k\cos kx+b_k\sin kx) \\ &\qquad-\frac{a_0}{2}- \sum_{k=1}^{k_1}e^{-k^2T}(a_k\cos kx+b_k\sin kx)=0. \end{aligned} \end{equation*} \notag $$

В силу предложения 1 получаем, что метод ${\widehat m}$ оптимален не только на классе $B{L_2(\mathbb T)}$, но и на более широком классе $B{L_2(\mathbb T)}+\mathcal T_{k_1}$.

Поставим теперь задачу найти оптимальный метод восстановления и его погрешность на классе $B{L_2(\mathbb T)}+\mathcal T_{n_0}$ при всех $n_0\in \mathbb N$.

Предложение 2. Функция

$$ \begin{equation*} f(x)=\frac{a_0}2+\sum_{k=1}^\infty(a_k\cos kx+b_k\sin kx) \end{equation*} \notag $$
принадлежит классу $B{L_2(\mathbb T)}+\mathcal T_{n_0}$ тогда и только тогда, когда
$$ \begin{equation} \sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1. \end{equation} \tag{3.3} $$

Доказательство. Пусть $f(\,\cdot\,)\in B{L_2(\mathbb T)}+\mathcal T_{n_0}$. Тогда $f(\,\cdot\,)=f_1(\,\cdot\,)+f_2(\,\cdot\,)$, где $f_1(\,\cdot\,)\in B{L_2(\mathbb T)}$, а $f_2(\,\cdot\,)\in \mathcal T_{n_0}$. Следовательно,

$$ \begin{equation*} \begin{aligned} \, f_1(x)&=\frac{a^{(1)}_0}2+\sum_{k=1}^{n_0}(a^{(1)}_k\cos kx+ b^{(1)}_k\sin kx)+ \sum_{k={n_0}+1}^\infty(a_k\cos kx+b_k\sin kx), \\ f_2(x)&=\frac{a^{(2)}_0}2+ \sum_{k=1}^{n_0}(a^{(2)}_k\cos kx+b^{(2)}_k\sin kx). \end{aligned} \end{equation*} \notag $$
В силу того, что $f_1{(\,\cdot\,)}\in B{L_2(\mathbb T)}$, имеем
$$ \begin{equation*} \sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant \frac{{a^{(1)}_0}^2}2+\sum_{k=1}^{n_0}({a^{(1)}_k}^2+ {b_k^{(1)}}^2)+\sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1. \end{equation*} \notag $$

Пусть выполнено условие (3.3). Тогда функцию $f{(\,\cdot\,)}$ можно записать в виде $f{(\,\cdot\,)}=f_1{(\,\cdot\,)}+f_2{(\,\cdot\,)}$, где

$$ \begin{equation*} f_1(x)=\sum_{k={n_0}+1}^\infty(a_k\cos kx+b_k\sin kx),\qquad f_2(x)=\frac{a_0}{2}+\sum_{k=1}^{n_0}(a_k\cos kx+b_k\sin kx). \end{equation*} \notag $$
В силу условия (3.3) $f_1{(\,\cdot\,)}\in BL_2(\mathbb T)$. Очевидно, что $f_2(\,\cdot\,)\in \mathcal T_{n_0}$. Таким образом, $f(\,\cdot\,)\in B{L_2(\mathbb T)}+\mathcal T_{n_0}$.

Если неравенство

$$ \begin{equation*} y_{n_0}+\frac{y_{n+1}}{x_{n+1}}x_k- y_k \geqslant 0\qquad\text{при}\quad 0\leqslant n_0\leqslant n \end{equation*} \notag $$
не выполняется хотя бы для одного значения $k$ (см. рис. 2), найдем наименьший номер $k_3$ такой, что выражение $(y_k-y_{n_0})/x_k$ принимает наибольшее значение.

Положим

$$ \begin{equation} \begin{aligned} \, \widehat{\lambda}_1&=\begin{cases} y_{n_0},& y_{n_0}+\dfrac{y_{n+1}}{x_{n+1}}x_k-y_k \geqslant 0 \quad \forall\,k \leqslant n+1, \\ y_{n_0},& \delta > \sqrt{\dfrac{1}{x_{k_3}}}\,, \\ \dfrac{e^{-2j^2\tau}-e^{-2(j+1)^2\tau}} {e^{-2j^2T}-e^{-2(j+1)^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{k_0}}}\,; \sqrt{\dfrac{1}{x_{k_3}}}\,\biggr], \\ e^{2{k_0}^2(T-\tau)}\dfrac{e^{2(n+1)^2\tau}- e^{2{k_0}^2\tau}}{e^{2(n+1)^2\tau}}\,, & 0 \leqslant \delta < \sqrt{\dfrac{1}{x_{k_0}}}\,, \end{cases} \\ \widehat{\lambda}_2&=\begin{cases} \dfrac{y_{n+1}}{x_{n+1}}\,,& y_{n_0}+\dfrac{y_{n+1}}{x_{n+1}} x_k-y_k \geqslant 0 \quad \forall\,k \leqslant n+1, \\ \dfrac{y_{k_3}-y_{n_0}}{x_{k_3}}\,, & \delta > \sqrt{\dfrac{1}{x_{k_3}}}\,, \\ \dfrac{e^{-2(j+1)^2\tau}e^{-2j^2T}-e^{-2j^2\tau}e^{-2(j+1)^2T}} {e^{-2j^2T}-e^{-2(j+1)^2T}}\,,& \delta \in \biggl[\sqrt{\dfrac{1}{x_{k_0}}}\,; \sqrt{\dfrac{1}{x_{k_3}}}\,\biggr], \\ \dfrac{1}{e^{2(n+1)^2\tau}}\,, & 0 \leqslant \delta < \sqrt{\dfrac{1}{x_{k_0}}}\,. \end{cases} \nonumber \end{aligned} \end{equation} \tag{3.4} $$

Теорема 2. Если $n_0 >n$, то $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)=+ \infty$.

Если $n_0 \leqslant n$, то

$$ \begin{equation*} E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}\,, \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4).

Для любых $\alpha_k$, $\beta_k$, ${n_0+1} \leqslant k \leqslant n$, таких, что

$$ \begin{equation} \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1} \leqslant1, \qquad \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1} \leqslant1, \end{equation} \tag{3.5} $$
методы
$$ \begin{equation*} m({\widetilde a})(x)=\frac{{\widetilde a}_0}2+ \sum_{k=1}^{n_0}e^{k^2(T-\tau)} ({\widetilde a}_k\cos kx +{\widetilde b}_k\sin kx) +\sum_{k={n_0+1}}^n (\alpha_k{\widetilde a}_k\cos kx+ \beta_k{\widetilde b}_k\sin kx) \end{equation*} \notag $$
являются оптимальными.

Если $\delta\geqslant1$, то $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)=1$, а метод $m({\widetilde a})(x)=0$ является оптимальным.

Доказательство. Из доказанного выше утверждения следует, что для оценки снизу погрешности оптимального восстановления $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)$ следует рассмотреть экстремальную задачу (см. (2.1), (2.4), (2.5))

$$ \begin{equation} \sum_{k=0}^\infty y_k c_k\to\max,\quad \sum_{k=0}^{n} c_k\leqslant\delta^2, \quad \sum_{k={n_0}+1}^\infty x_k c_k\leqslant1,\quad k=0,1,\dots\,. \end{equation} \tag{3.6} $$

Пусть $n_0 >n$. Положим $c_{n+1}=c e^{2(n+1)^2T}$, $c_k=0$, $k\ne n+1$, где $c>0$ – произвольная константа. Тогда

$$ \begin{equation*} E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n) \geqslant c e^{-2(n+1)^2\tau}. \end{equation*} \notag $$
Поскольку число $c$ можно взять сколь угодно большим, $E(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)=+ \infty$.

Пусть $0\leqslant n_0\leqslant n$.

Если неравенство $y_{n_0}+(y_{n+1}/x_{n+1})x_k-y_k \geqslant 0$ выполняется для всех $k \leqslant n+1$ (см. рис. 3), положим $c_k=0$ при $k\ne {n_0},{n+1}$, $c_{n_0}=\delta^2$, $c_{n+1}=1/x_{n+1}$. Последовательность $\{c_k\}$ является допустимой в экстремальной задаче (3.6). Значение максимизируемого функционала

$$ \begin{equation*} E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},,n)= y_{n_0}\delta^2+\dfrac{y_{n+1}}{x_{n+1}}= {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2, \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4).

Если $\delta^2 > 1/x_{k_3}$, положим $c_k=0$ при $k\ne {n_0},{k_3}$, $c_{n_0}=\delta^2-1/x_{k_3}$, $c_{k_3}=1/x_{k_3}$. Последовательность $\{c_k\}$ является допустимой в экстремальной задаче (3.6). Значение максимизируемого функционала

$$ \begin{equation*} E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= y_{n_0}\delta^2+\dfrac{y_{k_3}-y_{n_0}}{x_{k_3}}= {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2, \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4).

В случае $1/x_{k_0} \leqslant \delta^2 \leqslant 1/x_{k_3}$, найдем номер $j$ такой, что $1/x_{j+1} \leqslant \delta^2 \leqslant 1/x_{j}$. Положим $c_k=0$ при $k\ne {j},{j+1}$,

$$ \begin{equation*} {c}_j=\frac{\delta^2e^{2(j+1)^2T}-1}{e^{2(j+1)^2T}-e^{2j^2T}}\,, \qquad {c}_{j+1}=\frac{1-\delta^2e^{2j^2T}}{e^{2(j+1)^2T}-e^{2j^2T}}\,. \end{equation*} \notag $$
Последовательность $\{c_k\}$ является допустимой в экстремальной задаче (3.6). В этом случае значение максимизируемого функционала
$$ \begin{equation*} E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2, \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4).

При $0 \leqslant \delta^2 < 1/x_{k_0}$, положим

$$ \begin{equation*} c_k=0,\quad k\ne k_0,n+1,\qquad c_{k_0}=\delta^2,\qquad c_{n+1}=\frac{1-\delta^2 e^{2{k_0}^2T}}{e^{2{(n+1)}^2T}}\,. \end{equation*} \notag $$
Последовательность $\{c_k\}$ вновь является допустимой в экстремальной задаче (3.6). Значение максимизируемого функционала
$$ \begin{equation*} E^2(B{L_2(\mathbb T)}+\mathcal T_{n_0},\delta,n)= y_{k_0}\delta^2+y_{n+1}\frac{1-\delta^2 e^{2{k_0}^2T}} {e^{2{(n+1)}^2T}}={\widehat\lambda}_1\delta^2+{\widehat\lambda}_2, \end{equation*} \notag $$
где $\widehat{\lambda}_1$ и $\widehat{\lambda}_2$ определены равенствами (3.4).

Пусть $n_0\leqslant n$. Будем искать оптимальные методы снова среди методов вида (2.6), считая, что $\alpha_0=1$ и $\alpha_k=\beta_k=e^{k^2(T-\tau)}$ при $k=1,\dots,{n_0}$. Для оценки погрешности таких методов надо оценить значение следующей экстремальной задачи:

$$ \begin{equation} \begin{aligned} \, &\frac{(a_0-{\widetilde a}_0)^2}2+ \sum_{k=1}^n ((e^{-k^2\tau}a_k-\alpha_k{\widetilde a}_k)^2+ (e^{-2k^2\tau}b_k-\beta_k{\widetilde b}_k)^2) \\ &\qquad+\sum_{k={n+1}}^\infty e^{-k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{(a_0-{\widetilde a}_0)^2}2+\sum_{k=1}^{n}((e^{-k^2T}a_k- {\widetilde a}_k)^2+(e^{-k^2T}b_k-{\widetilde b}_k)^2) \leqslant\delta^2,\quad \sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned} \end{equation} \tag{3.7} $$

Положим $u_0=a_0-{\widetilde a}_0$, $u_k=e^{-k^2T}a_k-{\widetilde a}_k$, $v_k=e^{-k^2T}b_k-{\widetilde b}_k$, $k=1,2,\dots,n$. Тогда экстремальная задача (3.7) перепишется в виде

$$ \begin{equation*} \begin{aligned} \, &\frac{u_0^2}2+\sum_{k=1}^{n_0} e^{2k^2(T-\tau)}(u_k^2+v_k^2) \\ &\qquad+\sum_{k={n_0}+1}^n\bigl(((e^{-k^2\tau}-e^{-k^2T}\alpha_k)a_k+ \alpha_ku_k)^2 +((e^{-k^2\tau}-e^{-k^2T}\beta_k)b_k+\beta_kv_k)^2\bigr) \\ &\qquad+ \sum_{k={n+1}}^\infty e^{-2k^2\tau}(a_k^2+b_k^2)\to\max, \\ &\frac{u_0^2}2+\sum_{k=1}^{n}(u_k^2+v_k^2)\leqslant\delta^2,\qquad \sum_{k={n_0}+1}^\infty(a_k^2+b_k^2)\leqslant1. \end{aligned} \end{equation*} \notag $$
Применяя неравенство Коши–Буняковского при $k=n_0+1,n_0+2,\dots,n$, получаем неравенства, аналогичные (2.9). Для всех $\delta$ выполняются неравенства $e^{-2k^2\tau} \leqslant e^{-2(n+1)^2\tau}\leqslant {\widehat\lambda}_2 $ при $k\geqslant n+1$. Отсюда следует оценка
$$ \begin{equation*} \begin{aligned} \, e^2(W,\delta,n,m)&\leqslant\frac{u_0^2}{2}+ \sum_{k=1}^{n_0} e^{2k^2(T-\tau)}(u_k^2+v_k^2)+ {\widehat S}{\widehat\lambda}_1\sum_{k={n_0}+1}^n(u_k^2+v_k^2) \\ &\qquad+{\widehat S}{\widehat\lambda}_2\sum_{k={n_0}+1}^n (a_k^2+b_k^2)+{\widehat\lambda}_2\sum_{k={n}+1}^\infty(a_k^2+b_k^2), \end{aligned} \end{equation*} \notag $$
где
$$ \begin{equation*} {\widehat S}=\max\{{\widehat A},{\widehat B}\}, \end{equation*} \notag $$
а
$$ \begin{equation*} {\widehat A}=\max_{{n_0}+1\leqslant k\leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}-\alpha_k)^2} {e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}\biggr), \qquad {\widehat B}=\max_{{n_0}+1\leqslant k\leqslant n} \biggl(\frac{(e^{k^2(T-\tau)}-\beta_k)^2} {e^{2k^2T}\widehat{\lambda}_2}+ \frac{\beta_k^2}{\widehat{\lambda}_1}\biggr). \end{equation*} \notag $$
Таким образом, если удастся выбрать $\alpha_k$, $\beta_k$, $k=n_0+1,n_0+2,\dots,n$, так, что ${\widehat S}\leqslant1$, то будут справедливы неравенства
$$ \begin{equation*} \begin{aligned} \, e^2(W,\delta,n,m)&\leqslant\frac{u_0^2}{2}+ \sum_{k=1}^{n_0} e^{2k^2(T-\tau)}(u_k^2+v_k^2)+ {\widehat\lambda}_1\sum_{k={n_0}+1}^\infty(u_k^2+v_k^2)+{\widehat\lambda}_2 \\ &\leqslant{\widehat\lambda}_1\biggl(\frac{u_0^2}2+ \sum_{k=1}^\infty(u_k^2+v_k^2)\biggr)+ {\widehat\lambda}_2\leqslant {\widehat\lambda}_1\delta^2+{\widehat\lambda}_2. \end{aligned} \end{equation*} \notag $$
Последнее неравенство выполняется, так как ${\widehat{\lambda}_1}\geqslant y_{n_0}\geqslant y_k$ при $0\leqslant k \leqslant n_0$. Тем самым
$$ \begin{equation*} e(W,\delta,n,m)\leqslant\sqrt{{\widehat\lambda}_1\delta^2+ {\widehat\lambda}_2}\leqslant E(W,\delta,n). \end{equation*} \notag $$
Отсюда следует, что $m$ – оптимальный метод, а $E(W,\delta,n)= \sqrt{\widehat{\lambda}_1\delta^2+\widehat{\lambda}_2}$ .

Покажем, что такие $\alpha_k$, $\beta_k$, $k=n_0+1,n_0+2,\dots n$, существуют.

В силу выпуклости кривой, проходящей через точки $M_k=(x_k,y_k)$ для всех $k \geqslant 0$ выполняется неравенство

$$ \begin{equation*} -y_k+{\widehat\lambda}_1+{\widehat\lambda}_2 x_k\geqslant 0. \end{equation*} \notag $$
Тем самым
$$ \begin{equation*} {\widehat\lambda}_1+{\widehat\lambda}_2 e^{2k^2 T}\geqslant e^{2k^2 (T-\tau)} \end{equation*} \notag $$
и
$$ \begin{equation*} \frac{e^{k^2(T-\tau)}}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2} \leqslant \frac{\widehat{\lambda}_1}{\widehat{\lambda}_1+ e^{2k^2T}\widehat{\lambda}_2} < 1,\qquad k=1,2,\dots,n_0. \end{equation*} \notag $$

Положим

$$ \begin{equation*} \alpha_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=n_0+1,n_0+2,\dots\,. \end{equation*} \notag $$
Тогда
$$ \begin{equation*} \frac{(e^{k^2(T-\tau)}-\alpha_k)^2}{e^{2k^2T}\widehat{\lambda}_2}+ \frac{\alpha_k^2}{\widehat{\lambda}_1}= \frac{e^{2k^2(T-\tau)}} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\leqslant1. \end{equation*} \notag $$
Следовательно, ${\widehat A}\leqslant1$. Положив
$$ \begin{equation*} \beta_k=\frac{e^{k^2(T-\tau)}\widehat{\lambda}_1} {\widehat{\lambda}_1+e^{2k^2T}\widehat{\lambda}_2}\,,\qquad k=n_0+1,n_0+2,\dots, \end{equation*} \notag $$
получаем, что ${\widehat B}\leqslant1$.

СПИСОК ЦИТИРОВАННОЙ ЛИТЕРАТУРЫ

1. А. Н. Колмогоров, “О наилучшем приближении функций заданного функционального класса”, Избранные труды, Т. 1, Наука, М., 2005, 209–212
2. C. A. Micchelli, T. J. Rivlin, “A survey of optimal recovery”, Optimal Estimation in Approximation Theory, Plenum Press, New York, 1977, 1–54  mathscinet
3. J. F. Traub, H. Woźniakowski, A General Theory of Optimal Algorithms, Academic Press, New York, 1980  mathscinet
4. В. В. Арестов, “Наилучшее восстановление операторов и родственные задачи”, Сборник трудов Всесоюзной школы по теории функций, Тр. МИАН СССР, 189, Наука, М., 1989, 3–20  mathnet  mathscinet
5. L. Plaskota, Noisy Information and Computational Complexity, Cambridge Univ. Press, Cambridge, 1996  mathscinet
6. K. Yu. Osipenko, Optimal Recovery of Analytic Functions, Nova Science Publ., New York, 2000
7. Г. Г. Магарил-Ильяев, В. М. Тихомиров, Выпуклый анализ и его приложения, URSS, М., 2020
8. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Точность и оптимальность методов восстановления функций по их спектру”, Функциональные пространства, теория приближений, смежные разделы математического анализа, Труды МИАН, 293, МАИК «Наука/Интерпериодика», М., 2016, 201–216  mathnet  crossref  mathscinet
9. Е. В. Балова, К. Ю. Осипенко, “Оптимальные методы восстановления решений задачи Дирихле, точные на подпространствах сферических гармоник”, Матем. заметки, 104:6 (2018), 803–811  mathnet  crossref  mathscinet
10. К. Ю. Осипенко, “Оптимальное восстановление линейных операторов в неевклидовых метриках”, Матем. сб., 205:10 (2014), 77–106  mathnet  crossref  mathscinet  zmath
11. Е. В. Введенская, “Об оптимальном восстановлении решения уравнения теплопроводности по неточно заданной температуре в различные моменты времени”, Владикавк. матем. журн., 8:1 (2006), 16–21  mathnet  mathscinet
12. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление решения уравнения теплопроводности по неточным измерениям”, Матем. сб., 200:5 (2009), 37–54  mathnet  crossref  mathscinet  zmath
13. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Об оптимальном восстановлении решений разностных уравнений по неточным измерениям”, Проблемы матем. анализа, 69 (2013), 47–54  mathscinet

Образец цитирования: С. А. Унучек, “Оптимальные методы восстановления решения уравнения теплопроводности, точные на тригонометрических полиномах”, Матем. заметки, 113:1 (2023), 118–131; Math. Notes, 113:1 (2023), 116–128
Цитирование в формате AMSBIB
\RBibitem{Unu23}
\by С.~А.~Унучек
\paper Оптимальные методы восстановления решения уравнения теплопроводности, точные на тригонометрических полиномах
\jour Матем. заметки
\yr 2023
\vol 113
\issue 1
\pages 118--131
\mathnet{http://mi.mathnet.ru/mzm13563}
\crossref{https://doi.org/10.4213/mzm13563}
\mathscinet{http://mathscinet.ams.org/mathscinet-getitem?mr=4563353}
\transl
\jour Math. Notes
\yr 2023
\vol 113
\issue 1
\pages 116--128
\crossref{https://doi.org/10.1134/S0001434623010121}
\scopus{https://www.scopus.com/record/display.url?origin=inward&eid=2-s2.0-85149951000}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/mzm13563
  • https://doi.org/10.4213/mzm13563
  • https://www.mathnet.ru/rus/mzm/v113/i1/p118
  • Эта публикация цитируется в следующих 1 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Математические заметки Mathematical Notes
    Статистика просмотров:
    Страница аннотации:150
    PDF полного текста:14
    HTML русской версии:111
    Список литературы:25
    Первая страница:10
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2024