4.5. Специальные реализации методов обобщенного покоординатного спуска

Специальные реализации методов ОПС позволяют использовать структурные особенности отдельных классов задач теории управления для повышения эф­фективности соответствующих оптимизирующих процедур.

4.5.1. Задачи аппроксимации

Характерные для теории управления целевые функционалы, отражающие ме­ру «близости» расчетных и желаемых зависимостей, могут быть представлены в виде

где ер* — алгоритмически заданные функции (Rn -> R) вектора управляемых па­раметров. Как отмечалось в 2.8.1, класс (4.31) включает в себя наиболее часто

используемые на практике МНК-критерии, а также минимаксные целевые функционалы.

Из (4.31) имеем следующие выражения для составляющих вектора-градиента:

Естественный способ аппроксимации вторых производных, принятый, в частно­сти, в процедурах оптимизации типа Гаусса—Ньютона [44], а также в теории чувствительности систем автоматического управления, состоит в линеаризации функций щ вблизи текущей точки xf:

 векторно-матричных обозначениях использование аппроксимаций (4.34) эк­вивалентно отбрасыванию второго слагаемого в представлении

Дополнительным доводом в пользу правомерности указанного подхода является предположение о «малости» функций ф„ по крайней мере, в некоторой окрестно­сти минимизатора х* функционала (4.31) [19].

Метод ОПС с вычислением аппроксимации матрицы Гессе G (х) на основе фор­мул (4.34) реализован с помощью следующего алгоритма.

Алгоритм SPAC5.

Шаг 1. Ввести исходные данные: х, s,v.

Шаг 2. Вычислить матрицу F = {/),}, /у = <р((х + se/) - <р((х - se!)\ і є [1: га]; j є [1: п].

Шаг 3. Принять В = FTdmg [фр2 ]F.

Шаг 4. С помощью процедуры jacobi построить ортогональную матрицу [/, при­водящую матрицу В к диагональному виду UTBU.

Шаг 5. В осях {и1}, совпадающих со столбцами матрицы U, реализовать процесс ЦПС (алгоритм GZ1) из точки х до выполнения условия поворота осей (совпа­дает с условием поворота в алгоритме SPAC1); присвоить х полученное лучшее значение, модифицировать s и перейти к шагу 2.

Окончание процесса и процедура пересчета s — такие же, как и в случае алгорит­ма SPAC1. Предполагается, что пользователь должен иметь подпрограмму, вы­числяющую веКТОр ф (Х) = [ф! (Х),       фш (Х)].

Далее рассматриваются вопросы применения алгоритмов типа SPAC1, SPAC5 для решения конкретных классов задач теории управления.

4.5.2. Идентификация нелинейных детерминированных объектов на основе функциональных рядов Вольтерра

Согласно выражению (1.16), имеем следующее представление для целевого функционала, отражающего ошибку идентификации:

"лг,     ' n2

[k]-H[k]

(4.36)

гДе z/vi[£]> Уч2[к\ ~~ заданные функции дискретного переменного k; H[k] — задан­ная дискретная аппроксимация выходного сигнала объекта. Множитель 0,5 здесь добавлен для удобства последующих записей. На процесс оптимизации он, очевидно, не влияет.

Функционал (4.36) имеет вид (4.31) с параметром v = 2, где

4>k(x) = (x,y[k])-H[k]; (4.37) x=(xhx2l ...,xn); n = N1 + N2; y[k] = (yn[k], ...,yNll[k],y12[k],уЩ2[к]).

Из (4.37) следует, что в данном случае приближенные равенства (4.33), (4.34) выполняются точно.

Элементы гессовой матрицы {gy} равны

gij^yiWyjlkVJJeltn], (4.38)

В силу линейной зависимости ф* от х функционал (4.36) является параболоидом, и его минимизатор х* может быть найден из решения линейной системы нормальных уравнений вида/(г) = 0 с матрицей G = {g^}, имеющей элементы (4.38). Однако с вычислительной точки зрения более эффективным обычно оказывается подход, основанный на непосредственной минимизации (4.36). Дадим необходимые разъяс­нения.

Как отмечалось, задачи минимизации функционалов типа (4.36) оказываются очень плохо обусловленными. Это приводит к известным вычислительным труд­ностям при решении линейных систем нормальных уравнений

Gx - 6,

(4.39)

отражающих необходимые условия экстремума. Здесь G = УТУ, где У — (ЛГ0 х п)-матрица вида

У =

Отсюда видно, что компоненты в основном определяются малыми собственны­ми числами Х2 УХА, и уже небольшая погрешность в их представлении приводит к большой ошибке в результате. Необходимо отметить, что, например, при написа­нии тестовой программы, осуществляющей вычисление значений /, следует ис­пользовать вышеприведенное представление функционала в виде суммы. При­менение для этой цели обычного выражения квадратичного функционала

J = ^{Ахух)-{Ьух)у содержащего в явном виде матрицу A=J"y недопустимо, так

как из-за ограниченной точности представления элементов а$ матрицы в памяти
компьютера информация о малых собственных числах Х2,ХА теряется на фоне
больших XVX3. Указанное обстоятельство приводит к резкой потере эффективно-
сти методов ньютоновского типа, основанных на существенном использовании
информации о малых собственных числах при явном представлении аппроксима-
ций матриц Гессе минимизируемого функционала. Все сказанное, очевидно, отно-
сится к попыткам искать решение с помощью линейных систем (4.39).
Привлечение методов регуляризации для решения (4.39) позволяет определить
«квазирешение» х , отражающее некоторый компромисс между величиной нор-
мы I х *|| и невязкой I Gx * -b ||. При этом относительно малым невязкам могут со-
ответствовать относительно большие ошибки как по аргументу ||х*    т^к и
по функционалу J(x*)-J(x*). Действительно, рассмотрим одномерный случай
параболы у(х) = ^ ах2. Тогда невязка будет определяться величиной градиента

(в данном случае — производной) у'(х) = ах. Здесь коэффициент а моделирует влияние некоторого «малого» собственного числа. Полагая а = 2 • 10"6, х = 104, получим у' (х *) = 2 • 10"2, у (х *) = 102 при у (х*) = 0.

Этот пример полностью отражает общую ситуацию. Важно при этом понимать, что в данном случае только для простоты выкладок начало координат совмеще­но с точкой х*. При проведении регуляризации в общем случае из условия «ма-

В силу изложенного на практике довольно редко обращаются к непосредствен­ному решению нормальных уравнений (4.39). Стандартный подход описан в учебнике [31] и заключается в построении сингулярного разложения прямо­угольной матрицы (4.40)

где U — ортогональная Л^хЛ^-матрица; V — ортогональная ггхгг-матрица; I — диа­гональная ЛГ0хя-матрица, у которой ау- = 0 при і * j и а„ =а, >0. Вектор £*, аппроксимирующий точный минимизатор функционала (4.36), выражается со­отношениями х* = Vz*, где і* = —, если Gj > 5; в противном случае z* — произ­вольно. Обычно при а, < 5 полагают z* =0, снова минимизируя длину ||f *|| и до­биваясь за счет этого единственности решения. В данном случае d= UTh, h = = (#[1], H[N0])T. Величину 5, отражающую уровень «малости» соответст­вующего сингулярного числа, целесообразно полагать равной пХ{ем, где Xl = тах|Л,, |. Введение 5, по существу, реализует некоторый алгоритм регуляризации

и оказывает заметное влияние на окончательный результат. Как и в предыдущем слу­чае, необходимая априорная информация для обоснованного выбора 5 и значений £* при а, < 5 (с позиций исходной задачи, идентификации) здесь также отсутствует.

Иная ситуация складывается при решении задачи идентификации с помощью прямой минимизации целевого функционала (4.31) методами типа ОПС. Предпо­лагая, что полная информация о минимизаторе х* не теряется при реализации ал­горитма вычисления J (х), мы используем матрицу G только для выбора наиболее рациональной системы координат. Далее в процессе минимизации производятся многократные дополнительные вычисления J(x) с поступлением новой полезной информации об истинных значениях компонентов вектора х*. Это приводит к опре деленному эффекту усиления «полезного сигнала». Таким образом, прямая мини­мизация функционала (4.31) является наиболее предпочтительным подходом.

4.5.3. Корреляционные методы идентификации стохастических объектов

В соответствии с результатами, полученными в 1.3.2, задача идентификации ли­нейного объекта со стационарным случайным входным сигналом сводится к инте­гральному уравнению Винера—Хопфа. Один из возможных подходов к его реше­нию заключается в минимизации регуляризованных функционалов вида (3.20)

функций (см. рис. 1.11); a — параметр регуляризации.

При отсутствии необходимости проводить регуляризацию имеем a = 0, и мини­мизация функционала (4.43), осуществляется по методике, изложенной в 4.5.2, алгоритмами типа SPAC5.

При а * О целесообразно использовать алгоритмы со специальной реализацией шага 2 вычисления матрицы Гессе. Элементы g (х) и G (х) в данном случае вы­числяются по точным формулам:

дх, м

4.5.4. Синтез статистически оптимальных систем автоматического управления

Как известно, многие задачи синтеза линейных оптимальных систем по ста­тистическим критериям как при стационарных, так и нестационарных воздейст­виях сводятся к решению интегральных уравнений Винера—Хопфа. Учет нестационарности входных воздействий приводит к необходимости решения по­следовательности стационарных задач.

Решение последних с помощью методов ОПС может быть проведено по методи­ке, изложенной в 4.5.3, и не требует дополнительных разъяснений.

4.5.5. Идентификация нелинейных динамических систем

Пусть траектория z(t, х) динамической системы описывается уравнением

z(t,x) = /(t,z,x), z(t0,x) =z\t0 <t<T, (4.46)

где z — r-мерный вектор фазовых координат; z° — известный начальный вектор; х — ^-мерный вектор постоянных неизвестных параметров; / — непрерывно диф­ференцируемая функция своих аргументов, удовлетворяющая в некоторой замк­нутой области при .г є X условиям теоремы существования и единственности ре­шения. Требуется по результатам измерения вектор-функции

у (0 = Я (0 г (t, х), t є [to, T) (4.47) определить вектор параметров х из условия минимума функционала

j{X)=оліц Щ ж*;'*)-y(h )|Ґ> <4-48)

где Я (t) — непрерывная матрица размерности / х г, которая связывает вектор из­мерения с вектором состояния (l<r),tj(j є [I: N], N>n) — дискретные моменты съема измерительной информации.

Функционал (4.48) с точностью до обозначений имеет, очевидно, вид (4.31)

Таким образом, для данного класса задач построение аппроксимации матри­цы G (х) сводится к построению матрицы Якоби F(t, х) = дг(^х) Вектор-функ-

дх

ции z (ty х) в дискретные моменты времени tk, k є [1: JV]. Для вычисления матри­цы F(t, х), имеющей в качестве элементов соответствующие функции чувст­вительности системы (4.46), при фиксированном х = х решается линейное мат­ричное уравнение

с jF(£0,3:) =0, t є [ґ0,Г]. При этом зависимость z(t, х) при фиксированном х по­лучается непосредственным интегрированием (4.46). Уравнение (4.51) выводит­ся в любом стандартном учебнике по дифференциальным уравнениям.

Важно понимать, что в данном случае квадратичная модель целевого функцио­нала (4.48) вводится лишь для выбора наиболее рациональной системы коорди­нат, а минимизации подвергается исходный функционал (4.48).

Пример. Пусть фазовые траектории некоторой динамической системы имеют вид

z (U х) = ф (0[exp (-x{t) + exp [-x2t]]t t0 = 0, 2° = 2ф (0),

где ф (t) — заданная функция, принимающая значения ф (1) = ехр (0,1), ф (2) = = 0,5ехр(0,1). Требуется определить вектор х = (хь х2) из условия минимума функционала

гдег; =z(tj,x*); tx -\t2 =2',х* =1,х*2 = 1Д

Для начальной точки х° = (0,1; ОД),/^0) = 2,6006 имеем согласно (4.50) (эле­мент матрицы g12 не показан, так как матрица симметрична)

Прямая минимизация аппроксимирующего піараболоида в данном случае за­труднительна из-за вырожденности аппроксимации матрицы G (х) в начальной точке х = яР и ее плохой обусловленности в окрестности При использовании же алгоритма SPAC5 никаких вычислительных проблем не возникает. В резуль­тате вычислений, эквивалентных по трудоемкости ста обращениям к подпро­грамме, по которой осуществляется вычисление значений J(x), была получена точка х = (1,0001; 13000) с J(x) = 1^164 • 10"11.

Начальное значение шага дискретности s полагалось равным 0,01.

4.5.6. Оценивание состояний динамических систем: задача о наблюдении

Уже говорилось, что для управления некоторой сложной системой или объектом необходимо иметь информацию о текущем состоянии системы. В то же время измеряемыми и непосредственно наблюдаемыми являются лишь некоторые фи­зические выходные переменные у = (*/!, у29 у і), функционально связанные с вектором z = (zuz2, Zj) состояний. Возникает задача определения z (tQ) в неко­торый заданный момент времени t = t0 по данным измерения у (t) (а иногда и управляющего воздействия и (£)) на конечном интервале времени t0 < t < Т, Т> t0. Согласно введенной в 1.2 терминологии, сформулированная задача является за­дачей сглаживания.

Пусть движение системы определяется уравнением

z(t)~f(t,z\z(tQ) = x,tQ <t<T, (4.52)

где fit, z) — известная нелинейная непрерывно дифференцируемая функция своих аргументов, удовлетворяющая в некоторой замкнутой области условиям теоремы существования и единственности решения. Предположим, что векторы zny связаны линейным соотношением

y(t) = H(t)z(t), (4.53)

где H(t) — известная /xr-матрица, определяемая конструкцией измерительного устройства. При сделанных предположениях траектория z(t) системы (4.52)

однозначно определяется начальным вектором х= (х{,хп). Оценки хь і є [1: п] могут быть определены из условия минимума целевого функционала

Аналогично предыдущему подразделу имеем следующие формулы для элемен­тов аппроксимации матрицы Гессе:

В силу известных результатов теории дифференциальных уравнений матрица dz

F(t,x) =— производных по начальным условиям удовлетворяет в точке х =х дх

матричному уравнению

4.5.7. Идентификация возмущающих воздействий

Задача идентификации возмущающих сил формулируется следующим образом. Пусть движение некоторой динамической системы описывается уравнением

i(0 = /(^^),2(t0) = z0, (4.56)

где v — вектор возмущающих сил. Предполагая, что известна параметризация

v = v (t, х), х = (хь хъ     хп\ t є [t0, 7], (4.57)

требуется определить вектор неизвестных параметров х. Не останавливаясь на обсуждении очевидных необходимых свойств функций /, v, отметим, что так по­ставленная задача идентификации возмущающих сил с точностью до обозначе­ний совпадает с задачей, поставленной в 4.5.5. Более того, обе эти задачи могут решаться совместно по единой методике.

Неизвестный вектор х по измерениям у (4.53) может быть найден из условия минимума функционала

J(x) = 0521 H(t, )z{tj,x)-y{tj )||\ (4.58)

где 2 (tj, х) — результат интегрирования (4.56) при фиксированном х. Прибли­женные выражения для элементов матрицы G (х) определяются выражениями

(4.55), где матрица F(t,x)= dz(^*) является ПрИ х =х решением матричного

4.5.8. Решение систем неравенств

Задачи с неравенствами весьма часто возникают в теории управления. При этом ^задача решения системы вида

одним из рассмотренных в 2.8.2 способов формулируется как оптимизационная. Соответствующие достаточно общему подходу целевые функционалы предста-вимы в виде

где zk (х) отражает k-n «запас» в выполнении неравенств (4.60). Из (4.61) получаем:

Выполняя линеаризацию zk в окрестности текущей точки xf

zk(x)szU*) + (^p,x-x^

получим из (4.63) используемую на практике аппроксимацию матрицы Гессе

Из (4.63) следует, что при увеличении v точность аппроксимации (4.64), вообще говоря, возрастает.

Для конкретных классов прикладных задач в ряде случаев возможно использо­вание точных формул для вторых производных критериев оптимальности без существенного увеличения трудоемкости решения задачи.

4.5.9. Управление технологическим процессом серийного выпуска изделий

При выпуске изделий массового производства (например, интегральных микро­схем) одним из важнейших производственных показателей является вероят­ность выхода годных изделий (см. формулу (2.49)):

Ставится задача выбора такого вектора управляемых параметров х = в (х{1 х2у хп), чтобы обеспечить максимум вероятности выхода годных изде­лий. Будем далее предполагать, что помимо случайного вектора отражающего фактор неопределенности обстановки, величина Р зависит также от некоторого контролируемого вектора параметров £ (£), характеризующих, например, изме­ряемые параметры очередной партии сырья*. В дискретные моменты времени £f, отвечающие моментам скачкообразного изменения вектора £ либо соответствую­щие существенному (в некотором определенном смысле) ухудшению показателя качества J(x) за счет накопившихся непрерывных изменений £ (£), целесообраз­но осуществлять перенастройку производственного процесса с помощью повтор­ного решения задачи (4.65) и выбора нового оптимального вектора управляемых параметров х*. Следовательно, в данном случае можно говорить об оптимальном управлении процессом производства по критерию вероятнбсти выхода годных из­делий. Вероятность Р при фиксированном векторе параметров х вычисляется на основе статистических испытаний по методу Монте-Карло в соответствии с за­данной плотностью Ч! (х, £) распределения случайного вектора Здесь предпо­лагается, что составляющие вектора £ имеют смысл некоторых внутренних либо внешних параметров процесса и, что существенно, включают в себя все компо­ненты вектора х. При этом под х{ будут пониматься средние значения ^ , за счет выбора которых и происходит управление процессом.

Критерий (4.65) может быть представлен в виде [8]

где ф (£) — калибровочная функция, равная 1, если при данном £ система нера­венств у (ху £) < U имеющих смысл условий работоспособности, выполнена; в противном случае ф (£) полагается равной 0. В данном случае существенно, что Ф (£) не зависит от х. На основе предположения о возможности операции диф­ференцирования по х под знаком интеграла (4.66) и перехода к статистическим аналогам соответствующих соотношений могут быть получены выражения для составляющих градиента и матрицы Гессе критерия (4.65). Для случая, когда Ч*(х, £) задает многомерное гауссовское распределение вида

справедливы следующие представления для производных:

где N — число статистических испытаний по методу Монте-Карло; R, Ry — соот­ветственно, определитель и алгебраические дополнения, составленные из эле­ментов матрицы коэффициентов парных корреляций; af = a^. — среднее квад­ратичное отклонение параметра k — число «успешных» испытаний, при которых условия работоспособности оказываются выполненными.

Из (4.68), (4.69) следует, что элементы вектора градиента и матрицы Гессе кри­терия (4.65) при сделанных предположениях могут рассчитываться без дополни­тельных затрат по вычислению значений выходных параметров у одновремен­но с расчетом целевого функционала Р (х).

Рассмотренная техника дифференцирования при соответствующем обосновании выполняемых операций дает эффективный способ реализации методов ОПС для решения довольно широкого класса прикладных задач теории управления.

4.5.10. Обеспечение максимального запаса работоспособности оптимизируемой системы

Как отмечалось в 2.8, основные требования-спецификации к оптимизируемой системе могут быть выражены в виде системы неравенств (4.60). При этом ос­новная задача формулируется следующим образом: обеспечить такой набор управляемых параметров х, при которых наилучшим образом выполняются все спецификации (4.60) во всем диапазоне изменения внешних параметров.

Количественная оценка степени выполнения j-ro неравенства имеет смысл запа­са работоспособности Zy Наиболее объективно цели оптимизации отражаются при использовании конструкций вида (2.51):

В случае использования представлений (4.70), где 5;, по существу, играет роль весовых коэффициентов, общие соотношения (4.62), (4.63), приближенно реали­зующие принцип максимума минимального из запасов, принимают следующий вид:

 (4.72)

Выполняя линеаризацию k-ro выходного параметра yk в окрестности текущей точки ґ

приходим к следующему представлению, аналогичному (4.64):

При реализации методов ОПС множитель v в (4.74) может быть опущен. В ряде случаев соотношение (4.73), а вместе с ним и (4.74) выполняются точно. В слу­чае достаточно простой аналитической структуры зависимостей yk(x) могут

быть получены явные выражения для производных       —, что позволяет непо-

дх{ dXj

средственно воспользоваться соотношениями (4.72).

4.5.11. Оптимизация систем по сигномиальным целевым функционалам

Так называемые «простые» задачи оптимального параметрического синтеза сис­тем характеризуются наличием известных аналитически заданных связей между управляемыми параметрами (параметрами оптимизации) и соответствующими значениями целевых функционалов. При этом, как показывает практика [62], весьма характерна сигномиальная структура указанных связей:

Кроме того, функционалы с такой структурой используются (по аналогии с квадратичными функционалами) как хорошие локальные модели функционалов общего вида. Поэтому наряду с квадратичными методами конечномерной опти­мизации могут строиться сигномиалъные методы. Функционалы вида (4.75) изу­чаются в специальном разделе теории нелинейного программирования — гео­метрическом программировании.

Существуют регулярные методы минимизации функционалов (4.75), основан­ные на теории двойственности в геометрическом программировании в предполо­жении а,- = 1, г є [1: N] [60]. Однако если число степеней трудности у > 0, где у = N- (п + 1), то целесообразен прямой поиск минимума/ (х) с использованием ньютоновских процедур второго порядка [62]. Указанный подход становится практически наиболее оправданным в общем случае произвольных а,-, когда

основные предпосылки метода двойственного геометрического программирова­ния нарушаются.

Как показано в книге [62], применение Н-методов для решения задачи мини­мизации (4.75) сопряжено с известными трудностями из-за неустойчивости и расходимости численных процедур вследствие знаконеопределенности матриц Гессе. Поэтому по причинам, изложенным ранее, целесообразно обращение к ме­тодам ОПС. Применение процедур ОПС (так же как и Н-методов) в данном слу­чае облегчается из-за наличия явных выражений для первых и вторых производ­ных функционала (4.75). Действительно, выполняя, например, замену переменных Xj = ехр (г/,), получим:

Перспективность указанной реализации методов ОПС определяется достаточно широкой сферой приложений математических моделей типа (4.75), не ограни­ченной задачами оптимального проектирования систем с функционалами каче­ства, непосредственно сводимых к сигномиальному виду. Как уже указывалось, функциональная зависимость (4.75) часто дает хорошее приближение к эмпири­ческим данным в широком диапазоне изменения переменных х{. Кроме того, функционалы (4.75) используются непосредственно в задачах дискретного опти­мального управления.

Более детальное обсуждение соответствующих вопросов выходит за рамки дан­ной книги и может составить предмет отдельного изложения.

4.5.12. Оптимальное управление

Основные постановки задач теории оптимального управления изучаются в базо­вых курсах по теории управления. Несмотря на интенсивные исследования в об­ласти создания эффективных численных методов решения задач оптимального управления, при их практической реализации возникают значительные трудно­сти. Они обусловлены трудностями решения существенно нелинейных краевых задач, получаемых из принципа максимума Л. С. Понтрягина, а также чрезмер­

ной громоздкостью соответствующих методу динамического программирования Р. Беллмана численных процедур. В силу указанных причин интенсивно разви­ваются методы решения задач оптимального управления, базирующиеся на иде­ях конечномерной оптимизации. Несмотря на свои трудности указанный подход оказался чрезвычайно эффективным, позволяя использовать всесторонне разви­тый арсенал методов решения канонических задач безусловной минимизации. Для реализации соответствующих методов разработаны рекуррентные процеду­ры вычисления как первых, так и вторых производных от характерных для тео­рии оптимального управления целевых функционалов вида

предполагается, что управляемый процесс описывается неавтономной системой дифференциальных уравнений вида dx

К виду (4.79), в частности, приводят такие методы учета ограничений, как мето­ды штрафных функций и модифицированных функций Лагранжа.

Эффективные вычислительные процедуры для построения первых и вторых производных функционалов (4.79) описаны в работе [26]. Это позволяет непо­средственно обращаться к эффективным методам оптимизации второго порядка с целью решения задач теории оптимального управления методами конечномер­ной оптимизации. При этом представляет несомненный практический интерес решение следующих вопросов.

Обобщение формул численного дифференцирования на случаи применения различных схем численного интегрирования.

Уточнение структуры матрицы R'^ с целью организации упакованной фор­мы ее хранения в памяти компьютера при решении задач высокой размерно­сти методами, рассматриваемыми в главе 5.

Организация программных интерфейсов между соответствующими модуля­ми, реализующими конкретные выражения для производных, и библиотекой методов решения канонических оптимизационных задач.

К сожалению, рассмотрение этих вопросов выходит за рамки настоящей книги.


Авторы: 239 А Б В Г Д Е З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я

Книги: 268 А Б В Г Д Е З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я