Text
                    

-STS' га
МЕТОДЫ ТЕОРИИ автоматического УПРАВЛЕНИЯ Цикл учебников и учебных пособий основан в 1997 г. Под общей редакцией заслуженного деятеля науки РФ, доктора технических наук, профессора К. А. Пулкова
ФЕДЕРАЛЬНАЯ ЦЕЛЕВАЯ ПРОГРАММА «ГОСУДАРСТВЕННАЯ ПОДДЕРЖКА ИНТЕГРАЦИИ ВЫСШЕГО ОБРАЗОВАНИЯ И ФУНДАМЕНТАЛЬНОЙ НАУКИ» МЕТОДЫ РОБАСТНОГО, НЕЙРО-НЕЧЕТКОГО И АДАПТИВНОГО УПРАВЛЕНИЯ Под редакцией заслуженного деятеля науки РФ, доктора технических наук, профессора Н.Д. Егупова Издание второе Рекомендовано Министерством образования Российской Федерации в качестве учебника для студентов высших учебных заведений, обучающихся по машиностроительным и приборостроительным специальностям Москва Издательство МГТУ им. Н.Э. Баумана 2002
УДК 681.5:681.3 БЕК 14.2.6 М54 Рецензенты: [академик РАН ЕЛ. Попо^\ кафедра «Автоматические сист?““>>^®Р^е(,) (зав. каф., член-корреспондент РАН Е.Д. Теряев) Авторы: Д-р техн, наук, проф. КА. Пупков. д-р техн, наук, проф. НД. Егуповкыд. техн, наук, доцент А.И Гаврилов, 1д-Р техн, наук, ««НД. техн, наук, доцент В.Г. Коньков, д-р техн, наук, проф. Л. Т. Милов, д-р техн, наук, проф. ИА. Мочалов, инженер Ю.И. Мышляев, д-р техн, наук, проф. А.И. Трофимов Издание осуществлено при финансовой поддержке Федеральной целевой программы «Гэсударственная поддержка интеграции высшего образования и фундаментальной науки* М54 Методы робастного, нейро-нечеткого и адаптивного управления: Учебник / Под ред. Н.Д.Егупбва; издание 2-ое, стереотипное. - М.: Изд-во МГТУ им. Н.Э. Баумана, 2002. - 744 с., ил. ISBN 5-7038-2030-8 Настоящий учебник охватывает разделы теории, которые позволяют найти под- ходящее управление в условиях неполного, нечеткого и неточного знания характери- стик объекта управления и характеристик окружающей среды, в которой функциони- рует этот объект. Одним из основных понятий в теории робастного управления явля- ется понятие неопределенности. Неопределенность объекта отражает неточность мо- дели объекта, причем как параметрическую, так и структурную. Неопределенность, в условиях которой часто приходится принимать решения, направленные на выбор лучшего варианта действий, привела к развитию теории и методов принятия решений. Эта теория примыкает непосредственно к теории интел- лектуальных систем. В учебнике, хотя н в небольшом объеме, приведены материалы, позволяющие подойти к изучению этой важной проблемы принятия решения в сис- темах управления. предназначен для студентов н аспирантов вузов, он может оказаться темы 7поакп₽цеНеРаМ " научиым Ра6отникам, разрабатывающим современные сис- УДК 681.5:681.3 ББК 14.2.6 ISBN 5-7038-2030-8 © Центр «Интеграция», 2001 © Коллектив авторов, 2001
ПРЕДИСЛОВИЕ Учебник «Методы робастного, нейро-нечеткого и адаптивного управ- ления» охватывает разделы теории, которые позволяют найти подходящее управление в условиях неполного, нечеткого и неточного знания характе- ристик объекта управления и характеристик окружающей среды, в которой функционирует этот объект. Одним из основных понятий в теории робаст- ного управления является понятие неопределенности. Неопределенность объекта отражает неточность модели объекта, причем как параметриче- скую, так и структурную. Неопределенность входных сигналов отражает различную природу внешних возмущений, действующих на объект и регулятор. Неопределен- ный объект, таким образом, может рассматриваться как некое множество объектов. Если для системы управления с объектом выбрать некоторую ее характеристику, например, устойчивость, то регулятор является робастным относительно этой характеристики, если ею обладает любой из множества объектов, задаваемых неопределенностью. Таким образом, понятие робаст- ности подразумевает наличие регулятора, множества объектов и фиксацию определенной характеристики системы. Однако в процессе функционирова- ния робастной системы информация о неопределенностях в ней не исполь- зуется для управления, что является недостатком такого управления. Для устранения этого недостатка используются адаптивные системы управления. Такие системы строятся для объектов, информация о которых или о воздействиях на которые недоступна в начале функционирования системы. Чаще всего свойство адаптации достигается посредством форми- рования в явном или неявном виде математической модели объекта или воздействия на него. Этим отличается как поисковое адаптивное управление, в основе кото- рого поиск и удержание экстремума показателя качества, так и беспоиско- вое, в основе которого компенсация отклонения фактических изменений управляемых координат от желаемых изменений, соответствующих тре- буемому уровню показателя качества. Далее, по уточненной модели про- исходит подстройка адаптивного регулятора. Таким образом, основная особенность адаптивных систем управления есть возможность получения информации в процессе функционирования и использования этой инфор- мации для управления. Более того, в адаптивных системах всегда исполь- зуется априорная информация о неопределенности в системе. Это принци- пиальное отличие адаптивного подхода от робастного.
g ____________________________________________Предисловие Г, ы неЧеткого управления широко используются в промышленных иоопесоах особенно в ситуациях, где обычные методы управления трудно применимы. Однако они все еще страдают из-за сложности получения управляющих правил для процессов, в которых априорные знания недос- таточны или не существуют вообще. Поэтому очень важным для нечеткого управления является то, как получить управляющие правила. Существуют различные типы методов разработки нечетких регулято- ров. Один из наиболее широко используемых методов получения управ- ляющих правил - это метод извлечения экспертных знаний управления или использование знаний онытных операторов. В результате набор управляющих правил отражает эмпирические знания экспертов о протека- нии процесса. Этот метод зависим от опыта различных личностей, так что нечеткие управляющие правила могут быть невыполнимы и даже проти- воречить друг другу. Другой метод имеет дело с нечетким моделированием процесса, где приблизительная модель объекта конфигурируется с использованием, им- пликаций, описывающих возможные состояния системы. Подобно тради- ционным подходам, взятым из теории управления, нечеткий регулятор конструируется для управления нечеткой моделью, полученной методами структурной идентификации и оценки параметров. Самонастраивающееся нечеткое управление является очень популяр- ным методом, который успешно применяется в управлении процессами. В дальнейшем самонастраивающееся нечеткое управление значительно рас- ширилось с использованием нейронных сетей. Разнообразие нейро- нечетких регуляторов усовершенствовало нечеткое управление. Однако вычисление правил и обучение нейронной сети обычно занимают много времени. Приведенные в учебнике материалы по нейро-нечеткому управ- лению позволяют использовать их непосредственно для решения практи- ческих задач. Неопределенность, в условиях которой часто приходится принимать решения, направленные на выбор лучшего варианта действий, привела к развитию теории н методов принятия решений. Эта теория примыкает не- посредственно к теории интеллектуальных систем. В учебнике, хотя и в небольшом объеме, приведены материалы, позволяющие подойти к изуче- нию этой важной проблемы принятия решения в системах управления. Авторы учебника отдают себе отчет в том, что проблемы, затронутые в книге, находятся в состоянии развития н, естественно, не все еще решены. Авторы просят присылать им предложения и замечания, направленные на улучшение содержания учебника. Учебник предназначен для студентов и аспирантов вузов, он может оказаться полезным инженерам и научным работникам, разрабатывающим современные системы управления. К.А. Пупков Н.Д. Егупов
ЧАСТЫ Н" -ТЕОРИЯ ВВЕДЕНИЕ Последней формой в парадигме систем автоматического управления (САУ) является система автоматического целеуказания, которая может быть реализована только как интеллектуальная система (ИС), а именно - ИС управления (ИСУ) [26]. Но даже ИСУ (являющаяся по своей природе адаптивной) на первых порах её функционирования (когда информации ещё нет или её мало, отчего ИСУ находится в условиях сильной неопреде- лённости) должна быть робастной, откуда следует безусловная актуаль- ность методов синтеза робастных оптимальных систем. Одним из них яв- ляется метод на основе Н“ -теории, которой и посвящена данная работа. В первой главе обсуждается математический аппарат, лежащий в осно- ве Н°° -теории, а также некоторые специфические приёмы, используемые в ней. Аналитическое обслуживание теории управления в наше время связано с большим числом фундаментальных понятий из самых различных разде- лов современной математики. Понятия эти Часто находятся в такой взаи- мозависимости, ^которая создает затруднения в попытке доходчиво, аргу- ментировано с позйццй инженера и достаточно коротко пояснить их суть. Для этого требуется выяснение физического смысла этих понятий, их ло- гической обоснованности и взаимосвязи, что в математической литературе обычно приносится в жертву максимальной строгости (поэтому к поняти- ям там достаточно подходить сухо аксиоматически). В связи с этим авторы заранее просят извинения по поводу не совсем традиционных приемов, ко-
8------------------------------------------- н -теория. Часть I торые использовались ими на кратчайшем с их точки зрения пути, щем читателя, хорошо владеющего классической теорией управления к первоначальному знакомству с основами сравнительно нового у нас ее раздела, называемого сейчас « Н°° -теория». Во второй главе на основе понятия взаимно простой факторизации по- ясняется алгоритм синтеза в рамках Я “-теории робастного регулятора, стабилизирующего заданный объект. Глава третья посвящена изложению способов оценки качества в Н°° - теории, а также их интерпретации с позиции классической теории. Далее излагаются вопросы построения оптимальных систем управле- ния в рамках И" -теории. В настоящее время наиболее широко известны два алгоритма синтеза Я “-оптимального регулятора, предложенные Джоном Дойлом, - на основе классического подхода (подход 1984 года) и «два-Риккати подхода» (подход Г988 г.). Для их представления требуется использование некоторых дополнительных специфических понятий из Я“-теории, которые и обсуждаются в четвертой главе с позиций класси- ческой теории управления. В пятой главе рассматривается ряд наиболее широко известных основ- ных задач, иллюстрирующих суть подхода 1984 года. Подход 1988 г. связан с необходимостью решения уравнений Риккати. В шестой главе приводится устойчивый аппарат решения такого уравне- ния. «Два-Риккати» подход к решению задачи синтеза Я“-оптимального регулятора излагается в седьмой главе параллельно с решением задачи синтеза Я2 -оптимального регулятора, что позволяет наиболее наглядно выявить их сходство и различия. Изложение завершается рассмотрением примера построения Я2 - и Я “-оптимального регулятора для минимиза- ции ветрового возмущения на продольное движение самолета в режиме посадки (восьмая глава). В девятой главе рассматриваются задачи, связанные со смешанной Я2/Я“-оптимизацией, позволяющей расширить возможности оптималь- ных систем, построенных по рассмотренным в главе седьмой локальным критериям. Строгое изложение Н“-теории можно найти в литературе, краткий список которой, определенный лишь логикой изложения материала (никак не связанный с приоритетностью), приведен в конце работы.
Список используемых аббревиатур и обозначений 9 СПИСОК ИСПОЛЬЗУЕМЫХ АББРЕВИАТУР И ОБОЗНАЧЕНИЙ ИСУ МПФ ЛМСАР - интеллектуальные системы управления - матричная передаточная функция - линейная многомерная система автоматического ЛДП (LFT) SISO MIMO ПВПФ, ЛВПФ ДВПФ BIBO регулирования - линейные дробные преобразования - система «один вход, один выход» - система «много входов, много выходов» - правая и левая взаимно простые факторизации - двойная взаимно простая факторизация - система «ограниченные входы, ограниченные выходы» НВПФ ВПФа ПОМ (ММР) FI FC ОЕ GCARE и GFARE - нормализованная ВПФ - взаимно-простые факторы - проблема построения оптимальной модели - проблема полной информации - проблема полного управления - проблема оценки выхода - обобщенные алгебраические уравнения Риккати 0) хл(м),хп(м) т ZW задач оптимального управления - наихудшие возмущения - спектральные подпространства относительно М - МПФ системы (замкнутой) от сигнала w(?) к сигналу г(0
10 Я” -теория. Часть I ГЛАВА 1 МАТЕМАТИЧЕСКИЕ ПРОСТРАНСТВА 1.1. Пространства над произвольными множествами 1.1.1. Понятие пространства Пространство П - это непустое множество V , над элементами кото- рого У|(У2,... (поэтому часто используется термин «пространства П над множеством V») определены некоторые (нс обязательно алгебраиче- ские) операции, такие что результат выполнения этих операций является элементом этого же множества. В зависимости от характера как элемен- тов множества, так и операций, определенных над ними, пространства бывают разными. Так, например, непосредственно из приведенного оп- ределения следует, что R - поле действительных чисел, С - поле ком- плексных чисел, а также Z - кольцо целых чисел - являются простран- ствами. Поле, кольцо - алгебраические понятия в том смысле, что связа- ны не с любыми операциями, а со сходными по своим свойствам со сло- жением и умножением чисел (алгебраическими операциями). Кольцом R называется такое непустое множество с нулем (нейтраль- ным для сложения элементом), в котором определены две операции - сло- жение и умножение, связанные законом дистрибутивности (Vx,y,zeR; (x + y)z = xz + yz), . при этом операция сложения коммутативна (х + у = у + х), ассоциативна (х+(у + г) = (х + у)+г) и обладает обратной операцией (вычитанием). Ес- ли коммутативна и ассоциативна также операция умножения, то кольцо называется коммутативным и ассоциативным. Полем Р называется такое коммутативное и ассоциативное кольцо (ес- ли оно состоит не только из одного нуля), в котором определена однознач-
Глава 1. Математические пространства ц ным образом еще и операция, обратная умножению (операция деления), кроме деления на нуль. Согласно этим определениям, множество вещест- венных чисел [-оо,о=], множество всех комплексных чисел являются дей- ствительно полями Р, которые в данном конкретном случае обозначаются соответственно символами R. и С. Полем является также множество R(s) всех дробно-рациональных функций комплексного аргумента s = c + jio.T.e. Af(s)/N(s)e R(s), m и где М (s) = ^bts‘ , N(s) = е. R[s] - множество всех полиномов ком- i=0 1=0 плексного аргумента с вещественными коэффициентами. Здесь с, со, , bt е R.. В отличие от множеств вещественных и комплексных чисел, множест- во всех целых чисел с нулем (...-1,0, 1,...) - это ассоциативное, коммута- 2 тивное кольцо Z , так как —, например, не принадлежит этому множеству. Таким же кольцом является и множество R[s], так как —-— не является М (s) полиномом. 1.1.2. Линейные пространства Если пространство Л обладает свойством аддитивности (свойством, касающимся только элементов этого пространства): Vx,у,ге Л; х + у = у + хе Л x+(y + z) = (x+y)+ze Л 30е Л:х+0 = х 3-хе Л:х + (-х) = 0 - (коммутативность); - (ассоциативность); - (существование нуля); - (существование противоположного элемента) и свойством однородности (свойством, связанным с элементами и* пространства и пространства IR, и описываемым операцией умнож число): l;Va,₽e R (здесь 1 - единица, нейтральный для умножения элемент): афх) = (аР)хе Л; 1-х = х; (а+Р)х = ах+Рх; а(х+у)^ах+ау, 1*
12______________________________________________Н°° -теория. Часть I то оно называется линейным пространством (т.е. линейное пространство - алгебраическое понятие). Нетрудно заметить, что не любое кольцо и поле являются линейными пространствами, так как операция умножения эле- ментов эквивалентна операции умножения элемента на число только в том случае, если среди элементов присутствуют числа. Так, линейными про- странствами являются множества: • R - ввиду того, что элементы х, у е R в силу своей принадлежности являются числами; • Z - по той же причине; • R(s) - в силу того, что М (з) и N(s) (при т = п = 0) - числа; • R[з] - по той же причине. 1.1.3. Нормированные пространства Если среди операций в линейном пространстве Л существует операция г.'Л—>R+ (переводящая элементы множества V этого пространства в элементы множества R+ - множество неотрицательных действительных чисел), обладающая свойствами: х,уе Л;ае R; г(х) > 0, причем г(х) = 0 только при х = 0; г(ах) = |а| г(х); (1.1) г(х+ у) < г(х) + г(у) (неравенство треугольника), где |а| - модуль числа а, то результат такой операции называется нор- мой, а Л с такой операцией называется нормированным пространством N, результат г(х) обозначается ||х||. Поскольку операций типа г(х) мо- жет существовать несколько, у элемента может существовать несколько норм ||зс|| , таким образом, множеству V может соответствовать несколько нормированных пространств Nr. Линейное пространство является нормированным пространством, так как в качестве нормы можно выбрать г(х) = |х|: ||х|| = |х|. 1.1.4. Метрические пространства Во всяком нормированном пространстве можно ввести функцию р(х, у) = ||х - у||. Поскольку р(х,6) = ||х - 0|] = ||х||, ясно, что чем больше норма х (а следовательно, и р(х,0)), тем «дальше» находится хот нулево- го элемента (в смысле нормы разности между ними), т.е. р(х,6) может служить мерой степени различия, мерой удаленности в указанном смысле
Глава 1. Математические пространства 13 элементов х и 0 - мерой расстояния между ними. Аналогично р(х,у) может служить мерой расстояния между произвольными элементами х, у е N , т.е. метрикой в этом пространстве. Следовательно, всякое нор- мированное пространство N является метрическим М и в нем имеется возможность устанавливать степень близости точек этого пространства и тем самым изучать предельные свойства последовательностей в нем. Если окажется, что всякая сходящаяся последовательность точек пространства содержит в себе и предельную точку этой последовательности, то такое метрическое пространство называется полным. Полное нормированное пространство называется банаховым Вг. Если в линейном пространстве вводится понятие скалярного произве- дения элементов (обозначаемое (х, у), где х, у е Л), то такое пространст- во называется евклидовым пространством Е, так как оно является норми- рованным с нормой называемой евклидовой нормой элемента х. Скалярное произведение - это операция, обладающая следующими свойствами: Uy) = (y,x); (x+y,z) = (x,z) + (y,z); (Хх,у) = Х(х,у); (х, х) > 0, причем (х,х) = 0 только при х = 0. Максимальное число п ли- нейно независимых элементов в линейном пространстве определяет раз- мерность этого пространства. Примером n-мерного евклидова пространства является n-мерное ариф- метическое пространство Rn - пространство упорядоченных совокупно- стей и компонентов (х1,х2,х3,...,х„) из R: R” =: {х: х = (х1,х2,х3,...,хп); х,еЖ, i = l,n} (1.2) с обычным сложением и умножением на число и скалярным произведением (х.У) = 1=1 Здесь знак =:, или = означает «равно по определению», «есть»; знак {х:....} - «множество х, таких что ... ». Таким образом, выражение (1.2) следует прочитать так: R" по определению есть множество х таких, что эти х равны (х1,х2,х3,...,хи), где х;ей, i = l,n*. 1 Отсюда видно, что евклидова норма в геометрических й",и<3 является обычным расстоянием между точками этих пространств.
14_____________________________________________Н°° -теория. Часть I Полное евклидово пространство бесконечного числа измерений назы- вается гильбертовым пространством Н [25]. Например, гильбертовым пространством является пространство 1г; 12 =:(х:х = (Х|,х2,х3,...)<<», x,gR, i = 1,2,...}, 1=1 ' co скалярным произведением (*»У) = £*»Я. i=l Знак | можно понимать здесь как слова «при условии, что». 1.2. Пространства над множествами функций Элементами нормированных пространств могут быть не только различ- ные числа, но и другие математические объекты, например функции, функ- ционалы, операторы. Нормы каждого из этих объектов задаются по-разному. В частности, в Н°° -теории широко используются пространства L. Иногда их называют пространства Лебега в связи с тем, что в их определении фигу- рирует интеграл Лебега, являющийся расширением понятия обычного инте- грала (интеграла Римана). Требования к функциям для интегрируемости их по Лебегу менее жестки по сравнению' с требованиями к функциям, интег- рируемым по Риману, следовательно, их аналитические свойства проще, от- чего класс таких функций шире. Читатель, поверхностно знакомый с теори- ей интеграла Лебега, может считать, что подынтегральные функции являют- ся кусочно-непрерывными, и пользоваться понятием интеграла Римана [8]. Существуют различные пространства £[18,24]. 1.2.1. ' Пространства £P(R) Здесь 1 < р < °°, причем обычно р = 1,2, °=. Пространство 00 £P(R) =:(/(;):/(t) е С, гей, f lSp<~, (1.3) —юо где /*({) - функция, комплексно сопряженная функции у (г), поэтому /’(П/Ю=|/(П|2. (1.4) Следовательно, пространство £р(й) является пространством ком- плекснозначных функций действительного аргумента (функций, отобра- жающих значения из R в значения из С), интеграл от р -й степени моду- ля которых конечен (p-я степень модуля которых интегрируема). По-
Глава 1. Математические пространства 15 скольку У (0 при различных t имеет бесконечное число значений, LP(R) - пространства бесконечного числа измерений. Обозначим Lp (R) = I? и определение (1.3) запишем иначе: Lp ~.{f :R—>С f |У(ОГ<Й<~}, ре[1,~). Норму в этом пространстве удобно связывать с тем конкретным числом (равным значению указанного интеграла), конечность которого удостове- ряет принадлежность данной функции рассматриваемому классу функций, только иэ этого числа следует извлечь корень р -й степени, чтобы размер- ность нормы совпадала с размерностью рассматриваемых функций: ОО "1^Р l/wL’ f !/«)!’* (1.5) 1.2.2. Пространство L" Пространство С =: {f :R—>C|ess sup|/(r)|<o=}, (1.6) t Здесь sup|/(r)|=:{minc:|y(t)|^c,VfeR} супремум no t модуля /(t) t - наименьшая верхняя грань модуля f (Г), т.е. наименьшее значение по- стоянного уровня с, который | J (г) | не превышает при всех t; esssup|y(t)| =: sup| f (t)| почти всюду. (1.7) t t Термин «почти всюду» означает; при всех t е R, за исключением неко- торого числа значений t, образующих множество а меры нуль. Пример 1.1. Смысл выражения (1.7) поясняет рис. 1.1. Рис. 1.1. Поясиеияе смысла выражения (1.7)
16_________, _______________________________________________ Н°° -теория. Часть I На нем изображена функция | f(r)l, представленная гладкой кривой о(г), к которой при r=tltt2,t3 добавлены мгновенные отсчеты (скачки нулевой площади), имеющие значения соответственно a,,a2,a3, такие что в сумме с а(Г|),а(г2),а(<3) некоторые из них превышают значение q . Итак, |/(г)|=а(1) + П|+а2+а3 ; с2,с3 - возможные значения уровня с;с2 - наименьшее из них, т.е. sup|/(l)| = c2 , ио I 1 esssup|/(r)| = q =supa(<) (1.8) t I (в данном случае множество a = {«I ,r2,r3}). По тем же, что и в предыдущем пункте, соображениям норма в этом пространстве назначается в виде =:esssup|/<o|- (i.9) Замечание 1.1. Норма (1.9), которая, на первый взгляд, не следует из выражения (1.3) при р->°° (что, казалось бы, должно было иметь место согласно логике обозначения пространства), на самом деле удовлетворяет этому предельному переходу, что подтверждает следующее нестрогое рас- суждение. Увеличение р приводит к тому, что в кривой a(t)p все более подавляющее преимущество перед остальными приобретает самое боль- шое значение a(t), т.е. значение supa(r) (пусть это значение a(f) дости- t гает при t = ts). В силу вышесказанного можно записать a(t)p = a(r)/’8(r-rJ), и тогда (cm. (1.5)) GO ||/(')|| = J|/(O|₽dt P~>“ [f |_-OO ]i/p Up j a{tYb{t-ts)dt^a[ +a% +a$ ii//> так как скачки alta2,a3 имеют нулевую площадь и интеграл от них равен нулю (что и раскрывает физической смысл термина «меры нуль», характе- ризующего множество а в данном примере, ведь норма, а следовательно, и мера в этом пространстве связаны со значением интеграла). Таким обра- зом (см. (1.8)), U/XOll = supa(r) = ess sup|/(r)| = ||/(D||Z- • p—n> 1 1 Большинство используемых далее функций таковы, что
Глава 1. Математические пространства 17 ess sup| f (Г)| = sup|/(t)|, t t чем и воспользуемся в последующем изложении, оговаривая особо случаи, когда это не так. 1.2.3. Пространства L матричных функций Для функций /(г) действительного аргумента векторных (f(t)eC1) или матричных (f (г) G CZx*) комплекснозначных вводят понятия про- странства L, аналогичные пространствам скалярных функций. Здесь С1 - пространство векторных функций f (t), размерности I, компонентами каждой из которых являются скалярные комплекснознач- ные функции действительного аргумента: f(г) = (0]Т ,Л:R->С, i=й (<х1) в скобках под символом f (?) указана размерность функции в представле- нии ее как матрицы (число строкхчисло столбцов); знак «Т» - символ операции транспонирования; С,х* - пространство (/хк) матричных функций f (?), элементами каждой из которых является комплекснознач- ные функции действительного аргумента: f(0 = {/„(О}, i==П; 4: R -> с. (<xt) Например, пространство Цхк (1.Ю) с нормой в нем (1.11) Здесь f(t) - функция, эрмитово сопряженная функции f(t), что озна- чает следующее: f (?) = [f* (?)]т. Использование не обычно, а эрмитово сопряженной функции целесо- образно по той причине, что вследствие операции транспортирования диа- гональные элементы подынтегральной матрицы (обозначим ее f(?)f(?) = A(?) = {a,g(?)} . <7 = й. н=й) (tx/)(/xt) (txt) равны
18__________________________________________-теория. Часть! «„(') = 14(04(0 = El 4(012 (1 12ч - сумме квадратов модулей всех компонент ?-го столбца матрицы f(?) д так как символ tr(A(r)] означает след квадратной матрицы, равный сумме ее диагональных элементов (одна из возможных норм ЦАСсЦ, матрицы А [18, 37}), к ||A(O||1=tr[A(O] = E^?(O, (1.13) ?=1 то с учетом (1.12) он равен сумме квадратов модулей всех элементов мат- ричной функции f(r), в силу чего выражение нормы матрицы А (1.13) связано с понятием нормы (правда, не с , а с другой из возможных норм матрицы) и для f (г), рассматриваемой только как матрица (в этом случае обозначим ее fM), - это квадрат евклидовой нормы матрицы : |4 ||f • Но ведь f(г) - матричная функция, т.е. она обладает одновре- менно свойствами не только матрицы, но и функции (в этом случае обо- значим ее Гф), поэтому квадрат евклидовой нормы матрицы fM есть функция времени. Обозначим это так: ||fM ||2 (г). Чтобы выражение цаюц,=trp(of(o]=|4j2(o • (i.i4) могло играть роль нормы f (?) еще и как функции /ф , над ним дополни- тельно нужно выполнить операцию, аналогичную (1.5) (с учетом (1.4)), что и приводит в результате к формуле (1.11). 1.2.4. Пространство Ок Пространство О* =:|f:R->C'x*/suptr[f(Of(O]<°°| (1-15) с нормой ||f(<- =:supJix^J(r^ = Sup3[f(0]. (и6> где ХщахЙОЦО - максимальное собственное число квадратной (fcxfc) матрицы f(!)f(r) при каждом фиксированном t. Из корней Aq (?)Л2(г), Х3(?)..4 (г) полинома к -го порядка det[XI-f(t)f(r)]
Глава 1. Математические пространства 19 при каждом фиксированном t находят наибольший из них. Совокупность этих наибольших корней для всех t и есть искомое A.maxf(t)f (г). Выражение называется максимальным сингулярным значением матрицы f(t). Название это является следствием того, что o[f (t)] для каждого фиксированного t таково, что если рассматривать задаваемый матрицей f(t) оператор f(t)u(T) = y(z), то (см. [37]) f(t)n*(T) = ои*(т), т.е. 6[f(t)] играет роль максимального обобщенного собственного значения матрицы f (г), у кото- рого существует еще и другое название - максимальное сингулярное зна- чение этой матрицы. Вид нормы (1.16) отличается от ожидаемого согласно принципу, по ко- торому назначалась норма в L“. Она должна бы иметь вид ||f(t)||^ =sup^tr[f(t)f(t)]. (1.18) Причина отличия может быть объяснена следующими обстоятельства- ми. После вычисления A.l(t),X2(r),А.3(Г),...,ХЛ(Г) матрицу A(t) при фикси- рованном г можно представить в виде диагональной матрицы A(t) = diag [\ (г), X2(t), ^(t),..., Xt(t)]. Еще одной из возможных норм матрицы является ||А(0||2 = шах|А.Д0| = | W (Of (r)| = a2[f(O] (1-19) (см. (1.17)). Известно [8, стр. 22], что все матричные нормы в С,х* эквивалентны в том смысле, что если некоторая последовательность в См сходится по одной из норм, то она сходится и по другой. Обозначим это |A|j ~|А||2, в силу чего, с учетом (1.14) и (1.19), tr^f(r)f(O]~S2[f(t)], откуда >/tr[f(t)f(t)]~S[f(r)] , но тогда sup ^tr[f(t)f(r)]~supS[f(O], следовательно, из (1.16), (1.18) получим ||f(r)|| =supu[f(r)]~||f(OF_ t hxi Пространства L могут быть сформированы и из функций f: К —»R, но такие пространства здесь не рассматриваются.
_____________________________________________Я°° -теория. Часть ! 1.2.5. Пространства L функций комплексного аргумента с р -интегрируемым по мнимой оси модулем Именно такие пространства в основном используются в -теории, и предыдущие разделы нужны лишь для того, чтобы иметь возможность ло- гически стройно изложить свойства этих пространств читателю, недоста- точно свободно владеющему обсуждаемым здесь материалом. Указанные в заглавии пространства могут быть любого вида из рассмотренных выше, поэтому для их обозначения используются те же символы. Однако опреде- ления данных пространств могут несколько отличаться в силу специфики новой независимой переменной. Так, например, для матричных функций F(s) = (s)}. i = 1, /; Я ~ 1, к пространство ( « р/2 Lptxk =: | F: С CZx* / J tr £f~ (jto)F(-»] dto < ~ , ре [!,<») с нормой Здесь ±J{F-(»F(-»f/2d(o 1/р F'(s)=:[f’(-/)]T (1.20) (1.21) (1.22) (обратим внимание на то, что операция эрмитового сопряжения, исполь- зуемая ранее (например в (1.11)), обозначалась волной над символом функции, а не справа вверху от него, как здесь). Если F(s) - такая матричная функция, что М- (з) "Ч "ч N>4^ = Sv’; (i-23) niq(S) v=0 v=0 т.е. WiQ(j),Wil((j)eR[j] и Fj9(s)eR(s) (см. параграф 1.1.1), то простран- ство LPM обозначается . Для функций этого пространства F’(s) = FT(-s). (1.24) Утверждение 1.1. Использование именно операций (1.22), (1.24) при- водит к тому, что trF'(jco)F(j(o) является функцией квадратов модулей элементов матрицы F(s) только при s = j'w (на мнимой оси). Убедимся в справедливости этого утверждения на примере. Пример 1.2. 1. Пусть функция F^s) имеет три полюса в точках s, равных Ji.Sj.Sj, и не имеет нулей, причем s, =-с, - =-с2 + ЯЛ = сз (Рис- 1.2°)> т е- представляется следующим выражением:
21 Глава 1. Математические пространства ________________1_________________ = (s + с, + ;0)|)(s + сг - y'WjXs -с3) _______________________1 ____________________ (с + JO) + C| + jai|)(c+ ;Ш + с2 - )ш2)(с + )(й-с3) F ______________________________1__________________________ ((с + q ) + j (ш+ш,)) ((с + с2 ) + ) (ш - w2 )) ((с - с3 ) + jco) 2. Запишем выражение для функции F(-s) . Из (1.25) имеем (-s + q + до, )(-s + с2 - /Oh )(-* - с3) ______________________1_______________________ (-с - Jto+q + )Ш| )(-с - JW + сг - JWj )(~С - - <?3) ’ F(-s} ____________________________-______:--------------------• ((-с + q) - j (ш - <0, )Х(-с + сг) - j (ш + о>2 ))((-с - с3) - )<0) Полюсы функции Г(-з) найдем, приравняв нулю знаменатель (1.27) 5|- = С| + = с2 - JO>2’S3- = ~с3 (Рис- 1-3а)- (1.25) (1.26) (1.27) (1.28) Рис. 1.2. Иллюстрации к пункту 1 примера 1.2 Рис. 1.3. Иллюстрации к пункту 2 примера 1.2
22 Я “ -теория. Часть I 3. Теперь рассмотрим F(s’). Из (1.25) имеем F(s’) = —;---------------------- (s -s,)(s -s2)(s ~s)) __________________________1______________________ ~ (с - Jtu+с, + jti)| )(с - >+ с2 - у'Шг )(с - - с3) 11,29) __________________________1___________________________ “ ((с+с,) - J (о> - Ш| ))((с + с2) - J (ш+0)2 ))((с - с3) - ja>) ‘ Полюсы функции F(s’) : s(. = s(*; s2. - sj; = Sj (рис. 1.4). Л j® A s,. □ s2. Рис. 1.4. Иллюстрации к пункту 3 примера 1.2 4. Рассмотрим F^-s*) • Из (1.27) получим: F(-/) = —;-----------------2-----------------;-= (-S +C|+J W|)(-S +c2-j 0>2)(-5 -C3) _____________________ 1_________________________. (-C+yO)+C| + jO)|)(-C + jti>+c2 - JO>2)(-C + j(O-C3)' F(-s’} =--------------------------!--------------------------- ((-c + c,) + у(ш+Ш, ))((-c + c2)+j (ш - 0)2 ))((-c - c3) + JO)) Полюсы функции F(-s’) (из (1.30)): -s,‘ = -c, - Jo),; s’ = c, + JO#,; st = ct - = s,,_; -s2 =-c2 +jm2; fi=c2-JU>2'’ s2 =c2+ Л>2 =s2._; -S3 = c3’ s3 ~ -c3" sj = -c3 “ S3'-‘ Полюсы функции изображены на рис. 1.5. 5. И, наконец, запишем выражение для функции F’(-s’). Из (1.31) имеем f’(-s’)=—--------------------------------5------------------------------ ((-С + С|) - j (О) + О), ))((-с + С2-) - j (о) - 0>2 ))((-С - С'з) - » ____________________ 1_____________________________________ ((-с - » + (С| - >1 ))((-с - »+(с2 + ja>2 ))((-< - /0)) - Cj )' откуда полюсы функции F’(-t ): S|._. =С|-у'о^ = S,.-; s2._. = с2 + Ja>2 = Sr.; s3._. =-с3 = Sj... (1.30) (1.31) (1.32)
23 Глава 1. Математические пространства с Рис. 1.5. Иллюстрации к пункту 4 примера 1.2 Эти полюсы совпали с полюсами функции F(—j ) (см. рис. 1.5), таким образом, опера- ция комплексного сопряжения функции не меняет ее корней. Из выражений (1.26), (1.28), (1.29), (1.31), (1.32) видно, что ии одно из иих после пере- множения с F(j) не образует |F(j)|z , за исключением (1.32), при таких s, у которых с = 0, т.е. при s = j(o (мнимая ось плоскости J ): ^F"(-s”)F(j)] = |F(7o>)|2, что и доказывает справедливость утверждения 1.1 для операции (1.22). Если F(j)6R(s) (функция (1.25) не принадлежит R(j), так как коэффициенты при s‘, i = 1,3 знаменателя - не вещественные числа), то обязательно s2 = q , т.е. Rcj2 = Re ; Im-Sj =-ImS| (см. рис. 1.26, 1.36), и тогда выражения (1.26), (1.28) принимают вид соответ- ственно F (j) -________________________________________________ ((с + С|) + 7(<о+Ы|))((с + с1) + 7(сп-<о1))((с-с3)+»’ F(-s) ---------------------------!------------------------- ((-С + q ) - j (И - Ш, ))((-С + С|) - j (со + ш, ))((-с - с,) - »’ откуда следует, что 1 [F(i)F(-S)]t^=|F(7to)|2 . Это доказывает справедливость в этом случае утверждения 1.1 для преобразования (1.24). 6. Операция вместо F~ (j) приводит к справедливости утверждения 1.1 на всей плоскости £. Интеграл в (1.20) включает конечное число слагаемых: “Г* 1 т/2 / 1 к I 09 t X J 1л (1-33) и для выполнения последнего условия во внешней фигурной скобке из (1.20) нужно, чтобы все эти слагаемые (интегральные) были ограничены, что, в свою очередь, требует строгой ограниченности модуля функций Fi?(jw). Действительно, интеграл, входящий в (1.33), легко вычисляется, если его удается выразить через интеграл по замкнутому контуру (в этом
___________________________________________________ Я” -теория. Часть т случае он равен сумме вычетов подынтегрального выражения в его полю- сах, расположенных внутри контура, и тогда интеграл ограничен), напри- мер, так: J [орю= ф [о]Л, (1.34) у- 11- ИЛИ так: J [o]daj= ф [o]ds (1.35) —со у+ Л+ (рис. 1.6, где у_ - контур, состоящий из мнимой оси и дуги R_ бесконеч- но большого радиуса р, охватывающей левую полуплоскость плоскости j; у+ - контур, состоящий из мнимой оси и дуги R+ бесконечно большо- го радиуса р, охватывающей правую полуплоскость плоскости j ), при этом интегралы по дугам бесконечно большого радиуса должны быть рав- ны нулю. Последнее, в частности, имеет место, если подынтегральное вы- ражение представляет собой дробно-рациональную функцию, степень числителя которой, по крайней мере, на две единицы меньше степени зна- менателя [20, с. 341], для чего степень полинома числителя miq функций F;?(j) должна быть, по крайней мере, на единицу ниже степени полинома знаменателя п^,тл. Fiq(s) должна представлять собой строго правильное дробно-рациональное выражение: miq < niq (не строгая ограниченность имеет место уже при miq = niq). Кроме того, контуры у+, у_ не должны со- держать на себе особенностей подынтегрального выражения. Таким обра- зом, справедливо следующее утверждение. Рис. 1.6. Контуры интегрирования на плоскости S
Глава 1. Математические пространства 25 Утверждение 1.2. Пространство RL£xi состоит из матричных функций комплексной переменной, элементы которых - строго правильные дробно- рациональные выражения, не содержащие особенностей на мнимой оси. Так как ^(s)eR(s), особенностями ее являются полюсы, т.е. такие значения s = ц = l,niq , что = 0 (см. (1.23)): М ReXi(3ti * 0, i = 1J, q = I,к, ц = 1,п/9 с нормой (см. (1.22)) lF<s>u ’ р/2 1/р Пространство KL7xt == <F:C —>С,х* IFiqе R(j),suptr Ft(-»F(» <« I й) с нормой ||F(s)|| =:sup>/XmaxFT(-jw)F(» . Мх* w (1.36) (1.37) (1.38) (1.39) Для удовлетворения последнего условия из фигурной скобки в (1.38) необходима ограниченность функций Fiq(j<o) при всех значениях пере- менной, для чего должно быть справедливо следующее утверждение. Утверждение 1.3. Функции, принадлежащие пространству RL7x*> должны быть правильными дробно-рациональными выражениями (miq < л((?, что обеспечит их конечность при о) = °°), не содержащими по- люсов на мнимой оси (что обеспечит их конечность при всех остальных значениях со). Из утверждений 1.2, 1.3 видно, что RL^ есть подпространство про- странства (RL^ с RL7x* ). Следует отметить удобство математического использования про- странств при р * оо в сравнении с пространствами р = °°, состоящее в том, что функционал, описывающий норму в первых, является гладким, чего нельзя сказать о вторых. В свою очередь среди пространств при р * «> в связи с известным равенством Парсеваля [9] (Планшереля [11]): -ОС ОС ~ J <(7со)^(»г/(о= f /*(0А,ЮЛ.
26 н°° -теория- Часть т где = К-»С (£ - символ операции преоб- разования Лапласа), выявляется дополнительное удобство пространств Z?, так как норма в них равна норме в соответствующих пространствах I2. в силу этого появляется возможность вычислять норму оригинала по его изображению, и наоборот. 1.2.6. Пространства Харди Это пространства функций комплексной переменной F(s), аналитиче- ских в правой открытой полуплоскости плоскости s. Они обозначаются символом Н и могут быть любого из рассмотренных пространств L вида. Рассмотрим примеры. 1. Пространство RZZ/^ : R//& <г:С-»с'^//#%)6ад, (i=u,9=i7), Ftq (j) - аналитичны в открытой правой полуплоскости плоскости s, sup 77- j" ГtrFT(c - » F(c + /2 c>o 2я _> J do)<°o •, ре [1,°°) (1-40) с нормой =:s“P •** ГчЛ --? 77- f ftrFT(c - jto)F(c + j(0)"|₽/2 dm c>o 2я<Л J 1/₽ (1-41) Поскольку Fiq(s)e R(s), аналитичность в правой открытой полуплос- кости означает отсутствие там (при Re s > 0) полюсов этих функций. В [29] доказана теорема о том, что если F(s) е , то для почти всех ю limF(c + jO)) = F(j<o) с-+0 существует и е RZ^, причем =:suP С>0 1 — J [trFT(c - »F(c + »]₽/2 dm i/p 7^ J [trFT(-jo))F(jo))y/2 i/P dm =h>k (cm. (1.37)). Таким образом (см. (1.36)), пространство RZZ£* является подпростран- ством пространства RZ^, выделенным в нем по дополнительному при- знаку: аналитичность функций в правой открытой полуплоскости. Следо- вательно, справедливо следующее утверждение.
Глава 1._ Математические пространства______ 21 Утверждение 1.4. Пространство есть пространство (Ixk) мат- риц, элементами которых являются дробно-рациональные строго правиль- ные функции, не содержащие иолюсов в правой полуплоскости и на мни- мой оси: Wxi = {F Fe I ReX^ < 0, v = (1.42) 2. Пространство _• КЯ^=:{Е:С-»С<х*/^)еЩ5), ReX^cO, i = U, q «1,1, j = l,ni4, sup sup trFT (c - j©)F(c+jco) < «J, c>0 <0 с нормой =:supsupA/xmaxFT(c-jo»F(c+». C>0 <0 Поскольку теорема из [29] справедлива для пространств Харди любого типа, RH^ = {F:FeRI^/ReX^<O,v=i^}J (U” И, таким образом, справедливо следующее утверждение. Утверждение 1.5. Пространство есть пространство (1x1) мат- риц, элементами которых являются дробно-рациональные правильные функции, не содержащие полюсов в правой полуплоскости и на мнимой оси. Из утверждений 1.4,1.5 следует: 1.2.7. Пространства, наиболее часто используемые в Н°° -теории Итак, из материала параграфов 1.2.5 и 1.2.6 следует, что принадлеж- ность к пространству, требующая по определению от функций наличия некоторых свойств, имеет следствием тот факт, что эти функции обладают также свойствами, часто используемыми и в теории управления (см. ут- верждения 1.2-1.5). А именно: • RL2 - пространство строго правильных дробно-рациональных функций комплексной переменной, не содержащих особенностей на мнимой оси; • RL“ - пространство правильных дробно-рациональных функций той же переменной, не содержащих особенностей на мнимой оси. В этом смысле RL“ D RL2 ; • КЯ2 - пространство строго правильных дробно-рациональных функ- ций, не содержащих особенностей в правой полуплоскости и на мни- мой оси;
28 Н°° -теория. Часть I • КЯ“ - пространство правильных дробно-рациональных функций, не содержащих особенностей в правой полуплоскости и на мнимой оси, таким образом, о КЯ2. Часто результаты -теории бывает достаточно интерпретировать с позиции только этих свойств функций. В частности, синтез, проведенный в рамках -пространства, гарантирует устойчивость полученного в его результате устройства, что, собственно, и привлекло специалистов- управленцев к ЛГ-теории. Замечание 1.2. К сожалению, из отмеченных пространств исключают- ся функции с полюсами на мнимой оси, которые имеют отношение ко многим часто встречающимся СУ - астатическим, с консервативными звеньями (системы с двигателями, нежесткими объектами, объектами, со- держащими не полностью заполненные жидкостью полости, и т.п.). Одна- ко указанные ограничения с помощью вполне реальных допущений могут быть сняты (см., например, замечание 3.1). 1.2.8. Сепарация функций из н Если функция Fiq(s) - элемент матрицы размера (Ixk) F(j)e RLf^, то ее всегда можно разложить на сумму элементарных слагаемых по по- люсам и затем объединить члены, содержащие полюсы в левой полуплос- кости, в одну группу (Fiq(s)), содержащие полюсы в правой полуплоско- сти плоскости 5 - в другую (Fiq (s)), т.е. всегда можно выполнить так на- зываемую сепарацию функции Fjq(s): Пространство матриц F"(j) размера (/xfc), образованных из функций Fiq(s), обозначим RF", а матриц F+(s), образованных из функций F* (з) - RF*. Аналогичные пространства функций из назовем RF’, RF*. Из определений (1.42), (1.43) следует, что и тогда можно записать выражение r^=r#&+rf;, (1.44) которое нужно понимать согласно следующему утверждению.
Глава 1. Математические пространства 29 Утверждение 1.6. Выражение (1.44) следует понимать в том смысле, что каждая F(s) из представима в виде F(s) = F-(S) + F+(s), где F" (s) 6 RHf*, F+ (s) 6 RFp+. Аналогичное выражение справедливо и для ' R^=RH^+RF^. (1.45) Пространства Lp и Нр для всех р (в том числе и для р = <») являются линейными, нормированными, полными, т.е. банаховыми, а при р * о» - гильбертовыми, так как в них можно в качестве скалярного произведения (F, G) использовать интеграл (F(s),G(s)) = ^-°f trF'(»G(»d(O, (1.46) 2 it F(s),G(s)g ££,* или F(s),G(s)e Н^,рФ<». Рассмотрим выражение J Fjf (-j(0‘)f7(j(0)d(0. (1.47) 2,11 До Поскольку операции (1.22), (1.24) переносят каждый нуль и полюс функ- ции через мнимую ось (см. рис. 1.2, 1.3,' 1.5), функция Fy*(-j(o*)GRFp, отчего подынтегральное выражение в (1.46) содержит полюсы только в ле- вой полуплоскости. Из (1.34), (1.35), с учётом того что подынтегральное вы- ражение в силу своей принадлежности Н р аналитично в правой полуплос- кости, следует J [ =ф [•]*&, Y+ и, ввиду того что подынтегральное выражение полюсов в правой полу- плоскости не имеет, интеграл (1.47) равен нулю. Вследствие чего 1 °° — f trF+~ (j(o)F~ (j(o)d(D = (F+, F') = 0. 2n 1 —Q© Но тогда F+(j<0) и F~(j(O) являются (по определению [11]) взаимно-орто- гональными функциями, а подпространство RFp - ортогональным до- полнением (RF"1) подпространства RF~ rf;=rf;-l=rhi^, и (см. [ 11, с. 151]) выражение (1.44) переходит в
30________________________________________Я°° -теория. Часть т Rzfx* = кя^’ фкг;=© R//&, где символом © обозначена прямая сумма взаимно-ортогональных под. пространств, смысл которой раскрывает утверждение 1.6. Переход типа (1.44) -4 (1.48) для (1.45) несправедлив из-за того, что в RZJ^ не существует понятия скалярного произведения. 1.2.9. Пространства SnU В [46] используются пространства SnU. Рассмотрим их. Пространство S = {F :С -»C/F(s)e R(s),n > m,ReXv <0}, где = ЯМ 6 RM* N(s) т.е. ^М = Ем',;ям = £оу? ; v=0 v=0 Я(Ю = 0, v = pi, т.е. Xv - полюсы F(s); Af(Yg) = O, g = l,w, т.е. - нули/•'(у). Таким образом, пространство 5 - пространство дробно-рациональных правильных функций комплексной переменной, аналитических в правой открытой полуплоскости плоскости 5: 5 = Й/Г. Пространство SM & {F: С ->CM/F(s)6 R(s), ni9>miq, i = U, 9 = Re^<0, v = l^>RHzt. Пространство юнитов U: U = |и: и е S/и-1 е S j, поэтому U = {и: С -»С/и(з)е R(s), и = т, ReXv < 0, Re< 0}, таким образом, U с S . 1.2.10. Примеры соответствия функций и пространств Рассмотрим ряд функций и их принадлежность обсуждавшимся в главе пространствам:
Глава 1. Математические пространства 31 F(f) = ^—RH~, S,...,eU, RHi,...; s + 2 F{S} = Ь + 2)(5 + 3)е t/.RHi; F(S) = 2±Je Ri^.RH s [/.e Rwi....; s + 2 F(s) = R»B,RHw,l/,...; s — 2 p F(,)=(T^^e^₽’I^’-"’<RHp’RH-’RH₽-u.......... 1.3. Некоторые специфические приёмы, используемые В Н°° -ТЕОРИИ. О ПРЕДСТАВЛЕНИИ СИСТЕМ В Н°° -ТЕОРИИ 1.3.1. Описание «вход-выход» В описании «вход-выход» объектов регулирования с матричной пере- даточной функцией (МПФ) G(s)e®L“ линейной многомерной системы автоматического регулирования (ЛМСАР) (рнс. 1.7) связь J(s) (преобразо- вание Лапласа входного векторного сигнала i(t) (input - вход)) и O(s) ((Z+m£<l) (преобразование Лапласа выходного векторного сигнала о (г) (output - ((9+r]xl) выход)) представляется матричным выражением O(s) = G(s) * J(x) , (1.49) ([?+r>i) (k+/-Mi+ml) (['+«)*’) использующим обычные правила умножения матриц («строка на стол- бец»). Рис. 1.7. ЛМСАР
32 Н°° -теория. Часть I На рис. 1.8 (без штрихпунктира), иллюстрирующем согласованность к этой операции матриц её компонент, размерность последних условно представлена геометрически длинами сторон прямоугольников, изобра- жающих на рис. 1.8 матрицы. w и Y(j) (rxl) O(J) ([?+r]xl) Z(j) (9X1) ( я Рис. 1.8. Блочная структура МПФ kW(j) (/Xl) ► J(j) ((/+m]xl) Пусть в векторах 1(1) и о(1) выделяются части, например, 'i'(r)sw(0 о’(0 = 2(0 1(0 = о(0 = (1.50) i'(O = u(t) о*(0 s у(0 Здесь w(l) - вектор возмущающих воздействии; u(i) - вектор управ- Ох!) (mxl) ляющих воздействий; z(r) - часть вектора выхода, используемая для кон- («х1) троля качества ЛМСАР (одной из компонент этого вектора может быть, например, ошибка регулирования); у (г) - часть вектора выхода, исполь- (ГХ1) зуемая для улучшения качества работы ЛМСАР (часть, по которой замы- кается через регулятор обратная связь). Если теперь протранспонировать i(i) и поместить его над матрицей G(s) (штрихпунктир иа рис. 1.8), то последняя разобьётся на блоки (пунк- тир на рис. 1.8), каждый из которых характеризует явную связь между час- тями векторов, лежащими против данного блока, описываемую тем же, что и представленный формулой (1.49), типом матричного выражения, напри- мер Zw(y) = G*(s)W(y), где Zw(r) - образ реакции ЛМСАР по каналу z(t) только на сигнал w(l).
Ijaea ( ГДе Z, (ЧЧ » , р ’ " °6Раз Вея„ = G“ (-s)U(s), стн Mr ЦИ’ П0 этому ЛМСАР по «««any г(Г) только на сигнал МУ СТН МСА₽ есть У КайадУ «а весь вход^й JraaJ1 i(0 в силу линейно- вди в ве^орЧо^в^^+гп(4)=G:(i)W(s)+Gu(s>l](s), и т.д., _U(s)_ Г TWW' Z^a[G?(S):G«(S)] ..... нто отвечает обычным» м правилам умножения матриц. 1.3.2. Опи ц с®иие в пространстве состояний ниями Панстве состояний соотношение (1.49) представляется выраже *(0= A x(t) + в КО ; (п*1) (ихл) (ИХ1) (nx(l+m])®+m]xl) (1.51) о(0 = С x(t) + d КО • (t?+r)Kl) ([?+r]xn) (их!) ([<J+rMI+m])ffl+m>‘l) Этот факт принято обозначать G(J) =: [А, В, С, D], О’52) имея в виду, что G(s) = C(sI-A)-1B + D. О-53) В Н°° -теории управления очень распространена другая форма пред- ставления (1.51), к которой приходим, введя обобщённый выходной о0(0 и обобщённый входной io(O векторы Тогда (1.51) может быть записано в виде выражения, аналогичного по структуре (1.49), но во временной области: o0(t) = G, х i0(t) , (1.54) ([л+9+г><1) ([n+ij+rMn+I+wl) ([л+/+тЩ) где G, - блочная матрица, составленная из матриц ABCD -реализации (в пространстве состояния) системы (1.49) (см. рис. 1.9, на котором иллюст- рируется согласованность к операции (1.54) её членов). Таким,, обпячпм
34_________________________________________________//“-теория. Часть ! матрица G, представляет в пространстве состояния матрицу G(s) иначе чем [А, В, С, D], и обозначают этот факт так: G(j)=:G,= А С В D (1.55) Верхние два блока матрицы G,, явно связывая скорость х с х и 1, об- разуют соотношение, описывающее неявную зависимость самих этих ко- ординат - зависимость в виде дифференциального уравнения. Этим они принципиально отличаются от остальных блоков матрицы G, и от блоков матрицы G(s), которые образуют выражения, описывающие явную связь координат. Напоминанием отмеченной особенности таких блоков является то, что последние отделены в матрице G, сплошными, а не пунктирными линия- ми. Если вспомнить, что векторы t(f) и о(1) разбиты ещё на части (см. (1.50) и рис. 1.8), то соотношение (1.51) можно представить в виде х(г) = Ах(г) + В] w(t) + В2и(Г); z(r) = C]X(r)+Dnw(0 + D12u(r); • y(r) = C2x(O + D21w(O + D22u(t), (1.56) и в соответствии с правилом (см. рис. 1.8) блоки В, С разбиваются на два, а блок D - на четыре обычных блока, таким образом, А « и к> 1 0 II* Q II с, Оц I d12 1 1 с» IU 1 ^21 { О22 Рис. 1.9. Блочная структура G,
Глава 1. Математические пространства 35 В таком виде (только без разделяющих блоки пунктирных линий) мат- рица G, и используется в -теории. При этом имеется в виду, что G, в указанном виде представляет G(s) в форме рис. 1.8, а именно: g^)_!g?(s)' G?(J) j G?(J) A B, ! B2 G(5) = =• Г — 1 CM U IQ , — i £3 a ;a !Dj2 , (1.57) причем правую матр A ицу следует в, ; в2 п< снимать в смысле А В2 » А В2‘ Q Dlt j С, D12 (1.58) г —< 1 CM U IU 1 о! о м 1 •— —-I —— - о! о В |S 'о > О аз М И- о > О ее в w так как ABCD-реализации любой подсистемы, включающей тройку кон- кретных BCD из В„ i = 1,2 ; Cj_ j = 1,2; Dw, k, I = 1,2, в качестве четвёртой матрицы отвечает всегда одинаковая (одна и та же) матрица А. Таким образом, форма (1.57) представления блоков G(s) блоками А, В, С, D, означает на самом деле форму (1.58), т.е. например, Gy(s) = C2(5l-A)‘1B1+D21 и т.д. 1.4. Формы представления систем 1.4.1. Линейные дробные преобразования (ЛДП) (linear fractional transformation (LFT)) С помощью правил структурных преобразований нетрудно получить выражение, связывающее МПФ замкнутой системы (рис. 1.7) от w(t) к z(t) с МПФ входящих в эту структуру компонент (как это сделано, на- пример, в п. 2.4.1): Ф*(«) = Gh(s)+G12(s) I +K(s)G22(J)1 K(j)G21(s). (qxl) (<?xi) (?xm) (mxm) (mxr) (rxm) J (mxr) (rxi) Выражение, близкое ему, обозначается Ft(G, К) и называется в Н°°- теории нижним ЛДП (НЛДП) (lower LFT (LLFT)): ( Y1 Ft(G, К) = Сц+G12 К I + G22 К G2i- (1.59) (qxl) (qxl) (qxm)(mxr)[ (rxr) (rxm) (mxr)у (rxl) К ЛДП относится ещё и верхнее (ВЛДП) (upper LFT (ULFT)) FU(G, А) = G22 + G21 A / I + GH K\ Gj2 , (1.60) (rxm) (rxm) (rxl) (lxq)\(qxq) (qxl)(lxq)) (qxm) 4*
36 Я°° -Теория. Часть т близкое к Ф“($) для системы (рис. 1.10): Ф“ (5) = G22 + G21 ( I + Л Gu\-* A G12 . (rxm) (rXm) (rx/)\(Zx() (/Xg) (?x/)/ (/x<?)(9xm) Если размерности матриц К, Д таковы, что существуют обратные им то легко показать, что, действительно, преобразование FL(G, К) совпадает с Ф”(«), aFu(G, Д)-с Ф“(5): FJG, К) = Gn+G12K(I + G22K)~'G21 = = gh+g12k(k’1k+g22k)'1g21 = = g11+g12k([k-1+g22]k)’1g21 = = g11+g12kk-1(k-1+g22)'1g21 = = GH +G12(K 1 +G22) ’G21 = = g11+g12(k-4g22)'1k-1kg21 = = G,1 +G12(k[k-‘ +G22])’‘kG21 = = GH + G12 (I + KG22 )-1 KG21 =ф;. Можно и по-другому, например, для Fu: FU(G, A) = G22+G21A(I + G11A)’1G12 = = G22 + G21a(a *Д + Л *AGj]Aj G|2 = = G22+G2iA^A 1 [l + AG|[]AGj2 = = g22 + g21aa 1 [i+aGj i ] aG[2 = = g22+g21(i+ag11)-1 ag12=®;. Рис. 1.10. MCAP, описываемая ВЛДП
Глава 1. Математические пространства 37 Поэтому (см. (1.49)) ЛДП войдут в соотношения, связывающие соот- ветствующие сигналы в ЛМСАР (рис. 1.7, рис. 1.10) линейно, и, таким об- разом, если ЛДП должны будут определяться в результате решения задачи оптимизации, то последняя окажется задачей линейной оптимизации. 1.4.2. Обобщённый объект P(s), соответствующий объекту G(s) Влияние среды и неадекватности соответствующих математических моделей объекту и воздействиям приводит к тому, что реальная работа объекта проходит в условиях неопределённости, проявляющейся через не- определённость внешних воздействий-(что в Н“-теории учтено специфи- кой физического смысла оценок динамических свойств системы (см. главы 3, 5)), и неопределенность объекта, которая учитывается здесь следующим образом. Считается, что представляться она может структурированно (в виде возмущения конкретных параметров (например, постоянных времени, ко- эффициентов передачи) в заданной структуре объекта) и неструктуриро- ванно, например, в виде возмущений всей МПФ (такое название объясня- ется тем, что возмущение, представленное в виде добавки ко всей МПФ, не задает характера возмущений конкретным параметрам исходной струк- туры). Рассматривается три способа задания неструктурированного возмущения. 1. В виде аддитивной линейной возмущающей добавки Gi0(j) = G(j) + A(s), A(j)eRL“. (1.61) Здесь член A(s), описывающий сами возмущения, таков, что 11^(5)11^. = 1. Принадлежность его RL” необходима для того, чтобы эта принадлежность G(s) не была потеряна функцией G^s). Соотноше- нию (1.61) соответствует рис. 1.11. Рис. 1.11. Структурная схема аддитивной неонределенности объекта 2. В виде мультипликативной добавки Gam(j) = [1+A(J)]G(s), A(s)gRL“ (1.62) (см. рис. 1.12).
38 H°° -теория. Часть I i(r) Рис. 1.12. Структурная схема мультипликативной неопределенности объекта 3. В виде аддитивных взаимно простых добавок (см. п. 2.2) G^Q) = [N(y) + 4N(j)]‘* *[M(j) + ДМ(з)], AM(s).AN(j)e R//“ (см. рис. 1.13). Добавки должны принадлежать для того, чтобы это свойство не потеряли компоненты G^n (J) (см. п. 2.2). Рис. 1.13. Неопределенность, заданная через компоненты взаимно-обратной факторизации МПФ объекта Более гибким учет неопределенности можно сделать, если вместо Д(з) использовать Q(j)*A(i), где Q(y)€R£” (для случаев 1,2) - произволь- ная функция, с помощью которой можно учитывать информацию (если она имеется) о степени влияния шума на объект в различных диапазонах частот. Все три рассмотренных способа могут быть представлены математиче- ски единообразно с помощью ВЛДП (см. рис. 1.10), в котором G(s) заменя- ется на Р(з), где P(s) ?21 |^2_ - МПФ обобщенного объекта, имеющая свой вид для каждого способа задания возмущения. А именно:
Глава 1. Математические пространства 39 Г° 11 1 для СД(! - Р(5) = для - P(J) = О ! G' Ы; Для ^tiBn -Р(5) = О 11 N-' j G N’1 |G Убедимся в справедливости этого утверждения на примере (спра- ведливость утверждения для остальных случаев доказана, например, в [12,30]). Действительно, поскольку для имеем Рп=0, Pl2=G, P2J = I, P22 = G , согласно (1.60) Fu (P, A) = G +1 Д(1 - О)’1 G = (I + A)G = GM (1.63) (cm. (1.62)). Условной схеме (рис. 1.14) (которая, как следует из (1.63), в данном случае представляет собой схему (рис. 1.12) с регулятором) отве- чает развернутая схема (рис. 1.15), если G(s) имеет вид (рис. 1.8). Рис. 1.14. МСАР с мультипликативно заданной неопределенностью объекта Передаточная функция Ф*д(^) замкнутой через регулятор системы (см. рис. 1.14 или рис. 1.15), объект которой GiW(j) подвержен неструк- турированным мультипликативным воздействиям, равна Fj/G^.K) (см. (1.59)). Для того чтобы воспользоваться формулой (1.59), нужно рас- полагать блоками i,j = l,2 МПФ которые нетрудно получить из (1.62): G^ = G + AG = Gii G2i G]2 + All G22 _A21 A12 Gn G12 A22JlG21 G22.
40 Н°° -теория. Часть I Отсюда, например, Рис. 1.15. Развернутая структурная схема МСАР (рис. 1.4)
Глава 2. Синтез практически работоспособных линейных САР 41 ГЛАВА 2 СИНТЕЗ ПРАКТИЧЕСКИ РАБОТОСПОСОБНЫХ ЛИНЕЙНЫХ СТАЦИОНАРНЫХ САР 2.1. Свойства передаточных функций структурных элементов ПРАКТИЧЕСКИ РАБОТОСПОСОБНЫХ ЛИНЕЙНЫХ СТАЦИОНАРНЫХ САР Как правило, САР - это совокупность объекта регулирования с переда- точной функцией (ПФ) G(j) и регулятора C(s) в цепи обратной связи (рис. 2.1). Рассмотрим два главных свойства, которыми должны обладать линейные САР. Рис. 2.1. Структурная схема САР 2.1,1. Правильность Первое свойство является следствием того, что синтезируемая система должна состоять из реальных устройств (таких, которые имеют ограничен- ные энергетические возможности). Пусть структурные элементы САР принадлежат к классу SISO-систем (single inputs (один вход) single outputs (один выход)) с сосредоточенными постоянными параметрами, тогда G(s), C(s)e R(s), т.е. з Зак. 108
42 H°° -теория. Часть I (2.1) G(j) = Mcjs) NeM' Cis) = Mcis) Nc(s) - дробно-рациональные выражения, следовательно, MGis), NGis), Mcis), Ncis)eR[s], т.е. Mcis) = 2^bgis‘-, NGis)^agis'-, Mc(j) = ^bcis‘; Ncis) = ^acis‘ - i=0 i=0 i=0 i=o полиномы с вещественными коэффициентами. Передаточные функции систем с ограниченными энергетическими возможностями должны быть строго правильными ng>mg,nc>mc (2.2) (2.3) (2.4) MGis)Ncjs) (допускается правильными: ng>mg,nc>mc) дробно-рациональными выражениями [2]. Тогда и ПФ САР (замкнутой системы) от сигнала у(г) до х(г) ' Ф(5) = 0№) =----—-------, х l+G(s)C(s) как это следует из выражения (2.4), также почти всегда принадлежит к классу К(.у) соответственно строго правильных (правильных) дробно- рациональных выражений. Действительно, Mc{s) Ф(5) =_____^)__________________________________ 1 + ЛМ£)ЛМ£) Ncis)Ncis)+MG(s)Mcis)’ Ncis) Ncis) откуда и следует соотношение размерностей (deg): deg[Afc(s)JVc(s)] = Mg +пс <deg[Ncis)Ncis') + Mcis)Mcis)] = ng +nt почти всегда, если справедливо (2.2), и deg \мс is)Nc ($)] £ deg [2VC (s)Nc is) + Мс is)Mc (*)] почти всегда, если справедливо (2.3). Очевиден критерий проверки правильности <Pis) - ограниченность [Ф($)]1=сю, т.е. отсутствие полюса функции Ф($) в бесконечности.. Поэто- му условие [8] l + G(oo)C(«>) *0 (2.5) и является условием правильности Ф($). Выражение «почти всегда» употреблено здесь в связи с тем, что воз- можны такие случаи, когда G(j) и Cis) ~ правильные, a <Pis) - непра- вильное дробно-рациональное выражение. Пример такой системы приве-
Глава 2. Синтез практически работоспособных линейных САР 43 ден в [8]. Пусть G(j) = ——; C(s) = 1, тогда 1 + G(°°) С(°°) = 0 и, следо- s + 1 вательно, Ф($) - неправильное дробно-рациональное выражение. Дейст- вительно, -s Ф(Д) = . s+l-=-5. 1—— s + 1 Поскольку случай этот, как и аналогичные ему, можно считать экзоти- ческим, будем считать, что если G(s), C(s) - правильные, то и Ф($) также правильная всегда, проверяя условие (2.5) только при возникновении со- мнения на этот счет. Таким образом, первым из искомых необходимых свойств SISO-систем является следующее свойство. Свойство 2.1. Передаточные функции систем, входящих в структуру исследуемой САР, должны быть строго правильными или правильными дробно-рациональными выражениями (т.е. они должны принадлежать R£“ или (с учетом замечания 1.2)). Критерием достаточности этого необходимого свойства, для того что- бы им обладала и Ф($), можно считать условие (2.5). Если САР, изображенная на рис. 2.1, принадлежит к классу MIMO- систем (multi inputs (много входов) multi outputs (много выходов)), то G(s); C(s). Gi? (s), Cit(s)6R(s); (IjX'i) (»exre) ’ ' = l’lg’ 4g = 4; ’c = 1’/c; 4c = 1>rc’ где lg и lc - размерности выходного сигнала объекта и регулятора соот- ветственно; rg, гс - размерности их входного сигнала. Тогда система (см. рис. 2.1) описывается уравнениями X(s) = G(j)E(j); (2.6а) E(sj = Y(s)-Z(j); (2.66) Z(j) = C(s)X(s) (2.6е) (здесь X(s) = S[x(t)];E(j) = S[e(r)];Z(s) = S[x(t)];Y(s) = 3[y(r)],3 - сим- вол преобразования Лапласа), из которых имеем X(j) = G(s) [ Y(s) - Z(s)] = G(s) [Y(s) - C(s)X( j)]; X(s) + G(s)C(s)X(s) = G(s)Y(s); [I+G(j)C(s)]X(j) = G(j)Y(j); X(s) = [I+G(s)C(s)]-,G(s)Y(s). Отсюда, поскольку з*
44 н°° -теория. Часть I Х(5) = Ф«¥«, (2.7) (/#xl) (/xxr,)(r,xl) следует ®(j) = [I + G(j)C(j)]~* G(j), (2.8) (W (/,ХЛ,) причем Ф(з') - матрица размерности (lgxrg), как это должно быть соглас- но (2.7), что не сразу видно из (2.6). Действительно, ПФ разомкнутой системы W'(s), связывающая сигна- лы г (г) и е(г) (см. рис. 2.1) Z(j) = W'(j)E(j) , (2.9) получается из (2.6а) и (2.бе) Z(j) = C(j)G(j)E(j) и согласно (2.9) равна W'(j) = C(j) G(s) , причем W'(j) - матрица (/cxr,.)(Z,xr,) (/схгх), так как согласно принципу действия число входов регулятора должно быть равно числу замыкаемых выходов объекта (а согласно рис. 2.1 замыкается весь вектор выхода) rc=lg, . (2.10) что и подтверждает как согласованность к умножению матриц C(s) и G(j), так и указанную размерность матрицы W'(j). Размерность матрицы в квадратных скобках выражения (2.8), согласно этому же выражению, должна быть (lg xlg), что не имеет места с учетом размерности ПФ ра- зомкнутой системы. Обратим, однако, внимание на тот факт, что в (2.8) фигурирует не W'(s) (что представляется очень странным специалисту в области SISO-систем), a W(j) = G(j)C(j) - ПФ совсем другой размерно- (гххгх)<,гх'1) сти, которая кажется тем более странной, что получается в результате пе- ремножения, на первый взгляд, Не согласованных к умножению матриц. Но rg = 1С в силу (2.66) и рис. 2.1, таким образом, матрицы G($) и C(s) на самом деле согласованы к умножению и с учетом (2.10) W(j) - квадратная матрица требуемой размерности (lg xlg ). Отмеченное выше для SISO-систем свойство 2.1 должно иметь место и для MIMO-систем, поэтому G(j) должны принадлежать хг или \, a C(s) - RL. х \ или Ш/л Хг \, и условие (2.5) следует заменить на следующее условие [8]: det [l + G (°°)С (»»)] # 0. (2.Н)
Глава 2. Синтез практически работоспособных линейных САР 45 2.1.2. Несократимость Второе свойство является следствием того, что искомая система долж- на быть груба к изменению ее параметров [3]. Это значит, что САР, не- смотря на малое изменение своих параметров, должна оставаться работо- способной. Наличие такого свойства необходимо, так как параметры сис- темы в реальных условиях в силу огромного числа причин всегда отлича- ются от расчетных (например, из-за неточности алгоритмов оценки пара- метров, неточности реализации параметров, явления «старения» элементов и т.п.). Одной из распространенных причин, в результате которой САР стано- вится негрубой, является операция сокращения нулей и полюсов ПФ, по- этому такая операция нежелательна. Сокращение может произойти и при получении описания системы и при синтезе корректирующих устройств, например, при широко известной последовательной коррекции дифферен- цирующим контуром [35] и т.д. Говоря более конкретно, сокращение приводит к негрубости, когда оно касается только правых полюсов или нулей, так как в реальной ситуации (при неточном совпадении сокращаемых корней) вместо ожидаемой взаим- ной компенсации получаются близко расположенные нуль и полюс в правой полуплоскости (правая диполь), соответствующие хоть и медленной, однако расходящейся компоненте в переходной функции й(г) - реакция на входное единичное воздействие при нулевых начальных условиях [32]. Сокращение нежелательно и при точной компенсации правых полюсов, так как оно искажает представление и об истинной размерности, и об ис- тинном характере системы. Ведь свободное движение (движение под влиянием только ненулевых начальных условий) описывается решением однородного дифференциального уравнения. В этом случае правая часть уравнения равна нулю, а следовательно, введенные для компенсации нули отсутствуют, в силу чего казалось бы несуществующие (скомпенсирован- ные) полюса окажутся сохранившимися при описании свободного движе- ния - система в этой ситуации обладает своими исходными, неизвестными теперь (после сокращения) размерностью и характером. И система с каза- лось бы хорошей передаточной функцией неожиданно проявит себя как неустойчивая (явление, изучаемое в теории катастроф). Аналогичный эф- фект может иметь место и при воздействии на систему неучтенных воз- мущений в других точках. Из-за искажения истинной размерности компенсация нежелательна и для левых полюсов, хотя отклонение поведения системы от ожидаемого уже не будет носить характера катастрофы. Правда, факт искажения ис- тинной размерности несущественен для передаточных функций внутри замкнутого контура, так как переходной процесс, начавшийся даже под влиянием начальных условий, по цепи обратной связи попадет на входы систем с этими передаточными функциями и вызовет вынужденное их движение.
46 _____________________________________ Н°° -теория. Часть т Сокращение не приводит к негрубости, если сокращаемые сомножите- ли появились вследствие математических операций над каким-то одним исходным выражением. Тогда сокращаемые сомножители даже при изме- нении параметров будут изменяться синхронно. Например, в результате замыкания системы с ПФ W (j) = k /(Ts -1) получим систему к ФМ- _ Ts-1 _ к(Тз-1) 1 + W(s) t j к (Tj-1)[Tj+ (*-!)]' Ts-1 Сокращения не произойдет, если ПФ, например G(s), не содержит кор- ней в числителе (s = Y/, i = l,mg ), совпадающих с корнями знаменателя (s = kj, i = l,ng ), так как вследствие основной теоремы алгебры ag„(s-k1)-...-(s-kng) полиномы числителя и знаменателя не имеют в этом случае общих сомно- жителей, принадлежащих R[s] (сокращение сомножителей, принадлежа- щих R, с грубостью не связано и в данном случае не имеет значения). По- линомы, не содержащие общих сомножителей, принадлежащих R[j] , на- зываются взаимно простыми. Отношение взаимной простоты обозначим &, и тогда запись MG(s)&NG(s) означает, что полиномы AfG(s) и Ng(s) взаимно просты. Представление ПФ в виде произведения сомножителей G(s) = Mc(s)NG(s), таких, что Mc(s)& Nc(s), называется ее взаимно простой факторизацией (ВПФ). Располагая свойством рассмотренной взаимной простоты, полностью избежать сокращений при синтезе САР не удается. Действительно, в (2.4) входит Na(s}NcW Если даже MG (s) &: NG (j) , Mc ( j) & Nc (s), может произойти сокраще- ние в полиномах MG(s) и 2Vc(s), Мc(s) и Ng(s) , которое гарантиро- ванно исключается только в том случае, если свойством взаимной просто- ты обладают некоторые компоненты G(s) по отношению к C(s), а именно Mc(s)&tfc(s), Mc(s)kNG(s). Такую взаимную простоту компонент ПФ G(s) и C(s) назовем их пере- крестной взаимной простотой. Таким образом, второе необходимое свой- ство практически работоспособной системы можно сформулировать как следующее свойство.
Глава 2. Синтез практически работоспособных линейных САР ------ Свойство 2.2. Передаточные функции, входящие в ПФ системы в виде сомножителей, должны помимо собственной взаимной простоты полино- мов своего числителя и знаменателя обладать и перекрестной их взаимной простотой. 2.2. Взаимно простая факторизация передаточных функций Понятие взаимной простоты пришло из арифметики целых чисел [16] и связано с понятием наибольшего общего делителя (НОД) двух чисел а, Ь, обозначим его d; здесь d,a,be Z . Согласно основной теореме арифметики, любое целое число однознач- но может быть представлено в виде произведения простых чисел, возве- денных в некоторую целую степень. Например, а = 1470 = 1‘ -2‘ -3* -5* -72 -И0 •...; (2.12) Ь = 110 = 11-21-3°-51-7°-И1-131 ... . (2.13) На основе выражений (2.12), (2.13) очевидной становится процедура нахождения d согласно своему смыслу, ясному из названия, он равен произведению простых чисел, если каждое из них возведено в степень, наименьшую из тех, в которой это же число вошло в разложения (2.12), (2.13), В данном случае d = 1* -21 -3° -51 -7° -И0 -... = 10. Помимо рассмотренной, существует еще одна процедура нахождения d - с помощью алгоритма Евклида, основанного на операции деления углом и со- стоящего в следующем. Первый шаг. Делим углом а на Ь: а | b "ftb ft. П Здесь q t - частное, rt - остаток. Ясно, что rt < b. Второй шаг. Делитель первого шага делим на остаток первого шага: I и ft’ Г2<П- г2 Третий шаг. Опять делим делитель теперь второго шага на остаток: [А М ft’ Г3<'Г г3 И так далее, до тех пор, пока не получим нулевой остаток - это послед- ний ((Л+1)-й) шаг. Остаток предпоследнего (/с-го) шага и есть d: d^rk. (2.14) Для случая, рассмотренного в примере, имеем:
48 Н°° -теория. Часть I 1470 1) "Щ- _370 330 H1Q 13 ♦ по 2) _§0_ 30 140 2 . » _40 |30 3) 30 1 ; 10 _30 |10 4) 30 3 0 40 В данном случае последним является четвертый шаг: к +1 = 4, следо- вательно, d = гк = г3 = 10. Предложенная процедура интересна тем, что не связана непосредст- венно ни с простыми числами, ни с какими-либо другими специальными математическими понятиями, а оперирует с рядовыми элементами того же множества, к которому принадлежат исследуемые объекты (а и Ь). Эта процедура обладает еще одним достоинством: исходя из нее, удается по- лучить необходимые и достаточные условия, которым удовлетворяет d. Действительно, из алгоритма Евклида можем получить следующие соот- ношения, записанные в виде таблицы: Номер шага 1 a = q}b + rt 2 Ь = Ч1Г}+гг 3 4=4зг2+гз к-2 4-4 = Чк-1 гк-3 +гк-2 к-1 4-э= 4*-|4-г + 4-1 к 4-2 = 4*4-1 + 4 к+1 4-1 = 4*+ir*+4+р 4+1 =0=»4 -d Прослеживая закономерность в этих формулах снизу вверх, замечаем, что числа а и b играют в ней роль соответственно и н го: а = гх,Ь = гй. (2.15) Из формулы Л-го шага с учетом (2.14) d = r*-2+ '*-!(-?*)• (2Л6) Используя формулу {к -1) -го шага, получим d = rk-2~(rk-3-Qk-]rk-2'}<lk = гк-з<-Як) + гк-2<1 + Як-1ЯкУ> (2Л7) аналогично с учетом формулы (к - 2) шага d = гк-4 0 + Як-}Як )+ гк~3 (~Як ~ Як-2 ~ Як-2Як-\Як ) <2Л8) Видно, что члены в скобках, входящие в (2.16) - (2.18), принадлежат Z . Обозначим их е Z. Процедура, описываемая формулами (2.16) - (2.18), состоит в том, что d выражается через остатки из шагов алгоритма Евклида все более млад- ших номеров. Продолжая эту процедуру до первого шага, с учетом (2.15) получим
Глава 2. Синтез практически работоспособных линейных САР_____49 d^aU+bV - условие наличия НОД у целых чисел а, Ь. Если d = 1, то а и b не имеют общих делителей кроме единицы, следо- вательно, а и b - взаимно простые числа. Таким образом, а и b с Z взаим- но просты тогда и только тогда, когда 31/,V е Z такие, что aU+bV =1. (2.19) Равенство (2.19) называется тождеством Безу. Поскольку алгоритм деления углом существует и для полиномов, для них справедлив алгоритм Евклида, но тогда условие взаимной простоты (2.19) справедливо и для a, be R[s], и называется оно в этом случае тож- деством Диофанта, разумеется, U, V, фигурирующие там, теперь должны принадлежать й[з] [18]. Взаимно простыми считаются полиномы, не содержащие общих со- множителей - полиномов не ниже первого порядка. В [46] показано, что (2.19) является условием взаимной простоты и для a, b е R(s) (тогда и U, V должны принадлежать R(s)). Там же и в [40] приведено обобщение этого условия на матричные функпии Пусть, например, матрица M(j) е ЖЯГ и матрица N(j)e . Они м lN*r называются правыми взаимно простыми (ПВП) (над ), если имеют одинаковое число столбцов и существуют матрицы X(s)eR/QM и Y(«)eRH^# такие, что = X(s)M(s)+Y(s)N(s) = I (см. (2.19)). (2.20) rxr Если выполнена факторизация матричной передаточной функции (МПФ) W(s) W(s) = M(i)N'1(s), (2.21) такая, что М($), N(s) являются ПВП, то (2.21) называется правой взаимно простой факторизацией (ПВПФ). Отметим тот факт, что матрица N(s) должна быть квадратной и неосо- бой, так как в (2.21) используется матрица, ей обратная, таким образом, lN =г. Аналогично две матрицы M(s),N(s) из RH“ являются левыми взаимно простыми (над ), если они имеют одинаковое число строк I, и существуют матрицы X(s), Y(s)e RH" такие, что M(j)N(s) X(s) Y(s)_ = M(s)X(j) + N(s)Y(s) = I, (cm. (2.19)). (2.22) Если удалось представить
-3°- _____________________________________ -теория. Часть Т WO) = NO)‘’MO), (2.23) (/ХГ) (/X/) (/хг) ' где N(j) и M(j) - левые ВП, то выполнена левая ВПФ (ЛВПФ) МПФ. В Я” -теории для матричных функций используется также понятие двойной взаимной простоты (ДВП), а на ее основе понятие двойной вза- имно простой факторизации (ДВПФ). Лемма 2.1 [40]. Всякая W(s) 6 IRL” может быть представлена в виде произведения матриц W(j) = M0)N-1 О) = N-1 (s)M(j) . причем таких, что M(s), N(s),M(s), NO) 6 RH“, и они взаимно просты, т.е. удовлетворяют соотношению fi о' 0 I (2.24) (2.25) (2.26) YO) -МО) tNO)j|^M(j^ YO)J L' X(s) irN(S)^ ^(J) = (стрелки показывают направление обхода символов - в алфавитном по- рядке их следования в процессе конструирования матриц в (2.26)), при этом XO),YO),X(s),fO)e RH". (2.27) Из формулы (2.26) следуют четыре выражения: Y(j)NO)-XO)MO)^ I ; (2.28а) (гхг) Y(s)XO)-XO)YO)= 0 ; (2.286) (/ХГ) -M(s)NO) + N(s)M(s) = 0 ; (2.28в) (гх/) -Jft(j)XO) + N(j)YO)= I , (2.28г) (М) первое и четвертое из которых есть соответственно условия ПВП матриц МО), N(s) (ср. с (2.20)) и ЛВП матриц M(s), NO) (ср. с (2.22)), если знак - - * минус внести в элементы матриц X(s), МО) . Поэтому (2.24) является как ПВПФ (см. (2.21)), так и ЛВПФ (см. (2.23)) МПФ WO), отчего это представление и называется ДВПФ, а (2.26) является условием, что ДВПФ (2.24) МПФ W(s) имеет место. * В этом смысле знаки перед членами ДВПФ могут быть произвольными. Выбор данного конкретного вида формулы (2.26) объясняется тем, что такой вид используется в [24,40].
Глава 2. Синтез практически работоспособных линейных САР 51 2.3. Вычисление компонент ДВПФ МПФ Лемма 2.1 интересна тем, что свидетельствует о принадлежности фигурирующих там восьми матриц, кроме того, по ходу ее доказательства мы получаем алгоритм вычисления этих матриц. Разобраться в причинах, дающих возможность наделить участвующие в ДВПФ матрицы свойством (2.25), (2.27), можно следующим образом. Рассмотрим ABCD-минимальную реализацию в пространстве состоя- ния системы, описываемой в представлении «вход-выход» МПФ W(s)- W(s):= [А, В, С, В], т.е. х(1) = Ax(t)+Bu(t); (2.29а) У(0 = Cx(r)+Du(r), (2.296) где x(t), у (г), u(t) - вектора состояния, выхода и управления соответст- (nxl) (М) ('х') веяно; А, В, С, D — матрицы соответствующих размерностей, такие что W(5) = С(Я - А)-1В+D (см. [23,40]). Наличие одинаковых сомножителей в числителе и знаменателе W“(s) (приводящее к нежелательному сокращению) свидетельствует о некоторой избыточности в передаче информации о данной конкретной связи (между сигналами и(т) и y(t)) этой характеристикой. Однако указанная избыточ- ность может оказаться необходимой для описания связей между какими-тл другими сигналами. В этом случае сокращение привело бы к искажению истинной динамической характеристики, а именно к потере возможности с ее помощью описать верную связь между всеми представляющими инте- рес сигналами. Задача минимальной реализации по своему назначению призвана уст- ранить указанную избыточность с сохранением истинности представления связей между всеми координатами системы. Поэтому использование ми- нимальной реализации W(j) в данном алгоритме позволяет надеяться на то, что в результате предлагаемой процедуры полученные компоненты факторизации операцию сокращения исключают, что и является едиигт- венным гарантом их взаимной простоты (ведь условие (2.26) в рассмотри, ваемой процедуре нигде не используется). Уравнению (2.29) соответствует структурная схема на рис. 2.2. Пред- ставим ее как на рис. 2.3. Выбором F-матрицы обратной связи по состоя- нию можно добиться устойчивости системы Wj<s) (обведенной пунктиром на рис. 2.3), например, с помощью метода модального управлении тогда рис. 2.3 можно рассматривать как иллюстрацию возможности представле- ния неустойчивой системы W(s)e КГ° в ваде устойчивой системы Wf(s) е RH”, охваченной единичной отрицательной обратной связью.
52 Н°° -теория. Часть I Рис. 2.2. Структурная схема системы (2.29) Смысл использования ПВПФ (2.21) можно интерпретировать следую- щим образом (см. рис. 2.3): Y(s) = W(s)U(s) = M(j)[N'‘(j)U(5)], (2.30) где соотношение в квадратных скобках представляет некоторую промежу- точную переменную Х(г), т.е. A(s) = N-1(s)U(.s). Здесь Л(у) = £[k(t)], и поскольку здесь присутствует МПФ, обратная N(s), последняя должна быть квадратной, а следовательно, размерность Х(г) должна совпадать с размерностью u(r). Рис. 2.3. Другое представление системы (2.29) Из рис. 2.3 видно, что в качестве Х(/) можно выбрать 6(0 (так как складывать можно векторы одинаковой размерности, в результате получая вектор той же размерности). Таким образом, динамическую систему (2.30) представим в виде Y(s) = M(j)6(j); (2.31) U(s) = N(s)6(s). (2-32)
Глава 2. Синтез практически работоспособных линейных САР 53 Уравнение (2.31) соответствует системе с МПФ W*(s) (от сигнала 6(f) Д° У(0) ~ системе устойчивой, так как эта МПФ равна Wp(s)6 (см. пунктир на рис. 2.3), таким образом, M(s) = W*(s) = WF(s)eRH“. (2.33) Уравнение (2.32) отвечает системе с МПФ N(s) = W*(s) (от 6(f) до точки, где приложен внешний сигнал u(f)), которая по смыслу равна об- ратной по отношению к системе с МПФ W* (s) (от u(f) до 6(f)), т.е. N(s) = W*(S)==[w$(s)]''. (2.34) Система Wg(s)eRL“ неустойчива (следовательно, дает неограничен- ную реакцию на ограниченное входное воздействие), так как связывает вход u(r) неустойчивой (исходной) системы W(s) с ее сигналом ошибки (см. штрнхпунктир на рис. 2.3). Но тогда W®($), как обратная неустойчи- вой, должна обеспечивать обратный эффект - давать ограниченную реак- цию на неограниченное (тем более на ограниченное) воздействие, т.е. должна быть устойчивой, следовательно (см. (2.34)) W„e(s) = N(s)6R7/“. (2.35) В этой связи (с учетом первого необходимого свойства 2.1) МПФ N(s), N(s) должны быть квадратными, правильными дробно-рациоиальными матрицами, но не строго правильными. Итак, согласно (2.33), (2.35) свойство (2.25), (2.27) компонент ДВПФ для двух из восьми матриц подтверждено (аналогичным образом можно подтвердить это свойство и для остальных матриц). Таким образом, свой- ство (2.33), (2.35) имеет место оттого, что, как мы теперь видим, компо- ненты ДВПФ выбирают в соответствии со следующим принципом. Принцип 2.1. Компоненты ДВПФ выбирают либо а) в виде МПФ ус- тойчивой системы (включающей правые нули исходной системы), либо б) в виде МПФ, обратной МПФ неустойчивой системы с левыми нулями. В соответствии с принципом 2.1 необходимо выполнить две операции: а) помещение правых нулей и не помещение правых полюсов W(r) в M(s), б) помещение правых полюсов и не помещение правых нулей W(s) в N-1 (5) (эти операции необходимы для того, чтобы в результате обраще- ния получилась устойчивая система). В рассматриваемой процедуре фак- торизации выполняется лишь одна операция - выбор стабилизирующей матрицы F, не связанная непосредственно с требуемыми операциями а), б). Оказывается, процедура обеспечивает выполнение двух ожидаемых опе- раций автоматически. Действительно, пусть D = О, С = 1, а матрицы А и В таковы, что
54 Я” -теория. Часть I Tj >S 1 Тогда (см. рис. 2.3), если F = к2, W~D И (,). Ж, W - ж; W—т lt - T2s-\ Mfo-D Mfo-D " (Tj-^T^s + ^-l) T3s + k3 ’ откуда видно, что добиться стабилизации можно, если 7j = ?2 " ^^2^1 > к3 = кхк2 -1 > 0. Пусть к\к2 =1,5; Т{ = 0,5Г2. Свойство, которое должно было появиться в результате выполнения операции а), имеет место. Теперь у-1 ($) = IV" ($) =_5------------+ ^з-------------------_ i + Т3 j + к3 + ktk2TiS - kik2 T3s + k3 T3s + k3 T3s + k3 (T2 - kxk21\ + к{к2Т{)s + (ktk2 -1 - k{k2) T2s -1 - свойство, которое должно было появиться в результате операции б), также имеет место. W# (s) хоть и связана с исходной системой, но не совпала с W(s) в силу того, что первая характеризует связь сигнала в точке а с сигналом в точке 5( W5“(s)), а вторая в условиях примера - а с r(Wra (j)). Согласно рис. 2.3 kjk^-1) IV “(П - + *3 _ klk2@ls~l) ' ^.W-D r2S-i T3s + к3 С учетом этого получим (5) = = MZEzll = W" (S) = W (S), fc2 T2s-1 у что и должно иметь место, как видно из рис. 2.3, - именно по отношению к этим сигналам системы рис. 2.3 в штрихпунктирном и сплошном прямо- угольнике эквивалентны. По отношению же к сигналу О, активно исполь- зуемому в рассматриваемой процедуре, они не эквивалентны.
Глава 2. Синтез практически работоспособных линейных САР 55 Найдем W*(s) . Так как u(t) и 'б(Г) в данном случае играют роль соот- ветственно входа и выхода, уравнение состояния должно иметь вид i(t) = A'x(t) + B'6(t), (2.36) где матрицы А', В' нам пока неизвестны, а уравнение выхода можно запи- сать в соответствии с рис. 2.3: u(t) = Fx(t)+B(t). (2.37) Подставив (2.37) в (2.36), получим х(0 = A'x(r) + B'(u(r)-Fx(r)) = (A'-B'F)x(r)+B'u(r) (2.38) - уравнение состояния для системы с входом u(t). Но оно нам известно - (2.29а), сравнивая его с (2.38), имеем откуда A' = A+BF = Af. (2.40) Таким образом (см. (2.34), (2.36), (2.37)), N(s) = W*(j) := [А', В', F, I] = [Af, В, F, I]. (2.41) Теперь найдем W®(s). Сигнал y(t) формируется из того же вектора со- стояния системы с входом О (Г), что и в предыдущем случае, поэтому уравнение состояния известно (2.36): x(t) = A'x(r)+B'6(t). Стандартный вид уравнения выхода y(r) = C'x(r) + D'B(t). (2.42) Здесь матрицы С', D' пока неизвестны. С учетом (2.37) у (г) = C'x(t) + D'(u(r)-Fx(r)) = (C'-D'F)x(r)+D'u(t). Сравнивая с (2.296), запишем D' = D; C'-D'F = C, откуда С' = С + DF = CF , поэтому с учетом (2.33), (2.36), (2.396), (2.40), (2.42) M(s) = W*(s):=[A',B',Cz,D'] = [AF,B,CF,D]. (2.43) Результат (2.41), (2.43) совпадает с результатом, приведенным в [40]. Используя понятие наблюдающего устройства, а также сопряженной сис- темы [21], на основе тех же подходов можно получить и алгоритм для оп- ределения остальных шести матриц, входящих в (2.26) [40]: N(s) := [Ан, Н, С, I]; M(s) := [Ан, Вн, С, D]; Y(s):=[AF,-H,CF,l]; X(s):=[Ah,-Н, F, 0]; (2.44) Y(s):=[AH,-BH,F, l]; X(s):=[Ah,-H,F,0],
________ ______________________________;_______Я“-теория. Частот где Н = Hj (Нс - матрица обратной связи по состоянию, делающая систе му, сопряженную системе (2.29), устойчивой; Ан = А + НС; Вн = В + HD) а также убедиться, что все эти матрицы обладают свойством (2.25), (2.27) Отметим еще два важных дополнительных свойства компонент ДВПф (2.26). Уравнение (2.28а) свидетельствует о ПВП матриц N(j), M(j) из (2.24) Если рассматривать (2.28а) по отношению к матрицам Y(j), X(j), то не- трудно заметить (сравнив с (2.28г), фиксирующим левую взаимную про- стоту матриц М($), N($)), что Y(s),X(j) - тоже взаимно простые (хотя и левые). Аналогично из сравнения (2.28г) с (2.28а) установим собственную взаимную простоту Х($), Y(j). Перепишем (2.28г) и (2.28а) в такой форме: N(j)Y(j)-M(s)X(j) = I; (2.45а) -X(s)M(s) + Y(j)N(j) = I. (2.456) Теперь непосредственно видно, что (2.45) - условия взаимной просто- ты Y(s) и X(s); Y(j) и Х($), так как Y(s),X(s) в (2.45а) играют такую же роль, какую N(s),M(.y) в выражении (2.28а), являющимся условием взаимной простоты N(s),M(s). Аналогично X(s), Y(j) в (2.456) играют роль M(s), N(j) в (2.28г). Если на основе этой аналогии сконструировать по форме (2.24) матри- цу С($) C(j) = X(s)Y-1(s) = Y-1(s)X(j), (2.46) то можно утверждать, что ДВПФ (2.24), (2.26) обладает первым дополни- тельным свойством. Свойство 2.3. Условие (2.26) существования ДВПФ (2.24) со свойст- вом (2.25), (2.27) является одновременно условием существования и ДВПФ (2.46) с тем же свойством. Отметим очень важное второе дополнительное свойство. Пусть W(s) = G(s), тогда, обозначив M(s) = Mc(j),N(j) = Nc(j), M(j) = Mc(j), N(j) = Nc(s); X(f) = Mc(j), Y(s) = Nc(s), X(s) = Mc(j), Y(s) = Nc(s), из (2.24) и (2.46) получим (аргумент s во всех функциях пока опустим) G = McNg1 = Ng Мс; С = McNc‘ = Nc*Mc. (2-47)
£д»ва 2. Синтез практически работоспособных линейных САР_57 Условие (2.28г) примет вид - MGMC + NCNC = 1. (2.48) Оно записано для фиксации взаимной простоты Nc, MG, но (согласно свойству 2.3) из него следует не только то, что Nc &МС, ио и то, что NC&MC. Поскольку (см. (2.47)) матрицы NG,NG,NC,NC квадратные, умножим справа левую и правую части (2.48) сначала иа NG , а потом на Nc‘ .тогда получим -McMcN^Nc* *N0NcNgSg =NgNg , ИЛИ -MG (McN^Ng1) + Nc’Ng1 = I, (2.49) где Mc = -Mr . He все элементы (2.49) принадлежат ПШ”, но все принадлежат IRL,", поэтому (2.49) можно считать условием взаимной простоты над IRL,”. Сравнивая (2.49) с (2.48), имеем, в частности, NG &MG; n^X1. Второе соотношение воспринимается как абсурдное, так как в него входят одинаковые сомножители NG , но они входят явно, поэтому есть возможность исключить их, тогда получим непротиворечивое, правда три- виальное, соотношение I&McNc1, так как единица и любое дробно-рациональное выражение всегда взаимно простые. Из первого соотношения получаем Nc&Mg. (2.50) Если умножим слева левую и правую части (2.48) сначала на NG и по- том на Ng’ , то получим Из сравнения этого выражения с (2.48), аналогично предыдущему слу- чаю имеем Mc&Ng. . (2.51) Таким образом, замечаем, что ДВПФ (2.24) и (2.46) или, что то же са- мое, (2.47) обладают вторым дополнительным свойством.
58 _______________________________________________-теория. Часть* Свойство 2.4. Некоторые компоненты ДВПФ (2.47) обладают перекре- стной взаимной простотой (2.50), (2.51) (правда, здесь зафиксирован ре- зультат о взаимной перекрестной простоте не всех элементов (2.47), одна- ко в данном случае ограничимся этим результатом). 2.4. Стабилизация объектов в Н°° -теории 2.4.1. Стабилизируемая система В -теории рассматривается система стабилизации М1МО-объекта (см. рис. 2.4), несколько отличающаяся от системы (рис. 2.1). Считается, что входной сигнал объекта состоит из управляющего (век- тор е(г)) и возмущающего (вектор ut(f)). Выходной сигнал также подразде- ляется на измеряемый (и используемый для стабилизации) - вектор у2(г) и не используемый для стабилизации - вектор yi(f). Оставшиеся внешние сигналы: u2(r) - управляющий сигнал системы; u3(f) - шум измерения. Таким образом, МПФ объекта разбивается на блоки известной размер- ности GCs)- G11^ Gi2(J) • |_G21(j) G22(j)J’ где Gn(s) = W“' (j) - ПФ от сигнала Ui(0 к yt(0, G12(j) = W*(j), G21(s.) = W^(j), G22(5) = W‘(5). Из рис. 2.4 YjsGuUi + GjjE; (2.52a) Y2=G21U1+G22E; (2.526) E = U2-C(Y2+U3), (2.52e)
глава 2- Синтез практически работоспособных линейных САР _ -- откуда, подставив (2.52е) в (2.526), получим Y2 - G21U! +G22U2 -G22CY2-G22cu}; (1 + G22C)Y2 = G21U t+G22U2 - G22CD3; Yj = (l + G22C)-1G2lU1 +(l + G22C)-1G22U2-(l+G22CrvG22CU3. № Подставим (2.526) в (2.52e): . E = U2 - CY2 - CU3 = U2 -CG21Ui -CG22E-CU3; E = (1 + CG22)-'U2 -(l+CG22)~lCG21U1 -(1+CG22)"'CU3- («4) Это соотношение используем в (2.52а): Yt =GnUj +Gi2(1+CGj2)-1U2-Gi2(1+CG22)"1CG21U1- (2.55) -G12(1 + CG22)-‘CT3. 4) Введя в рассмотрение вектор входа и вектор выхода системы ф соответственно полученные соотношения можем записать в виде Ф13 Uj Ф23 ^2 Ф33 и3 (2.56) ФН Ф12 ГДе Ф21 Ф22 Ф3! Ф32 %' Ф23 Ф33 - Ф(т) - блочная МПФ системы рис. 2.4, блоки ко- ТоР°й, как это видно из (2.53) - (2.55), равны следующим МПФ: ®n=G11-G12(l + CG22)“1CG21; ®12 = G12(1+CG22)“I; ф13 = -GI2(l+CG22) ’С; Ф21 = (1+СИС)-’С21; ф22 =(1+G22C)-1G22; ф2з =~(1+G22C) ‘G^C; Ф31 =-(l+CG22)~’CG21’; Ф32 =(1+CG22)-1; фзз = ~О+СС22) ’С. (2.57)
60_____________________________________________Н°° -теория. Часть I 2.4.2. Понятие внутренней устойчивости Определение 2.1. Система (см. рис. 2.4) называется внутренне устой- чивой, если устойчивы все ее девять МПФ Ф1} (s); i, j = 1,3 . Таким обра- зом, Ф(.г)бКЯ“. Эта устойчивость требует ограниченной реакции по всем выходам на отраниченное воздействие по любому входу. Такие системы относят к классу BIBO-систем (bounded inputs (ограниченные входы), bounded out- puts (ограниченные выходы)). Определение 2.2. Регулятор C(s) стабилизирует объект G(s), если система (см. рис. 2.4) внутренне устойчива [40]. Из определений следует, что понятие внутренней устойчивости и ста- билизируемое™ объекта регулятором выражаются через понятие устойчи- вости по отношению к воздействиям. Для линейных же стационарных сис- тем устойчивость по отношению к начальным условиям предопределяет устойчивость по отношению к воздействиям [13], но не наоборот. Это на- глядно иллюстрирует пример системы с одинаковыми правыми нулём и полюсом. Действительно, пусть в системе (см. рис. 2.4) 22 (s-2)(s + l) (s-l)(s + 2) тогда s-2 s-1 ф“з = (*-»(*+ 2) (s-2)(s + l) _ (s-2)(s-l) Ъ 1 । s~2 s~l ~ (з~D(s“2)[(s + 2)(s +1) +1]' (s-lXs + 2) (s -2XJ + D Отсюда непосредственно видно, что система по отношению к началь- ным условиям неустойчива (так как свободное движение определяется только полюсами (оно описывается однородным уравнением - левая часть исходного уравнения)), а по отношению к воздействию и3(г) (до выхода Уг(О) устойчива, (так как вынужденное движение зависит и от полюсов, и от нулей (оно описывается неоднородным уравнением), в результате чего произошло сокращение правых полюсов (компенсация правыми нулями)). Странная с инженерных позиций возможность существования ограничен- ных сигналов на некоторых участках неустойчивого контура может быть объяснена в рамках корневых методов исследования систем тем, что неус- тойчивые моды принимают участие в переходных процессах на этих уча- стках с нулевыми коэффициентами [32, 35]. Если система по какому-нибудь воздействию неустойчива (т.е. если даже, возможные сокращения не сделали ее устойчивой), то по отношению к начальным условиям она гарантированно неустойчива. Это подтвержда- ется рассмотрением таких ПФ:
ГлаВа ^.Синтез практически работоспособных линейных САР 61 s-2 (s-l)(s + 2) Фе’ S-2 S-l Il —------------------- (s-l)(s + 2)(s-2Xs+l) 5-1 ($"—2)(S + 1) s-2 s-1 ф* = У1 (s-1)(s-2)[(5+2)(s+1)+1]’ 1 ’ =_____<L-l)(s-l)(s+2) f259) 1 +____—-----------—_______ (s-l)(s-2)[(s + 2)(s+l)+l]' (s-l)(s + 2) (s-2)(s + l) Система по отношению к воздействиям u3'(t) (до e(t)), u^O (до yi(t)) не- устойчива (по отношению к начальным условиям оиа тем более неустой- чива). Итак, если ПФ, связывающие интересующие потребителя входы и вы- ходы, устойчивы, у него создается впечатление, что система способна вы- полнить свою задачу по этим каналам. Но она, как было показано, может содержать неустойчивые по отношению к начальным условиям цепи. Кроме того, последняя ситуация возможна (что также было показано) лишь при сокращении правых полюсов, а оно негрубо, поэтому такая сис- тема может оказаться практически не работоспособной. Отсюда видно, что попытка оценивать работоспособность системы с помощью понятия ус- тойчивости по отношению к воздействию опасна. Однако если все передаточные функции контура, входящего в систему на рис. 2.4, от любого его входа до любого выхода окажутся устойчивы (что и предполагает понятие внутренней устойчивости), то такая устойчи- вость за счет сокращения правых полюсов «почти не может» быть достиг- нута (это хорошо видно из примеров (2.58), (2.59)). «Почти не может» в том смысле, что за исключением случая, когда одинаковые правые корни в числителе и знаменателе имеют передаточные функции и объекта, и регу лятора. В последнем легко убедиться подобно тому, как это сделано в примерах (2.58), (2.59), положив в них G22'(s-1)(s+1)’ (s-2)(s+2) Тогда выражение (2.58), например, примет вид 3 : (5-l)(5-2)(sjlL^,. Е (s-2)(s-l)[(s + 2)(^+l)+1l Правда, случай этот можно считать экзотическим, поэтому справедл ЛеДУющее утверждение. жительствует почтТВе₽Ждение Внутренняя устойчивость контура "«га всегда об его устойтоеот . по отношение к шяшмя уело»™».
—-----------------------------------------------теория. Часты 2.4.3. Условия стабилизации G(j) регулятором C(j) ' '— Рассмотрев выражения (2.57), замечаем, что для устойчивости ф i, j = 1,3, помимо устойчивости всевозможных замкнутых ПФ контура, вхо дящего в систему (рис. 2.4), требуется еще устойчивость ПФ Gu, на основании чего можно сделать следующее утверждение. G12’G21. Утверждение 2.2. При условии Gh(j), G12(j), G216 (*). если регулятор C(j) стабилизирует G22(j) , то он стабилизирует и G(j). Это утверждение очевидно - ведь регулятор. может стабилизировать только те части объекта, которые имеют отношение к связанным с регуля- тором сигналам. Таким образом, регулятор C(s) стабилизирует G(j) (при условии (*) из утверждения 2.2), если система, представленная замкнутым контуром на рис. 2.4, внутренне устойчива, что означает устойчивость всех элементов блочной МПФ (БМПФ) Ф“3'“3 (от (и2(г), u3(r)]T до [у2(0, е(0]т), т.е. Ф“2, Ф“’. Ф“2, Ф“3 € ИЯ". Согласно (2.56) ф“а“з = Уа.« ф“2 Уг Ф“3 Ф“э Уг Ф«“3 Ф22 Ф23 Ф32 Ф33 (2.60) Условия стабилизации G22 регулятором С можно получать в другой форме, если использовать следующую теорему [40]. Теорема 2.1. C(s) стабилизирует G22(s), а следовательно, и G (см. утверждение 2.2), если -Мс мсГ Nc. (2.61) ейЯ~, где G22 = McNq = Ng‘Mc, (2.62) C = McNc‘=Nc‘Mc (2.63) (см. (2.47)) - ДВПФ МПФ G22 объекта и регулятора. Для доказательства теоремы 2.1 потребуется следующая лемма. Лемма 2.2. Элементы блочной МПФ Ф“3’“3 системы, представленной >2*8 замкнутым контуром на рис. 2.4, принадлежат тогда и только тогда, когда четыре МПФ блочной МПФ Ф£3“3 этой системы (от [и2(0, цз(01 Д° [£((), Т|(Г)]т (рис. 2.5)) принадлежат R#“, а значит, Ф^“3 6 .
Глава 2. Синтез практически работоспособных линейных САР I О I Рис. 2.5. GH с регулятором, представленные взаимно простыми факторами От замкнутого контура на рис. 2.4 перейдем к рис. 2.5, если воспользу- емся ДВПФ (2.62), (2.63). Согласно тому, что (2.62) - ДВПФ МПФ G22 , имеет место соотноше- ние (см. (2.26)) ' -ХС]Г Nc Хс _-MG Nc Mc Yg где все восемь матриц в левой части принадлежат RH". Из (2.64) YgNg-XgMg=I. Умножив справа левую и правую части этого соотношения на £(j), имеем lj(j) = YGNGlj(j)-XcMGlj(S). С другой стороны, из рис. 2.5 Mg§ = Y2; Ng$ = E, поэтому ij = YGE-XcY2, но согласно смыслу матриц Ф,у, г, у =1,3 формулы (2.56), $ = У0(ф32и2 +Ф33и3)-Хс(Ф22и2 +Ф23и3) = = (УСФ32 -ХсФ22)и2 +(УСФ33 -ХсФ23)и3. Выражения в двух последних скобках по смыслу этой формулы пред- ставляют соответственно Ф^2, Ф^3: ^=^32-^22, в, - - (2-65> ф^ - Х-Ф33-хоф23. Из (2.65) нетрудно установить, что Ф^2,ф£3е ИЯ", если Ф32,Ф22, Ф33 > Ф23 6 ЙЯ (так как YG, Хс е ). Отсюда же легко заметить, что
64 Я “-теория. Часть I если Ф^.ф^е КЯ“, то и Ф32, Ф22, Ф33, Ф23 6 КЯ”, что доказывает справедливость утверждения леммы для двух МПФ. Из того, что (2.63) - ДВПФ МПФ С, аналогичным предыдущему обра- зом следует YCNC-XCMC=I, откуда H(J) = YcNct|( j) - XcMci|( j), но согласно рис. 2.5 Ncn = Y2 + U3; Mc4 = U2-E, поэтому n = Yc.Y2 + YcU3-XcU2 + XcE = = Yc (Ф22и2 +Ф23и3)+YcU3 -XcU2 +Xc (Ф32и2 +Ф33из) = = (УСФ22 - Xc + ХСФ32)U2 + ( ¥СФ23 + Yc + ХСФ33 ) U3. Здесь выражения в скобках последнего равенства - соответственно ф“2,ф“3, и из этих выражений следует как то, что последние две МПФ принадлежат КЯ“, если Фзг^гг-Фзз’^гзе КЯ°° (таккак YC,XC е ЯЯ"), так и то, что если Ф*2,Ф*3 6 КЯ“, то Ф32, Ф22, Ф33, Ф236 КЯ“, что окончательно доказывает справедливость утверждения леммы 2.2. Теперь можно приступить к доказательству теоремы 2.1. Доказательство. Из рис. 2.5 NC^ = U2-MC4, Ncn=Mc^ + U3, или Nc^ + Mci| = U2; -Mc§ + Ncn = U3 ' Nc Mcpj = ru2’ ~MC Nf q _U3_ Для блочной матрицы, рассматриваемой здесь, имеет место представ- ление (2.66) Nc МС1Г I CjNc О -Мс NCJ [-G22 I JL 0 Nc (2.67) в справедливости которого легко убедиться, выполнив умножение матриц правой части с учетом (2.62), (2.63). Так как существуют N^.N^ (см. (2.62), (2.63)), вторая матрица правой части не сингулярна. Определитель первой матрицы правой части при s = 00 det I -G22 ={l»G.,c} 1 t J$=9O = 1*0,
Глава 2. Синтез практически работоспособных линейных САР 65 если Gu — строго правильная дробно-рациональная матрица, следователь- но, и первая матрица правой части не сингулярна. Но тогда матрица в ле- вой части (2.67) обратима, и нз (2.66) получим 41 Г Nc мст’ги2- _т|] MG Nc J [U3 откуда видно, что матрица в этом уравнении играет роль блочной МПФ ф“2^“э системы (рис. 2.5): Г NG L-Mg (2.68) Согласно лемме 2.2, С стабилизирует Ga, если Ф^“3 е , откуда с учетом (2.131) следует утверждение теоремы 2.1. 2.4.4. Выбор стабилизирующего регулятора С Теперь нам известно свойство (2.61), которым должна обладать систе- ма, изображенная на рис. 2.4, чтобы регулятор С стабилизировал G22 и на его основе можно проводить анализ имеющихся С и G22 на предмет ус- тойчивости образованной ими системы. Следующей задачей является синтез такого регулятора, который совме- стно с G22 6 Ki обеспечивает системе (рис. 2.4) наличие этого свойства ((2.61)). Пусть С = М^1 = ^, (2.69) где MG, NG, NG, Мс - произвольные дробно-рациональные матрицы, а для G22 выполнена ДВПФ (2.62), поэтому имеет место соотношение (2.64). Для стабилизации системы должно выполняться условие (2.61), струк- тура обращаемой матрицы в котором напоминает структуру второй матри- цы левой части условия (2.64) взаимной простоты компонент ДВПФ МПФ G22 (2.62). Включение матрицы, обращаемой в (2.61), в выражение. (2.64) позволило бы привлечь это выражение к решению задачи стабилизации системы Ф^"3 *\ Матрицу, обращаемую в (2.61), можно включить в ’ Этот факт раскрывает огромное конструктивное содержание перехода в лемме 2.2 и теореме 2.1 от БМПФ Ф*3'”3 к БМПФ Ф^*3. Ведь матрица из (2.61) есть (см. (2.68)). В нашем случае = NC Мс L-Mc N’c 6 Зак. 108
66...........................................Н" -теория. Часть I (2.64), если роль XG,YG в этом выражении исполнят соответственно Mg,Ng , в связи с чем и предлагается следующий принцип выбора мат- риц, входящих в (2.69). Принцип 2.2. Матрицам MG,NG,NG,MG придавать такие значения MC,NC,NC,MC , которые принимают XG, YG, YG, XG в (2.64) соответст- венно: Mc = XG, Nc = Yc, Nc = YG, Mc = XG , (2.70) т.е. придавать им значения, удовлетворяющие соотношению (см. (2.64) с учетом (2.70)) I 0 ' о Г 'Nc -MG -Mc]rNG Мс Nc ][МС Nc_ Использование идеи привлечь соотношение (2.64) для решения задачи стабилизации оказалось очень эффективным. Действительно, при выборе матриц (2.69) в соответствии с принципом 2.2, согласно первому дополни- тельному свойству 2.3 ДВПФ (2.62), матрицы MC,NC,NC,MC оказыва- ются компонентами ДВПФ матрицы С (2.63), которые принадлежат RH°°. Но тогда (2.71) ' Nc -Мс] -Мс Nc j а эта матрица, согласно (2.71), играет роль Мс NCJ €RH“, X Мс л-1 следовательно, и j-i eM“. ’Ng Мс _МС NCJ Отметим, кроме того, что, поскольку и ’Ng Мс' _MG Nc _ в силу (2.71) принадлежит , эта матрица должна принадлежать U (см. параграф 1.2.9). Но тогда ее компоненты должны быть правильными (но не строго правильными) дробно-рациональными выражениями, ABCD- реализация которых всегда должна иметь матрицу D*0. Действительно, D#0 свидетельствует о том, что входной сигнал безы- нерционно проходит на выход. Это и должно иметь место для M(s) Ж($) =-----,где M(s), N(s) - полиномы соответственно порядка п,т N(s)
Глава 2. Синтез практически работоспособных линейных САР 67 при п = т, так как такая W(s) всегда представима в виде W(s) = a+Wcn(s), где a = const; Wcn(s) - строго правильная дробно-рациональная функция. Таким образом, выбор MG,NG из условия (2.71) обеспечил (см. теоре- му 2.1) искомую стабилизацию G22 (а следовательно, и G (см. утвержде- ние 2.2)). Более того, помимо стабилизации выбор M^.N^ в соответствии с ус- ловием (2.71) делает их компонентами ДВПФ (2.63), в силу чего они ока- зываются не только собственно взаимно простыми (а этот факт ликвиди- рует оговорку, входящую в утверждение 2.1), но и перекрестно взаимно простыми (см. второе дополнительное свойство 2.4 ДВПФ (2.62)), что де- лает невозможным сокращения в МПФ стабилизированной таким образом системы (рис. 2.5). В силу этого исключаются причины иегрубости из-за сокращений. В этом смысле справедливым можно считать следующее ут- верждение.- Утверждение 2.3. Стабилизация системы (рис. 2.4) в соответствии с условием (2.71) является робастной. 2.5. Параметризация стабилизирующих регуляторов Поскольку ДВПФ как G22, так и С осуществляется неоднозначно (см. назначение матриц Н, F в параграфе 2.3), возникает идея определения класса ПФ C(s), стабилизирующих G22(s). Решить эту задачу позволяет параметризация стабилизирующих регуляторов. Теорема 2.2 [40]. Множество всех регуляторов, стабилизирующих G22, а следовательно, и G (см. утверждение 2.2), задается формулой с = (Хо - NGQ)(YG -MjjQ)*1 = (YG -QMg)-‘(Xg -QNg),’ QgR/T, (2.72) где матрицы правых частей (2.72) - компоненты ДВПФ G22 (2.62), (2.64). Для доказательства теоремы сначала обратим внимание на то, что для любого QeR(s) 'I Qiri -Q1 Г1 -Q+Q' _o i]|o i ]“|o I Теперь пусть имеет место ДВПФ G22 (2.62), (2.64) I О’ О I = 1. (2.73) Умножив сначала слева левую и правую части на I Q О I ]’ 6'
68 Н°° -теория. Часть I а затем справа на где Qe R/7~, получим: ‘I Qlf Yg О откуда YC-QMC -Xc+QNc]rNc -NgQ+ХЛ -мс nc J|mc -mcq+ycJ • Как следует из теоремы 2.1, С, стабилизирующая G22, должна быть представлена как ДВПФ (2.63), компоненты которой отвечают (2.71). Сравнивая (2.71) с (2.74), приходим к выводу, что компоненты ДВПФ C(s) должны иметь вид Nc = Yc -QMC;MC = Хс -QNC;MC = Хс -NCQ;NC = Yc -MCQ, причем Q должна принадлежать RW~, чтобы компоненты матриц из (2.74) также принадлежали . Отсюда с учетом (2.63) следует утвер- ждение теоремы 2.2. Таким образом, условия (2.72) определяют границу той области, где отмеченную выше неоднозначность выбора стабилизирующего регулятора можно рассматривать как свободу выбора, которой можно воспользовать- ся для придания регулятору помимо стабилизирующих и каких-то других свойств. Хотя стабилизирующий регулятор, удовлетворяющий (2.72), уже обладает одним из таких «других» свойств, отмеченным в утвержде- нии 2.3, проводя параллель с классической теорией автоматического регу- лирования, эти «другие» свойства предполагается связать с качеством син- тезируемой системы. Качество в -теории определяют довольно свое- образно, и было бы интересно интерпретировать его с позиций классиче- ской теории автоматического управления (см. главу 3). 2.6. Нормализованная взаимно простая факторизация (НВПФ) В параграфе 2.2 определено понятие ВПФ, а в параграфе 2.3 представ- лен алгоритм вычисления компонент ВПФ МПФ G(s). ВПФ может быть выполнено далеко не единственным образом. Действительно, согласно оп- ределению, выражение N-1(s)M(s) = G(j) (2.75) называется левой ВПФ (ЛВПФ) МПФ G(s), если ЭМ, N, V, Ue R//°° такие, что MU + NV = 1. (2.76)
Глава 2. Синтез практически работоспособных линейных САР 69 Рассмотрим линейное неособое преобразование, описываемое матри- цей T(j). Если ТеКН”, (2.77) то M' = TM,N' = TNeRH“=> M = T-1M,,N = T‘1N', (2.78) и выражение (2.76) принимает вид T-'MU + T’^'V = I => M4J + N'V = Т => МЧИТ1 + N'VT-1 = I. (2.79) Если Т таково, что и r‘(s)eRH", (2.80) то UT'1 =U', VT-1 = V'eRH”, (2.81) и выражение (2.79) преобразуется к виду MV+NV = I, и оно, совместно с (2.78), (2.81), означает левую взаимную простоту (ЛВП) компонент (2.78) (см. условие (2.76)). Но (N')'1M' = (TNr1TM = N_1T~lTM = N’1M = G, т.е. N', М' - но- вые компоненты ЛВПФ G(s), для существования которых, как это видно из приведенных преобразований, достаточно выполнения условий (2.77), (2.80). Матрица Т, удовлетворяющая (2.77), (2.80), называется юиит (см. параграф 1.2.9). Из (2.77), (2.80) видно, что юнитом может быть пра- вильное (не строго) дробно-рациональное выражение, содержащее не только полюсы, но и нули в левой полуплоскости плоскости s. Наличие юнита на множестве дробно-рациональных матриц (представляющих со- бой кольцо) означает наличие в этом кольце единицы, так как ТТ"1 =Т-1Т = 1бКЯ” - единица там. Итак, ЛВПФ не единственна с точностью до юнита. Множество ВП- факторов (ВПФа) существенно сужается введением понятия нормализован- ной взаимной простоты (НВП). ВПФа M(s),N(s) называются НЛВПФа, ес- ли они удовлетворяют соотношению (2.76), в котором U = М*, V = N*, т.е. соотношению MM* + NN*=1. (2.82) Здесь М* означает выражение, эрмитово сопряженное выражению М, т.е. Мт, элементы в котором, замененные на комплексно сопряженные НЛВПФа, тоже не единственны. Действительно, пусть N' = TN, М' = ТМ ,Т,Т-1е ШГ, тогда, использовав (2.82), получим Т"1М'(Т"1М')* + T“1N'(T"1N')’ = 1 =>
™________________________________________________ Н°° -теория. Часть I М'(М')’(Т"' )* + N'(N')*(T"J)’ = Т => М'(М')*(Т'1)*Т'1 +N'(N')*(T”1)*T‘1 =1. Это выражение примет вид (2.82) по отношению к новым факторам N' и М' (это означало бы их НЛВП), если юнит Т обладает еще свойством Т* = Т-1, т.е. он - унитарная матрица. Действительно, тогда (т-|)*т-' =ТТ-1 =1. Таким образом, НЛВПФ не единственна с точностью до унитарного юнита. Ясно, что унитарные юниты образуют более узкое подмножество в множестве юнитов. Причем если операция, описываемая юнитом (как и вообще всякой квадратной матрицей) Y(j) = Т (s) U (j) , (2.83) (лх!) (men) (nxl) эквивалентна некоторому повороту и растяжению-сжатию вектора U(s) при преобразовании его в вектор Y(j) , то операция, описываемая унитар- ным юнитом, - только повороту без растяжения-сжатия. Убедимся в по- следнем на простейшем примере, когда у = Т и , (2x1) (2х2)(2х1) «11 .«21 "у,]=Гаи .Уг] L°2i «12 «22. «12 1Г «1 «22. ,и2 у, =allUl+al2u2, у2 = £z2]U] + а22и2. Для того чтобы преобразование (2.83) не содержало растяжения- сжатия, необходимо, чтобы модуль преобразованного вектора не изменил- ся по отношению к модулю исходного: 2 2 17 У| +У2 =«1 +«2, т.е. «Нм12 +«12м2 + 2«11«12м1«2 + «21и12 +«22м2 + 2а21«22и1и2 = и1 +и2' откуда, приравнивая коэффициенты при одинаковых членах левой и пра- вой частей, получим 2 2 «п+«21=1; 2 2 «12 +«22 =1’> «11«12 + «21«22 (2.84)
Глава 2. Синтез практически работоспособных линейных САР 71 - 3 условия на 4 неизвестных элемента матрицы, поэтому любой элемент можно выбрать произвольно. Пусть, например, ац=2, тогда из (2.84) Т 2 |>/з 2 / Согласно правилу обращения матриц [15] T-i_adiT detT’ где adjT = {M..(-l)'+'}T - транспонированная матрица алгебраических дополнений матрицы Т; здесь Му - минор к элементу . В нашем случае откуда непосредственно видно, что Т*=Т-1. НЛВПФ интересна не столько тем, что множество его факторов более узко, чем множество факторов ЛВПФ, сколько тем, что некоторые произ- вольные элементы первого могут быть вычислены с помощью однозначно- го алгоритма (правда, довольно громоздкого). Так как при вычислении ЛВПФа используются матрицы F и Н, которые нужно находить подбором, - этот алгоритм неодназначен. А именно, известна теорема [12, 47], из которой, в частности, следует, что НЛВПФа МПФ G(s) есть M(s) =: А + НС B + HD r-1/2c R"l/2D N(j)=: А + НС Н Rl/2C R-1/2 если А, В, С, D - управляемые и наблюдаемые, где Га в' G(s)=:|cTd]; Н = -(BD*+ ZC*)R-1; R=I+D*D; Z - решение обобщённого «фильтрационного» алгебраического уравнения Риккати (ОФ АУР)
_______________________________Н°° -теория. Часть I (А - BS-1D*C)Z + Z(A - BS-1D*C)* - ZC‘R-1CZ + BS-1B‘ = 0, (2.85) здесь S = I + D*D. При этом у систем А+НС и A+BF все собственные числа строго отри- цательны, причем F = -S"1(D‘C + B‘X), X - решение обобщенного «управленческого» (проблемы управления) АУР (ОУАУР) (А - BS4D*C)‘ X + X (А - BS-1D‘C) - XBS-IB*X + C‘R-1C = 0. (2.86) Причём НЛВПФ минимальна (в смысле степени Макмиллана), если минимальна ABCD-реализация G(j) .
XjgBa 3. Качество систем в Н“ -теории 73 ГЛАВА 3 КАЧЕСТВО СИСТЕМ В Н" -ТЕОРИИ 3.1. Характеристики качества в Н " -теории 3.1.1. Функции чувствительности S(s),T(s) Одной из самых распространенных оценок качества в Н “ -теории яв- ляется передаточная функция системы (рис. 2.1) по ошибке Ф£(«). Она обозначается S(s) и называется функцией чувствительности $ = ф“=—!— = —!— е 1+GC 1+W (см. параграф 2.1.1). Дело в том, что связь относительного изменения Ф“ =Ф с относитель- ным изменением G является линейной и S в ней играет роль коэффициен- та, который по своему смыслу может рассматриваться как коэффициент чувствительности относительного изменения Ф к относительному измене- нию G. Действительно, рассмотрим отношение относительного изменения £ ПФ системы Ф =------к относительному изменению ПФ объекта G: 1+GC J0(J) ф(д) J0-G (1 + GC-GC) G 1 dG(7) ~ JG-Ф ~ (1 + GC)2 G ~ 1 + GC~ ’ G(j) 1+GC откуда аФ dG Ф S G ‘ 5 Зак. 108
74 Н°° -теория. Часть I Широкое применение для оценки качества в Н “ -теории нашла также передаточная функция замкнутой системы от ее входа до выхода регуля- тора. Она обозначается T(s): г=ф« =_££_=JL_, г l + GC 1 + W и называется функцией дополнительной чувствительности, так как Т в сумме с S равна единице: 1 W 1+И7 S + т = —— + = 1. 1+W 1+W 1+W Но еще более широкое применение находят эти функции в сочетании с некоторой весовой функцией g(s). Это сочетание в зависимости от своего характера и вида весовой функции может иметь разный физический смысл. 3.1.2. Характеристика ||б1^||оо Символом ||<215||то (аналогично Ц«|[ ) обозначается норма функции 6!(s)S(s) в пространстве Н°° или L°° (Н р или Lp). Из параграфа 1.2 следует, что норма соответствует известной операции, изменяющейся в зависимости от вида пространства и класса функций, к которому Qt(s)S(s) принадлежит, т.е. символ в общем виде обозначает неопреде- ленную операцию. Однако часто, когда по заданной функции можно одно- значно определить как класс функций, к которому она принадлежит, так и вид пространства, остается указать только порядок этого пространства (р, «о), что в рассматриваемом символе и сделано. Так, в данном случае, поскольку о качестве можно говорить лишь тогда, когда рассматривают устойчивые системы, Se ЕШ°° (см. определение 2.1). Qt задает вес (с которым 5 войдет в критерий качества), определяемый су- тью решаемой инженерной задачи, в связи с чем логично выбирать его из того же пространства - Qxe . Но тогда QiSe RH” и означает (если бы Gie , то HGi^L означал бы 3.2. Оценка качества с помощью Считается, что система обладает хорошим качеством, если (3.D
Глава 3. Качество систем в Н °° -теории 75 3.2.1. Свойства системы, удовлетворяющей условию (3.1) Для получения представления о свойствах системы, которые она при- обретает в случае выполнения условия (3.1), необходимо четко представ- лять физический смысл этих условий. Из (1.39), (1.43) видно, что физиче- ский смысл требований к MIMO-системе, представленных нормой, входя- щей в (3.1), нужно искать, рассматривая физический смысл соответствую- щих (следующих из (1.39)) требований, предъявляемых к SISO-системам, образующим MIMO-систему. Рассмотрим несколько типичных ситуаций для SISO-систем. 1. Пусть на вход системы (рис. 2.1) может поступать u(t) - один из сиг- налов, принадлежащих классу Qt, представляющему собой совокупность гармоник всех частот, амплитуда й фаза которых формируется устройст- вом с ПФ <2i(s) из Ui(0 гармоник единичной амплитуды и нулевой фазы (рис. 3.1). u^t) = cos cor,Vto г———iu(r) I e(r) -----------------> <2i0) ------> ► Рис. 3.1. К физическому смыслу нормы Тогда (см. [2, 33]) при входном сигнале какой-либо любой фиксиро-. ванной частоты сигнал ошибки в установившемся режиме, поскольку Фе($)=5($), имеет вид , буст(О = |Ci(j<°)||'S(j(o)|cos[(ot+arg21(ja))+argS(jM)], амплитуда его |буст(о|=|е1(»||5(»|. В силу определения Н “ -нормы (параграф 1.2.6' I|Gi5L = sup|Q! (jco)S(j<»)| = sup|eyCT(t)|, (О и выполнение (3.1) означает тогда, что система обладает следующим свой- ством. Свойство 3.1. Амплитуда установившейся ошибки системы (рис. 2.1) не превысит значения единицы при самом неблагоприятном с точки зре- ния этого условия сигнале из рассматриваемого класса входных сигна- лов (т.е. при сигнале из такой частоты, на которой система (рис. 2.1) дает установившуюся ошибку максимальной амплитуды) и тем более при любом сигнале из этого класса. Таким образом, это свойство характеризует поведение системы по от- ношению к классу воздействий (в данном случае к классу Q1). 2. Из статистической динамики известно, что спектральная плотность случайного сигнала ы(г) системы (рис. 3.1) равна |21(/<й)|2 > если 5‘
76_________________________________ Н°° -теория. Часть I и, (Г) - белый шум единичной интенсивности (т.е. устройство с ПФ Qj(r) играет роль формирующего фильтра для системы (рис. 2.1)). Тогда спек- тральная плотность ошибки Fe(co) системы (рис. 2.1) Fe (со) = Fu (ш) |S( »|2 = |е, (J(D)5(»|2. Здесь Fz(со) = A/[£U(0) £ *(/(»)], (3.2) где £(» = [£COL=> = “ частотный спектр сигнала е(г) ; £ - символ операции преобразования Лапласа; М - символ операции мате- матического ожидания (представляющий собой операцию статистического осреднения); £*(/со) - функция, комплексно сопряжённая £(;ш). Поэтому спектральная плотность по своему физическому смыслу ха- рактеризует распределение средней мощности сигнала по гармоникам его спектра [33]. В связи с этим можно утверждать, что система, удовлетво- ряющая условию (3.1), обладает следующим свойством. Свойство 3.2. Средняя мощность сигнала ошибки при отработке слу- чайных сигналов со спектральной плотностью |0](усо)| системой (см. рис. 2.1) меньше единицы в наиболее неблагоприятном с этих позиций частотном диапазоне спектра таких сигналов (там, где £Ё(ш) достигает sup), тем более для всего остального диапазона спектра. е> Таким образом, и здесь оценка ориентирована на класс воздействий - она средняя по совокупности воздействий, отвечающей Fu (ш) = |Q1(jco)|2 3. Рассмотрим неслучайный входной сигнал u(t) со спектром (^(до) (такой сигнал сформирует система с ПФ Qt (s), если на ее вход подать воздействие «j(t) = 8(t) при нулевых начальных условиях). Поскольку средняя по совокупности реализаций от неслучайной функции равна ей самой, то из (3.2) следует, что для системы, удовлетворяющей (3.1), спра- ведливо следующее свойство. Свойство 3.3. Мощность сигнала ошибки при отработке неслучайного сигнала со спектром QiQ'co) системой (см. рис. 2.1) меньше единицы в наи- более неблагоприятном с этих позиций частотном диапазоне спектра тако- го сигнала (там, где |Gi(/co) $(/<о)|2 достигает sup; пусть супремум достига- ем . ется при (о=щ$). Так как критерий (3.1) использует понятие sup, ему удовлетворяют и входные сигналы с любыми спектрами (ЭДуШ), i = 2,3..., отвечающими соотношению
Глава 3. Качество систем в Я ” -теории 77 sup|Qi( (О (рис. 3.2). Поэтому и данное свойство оценивает качество на классе воз- действий. Рис. 3.2. Иллюстрация к свойству 3.3 4. При рассмотрении третьей ситуации сразу видно, что для входных сигналов класса Qi (из первой ситуации) каждый из них имеет мощность установившейся ошибки, пропорциональную квадрату амплитуды leyc/rf = [|G l(j«)||5(jco)|]2 на частоте приложенного к входу сигнала, поэтому к свойству 3.1 спра- ведливо следующее дополнение. Дополнение 3.1. Свойство 3.1 касается не только мощности, но и ам- плитуды установившегося сигнала ошибки. Таким образом, если система рис. 2.1 удовлетворяет условию (3.1), то она обеспечивает качество слежения за воздействиями из класса сигналов, задаваемого весовой функцией 0i(s), в том смысле, что эта система обла- дает свойствами 3.1 - 3.3 и свойством, указанным в дополнении 3.1. По- этому важно уметь удобно и быстро проверять выполнение условия (3.1). 3.2.2. Геометрические способы проверки выполнения условия (3.1) Согласно параграфу 1.2.6, условие (3.1) означает Q1O) 1+W(» sup|6i ()5( усо )| < 1, т.е. sup Ш ш < 1. (3.3) Из рис. 3.3 видно, что взаимное расположение годографов функций Gi(j<o), l+WQco) и начала координат может быть представлено взаимным
Н°° -теория. Часть т 78 ________________________________ расположением соответственно кривой годографа 6i(jco), сдвинутой единицу влево (кривой -l + fi|(jw)), кривой годографа W'(Jto) и Точки координатами (-1, J0). Этим и воспользуемся в дальнейшем - будем сч ° тать кривую W(jsi) кривой 1+№(/ю), кривую -l + giO’w) кривой а точку (-1, jG) - началом координат. Поскольку функции, представляющие разомкнутую систему и ограни чения, могут принадлежать IRH” или KIT, W(s), 2)(з) могут быть пп вильными или строго правильными дробно-рациональными выражениями' Пусть они строго правильные. На рис. 3.4 построена АФЧХ W(yco) СИСТе’ мы, содержащей интегратор (что характерно для астатических систем) Qi(s), его не содержащая. На рис. 3.4 - 3.7 изображены годографы фун " О. (йо) _ „ К ций —- для всевозможных комбинаций наличия и отсутствия „ l + W(ja) J * “«и ин- тегратора в W(s) и Qi(s). Из этих рисунков видно, что условие (3.3) (а следовательно и <3 in имеет место, если годограф целиком лежит внутри окружности единичного радиуса, проведенной из точки (-1, J0) - из условного начала координат (во всех наших примерах, за исключением рис. 3.7, условие (3.1) нарушено). Однако в связи с неудобством построения годографа Q.(fa) с * 1+W(jto) желательно иметь более простой способ проверки выполнения условия (3.1). рис. 33. Оценка расположения годографов QiU'w) и 1+W(jw)
19 Рис. 3.5. Вид оценки (3.3), когда Q(s) содержит интегратор Учитывая тот факт, что спектр реальных входных сигналов ограничен по амплитуде, считаем, что в вариантах, представленных на рис. 3.5 и 3.6, реальное значение |0i(jw)| на частотах (0=0..6 i не превышает |б(/6)|. Тогда из рис. 3.4 - 3.7 видно, что функция имеет супремум, ко- торый расположен в области значений <о, достаточно близких к ©i - часто-
пц_____________________________________________-теория, Часть I тс, ии которой функция I + W (Jto) наиболее близко подходит к началу ко- ординат (напоминаем, что его роль на рисунке играет точка (-1, JQ)), т.е. к той частоте, где достигается inf |l + W( J(o )| • В силу этого условие (3,3) ш приближенно можно представить и виде ццр QW - lQ(M_ <1, Ti+^o) inf|d+»'(»)! и оно трансформируется в приближенное условие |C,(M)|<lnf|(l+H'(/w))|. (3.4) имеющее простую графическую интерпретацию: АФЧХ WX/to) должна ле- жать вне окружности радиуса |Qi(M)l» проведенной из точки (-1, JO), Рис. 3.6, Вид оценки (3.3), когдн и С?(.г) и W(s) содержат интегратор Рис. 3.7. Нил оценки (3.3), когда и Q(s) и W'(j) не содержат интегратор
Глава 3. Качество систем в Н" -теории_____ g( Замечание 3.1. ПФ, принадлежащая RH~ или ШГ, не должна со- держать полюсов на мнимой оси и, следовательно, не может иметь интег- рирующего звена. Но тогда из рассмотрения в //"-теории исключается широкий класс систем - астатических. Их можно включить в рассмотре- ние, если интегратор заменить звеном типа -i-, где а -> 0 (устойчивым апериодическим звеном с очень большими постоянной времени и коэффи- 1/а циентом передачи: . ), которое существенно отличается от инте- 11 / О IS т 1 гратора только при со —> 0. В связи с этим графически эта приближенная замена эквивалентна замене бесконечных «хвостов» АФЧХ систем с инге- - к граторами дугой окружности, проведенной с центром в точке (—, j’O) до 2а вещественной положительной полуоси (для значений со, равных нулю и близких к нему). Здесь к - коэффициент передачи системы. Проверим, не нарушает ли отмеченная операция физический смысл ре- шаемой задачи. У сечение «хвостов» у означает исключение из класса входных воздействий постоянных и медленно меняющихся сигналов очень большой амплитуды, что в силу ограниченности энергии генераторов воз- действий вполне технически оправдано. Усечение W(jco) ведет к искажению представления системы, но такому, которое не сказывается на сути рассмат- риваемой здесь задачи (так как измененный участок достаточно далек от тех частот, где 1 + W(jU3) имеет инфинум (см. рис. 3.4 - 3.7). Таким образом, усечение «хвостов» у W(Jw) и Q, (j(o) позволяет впи- сать исходную задачу в рамки Я “-теории, избежав при этом искажений ее физической сути. Для случая (рис. 3.5) с учетом замечания 3.1 (тогда условие (3.3) и (3.1) выполняется) на рис. 3.8 проведена окружность радиуса |2i(/9)| (так как (0], как это видно из рисунка, равно 9), в которую согласно упрощенному критерию (3.4) не должна входить кривая ¥И(/(0) (играющая роль 1 + W(j(0)). Из этого же рисунка легко понять, с какой погрешностью этот упрощенный критерий представляет здесь критерий (3.1). 210) Действительно, из рисунка видно, что супремум выражения 1 ЙО’8) 1 достигается при со = о), = 8 —, и условие (3.3) принимает вид jyQg)< 1 ’ откуда |Qt (j8)| < |1+W( j‘8)|, т.е. условие (3.3) (а следовательно, и (3.1)) тре- бует, чтобы окружность радиуса |2i(/8)| (пунктир) лежала внутри окружно- сти радиуса |1 + W'(j8)| (штрихпунктир). Аналогично, сопоставив условия
Ш____________________________________________________Н°° -теория. Часть I (3.4) и (3.3) для других случаев, можно сделать заключение о том, что в большинстве практических случаев использование критерия (3.4) вместо (3.3) вполне допустимо. Рис. 3.8. Иллюстрация погрешности приближеииого условия (3.4) 3.3. Оценки с помощью функций чувствительности 3.3.1. Оценки с помощью ||3|Г Используя геометрическую интерпретацию выполнимости условия (3.1), легко понять смысл критерия ||5|Г<1. (3.5) * 1 1 А именно, sup--------< 1, откуда —i-------г < 1, ш 1 + WQw) inf |1 + W(»| или 1 <inf |1+W(»|, (3.6) а это значит, что кривая W(jm) не должна входить в крут радиуса 1, прове- денный из точки (-1, J0) (см. рис. 3.4). Здесь это условие нарушено. Замечание 3.2. Выполнение данного условия помимо качества системы, характеризуемого свойствами 3.1 - 3.3 для б, (s) = 1, означает еще с пози- ций критерия устойчивости Найквиста - Михайлова [2, 33], что АФЧХ ра- зомкнутой системы удалена от критической точки не менее чем на единицу и если, согласно критерию, замкнутая система (рис. 2.1) устойчива, то при соблюдении (3.5) она устойчива с большим запасом. Понятие 3.1. Пусть система (рис. 2.1), которую назовем номинальной, подвержена так называемому мультипликативному возмущению парамет- ров, приводящему к тому, что разомкнутая ПФ WB(s) системы с мультип- ликативными возмущениями
Глава 3, Качество систем в И” -теории 83 WB(s) = W(s) + A(s)Q2(s)W(s) = W(s)+W4(s) (см. [36,41]). (3.7) Здесь Д(я) - непредсказуемым образом меняющаяся неопределенность, ограниченная по амплитуде так, что ||Д(«)|Г = sup|A( j<0)| < 1; (3.8) ш а С2 (s) - весовая функция, задающая форму неопределенности. Соотношению (3.7) соответствует структурная схема (рис. 3.9), откуда и видно, почему данное возмущение названо мультипликативным. Рис. 3.9. Модель мультипликативных периодических возиущений 1+W(» + Д( j(o)Q2( j(O)W (jco) Критерий (3.5) для системы с мультипликативным возмущением имеет вид ИМ" = su₽ ш чему соответствует условие inf 11+W(JOJ) + Д( j<o)Q2( j<o)W( j<o)|>l. (3.9) (О Выражение под знаком модуля в (3.9) для <о=(ot на рис. 3.10 имеет вид суммы векторов W(/coi) и A(/<0i)Q2(jWi)W<0i)> причем второй вектор- слагаемое в силу неопределённости (по фазе и по амплитуде) Д(До) и условия (3.8) может оканчиваться в любой точке круга радиуса p=|Qj(ftOi) WM- “ J I ПЛ. И(5)идр. Рис. ЗЛО. Расположение конца вектора
84_____________________________________________-теория. Часть! Тогда рассматриваемое выражение для всех to представляется вектора- ми, заканчивающимися в точках области, образованной окружностями ра- диуса |22(/w)| | W®)|> проведенными из всех точек WQ'to) - области в виде плоской трубки, окружающей АФЧХ разомкнутой системы (см. пунктир Рис. 3.11. Иллюстрации выполнимости условия (3.9) И теперь в свете геометрической интерпретации из параграфа 2.2.2 вы- полнимости условия (3.1) видно, что условие (3.9) требует расположения этой трубки вне пределов окружности единичного радиуса с центром в точке (-1.J0). Понятие 3.2. С позиций критерия устойчивости Найквиста - Михайло- ва данный факт означает (если, согласно критерию, замкнутая система (рис. 2.1) устойчива) устойчивость замкнутой системы с большим запасом, несмотря на случайные мультипликативные параметрические возмущения, т.е. робастную в таком смысле (ср. с замечанием 3.2) устойчивость замк- нутой системы. Дополнение 3.2. Операция усечения «хвостов» АФЧХ (см. замеча- ние 3.1) позволяет включить в рассмотрение Н” -теории и функции Q2(s). Эта операция не искажает (как и в случае оценки качества с помощью (3.1)) истинность оценки и обычной и робастной устойчивости, так как ус- тойчивость зависит от взаиморасположения кривых в окрестности крити- ческой точки, «хвосты» расположены далеко от нее. 3.3.2. Оценки на основе И” Соотношению И“<1 (3.10)
Глава 3. Качество систем в Н -теории 85 соответствует sup ш W(jQJ) I 1 + W(»| <1, и так как функция W(jto) 1+W(M имеет максимум модуля при (а, близкой к (Oj - частоте, где |1+W(jco)| достигает инфинума (см. рис. 3.6, рис. 3.7, так как там Qx(s) = W(s)), получим sup ш w(jm) ~ |W(A)| ;1 1 + W(» inf |1+W(»| ’ или |W(j(o1)|<inf|l+W(J(0)|. (3.11) ш Выражение (3.11) напоминает (3.6) и геометрически соответствует то- му факту, что 1фивая W(jto) не должна входить в круг радиуса |W(y<iJj)|. Поскольку, как правило, |W( j(ot)| существенно меньше единицы, условие (3.11) (а следовательно, (3.10)) менее жесткое, чем условие (3.6) (а следо- вательно, (3.5)) и, значит, более реалистичное. Условие |Тв|-<1 (3.12) означает W(ja)) + Д( 1+W (до) + Д ( jco)Q2 (jo)W (jco) sup Ш отсюда, аналогично тому, как было получено (3.4), приходим к соотно- шению |W ( >1В) + Д (>ю )Q2 (jOjB )W (/(Ош )| < < inf |1+ИЧ /ш) + Д( j©)G2(j(B)IF(j<b)|, (3.13) где (0(В - частота, при которой |1+И'( /to)+G2(yw)IV(,/(o)| достигает инфи- нума (см. рис. 3.11). Для его выполнения требуется, чтобы рассмотренная в параграфе 3.3.1 плоская трубка (см. рис. 3.11) не входила в круг радиуса |^Ow/e) + Д( ;ш/в )Й2( >/вЖО/в)| = |(1 + Д(;ш/в)е2(>и)Ж/ши)| - случай менее жесткий, чем соответствующий критерию (3.9) (для робаст- ной устойчивости), и более жесткий, чем (3.10) (для обычной устойчивости). Рассуждая аналогично, нетрудно прийти к выводу, что критерий ||G3TL<1 (3.14)
86__________________________________________н°° -теория. Часть I выбором Q3(s) даёт возможность смягчить условия (3.11), а критерий ||е3М-<1 <ЗЛ5) - смягчить условия (3.13), так как этим критериям эквивалентны прибли- женные соотношения соответственно |Сз(МЖ(М)| < inf |1+W(»|, (3.16) |0зОЦв)[^О®1в) + ^О®1в)б2(У<В|в)^(У®1в)]|< (2 17) < inf |1+IV( Jco) + Д (ja)Q2 (j(O)W (j<o)|. Замечание 3.3. Постольку критерии качества, представленные в этом параграфе, задают радиус окружности, в которую не входит АФЧХ (или задают трубку) разомкнутой системы (для обеспечения устойчивости (или робастной устойчивости) с некоторым запасом), ясно, что эти условия по- путно обеспечивают и качество в смысле свойств 3.1 - 3.3, дополнения 3.1. Ограничивающая функция Qx (s), определяющая параметры этого качест- ва, может быть приближенно найдена, например, для критерия (3.14) из соотношения |0.(М)НСз(>1)^(>1)| - <318) а для критерия (3.15) из соотношения |Qi(j®i)| = |0з(У<О1в) [ИЧ ./Ав)+(7®ib С )]| • (3.19) Аналогичные соотношения легко записать и для других критериев (на- пример, для (3,10), (3.12)). И обратно, если решается задача оценки качест- ва (см. параграфы 3.2 и 3.3), из соотношений (3.18), (3.19) по заданным функциям 21 (s) и 2г(*) можно получить Q3(s) и оценку обычной (роба- стной) устойчивости, отвечающей критериям (3.14), (3.15).
Глава 4. Сведения из математических основ Н°° -теории 87 ГЛАВА 4 НЕКОТОРЫЕ ДОПОЛНИТЕЛЬНЫЕ СВЕДЕНИЯ ИЗ МАТЕМАТИЧЕСКИХ ОСНОВ Н°° -ТЕОРИИ 4.1. Оператор Лоренца и связанные с ним операторы 4.1.1. Широко известное соотношение нз классической теории управления(ТУ) Для линейной многомерной системы автоматического управления (MIMO-системы) (рис. 4.1), где G(s), C(s) - матричные передаточные функции (МПФ) соответственно объекта и регулятора, Ф($) - МПФ замк- нутой системы, при нулевых начальных условиях справедливо известное соотношение Здесь Y(j) = £[y(f)], U(j) = £[u(O],£ - символ операции односто- роннего преобразования Лапласа: Y(j) = £[y(r)]^Jy(f)-e’"dr, Rei>c„ (4.2) о s = с + jo); с, cog R, где q - абсцисса сходимости функции y(t).
88_____________________________________________' -теория. Часть I При необходимости временной сигнал у(т) может быть вычислен с помощью операции одностороннего обратного преобразования Лапласа: y(r) = £-I[Y(j)] = -^-7 '] Y(j)-e"ds. 2^с,-> Пусть, например, в SISO-снстеме , 2a Ф(^) = ------------------------------- (4 3) (s + a)(j-a) ’ - система неустойчива, так как имеет один полюс в правой полуплоскости плоскости s, ее реакция на воздействие u(t) = 8(г), т.е. импульсная пере- ходная функция (j + a)(i-a) Первое слагаемое Лл(г) - устойчивая, второе (г) - неустойчивая мода ИПФ (см. рис. 4.2). Эта «лапласовская» взаимосвязь Y(j) и y(t) правильно отражает ис- 2a 1 1 ---+---- j+a j-a -az e ” + e°“, r>0, (4.4) 0, f<0. 7 тинную картину протекания процессов в реальной системе при нулевых начальных условиях (вынужденное движение), позволяя при этом сущест- венно упростить ее расчет, отчего данная взаимосвязь и ее свойства хоро- шо известны «классическим» управленцам. Рис. 4.2. ИПФ системы (4.3) 4.1.2. Операторы Лоренца, ортогонального преобразования, Теплица и Гаккеля В Н °° -теории вводится оператор Y(s) = O>(s)-U(s), (4.5) по внешнему виду совпадающий с выражением (4.1), который в случае U(s)eL2, ®(f)eL. (4.6) (имеются в виду пространства соответствующих размерностей (см. гла- ву 1)) называется оператором Лоренца. Согласно (4.5), (4.6), Y(j)6 12>
г пява 4. Сведения из математических основ Н” -теории °“ таким образом, это оператор -> . Как видно из (4.5), он задается явно, и если его операторное выражение обозначить Лф (Лф - оператор Ло- ренца, порожденный функцией Ф($)), то он может быть записан как ¥(») = Лф-и(»), (4-7) причем Лф легко формируется из Ф($) - это просто сама Ф($). Известно [8], что L2 = H2®f/2i. (4.8) Это означает, что любая функция U(s)g L2 всегда может быть пред- ставлена в виде U(s) = UA(s)+Un(s), (4.9) где UЛ 6 Н 2, Un 6 Hj1, отчего они взаимно ортогональны (в том смысле, что их скалярное произведение равно нулю (U Л, U п )=0). Понятие орто- гональности UA , Un есть обобщение на Лебеговы пространства понятия, которое для и = и'е R2 (см. рис. 4.3а) или для ug R3 называется взаимной перпендикулярностью (в силу того, что скалярное произведение двух взаимно перпендикулярных векторов равно нулю (правда оно в по-другому задается)). Поэтому ортогональное дополнение пространства Н2 и обозначается Н2. Рис. 4.3. Диаграмма «разложения» пространств Можно ввести в рассмотрение пространство, состоящее из совокупности всех векторов, параллельных iq (обозначим его R12), пространство векто- ров, параллельных и2 (R^2), пространство векторов, параллельных и' (R2). И тогда факт возможности разложения любого конкретного йе R2 на сум- му й1бй12 и й2ей^2 (штрихпунктир на рис. 4.36) можно изобразить в ви- де наглядной диаграммы (см. сплошные линии на рис. 4.36). Поскольку по ортогональному базису ut,u2 можно разложить любой ugR2, линия R2 может рассматриваться как линия, условно представляющая пространство
90_______________________________________________Н°° -теория. Часть I R 2 (пространство двумерных векторов любого направления). Иногда ана- логичное свойство р-Лебеговых пространств (см. формулу (4.8)) бывает удобно представить в виде подобной диаграммы (см. рис. 4.3в). Однако сей- час, разбираясь в причинах ортогональности Ш//2 и это свойство удобнее отразить по-другому. В случае Ш/2 и взаимная ортогональность имеет место вследст- вие того, что полюсы Ua(j) и Un(j) расположены соответственно только в левой и только в правой полуплоскости плоскости s, таким образом, об- ласти плоскости з определяют принадлежность функции тому или иному пространству (рис. 4.4а). Рис. 4.4. Вариант представлении «разложении» пространств: а - для функции V(s); б - для функции Y(з) Например, если область расположения полюсов матричной функции U(s), элементами которой являются дробно-рациональные выражения, порядок полиномов числителя которых меньше порядка полиномов их знаменателя, ограничена сплошной линией (см. рис. 4.4а), то U(j)eRLp (/> = 2,3,...; />#<»), в частности, например, RL2- Тогда область, ограни- ченная пунктирной линией говорит о принадлежности части функции U(s) (части вида «слагаемое») пространству ЙЯ2 (эта часть обозначена здесь UA ($)), область, ограниченная штрихпунктиром - о принадлежно- сти пространству части слагаемого Un(s). Таким образом, рис. 4.4а поясняет смысл преобразования (4.9), а следовательно, и возможность представить операцию (4.8) по-другому в сравнении с тем, как это сделано на рис. 4.3в. Рассмотренные операции, связанные с получением UA(s) из U(s), описывают оператор П Л, называемый оператором ортогонального про- ектирования:
Глава 4. Сведения из математических основ Н°° -теории ' * иЛ(5) = Пли(5) 91 (являющийся оператором Д2 -♦ Н2), так как рассматривается он в паре с другим оператором ортогонального проектирования Пп, образующим из U(s) компонент Un(.s), взаимно ортогональный компоненту UA(s): Un(s) = nnU(s), таким образом, Пп : Ь2 -♦ Н2 . Названия ПЛ и Пп объясняются анало- гией с процессами, иллюстрируемыми рис. 4.3 и 4.4. Операция разбиения функции на «части-слагаемые» типа (4.9): U(j) = UA(s) + Un(s), где UA(s), Un(s) содержат все полюсы соответственно только в левой полуплоскости и только в правой полуплоскости плоскости з, называется спектральной сепарацией функции комплексной переменной U(s). Разбиение на «части-сомножители»: U(j) = UA(s)Un(s), (4.10а) где 1)д (s), Un (s) содержат и нули, и полюсы соответственно только в ле- вой полуплоскости и только в правой полуплоскости плоскости з, называ- ется спектральной факторизацией. Оператор Лоренца преобразует U(s) в Y(s), область расположения полюсои которой представлена сплошной линией на рис. 4.46 (см. сплош- ную стрелку на рис. 4.4), и она, аналогично тому, как на рис. 4.4а, может быть разбита на подобласти, соответствующие YA(s) и Yn(s), где анало- гично (4.9) Y(s) = YA(s) + Yn(s). (4.106) Поскольку функция Ф(з)е £„, она имеет полюсы как в левой, так и в правой полуплоскости плоскости s, поэтому она окажет влияние обяза- тельно на оба компонента (YA (s) и Yn (s)) - как через UA(s), так и через Un(s). Другими словами, каждый компонент U(s) связывается посредст- вом оператора Лоренца с каждым компонентом Y(s). Эту связь легко представить в виде следующего матричного соотношения: -уА уП правда, описать аналитически соответствующие компоненты оператора, сопровождающего операцию Аф, ие так просто. Можно попытаться это сделать, например, так: лАА лАПТи л™ л™ I ип
92 ____________________________________Н°° -теория. Часть j ~ ¥л + ¥п = ¥ = Лф(11л + Un) = ..., поскольку Лф - линейный оператор, ... = ЛфиЛ+Лфип=... с помощью сепарации каждого из слагаемых последнего выражения пред, ставим его в виде: ... = [лф£/Л ]Л +[ЛФ£/Л ]П +[ЛФ£/П ]Л +[ЛФ£/"]П = = Лфл£7л + л£л£7л + л£пЯп +Л™ип = (4.12) = л£лил + ЛфПип + л£лЦл + л£п17п , уЛ уП откуда, во-первых, получится (4.11), а во-вторых, видно, что, например, ЛфП - оператор, отображающий Un в Ул вследствие действия операто- ра Лоренца, т.е. оператор -> КЯ2 > который описывается совокупно- стью тех операций, которые проделаны в только что рассмотренном пре- образовании, чтобы получить часть - слагаемое члена УЛ, привнесенное в Ул функцией Un. Эти операции можно выразить через ранее введенные операторы: л*пг/ = плАфппг/ => л*п = пллфпп и т.д. Таким образом, ЛфЛ = ПдЛфПд : Н2 —> Я2; ЛфП=ПдЛфПп: Н2 Н2’, Лф = ПпЛфПд : Я2—> Н2’, (4.13) Л™=ПпЛфПп: Н2 -ь Н2 (см. стрелки на рис. 4.4). Операторы ЛфЛ и Лфл получили специальные названия и обозначе- ния соответственно, - Теплицев оператор, порожденный функцией Ф(^)> - 0Ф, и оператор Ганкеля, порожденный функцией Ф($), - Гф , т.е. AfS0<₽: (4.14) дПЛ _ р 4>.ф “1 ф. Рассмотренная попытка выявления компонент оператора, сопровож- дающего Лф, привела к простому алгоритмическому их представлению, но не к аналитическому, в том смысле, что рассмотренное представление затруднит, например, вычисление норм этих операторов, что нам потребу- ется в дальнейшем, и т.п.
f «ява 4. Сведения из математических основ Н°° -теории - 4.2. Представление оператора Лореица В ОБЛАСТИ ВЕЩЕСТВЕННОЙ ПЕРЕМЕННОЙ 4.2.1. Выбор преобразования, переводящего функции, формирующие оператор Лоренца, в область вещественной переменной Преобразование Лоренца вводится в функциональных пространствах Лебега вне связи функций, в нем фигурирующих, с их физическим смыс- лом, в том числе и вне их связи с какими-то функциями времени. В на- шей воле, правда, выбрать Ф($) ие только принадлежащею L„, но и описывающей, кроме того, МПФ исследуемой системы; U(s) выбрать, как £[м(0] > тогда Y(s) = AtfU(s) есть £[y(t)] исследуемой системы. То есть Аф будет правильно передавать истинную картину протекания процессов в исследуемой системе, а оператор Лоренца станет эквива- лентным соотношению (4.1). Но в этом случае не будет справедливо свойство, зафиксированное равенством Парсеваля [9] (Планшереля [11]), о котором упоминалось в главе 1 (параграф 1.2.5, сразу после утвержде- ния (1.3)): j Y\ja)Y(Ja)d(i) = f | y(t) |2dt. (4.15) pg Оно справедливо только в том случае, если [У( jw)]jto=J и y(t) связаны преобразованием Фурье: = {<₽ [ ^<г)]}ую=, = J = Noe'**, (4.16) тогда j Y(s)es'dt. (4.17) Соотношение (4.17) справедливо только для функций, удовлетворяю- щих условиям Дирихле: 1) Уф(0 должно содержать конечное число разрывов непрерывности пер- вого рода, 2) J |уф(О|Л # с» - функция должна быть абсолютно интегрируемой. —ею
94 ц°° -теория. Часть I Из рис. 4.2 видно, что от y(f), представленной там, преобразования Фурье не существует. Левая часть (4.15) представляет квадрат нормы в L2, а правая часть - квадрат нормы в 12, где /2=|у: R-»R/J|yW|26fr<9° (4.18) причем в общем случае y(t) может быть отличной от нуля функцией при всех te(-оо,1*»). Такое /2-пространство будем обозначать 12(-«>,«»). Впо- следствии окажутся полезными еще два 12 -пространства: /2[0,°°) и 12 (-оо,0], содержащие функции, отличные от нуля, соответственно только при Vr>0 и только при V7<0. Таким образом, формула (4.15) говорит о возможности вычислять нор- му по У^>» и наоборот, если [Y(s)]i=s> и у(Г) = уф(Г) - связа- ны преобразованием Фурье. Напомним, что в (4.1) используется одностороннее преобразование Ла- пласа (см. (4.2)). Рассмотрим двухстороннее преобразование Лапласа [5] во *дН = 4«[у(')]= f y^dt (4.19) —©о от некоторых функций (см. табл. 4.1, в которой приведены основные фрагменты вычислений; крестиком на плоскости s = c + jto отмечены по- люсы изображений, штриховкой - области существования изображений). По аналогии с теорией обычного (одностороннего) преобразование Лапла- са будем пользоваться условной записью в которой под символом .= , обозначающим связь «оригинал-изображение», стоит значок, конкретизирующий эту связь. Тогда имеет смысл связь в обычном преобразовании Лапласа записывать как y(0 = Y(5). £ Стоящие в левых частях этих выражений символы будем считать соот- ветствующими оригиналами, т.е. функциями, от которых рассматриваемые преобразования существуют. Это можно представить так: y(t) = уд(0 - в первом, и y(t) = Увд(г) - во втором случаях. Тогда сами записи будут оз- начать соответственно: Уд(О.= Хц(^), yaA(t)^i(s).

96_____________________________________________ Н°° -теория. Часть I Из табл. 4.1 видно, что функции y6(f) = eи y1(t) = eca, рассматри- ваемые на всем временном интервале te (-«’,«>) (как известно, являющие- ся оригиналами для £ (в силу односторонности интегрирования в этом преобразовании)), дня £ц оригиналами не являются. Из нее же видно (срав- ним, например, У](/) и y2(f) или y3(t) и у4(0), что если среди оригиналов уд(0 изображения Y(j) существует оригинал у* (t), имеющий отличную от тождественно нулевой часть (унф<Х)) только при t > 0 (только при неот- рицательных (положительных) значениях аргумента (отсюда индекс «н» в обозначении)), которая равна Z71 [Y(j)] - обычному оригиналу: yflB*(0 = r1[Y(j)], />0, 0, t<0, У^ = (4.20а) то среди ya(t) обязательно существует еще один оригинал y°(t), имею- щий нетривиальную часть (у“*(/)) только при противоположных рас- смотренному значениях аргумента (при t < 0 - только при отрицательных (что и отражает индекс «0»)), причем эта нетривиальная часть равна -{/71 [Y(s)] Vl},T.e. Выражение в фигурных скобках означает, что функцию, полученную в результате Z71 [•], которая обычно рассматривается при t > 0, а при t < 0 заменяется нулем, нужно рассматривать для всех t G (-00,00). Таким образом, нетривиальные части у%ф(1) и у°ф(1) легко вычисля- ются с помощью обратного одностороннего преобразования Лапласа. И если Уд(0б/2> то Уд(Ой/2» и наоборот (см. табл. 4.1). Значит, один из них 12 принадлежит обязательно, причем у°аф(/) = ~Уд*(0. Системе (4.3) соответствует единственное обратное одностороннее преобразование Лапласа, описываемое функцией k(t) (см. (4.4) и рис. 4.2), представляющей ее ИПФ. Из табл. 4.1 следует, что этой же системе соответствуют три функции времени i = 1,3, являющиеся двухсторонними обратными преобра- зованиями Лапласа, играющими роль ее двухсторонних ИПФ, описывае- мые:
4 рвения из математических основ Я” -теории Г^^^ций, взятых из строк 1 и 3 таблицы, = уд1(г)+УдЭ(0 ойа эквивалентна классическому решению k(t) (4.4), в этом случае область существования функции Ф($) представлена на рис. 4.5а; В Рис. 4.5. Области определения для к,'(г) 2) £д2)(0 = Удг^+УдзСО (см. рис. 4.6а), область существования функции ф($) представлена на рис. 4.5; Рис. 4.6. Возможные варианты k^(t) 3) ^д3)(0 ~ ya\(t) + уд5(0 (см. рис. 4.66), область существования функции Ф(л) представлена на рис. 4.5в. Согласно табл. 4.1 можно было бы представить возможной и четвертую функцию k^\t) = уд2(0 + Удз(О (рис. 4.6в), но совместной области суще- ствования двухсторонних преобразований Лапласа функции у2(Г) и у3(0, как это видно из этой же таблицы, не существует. О'). О') истинной ИПФ не соответствуют, но l2 (-<*,<») (см. рис. 4,65). И если факт принадлежности пространству /2 считать не- пременным условием связывания функций комплексной переменной с Функцией вещественной переменной (что необходимо для теории, изла- мой в данной работе), то из рис. 4.66 и табл. 4.1 видно, что, во-первых, У Кциям из Rh2 можно поставить в соответствие функции только из 2 ; из 2Х _ функции только из /2 (-°о,0], а из RL2 - функции из г ('oo.oq) ; и наоборот. Во-вторых, двухстороннее преобразование Лапласа 8 зак0ЖДаеТСЯ В пРео®Разование Фурье (например, в случае системы (4.3)
98 Я”-теория. Часть! k^t^k^t), где к9(1) = Ф(х)), так как принадлежность /2 обеспечивает выполнение ф условия Дирихле (см. (4.17)), причем преобразование Фурье обладает в этом случае свойством 4.1. Свойство 4.1. Фурье-оригиналы /ф(0, • соответствующие F(j) 6 ЙЯ2 - принадлежат/2 [0,«»), • соответствующие F(j)eRH^ - принадлежат /гС-00»0!- • соответствующие F(j)e RLj “ принадлежат l2 (-00,00), и наоборот. При вычислении обратного преобразования Фурье (4.16) путь интегри- рования задается вдоль мнимой оси - вот по какой причине из про- странств, фигурирующих в Н °° -теории управления, исключаются функ- ции с особенностями на мнимой оси (что с учетом замечания 3.1 не так страшно). Из данных табл. 4.1, с учетом свойства 4.1, легко усмотреть путь полу- чения Фурье-связи F(s)==' позволяющей гарантированно не выхо- дить за рамки Лебеговых функциональных пространств L2, 12: для этого нужно выполнить сепарацию изображения (см. (4.9)) и получать /ф(г) также в сепарированном виде: да)=/;+/;. (4.21) где 7ф"=Ф-1{РЛ(4е/2[<ХЧ /ф =Ф"1{гп(^}б12(-оо,°]. Нетривиальные части этих компонент-слагаемых, согласно (4.20), на- ходятся с помощью обратного одностороннего преобразования Лапласа: /ф"*(0 = С1Грл(я)]; Г Г -! 1 (4-22) Xp°*(r) = -{r1[Fn(s)], Vr}. С учетом того что (г) используется в (4.20а), можно считать, что /ф"*(О=С’[РЛ(з)], VL 4.2.2. О принципе «причинности» Насколько точно термин, употребляющийся в практике ТУ в трех вари- антах, - система, удовлетворяющая • условию физической реализуемости,
Глава 4. Сведения из математических основ Н°° -теории 99 • условию физической возможности, • принципу причинности, отражает свойство ИПФ материальной системы, состоящее в том, что Л(0 = 0, к О? (4.22) Первые два варианта неудачны в виду того, что соблюдение (4.22) во- все, не гарантирует ни физической реализуемости, ни физической возмож- ности системы (например систем, соответствующих форсирующим звень- ям или идеальному интегратору (у которого k(t) = [1(f)])), хотя нарушения этого условия, конечно, свидетельствуют об отсутствии и того и другого. То есть это необходимое, но далеко не достаточное условие существова- ния провозглашаемых качеств. Последний вариант неудачен в виду того, что причинность проявляется не в соблюдении условия (4.22), а в обязательном свершении факта- следствия, состоящего в изменении выхода по закону ИПФ для Vt (в том числе, кстати, и как не материального, а как математического факта, в ко- тором y(t) = k(f) может быть и не равной нулю при t < 0) только после свершения факта-причины, состоящего в приложении к входу S-функции при t = 0. Условие (4.22) на самом деле свидетельствует о том, что настоящее не может влиять на прошлое в материальных системах, так как в данный мо- мент прошлое, в силу его невозвратности (из-за однонаправленности про- текания времени), реально уже не существует. То есть формула (4.22) вы- ражает условие недоступности прошлого материальных систем воздейст- виям в настоящем. Действительно, в абстрактном мире, в частности, таком как математи- ка, где объектом является, например, дифференциальное уравнение Г —+ y(t) = ku(t), подав на его dt вход у(г) = 8(г) при [у(П1ш(о-О = 0, по- к лучим решение, удовлетворяющее уравнению y(t) = —e~"Т, VfG(-o°,°°) при всех t (см. рис. 4.7). Это решение играет роль ИПФ математического объекта у(0 а км (г), для которого условие (4.22) не соблюдается, и этот факт не «возмущает» нашего разума, так как оно в данном случае смысла условия «недоступно- сти прошлого» не имеет. Ведь в математике t играет роль независимой пе- ременной, отрешенной от всякого физического смысла (в том числе и от временного), поэтому она, конечно, не имеет свойства невозвратности (присущего только времени). Поэтому ее лучше обозначить сейчас какой- то другой буквой, например, Т^ + у(1) = ки(1). al
100 Н°° -теория. Часть I Нетрудно отыскать и материальную ситуацию, когда полученный ма- тематический результат приобретет физический смысл. Например, если I - продольная координата точек струны, а у - поперечное их перемещение под влиянием распределенной по всей длине поперечной силы и(/). Тогда воздействие в виде «щипка» в точке /, принятой за 0 на спокойную струну приведет к поперечному смещению ее точек не только при I > 0, но и при I < 0. Тогда ки (/) в к(Г) для вычислений реальных у(/) под влиянием про- извольных и(Г) с помощью интеграла Дюамеля. 4.2.3. Фурье-аналог преобразования Лоренца в области вещественной переменной В преобразовании Лоренца Ф($)е 1^, (см. (4.6)). Путем непосредст- венного деления полинома числителя Ф(;) на полином знаменателя пред- ставим Ф(я) = О + Ф'(я), (4.23) где Ф'($)е Z-2. D - const. (4.24) Временной аналог преобразования Лоренца сразу получаем, если счи- таем (см. параграф 4.1.2), что функции, в нем фигурирующие: Y(s), D, и($),Ф'($) - есть преобразование Фурье, так как перемножению Фурье- изображений (см. (4.7), (4.5) и (4.23), (4.24)) соответствует свертка их ори- гиналов: Уф(0 = Лф(0*иф(0= J £ф(Г-т)иф(т)</т = —оо = J[D8(r-T)+^(t-T)]M(p(T)dT= (4.25) = Оиф(г) + j Л'(г-т)иф(т)^т=у°(г)+уф(г). Здесь уф(0 = ¥(5); Лф(0.= Ф(5); ^(r) = ®'(s); иф(г)=и(5). ф ф ф ф
Глава 4. Сведения из математических основ Н” -теории 101 Рис. 4.8. К формированию компонент уф(г) Физический смысл того, что часть этой свертки при каждом фиксиро- ванном t = равна уф(г0, следует из рис. 4.8 (с учетом рис. 4.66). А именно, «взнос» в Уф(^) от S-функции, приложенной в момент т и взве- шенной (по площади) величиной иф(т), как это следует из рис. 4.8, равен ~т) (здесь (^-т) = 0 имеет смысл временного интервала, рав- ного сдвигу между моментом наблюдения и моментом т приложения дельта-функции). Значение всего сигнала у^) равно сумме «взносов» от всех S-фуикций (по всем т), т.е. значению рассматриваемой части свертки (4.25) при t = Так как момент г( выбран произвольно, приведенные рас- суждения справедливы для любых t, а значит, справедлива и формула (4.25). Пусть и(г) е 12 [0,оо), тогда и(5) = иф(5)еН2с^, (4.26) что отражает практическую ситуацию, так как функция и(Г) обычно есть сигнал. В этом случае y(p(t) = D«(r)+ J ^(г-т)и(т)«/т —«о в силу того, что Лф(г) е l2 (-00,00) (см. (4.24) и свойство 4.1), здесь te (-«>,«>), т.е. (см. рис. 4.8) yv (t) = Du(t)+J*' (г - т)и(т)«/т+Jk^(t -T)u(T)dT,t > 0; ° ‘ • (4-27) = р'(»-т)и(тМт,г<0, о
— z ____________,____________________H°° -теория. Часть 1 если ky(t) не удовлетворяет условию недосягаемости прошлого (4.22), и уф (г) = Du(t) + Jk’v(t - T)u(T)dr, t > 0; = 0,r<0, если удовлетворяет. To есть третье слагаемое правой части (4.27) при t > 0 и правая часть при t < 0 не равны нулю, только если не выполняются ус- ловия (4.22). Согласно определению оператора Ганкеля (4.14), (4.13), Гф : Н2 —> Н2 . С учетом (4.26) T0U(J) = П2Лфи(5) = Yr(j)e Н2Х, в силу чего и свойства 4.1 в области вещественной переменной функции Yr(.s) должна соответствовать уг(г) - часть уф (/), являющаяся проекци- ей уф (г) на 12 (-°®, 0], т.е. (см. (4.27)) Уг (t) = fk^(t- r)u(T)dr, t < 0; о = 0, r>0. Таким образом, Гфи(5) = Yr(S) = yr(r) = у*u(t), (4.29) ч> ’ где у** обозначен временной аналог Ганкелевой операции. Выполним спектральную сепарацию функции Ф'(^): Ф'(5) = Ф'л (j) + Ф'п (5). (4.30) Здесь Ф/Л($)е Н2, Ф'п(5)еН2‘ - соответственно устойчивая, неус- тойчивая части системы, описываемой ПФ Ф'($) Тогда <(0=л;ла)+л;п(г), (4.3D где ^фл(0 и Лфп(т) - Фурье ИПФ соответственно устойчивой и неустой- чивой частей системы, причем Л;л (I) е /2 [О,®»), к? (t) е 12 (-«.О] (4.32) (в силу свойств компонент выражения (4,30) и свойства 4:1), т.е. имеет ме- сто свойство 4.2 Фурье-связи. Свойство 42, Неустойчивость материальной системы в ^-представлении ее динамических свойств (правые полюсы в ее передаточной функции Ф'($)) Фурье-связью ф'(5) = £'(г)) отображается в качество непричинности (дос-
Глава 4. Сведения из математических основ Н°° -теории _____ 103 гупности прошлого) в их г-представлении (^(t)#O,V»e (-«>,«>)). (Лаплас- связью Ф'($).=*'(0 неустойчивость в 5 отображается в расходимость в t). Из свойства 4.2 следует, что описанию (4.1) устойчивой системы соот- ветствует в области времени при Фурье-связи соотношение (4.28), неус- тойчивой - (4.27). С учетом (4.31) (имея в виду, что характер формы k,(t) похож на к® (рис. 4.66), причем характер k'A(t) похож на уд1(1), a k;n(t) - на ya5(t) (см. табл. 4.1)) соотношение (4.27) (а именно оно в силу (4.24) отвечает рассматриваемому случаю) примет более конкретный вид: Уф (0 = +f к'^ (t - T)«(T)dx+j к'П (t - x)u(x)dx,t > 0; о г = j\n(t-x)M(x)dx, t<0. о Поскольку согласно (4.30) и свойства 4.1 к? (0 = (П = к*™ (г), t > 0; к'" (г) = к'"° (t) = 0; t > 0; = 0’ '<°>J =fc;n°*(t),' t<0, выражение (4.33) еще более конкретизируется: УФ(0 = £«(0+рфЛ (/ - x)«(x)dx +jk'n (t-x)u(x)dx, t>0; 0 ' = J £фП (t - x)«(x)dx, t < 0. о Согласно (4.20), kf* (0 = -{Г'[Ф'П(5)], Vr) = -^n(t); ^лНФЮ = {Г1 2[Ф,Л(5)]^П = к;Л(г). Тогда Уф (O = Dm(/)+J^a (r-x)M(x)dx-jkyn(r-T)u(T)dx, />0; о i . оо S-J k^n(t-T)u(T)dx, f<0. о I ЧаС™ или (4,33)’ или (4'35)’ или (437) ДО» ^<0 принадлежат 2 ~°°,0], в силу чего, а также (4.26), они есть функции (4.33) (4.34) (4.35) (4.36) (4.37)
104 ц°° -теория. Часть I дающие проекцию уф (г)е /2 (-«,«>) на /2 (-«>,0], таким образом, каждая из них в области времени представляет слагаемое [лф1/Л J из (4.12), которое (см. (4.13), (4.14)) есть Гфи($) (вследствие (4.26)). Значит (см. (4.29)), p'n(t-T>(T)rfT = 0 [¥г(5) = Гфи(5)]?=- ф = рфП°*(г-т)и(т)</т = 0 = -J Лу п(г - x)u(x)dx,t < 0; 0 = 0, t>Q. = у^и(г) = уг(г). (4.38) То есть любое выражение, расположенное справа от символа = в со- отношении (4.38) для t < 0 вместе с выражением для t > 0 представляет в области времени (при Фурье-связи функций комплексной и вещественной переменных) результат воздействия оператора Ганкеля ( Yr(s) = PoU(s)). Это временное представление обозначено = yr(f). Но тогда вслед- ствие справедливости в этом случае (4.15) <4-39) т.е. два-норму roU(s) е 1^ можно находить по его Фурье-представлению в l2 (по Y^u(f)), но и в этом случае ее находить не совсем удобно, в связи с чем выразим у*ф«(0 в пространстве состояния. 4.3. Вычисление нормы оператора Ганкеля 4.3.1. Представление оператора Ганкели в пространстве состояния Система (4.1) в пространстве состояния описывается следующим обра- зом (см. параграф 1.3.2): х(г) = Ах(0+Ви(г);| (440) y(T) = Cx(O + Du(r). Решение первого уравнения из (4.40) для начальных условий [х(О]г=о = х(0), вследствие проявления в системе принципа недоступности прошлого (в силу материальности системы), представляется так:
Глава 4. Сведения из математических основ Н°° -теории 105 х(?) = еА'х(0) +1 еА(,'т)Ви(т)4т, t > 0; о х(?) = 0, t<0, тогда решение уравнения (4.40) у (Г) = СеА,х(0) + j CeA('"T)Bu(T)dT+Du(t), t > 0; о у(?) = 0, t<Q. (4.41) (4.42) Здесь Ф($) =:[A,B,C,D], причем D получена согласно (4.23), тогда $ г г и 1 Ф'(5)=:[А,В,С,0]; е~А' = [r‘[[sl-A]’1 j,Vt[ (см. (4.20)) - матрица перехода (МП); лвс(0 ~ СеА<В, ?>0; 0, ?<0 - МИПФ, соответствующая Ф'(х), выраженная через АВС-представление системы. Представление в области времени результата воздействия оператора Ганкеля - связано с МИПФ (см. (4.38)), соответствующей неус- тойчивой компоненте Ф'п(з) из разложения (4.30), которой отвечают (аналогичные приведенным в начале этого параграфа) описание и характе- ристики в пространстве состояния, выражающиеся через ABCD-представ- ление неустойчивой части системы (4.1): Ф'П(«)=:[АП,ВП,СП,О]. (4.43) Но в (4.38) фигурирует не к'п (?), а к'^ (?), которая связана не с МП Х' =|r1^sI-Anj‘j,Vf , асМП еА"' = ф'1 {[si-Ап] ‘j, к^вс(?) = сП<П'Вп. (4.44) Здесь кф"яс(О - АВС-представление к'фп(?). Выражение (4.34) возникло в результате выполнения операции обрат- ного преобразования Фурье над Ф п (s). Поскольку 7 Зак. 108
Н°° -теория. Часть I 106 СП(Л-АП)-'ВП=Ф'П^), а сп, Вп - const, функция (я-Ап)'‘ имеет полюсы только в правой полуплоскости 5, поэтому если обратное преобразование Фурье выполнить над ^г1-Ап) то аналогично (4.34) получим уточнение: 0, t>°> (eA"')°*r<0, где аналогично (4.36) 1е А"' Г = -СА"< = Jr1 Li - А п Г* 1 Vr \ ч> J v I V- J ! (4.45) (тогда (см. (4.44)), -с" (».'«>}. и (см. (4.38)) Уг<г> = Ч*вси(') = -спJеАП('"х)Впи(т)с/т, t < 0; о 0, г>0. (4.46) у^ обозначено ABC-представление у^ (представление в простран- стве состояния). 4.3.2. Условия эквивалентности в пространстве состояния нормы результатов воздействия оператора Ганкеля в области комплексной переменной Правую часть (4.46) при г < 0 можно представить как -Cnef' J еуА"тВПи(т)</т, t < 0 = о = • -СЧ^^вПиМЛ. ,<0 о (4.47) после чего в интегральном сомножителе (по аналогии с выражением (4.41), в котором х(0) = 0) нетрудно узнать [хфП(О](=о = х„(0) - эквива- лентные начальные условия, явившиеся следствием влияния на состояние с стемы ( . ) в момент t = 0 будущих значений входного сигнала и(г), что в данном случае вполне логично, так как не удовлетворяет принципу недоступности прошлого: * 0,г > 0. Таким образом,
107 (4.48) Глава 4. Сведения из математических основ —----------------------------------п -теории 00 г ~JevA TBnu(t)dT = х„(0). О Тогда правая часть (4.46) принимает вид: СПе^Ч(О), к О, Она (по аналогии с (4.42) при u(t) = 0) описывает выходной сигнал у (0 абстрактной динамической системы, представленной к* , „ эквивалентных начальных условий (хи (0)), причем, выходной сигнал вы ражающий поведение этой системы в текущем прошлом, так как считать (в силу условия t < 0), что оно развивается от t=0 в oZrZ° сравнении с реальным случаем) сторону: у v Cnef'xu(O) = y„n(t), ко. (449) Характеристика к'фп определяется неустойчивой частью - слагаем»» Ф'п(*) сепарации МПФ материальной системы (4.1) (отсюда индекс П при сигнале уфП(0 )• Учитывая (4.45), уг(Г) можно выразить через реакцию материальной системы: уг(Г) (см. (4.49)) - есть текущая (в момент t) реакция, направ- ленная в прошлое, неустойчивой системы (4.43), не удовлетворяющей условию недоступности прошлого (см. (4.45)) (обозначим такую систему (4.43, Vf)), на эквивалентные начальные условия, определяемые будущи- ми значениями входного сигнала. Эквивалентные начальные условия оп- ределяются (см. (4.47) и (4.48)) как значения вектора состояния в момент с = 0 от сигнала и(т), t е[0, °°), приложенного в момент г = 0 при нуле- вых начальных условиях к системе (4.43, Vf), аргумент МП которой ин- вертирован. Или обобщенно: yr(t) - результат действия оператора Ганкеля (поро- жденного исходной системой (4.1)) на входной сигнал u(t) - есть свобод- ное движение (развернутое от момента t = 0 в прошлое) системы, опреде- ляемой неустойчивой частью Ф/П(г) исходной системы, - такое движение этой системы, которое вызвано эквивалентными начальными условиями, формируемыми системой, связанной с Ф'П($), из будущих значений входного воздействия. Еще более обобщенно: уг(0 - это «прошлая» реакция некоторой сис- темы (связанной с неустойчивой частью той системы, которая породила оператор Ганкеля) на будущие значения приложенного к ией входного воздействия. 7*
108_____________________________________________Я °°-теория. Частьт Описание системы в пространстве состояния порождает две специфи- ческие проблемы: 1) сомнение в возможности с помощью tn компонент управляющего сиг- нала придавать п компонентам вектора состояния любое требуемое значение, если т < п; 2) сомнение в возможности по наблюдениям за г-компоиентным входным сигналом получить информацию о п компонентах вектора состояния, если г < п. Эти проблемы решаются, как известно, введением понятий, соответст- венно, управляемости и наблюдаемости: система (4.40) является управ- ляемой, если существует такой м(1), который за конечное время переведет ее в любое требуемое состояние из исходного; и система (4.40) является наблюдаемой, если по наблюдениям за выходом на некотором интервале можно определить ее состояние в начале этого интервала. Нетрудно заметить, что выражение (4.49) описывает процесс перевода системы (4.43, Vr), выражающий сущность проблемы ее управляемости: С" _>/2 (-оо, 0], поэтому назовем его описание оператором (хоть это и не оператор) управляемости ¥<. (хи(0)). Выражение (4.48) описывает про- цесс, выражающий сущность проблемы наблюдаемости этой системы (правда, наблюдаемости хи(0) по будущему сигналу и(0): 1г [0,~)-> С" , назовем его описание оператором наблюдаемости Y, (м(т)). То есть x,(O) = 'P,u(I).>F,4M.um = -Je/n’Bnu(T)dT, (45Q) (для Ф'п(а)): *2[0,оо)->С"*; уфпМ = Уг(0 = 'Исхи(0) = ТСАВСх«(0) = Спе^'хи(0), t <0,1 (4Я) (для Ф'п(а)): Сл-»/2(-~,0]. Из (4.46), (4.47), (4.50), (4.51) следует: Yi =,Pc(Teu(0)j<0. (4.52) ▼лес Для реализации очевидно желаемого (см. (4.39)) кд-ы: (4-и) нужно, чтобы отображение у. и -»и было взаимно однозначным [15, 25], для чего требуется, чтобы: 1) взаимно однозначным было отображение —» к^с , а для этого не- обходимо пользоваться в этом отображении только так называемой
Глава 4. Сведения из математических минимальной ABCD-реализацией стве состояния. J>chob Н”-теории системы Ф'п W П> 29] в прОстран. Кроме того, согласно (4.52) требуется- .2) «ЫЬ преобразование (е„. (4.31)) „о фактически аитиваие™, трйов»ию, вдержке, . управляемость системы (4.43, Vt), и требуется У понятии 3) чтобы преобразование ¥е (см. (4.50)) также было взаимно однозначным что эквивалентно требованию, содержащемуся в понятии наблюдаем^ сти этой системы. Таким образом, для соблюдения условия (4 53)нГоб ходимо и достаточно выполнение требования 4.1 к системе (4 431 Vt Требование 4.1. v ' " 1) ABCD-реализация системы должна быть минимальной; 2) система должна быть управляемой; 3) система должна быть наблюдаемой. 4.3.3. Норма оператора Ганкеля и ее вычисление Линейный оператор F, для которого является ограниченным [25]. Точная верхняя грань этого ограниченного отношения (наименьшее из возможных значений С) называется нормой оператора F и обозначается ||f| И=suptt=sup вFu«• u II«II МН Оператор, если он задан явно [21], дает «функцию-результат» y(t), по- лучающийся вследствие выполнения некоторой операции F над «функци- ей - независимой переменной» и(г), и в (4.54) речь идет о норме именно операции, а не норме результата ее действия, как это было в главе 1. Если оператор представлен матрицей (как и в нашем случае (см. (4.46))), то [37] |F| = A™xF-F=5; (4.55) — корень квадратный из максимального собственного числа матрицы F~F , он (о^- ) называется максимальным сингулярным значением матри- цы F. То есть (4.55) является так называемой спектральной нормой мат- рицы F - той из всевозможных ее норм, которая имеет минимальное чис- ленное значение [8]. Символ F~ означает оператор, сопряженный опера- тору Р. - это оператор, обладающий свойством (FH,y) = («,F‘y)
-I1 °_____________________________________________Я “ -теория. Часть X (левая и правая части выражения - соответствующие скалярные произве- дения). Пусть F: Н-+Н, и, ye Н, где Н - некоторое Гильбертово про- странство. Оператор F~F является самосопряженным (эрмитовым) (в том смысле, что (F~F)~ = F~F), а силу чего все его собственные числа дейст- вительны и неотрицательны [15], отсюда становится понятной причина выбора матрицы, максимальное собственное число которой определяет норму (4.55), - тогда 8 не может представлять собой корня квадратного из отрицательного числа. Норма оператора ук определяется как (4.55) в силу того, что он за- дан матрицей, причем она вещественная (см. (4.46)), поэтому поэтому = (4'56) Более того, оператор ук - оператор представленной ABCD-матрицами системы (4.43). В этом случае оператор с выражается через ABCD- матрицы системы, сопряженной системе (4.43) [21], т.е. системы S* г **1 (Ф'п)c(s)=: АпС,ВпС,СпС,0 , (4.57) где Ап<? =-(Ап)т; ВпС =(СП)Т; Сп<? =(ВП)Т. (4.58) Здесь уместно сделать замечание. Замечание 4.1. Используя формулу (1.53) (п. 1.3.2), с учетом (4.58) не- трудно непосредственно убедиться, что операция сопряжения переносит нули и полюсы Ф'п (s) через мнимую ось (симметрично ей) и транспони- рует матрицу Ф'п($), т.е. (Ф'П)С($) = (Ф'П)Т(-$) = (Ф'П)~($), что при необходимости и будет использоваться далее. Из (4.58) следует, что если исходная система неустойчива, то сопря- женная ей - устойчива (в силу изменения знака у матрицы Ап ), и наобо- рот. Это может показаться странным, ведь сопряженная система - это сис- тема, у которой нормальная ИПФ (fc,n)£(tc) (представляющая сечение ее ИПФ (*'п)с(/с,вс) по переменной tc при фиксированной (*'n)c(;c,vCj )) имеет форму сопряженной ИПФ исходной системы £'пс(и) (представляющей сечение fc'n(t,v) по переменной и при фикси- рованной t ((Л/П)(<|.1>))). Стационарная система имеет такую ИПФ, сече-
Глава 4. Сведения из математических основ Н°° -теории 111 ние которой по t и по V, как известно, совпадают. На рис. 4.9 изображена часть поверхности fc(f,u) - ИПФ для неустойчивого апериодического зве- на W(s) = —-—, (fc(f,v)sfc'n(t,v) = ea('~v\a>0), удовлетворяющего s — сх принципу недоступности прошлого (4.22). Из рисунка видно не только то, что форма нормальной (сравним, например, к'п(г,О) и ^(г.п,)) и со- пряженной (сравним к'п (ti,и) к'п (г2,и)) ИПФ стационарной системы не зависит от места сечения; и что, в силу этого, формы ее нормальной и со- пряженной ИПФ совпадают, но еще и то, что: 1) нормальные ИПФ возрастают, а сопряженные - убывают, т.е. исходная система неустойчива, а сопряженная - устойчива; 2) с формой нормальной совпадает форма сопряженной, если в последней изменять независимую переменную в обратную (в сравнении с естест- венным направлением) сторону; 3) в силу справедливости для сопряженной системы принципа недоступ- ности прошлого, ее нормальная ИПФ (k'n)c (tc) (жирный пунктир на рис. 4.9) совпадает не с сопряженной ИПФ исходной реальной системы Л'пс (о) (жирный штрихпунктир на рис. 4.9)), а с куском сопряженной ИПФ исходной системы, не удовлетворяющей принципу недоступно- сти прошлого, причем с тем, который явился следствием именно невы- Рис. 4.9. ИПФ н Фурье-ИПФ неустойчивой системы
112 о- -----------------------------------------—------2££P2i_4acTb I На рис. 4.9 основное внимание уделено Л'п(»,и) (а не " первых для того, чтобы на примере уже хорошо знакомой из классичес^' теории линейных нестационарных систем характеристики удобнее пК°Й браться в рассматриваемых (показавшихся странными) свойствах и> женной системы, после чего, во-вторых, учитывая также свойства 4 1 42' нетрудно использовать представленную на рисунке ИПФ для получен 2’ представления о непосредственно интересующей нас Фурье ИПФ д именно, поскольку Ф'п(х) содержит только правые полюса, k^n(t,D) есть поверхность, которую можно построить на основе, например, двух сече- ний, изображенных жирными штриховыми линиями - для этого достаточ- но измерить их знак (сравни УдзЮ и уд5(0 втабл. 4.1), т.е. ^п(г,и) име- ет форму, три сечения и нижняя грань ступеньки которой представлены на рис. 4.9 жирными пунктирными линиями; (к^)с(tc,vc) совпадает с по- верхностью, представленной жирными штриховыми сечениями (так как (Ф'п )c(s) содержит только левые полюса). Поэтому (поскольку е^П)Т',/>0 имеет форму, подобную форме ^n(r,u) сечений по г, а у£(() есть реакция системы (к^)с(tc,vc) на u(tc) при нулевых началь- ных условиях), с учетом (4.58), о - J (Сп)свуА )С('‘-т)(Вп)с11(г)</т = >'r^c) = Yc<# u(rc) = Q пт = -J (Вп)те;(А } (,'"T)(Cn)Tu(T)dT, гс>0; О, tc<0, т.е. «(<с) = ^лж(Ч%с«(<с)). <459> 9ЛВС где по аналогии с (4.46), учитывая свойство дуальности [21] (если система (4.43) управляема (наблюдаема), то сопряженная ей (4.57) наблюдаема (управляема), и наоборот), а также (4.50), (4.51), имеем: 'p*c(,)s'F^ww='pc^cf (•)=-(вп)т^(аП)Ч(*).^ >0: <4-60) ^(-) = ]4АП)ТТ(СП)Т(.>/Т. (4-61) 0 Ненулевые собственные числа оператора Ук<рдвс Тк<рлжс совпадают с ненулевыми собственными числами оператора , где (см. (4.50), (4.51), (4.60), (4.61))
Глава 4. Сведения из математических основ -теории ИЗ ^х(О)^'Ре(Ч'есх(О)) = -]е;АпхвП(_(ВП)Те-(АпЛх(О)Мт=> о ~ (4.62) Ln =4\V =р/^(Вп)те?АП>Т\1т о называется грамиан управляемости; о L"x(O) ± VC^XO)) = J e(vAn)T\Cn)'rCnef \(O)dt = -оо 7л-(аП)Т'ГГ’п\тГ'п»-Апг„/п\л - J ev (V ) С ev x(O)dt => (4.63) о => L^1 = Ч'/Х = jе;(АП)Т\Сп)тСпе/^г 'о называется грамиан наблюдаемости. Действительно, пусть X - собственное число оператора vc V — ф сф сф ф ^КфлясЛ^Флвс е ~с Тс”« (см. (4.59), (4.52)). Это значит, что 'Ff'pC'Pc4>±Xu, где u(t) - собственный вектор, соответствующий этому собственному числу. Применив к левой и правой частям этого равенства оператор Ч*е, и так как 4,<и = хм(0) (см. (4.50)), имеем: ’Р<с'РссЧ'сЧ'Л(0) = ^и(0). что с учетом (4.62), (4.63) дает Z^*41x(0) = kx(0), т.е. подтверждается тот факт, что X (собственный вектор ?кфд>с7кфЛвс)яв' ляется и собственным вектором 1^1^ . Но тогда л С л. _ 1 7^ гП лшах У Кц>АвсУ К<рЛВС лтахъс Ч и (см. (4.56)) Ik Кфляс II = ’ а с учетом (4.53), (4.39), (4.54) |г.|=A-W ,4Ы) Грамианы же легко находятся из решения соответствующих уравнений Ляпунова: АП^ + £?(АП)Т=ВП(ВП)Т; (4.65)
114_______________________________________“°-теория. Частьд (A")T4"+4nA"-(c")Tc". (466) Тот факт, что грамиан управляемости удовлетворяет уравнению Ляпу, нова (4.65), получим, интегрируя от 0 до °° результат дифференцирования выражения вуА 'Bn(Bn)Tev(A ) ' not: > = 1л[ = /(-Апе/П'Вп(Вп)те;(АП)Т'-е;АП'Вп(Вп)т^АП>Т'(Ап)т)Л== о' = -Ап - /е;АП'Вп(Вп)те;(АП)Т'Л (Ап)т = = -AnLj? -L"(An)T. Исходное выражение этой цепочки равенств f—/е;АП'Вп(ВП)те;(АП)Т')й?Г = кАП'Вп(Вп)те;(АП)Т'Г = -Вп(Вп)т, • dt ’ ' L Jo так как в силу (4.45) и свойств Ф'п($) (которой соответствует (Я-Ап)-1). Таким образом, эта цепочка равенств привела к выражению (4.65). Аналогично можно получить выражение (4.66). 4.4. Физический смысл широко используемых норм И ИХ ВЫЧИСЛЕНИЕ Этот вопрос уже нашел свое отражение в главах 1 и 2, а также в преды- дущем параграфе (в связи с вычислением нормы оператора Ганкеля). Здесь будут изложены некоторые еще не затронутые нами его аспекты. 4.4.1. Физический смысл норм Согласно главе 1, для u(t): R —> R, ’ «• Ъ Н = . Пусть и(0 - ток через резистор сопротивлением 1 Ом, тогда мгновен- ная мощность, выделяемая на этом сопротивлении, равна u2(f)dt, а общая
Глава 4. Сведения из математических основ Н°° -теории 115 энергия - интегралу от этой величины (т.е. ). Следовательно, квадрат 2-иормы сигнала представляет собой его энергию. Бесконечность-норма сигнала - точная верхняя грань его абсолютной величины: т.е., например, для сигнала u(t) = 1- е("° (см. рис. 4.10), ||u||” = 1. Для линейной системы с передаточной функцией Ф($): С-»С ОО 2 ||фЦ2 = J Ф*(»Ф( j(D)d(0 , u> <о (сравни рис. 1.2 и 1.5, имея в виду, что j(0 = s, а при этой замене перемен- ных векторы, изображающие значения независимых переменных, поворачи- ваются на 90° по часовой стрелке), здесь Ф* - функция, комплексно- сопряженная функции Ф. В соответствии с теоремой Парсеваля (4.15) два-нормы для временной и частотной областей равны, поэтому 2 2 те. ЦфЦ* есть энергия реакции этой системы на дельта-функцию при нуле- вых начальных условиях. Для SISO-системы Н“ -норму Ф(я) можно ин- терпретировать как расстояние иа комплексной плоскости от начала коор- динат до наиболее удаленной точки кривой ее АФЧХ, или, что то же са- мое, как максимальный пик ее АЧХ.
116 __________________________ Н°° -теория. Часть I Теперь рассмотрим входной сигнал и(г) системы Ф(^) (рис. 4.1), при- надлежащий семейству таких, что их ||и||2 £ 1. Тогда Ь(')||22 = II Y(< = J |ф( J(0)|2 |l/(>ш)|2 du <; «71 <-*О (4.67) т.е. бесконечность-норма ПФ системы есть точная верхняя грань корня квадратного из коэффициента усиления этой системы по мощности для семейства сигналов с ||«||2 = 1, имеющих различную форму частотного спектра. Кроме того, поскольку ||ФЦ =sup{M2 = М2 ;ме /г[0.вв).М2 £(4.68) №-норма Ф(^) есть корень квадратный нз энергии выхода при подаче на вход сигнала с единичной энергией, т.е. с наибольшей энергией из ука- занного семейства сигналов [34], и бесконечность-норма ПФ, как функции комплексной переменной, играет роль нормы оператора (||Ф||), представ- ленного этой функцией (см. (4.54)), откуда видно, что это справедливо н для MIMO-систем, но вот по поводу свойства ||Ф|| быть оценкой коэффи- циента усиления по мощности можно лишь сказать, что оиа некоторой ее оценкой остается, однако конкретизировать эту оценку (как в случае SISO- систем) нельзя, так как получить неравенство типа (4.67) не удается, ведь 00 ||y(r)||2 = ||Y(f)||2 =^~ f п[/т(-;ш)ф'г(-»Ф(»1/(»с/(0. «71 * 4.4,2. Вычисление Я2-нормы Я2-норма передаточной функции конечна, когда Ф'($) строго пра- вильная и не имеет особенностей на мнимой оси. Для передаточных функ- ций невысоких порядков Я2 -норму можно вычислить, пользуясь ее опре- делением: |2 = 2^ J Ф'*(-»Ф'( jco)d(D = —• J Ф'(-з)Ф'(5)Л = = ~:^Ф/(-«)Ф'(5)с/з. 2nj J Перейти от интегрирования по мнимой оси к интегрированию по замк- нутому контуру можно в силу строгой правильности Ф'(а) [20]. Следова-
Глава 4. Сведения из математических основ Н°° -теории 117 тельно, можно определить Н1 -норму Ф'(5) как корень квадратный из суммы вычетов функции Ф'(—s)®'(s) в ее полюсах в левой или в правой полуплоскости (в силу симметричности расположения полюсов подынте- грального выражения относительно мнимой оси плоскости 5). Но чаще для определения Н2 -нормы удобнее пользоваться описанием системы Ф'($) в пространстве состояний (4.40) (напомним, что матрица D для нее равна нулю, a K'ABC(t) = СеА'В, t > 0). Воспользовавшись определением Н2 -нормы матричной передаточной функции и равенством Парсеваля, получим: (t)]dt = j tracef ВтеАТ'СтСеА'вЪг = о J J trace[K^BC(t)KABC о (4.69) = trace BT|eA'rCTCeA,AB = trace [ВТЦВ], . о (см [10], выражение, аналогичное (4.63)), где L' - грамиан наблюдаемо- сти, определяемый (см. параграф 4.3.3) в результате решения уравнения Ляпунова ATL' +L'eA+CTC=0. В силу дуальности понятий наблюдаемости и управляемости можно применять аналогичную процедуру с использованием грамиана управляе- мости L': решение уравнения Ляпунова ATL' + L'A+BTB = 0, M2 = [trace (CL'CT)^2. (4.70) Видно, что Н2 -норму можно определить за конечное число шагов, так как уравнение Ляпунова - линейное матричное уравнение, которое разре- шается (хотя и не всегда просто) аналитически. 4.4.3. Вычисление Я “-нормы Вычислить Н”-норму Ф'($) намного сложнее, чем №-норму. Если пользоваться определением (см. главу 1), то нужновскать частоту, удовле- творяющую уравнению ^|ф(Н>0
Н°° -теория. Часть I 118 (или "8ирЛтахФ'т(с-7<1))Ф'(е + /с<))) = -^-8ире[ф'(с + ;<В)1 = о . аа>с>о dtitcx) JU'' для случая матричной передаточной функции). Это можно сделать, когда Ф'($) имеет простой вид, а вычисление сингулярного числа многочленной матрицы - сама по себе очень сложная задача. Поэтому применение такого способа существенно ограничено, и №°-норму ищут с использованием представления ф'(г) в пространстве состояния (4.40). Для строго правильной передаточной функции Ф'(г) = С(£1~А)-|В (таккак D = 0) определим матрицу Гамильтона: и* А “Ч -ССТ -Ат (4.71) (4.72) порядка 2лх2л, где п - порядок матрицы А, и сформулируем следующую теорему. Теорема 4.1. ||Ф')|'” < 1, когда соответствующая матричной ПФ Ф'(5) матрица Гамильтона не имеет собственных чисел на мнимой оси. (Если рассматривать Ф(г) (с D*0), то матрица (4.72) имеет более сложный вид, и в теореме 4.1 появится дополнительное условие: ||D||<1 [44].) Доказательство. Сначала покажем, что (I - Ф'-ф')-1(г) =: (1 - Ф'-ФТ1(О А ВВТ -СТС Ат о вт в о I То есть покажем, что (4.73) Здесь (1-Ф'~Ф')~'(г) обозначена функция (I-Ф'(j)O'(s))-1 ; (1-ф':ф')*-,(Г) - символ, обозначающий ее представление в пространстве состояния, - ее ABCD-представление. Другими словами, нужно показать, что Н является A-матрицей ABCD- представления передаточной функции (I - Ф' Ф')1 (г). Для этого выведем ряд формул, описывающих некоторые операции с передаточными функ- циями в АВСВ-предсТавлении. s S Пусть Oj =:[*!,Bj.CpDj и Ф2 =:[A2,B2,C2,DJ. Определим ABCD- реализацию Ф = Ф]Ф2. Для этого выразим уравнения а пространстве со-
Глава 4. Сведения из математических основ Н°° -теории__—L-— стояния для Ф через такие уравнения для Ф1 и Ф2 с учетом того, что у = У1’ u = u2> ul =У2’ х = [*1 Х2]Т (см. рис. 4.11): х, = А1х1 + В1и1; У1 =C1x1+D1uI; Х2 = А2Х2 B2U2', .У2=С2Х2+В2Н2, х1 = AjX, +Bi(C2x2+D2u); х2 = А2х2 + В2и; => у = С]Х] +Dj(C2x2 + D2u), x^AjXi+Bjj; x2 = A2x2+B2u;_* (4.74) y=C1x1+D1y2; y2 = C2x2+D2u, ГА, BA1 [BjM [ 0 a2 J [ b2 J D.C,]x + D,D,U. Рис. 4.11. Последовательное соединение систем . Можно также взять х = О' *1/ Cjx+D^u. В2 ] 1 [вдъ] и; Х2 , тогда последнее выражение примет вид *1J ' а2 [ва У = [В 1^-2 Из последних двух представлений следует, что Ф = Ф)Ф2 =: A] BiC2 BjD2 [0 a2 ]’[ о 1Г в2 ' А1 BjD2 в2 J ,[Ci D1C2],D1D2 (4.75) а2 В,С2 Для определения ABCD-представления Ф"1 запишем систему уравне- ний для Ф(л) в пространстве состояний и поменяем в ней вход u(t) и вы- ход y(i) ролями: х = Ах + Ви; у = Сх + Du, .(ЦС2 х = Ax+B(-D~'Cx+D~'y); u = -D'1Cx+D'1y, х = x = (A-BD-1C)x + BD~’y); u = -D1Cx+D’y,
120 Н°° -теория. Часть I => Ф=:[А,В,С,D]"1 =. [А - BD -1С,BD '*, -D *C,D 1 ], (4.76) если D является обратимой. Опираясь на выражение (4.71), когда D * 0, нетрудно убедиться, что ф' = фт(-5)=:^-Ат,Ст,Вт,От]. . (4.77) Определим ABCD-реализацию ф = Ф] + Ф2. С учетом того что *1 .*2. У = У1 + Уг! u = «i =«2>х = (-) (см. рис. 4.12), выражение (4.74) примет вид: Xj = А1х1 +B[U, х2 =A2x2+B2u, y^C^j+DjU, y|SC2x2+D2u, таким образом, (4.78) Уравнение (4.40) для случая Ф(«) = 1 имеет вид: x(f) = 0x + 0u; у(0 = 0х + и, откуда следует, что s 1=:[0,0,0,1]. (4.79)
Глав» 4. Сведения из математических основ Н°° -теории 121 Используя полученные формулы (4.75) - (4.79), определим (1-ф'-ф')-'(5) с учетом того, что ABCD-представление Ф' имеет D = 0: А -СТС Полученная формула совпадает с (4.73), т.е. Н действительно является A-матрицей (1-Ф'"Ф') *($). Но тогда, если собственные числа Н не лежат на мнимой оси, то и по- люса (1-Ф'~Ф') *(s) не лежат на мнимой оси, а значит (1-Ф"Ф')-1 ($) не имеет мнимых нулей, следовательно Ф'~(у(0)Ф'(Усо)*1 для всех (О. Рас- смотрим одномерный случай. В силу строгой правильности Ф'(х) значе- ние |Ф'($)| на о° равно 0, следовательно, условие Ф'"( у(0)Ф'(у(0) =| Ф'(» |2* I для всех и означает, что АЧХ не доходит до уровня 1, а значит и || Ф' |Г< 1 • Для матричной передаточной функции аналогично можно сде- лать вывод [39]: максимальное сингулярное число МПФ Ф'($) ограничено сверху значением 1, т.е. || Ф' ||“ < 1, если Н не имеет собственных чисел на мнимой оси. Теорема доказана. На основе теоремы 4.1 строится алгоритм поиска (методом проб) Ц Ф' ||” с заданной точностью с помощью исследования спектра матрицы Н. Фактически с заданной точностью ищется не сама Н" -норма, а ее верхняя оценка. Для этого масштабируют Ф', т.е. выбирают положитель- ное число у такое, чтобы выполнялось условие ||y-1G || ”< 1, эквивалент- ное ||G|| ” < у. Масштабирование Ф'(«) в пространстве состояния можно осуществить, взяв, например, вместо В матрицу By'1, тогда соответст- вующая матрица Гамильтона имеет вид
-теория. Часть! (4.80) 122 А ВВту“2 -СТС -Ат Н = Для выбранного у ищутся собственные числа Н, которые проверяются на близость к мнимой оси и в соответствии с результатами, выбранное ра- нее у изменяется в большую или меньшую сторону. Вычисления произво- дятся до тех пор, пока не достигнута требуемая точность. Из приведенной процедуры видно, что Н “ -норма уже не может быть вычислена за конечное количество шагов (как Я2-норма). Для оценки с заданной точностью необходим итерационный поисковый процесс.
Глава 5. Классический метод решения 123 ГЛАВА 5 КЛАССИЧЕСКИЙ МЕТОД РЕШЕНИЯ ЗАДАЧИ ОПТИМАЛЬНОГО Н°° -УПРАВЛЕНИЯ (ПОДХОД 1984 ГОДА) Так же как //“-теория управления (см. главы 2, 3) опирается на ре- зультат Н”-теории (см. главу 1), //“-теория оптимального управления использует результаты теории -оптимизации, очень характерным для которой является решение проблемы Нехари [24] (1957 г.). 5.1. Проблема Нехари Проблема Нехари состоит в поиске устойчивой матрицы X(s)gH", которая аппроксимирует (представляет в Н°° -пространстве) неустойчи- вую матрицу R(e С) наилучшим образом - так, чтобы ошибка этого представления (R-X) была минимальна в смысле ее //“-нормы (см. рис. 5.1). Конкретный вид фигурирующих здесь пространств без необхо- димости не уточняется (его, если потребуется, легко установить по кон- кретному виду используемых функций). Предполагаемое решение про- блемы очевидно (см. рис. 5.1), оно определяется ортогональным проекти- рованием Пл вектора Ru на пространство Н2, т.е. Хор1 должна быть матрица, представляющая оператор Теплица &R, a (R-XopJ - оператор Г анкеля Г д, что и подтверждает теорема Нехари. 5.1,1. Теорема Нехари Теорема 5.1 (Теорема Нехари). Пусть R(s)g£“, (5.1)
—-----------------------------------------2C-теория. Часть i тогда ' '— jMJRW-X(J)|L-||r,l- (52) Доказательство. Пусть u(s)e Нг, (5 3) тогда E(s) = (R - X)u = AR_xue L, , и его сепарация (см. параграф 4.1.2 и рис. 5.1) поэтому содержит обе компоненты: Е = ЕЛ+ЕП; ЕлеЯ2;ЕпеЯ/. Тогда ЦЕ||2=(Ел + Еп,Ел+Еп) = = (Ел, Ел) + (Ел, Еп) + (Еп, Ел) + (Еп, Еп) = ||еп ||^ + ||ел |*, так как Ел 1ЕП. ЕЛ = ПлЛи_хи = Пл (R -Х)и = Пл (Ru) - Пл (Xu) = 0Ru - Xu, так как (см. (5.1), (5.3)) Xue Н2, а Пл (Ru): Н2 -» Н2 (см. (5.1), (5.3), а также (4.13), (4.14)). Еп=Пп AR_xu = nn(R-X)u = nn (Ru)-nn (Хи) = Гли, так как Пп (Ru): Н2-ьН2 (см. (5.1), (5.3), а также (4.13), (4.14)), а ХиеЯ2. Отсюда следует: sup |И2 = sup (||0Ru -Xu||2 +|Гяи|й) > sup ||Гяи |g . Ци||г=1 Н=1' ' IMH
Глава 5. Классический метод решения__________ ^5 Это неравенство возможно, так как в общем случае Xu*0Ru (см. рис. 5.1). Если Xug0ru,to sup ||E|g= sup ||rRu|g=||rR|| (CM. (4.54)), H!2=1 Hi=i и в силу того, что при всех остальных значениях X sup ||E|g> sup ||rRu|g, Mj=i Mj=i <5-4) XeH H=1 H° XGH ll“lh=1 леи lluih=1 xeH т.е. - точная нижняя грань квадрата нормы оператора R-X, но, посколь- ку он задан матрицей, |(R-X)| = or_x(cm.(4.55)), что по отношению к матричной функции, описывающей этот оператор (а именно она составляет предмет нашего инженерного интереса), есть ее оо -норма (см. (1.43), (1.39), (1.17)), поэтому " llulk=1 ХеН что с учетом (5.4) дает w |(R-Xt -|г„|. ЛС Л Теорема доказана. Таким образом, действительно (см. рис. 5.1) Хор1 =0R. 5.1.2. Определение 0R -оптимальной проекции функции R(s)e КД» на пространство КЯ“ Для решения этой проблемы потребуется две векторные функции f (s) и g (s), называемые парой Шмидта, определяемые следующим образом: где f(s)=;[An,w,Cn,0]; g(s)=:[(-An)T,v,(Bn)T,o], R'n +D = R'nD (s) =: [An ,Bn,Cn,Dn]; (5.5) (5.6) (5.7)
126 Н” -теория. Часть I R(s) = D + R'(s); R'( 5) = R'n (s) + R'a (s) - сепарация R'(s) (аналогично (4.23), (4.24), (4.30)); ш - собственный вектор оператора, задаваемого произведением грамианов (4.62), (4.63): £.2ь"<о = Х2ш, (5.8) здесь Л - соответствующее этому собственному вектору максимальное собственное число; V = (5.9) тогда из (5.8) z£v = Xta. (5.10) Из (5.9), (5.10) видно, что V и (О имеют парное свойство по отношению к грамианам. Парным свойством обладают и введенные векторные функ- ции (5.5), (5.6) (отсюда их название), правда, проявляется оно по отноше- нию к оператору Гаикеля и к сопряженному ему: r«g = Xf; (5.11) r£f=Xg. (5.12) Докажем справедливость свойства (5.11), (5.12) пары Шмвдта (по ходу доказательства станет понятным, почему эти функции имеют вид (5.5), (5.6)). Для этого добавим к левой части уравнения Ляпунова (4.65) два сла- гаемых ±sZ£, тогда получим - (Я - Ап ) I? +I? Г Л+(Ап )Т }= Вп (вп )Т. Теперь умножим обе части равенства слева на Сп (si - Ап ) и справа на v, что приведет его к виду \-1 Гптп v + Cn (sI-An)'1Z^v = = Cn(sI-An) 1Bn(Bn)T^sI + (An)T^ v. Отсюда, прибавив Dg к обеим частям, с учетом (5.10), (5.5), (5.6), а также того, что R/no (s) = Сп (si - Ап j'‘ Вп + D (см. п. 1.3.2) (из такого же соотношения для (5.5), (5.6) видно, что g и f именно векторы, а не матрицы), имеем: -Cnz£ (si+(Ап )тv+Xf + Dg = Сп (si - Ап)~‘ Bng + Dg,
Глава 5. Классический метод решения 127 или -CnZ^sI + (An v+Xf+Dg = R'nDg. Заметим, что f(s)e Н2, a g(s)e Н2; СпЦ*^1 + (апУ'j ve 7/2,R'nDe Я2 (см. соотношение (4.58) и пояснение сразу же после него), поэтому, проек- тируя последнее равенство на Н2 , получим Xf = nnR'nDg = rRg, т.е. равенство (5.11) справедливо. В справедливости равенства (5.12) убедимся путем аналогичных пре- образований над уравнением Ляпунова (4.66). Из равенств (5.11), (5.12) получаем rRcrRg = X2g; (5.13) rRrRf=x2f, т.е. пара Шмидта g,f есть собственные векторы операторов соответст- венно г^гл,глту Теперь можно убедиться, что Xopt удовлетворяет не только соотноше- нию (5.2), но и соотношению (R-Xopt)g = rRg = Xf. (5.14) Для этого обозначим h = (R-X)g (5.15) и рассмотрим ||h-rRg||22=(h-rRg,h-rRg) = (h,h)+(rRg,rRg)-(rRg,h)-(h,rRg). Но (Г л8>Ь) = (г я8»ПпЬ)= (rRg>r«-xg)= (Гя8>Гяв)> так как h = ПдЬ+nnh, a (r«g,nAh) = 0 из-за того, что ПлЬе Н2, и rR_xg = rRg-Fxg = FRg силу того, что Хе н2. Так же можно показать, что и (h,TRg) = (rRg,rRg), поэтому |h-r,8g =(ь.ь)-(гв8,гя8)=|(к-Х)8|’-(8,г;г,8). Действительно,
-!£»--------------------------------------„ЛГ^ори^Частч (Гле. Гл8) = М22 = = J tr(8TH«)rJHft>)r/f(jo))g(»)<i(e = —СО = (g.r/r/eg). Тогда с учетом (5.13) jh-r,egKR-X)BJ22-X2(8,g)S((R-X^|g|’^|,||< -(К«-М22-х!)ЫЬ (К«'х£-^)и.- В случае оптимального проектирования (см. (5.2)) |R-XopIL=||r^HX(cM.(4.14),(5.8)), поэтому |hopt -rsg||22 <0, но так как ||-||2 не может быть отрицательной, ||hopt - T/fg^ = 0, а это, исходя из свойств норм, может иметь место только если hopt - Г/eg = 0, что с учетом (5.15), (5.11) дает соотношение (5.14): . (R-Xopt)g = r/eg = Xf. Для SISO-систем из (5.14) получаем f (г) Xopt(*) = 0R(*) = R(*)-^- (5.16) Для MIMO-систем уравнение (5.14) имеет семейство решений [24], од- ним из которых является <517) « (-»)«(») Несмотря на то что компонентами формулы (5.17) (за исключением л) являются не скаляры, оио позволяет представлять его в такой форме стро- го, так как его знаменатель есть скалярное выражение. Таким образом, проблема Нехари полностью решена. Рассмотренная проблема, представляющая задачу теории Н°°- оптимизации, в силу связи свойств функций, принадлежащих соответст- вующим пространствам, с устойчивостью динамических систем может рассматриваться и как некоторая вспомогательная задача Я“-теории оп- тимального управления, что и не скрывалось при ее постановке в данной работе (см. параграф 5.1). Такую же связь с Я“-теорией оптимального управления имеет и следующая из предлагаемых вниманию задач теории Я”-оптимизации.
Глава 5. Классический метод решения 129 5.2. ПРОБЛЕМА ПОМ (ПОСТРОЕНИЯ ОПТИМАЛЬНОЙ МОДЕЛИ) (ММР - MODEL MATCHING PROBLEM) 5.2.1. Постановка ПОМ Пусть на заданную устойчивую MIMO-систему, МПФ которой описы- вается матрицей Tj е КЯ“ХП, действует сигнал и(1) (см. рис. 5.2). Требуется выбором также устойчивой матрицы Q (eRH~|Xm2) до- биться того, чтобы последовательное соединение блоков T2QT3, где Т2 е . Ti е х„, оказалось моделью системы Ti, оптимальной в смысле минимума энергии ошибки e(t), при условии поступления на вход любых сигналов ограниченной (значением С = const < <») энергии. Рис. 5.2. Схема формирования ошибки в представлении системы моделью Постановка задачи отражает реальную ситуацию. Действительно, в распоряжении изготовителя модели находится блок Q , значение элемен- тов которого он может изменять по своему усмотрению, однако размер- ность его может не совпадать с размерностью системы. Для устранения этого несоответствия необходимо использовать два (как это следует из теории матриц) блока с постоянными элементами (более простой инже- нерной конструкции) требуемой размерности. В рамках Я”-теории эта постановка эквивалентна следующей (см. п. 4.4.1): найти JSr iX Jupl|2 lE(s)ll2 = = inf sup |h -T2QT3)U(,)|g = inf (suprt ЦТ, -T2QT3||] u(f)||u(<<c ' 10 Зак. 108
___________________________________________Н°° -теория. Часть I (см. (4.54)), что с учетом (1.55), (1.43), (1.39) и (1.16) из главы 1, а также того, что ЦСАЦз £ С, дает, что требуется найти inf С||Т1-Т2ОТз£. (5.18) Q6R/Z" Оказывается, что ПОМ сводится к уже рассмотренной нами решенной проблеме Нехари, поэтому показать решение ПОМ означает, что достаточно показать алгоритм этого сведения (в результате которого должны быть по- лучены явные зависимости, выражающие R и X через (T1,T2,T3,Q,C)). Но для того чтобы алгоритм сведения стало возможно выявить, необходимо ввести в рассмотрение еще один вид факторизации - внутренне-внешнюю {или иннорно-ауторную) (см. [24], [39], [40]). 5.2.2. Понятие о внутренних я внешних функциях (иннорах и вуторах) Понятие иннора и аутора возникает в связи с проблемой обращения матричных выражений V($) и выполнения над ним операции V’(j) • Иннором {inner) (или внутренней) называется матричная функция (5-19) для которой ^(5)^=1. (5.20) V" V. V V" т ит inn out out сп.п = п спп = а а Рис. 5.3. Конфигурация иииоров и ауторов Чтобы свойство (5.20) имело место, Vinn должна иметь п £ т и пол- ный ранг по столбцам (она условно изображена на рис. 5.3а жирным пря- моугольником), так как, во-первых, после перемножения (5.20) получается квадратная матрица, сохраняющая ранг (г) исходной (который, как из- вестно [45], не может быть больше минимального из чисел т,п: г < min = т.е. ранг в этом случае определяют столбцы). И во-вторых, V^) играет роль (если бы иннор был квадратной матрицей, то соотношению (5.20) удовлетворяла бы она: =1, а обратная мат- б
Глава 5. Классический метод решения 131 рица существует, только если все т столбцов линейно независимы, т.е. ранг исходной матрицы полный (г = т). Непосредственно из свойства (5.20) вытекают, например, такие: llvlnnF|U4|F|U; ' (Vin„F,V<n^)«(F,®) (5.21) (см. (1.41) и (1.39), гл. 1). Рассмотрим скалярный случай, тогда Vfim(j)eR(s) - дробно-рацио- нальное выражение (см. параграф 1.1.1). Для того чтобы пыполляппрь свойство (5.19), V(roj(s) должна иметь полюсы, расположенные слева. Чтобы выполнялось свойство (5.20), нули V']nn(s) должны совпадать с полюсами ViWJ(s) и, поскольку операция переносит нули и по- люсы исходной функции Viwi (j) через начало координат симметрично (глава 1, сравни рис. 1.26, и 1.36), нули (s), во-первых, должны быть расположены справа и, во-иторых, должны быть симметричны относи- тельно начала координат ее полюсам. Тогда это автоматически обеспечит и совпадение полюсов VJroj(s) с нулями Vfim (s) (для окончательного вы- полнения свойства (5.20)). Таким образом, нули и полюсы V^s) долж- ны располагаться симметрично относительно начала координат плоскости s (см., например, рис. 5.4 для дробно-рациональных выражений первого, второго, и третьего порядков). * (*) а б в Рис. 5.4. Купольный портрет скалярных н'пноров 1-го, 2-п> н 3-го порядков Но в этом случае непосредственно легко убедиться, что нупольный портрет V~nn(s-) сохранит конфигурацию купольного портрета Vjn„(s) (только нули и полюсы поменяются местами). Таким образом, операция (*) оставляет нупольный портрет результата «внутри» конфигурации нупольного портрета Vinn (j), отчего и происходит название функции - внутренняя.
132 Н°° -теория. Часть I Как видно из выражения 71ЯЛ (s) (см., например, рис. 5.4а) V. (s)=s а тп() з + а ее ЛАХ представляет прямую, совпадающую с осью частот, поэтому ин- норы являются функциями полного пропускания (all-pass), и, таким обра- зом, V(s) = l -тоженннор. В [45] приведены условия, когда V(s) является нннором. Лемма 5.1. Пусть V(j)g ЙЯ”и V(j)=:[A, В, С, D], пара (А,С) - де- тектируема и Q>0 такова, что удовлетворяет уравнению Ляпунова ATQ + QA + CTC = 0, в этом случае V(s) является внутренней тогда н только тогда, когда [45]: 1)DTC + BTQ = O; 2) DTD = I. Доказательство: V (s) = С (Я - А )-1 В + D, V'(s) = DT - Вт (я + Ат Ст (см. замечание 4.1). W = DTD - Вт (Я + Ат )’* СТС (Я - А)-1 В - -Вт (я + Ат )”* CPD + DTC (Я - А )-1 В. Из 1) следует, что DTC = -BTQ и, значит, CTD = -QB, так как Q - симметрическая. Тогда W =*DTD + ВТ (Я + Ат j’1 (ATQ + Qa)(H - А)-1 В + Вт (я + АтQB - -BTQ(sI-А)"1 В = DTD + BT (Я + Ат) 1 (atQ + Qa)(H-А)"1 + + Р(Я-А)-(я + Ат)р](Я-А)~1В = ОтО + Вт(я + Ат)~1Х' x[ATQ + QA + sQ - QA - sQ - Атр](Я - А)-1 В = DTD. Но так как в силу условия 2) DTD = I, то V*V = I. Это, с учетом свойства V(s)gRW“ , и означает, что V(s) является иннором (см. (5.20)), что и требовалось доказать.
133 Глава 5. Классический метод решения _____—-—~ ~ Аутором (outor) (или внешней) называется матричная функци Voul(s)eт ,п^т г п0 (см. жирный прямоугольник на рис. 5 .36), если она имеет п строкам. . w матрида Это означает (см. рис. 5.36 и пояснения к рис. ь ^out^'out имеет обратную. Но тогда откуда следует, 4ToV"ut(VOHtV'Mt) 1 играет роль правой обрати “ атР це Vou( матрицы. ™ Опять рассмотрим скалярный вариант. Легко проверить, что не является икнором, то операция V7.P обязательно выводит пяк> купольного портрета V(s) конфигурация Ч») Ь* кон для Г» обязательно .не конфигурации VW), етнм стойсгвсм и те V(S), которые определяются к» W <5М - 1ОТ”, нить название последних. В частности, при я т \ V-' (.)« НИ-, то нули н полюсы V(3) должны быть расположены в ле- той полуплоскости, следовательно (см. рне. 5.4), они не юпюры, а » обязательно ауторы. 5.2.3. Внешне-внутренняя (яинорпо-яуторяяя) фякгоряэвдая K(s), (5-24) (mxm) Теорема 5.2. Матричная функция G(s)e RW представима в виде GW=GMtaGM„ »® (что и является иннорно-ауторной факторизацией G(s)), если ранг G(s) = const Vcoe [0,°°]. Для доказательства теоремы потребуется тот факт, что G(j)g R//^ может быть представлена в виде Gj :. О G(r) = H(.) - : - (nxm) (пхл) q ; Q (nxm) здесь Gj€ R//^r, где г - ранг матрицы G. Такое представление С(з) возможно после выполнения ряда операций, состоящих в домножении не- которых строк (столбцов) на постоянные величины и сложении или вычи- тании результата из других строк (столбцов) с целью исключения из их со- става линейно-зависимых. В матричном виде эти преобразования описы-
134__________ _________________________________//“-теория. Часть! ваются матрицами Н-1 (j) и К 1 (j) , и получается блочная прямоуголь- ная матрица h'gk1 = Gt :• o' О : О блок Gj которой состоит лишь из линейно независимых строк и столбцов. Эту операцию выполняют для поиска ранга матрицы G [7]. Операция (5.24) позволяет вернуть матрицу к первоначальному виду. Это всегда выполни- мые и устойчивые преобразования и в ту н в другую сторону, поэтому Н,К,Н",,К’,еКЯ“. (5.25) Обозначим Gj (rxr) F =H(s) ............тогда G = F (яхг) С"*") о (яХт) U"xr) (лхг) о к . (лх(т-г)) (тхл) Выполним над F спектральную факторизацию (см. (4.10а)) F = FAFn, и, поскольку H,H-1,Gi G ШН°°, Fn может состоять только из правых ну- лей G] (значит FneR[s]) (если G] (а следовательно, и G) - системы неминимально-фазовые). Для случая SISO-систем см. рис. 5.5 без штрих- пунктира и того, что в пунктирной окружности.
Глава 5. Классический метод решения 135 Нетрудно представить, как выполнить виешне-внутреинюю факториза- цию F : для этого (см. рис. 5.4а) симметрично правому нулю добавляем в левой полуплоскости одинаковые нуль и полюс (см. в пунктире на рис. 5.5), отчего F не изменится, но появляется возможность представить ее как по- следовательное соединение иннора (штрихпунктир на рис. 5.5) и системы ГддН , описываемой оставшимися нулями и полюсами, т.е. системы FA с добавленными нулями (в данном случае с одним добавленным нулем), при- чем в силу того, что РддН имеет и нули и полюсы только слева, и Ради- иБ^еШГ, (5.26) она внешняя. Как видно непосредственно из рис. 5.5, РЛдн обладает интересным свойством: F~ F=F~a«h-FMh, (5.27) причем, поскольку здесь сомножитель РддН содержит нули и полюсы только слева, он есть (F*F)a, а РАдн - только справа, значит, он (F “F)n , т.е. соотношение (5.27) можно воспринимать как спектральную факторизацию F ~ F = (F "F)n -(F "F)A, что после сравнения с (5.27) дает алгоритм поиска FAflH: FAaH=(F'F)A- Для случая MIMO-систем алгоритм спектральной факторизации для F “ F, если ранг постоянен при всех 0 < 0) < «>, приведен в [40]. Теперь легко выполнить внешне-внутреннюю факторизацию G . Пред- ставив g=[f;o]k=[f.f;’.fAot:o]k, получим G/nn = F' FAah (5.28) (так как с учетом (5.27) и рис. 5.5, (ГЛди) ~F " F‘FAjih = (Fa1h) “F Лдн FMh РАдн = 1,и GG0U/=[fMh;o]K (5.29) (cm. (5.25), (5.26)). Если G имеет полный ранг по столбцам, то процедура внешне- внутренней факторизации упрощается: выполняем спектральную фактори- зацию для G" G: G’G = (G“G)n (G"G)A = G^G^ и определяем Gout = G лди; G„w = GG^,. (5.30)
136 Н°° -теория. Часть I Если в этом случае G - квадратная матрица, то Goul и Gin„ - тоже квадратные. Существует еще ко-внутренне*внешняя факторизация G = GcoutGcinn, (5.31) где Gcout - коаутор, Gcinn - коиннор, к которым приходим, выполнив обычную факторизацию сопряженной системы G~. 5.2.4. Сведение ПОМ к проблеме Нехари Если размерность Q совпадает с размерностью Tj, то матрицы Т2,Т3 - квадратные, и тогда, при условии их полного ранга, они обратимы. Именно такую задачу ПОМ.сведем сейчас к проблеме Нехари. Теорема 5.3. Пусть в ПОМ T\eRH~xn, Т3ейЯ*л, причем Т2,Т3 имеют полный ранг, не зависящий от со, тогда ПОМ (5.18) эквивалентна проблеме Нехари с матрицами К-^Г'тИТз^У'еКСх.; (5.32) (5.33) причем оптимальное решение имеет вид: Qopt = (Тзои/) Xopt (^Зсои/) е > где Xopt - решение проблемы Нехари (5.16), (5.17). Доказательство. Согласно (5.23), (5.31) qw.|t,-t2qt3£- = inf [т2 (т2 ) ‘М(т3 )-1Т3 V III ии' ' inn J к ' е,ия * '’ci™ j = inf Т2 f(T2 )‘Ы(Т3 Г’-Ъ QT3 || I ' J * I ' / ^ош Jcoui II 1 1 II2 = inf (т2. ) Ti(T3. ) -Т2 QT3 ОейЯ” v ,вл ' с,ля оШ ^с(ш1 || (с учетом (5.21)). Сравнивая это выражение с левой частью (5.2), получаем (5.32), (5.33), что и требовалось доказать. Теперь рассмотрим первую из задач непосредственно Я “°-теории оп- тимального управления.
Глава 5. Классический метод решения 137 5.3. Задача оптимальной Н°° -стабилизации 5.3.1. Постановка задачи оптимальной Н°° -стабилизации Во второй главе (параграф 2.4) рассмотрена задача стабилизации MIMO-системы (рис. 2.4), состоящей из объекта с МПФ G(s)e RL°° и ре- гулятора C(i)e RL“ , который выбирается таким образом, чтобы сделать ее «внутренне устойчивой», причем такой, что в ией исключаются причи- ны ее негрубости из-за компенсации нулей и полюсов МПФ системы (так как компоненты G и С взаимно просты). Причем оказалось, что добиться такой стабилизации можно не единственным способом - возник параметр, описываемый функцией Q(5)eRH~ , который можно менять произволь- но, не нарушая стабилизацию. Рис. 5.6. Структурная схема оптимязяруемой системы G (л) назван объектом. На самом деле это расширенный объект, т.е. исходный объект, инженерно дополненный устройствами, технически об- легчающими условия управления им, - приводами, измерителями, ком- пенсаторами и пр., которые могут быть изготовлены различными способа- ми с сохранением свойства нх функциональной пригодности. Поэтому, рассматривая МПФ, связывающие различные входы и выходы системы (см. (2.57)), можно сделать вывод, что на характер обработки различных входных сигналов системой можно влиять не только с помощью измене- ния Q(s) (входящей в C(s)), но и в какой-то степени с помощью Gu, G,2 , G2i , G 22 > так как они в МПФ, связывающие некоторые выходы и входы, входят взаимно независимо. Однако, конечно, решающего измене- ния можно добиться только за счет выбора Q(s). В частности, в задаче, названием которой озаглавлен данный пункт, - задаче оптимальной 9 Зак. 108
228_____________________________________________Я~-теория. Часть! Я “-стабилизации, предполагается выбрать Q(s) оптимально в том смысле, что регулятор K(s), продолжая стабилизировать G(s), обеспе- чит минимум (по возможным Q(s)) максимума (по возможным сигналам Uj(r), имеющим ограниченную величиной С энергию) энергии сигнала У1 (t), определяющего потребительское качество системы рис. 5.6, т.е. Ь(')||2. (5,34) k(*XMg) и^г) |u,(r)^SC где Rst (G) - множество регуляторов, стабилизирующих G . Оно описыва- ется условием (2.72) в главе 2 с учетом утверждения 2.2, также из главы 2. Оказывается, что задача (5.34) эквивалентна задаче ПОМ, а поскольку нам удалось свести ПОМ к решенной проблеме Нехари, алгоритм решения (5.34) сводится к получению условий этой эквивалентности. 5.3.2. Сведение задачи оптимальной стабилизации к проблеме Нехари Теорема 5.4. Задача (5.34) (оптимальной стабилизации) эквивалентна ПОМ со следующими матрицами: Ti =Gu “gi2XgNgG21; Т2 =G12Ng; Т3 =NgG21, где Xg,Ng,Ng 6 RH” - компоненты ДВПФ G22 (см. параграфы 2.3 - 2.5). Доказательство. Если воспользоваться теоремой Парсеваля и МПФ системы рис. 5.6 от iq (г) до yi (г): Ф11 (s) = G11 - Gl2 (1 + KG22 )-1 KG2i (см. (2.57)), то inf sup |У1(0|2 = K(H(G) «.(^.(^sc" = inf sup ||Yi(s)||2 = ОД/ЦС) = C inf llGn-Gl2(l + KG22)-1 KG21|£, . K(<H(G) Поскольку K(j)€ Rst (G), to (cm. (2.72)) К = (XG -NgQ)(Yg -MgQ)-1 , Qg RH~. (5.35) (5.36) VnntJtf ТОГО.
Глава S. Классический метод решения 139 (1 + kg22 )"' К = КК’1 (1+kg22)4 (к-1 у1 = = К ((К"‘ )(1 + KG22 )к)“ 1 = (5.37) = К (к-1К +K“1KG22Ky1 = K^+G^K)-1 (если К - квадратная матрица). Из главы 2 (см. там (2.62) и сноску, поясняющую смысл членов (2.28)) g22=-ngmg, что с учетом (5.36) дает: К (1 + G22K)-1 = К (1 -ЙБ'М0 (Хо -ngq)(yg -MGQ)-iy‘. Из главы 2 (формула (2.74)) -MG (XG - NgQ)+No (Yg -MgQ) = 1, поэтому K(1 + G22K)-1 =K(l-NG1[NG(YG-M0Q)-l](YG-MGQ)-iy1 = = k[1-NgNg(Yg -MgQ)(Yg-MgQ)4 +N^(Yg-MgQ)'‘j‘ = = (XG -NgQ)(Yg -MoQ)-‘ (Yg-MgQ)Ng =(Xo-N0Q)Ng, с учетом чего и (5.37) Gn -G12(1 + KG22) lKG21 = Gh-G12(Xg-NgQ)NgG21 = = Gn -Gi2XgNgG21 +G12NgQNgG21 , что превращает условие (5.35) в условие С Ь 1_ G12XGNGG21 + GttNcQNcG^, сравнивая которое с (5.18) и получаем условия теоремы 5.4, что и требова- лось доказать. 5.4. Некоторые другие задачи Н“ -теории ОПТИМАЛЬНОГО УПРАВЛЕНИЯ В [24] показана эквивалентность ряда других задач - задачам, относя- щимся к Н"-теории оптимального управления. Из них отметим задачу, называемую там задачей робастной фильтрации. 5.4.1. Задача оптимальной робастной фильтрации Задача состоит в нахождении линейной оценки х(г) вектора состояния х(г) MlMO-системы, представленной в пространстве состояния 9*
140___________________________________________Я” -теория. Часть I х(/) = Ax(r)+Bu(r) + D1v1(r), х(О) = хо, y(r) = Cx(r)+D2v2 (г). Здесь u(r) - вектор управления, такой, что ||u(i).||2<C„ <;=o,Vre[0,=o); y(j) - вектор измерения; v, (г) - вектор неконтролируемых возмущений; v2 (г) - вектор возмущений, сопровождающих измерения (который, соб- ственно, и требуется фильтровать); V2(0:||Vl(f)C+||V2(')||2^Cv<o»: А, В, С, D(, D2 - известные матрицы, причем система устойчива, т.е. (Я-А)-,еКЯ“; матрица С такова, что допускает ДВПФ: C = NcMcI=McINc- Тогда, если линейную оценку строить в соответствии с соотношением, на- пример, = (Я - A)'1 BU (,)-(Yc + MCQ)(XC + NCQ)“* (YW - CX (5)), то оптимальная из них, (Xopt (s)j, соответствующая inf sup Г||£’1Гх:(^)’|-Г1Гх(«)1||2^, (5.38) Q(,)eRH- v„v2:||v,|g+||v2g<C/o11 L J J“2 строится по закону. ’=opt(f) = x0(r) + v(z), где ^^ = Ax0(r) + Bu(/), «(O) = xo; v (/) = Z7‘ {-(YC + McQopt )(XC +NcQopt )’* [£ (y (/) - Cx (r))]}. Фигурирующие здесь Yc, Mc, Xc, Nc - элементы ДВПФ матрицы С; £ - символ преобразования Лапласа. Фильтр, реализующий оптимальную в смысле (5.38) оценку, называет- ся стационарным фильтром Колмана - Винера (см. рис. 5-7).
Глава 5. Классический метод решения 141 Он отличается от широко известного фильтра Калмана: 1) и смыслом оптимальности (там она соответствует минимуму средне- го(в вероятностном смысле) квадрата ошибки в представлении вектора х(г) его оценкой х(г), а здесь - минимуму (5.38)), 2) и видом результата (там - это рекуррентная процедура), Рис. S.7. Стационарный фильтр Калмана - Винера 3) и исходной постановкой проблемы (там V! (1) и v2 (г) - случайные сигналы с известными статическими свойствами). Но главное отличие - его робастность (классический фильтр Калмана, как известно, уж явно не робастный). 5.4.2. Задача оптимальной стабилизации объекта с неструктурированными параметрическими возмущениями Как уже отмечалось в параграфе 5.3.1, рассмотренные Н°°-оптимальные системы управления являются робастными в связи с тем, что: 1) в них исключена одна из возможных причин из негрубости: достиже- ние желаемых свойств за счет компенсации нулей и полюсов ее МПФ (см. параграф 2.1.2), т.е. обеспечена параметрическая грубость, правда, степень гарантированности ее априорно оценить трудно;
142 Н“ -теория. Часть I 2) они сохраняют работоспособность при любых сигналах из объявленно- го класса. Это проявление грубости легче гарантировать в виду того, что условия принадлежности к классу настолько просты, что им отве- чает почти любой конкретный сигнал. Но такого рода грубость (по от- ношению к сигналам) является практически разновидностью инвари- антности, отчего рассмотренные задачи некоторыми авторами к роба- стным не относятся. Робастными считаются задачи, имеющие дело с параметрически воз- мущенными (структурированно или неструктурированно) объектами G&(s), которые формально можно представить в виде так называемого обобщенного объекта Р($) (см. п. 1.4.2 ирис. 1.14,1.15): 6д=£и(Р,Д), где Д = Д (j), Fu (Р, Д) - верхнее линейно-дробное преобразование (ЛДП) (см. (1.60)). Невозмущеиный объект представляется Go = Fu (Р,0). В качестве примера таких задач (несомненно, гораздо более высокого потенциала робастности) может быть сформулирована так называемая «задача робастной оптимальной стабилизации» (Дж. ДсЙл (1984 г.), М. Видьясагар (1985 г.), К. Гловер (1990 г.)): пусть X(G) - количество не- устойчивых полюсов матрицы G(s)eRZT, являющейся МПФ MIMO- объекта, и пусть Д($) такова, что она не добавляет правых полюсов объ- екту Сд (j) в сравнении с Go (j) . Более детально, пусть Д принадлежит некоторому множеству ДЕ ДбДЕ={д:||Д(^)|в>5е,е>0, K(Ga) = S(G0), ДеШГ}. Тогда К($)еК£“ стабилизирует (см. рис. 5.6) любой объект Сд($) с неопределенностью ДбДЕ (является ДЕ-робастным стабилизатором), ес- ли и только если 1) К (s) стабилизирует невозмущенный объект Go (j) = Fu (Р,0); где Fl (Р,К) - нижнее ЛДП (см. (1.59)). Доказательство и различные модификации этой задачи см. в [24].
Пополнение к главе S. «Два-Риккати подход» 143 ДОПОЛНЕНИЕ К ГЛАВЕ 5 «ДВА-РИККАТИ ПОДХОД» К РЕШЕНИЮ ЗАДАЧИ Н" -ОПТИМАЛЬНОГО УПРАВЛЕНИЯ (ПОДХОД 1988 ГОДА) Результаты теории Н°° -оптимального управления, полученные класси- ческим методом, явились своеобразным завершением первого этапа ее развития (начавшегося еще работами Дж. Зеймса (1981 г.)). Помимо этого их огромное значение состояло в подтверждении факта существования решения задачи, что позволило использовать для его поиска другие, в том числе известные ранее методы, в результате чего и появилось новое на- правление - подход 1988 года (34, 45]. Здесь для построения регулятора (обеспечивающего, помимо стабилизации объекта (реализующей таким образом принадлежность к классу допустимых регуляторов), некоторое заданное значение Y (>Ymin) (Y называется уровнем толерантности (уро- вень терпимости того факта, что решение не оптимально)) Н“-норме функции, определяющей качество работы системы) необходимо попутно решать дна независимых (согласно принципа разделения) обобщенных уравнения Риккати (сопровождающих задачу оптимального управления и задачу фильтрации). Поэтому такой способ решения задачи получил на- звание «два-Риккати подход». Соответствуя выбранному уровню толерантности, этот способ дает, та- ким образом, лишь субоптимальное решение. Но зато, вместо задачи поис- ка Ymin > он имеет дело с задачей анализа системы при заданном значении Y, что существенно упрощает алгоритм самой процедуры, тем более что она в этом варианте целиком находится в рамках пространства состояний. Более того, обладая возможностью сколь угодно точно приближать у к Ymin > это способ позволяет получить такое субоптимальное решение, ко- торое практически совпадает с оптимальным, поэтому, если не оговорено особо, оно будет называться оптимальным. «Два-Риккати подход» не только приводит к гораздо более простому алгоритму поиска оптимального решения в сравнении с подходом 1984 го- да, но и дает регулятор, порядок которого равен порядку оптимизируемого объекта, в то время как порядок «классического» регулятора обычно быва- ет значительно более высоким [37]. «Подход 1988 года» очень схож с развитой в 60-е годы линейной квад- ратичной гауссовой проблемой (LQG-проблемой). В LQG-задаче оптими-
144_______________________________________Н°° -теория. Час», т зация производится по квадратичному критерию, в силу чего оказалось что LQG-проблема очень близка проблеме минимизации № -нормы. В последнем случае также решаются два уравнения Риккати, хотя и более простого вида, чем в Я”-варианте. Как будет показано далее, И2- регулятор легко получается из Я”-регулятора, т.е. в некотором смысле Н2 -регулятор можно рассматривать как частный случай Н°° -регулятора. Поэтому в данной работе результаты для Я “-случая излагаются парал- лельно с результатами для Н2 -случая, что позволит более наглядно пока- зать как некоторые сходства, так и отличия этих двух теорий. В «два-Риккати подходе» для G(s)eIRZ,“, G(j)=:[A,B,C,D] прихо- дится решать обобщенные алгебраические уравнения Риккати [34]. Оптимального управления: (А - BS‘‘DTC)T X + X (А - BS-1DTC- XBS !BTX + CTR-1C = 0. Оптимальной фильтрации: (a-BS’1Dtc)y + y(a-BS"1Dtc)T- YCtR4CY + BS-1Bt =0, где R = I + DDT,S = I + DTD. Поэтому было бы целесообразно обсудить вопросы, связанные с реше- нием таких уравнений, однако в данной работе используются более про- стые уравнения в силу дополнительных условий, накладываемых на опти- мизируемый объект [45]. А именно, в Я2 -теории: AtX2 + X2A-X2B2BjX2 +CfC] =0; A Y2 + Y2 Ат - Y2C[ С2 Y2 + ВгВ[ = 0, а в //“-теории: AtXw+XooA-Xoo(b2bI-y-2B1b})x„ + C?'c1 =0; AY. + Y«,AT - Y. (c2C2 - y'2C{Ci ) Y» + BjB^ = 0, где матрицы A, Bb B2, Clt C2 - известные матрицы представления в про- странстве состояний объекта, у - параметр, ограничивающий Н°° -норму замкнутой системы. Многие известные алгоритмы решения уравнения Риккати являются очень чувствительными (вплоть до потери работоспособности) к ошибкам исходной информации об объекте и воздействиях, в связи с чем здесь предлагается специальный алгоритм, свободный от этого недостатка, так как он связан не с исходными данными, а со спектром матрицы Гамильто- на, соответствующей решаемому уравнению [14].
ГЛАВА 6 СВЯЗЬ АЛГЕБРАИЧЕСКОГО УРАВНЕНИЯ РИККАТИ С МАТРИЦЕЙ ГАМИЛЬТОНА 6.1. Спектральные свойства матрицы Гамильтона Пусть М - (пхп) матрица, det(sI-M) = PM(s) - ее характеристиче- ский полином, a kj - ее собственное число, т.е. Рм^1)=°. (6.1) а щ - соответствующий ему собственный вектор (т.е. Мих = XjU ). Рассмотрим Рм(М) - матричный полином, т.е. полином Pm(j), в ко- тором s заменена матрицей М , - это матрица размерности пхп. Собст- венное число этой матрицы есть Рад (А.!), а собственный вектор совпадает с Uj., (см. [37]), что означает: [Рм(М)] иХ) = PM(Xt)uXi > 110 согласно (6.1) [Рм(М)]иХ1 =0,т.е. uXi ekerl^(M) (kerPM(M) -ядроматрицы Рм(М) -такие и, что [Рм(М)] и = 0 [37]). Поскольку иХ1 - произвольно выбранный из собственных векторов матриц М и Рм(М), ядру матрицы Рм(М) принадлежат все ее собст- венные векторы, в силу чего, например, для любых ах и а2е /?' 1рм(М)](а1иХ1 +a2uX2) = a,[PM(M)]uXi +a2[PM(M)]uAj =0, т.е. ядру Рм (М) принадлежат все возможные линейные комбинации соб- ственных векторов uXj , i = 1,л . Таким образом, кегРм(М) есть линейная оболочка, натянутая на собственные векторы этой матрицы, - пространст- в°€ Я , называемое спектральным пространством относительно М.
146_____________________________________________-теория. Часть I Введем понятие спектральных (модальных) подпространств такой мат- рицы М размером их л, которая не имеет собственных чисел на мнимой оси. Этой матрице соответствует такой характеристический полином PM(s), который можно факторизовать: PM(j) = Рм (s)PMn (J) > где ^м„ (*) имеет все свои корни в левой полуплоскости (Re s < 0), a PMn (s) - в правой (Re s > 0). Тогда спектральные подпространства относительно М : Хл(М) = кегРМл(М), Хп (М) = кег PMn (М) соответственно, ХЛ(М) - пространство, натянутое на собственные векто- ры М, отвечающие ее собственным значениям в Re s < 0, Хп (М) - в Res > 0. Эти два подпространства дополняют друг друга, т.е. они не пере- секаются и их сумма составляет пространство /?": /?Л=ХЛ(М)®ХП(М), (6.3) где ® -- символ прямой суммы подпространств. В данном пункте уравнение Риккати рассматривается в каноническом аиде АТХ + ХА + XRX - Q = 0, (6.4) так как оно отражает основную его математическую суть, и в зависимо- сти от рассматриваемой конкретной проблемы меняется только вид мат- риц R и Q. Уравнение (6.4) - нелинейное матричное уравнение относительно X, где A, Q, R 6 R "х", Q и R - симметрические матрицы, R - знакоопреде- ленная матрица. Уравнению (6.4) соответствует матрица Гамильтона вида ГА J R 1 q;-at Н = (6.5) - блочная матрица порядка 2лх2л [40]. Далее там, где это не затрудняет понимания, линии, разделяющие блоки, опущены. Если матрица Н не имеет собственных чисел на мнимой оси, то она обладает свойством симметричности спектра. Чтобы показать это, введем 2лх2л матрицу J = (6.6) 0 -Г .1 °. Воспользовавшись формулой обращения блочной матрицы [7], нахо- дим матрицу, обратную матрице (6.6): Г* = • г -I о (6.7) следовательно
дд, 6. Супь г и г*ш = R ~АТ QT1 -А о .11 -I' О 147 Q -АтТо -П -A -R I О Г = -HT, 0 -I °JLQ Ат RT так как R,Q - симметрические. Так как -Н = J ’HJ , то Н подобна -Нт. Известно, что подобные матрицы имеют одинаковые характеристические многочлены, а также то, что характеристические многочлены исходной и транспонированной мат- рицы равны, поэтому det (si-Н) = det (si+НТ] = det (sI+H). Значит, ес- ли X - корень характеристического многочлена, то (-Х) - также его ко- рень. Поэтому матрица Н имеет симметричный спектр, вследствие чего должна иметь п собственных чисел в правой полуплоскости и л - в левой (в силу предположения об отсутствии у нее чисто мнимых собственных значений). Следовательно, размерности спектральных подпространств ХЛ(И) и Хп(Н) матрицы Н равны л. Соберем собственные векторы (они имеют размер (2лх1)), соответст- вующие собственным значениям матрицы И с отрицательными вещест- венными частями (значит их всего п штук) в матрицу и разобьем ее на два блока X] и Х2 одинакового размера (значит, матрицы X, и Х2 е Я ), тогда в соответствии с определением (6.2) [40] хг Х2]’ где Im[«] - это операция, результатом действия которой является про странство, порожденное векторами, составляющими матрицу, ную в скобках. Если X] вана матрица X = Х2Х[’ дующим образом. Согласно (6.2), Хя(Н) = 1т (6.8) - несингулярная матрица, то может быть образо- е Лпхл, которая позволяет представить (6.8) сле- ‘X/ .Х2. , входящие в (6.8) таковы, что Гх>1 РМН) х2 О ‘ Умножив это равенство на Х[1 справа, получим Рнл(Н) О О
-теория. Част. , 148 _______________________ и следовательно (см. (6.2) и (6.8)), Хл(Н) = 1т ~ . (6.9) Но тогда, для того чтобы соблюдалось (6.3), должно быть (см. [40])- *01 Z„(H) = Im -J . (6.10) 6.2. СВЯЗЬ РЕШЕНИЯ УРАВНЕНИЯ РИККАТИ Садром ХАРАКТЕРИСТИЧЕСКОГО МАТРИЧНОГО ПОЛИНОМА матрицы Гамильтона при R = о Рассмотренные преобразования свидетельствуют о том, что X единст- венным образом определяется гамильтоновой матрицей Н, т.е. существу- ет оператор, связывающий Н с X, который назван оператором Риккати, его обозначают Ric(«): R2nx2" -> R лХ". Как будет показано ниже, справед- ливо следующее утверждение. Утверждение 6.1. Матрица X = Ric(H) есть решение уравнения Рик- кати (6.4), если Не dom(Ric), где dom(Ric) - область определения опера- тора Ric. Она, как видно из сказанного выше, состоит из множества мат- риц Н, обладающих двумя свойствами: 1) Н не имеет собственных чисел на мнимой оси; 2) матрица Xi - несингулярная, что эквивалентно дополнительности двух подпространств [40]: ХЛ(Н) и Im О' I (см. (6.9), (6.10)). Эти два свойства иногда называют свойством устойчивости и дополни- тельности соответственно. Сначала рассмотрим простой частный случай, иллюстрирующий спра- ведливость утверждения 6.1. Пусть в (6.4) А - устойчивая матрица и R = 0, тогда уравнение Риккати (6.4) превращается в уравнение Ляпунова: ATX + XA-Q = 0. (6.11) Теорема 6.1. В случае R = 0 и устойчивой А модальные подпростран- ства !: Хп(Н) = 1т 0 I Хл(Н) = 1т 0 X где X - решение уравнения Ляпунова (6.11) (играющего роль уравнения Риккати для этого случая).
Глава 6. Связь уравнения Риккати с матрицей Гамильтона Доказательство. Определим несингулярную матрицу Т = [ 1 Ч Iх I] обратная для которой равна т~1 ГI о1 [-Х ij Тогда 149 (6.12) т'нт I оТа -X Ij|_Q 0 1ГI 01 Г а 0 1ГI О'! -Ат][х I] [-XA + Q -Ат|х IJ А О I ГА О -XA + Q-ATX -Ат_| [О -Ат в силу (6.10). То есть матрица Н и А О 0 1_ -1 т = Т НТ в условиях теоре- -А мы 6.1 подобны, причем = detjjsl - A)(sl + Ат) j = det(sl- A)det(sl + Ат) = РА($)Р_дТ($), откуда (так как А — устойчивая матрица, то все ее собственные числа рас- положены в Re s < 0, а у матрицы -Ат - в Re s > 0) многочлен, все кор- ни которого — собственные числа с отрицательной вещественной частью матрицы Т-1НТ — является характеристическим многочленом матрицы А [7] (а с положительной - матрицы (-Ат), т.е. в соответствии с определе- нием спектрального подпространства относительно Т-1НТ (6.2) X„(T-‘HT) = ker Рт.1НТл (Т-‘НТ) = кегРА(Т-‘НТ). Соберем (2их1) векторы, составляющие ядро матрицы РА(Т-1НТ), в (2лхи) матрицу Y, тогда по определению ядра она должна удовлетворять уравнению Постараемся определить эту матрицу. Предположим, что Y = [I 0]т, тогда РА Та о = р. о Ра1А]’ Л(01.
150 Н“ -теория. Часть I Рд [А] = 0, так как в силу теоремы Гамильтона — Кэли [7] каждая матрица удовлетворяет своему характеристическому полиному, следовательно, Ра торы, составляющие матрицу 0 0J’ и,, значит, ядро матрицы РА (Т~*НТ) есть пространство, натянутое на век- Г11 , поэтому I о ХЛ(Т~*НТ) = Для матрицы преобразования подобия (в нашем случае Т) справедливо следующее свойство. Свойство 6.1. Если иХ(./ = 1,л - собственный вектор для Т ’НТ, то Тпл есть собственный вектор и для Н. Действительно, если T‘HTuXi =X,uXi, то T(T-‘HTuX/) = T(X;uX/) =* H(Tux) = Xf(TuX/). Согласно свойству 6.1 Хл(Н) = Тхл(Т-‘НТ) = 1тТ т о Г X = Im Аналогично ХП(Т-1НТ) = kerPT.1HTn (Т"‘НТ) = кегР_дТ (Т-1НТ) = Im и О' I Хп(Н) = Тхп(Т-1НТ) = Т1ш Го' I = 1ш I oiro- X I I — Im О’ I что и требовалось доказать. 6.3. Связь РЕШЕНИЯ УРАВНЕНИЯ РИККАТИ С ЯДРОМ ХАРАКТЕРИСТИЧЕСКОГО МАТРИЧНОГО ПОЛИНОМА матрицы Гамильтона Сформулируем теперь теоремы для общего случая. Теорема 6.2. Пусть Н не имеет мнимых собственных значений, пара (A, R) - стабилизируема, тогда Hedom(Ric). Теорема 6.3. Пусть Не dom(Ric) и X = Ric(H), тогда:
151 с матрицей Гамильтона Глава 6. Связь уравнения Риккати а) X - симметрическая, в! A+RX алге®Раическ°му уравнению Риккати, оичива (т.е. решение уравнения Риккати обладает свой- ств кровать замкнутую синтезируемым регулятором K = RX Доказательство. Будем сразу доказывать обе теоремы. Чтобы дока- зать, что HGdom(Ric), необходимо показать, что Н обладает свойством дополнительности подпространств из утверждения 6.1, что, как уже гово- рилось, эквивалентно обратимости матрицы Xt.Пусть хл(Н) = 1тТ1, где (см. (6.8)). Так как Ti представляет собой матрицу, состоящую из собственных векторов Н, соответствующих собственным числам с отрицательной веще- ственной частью, то можно записать НТ1=Т1Н (6.13) где Н_ - устойчивая диагональная матрица, элементы которой - собствен- ные числа Н с отрицательной вещественной частью. (Равенство (6.13) - это матричный вид записи равенств для собственных значений с отрица- тельной вещественной частью (Л,) матрицы Н и соответствующих им соб- ственных векторов (Г,): Ш, = =Г,А„ i=l,n). Умножим (6.13) слева на матрицу TjTJ , где J есть (6.6): TfjHTi -тЗДн., (6.14) JH= 'О -11ГА R I О Q -А -Q Ат A R Так как матрицы Q и R - симметрические, то и матрица JH - сим- метрическая, следовательно, левая часть равенства (6.14) - симметриче- ская матрица, а значит, и правая часть - также симметрическая. Поэтому, так как JT = -J (см- (6-7)), имеем ) н_ = =-н! (т,т JT,), т.е. (T^JTOH. = -HlctfjTi). (6.15) Выражение (6.15) представляет собой матричное уравнение относи- тельно (T^JTj . Это уравнение имеет нетривиальное решение лишь в случае, когда матрицы Н_ и - Hl имеют общие характеристические числа [7]. Но так как вещественные части всех собственных значений Н_ отри- цательны, то вещественные части всех собственных значений - НТ поло-
152_________________________________________________Н°° -теоРия. Часть! жительны. Следовательно, спектры этих матриц не имеют общих элемен- тов, поэтому T,TJT, = 0 => T,TJTt = ГХ1Т 0 -l]fX,‘ X2j [I 0 -IX Покажем теперь, что ker X, (множество x таких, что Х,х — 0) является инвариантным относительно Н_. Пусть хе кегХ,. Распишем подробнее (6.13): R 1ГХ,’ Q -ат][х2. НТ,= ГА X2J (6.16) = XjX,. ‘ AX,+RX2 |_|‘XiH_' qx,-atx2 _Х2Н. Умножим (6.18) слева на матрицу [10], получим АХ, + RX2 = X, Н_. Умножим (6.19) на хтХ J слева и на х справа x^XjAX,x+xTXlRX2x = xTXjX,H_x. Первое слагаемое здесь равно 0, так как хе ker Хь тогда xtxJrX2x = xtXJX,H_x. (6.17) (6.18) (6.19) (6.20) Но из (6.16) следует, что Х^Х2 = XjX,, и, в силу равенства нулю пра- вой части (6.20) (xTXjX1H_x = xTX*X2H_x = (X1x)TX2H_x = 0 (из-за (6-17))), левая часть (6.20) равна 0, откуда вследствие знакоопределенности R следует RX2x = 0. (6.21) Умножим (6.19) на х справа, получим AX,x + RX2x = X,H_x. В силу (6.21) и того, что хе ker X,, левая часть этого выражения равна 0, и тогда Х,Н_х = 0. Но это значит, что если хе ker X,, то H_xekerX,, следовательно, kerXi инвариантно относительно Н_. Теперь можно приступить к доказательству обратимости Х|. Предпо- ложим, что Xi необратима, т.е. ker X, не является пустым подпространст- вом (см. [37]). Пусть X — собственное число матрицы Н_ их- соответст- вующий ему собственный вектор, т.е. Н_х = Хх, (6.22)
Глава 6. Связь уравнения Риккати с матрицей Гамильтона_Ш причем ReA < 0, так как Н_ имеет только собственные числа с отрицатель- ными вещественными частями н х, удовлетворяющий (6.22), е kerXi (так можно считать в силу того, что Xj необратима, поэтому любой ненулевой вектор (в том числе и собственный вектор матрицы Н) принадлежит kerXi (см. [37])). Умножим (6.18) на [ ОI ] слева, получим QXi-АтХ2 = ХхН_. (6.23) Справа умножим (6.23) на х и с учетом (6.22) и (6.17) получим -АтХ2х = Х2Ах => (- Ат - А)Х2х = 0=> -АтХ2х = АХ2х, откуда, совместно с (6.21), имеем ]хтХ2А = -АхтХ2; В [43] доказана лемма о неуправляемой моде. Лемма 6.1. Пара (А, В) имеет неуправляемую (не доступную потреби- телю) моду А, если существует вектор-строка w*0 такая, что wA = Aw и wB = 0. В соотношении (6.24) роль w играет хтХ2, и, согласно лемме 6.1, оно свидетельствует о наличие в паре (A, R) неуправляемой моды (-А), причем неустойчивой, так как Re А < 0. Следовательно, (A, R) - нестабилизируема, таким образом, мы пришли к противоречию с условием теоремы 6.2. Зна- чит, кегХ] - пустое подпространство, и X] - обратима. Доказательство теоремы 6.3 является логическим продолжением доказательства теоре- мы 6.2. Известно, что если X = Х2Х[*, то модальное подпространство Xi(H) можно определить как Im (см. (6.9)). Единственность X следует из того, что если X' = X', и только в этом случае. Докажем теперь, что X — симметрическая. Перепишем равенство х=х2х;* вввде хх,=х2. . <6-25> Умножим (6.25) слева на Х^ Х^ XX] = X? Х2 (6-26) и протранспонируем (6.26): x^x^xjx,. (6-27>
222---------------------------------------------g"-теория. Част^ Но так как (в силу (6.16)) правые части (6.26) и (6.27) равны, X т.е. X - симметрическая. ’ ~ ’ Запишем, далее, (6.13) в виде Г 11 Г11 Г 11 Г 11 Н V Х = Y X H у = Y Х^ХГ1. Л Л Л Л Умножим (6.28) слева на [X : -I], получим: левая часть: г ч Г11 г ,Га я 1г i [X -1]Н -[X -I] т .А J [Q "“А л. = [XA-Q XR + AT] * = XA-Q + XRX +АТХ; правая часть: Х1Н_Х[1=(Х-Х)Х1Н_Х[1 = 0. Следовательно, АТХ + ХА + XRX - Q = 0, т.е. мы показали, что X из удовлетворяет уравнению Риккати (6.4). Наконец, умножим (6.28) слева на [I : 0]: левая часть: г чГА [I 0)Q R III . ATj[xJ“^ = A+RX, правая часть: [I Таким образом, A + RX = X1H_Xr1. (6.29) Так как X( - невырожденная, то матрица A + RX подобна матрице , а значит, имеет одинаковый с нею характеристический полином. Н_ л и_пуЯ устойчивой матрицей (см. разъяснения к (6.13)), поэтому и обе теоремТ** ^Сто^ЧИвая матРиВД. Таким образом, полностью доказаны Теперь можно показать, что теорема 6.1 действительно является част- ным случаем теоремы 6.3, и в общем случае также можно воспользоваться преобразованием Т (смотри (6.12)). Определим Т ’НТ:
155 Глава 6. Связь уравнения Риккати с матрицей Гамипкт^ т'нт ' I О1ГА _-x iJ[q R 1П о] -Ат R [-XA + Q -XR-AT Г A+RX X I in x 01 IJ R (6.30) -XA + Q-XRX-ATX -XR-AT " A+RX R [-(atx+xa+xrx-q) -(at+xr)- Видно, что матрица(6.30) совпадает с аналогичной при доказательстве теоремы 6.1, если в ней положить R = 0. Выражение (6.30) представляет собой блочную матрицу, первый диагональный блок которой - устойчив матрица, а второй - неустойчивая матрица, все собственные числа которой в Re J > 0 (см. (6.29)). И далее, относительно (6.30) верны все рассуждения теоремы 6.1, а также формулы для модальных подпространств. В общем случае уравнение Риккати (6.4) имеет множество решений но Г11 X ’ обладает стабили- H = только одно из них, удовлетворяющее %л (Н) = 1ml I зирующим СВОЙСТВОМ [10]. Рассмотрим конкретную матрицу Гамильтона для Н2 -проблемы: А -ВВТ1 -ССТ -Ат j где матрицы А, В, С — матрицы реализации в пространстве состояний пе- редаточной функции оптимизируемого объекта. Справедливо следующее утверждение. Утверждение 6.2. Если пара (А, В) - стабилизируема, пара (А,С) - де- тектируема, то Н не имеет собственных чисел на мнимой оси и X = Ric(H)>0. Покажем, что для Н существует чисто мнимое собственное число X, ко- гда существует неуправляемое собственное число X для (А, В) и/или нена- блюдаемое X для (А, С) (такое, что Re X = 0). Пусть X = iw - собственное Г- 1 число Н, и н LX2j *1 . Х2 _ з Г - соответствующий ему собственный вектор, тогда А -сст -Ат J.x2J А*! -ВВТ: АХ] -ВВтх2 -ССТХ] -Атх2 Х2 = /и®!; =w ,Х1 [Х2. «1 (6.31)
156 Н •теория. Часть I (6.32) -ССТХ] - Атх2 = iwx2. Умножим (6.31) на х2, (6.32) на х^ слева: х2АХ]-х2ВВтх2 «/wxjxi, (6.33) -х}'ССтх1 +х/’атх2 = -iwx?x2. (6 34) Протранспонируем уравнение (6.34) и вычтем результат из (6.33): х2АХ] -xjBBTx2 =iw'xjx1 -х^СтСх! +xjAX] = -nvxJxt -xjBBTx2 +х^СтСХ) = jH^xJxj +x2X]), (6.35) (6.36) (6.37) (6.38) (6.39) (6.40) откуда в силу равенства действительных частей уравнения следует, что -xjBBTx2 +х^СтСХ] = 0. Это возможно лишь в случае, когда xjB = O, СХ! = 0. Подставим (6.35) в (6.31), а (6.36) в (6.32), получим: т т -х2А = hvx2, Ах, =iwXj. Из (6.38) и (6.36), а также из (6.37) и (6.35) имеем: т т т х/А =iwX]; xfCT=O, xJ(-A) = iwxJ; xjB = O. Соотношения (6.39), согласно лемме 6.1, говорят о недоступности мо- ды iw в паре (Ат, Ст) , а (6.40) - о недоступности той же моды в паре (-А, В). Если принять АТ=А1,СТ=С1, (6.41) То тогда -А = -А* = А®; В = Cf = С® (см. (4.58)), и значит, соотношение (6.39) (в силу того, что А. = iw не расположена в левой полуплоскости) свидетельствует о недетектируемости пары (Аь СО, (6.40) - о недетекти- руемости пары (А®, С®), что согласно дуальности, а также (6.41) означает нестабилизируемость пары (А, В) и недетекгируемость пары (А, С). Доказательство того, что X = Ric(H) > 0 можно найти, например, в [43]. Заметим также, что если пара (А, В) полностью управляема и пара (А, С) полностью наблюдаема, то X = Ric(H) > 0.
Глава 6. Связь уравнения Риккати с матрицей Гамильтона 6.4. Практически удобный, устойчивый алгоритм решения алгебраического уравнения Риккати В соответствии с вышеизложенным, чтобы вайти решение алгебраиче- ского уравнения Риккати (6.4), достаточно определить спектр соответст- вующей матрицы Гамильтона. На этом основаны спектральные методы ре- шения уравнения (6.4), где по собственным векторам матрицы Н, отвечаю- щим ее собственным числам с отрицательной вещественной частью, форми- руется аналитическое решение уравнения Риккати (в виде X = Х2Х[’, где Xi и Х2 из (6.8), правда, в этом случае могут возникнуть определенные труд- ности с комплексными собственными векторами [10]). Однако поиск полно- го спектра матрицы является довольно сложной проблемой, поэтому рас- смотрим метод, основанный на тождестве Басса, позволяющий определять решение уравнения Риккати без явного определения собственных векторов. Теорема 6.4. Если матрица Гамильтона Hedom(Ric), то выполняется тождество Басса: '11 ГО' X ~ О ’ (6.42) Рнл(Н) где Рн - полином, отвечающий всем собственным числам матрицы Н с отрицательными вещественными частями, а Рн(Н) _ соответствующий матричный полином; Х - решение уравнения Рнккати (6.4), соответст- вующего матрице Гамильтона Н (6.5). Доказательство. В силу справедливости утверждения 6.1 характери- стический полином матрицы Н может быть факторизован: Рн (5) = det (Л - Н) = РНл (4)РНл (4), где все корни РНл (4) - собственные числа матрицы Н с отрицательными вещественными частями, а РНл (4) - с положительными. Согласно свойствам матрицы РНл (Н) (см. замечания сразу после фор- мулы (6.1)), Рн(Н)х = 0, если х - собственный вектор, отвечающий собственному числу X матрицы Н с отрицательной вещественной частью. Это же равенство можно записать и для всех остальных собственных векторов, отвечающих собственным числам Н с отрицательной веществен- ной частью. Соберем все такие векторы в 2пхп матрицу V Х2. и получим рнл (Н) *2 О (6.43)
158 -теория. Часть т Так как Hedom(Ric), то, согласно утверждению 6.1, существует XJ"1, и решение уравнения Риккати определяется как X = Х2Х( *. Домножив ра- венство (6.43) справа на Xf1, получаем тождество Басса (6.42). Теорема доказана. Фактически тождество Басса является прямым следствием определения спектрального подпространства (6.2). Разделяя матричный полином в ГРИ I P12 I (6.42) на четыре лхл блока PHj] (Н) = р—<-р— , можно получить два выражения для поиска X: Рц+Р12Х = 0, Р21+Р22Х = 0, Х^Рй'Рн, Х = -Рй‘Р21. (6.44) Алгоритм Басса не требует непосредственного определения собствен- ных векторов, но в нем появляется необходимость факторизации характе- ристического полинома. Основную трудность в этом случае представляет поиск корней характеристического полинома. Его можно осуществить, воспользовавшись алгоритмами Ньютона или Лагерра, либо алгоритмами, не требующими определения коэффициентов характеристического поли- нома (такими, как, например, QR-разложение). По найденным корням с отрицательными действительными частями легко строится полином рня (з) > а затем и матричный полином РНл (Н), разбив который на блоки, можно найти искомое решение по формулам (6.44).
ггсава 7. «Два-Риккати подход» к проблемам Н2 - и н“ -пгтшичатш 159 ГЛАВА? «ДВА-РИККАТИ ПОДХОД» К ПРОБЛЕМАМ Н2 - И Н”-ОПТИМИЗАЦИИ В этой главе параллельно рассматриваются проблемы синтеза Н°° - и Н2 -оптимальных регуляторов. Приводятся и сравниваются структура и формулы для этих регуляторов. 7.1. ПОСТАНОВКА ПРОБЛЕМЫ И ЕЕ ОСВЕЩЕНИЕ В ДАННОЙ РАБОТЕ 7.1.1. Конкретизация постановки задачи оптимизации Рис. 7.1. Структурная схема синтезируемой системы Синтезируемая здесь система представлена структурной схемой, изо- браженной на рис. 7.1, где К и G - передаточные матрицы регулятора и объекта управления соответственно; G и К — дробно-рациональные и правильные, u,(r)sw(t): ||w(r)||2<l; (7.1) U2(r) = u3(t)=0; yi(r)sz(0; Уз W 3 УО; e(f>u(t) (см. рис. 5.6). Передаточная функция от возмущения w(t) к контролируемой перемен- ной z(t) в соответствии с п. 1.4.1 Ф* ®T1W = Ft(G,K). И следовательно, задачей №° -оптимизации является выбор такого регулятора К, который
A G(j)=: : C, C2 (7.2) (7.3) 0 I Dl,= r) 160____________________________________________H°° -теория. Часть I бы минимизировал ||Tgw||M, a №-регулятор должен обеспечивать мини- мум ||T1W ||2. Причем выбор оптимального К осуществляется как в одном, так и в другом случае над множеством всех регуляторов, обладающих свойством делать замкнутую систему внутренне устойчивой, т.е. над множеством стабилизирующих регуляторов. В дальнейшем регуляторы, обладающие таким свойством, будем называть допустимыми. Стандартный объект G задается в виде В, в2 о d12 d2i о система (рис. 7.1) описывается следующей системой уравнений в про- странстве состояния: x(t) = A x(t)+Bj w(r) + B2u(r); z(z)=C1x(0+D12u(0; y(r) = C2x(t) + D21w(r); u(O = Ky(O._ Структурная схема стандартного объекта (7.2) изображена, например, на рис. 7.2 (за исключением содержания пунктирного прямоугольника). Объект (7.2) в данной постановке обладает следующими свойствами: а) Пара (A, Bi) - стабилизируема, пара (A, Ci) - детектируема; б) Пара (А, В2) - стабилизируема, пара (А, С2) - детектируема; в)»и[С, D12] = [0 I]; В/ Эти условия, если не оговорено особо, соблюдаются на протяжении всей главы. Свойства а) и б) гарантируют (см. [45] и утверждение 6.2) от- сутствие мнимых собственных значений у матриц Гамильтона, отвечаю- щих уравнениям Риккати по управлению и фильтрации Нг -проблемы, т.е. принадлежность матриц Н2 и J2 (приведенных ниже, см. (7.6) и (7.7)) об- ласти определения оператора Риккати dom(Ric). Наличие этих свойств также упрощает формулировки теорем в данной главе и гарантирует экви- валентность внутренней устойчивости - устойчивости по начальным усло- виям и устойчивости по входу-выходу [39]. Свойство в) означает ортогональность сигналов Cix(r) и Di2u(r). В ус- ловиях Я2-проблемы это означает, что весовая матрица управлений в норме вектора z(0 = C1x(t) + D12u(r) - единичная, и что на эту норму не оказыввют взаимного влияния компоненты z(z) от вектора состояний х(0 и от вектора управлений и(0- Это можно показать, найдя норму вектора z:
~кпроблемам Н» -, H- .61 I'll’ 'Л = (*TCf +»TOL)(C,x + D,2u). = X C| Ctx + xtc7d12u + utDqC(X+utD{2D13u = x’cfax+x’», w как в силу у»,,,,) C’D11 = D1'1C,.O при D^.l.Bomya» вие в) не соблюдается, то можно достаточно легко изменением координат и и 1 привести G(s) к эквивалентной форме, где это условие выполнено. Свойство в) значительно упрощает математические выкладки. Свойство г) говорит об ортогональности сигналов Biw(t) и D2iw(t), что означает ортогональность компоненты от шума, возбужденной в состоя- нии x(t), и компоненты от шума, возбужденной в наблюдении y(t). В сто- хастической задаче фильтрации LQG-теории [10] условие BjD^ =0 озна- чает некоррелированность шума наблюдения и шума, возбуждающего со- стояние, a = I - невырожденность задачи фильтрации. Таким образом, условия в) и г) являются обычными для Я2 -проблемы и по аналогии распространяются на Н“ -случай. Для G(s) в представлении (7.1) также предполагается соблюдение условий Dn =0 и D22 = 0. Невы- полнение этих условий в значительной мере усложняет формулы регуля- торов [45]. Тогда приходится применять обобщенные уравнения Риккати, которые намного сложнее используемых в этой главе. Существуют методы сведения задачи с ненулевыми Du и D22 к задаче с объектом вида (7.1) пу- тем довольно сложных преобразований. 7.1.2. Характер освещения проблемы в данной работе Вывод Н~- и И2 -оптимальных регуляторов приведен, например, в [45] и представляет довольно сложную и громоздкую проблему. Целью данной работы является разъяснение смысла этой проблемы на основе ис- пользования так называемых специальных проблем, являющихся частны- ми случаями общей проблемы обратной связи по выходу у(г). (На основе этих проблем строится решение в Н“ - и Н2 -случаях в соответствии с принципом разделения.) Рассматриваются следующие специальные проблемы: 1. FI - проблема полной информации (от full information), 2. FC - проблема полного управления (от full control), 3. ОЕ - проблема оценки выхода (от output estimation). Проблемы FI и FC дуальны друг другу. Существует также проблема DF - оценки возмущения в прямой цепи (disturbance feedforward), которая ду- альна ОЕ, но она рассматриваться не будет, так как ее результаты не ис- пользуются для синтеза Нг - и Н°° -оптимальных регуляторов. Поэтому дальнейшее изложение в этой главе строится следующим об- разом: в разделах 7.2 и 7.3 без доказательства приведены формулы для 12 Зак. 108
162 Н°° -теория. Часть I Я2 - и Н°° -оптимальных регуляторов для случая обратной связи по вы- ходной (наблюдаемой) переменной у. В разделе 7.4 описаны специальные проблемы. И, наконец, в разделах 7.5 и 7.6 подробно разъясняются и срав- ниваются структура и свойства Я"- и Н2 -оптимальных регуляторов. 7.2. Н2 -ОПТИМАЛЬНЫЙ РЕГУЛЯТОР Задача синтеза Н2 -оптимального регулятора состоит в нахождении то- го из допустимых регуляторов К2 для системы рис. 7.1, который миними- зирует Я2-норму передаточной функции замкнутой системы Можно показать, что минимум этой Я2 -нормы эквивалентен минимуму функционала качества /(К) для линейной квадратичной гауссовой про- блемы в установившемся режиме [10]. 7.2.1. Сопоставление LQG- и Я2-задач оптимизации Полное отсутствие априорной информации о воздействиях не позволя- ет получить достаточно эффективного с инженерных позиций регулятора. Например, универсальный (для любых сигналов) алгоритм на основе ме- тода наименьших квадратов (и ему подобных) приводит к огромному объ- ему необходимых вычислений. Способы учета выявленных сведений о возможном характере сигналов (позволяющих упрощать алгоритмы) с точки зрения разных математиче- ских концепций различны (в теории размытых множеств, в теории вероят- ностей, в теории Лебеговых пространств). Чем более полные представля- ются сведения, тем проще можно сделать алгоритм управления, но в такой же пропорции возрастает риск его расходимости (вследствие отклонения реальных характеристик от тех, которые предполагались при расчете). В этом смысле расчет на основе норм часто оказывается более удачным в сравнении с вероятностным, используемым в LQG-задаче, которая при оп- ределенных условиях по точности может оказаться эквивалентной задаче Я2 -оптимизации. Действительно, функционал качества для LQG-оптимизации в устано- вившемся режиме: J (К ) = lim М {trace |\(t )z(t )т j j, где M{-} - знак операции математического ожидания; t z(O = fT„(t-T)w(T)dT, a TIW(f) = Z7,[TIW(5)] о - МИПФ системы (рис. 7.1).
Глава 7. «Два-Риккати подход» к проблемам Я2 - н Н” -пптимИЭД„ни 163 С учетом того что система удовлетворяет условию шлого (4.22), можно записать недоступности про- ZW = j Tw(i-t)w(T)dT, а J(K) = lira Mj trace J T^a-x,)^)^ J 1^(1— Tj) • = t t =^£dTi£traceLT-(?'Ti){M[w(x‘)wT(^)]K(t-^)^2} так как Т„(/) - неслучайная функция. Известно, что в качестве возмущающего воздействия w(t) в LQG- теории рассматривают белый шум, имеющий ковариационную матрицу вида M[w(r1)wT(/2)] = V(r1)8(t2-r1), (7.4) V(ti) - матрица интенсивностей белого шума. Если белый шум стационарный с некоррелированными компонентами, единичной интенсивности, то V(t!) = I (7.5) - единичная матрица соответствующей размерности, и J(K) = lim f dtl ( ЦасеГтто(/-т1){18(т2-т1)}Т^а-т2Фт2 = r-и» J J L J OQ = J tracefT^a-x^T^O-xOpT^HT^lg. Таким образом, inf J(K) = inf ||TW||J, т.е. LQG-задача (при условии К к (7.3) и (7.4)) и задача Н2 -оптимизации дают одинаковый по точности ал- горитм управления. Однако в реальных условиях Н -алгоритм скорее всего окажется более работоспособным, так как для работы, отвечающей предсказанной его теорией, достаточно конечности 2-нормы ИПФ Т,»(0 реальной системы, а для LQG — необходимо соответствие реального сиг нала w(r) условиям (7.4), (7.5), несомненно, более трудно выполнимым. 7.2.2. Алгоритм Н2 -оптимального регулятора Введем две матрицы Гамильтона: А .-Cfa Н2 = -в2в| -Ат ’ (7.6) 12*
164 Н°° -теория. Часть I Ат -CjC2 -А (7.7) которые отвечают алгебраическим уравнениям Риккати по управлению (7.8) и фильтрации (7.9) соответственно: ATX2+X2A-X2B2BlX2+C?'C1 =0, (7.8) AY2 + Y2At - Y2CjC2 Y2 + BX = О, (7.9) Н2 и J2 е dom(Ric); Х2 = Ric(Hz), Y2 = Ric(J2) - неотрицательно определены, так как стандартный объект (7.2) обладает свойствами а) и б) [45]. Введем следующие матрицы: F2 = -Bjx2, L2 = -Y2Cj, (7.10) А^ = A + B2F2, С]^ = С,+DI2F2, (7.11) Ац =A+L2C2, =B]+L2D21, (7.12) А2 — А+B2F2 4" L2C2 и матрицы передаточных функций: Gc(j)=: Gjf, (7.13) (7.14) (7.15) Сформулируем теорему, описывающую H2 -оптимальный регулятор. Теорема 7.1. Единственный Н2 -оптимальный регулятор определяется формулой K2W=: F2 (7.16) 0 при этом min ||Т„ || J = ||GcB,||4||F2Gf ||\=||GCL2 И\ + |C,Gf ||*. (7.17) Структурная схема этого регулятора, соответствующая описанию (7.16), вместе с объектом приведена на рис. 7.2. Для последующего сравнения с Я “-случаем также целесообразно сформулировать теорему о множестве субоптимальных Н2 -регуляторов. Теорема 7.2. Семейство всех допустимых Н2 -субоптимальных регу- ляторов, таких что ||ТОТ ||г<у, содержит множество всех передаточных матриц от у(т) к u(f) системы (рис. 7.3), где
Рис. 7.2. Структурная схема Н2 -оптимальной системы Рис. 73. Структурная схема И2 -субоптимальных регуляторов Таким образом, семейство субоптимальных регуляторов описано дроб- но-рациональным преобразованием Fl(M2,Q) (см. п. 1.4.1) со свободным параметром Q, зависящим от у. Если положить Q = 0, то получаем К 2, который называется центральным регулятором в семействе субоптималь- ных регуляторов [Fl(M2,Q)]q=o = Flo(M2,Q)-
166 —.—____________________ Я°° -теория. Часть I 7.3. /7”-ОПТИМАЛЬНЫЙ РЕГУЛЯТОР Использование Н " -нормы передаточной функции в качестве критерия оптимальности основано на том факте, что эта норма - верхняя грань ко- эффициента усиления системы между 2-Нормой входа и 2-нормой выхода (см. (4.68)). Поэтому Н°° -норма Txw есть корень квадратный из энергии выхода при поступлении на вход возмущения с единичной энергией. Та- ким образом, минимизация ||TZW IL, означает минимизацию энергии ошибки для наихудшего случая (из рассматриваемого класса (см. (7.1))) входного возмущения (см. (4.68)). Н°° -оптимальный регулятор намного сложнее Я2-оптимального, и с точки зрения вычислительных алгоритмов необходима организация поис- ковой процедуры (см. п. 4.4.3). Для решения Н°° -проблемы оптимизации вводятся две новые матрицы Гамильтона: Н„ = A y^Bf-B^r .-CfC, -Ат I (7.20) J« = ’ at y’2c?'c1-cIc2' -bX -a » (7.21) соответствующие алгебраическим уравнениям Риккати по управлению (7.22) и фильтрации (7.23): АтХи,+ХжА-Хвв(в2В2 -Y^BjBfJx^ + CfCj =0, (7.22) ayoo + yooat-yoo(cJc2-y-2c?'c1)ym+b1b?’ =0. (7.23) Важное отличие от (7.6) и (7.7) здесь в том, что правые верхние (-(1,2)) блоки этих матриц не знакоопределенные и зависят от параметра у, по- этому нельзя использовать теоремы главы 6 для того, чтобы гарантировать принадлежность этих гамильтоновых матриц dom(Ric). Поэтому в теореме 7.3 о существовании допустимого Я“ -регулятора появляются дополнительные условия по сравнению с теоремой 7.1. Заметим также, что (1,2)-блок Н„ представляет собой сумму (1,2) блоков гамильтоновых мат- риц для вычисления Я “-нормы (4.80) и для синтеза Я2-оптимального регулятора (7.6). Теорема 7.3. Существует допустимый регулятор КЦ$) такой, что ** Y» если выполняются следующие условия: 1) Н«, е dom(Ric) и X. = Ric(H«,) > 0; 2) J«. е dom(Ric) и Y„ = Ric(J..) £ 0;
Глава 7. «Два-Риккати подход» к проблемам Н2 - и Н°° -оптимизации 167 '^7p(X~Y„)<Y2, где Р (') " спектральный радиус выражения в скобках. Тогда регулятор задается следующими формулами: (s) А„ -z„l К'. 0 (7.24) где F„ = -BlX„, l„ = -y„cL (7.25) (7.26) (7.27) А . = А + Y^BjBlX.. + B2F„ + ZJ^C2. (7.28) Следующая теорема дает параметризованное множество Н°° -субопти- мальных регуляторов. Теорема 7.4. Если выполняются условия 1) - 3) теоремы 7.3, то множе- ство допустимых регуляторов, таких что ||TIW ||»<Y, описывается множе- ством передаточных матриц от y(t) к u(t) системы (рис. 7.4), где — ^оо^оо ZJij о Г I о U) М.(5)=: А. (7.29) -С2 Рис- 7.4. Структура множества Н°° -субоптимальных регуляторов (7.30) Таким образом, семейство субоптимальных регуляторов представляет- ся - передаточной функцией замкнутой системы рис. 7.4 со свобод- ным параметром Q, удовлетворяющим (7.30), т.е. дробно-рациональным преобразованием =Ft(M0O,Q). При Q = 0 из М«. получается цен- тральный регулятор К„. Структурная схема параметризованного множе- ства регуляторов вместе с объектом приведена на рис. 7.5.
Рис. 7.5. Структурная схема множества Н “ -субоптимальных систем 7.4. Специальные проблемы Для всех трех проблем рассматривается система, соответствующая рис. 7.1, но с различной структурой стандартного объекта G(s). Изложение каждой проблемы строится следующим образом: вначале рассматриваются конкретные упрощающие отличия постановки данной проблемы от постановки общей проблемы оптимизации с помощью обрат- ной связи по выходу (у(7)) (см. п. 7.1.1), в силу которых специальная про- блема решается гораздо проще исходной (общей) (см., например, [45]). За- тем без вывода приводятся пять следующих результатов решения специ- альной проблемы: 1. Минимум ||TIW ||г. 2. Единственный регулятор, минимизирующий ||ТТО ||г. 3. Семейство регуляторов, таких что ||TZW ||2<у, здесь и везде далее Y больше минимума соответствующей нормы.
глава 7. «Два-Риккати подход» к проблемам Я2 - и Н” -оптимизации 169 ^"^^бходимое и достаточное условие для существования регулятора та- кого, что ||TW Цо»*- Y • 5 Семейство всех регуляторов, таких что ||TIWL<Y. и формула цен- трального регулятора. Во всех случаях K(s) является допустимым регулятором. 7.4.1. Проблема полной информации (FI) Стандартный объект для проблемы FI имеет следующий вид: В, В,1 О О I Gw(j)=: Здесь С2 = р2 012 о] W. С, о] I о о ’ о I (7.31) О' IJ I' о D22 - что означает (см. (7.3)): О 1 О I- J - не только то, что в у(г) отсутствуют некоторые компоненты векторов x(t) и w(0, но и то> чт0 те компоненты х, которые проходят на выход (ху), не сме- шиваются с прошедшими на выход компонентами вектора w(w,). Таким об- разом, непосредственно доступный потребителю (для организации обратной У(0 = х(0+ w(/) + u(0, I о ’ ®21 “ связи) сигнал у = — есть вектор, состоящий из части (ух sxy) чистых Ух (не смешанных с шумом) компонент вектора состояния, и из части (у w = wy ) чистых (не смешанных с состоянием) компонент вектора возму- щений. Эта проблема называется проблемой полной информации в силу то- го, что оказавшейся в распоряжении потребителя части вектора состояния достаточно (из-за свойств а) и б) объекта) для достижения оптимальности. Причем эта часть вектора состояния получена без фильтрации (она, как уже говорилось, не смешивалась с шумом), а часть прошедшего на выход векто- ра шума в данном случае потребителем полностью различима, отчего может просто не подаваться в цепь обратной связи. Поэтому FI можно рассматри- вать как задачу обратной связи по состоянию. Условия на G(s) в проблеме полной информации, наследуемые от слу- чая обратной связи по выходу: a) (A, Bi) - стабилизируемая, (A, Ci) - детектируемая; б) (А, В2) - стабилизируемая; D12] = [0 I]. Результаты для случая полной информации: 11 Зак. 108
—__________________________________________Я “ -теория. Часть I FIAK^fE, 0]. FI.3: K2(j)= [F2 Q(j)J, где ||Q||2 < Y2 -ЦС^Ц2, Qg ЙЯ2. FI.4: H„ g dom(Ric) и X« = Ric(H„) > 0. FI.5: K„(5)=[F„-Q(5)Y-1B?'X„ | Q(j)], где Qg MH", ||Q |U< у, K.o= [F. 0]. H2 -оптимальный регулятор, как и центральный Н°° -оптимальный ре- гулятор, представляет собой просто оптимальный регулятор без фильтра, так как оба регулятора определяются только решением уравнения Риккати по управлению: Н2 -регулятор - Х2 = Ric(H2), а Я “-регулятор - Х„ = = Ric(H»). Отличие заключается в том, что в Н°° -случае в состав регуля- тора K„(i) входит еще и матрица Вь определяющая влияние возмуще- ния. На рис. 7.6 изображена структурная схема Gfi(s) и центрального Н°° - регулятора K»o(j) (структура для Н2 -случая аналогична). Рис. 7.6. Н “ -субоптимальиаи система FI-проблемы с центральным регулятором Га т =• — ZW • р V1 При замыкании объекта Ои(у)регулятором K»o(s) получаем следую- щую передаточную функцию замкнутой системы: 0 ’ 1F. af„=а+в2е», C1F = C1 + D12F„. (7.32)
j-яява 7. «Два-Риккати подход» к проблемам Н2 - и Н” -оптимизаиии_311- Проблема полного управления (FC) Эта проблема дуальна случаю полной информации и имеет следующий вид стандартного объекта: В1 [I 0]' О [01]. Оц [0 о] GfcO) =: |С2 (7.33) В данном случае объяснение названия задачи трудно дать, непосредст- венно опираясь на особенности структуры объекта (как это удалось в пре- дыдущем пункте). Лишь в процессе ее решения [45] выясняется, что регу- лятор определяется ^решением только одного уравнения Риккати, соответ- ствующего J2 в Н2 -случае и К в -случае (уравнение оптимальной фильтрации), то свидетельствует о том, что фильтрация сразу дает пол- ное управление (см. название проблемы). Проблема FC наследует от общего случая обратной связи по выходу следующие своиства: а) (А, ВО - стабилизируемая, (А, СО - детектируемая; б) (А, Ср - детектируемая; Рис. 7.7. Н ~ -субоптимальная система FC-проблемы с центральным регулягорон Результаты для проблемы полного управления: FC.1: min||Tzw||2=||C1Gr|l2 (см. (7.15)). FC.2: К, = *0 l2 о 11*
172 FC.3: K2(j) = -——---------------------_ я°°-теория. Часть т Q(J) ’ ГДе l|Q 112 *=y2 "llCiGf II2 • Qe I^2 • FC.4: J„edom(Ric) и Y„ = Ric(J„) > 0. FC.5: K.(j)Jb--Y"’Y"C'Q(^ Q(s) где Qe llQjl^ < у, Koe0(j) = Структурная схема для центрального Н°° -регулятора изображена на рис. 7.7. Н2 -оптимальный регулятор имеет сходную структуру. 7.4.3. Проблема оценки выхода (ОЕ) Gqe(j)-: В1 В2 0 I d21 о (7.34) Стандартный объект имеет следующую структуру: А С? С2 Эта проблема накладывает дополнительные условия на стабилизируе- мую пару (А, В]): должна соблюдаться устойчивость матрицы А-В2СЬ поэтому свойства объекта для ОЕ-проблемы следующие: а) (А, В0 - стабилизируемая, А-В2С1 - устойчива; б) (А, С2) - детектируемая; В, d21 Результаты для проблемы оценки выхода: ОЕ.1: min ||TZW IbHICxGf ||2. (S) ОЕ.2: K2o(j)=: О' I Dlt = в) A + L2C2 — B2Cl -L2 Ct 0 ОЕ.З: K2(s) - множество передаточных матриц от у(1) к и(Г), соответст- вующих схеме (рис. 7.3), где A + L2C2 — B2C] l2 -B2] M2(j)=: Ct 0 I L c2 I 0 QeRH2. ОЕ.4: 6 dom(Ric) и Y„ = Ric(J») > 0.
Главе 7. «Два-Риккати PQ^WKigofa^ Hi О&ГК-Сг) - миожеств7^^^^ вующих схеме (рис. 7.4), где атриц от ?W к “(О, соответст- =: A + LmC2-B2C, L. -B2-Y’*Y.C}Q(s)' q 0 I с2 I 0 QgRW“, ||Q|U<Y( Km0U)-: A + L^-BjCj il. с, 0 Структурная схема для ОЕ-проблемы представлена на рис. 7.8 (для случая Н2 -оптимизации). Из рис. 7.8 видно, что z(t) = zx(r)+u(f) = C,x(r)+u(r), н чтб u(f) = Cix(r) = zx(r), с учетом чего u(t)+u(t) = z/t)+u(t) = i(t) (см. выражение для z(z)), т.е. u(r) = |z(z) - центральный оптимальный ОЕ- регулятор дает оценку выхода z(r), откуда и название этой специальной про- блемы.
174 Н°° -теория. Часть т 7.5. О СТРУКТУРЕ И СВОЙСТВАХ Н2 -ОПТИМАЛЬНОГО РЕГУЛЯТОРА 7.5.1. Общая интерпретация проблемы с позиции принципа разделимости В этом разделе общая Н2 -проблема обратной связи по выходу пред- ставляется на основе принципа разделения в виде комбинации двух специ- альных проблем: проблемы полной информации и проблемы оценки выхо- да. С учетом (7.10) - (7.17) единственный Н2 -оптимальный регулятор оп- ределяется как: K2(J) ^2 F2 А + B2F2 + L2C2 Y Ст 12v2 о (7.35) ^2 о В этих формулах F2 - матрица коэффициентов усиления оптимальной обратной связи по состоянию в проблеме полной информации и L2 - оп- тимальная обратная связь в проблеме полного управления. Принцип раз- делимости состоит в том [10], что решение задачи линейного оптимально- го регулирования с обратной связью по выходной переменной может быть получено как решение задачи оптимального управления с обратной связью по состоянию, в которой состояние х(г) заменяется его оптимальной оцен- кой х(г), которая может быть получена как решение задачи только опти- мального наблюдения. На основе принципа разделимости можно сказать, что К2($) (7.35) есть оптимальный формирователь управления (F2) из оп- тимальной оценки х(г) проблемы ОЕ и может быть получен заменой Ci на F2 в ОЕ.2. Также то, что оценка минимума ||TZW ||2 есть сумма оценки в FI-проблеме (см. выражение FI.1) и оценки в ОЕ-проблеме, в которой (как и в нашем случае) С1 заменена на F2 (см. ОЕ.1). Таким образом, уравнения регулятора могут быть записаны в виде оптимального наблюдателя (7.36а) и формирователя оптимального управления (7.366): = Ах(г) + B2u(r) + L2 (С2х(г) - у (Г)); (7.36а) $(') u(0 = F2x(f), (7.366) где х(г) - ОЕ-оптимальная оценка вектора х(г) (то, что здесь фигурирует именно ОЕ-оценка, доказано в ходе последующих выкладок (см. (7.42) и далее)). Структурная схема объекта и регулятора, соответствующего (7.35), приведена на рис. 7.9 без штрихпунктира.
7.5.2. Интерпретация теорем 7.1,7.2 с позиции принципа разделимости С позиции принципа разделения можно интерпретировать условия тео- рем, сформулированных в разделе 7.2. Для этого определим новую пере- менную v = и - F2x и подставим ее в часть уравнений (7.3), описывающую объект, получим: Х = Ax + B]W + B2(v + F2x), z = C1x + D12(v + F2x), => у = C2x+D21w, х = (A+B2F2)x+BiW+B2v, z = (Ci+D12F2)x+D12v, => y = C2x+D21w, или, в силу линейности объекта, для его части: xw = (A + B2F2)xw +B,w; *v =(A+B2F2)xv+B2v; z = zw +zv =[(C, +D12F2)xw +0w]+[(C1+DnF2)xv+D12v],
176 Н -теория. Часть I откуда с учетом формулы (7.11) получаем, что связь вектора ет вид с z име- af2 Bi В2 rw_ C|F2 О D12 [_ v_ ’ которой в области комплексной переменной отвечает соотношение z(j) = G СВ! w(j)+Uv(j) , где Gc(j) определяется формулой (7.14), а 5 TT/_\ • af2 B2 U(J)-. ClFj D|2 (7.37) (7.38) Заметим, что матрица Ар2 = А + В 2F2 = А — В 2В Jx 2 - устойчивая в силу пункта в) теоремы 6.3, если Х2 является решением уравнения Риккати (7.8). Значит, и передаточная матрица U(s) - устойчи- вая. Докажем, что она является иннором, воспользовавшись леммой 5.1. Предположим, что условие 1) леммы 5.1 для матрицы U(s): Df2C1I%+BlQ = 0 (7.39) верно, тогда покажем, что Q из выражения (7.39) отвечает уравнению Ля- пунова, соответствующему U(s): A^Q + QA^ ч-С^С^ = 0. (Условие 2) леммы 5.1 соблюдается, так как в силу свойства в) объекта G(s): D«[C| D12] = [0 l]=> D^2Dj2 = I. Кроме того, еще и Df2C(=0). Из (7.39) имеем BjQ = -Dr2C1F2 =-D?2(C1-D12BlX2) = = -d}2C! +d[2d12bJx2 = -o+ib£x2 =b]x2. Таким образом, получили, что Q из (7.39) является Х2 - решением уравнения Риккати (7.8) - симметрической, в силу этого, матрицей. Под- ставим его в уравнение Ляпунова: aF2q+qaFj +cfF2C1F2 -(a-b2bJx2) х2 + х2(а~В2В2Х2)+ +(С1 -DJ2BjX2)T(Ci-d12bJx2) = атх2 -x2b2bJx2 +х2а- -X2B2BlX2 + C?'C1-X2B2D?2C1-C?'D12BlX2+X2B2D]2D12BlX2 = = АтХ2 + X2A-2X2B2BjX2 +CjCi -0-0 + X2B2IBlX2 = = atx2 + x2a ~x2b2bJx2 +cTc,.
t,пна^Риккатиподход»кпроблемами? д часД\УР^«й^ ^Сп16йсЯ ₽ешениеМ (7 *}) вращается в Кот°₽^^ № (^ую часть уравнения Риккати переЦЛа нуХ. Но »этУ S- начало данного выражения) при Q в v Уравнения Z '‘Шественный нуль и левую часть уравнения Ляпу^Г’ п₽евРаЩаег Шовлетворяет и этому уравнению, но тогда йТ°8а из ™мМы5Т и V(s) является иннором’и ее н°рма Т яктя у— введенная переменная V = ц - р2Х Равна 1. рис- 7 9 с° '"'^пунктиром (эквивале^е^ТПеРемен- ^jLa), где эта переменная выявлена, видно ЧтоР ' 7 9 без “ирих- ЛУ’°СТ £ (7 37) можно представить 10 v определяется мА z-GA"+UT,,«.tGeBi+lJTviilw Поскольку рессматрквается задача „шХзацки (г , „ ,.ттТ Ik - минимальна, так как ил пп^,, w Н0Рма ^’’^в'ит =Т Но тогда йо что СсВ1+и lvw *zw • пи тогда w Ym3 = minllT J2 = minllGcB! + UTVW||2 < ^|GCB1||2-b||UT¥w||2=||GcB1||2+JTw(|2i WK как №) - иннор. Очевидно, что последнее соотношение может быть равно Y«2 только в случае минимальности каждого из слагаемых, т.е. ут2=пйп||СеВ42+пйп||ТД. Согласно результата FI.l, ||GCB| в рамках проблемы FI (которая, как было показано в п. 7.5.1, является составной частью решаемой задачи оп- тимизации) уже обеспечивает минимум своего взноса в общую Tw, т.е. Ym2 =llGcBl|2+min||Tvw||2- (7.40) Поэтому осталось определить условия минимума Ifl^L Для того чтобы определить передаточную матрицу от w к V, запишем для структуры на рис. 7.9 со штрихпунктиром систему уравнений, считая V выходом (СМ. (7.3)): x = Ax-t-BjW+B2u; v = -F2x+«; р41) y = C2x+D2]w; u = Ку. Системе уравнений (7.41), описывающей все ту же систему (рис. 7.9), объект Gv(j); Gv(s)=: А 1», (7.42) с. 0 I С2 d21 0
178 _______ Я“ -теория. Часть I отмеченный в блочной диаграмме (рис. 7.10), упрощенно представляющей систему (рис. 7.9). Так как G (см. рис. 7.9 без штрихпунктира) и Gv (См. рис. 7.9 со штрихпунктиром) имеют одинаковую матрицу А, то если К стабилизирует Gv, то он стабилизирует и G. Gv имеет форму, соответ- ствующую проблеме оценки выхода (ОЕ см. (7.34)), если выходам z счи- тать переменную V (сравни рис. 7.8 и рис. 7.10). Рис. 7.10. Упрощенное представление системы рис. 7.9 Значит, во-первых, min ||TW для общей проблемы = min ||TIW ||2 для проблемы ОЕ, и, согласно результату OE.l, min ||TVW ||2 = ||<?1Gr ||2 , что (с учетом результата FI.2) превращает соотношение (7.40) в (7.17). И, во- вторых, минимум (7.17), согласно результата ОЕ.2, обеспечивается един- ственным регулятором КгоСО s А + В2С] + L2C2 С, _2 О в котором, правда (см. начало этого раздела), нужно (как и только что в (7.40)) заменить С, на F2, т.е. регулятором (7.16), что и требовалось показать. Интерпретация теоремы 7.2 является логическим продолжением пре- дыдущих рассуждений. Видно, что множество всех субоптимальных регу- ляторов, обеспечивающих (см. (7.40) и ОЕ.З) ||TVW||2 < у2 -ЦСеВЛ*, суть регуляторы K2(j), параметризуемые в виде схемы (рис. 7.3), в которой А + B2Cj + L2C2 ь2 ®21 M2(j)=: С, 0 I (7.43) [ . -с2 I 0 а QeR/T C,G,| 2. (7.44) Если при этом вспомнить о необходимой оптимальности формировате- ля управления (см. рис. 7.9 и результат FI.2), то в этом регуляторе нужно заменить С, на F2, в результате чего (с учетом (7.13)) формулы (7.43) и (7.44) примут вид (7.18) и (7.19), что и требовалось показать.
глава 7. «Два-Риккати подход» к проблемам Н2 - и Н” -оптимизации 179 7.6. О СТРУКТУРЕ И СВОЙСТВАХ Н°° -ОПТИМАЛЬНОГО РЕГУЛЯТОРА 7.6.1. Общая интерпретация проблемы с позиции принципа разделимости В этом разделе, как и для Нг -случая, общая проблема оптимальной об- ратной связи по выходной переменной рассматривается в виде комбинации проблемы полной информации и проблемы оценки выхода. Однако «разде- ленная» структура Н“ -регулятора имеет принципиальное усложнение в сравнении с Н2 -проблемой. Необходимые и достаточные условия сущест- вования допустимого регулятора, такого что ЦТ„^<У» определяются ус- ловиями теоремы 7.3. Видно, что условие 1) этой теоремы: Н„ е dom(Ric) и Х„ ~ Ric(H„) > 0 соответствует результату FI.4 проблемы полной инфор- мации, а ее условие 2): J„edom(Ric) и Y„ = Ric(Joo)>0 - результату FC.4 проблемы полного управления. Таким образом, решение проблем FI и FC необходимо присутствует в общей задаче оптимальной обратной связи по выходу, что и фиксирует следующая лемма. Лемма 7.1. Если существует допустимый регулятор К, обеспечиваю- щий ||Т ^11^ < Y общей задачи, то обязательно решаемы специальные про- блемы FI и FC и, как следствие, соблюдаются условия 1) и 2) теоремы 7.3. Доказательство. Пусть К — допустимый регулятор для объекта G(s) (7.2), обеспечивающий ||TIW ||ов<у- Покажем, что существует регулятор, решающий проблему FI для объекта Gr(j) (7.31). Для этого запишем урав- нения замкнутой системы для объекта G(.v) (см. (7.3)): х = Ax + B,w + B2u; z = Cix+D12u; [х = Ax+B,w+B2u; y = C2x + D21w; <=> z«C|X+Di2u; u = Ky, [u = KC2x+KD21w, и для объекта GrW: xF1 = А хи + B| w + B2u; г = С!Хп +D12u; П' о u = KFIy, хи + w; Xp( — Axp| + B] w+B2u; z — CjXpj +D12u; T 0 Сравнивая полученные представления исходной и FI-системы, нетруд- но заметить, что они окажутся эквивалентными, если КС2 = Ки u = KFI w. 'll 0 ’ У = 0 I ixh+^h 0 I
H°° -теория. Часть I 180 KOjl = &FI откуда Ки легко может быть найден, а значит, FI- проблема разрешима, если существует К , но тогда из FI.4 следует условие 1) теоремы 7.3. В силу дуальности проблем FI и FC аналогичным путем доказывается вторая половина леммы. Для сравнения с Я2-проблемой запишем Н°° -регулятор (7.24) - (7.28) в виде, подобном (7.36): i(r) = Ах(?) + В] wworet (Г) + B2u(0 + ZooLoo(C2x(0 - у(О); • u(O = F„x(f); (7.45) wW0rst(r) = Y'2B^X„x(r), где х(г) - ОЕ-оптимальная оценка вектора х(г) (то, что здесь фигурирует именно ОЕ-оценка (как и в случае Н2 -проблемы), доказано в ходе после- дующих выкладок (см. (7.51) и далее)). Из этих уравнений видно, что в от- личие от Я2-наблюдателя Я°°-наблюдатель имеет структуру наблюдате- ля-компенсатора (из-за составляющей BiWworat(0). Основные отличия в структуре регуляторов - это появление в Н°° -случае новой структурной составляющей B]Wworst(0 и замена L2 на Z„L„. Структурная схема, соот- ветствующая (7.45), приведена в пунктирном прямоугольнике на рис. 7.11. 7.6.2. Новые переменные общей задачи Я°° -оптимизации, их свойства Для интерпретации теорем 7.3, 7.4 с позиции принципа разделимости потребуется введение в рассмотрение двух новых переменных: r = w-y~2B?'X«,x, u = u + BjX„,x, (7.46) выявленных на рис. 7.11 со штрихпунктиром (если припомнить, что на нем изображена оптимальная система, a (-BjX^)^ =Fm. (cm. (7.25))). Целесо- образность и смысл введения т) и г вытекает из следующих преобразований Предположим, что существует симметрическая матрица Хтс = Ric(H„,) тогда можно дифференцировать квадратичную форму хт(г)Х„х(г), где х(г) - вектор состояния оптимальной системы (7.43): —хтХмх = хтХ„х + хтХ„х = (хт Ат + wTB[ + uTB2 )Xoex + dt +хтХоо (Ах + Bj w + B2u) = хт (ATXoe + Хтс А) х + wTB^ Хтсх + +xTXooB,w+uTBjXoox + xTXooB2u = хт(АтХоо + +Х„,А)х + 2 < w, В^Хтох > +2 < и, BjX~x >,
j-пявЯ 7. «Два-Риккати подход» к проблемам Н2 - и Н°° -оптимизации 181 где < • > ~ скалярное произведение. Из уравнения Риккати (7.22) имеем АТХОО +Х„А = -Cfa +Х00В2В]Х00 -у^ХЛ^Х., подставим это выражение в предыдущее, получим: Рис. 7.11. Система с Н “ -допустимым регулятором -хтХмх = -хтСТс1х + хтХЛ2ВХх-уЛтХооВ1ВХх + dt +2 < w, В[Х„х > +2<и, BjX^x >= = -||С1х||2-у-2||В?'Х„х||2+||ВХх||2 + + 2 < w, В/Х.х > +2 < u, BjX„x > (здесь ||q||2 = qTq - квадрат евклидовой нормы вектора q). Используя в этом выражении дополнение до полного квадрата, получим:
—-----------------------------:____________________Я"-теория, Частц ^хТХ„х = -||С,х||2 -(У“2||В]гХ.,х||2 - 2 < w, BjXx > +||w||2У2) + +||w ||2У2 + (||BjX„x II2 + 2 < u, BjX„x > +j|u||2 j-||u ||2 = = - (lICjX ||2 +||u||2) + Y2 ||w||2 ~ Y2 |w - Y"2B^X„x|2 + ||u + Bjx„x||2. Так как в силу свойства в) стандартного объекта llzll2=IIC,X+Dl2alf= = ||С|х||2+2<С|х, DI2u>+||Di2u||2= = ||С,х ||2 +0+uTD^2Dl2u = ||С,х ||2+ ||и ||2, у хтХ„х = —||х ||2 + Y21|w||2 - Y2||w - y'2B[Х„х ||2 + llu + в£Х„х|2. at " 11 Пусть x(0)=0, и, поскольку система устойчива, приняв, что w(t) дейст- вует не на бесконечном интервале , имеем х(°°) = 0. Проинтегрировав по- лученное равенство по г от 0 до °°, имея в виду, что, согласно определения 2-нормы, llqlll = JqTq <*=Jllq ll2<*. о о приходим к следующему (см. (7.46)): 114 - Y2||w 111 = |u+В]Х^хЦ2 - Y2 ||w - y-2B^Х„х lg = ||V |g - у2 ||r|g. (7.47) Из соотношения (7.47) можно установить, во-первых, что ||ТП¥||в0<у, если ЦТ^Ц^ <у. Действительно, имея в виду физический смысл ««-нормы МПФ (см.(4.68)) и равенство Парсеваля, из (7.47) имеем: sup [l|Tw|UI|w(j)|g-Y2I|w(s)II1"|= sup [||TUr IU|r(5)|ll-Y2l|rW|lll. w: (IwuJlbSl r:||r(.t)|bSlL ИЛИ sup [||TW IL - Y2 ]||w(s) 111 = sup r||TUrL-Y2]|lr(s)||l« w:||w(s)||2<lL J r:|rO)ll2^L J откуда следует I|tiwIL=I|twIL. <7-48) Во-вторых, заметим, что рассматриваемая задача Я “-оптимизации принадлежит классу линейно-квадратичных игр [45] и состоит в миними- зации (по Tzw) максимума (по w) (при заданном значении Y) два-нормы х(/). Соотношение (7.47) имеет место в оптимальной системе, поэтому по- лучение из него выражения для нормы z(t): W2 = ||u + Bjx „х|2 - Y2 ||w - y’2B[X „х |2 + Y211 w||2
Глава 7. «Два-Риккати подход» к проблемам Н2 - и Н°° -оптимизации 183 представляет ее максимум по w, и из последнего выражения видно, что оно максимально (по w), если минимален второй его член, который, как это непосредственно видно, есть два-иорма, - всегда неотрицательная ве- личина, поэтому минимальное значение второго члена - нулевое. И по- скольку у * 0, сигнал w(t) = Y"2B]'X«,x(t) = wW(,„,(t) (7.49) - наихудшее для заданной у (в том смысле, чего дает наибольшее по воз- можным w значение минимума ||z||2) возмущение (таким образом, новая переменная г есть отклонение текущего w от наихудшего возмущения). Сигнал w№orw (г) в (7.45) и на рис. 7.11 есть оценка сигнала wW0„((t). В третьих, из обсуждаемого выражения для нормы z видно, что в, ми- нимизирующее (по и) значение uopt(t) = -BlX.x = F„x (7.50) (см. (7.25)), что также подтверждает смысл элементов структурной схемы Н°° -регулятора (рис. 7.11) и разъясняет смысл сигналов u(t) и v(t) в Н” - и Нг -регуляторах, в частности, uopr(t) и vrmrst(t) ~ как оптимальные стратегии противников в соответствующей проблеме линейио- квадратичной игры [45]. При сигналах (7.49), (7.50) из выражения (7.47) имеем l|z|g=Y2||w|g, и поскольку этот случай (см. (4.68)) отвечает 2 - оптимальному значению квадрата два-нормы z, то у здесь есть Теперь перепишем уравнения для объекта G(s) (7.2) через новые пере- менные и определим новый объект G,(s) с выходами у(Г) и D(t): х = Ax + BjW + B2u; х = Ах + В1(г+у'2В[Х„х)+В2и; z = CjX+D12u; => v = u + BjX„x; => у = С2х + D2lw, у = С2х + D21(r+y'2B[X„x), x = (a+y 2B1B^Xoo)x + Blr + B2u; v = B2X00x + u; => у = (c2 + y'2D21B[X„ )x + D2lr, x = A(x+B!r+B2u; v = -F„x+u; => У =C2x+D2lr, (cm. (7.25) и свойство г) стандартного объекта). Отсюда
184 Н°° -теория. Часть т Д| в2 о I d21 о (7.51) где G,(i) (- МПФ от А, = А+у”1В|В^Хт. и .У. (7.52) ) представляет собой объект ОЕ-проблемы г U к (см. (7.34) с учетом того, что Gt(.s) находится в составе оптимальной сис- темы (рис. 7.11). Справедлива следующая лемма. Рис. 7.12. Эквивалентные представления системы рис. 7.11 Лемма 7.2. Если Х„ существует и Хм> 0, то регулятор К является до- пустимым для G(j) и ||TZW||„, < у, если К допустим для Gt(i) и ЦТвд.Ц^ < у. Доказательство этой леммы в данной работе не рассматривается (его можно найти [45]), однако то, что это так, легко следует из (7.48). Из лем- мы следует эквивалентность структур а и б, представленных на рис. 7.12. Их эквивалентность, правда, следует еще и непосредственно из рис. 7.11, так как рис. 7.12а обобщенно представляет суть проблемы, отображенной на рис. 7.11 без штрихпунктира, а рис. 7.126 - проблемы на рис. 7.11 со штрихпунктиром, а как это видно из смысла штрихпунктирных включе- ний, схемы (рис. 7.11) без штрихпунктира и со штрихпунктиром эквива- лентны. Матрица Гамильтона, соответствующая уравнению Риккати проблемы фильтрации, для МПФ G((j) имеет вид Г А7 y-2FX-cIc2l (753) L-BX -А, 7.6.3. Интерпретация теорем 7.3,7.4 с позиции принципа разделимости Теорема 7.3. Достаточность. Допустим, что соблюдаются условия 1) - 3) в формулировке теоремы (см. лемму 7.1). Покажем, что матрица Т:
-=Я 7. «Два-Риккати подход» к проблемам Н2. и и» ----------- г -------------- 'оптимизации 185 т= 1 -Y’2xJ --------- I® I J (7.54) обеспечивает преобразование подобия между J, (7.53) и w т > j l = J- • По формуле обращения блочной матрицы [37] I h-y’Xh-d'1! г i y-2X 1 0 1 J I» I т Тогда T.,IT.f’ <1ХЛ *' ^XX-cXlri _.-ix д Т J' I» I 1-ВД’ -л, jo л7 |X№x.b,bJ т’^К-с^-гЧаТ! 1 -в,в? -Л, jo /] A^-Y^X^ ol -вх °J о о + <2*Х + у^хлХх.+Y’2FlF„ -clc2 -y-2x.a, y-2bXx„-a, Рассмотрим блоки полученной матрицы: (11) - блок (см. (7.52)): =(A + Y-2BXX„)T-Y'XB1Bt= = ат + y~XbX - y-2x.bX=ат; (12) - блок (с учетом формул (7.52), (7.22) и (7.25)): -Y-2aX +y'4XooB1bX + Y’2f3Foo-C^C2-y'2X.A, = = -Y’2[ (А + y“2bXXJT Х„ + X„(A+y'2bKX.)- -у-2Х„вХх« - X^BlXJ-ClCj = -y"2[ AtX„ +X.A+ +2у~2ХввВ1В}Хоо -y"2XooBXX<»-X„B2bIXm]-C?C2 = = -Y"2 [atXoo + X„A - X„ (B2Bj - Y-2bX )X-+C}C, -C[C,]- -c]c2 = -Y-2[atX„+X„A-XJB2Bl -Y'2bX )X.XCi]+ +Y"2c^c, - cjc2 = -Y'2 -o+Y"2cfa -clc2 = Y’XC1 "C2C2; (22) - блок: -A, + у~2В1В]гХоо = -A - y"2bXX. + Y’2BiB?X« = -A. Таким образом:
186 Н°° -теория. Часть I Ат T‘J,T = = J„ (см. (7.21), Y^C/C, -CjC2 -A т.е. T (7.54) действительно обеспечивает преобразование подобия между jt и J«. Тогда спектральное подпространство, соответствующее собственным числам матрицы J, с отрицательной вещественной частью, имеет вид (см. (7.23), свойство 6.1, (6.9)): Хл = I 1 = Хл (J-) = Т Im = Im i -y‘2xJ Г i ’ 0 I X» = Im г- y“XyJ и в соответствии с результатами (6.8), (6.9) решение уравнения Риккати, отвечающего матрице Гамильтона Jt (7.53), имеет вид: Yr = Ric(jr) = Y„(l-y-2X0oY„)"1 = Y„ (l- у’2Х^)’*"Г=(l- Y„X Л"2)’’ Y„ = Z„Y„ (7.55) (cm. (7.27)). При выводе (7.55) использовано свойство симметричности ре- шения уравнений Риккати. Из условия 3) теоремы (р(Хте Y~ ) < у2) следует, что Y, > 0 [37]. Поскольку G,(s) имеет вид объекта для проблемы оценки вы- хода, причем, в силу условий 1) и 2) теоремы, выполняются условия для ОЕ- проблемы (матрица A, + B2F„ является устойчивой по теореме 7.3), то из пункта ОЕ.5 (с учетом оптимальности еще и формирователя управления: С! = -В = Г» (см. (7.25))) получаем центральный регулятор в виде s А. + L.C2 + B2F„ К-о,(О=: L, О (7.56) где Ar = A + y^BjB^X» (см. (7.52)); L, = -YrCj = -Z.Y.Cj = Z„L- (см. (7.26), (7.55)), а (7.56) переходит в (7.24), что и требовалось показать. Необходимость. Пусть К - допустимый регулятор, такой что ||TIW |L<Y> тогда из леммы 7.1 следуют условия 1) и 2) теоремы. В силу леммы 7.2 регулятор К является допустимым для G,(s) - и тогда соблюда- ются условия ОЕ-проблемы, а из ОЕ.4 следует: J( е dom(Ric), Y|=Ric(Jt) > О, и значит [37], должно выполняться p(X«,Y«,) < у2 - условие 3) теоремы, что и требуется. Теорема 7.4. Из леммы 7.2 следует, что множество всех допустимых регуляторов для G(s), таких что ЦТ^Ц^ <у, равно множеству всех допус- тимых регуляторов для Gr(s), таких что ||Tvr < у . Тогда, используя пункт
Глава 7. «Два-Риккати подход» к проблемам Я2 - и Н“ -оптимизации 18? ОЕ.5 для G((s) (7.51) и выражение Y, из (7.55), получаем результат, совпа- дающий с (7.29) [45]. Можно сделать вывод, что Н°° -оптимальный наблюдатель принципи- ально отличается от Я2 -оптимального (см. структурные схемы (рис. 7.9 и 7.11)) наличием компенсирующей обратной связи для наихудшего возму- щения wwofSt (J) и соответственным изменением коэффициента усиления оптимального наблюдателя на ZJL, вместо L2. Чем ближе входное воз- мущение к наихудшему, тем более эффективно работает Н“ -регулятор по сравнению с Я2-регулятором. Теорема 7.3 дает необходимые и достаточные условия для существова- ния допустимого регулятора, такого что ||TIW |[„< у. Но эта теорема не да- ет явной формулы для ут„ , являющейся минимумом ||TIW , авиду того что при оптимальном значении Y = Ym„ формулы теоремы 7.3 становятся «плохо обусловленными», так как матрица (I-y^Y^X,)"1 необратима [45], однако у^ может быть вычислена с необходимой точностью с по- мощью итерационной процедуры. Также полезно отметить, что если Y2>Yi,to Хоо(у1) > Х„(у2) и Y„(Yj)> Yeo(Y2) Таким образом, Х_ и Y„ а значит, p(X«,Y«,) являются убывающими функциями значения у. Связь Я“ - и Я2 -регуляторов хорошо просматривается, если в форму- лах для Я “-случая положить у—При этом Х„ —>Х2, Y« -4Y2, Н» -» Н2, К —»J2 и К. ч К:, т.е. Я2 -оптимальный регулятор можно рас- сматривать в некотором смысле как предельный случай Н“-регулятора. Значение у = °° соответствует тому факту, что Н°° -норма замкнутой сис- темы не ограничена и, таким образом, исчезает понятие «наихудшее воз- мущение» (см. (7.49)). 7,7. Алгоритмы синтеза я~ - и Я2 -оптимальных регуляторов В заключение данной главы приведем алгоритмы построения Н“ - и Я2 -регуляторов на основе полученных результатов. Блок-схемы алгорит- мов синтеза центральных Я“ - и Н2 -оптимальных регуляторов изобра- жены на рис. 7.13 и 7.14 соответственно. Как уже говорилось, Я2 -оптимальный регулятор может быть построен - за конечное число операций. Но при этом необходимо сделать оговорку, что в реальной программе при решении алгебраического уравнения Рикка- ти используются итерационные процедуры, отчего это утверждение верно,
Рис. 7.13. Блок-схема алгоритма синтеза центрального Я" -оптимального регулятора
f ^^^«Два-Риккати подход»к проблемам Н2 - и Н“ -оптимизации 189 Ввод матриц пространства состояний: __________А,В|,В2,С|,С2 / Решение CARE: АтХ2 + Х2А -Х2В2В[Х2 +С|С} =0 Решение FARE: AY2 + Y2At -Y2C}C2Y2 +B|B} =0 Построение регулятора: F2 =-B2X2; L2 =-Y2C2; A = A + BjFj + Lf2Cjj В — “Lijj C — Fjj D =0 Рис. 7.14. Блок-схема алгоритма синтеза центрального И2 -оитимального регулятор* В отличие от Я2 -случая Я“-регулятор (как и Н°° -норма) не может быть определен конечным числом операций и требует итерационной про- цедуры. Алгоритм синтеза Я°° -регулятора имеет разветвленную структу- ру, это объясняется необходимостью проверки соблюдения условия 3) теоремы 7.3 - р(Х«, Y«,) < у2 и необходимостью поиска у, с заданной точ- ностью е .(Иногда полезно проверять спектр матриц Гамильтона Ню и J«, на близость к мнимой оси, т.е. выполнение условий 1) и 2) теоремы 7.3, но обычно условие 3) нарушается раньше условий 1) и 2) [45}). При несоблю- дении условия 3) необходимо ввести новое значение у, большее преды- дущего; при несоблюдении условия точности |р-р0|<е, где за р0 обо- значен спектральный радиус при предыдущем значении у и за р - пр»* текущем значении, необходимо ввести новое у, меньшее предыдущего. 0 Данном алгоритме реализуется ввод у на каждом шаге в режиме диалога С пользователем, но можно реализовать автоматический выбор у в завис#' Мости от результатов проверки условий, тогда необходимо задавать верх' Н1°к> и нижнюю границы у . Построение регулятора осуществляется уж^
*90______________________________________________Н°° -теория. Часть I при выбранном значении у и соответствующих ему матрицах Х„ и Y„. Видно, что синтез Н°° -регулятора намного более трудоемкий, чем синтез Н2 -регулятора еще и потому, что необходимо решать два уравнения Рик- кати в каждом цикле выбора у, а для № -случая эти уравнения решаются только один раз.
Гдав^Пример использования Н” ГЛАВА 8 ПРИМЕР ИСПОЛЬЗОВАНИЯ И" -СУБОПТИМАЛЬНОГО РЕГУЛЯТОРА для минимизации ВЛИЯНИЯ ВЕТРОВОГО ВОЗМУЩЕНИЯ НА ПРОДОЛЬНОЕ ДВИЖЕНИЕ САМОЛЕТА В РЕЖИМЕ ПОСАДКИ в этой главе рассматривается конкретный пример применения Н°° - теории управления для уменьшения влияния возмущений внешней среды на объект [18], а именно: решается задача минимизации влияния низковы- сотного сдвига ветра на продольное движение самолета в режиме посадки по глиссаде. Одним из основных факторов, вызывающих летные происшествия, яв- ляются плохие метеорологические условия. Наиболее опасное метеороло- гическое явление для полетов - низковысотный сдвиг ветра с большими составляющими скорости ветра по высоте и дальности, который обуслов- лен локальными возмущениями состояния атмосферы. Сдвиг ветра обычно имеет вид микропорыва, представляющего собой компактный, но доста- точно интенсивный нисходящий поток холодного воздуха. Попадая в зону действия микропорыва, экипаж с большим трудом обеспечивает пилоти- рование самолетом. Особенно опасен такой сдвиг ветра в режиме посадки, так как данное возмущение вызывает резкое падение высоты самолета. Задача минимизации влияния низковысотного сдвига ветра на про- дольное движение самолета в режиме посадки по глиссаде решается здесь на основе «два-Риккати подхода», описанного в главе 7. Мощность ветро- вого возмущения ограничена. В качестве выходов, непосредственно опре- деляющих эффективность работы системы (контролируемых выходов - вектор z) выбраны отклонения воздушной скорости и высоты центра масс самолета от заданных значений. Критерием эффективности работы систе- мы по борьбе с ветровыми возмущениями является Н -норма матричной передаточной функции замкнутой системы от ветрового возмущения к контролируемым выходам.
192 --------------------------------g°°-теория. Частит 8.1. Математическая модель движения ~ Движение самолета описывается в скоростной системе координат R случае невозмущенного движения скоростная система координат совпала с траекторной (рис. 8.1). На этом рисунке: X0OYo - земная система коорди- нат; - траекторная система координат; XaOYa - скоростная система координат; V - воздушная скорость самолета, т - масса самолета; р _ си. ла тяги двигателей; D - сила лобового сопротивления; L - подъемная сила- $ - угол тангажа; 0 - угол наклона траектории; (X = $ - 0 - угол атаки. ’ В случае наличия ветрового возмущения возникает приращение угла атаки а», и скоростная система координат уже не совпадает с траекторной (рис. 8.2). Здесь V* - земная скорость самолета; W - скорость ветра; и Wy - проекции скорости ветра на земную систему координат. Продольное движенце центра масс летательного аппарата с учетом вет- ровых возмущений в скоростной системе координат описывается следую- щей системой нелинейных дифференциальных уравнений: тV = Р cos(a+aw) - D - mg sin(0 - aw) - , mVB = Psin(a+aw) + L-mg cos(0- aw) - F^, (8.1) Jd)z=A/z, d = a)z, где Jt - момент инерции самолета относительно оси z , М г - момент сил относительно оси г , (0г - угловая скорость относительно оси г , Ги*, - проекции на оси скоростной системы координат силы инерции, вызван- ной перемещением воздушной массы. Приращение угла атаки определим, проектируя на траекторную ось OYk составляющие скорости ветра 1¥у и воздушную скорость V (рис. 8.3): Wy* = Wycos0; Wxk = Wx cos(90° - 0) = Wx sin 0; Vr = Vcos(90°-aw) = Vsin aw = Vaw - описание появления Vr* как следствия от смещения траекторной системы координат относительно ско- ростной в результате ветрового воздействия; = WY* - Wxk - описание появления через ее первопричину, тогда из равенства правых частей двух последних соотношений и с учетом первых двух соотношений: aw = (|Уу cos 0 - Wx sin 0). (82)
8.2, Эпюра сил ири ветровом возмущении Жаются ф^мулами ИНеРЧИИ °СИ скоростной сиетемы координат выра- Fbb e m(Wx cos 0+Wy sin 0), = m(-Wx sin 0+Wy cos 0). уравнение для высоты центра масс самолета имеет вид (8.3) Яифференциальное H~Vsin(Q-aw)+Wy. (8.4) соты Вавление самолетом в продольном канале осуществляется рулем вы- Щее 8 И СектоРом газа Sc г Дифференциальное уравнение, описываю- ^инамику двигателя, задается в виде 14 Зак. юв
194____________________________________________________________Я°° -теория. Часть I Д5* r = rf| Д8’г + d2 Д5СГ, (8.5) где Д8*г - отклонение величины силы тяги, выраженное в единицах изме- рения сектора газа, Д8С г - отклонение ручки сектора газа от заданного значения, dx = -l/T№ >d2=\!T№,T№- постоянная времени двигателя. Рис. 8.3. Схема расчета ветровых приращений углов атаки Формирование отклонения руля высоты Д5В производится в соответ- ствии с формулой: Д8В =ЛШгДй)г+ЛвДд + А:Суд(.у, (8.6) где кю ,к$,ксу - числовые коэффициенты, Фсу - сигнал управления, формируемый регулятором. На заданной траектории глиссады (на опорной траектории) нелинейная модель движения (8.1) - (8.4) достаточно хорошо аппроксимируется ли- нейной моделью в отклонениях от опорной траектории, которая (модель) вместе с уравнениями (8.5) и (8.6) имеет вид: x = Ax + B]W + B2u, (8.7) где х = (дV, Д9, Дшг, Д9, ДЯ, Д8* г) - вектор состояния летательного ап- парата, и = (фсу,Д8сг)Т - вектор управлений, w = (Wx,Wy,VVx,VVy)T - век- тор ветровых возмущений. В качестве вектора контролируемых выходов возьмем 2 = (ДУ,ДЯ)Т а вектора измеряемых - у = (ДУ,Д9, До)г, Д9, ДЯ)Т, тогда уравнение для измеряемых и контролируемых выходов может быть записано в виде: у = С2х; z = CiX, (8.8) где СрС2 - соответствующие матрицы пространства состояния.
Глава 8. Пример использования Н°° -субоптимального регулятора 195 Итак, для системы (8.7) и (8.8) необходимо отыскать управление и, минимизирующее Н“-норму матричной передаточной функции TTO(s) (от вектора ветрового возмущения w к вектору контролируемых выходов z) в замкнутой через регулятор системе. Минимизируя Н00 -норму TIW(s), мы минимизируем энергию сигнала ошибки, компонентами которого яв- ляются отклонения воздушной скорости и высоты центра масс самолета от чяданных значений (параметров глиссады), при наихудшем из возможных ветровых возмущений. Синтез регулятора проводится для конкретной траектории глиссады са- молета ТУ-154 (см. [17]). Эта траектория в координатах высоты и дальности представляет собой прямую линию с углом наклона траектории 6ГЛ = -2,7°. Задача регулятора состоит в обеспечении постоянной воздушной скорости Уо = 71,375 м/с и заданной глиссадой высоты. Постоянная времени двига- теля гдв =2,5 с. Коэффициенты =3,5; кь = 4; ке у = -4. Матрицы мо- дели самолета в пространстве состояний имеют следующий вид: -0,0608 -0,0815 0,0000 -0,0895 0,0000 0,0827 ' 0,2185 -0,6158 0,1082 0,7174 0,0000 0,0033 А = 0,0053 0,0000 0,5399 0,0000 -1,5902 1,0000 -1,5728 0,0000 0,0000 0,0000 0,0000 0,0000 , (8.9) -0,0471 1,2442 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 -0,4000 ' 0,0035 0,0658 -0,9989 0,0471 ' 0,0233 0,4939 -0,0378 -0,8019 Bi = -0,0194 0,0000 -0,4319 0,0000 0,0000 0,0000 0,0000 0,0000 9 (8.10) -0,0471 0,0023 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 ' 0,0000 0,0000' -0,1236 0,0000 В2 = 1,1804 0,0000 0,0000 0,0000 (8.11) 0,0000 0,0000 0,0000 0,4000 С1 = ч о о 0 0 0 0 0 0 0 1 0 > 7 (8.12) 14'
196 Н°° -теория. Часть т С2 = Г1 о о о о о 1 о о о о о 1 о о о о о 1 о о о о о 1 О о о о о (8.13) 8.2. Погружение исходной задачи в рамки задачи Н “ -ОПТИМАЛЬНОГО СИНТЕЗА Чтобы синтезировать регулятор по методике, описанной в главе 7, не- обходимо выполнение условий а) - г) из раздела 7.1. Но для данной моде- ли выполнены только условия а), б), а условия ортогональности сигналов в) и г) не соблюдаются, так как матрица D нулевая. Покажем, что эту зада- чу можно свести к эквивалентной, для которой соблюдаются все четыре условия раздела 7.1. Для этого рассмотрим новый объект управления: х = Ax + B]W + B2u, Zj = С] х, z2 = I2u, y = C2x+I5nr (8.14) Данная система отличается от исходной тем, что в ней расширен вектор контролируемых выходов за счет добавления вектора управления и введен дополнительно вектор шумов измерения nv. Система уравнений, описы- вающих стандартный объект в пространстве состояний для расширенного вектора контролируемых выходов z = ^z^, z2)T = (zT, uT)T и расширен- т ного вектора внешних входов w = (wT, ny j имеет вид: x = Ax + B1w + B2u, • z = CjX + D] jW + D12u, у = C2x + D21w + D22u, (8.15) где B^fB], 06x5], - ГС11 с. = oJ-. и2х6 ®21 Опил - нулевая матрица, имеющая т строк и п столбцов, I* - единичная матрица размерности к. С. = Du ^4_!_®2х5 _и2х4 [ ®2х5 d D J0, > и12 - = о; = [®5х4 I ®22 = [®5хг]> 2x2
Глава 8. Пример использования Н°° -субоптимального регулятора 197 Для системы (8.15) выполнятся условия ортогональности сигналов в) и г) и, следовательно, в соответствии с результатами главы 7, можно вос- пользоваться приведенными там алгоритмами для синтеза Н2 - и Н°° - оптимальных регуляторов. На рис. 8.4 приводится структурная схема стандартного объекта, соответствующего расширенной системе (8.15). Синтез регулятора для (8.15) осуществляется по критерию ||T5S(s)IL<Y- Покажем, что Н ” -регулятор K(s), решающий задачу ми- нимизации чувствительности объекта (8.15) к внешнему возмущению w(r), решает также задачу минимизации чувствительности объекта (8.7), I’ll 1*12 **22. w U (8.8) к возмущению w(t) по критерию ||TIW (s) < у. Систему уравнений (8.7), (8.8) в частотной области можно представить в виде z"l г" ~ .У. (8.16) Рис. 8.4. Структурная схема системы, удовлетворяющей всем условиям метода синтеза Рис. 8.5. Представление исходной системы с синтезированным регулятором в частотной области
—----------------------------------____________Я“-теория. Часть! Матрица передаточных функций Tw(s) замкнутой системы выражает- ся через LLFT (см. § 1.4) и имеет вид: Ти,($) = Рц +Р12К (1-РяК) Pai- (8.17) Системе уравнений (8.16) и уравнению регулятора и = Ку соответст- вует структурная схема рис. 8.5. Заметим, что так как z(r) в рассматривае- мой задаче является частью y(t), то матрица передаточных функций Рн яв- ляется частью матрицы Р21, а Р12 - частью матрицы Ри. Этот факт может упростить моделирование системы. Система уравнений (8.14) в частотной области может быть записана в виде (8.18) Тогда матрица передаточной функции замкнутой системы от возмуще- ния w(r) к выходу z(r) имеет вид Рп О О О1+[Р12' 12 I К(1-Р22К)-‘[Р21 I], или Гр11+р12к(1-р22к)-'р21 p12k(i-p22k)-11 TjmA'O I z 1 • (8» 19) |к(1-РиК) % K(I-PaK) J Из выражения (8.19) видно, что Tzw(s) (8.17) является верхним левым блоком (.у) , следовательно, минимизация Я “-нормы T^(j) одновре- менно решает задачу минимизации Я “-нормы Tzw(s), поскольку по оп- ределению Я “ -норма матричной передаточной функции G(s): ||G('y)||<„ = supOf[G(/W)], где ст - максимальное сингулярное число, со 8.3. Результаты решения задач я“ - и я2 -оптимального синтеза Для модели (8.15) с матрицами (8.9) - (8.13) синтез регуляторов произ- водится с помощью программы, разработанной на основе алгоритмов рис. 7.13 и 7.14. Условие p(X00Y00)<y2 для Я “-регулятора с точностью Е = 0,001 нарушается на интервале (11,615; 11,62). Решение строится для значения у = 11,616074 , рассчитанного с точностью Е = 0,00001. ABCD-реализация центрального Я “ -оптимального регулятора имеет вид:
Глава 8. Пример использования Н°° -субоптимального регулятора 199 -5,55360 -1,53280 -0,08778 -0,15766 -1,23800 0,25587 Л -0,95942 -1,17320 0,19398 0,86700 -0,54224 0,08754 -2,81840 -2,49090 -2,66870 -3,13970 -1,61730 -0,46767 А = В = -0,10522 -0,04682 0,99513 0,03972 -0,0 -1,41920 0,48523 -0,06939 -0,08801 -1,2 -3,70330 -0,78312 -0,13438 -0,14026 -0,5 '6,31350 1,63430 0,12143 0,10522 1,37240^ 1,63430 0,95380 0,04263 0,04682 0,75910 0,12143 0,04263 0,06012 0,00486 0,06943 0,10522 0,04682 0,00486 0,03972 0,08806 1,37240 0,75910 0,06943 0,08806 1,24240 0,00000 0,00000 0,00000 0,00000 0,00000 8806 0,00000 4230 0,00006 8727 -1,19250 1 У <-2,24230 -2,51390 -0,85855 -1,31730 -1,29920 -0,38648А С = -9,25840 -1,95780 -0,33597 -0,35065 -1,46810 -1,98130)’ <0,00000 0,00000 0,00000 0,00000 0,000003 D = 0,00000 0,00000 0,00000 0,00000 0,00000}’ kBCD-реализация Н2-регулятора: <-0,99176 -0,17505 -0,00829 -0,09156 -0,00485 0,08270 А 0,20936 -0,84624 0,19350 0,84960 -0,20876 0,01059 -0,80925 -1,90250 -2,54080 -2,97520 - 1,20940 -0,06960 А = -0,00206 -0,01439 0,99751 , -0,03742 -0,05786 0,00000 -0,05195 0,91277 -0,03805 -0,05786 -0,84369 0,00000 -0,29788 -0,07209 -0,01554 -0,01719 -0,( <0,93096 0,09356 0,00829 0,00206 0,00485' 0,09356 0,48533 0,00821 0,01439 0,33142 0,00829 0,00821 0,05759 0,00248 0,03805 34924 -0,45737 В = 0,00206 0,01439 0,00248 0,03742 0,05786 0,00485 0,33142 0,03805 0,05786 0,84369 0,00000 0,00000 0,00000 0,00000 0,00000 X у '-0,68304 -2,06210 -0,75659 -1,18600 -0,99239 -О,О589бЛ -0,74471 -0,18023 -0,03885 -0,04298 -0,12309 -0,14343 '0,00000 0,00000 0,00000 0,00000 0,00000^ 0,00000 0,00000 0,00000 0,00000 0,00000 ‘
Рис. 8.6. Характер влиииии тестового веторового возмущения иа различных временных интервалах
Глава 8, Пример использования Н”-субоптимального регулятора 201 На рис. 8.7 представлены изменения во времени горизонтальной и вер- тикальной составляющих скорости ветра конкретного ветрового возмуще- ния, используемого в качестве тестового сигнала для синтезированных систем. На рис. 8.6 рассмотрены типы влияния данного возмущения на приращение угла атаки а» и земную скорость самолета в различные ин- тервалы времени. На рис. 8.6а составляющая JVy равна нулю, а отри- цательна, и ее модуль сначала линейно возрастает, а потом начинает па- дать. Это соответствует первому временному интервалу действия возму- щения рис. 8.7. При этом земная скорость самолета V* меньше V и умень- шается с ростом модуля . На втором интервале (рис. 8.66) появляется отрицательная составляющая , модуль Wy возрастает и остается неко- торое время постоянным, модуль возрастает, но остается отрица- тельной. Здесь также V* не превышает V. На третьем (рис. 8.6e) Wx стано- вится положительной и продолжает расти, W остается некоторое время постоянной, а затем растет. Рост и уменьшение модуля IVу вызывает рост земной скорости Ук, которая превышает V. На последнем интервале (рис. 8.6г) = 0, W,. некоторое время растет, после чего начинает уменьшаться, что приводит к соответственному уменьшению V*, которая, однако, по-прежнему остается большей V (до момента, когда Wx =0). Та- ким образом, ветровое возмущение (рис. 8.7) вызывает вначале уменьше- ние земной скорости самолета, а затем ее рост. Конкретное изменение высоты и земной скорости системы без регуля- тора вследствие действия возмущения приведены на рис. 8.8 - 8.9, откуда видно, что наиболее неблагоприятное влияние ветровое возмущение ока- зывает на отклонение высоты ЛЯ: максимальная потеря высоты составляет 130 м, что вместе с изменениями земной скорости является довольно опас- ным для самолета в режиме посадки. После прекращения действия возму- щения высота самостоятельно не возвращается к номинальному значению. Переходный процесс по скорости продолжается 45 секунд. За это время скорость возвращается к значению глиссады. На рис. 8.10 - 8.11 приведе- ны графики реакции замкнутой системы на это же ветровое возмущение при использовании Н “ -регулятора, а на рис. 8.12 - 8.13 - графики управ- ляющих сигналов: углом тангажа и отклонением сектора газа. На рис. 8.14 - 8.17 аналогичные графики построены для Н2 -оптимального регулятора. Оба регулятора позволяют значительно уменьшить отклонение высоты (рис. 8.18). Однако, Я “-регулятор обеспечивает лучшее качество пере- ходных процессов как по высоте, так и по скорости, чем Я2 -регулятор. Максимальное отклонение высоты для Я2 -регулятора составляет около 37 м, а для Я “ -регулятора около 27 м, несколько лучше и время переход- 13 Зак. 108
202 Н°° -теория. Часть I кого процесса в Н ” -случае. Значительно более высокое качество пере- ходного процесса Н °° -регулятор обеспечивает и по скорости - отклоне- ние ДУ составляет около 2,8 м /с (а для Н2 -регулятора - 10 м/с), время переходного процесса - 34 с (и 45 с). Можно даже сказать, что Н2 - регулятор в данном примере несколько ухудшил качество переходного процесса по воздушной скорости исходной незамкнутой системы, поэтому если необходим более качественный переходный процесс по воздушной скорости, то целесообразно использовать другие весовые коэффициенты для ДУ при синтезе регулятора (другую матрицу Ci). Н°° -регулятор обес- печивает более быстрый переходный процесс по воздушной скорости, чем у разомкнутой системы и, хотя, он практически не уменьшает ее макси- мальное отклонение, но делает изменение скорости более плавным без резких скачков. Если сравнивать графики управлений 8.12, 8.13, 8.16, 8.17, то можно сказать, что управления Н “ -регулятора менее длительны, чем в Н2 -случае, но амплитуда Д5С Г Н2 -регулятора составляет 8,5 против 24 в Н “ -случае, следовательно Н °° -регулятор требует больших, хотя и ме- нее длительных нагрузок на двигатель самолета, что, естественно, создает существенно менее комфортную ситуацию на борту для пилота (значи- тельно большие перегрузки) чем при Н2 -регуляторе. Итак, рассмотренный пример показывает целесообразность использо- вания Н “ -субоптимального регулятора для минимизации влияния внеш- них возмущений на объект, а так же то, что в данной задаче качество пере- ходных процессов Н °° -регулятора выше качества переходных процессов для Н2 -регулятора. Рис. 8.7. Возмущающие воздействия (составляющие скорости ветра)
Рис. 8.8. Реакция разомкнутой системы на возмущение W н W 13’
Рис. 8.12. Выход И” -регулятора (управление) Рис. 8.13. Выход Н“ -регулятора (управление)
Рис. 8.16. Выход Нг -регулятора (управление)
206
Глава 9. Проблемасмеша^й / Н°° -оптимизации 207 ГЛАВА9 ПРОБЛЕМА СМЕШАННОЙ Н1!Н°° -ОПТИМИЗАЦИИ Рассматриваемая здесь проблема смешанного Н2/Н°°-оптимального управления представляет собой задачу нахождения из класса допустимых (обеспечивающих внутреннюю стабилизацию объекта) регуляторов такого, который минимизирует меру так называемого смешанного Нг1Н°°- качества замкнутой системы. Дело в том, что оптимизация системы на осно- ве каждого из различных критериев, в определенных случаях имеет свои преимущества. Известно, что LQG -теория удобна при работе со стохасти- ческой моделью возмущений в виде белого шума, в то время как Н2- и Я”-теории используют модели возмущений из класса квадратично- интегрируемых сигналов с ограниченной мощностью. Кроме того, Н2- и Я”-теории обеспечивает робастное управление (см. параграф 2.1.2), оно подходит для систем с возмущениями, которые могут обладать значитель- ной мощностью в сколь угодно малой полосе частот. Причем Н“ -теория позволяет получить управление, наиболее приспособленное к появлению «наихудшего» возмущения (см. параграф 7.6.2). Оптимизация по умело комбинированному (смешанному) критерию позволяет надеяться на объе- динение достоинств локально (или только на основе Н2, или только на ос- нове Н°° -теории) оптимальных систем. В этой связи смешанная Н21Н°° - задача может быть анонсирована как попытка синтеза системы оптимально- го квадратичного качества при условии ее готовности к работе с наихудшим возмущением. При этом следует ожидать, что такая система в условиях за- дачи из главы 8 создаст более комфортную, чем Н“ -оптимальная система, обстановку на борту (см. заключительную часть параграфа 8.3). В данной работе рассматривается частный случай проблемы смешанной оптимизации (рис. 9.1 без штрихпунктира), хотя имеется ее решение и дая параметриче- ски возмущенного объекта GA (параграф 1.4.2).
208 ------------------------------^12£W4acTbl 9.1. Формулировка смешанной Н21Н°° -проблемы " 9.1.1. Смысл смешанного Н21 Н°° -критерия и его оценки Рис. 9.1. Структурная схема оптимальной системы Рассмотрим линейную стационарную систему рис. 9.1 без штрих- пунктира. Пусть замкнутая система является внутренне устойчивой, а объ- ект G(s) и регулятор K(s) описываются следующими системами уравне- ний в пространстве состояний соответственно: х = Ax + BjW + B2u, zo = Cox + Pou, (9i) Z| =C1x + D1u, у = C2x + P2w, хс = Асхе+Всу, и = Ссхс. Тогда описание в пространстве состояний замкнутой системы: х = Ах + В^ + В2Ссхс, хс = Асх_ + ВсС2х + BcD2w, t и V и х и х z0 = Сох + РоСсхс, zi = C,x + D1Ccxc, (9.k) X A. A B2Cc BcC2 Ac z0 = [Co Ро^с]*’ zi =[Cj PjCjx, Bi BCP2 w, x = AS+Bw, _ z0 = CqX, Zj =CjX, х X где
Глава 9. Проблема смешанной Я2 / н” -оптимизации 209 - Г А В2Сс-| . Г в, 1 _ _ . ВсС2 Ас j |_BcD2j Co=lCo DoCc], ®1Сс]> Tzw - передаточная матрица замкнутой системы от w к z: Гт 1 т _ xow т L/XtWj Синтезируемый регулятор должен удовлетворять следующим услови- ям, определяющим содержание понятия смешанного Нг !Н“ -качества: 1) Замкнутая система внутренне устойчива, т.е. А - устойчивая матрица (регулятор синтезируется в классе допустимых регуляторов). 2) Передаточная функция TXiW(s) = C1(sI-a)''b удовлетворяет огра- ничению 3) Минимизируется функционал качества •/(Tz0w) = ||Tx0w|2= — trace(l idw = = — J {traceBTr(sI-A)-1TTCjC0(sI-Ar1B}dw= (9.2) ______ L -1 ' ' = — / <traceBT (sI-А) 2lt — GO 1T - - -1 R^sl-A) В dw (cm. (1.41)), где C? ll ClDjJ R = cjco = cjco 0 0 ClDjD0Cc R(=cjco, r2=dJd0. [Cq DoCc]- Rt O’ _o cIr2cJ Для удобства принято CjD0 = 0, а также В ,D2 =0. ||T1(|W|2 - конечна, так как TXoW - строго правильная (в виду отсутствия D в описании замк- нутой системы). Так как постановка проблемы включает в себя как Я2, так и Я“- компоненты качества, аналогично матрицам Rj и R2 из Я2-компонент введем соответствующие матрицы и для Я “-случая: Rloo = C^C1, R2oo = D^D,, R« = CfCt. Так же по аналогии примем C/D, =0, и пусть Rj- = 02R2, где неотрицательный скаляр 0 является переменной проек- тирования.
Я”-теория. Часты 210 Пусть Lc обозначает грамиан управляемости пары (а,В), т.е. он удовлетворяет уравнению ALc+LcAT+BBT=0, тогда [45] (9.3) '(V|42 =trace(C0LcC0 J = trace(RLc). (9.4) Так как матрица А - устойчива, то грамиаи управляемости Lc > 0. Введем матричную функцию: R(Y) = A Y + Y Ат + YC/Cj Уу*2 + ВВТ = =ay+yat+yr.№+v, (9.5) где о R- = c[Cj = R). о CJR2-C, о bcd2dJbct в,в? о V, О о BcvX Известно [45], что если уравнение Риккати R(Y) = AY +YAT + YRooYy’2 + V = 0 V = BB (9.6) имеет симметрическое положительно определенное решение Y, то у ограни- чивает сверху Я“-норму передаточной функции Tiw(j) = Cj(sI-А)-|В. Такое решение существует, когда матрица А - асимптотически устойчива [38], что имеет место (см. условие 1). Вычтем из уравнения Риккати (9.6) уравнение Ляпунова (9.3), получим: А (Y - Lc) + (Y - Lc) Ат + Y R„ Y у-2 = 0. (9.7) Уравнение (9.7) является матричным уравнением Ляпунова относи- тельно (Y-Lc) , и его решение в силу устойчивости А является положи- тельно определенной матрицей или нулем. Отсюда следует, что Y>LC. (9.8) Используя решение уравнения Риккати (9.6), по аналогии с (9.4), мож- но задать следующую меру качества: J (TIW, Y) = trace(c0YCj) = trace(YR). (9.9) Замечание 9.1. J (Tzw, Y) в силу отмеченного свойства решения урав- нения (9.6) является мерой Я2/Я“ -(пока не оптимального) качества сис- темы. Очевидно, что в силу неравенства (9.8) и соотношения (9.4), J (TIoW ) S J (TIW, Y), таким образом, подстановка в (9.4) решения уравне-
Глава 9. Проблема смешанной Н 2 / Н °° -оптимизации 211 ния Риккати (9.6) дает верхнюю границу Н2 -компоненты критерия каче- ства при соблюдении ограничения на Н°° -компоненту, т.е. верхнюю гра- ницу смешанного Н2 / Н°° -качества (Таким образом, замена в (9.4) Lc на Y является ключевым моментом, позволяющим превратить оценку Н2 - критерия (9.4) в оценку смешанного Н2 / Н°° -критерия (9.9)). Легко заме- тить, что J (Tzw, Y) имеет следующие свойства: 1) ^(TZW»Y) зависит только от передаточной функции TIW (так как Y также определяется только параметрами TIW ), которая в свою очередь зависит только от МПФ G и К (см. рис. 9.1 без штрихпунктира), поэто- му можно считать J(TZW,Y) = J(G,K); (9.9а) Вместо решения уравнения Риккати (9.6) можно использовать также решение Y матричного неравенства 1<(у)<0,где R() определена вы- ражением (9.5), тогда [7] 0 < Lc < Y < Y и можно задать альтернативную форму меры Н2 /Н°° -качества: J(Tzw,Y) = Uf{trace(c0YCj): Y = YT>0, R(Y)<o}. (9.10) Из (9.5), (9.6) и (9.9), (9.10) следует, что смешанная Н2 / Я“ -мера ка- чества является функцией параметра у. Этот параметр имеет простой смысл - он ограничивает норму Гаикелева оператора, соответствующего замкнутой системе TIW (норма Ганкелева оператора задается в виде ^-max (LqLc ), гДе ^тах ( ) _ максимальное собственное число матрицы в скобках, LO,LC - грамианы наблюдаемости и управляемости системы (9.1)). Действительно, известно, что Lo 2 0 отвечает уравнению Ляпунова: ATL0 + L0A+R„ =0. (9.11) Перепишем уравнение Риккати (9.6) в виде Y2AtY_1 +y2Y'1A+y2Y-iVY'1 +R„ =0 и вычтем из него уравнение (9.11), получим: Ат (y2Y-1 -L0)+(y2Y-1 -L0)a+y2Y_1VY_1 =0. (9.12) Так как матрица А - асимптотически устойчива, то уравнение Ляпу- нова (9.12) (относительно (y2Y-1-L0)) имеет положительно определен-
21?---------------------------------------------^12еория. 4ac^j ное решение или решение равное 0, поэтому (y2Y-1 - Lo) & о, чтоэ^ива" лентно у21 > L0Y => у2 > Xmax (LoY) , следовательно, в силу неравенства (9.8), у2^Хтах (LOLC). Таким образом, у действительно ограничивает норму Ганкелева оператора именно для передаточной матрицы Тх w так как в (9.6), (9.7) фигурирует только R~. 9.1.2. Формула вычисления смешанного качества системы с усложненной сввзыо Сформулируем лемму, дающую формулу для вычисления смешанной Н 2 / Н °° -стоимости системы рис. 9.2 без штрихпунктира, где Р(*)=: (9.13) Т| = Ац + В^ + ВгУ,, го = соП. z1=C,n + D12v1, r = C2n+D2Iw, Рис. 9.2. Система с усложненной связью (9.14) Пусть v = [хт цт j обозначает вектор состояния замкнутой системы (9.13), (9.14), т.е. ys=Fy + Bw, ч-н.». <’15> л 'H(V.
Глава 9. Проблема смешанной Н2 / Н°° -оптимизации 213 где А B2Cj вс2 А bd21 . Bl . ,Н0= С0 Co .H^ DjjCi Cj F = , В = Лемма 9.1. Рассмотрим систему рис. 9.2, где передаточные матрицы Р($) и Qi(j) описываются уравнениями пространства состояний (9.13) и (9.14). Пусть Tlw обозначает передаточную матрицу от w к г = (20,20. Пусть Р - внутренне устойчива и Lc обозначает грамиан управляемости пары (А, [В] В2]), т.е. удовлетворяет уравнению alc+lcat+bX+b2bI =о. (9.16) Предположим, что D12 - квадратная и несингулярная, A — B2D|2C| (9.17) - устойчивая матрица, и [В, в2] = -Lc[cJ" с£]. (9.18) 0 Dj2 ® р21 о J|p =1, тогда следующие формулировки эквивалентны: 1) замкнутая система рис. 9.2 без штрихпунктира внутренне устойчива и М.<1: 2) Q, -внутренне устойчива и ||Tvr || <1. А также смешанная №/77“-стоимость J(TZW,Y) (типа (9.9) (см. (9.19))) конечна тогда и только тогда, когда смешанная стоимость J (Q]) - конечна, и в этом случае оптимальное значение Ч где J(Q1) = j(Tvr,Y),v = Здесь Y - решение уравнения Риккати: fy+yft+yh?'mh1y+bbt=o, m = (d12 d")". Доказательство. Доказательство эквивалентности формулировок 1) и 2) приведено в работе [45]. Предположим, что первая иэ этих формули- ровок верна, т.е. система (9.15) внутренне устойчива и |ti w || < 1. Из вы-
Zlz________________________________________И" -теория. Часть i ражения (9.15) видно, что (так как Q| - строго правильная) замкнув система строго правильная (в описании отсутствует D) поэтому ^(T.W,Y) - конечна. Если же Q((s) не строго правильная (т.е. в (9.14) *о = C0x + D0r), то в системе (9.15) z0 = HnV + DnD21w и /(TXW,Y)-He конечна. Следовательно, J(TXW,Y) конечна тогда и только тогда, когда конечна J(Q|). Алгебраическое уравнение Риккати по наблюдению, ре- шение которого Y используется для стабилизации (см. штрихпунктир на рис. 9.2 и теорему 6.3) системы рис. 9.2 без штрихпунктира при одновре- менной минимизации |TXoW|2 с соблюдением условия ||ТХ «|| <1 (напом- ним, что именно эта матрица Y входит ив/ (Txw, Y) (см. (9.9)), отличает- ся от уравнения типа (9.5) наличием матрицы М [45], а именно: R(Y) = FY + YFT+YHjrMH1Y + BBT =0, (9.19) гдеМ = (О,2 . Так как А - устойчива и то существует симметрическая матрица Y, удовлетворяющая уравнению Риккати: AY + YAt + YC?C1Yy“2 + BBt=0, и матрица А + YС]ГС1 - устойчива (см. теорему 6.3). Определим следующую симметрическую матрицу Y 0' 0 Lc]’ (9.20) (9.21) (9.22) Y = где Lc удовлетворяет (9.16). Подстановкой (9.22) в (9.19) можно убедить- ся, что Y является решением (9.19) [42], т.е. Y = Y. По аналогии с (9.21) с учетом теоремы 6.3 сформируем для (9.19) матрицу F +- мат- рицу системы (9.15), замкнутой по выходу Z, через оптимальный (по Н2 - критерию) регулятор (см. штрихпунктирную линию на рис. 9.2). Рассмот- рим эту матрицу: F+YHfMHj =F + = F + Y 0 0 L с J [Ш, I Cn J ГгУ'ю.гС, СХ2(О12О/2) ( С?' (d^D^)’1 D12C] c}(d12d12)-' с. Y 0 0 L. 'u
Глава 9. Проблема смешанной Нг! Н°° -оптимизации 215 сУс( LJIc^y-'c, CTD^C, 1 C^DuD^V'Ct] О Г А ВС21 YC^Cj YC^B^C, = В2С. A Ццсу^у'с, ЦСУ(Dl2DL)’1 С, A + YCyc, BCj+YCyD^q = В2С( +ЦСУ (D[2)’* С, А + ЦСУ (D12Dy2)“ С( ’ Из равенства (9.18) имеем': вх2=-цсу, b(dL = -lccL следовательно, В2С| +LcCt (D|2) Ct-В2С1 -В2ВУДв}2) с,=о, А + LcCf ( D] 2d[2 ) 1 q = А - в2ву2 (в12ву2у' С( = А -в^с,. Таким образом, F + YH[MHt A+Ycyc, О * а-в2в'Ус, Отсюда, из устойчивости матриц A + YCfCj и A-BjB^C, (см. (9,21) и (9.17)), вытекает устойчивость матрицы F + YH^MH, вне зависимости от блока «*», в силу чего матрица Y (9.22) есть решение (9.19), и она действи- тельно стабилизирует и оптимизирует систему рис. 9.2 со штрихпунктиром по Н 2 -критерию, при соблюдении условия ||Tl w| е< у, т.е. обеспечивает оптимальное значение смешанного Нг !Н°° -качества системе рис. 9.2 со штрихпунктиром. Теперь осталось вычислить это оптимальное смешанное Нг /Н°° -качество замкнутой через YH^MH, системы (9.15) (см. (9.9)): = trace (COYCJ +C0LcCj) = trace(c0LcCj)+trace (c0YCj) = = trace (c0LcCJ) + J (т„, Y) = trace(c0LcCj)+J (Qt), что и требовалось доказать.
216 __________________________________________Я”-теория. Часть! 9.2. Проблема минимизации смешанного Н 2 / Н ~ -КАЧЕСТВА И ФОРМУЛЫ РЕГУЛЯТОРА Как уже говорилось в предыдущем разделе, замена решения уравнения Ляпунова (9.3) на решение уравнения Риккати (9.6) в /(TIW,Y) дает верхнюю границу Я2-компоненты при ограниченной Я"-компоненте качества. То есть для системы рис. 9.1 без штрихпунктира с регулятором (Ас,Вс,Сс), для которого существует неотрицательно определенное ре- шение уравнения (9.6), это решение обеспечивает Я2-качество j(TI|)W,y) гарантировано не хуже j(TIW,Y) с одновременным ограниче- нием I|t,w|I . Таким образом, j(Tzw,Y) может рассматриваться как до- It 'IfOO полненная (в сравнении с j(TZ|jW)) стоимость за ограничение на Я"° - компоненту, что позволяет поставить проблему оптимизации, известную под названием дополнительная проблема минимизации, которая формули- руется следующим образом: определить (Ас,Вс,Сс, Y), минимизирую- щие функционал j(TIW,Y), где Y>0 - решение алгебраического урав- нения Риккати (9.6). 9.2.1. Решение дополнительной проблемы минимизации Решение этой проблемы осуществляется оптимизацией над открытым множеством % = {(АС, Вс,Сс, Y): Y^O, A+y~2YRm - асимптотически устойчива (см. теорему 6.3 и рис. 9.1 со штрихпункти- ром), (Ас,Вс,Сс) - управляема и наблюдаема}. Необходимые условия оптимальности для проблемы дополнительной минимизации выводятся с помощью техники множителей Лагранжа в рам- ках множества х с ограничением (9.6) - рассматривается функция Ла- гранжа (см. (9.9)): L(Ac,Bc,Cc,Y,pA) = г - г- - -it (9-23) = t г ас е|Х Y R + A Y + У Ат + у~2 Y RM Y + V Jpj, где множители Лагранжа X. > 0 и ре R2nx2n не должны быть равны 0 одно- временно. Дифференцирование лагранжиана (9.23) и манипуляции с получен- ными уравнениями в соответствии с правилами теории вариационного исчис- ления дают формулы регулятора (Ас, Вс, Сс) в форме теоремы 9.1 [38].
Глава 9. Проблема смешанной Н 2 / Н°° -оптимизация____________ Теорема 9.1. Если (АС,ВС, Сс, Y) решают дополнительную проблему минимизации, то существуют неотрицательно определенные матрицы Q,P,Q такие, что Ас = A-QE-£PS+y-2QRi„, Bc=QCIV24; ,cc=-r-;b^ps, (9.24) причем S = (ln+P2y'2QP)'1, (9.25) где Р > 0, как уже говорилось, определяет соотношение между Н2 - и Н" -весами (R2oe = P2R2), Y= Q+Q , (9.26) L Q QJ и матрицы эти могут быть найдены из решения трех уравнений Риккати: О = AQ+QAT + Vi+Y“2QRi„Q-QXQ; (9 27) 0 = (A + Y"2[Q + Q]R1„jrP+pjA+ffQ+Q^+RrS^; (9.28) o=(a-lps+7-2qr1m)q+q(a-eps+y’2qr1^t + (9 29) + Y"2Q (Ri« + ₽2StP£PS)q + QSQ, в которых £ = B2R2lB2, Ё = C|V£*C2. При этом дополненная стоимость задается как J (Tw, Y) = trace^Q+QjR, +QSTPEPs]. (9.30) Обратно, если существуют Q, Р, Q £ 0, удовлетворяющие (9.27) - (9.29), то (Ас,Вс,Сс, Y) задаются (9.26), (9.25), (9.24) и удовлетворяют (9.6) с дополненной стоимостью (9.30). Если Q и Q - неотрицательно определены, то можно легко показать соблюдение условия Y > 0 из (9.6), записав Y как |Т |l/2 q1/2 y-[Q Ч® °1 |Q . Можно несколько упростить уравнения теоремы 9.1, если _ i = 0 или, что эквивалентно, (5 = 0. В этом случае - > (9.26), а (9.24) превращается в
________________________________________н°° -теория. Часть 1 Ac=A-Q£-£P+y2QR1oo, bc=qcJv2-'. cc=-r2'bJp, где Q удовлетворяет (9.27), а (9.28), (9.29) принимают вид o=(a+y-2[q+q]rIo.)tp+p(a+y-2[q+q]rIm)+ +R, -P2P, 0 = (A-2P+y-2QRi„)Q+q(a-2P + y’2QRi.)T + +y’2QR^Q+Q£Q. дополненная стоимость выражается формулой J (TIW, Y) = tr ас e[(Q+Q)Rt + Q P2 p]. Заметим также, что если кроме D, = 0 принять Rloo = 0, то теорема 9.1 сужается до стандартных Я2-результатов. Теорема 9.1 позволяет синтезировать регулятор (Ас,Вс,С,.), но для этого необходимо решить систему трех модифицированных алгебраиче- ских уравнений Риккати относительно переменных Q,P и Q . Здесь урав- нения для Q и Р подобны уравнениям по наблюдению и управлению в Я2 -теории. Заметим, что уравнение для Q нс связано с уравнениями для Р и Q и поэтому мржет быть решено независимо от них. Однако уравне- ния относительно Р и Q связаны друг с другом и зависят от Q . Таким образом, обычный принцип разделения несправедлив для смешанной Я2/Я”-проблемы. Наконец, заметим, что если Я“-ограничение доста- точно ослаблено (у -»«>), то уравнение для Р становится независимым от Q , и, таким образом, уравнение относительно Q для синтеза регулятора становится ненужным, а для оставшихся уравнений относительно Р и Q соблюдается принцип разделения, как в Я 2 -теории. Как уже говорилось, теорема 9.1 дает необходимые условия для допол- нительной проблемы минимизации. Сформулируем теорему, дающую дос- таточные условия для существования регулятора, решающего смешанную Я2/Я“-проблему. Теорема 9.2 [38]. Предположим, что существуют Q,P,Q>0, отвечаю- щие (9.27) - (9.29), и (Ac,Bc,Cc,Y) задаются (9.24) - (9.26). Тогда матрица д - асимптотически устойчива, передаточная функция замкнутой системы
Глава 9. Проблема смешанной Н211Г -оптимизации 219 отвечает Я” -ограничению - <у и Н2-критерий качества (9.2) удовлетворяет границе J (Tzo«) 2 tracel [(Q+Q)Rj +qstpeps]. Основной проблемой при использовании теоремы 9.1 является то, что неизвестно, соблюдаются ли в рамках заданной системы условия, при ко- торых взаимосвязанные уравнения Риккати (9.27) - (9.29) обладают неот- рицательно определенными решениями. Ясно, что для достаточно боль- ших Y уравнения (9.27) - (9.29) приближаются к стандартным уравнениям ц2 -проблемы, для которых гарантировано существует решение. Однако больший интерес представляют небольшие у (иначе теряется смысл Н" - компонента). Пусть у0 - минимум |T2iW|^ над множеством всех стабили- зирующих регуляторов, тогда если дополнительная проблема минимиза- ции имеет решение для всех у > у0, то для всех таких у существуют неот- рицательно определенные решения Q,P,Q уравнений Риккати (927) - (9.29) [38]. Сходство уравнений (9.27) - (9.28) с уравнениями по управлению и на- блюдению в Н 2 -теории наталкивает иа мысль о возможности дуального результата. Действительно, функционал ДТ^), заданный (9.4), может быть представлен в виде [38] J(TJoW) = traceL0V, (9.33) где Lo > 0 - грамиан наблюдаемости, удовлетворяющий уравнению Ля- пунова (9.11), в котором матрица заменена на R. Далее, заменяя в (9.33) Lo на решение уравнения Риккати AtX + XA + XVooXy‘2+R=0 (9.34) (где V„ имеет такую же форму как V , но включает в себя компоненты для Н“ -случая Vloo и V2oo), можно получить ограничение на Н°°- . компоненту. Заметим, что уравнение (9.34) дуально (9.6) и подобно урав- нению по управлению в Н2 -теории. Решение уравнения (9.34) - X (так же как Y в множестве х) обладает стабилизирующим свойством, т.е. матрица А + у”2К,Х - асимптотически устойчива. Здесь также (как в тео- реме 9.2) достаточные условия для границы №-критерия определяются решением системы трех взаимосвязанных модифицированных уряащндй Риккати, дуальных (9.27) - (9.29). И, наконец, если R00 = RhV00 = V,
220 Н°° -теория. Часть I то можно показать, что trace YR = trace XV (см. (9.9)) и, таким образом, решения основной и дуальной проблемы совпадают. Если же равенства (9.35) не соблюдаются, то целесообразность использования основной или дуальной проблемы должна рассматриваться в зависимости от вида кон- кретной задачи оптимизации (в некоторых частных задачах дуальная про- блема может дать лучшие границы качества, чем основная). 9.2.2 Альтернативные формы решения дополнительной проблемы минимизации Иногда для уравнений Риккати (9.27) - (9.29) используют альтерна- тивные формы, которые в некоторых случаях дают упрощения при чис- ленных расчетах. Одна из форм возникает в силу того, что матрицы ре- гулятора (9.24) не зависят от Р и S по отдельности, а в них входит член Z = PS. Очевидно, что если матрицы Р, S - симметрические и неотри- цательно определенные, то Z - также симметрическая и неотрицательно определенная. Лемма 9.2. Пусть Q > 0 и предположим, что существуют Р й Q > 0, удовлетворяющие (9.28) и (9.29). Тогда Z = PS удовлетворяет уравнению о=(а+y'2qr1m+y-2q[r1o. -p2R, ])Т Z+z(a+y”2QR1m + +Y‘2Q[Ri~-P2R1]) + R1-z(e + P2y“4q[r1o.-P2R1]q)z+ (9.36) +P2Y'2ZQSQZ, a (9.29) эквивалентно 0 = (A - EZ+Y2QR,„ )Q + Q(A - EZ + Y’2QRi» f + (9 3?) +y‘2q(r1oo +p2zez)q+qeq. Кроме того, (9.24) и (9.30) принимают вид: Ac=A-QE-EZ + y-2QR1oo; Bc=QClV2‘; (9.38) C^-R^BjZ, J(Tzw,Y) = trace[(Q + Q)R1+QZEz]. (9-39) Доказательство. Формулы (9.37) - (9.39) тривиально получаются из (9.29), (9.24) и (9.30) заменой Z = PS. (9.40) Чтобы доказать (9.36), выразим Р из (9.40) через Z и Q. С учетом (9.25) и того, что матрицы в (9.40) симметрические (т.е. Z = ZT = PS = STPT = SP),
ря<.па9. Проблема смешанной Н21Н” -оптимизации___ 221 |(i„-PY2zq)p=z p(ib-P¥2Qz)=z р=(i„ - P¥2zq)’' z=z(i„ -pYqz)'1 . Используя полученное выражение для Р, произведем над уравнениями (9.28) и (9.29), в которых осуществлена замена Z = PS, следующие мани- пуляции: (l„-p¥2ZQ) (уравнение (9.28)) (l„-₽2y"2QZ)+P¥2Z (правая часть уравнения (9.29)) Z (которые не нарушают равенства (9.28), так как правая часть уравнения (9.29) равна 0) => 0 = {(a+y"2[Q+Q]Ri-) Z-p2Y-2ZQATZ-P2Y-4ZQRlosp+Q]z}+ + {Z(A+Y~2[Q+Q]R^)-ZAp2Y'2QZ-p2Y~4Z[Q+^RlwQZ}+ + {R, -p2Y"2ZQRi - B2Y~2R,OZ+B4Y~4ZOR.dZl - izsz-P2y~2zqzez- -^ZEZQZp2Y-2) +[P4y"4ZQZEZQz]) + { p2Y~2ZAQZ-(p2Y~2z£ZQZ)+ +P2y~4zqr100qz}+{ P2y~2zqatz-p2y~2zqzsz+P2y~4zqRi~Qz^ +{P¥4zqr1mqz+[b4y-4zqzezqz)+P2y'2zQ^Qz =» 0 = {(a + Y’2 [Q + Q]Rloo )T Z - P2y’2R,Qz}+ +{z(a+y’2[Q + Q]R1.)-P2y-2zQR1}+R1 + + P2Y’2ZQ2QZ + {-ZZZ-P2y'4ZQR1ooQZ+P4y"4zQRi^Z}=> 0=(a+y~2q r +y'2q[R!« -P2ri ])T z + • + z (a + Y"2QRloo + y-2Q[Ri<» -P2Ri])+Ri + +P2y~2zqёq z - z{e+P2y’4QRi-Q-P4y"4QriQ}z ° = (a + y-2Q R1oo+y-2Q [R!..-P2Ri])Tz + +z(A + Y-2QRIee+Y-2Q [Ri. -P2Ri])+ +ri -z{s+B2Y-4Q[Rlee -p^] q}z+p2y"2zQ£Qz’ ЧТо и требовалось доказать.
222_____________________________________Н°° -теория. Часть I Так же интересно произвести еще одну замену переменных, трансфор. мирующую (9.27) - (9.29): W = (z-1+P2Y-2q)"I=(p-1+PY2[Q + Q])'1 (см. (9.40) и (9.25)), (9.41) где матрица W - симметрическая и неотрицательно определенная, так как матрицы P,Q,Q - симметрические и неотрицательно определенные [38]. Лемма 9.3. Пусть Q > 0 и предположим, что существуют Р и Q > 0, удовлетворяющие (9.28), (9.29). Тогда W (9.41) отвечает уравнению о = (а + у-2 [q + q][r - P2R, ])Т w + +w(a+y’2[q+q][r1- -P2ri ])+Ri +P2Y-2WV1W- (9.42) -WE W - P2y-4w[q + Q][Ri- - P2r! ][q + Q]W и уравнение (9.29) эквивалентно o=^a-e[w‘-3Y2q]’1 +y'2QRi-^Q+ +q^a-e[w‘-p2y"2q]'i+y"2QRi-^ + (9.43) +Y-2q( + P2 [ W’* - P2Y-2Q]'1 E [ w-1 - P2Y'2Q]' 1 jO + QEQ. Кроме того, (9.24) и (9.30) превращаются в ас =a-q£-e[wi-p2y'2q]'i+y'2QRi«.; •Bc=QCJV2-'; Cc’-Rj’Blfw’-PY^Q]'1, У(Тги,,У) = trace (q+q)Ri +q[w‘ -pY2q]"‘ e[w-1 -P2y'2q]-1 Доказательство этой леммы аналогично доказательству леммы 9.2, только для того, чтобы получить уравнение (9.42), нужно сформировать w[z-‘(6.36)Z-‘ +02y’2(6.27)]w . Можно рассмотреть более простой случай, когда Н2 - и Н°° -веса рав- ны, т.е. R1O. = R1, 3 = 1. (9.44) Тогда уравнение для Z (9.36) упростится и примет вид 0 = (А + Y~2QRi~ )Т Z + Z (А+Y-2QRi«, ) + RIo. - ZEZ +y~2ZQEQZ. (9.45)
Глава 9. Проблема смешанной Н1 !Н"° -оптимизации_______223 Покажем, что в этом случае уравнение (9.37) становится излишним, так как его решение выражается через Z: Q = Z4y2. Действительно, сделав такую замену в (9.37), получим: o=(a-sz+v-2qr1„)y2z-1 +y2z-,(a-ez+y-2qr1-)t + + Y~2Y2Z-1 (Rloo+ ZSZ)y2Z~1 + QEQ => 0 = y2AZ-' -y’S + QR^Z-’ +y2Z-,At -/E + Z'1RlmQ + + Z~'R1,Z~1y2 + y2S + QEQ => 0 = (ay2+QRi-)z-’ +Z-,(ATY2+Ri-Q)-V2b+Z",R1o.Z-1Y2+QSQ, если умножить последнее уравнение на Zy*2 слева и на Z справа, то по- лучится уравнение (9.45), таким образом, при условии (9.44) уравнение (9.37) относительно Q является избыточным. Аналогично можно показать, что и для переменной W (9.41) при усло- вии (9.44) уравнение (9.43) является избыточным, так как его решение вы- ражается через W: Q = у2 W-1 -Q . Таким образом, в этом случае решение проблемы требует только двух уравнений Риккати: О = AQ + QAT +V, +y_2QR10.Q-QSQ, О = ATW + W А + Rle, + y-2W VjW - WEW. В этом случае искомый регулятор задается формулами: Ас = А - QE - Е[ W"1 - у-2q]-' + y-2QRi- . Bc=QC2V2-1, cc--r;1bI[w-1-y’2q]-1. Полученные результаты в точности совпадают с работой Дойла [45], в которой рассматривается чисто проблема И “ -оптимизации (матрицы Q и W эквивалентны матрицам Y„ и Хм). Таким образом, решение дополни- тельной проблемы минимизации при условии (9.44) игнорирует И2 - аспект н задача вырождается в задачу Н°° -оптимизации. Если же поло- жить у —» °°, то получается стандартная Н2 -задача. Заметим, что полученные результаты могут быть расширены на случай регулятора пониженного порядка (т.е. порядка меньшего размерности сис- темы). При этом в уравнениях (9.27) - (9.29) появляются дополнительные члены, а также дополнительная переменная и соответствующее ей уравне- ние [38].
224 __________________________________________Я” -теория. Часть I 9.3. Алгоритм синтеза субоптимального регулятора, ~ РЕШАЮЩЕГО СМЕШАННУЮ Н2 / Н°° -ПРОБЛЕМУ УПРАВЛЕНИЯ Данный алгоритм использует решения связанных уравнений Риккати (9.27), (9.31) и (9.32), для получения которых обычно применяются методы гомотопического продолжения: для достаточно больших у. рассматривае- мая проблема аппроксимируется 772-проблемой, которая дает достовер- ное начальное (стартовое) значение решения. Параметр продолжения у затем последовательно уменьшается, пока либо достигается требуемое значение 7 = 7^, либо дальнейшее его уменьшение невозможно. Опи- санный алгоритм может быть представлен следующим образом (здесь чис- ло е играет роль критерия, определяющего сходимость алгоритма). 9.3.1. Алгоритм синтеза Н2 / Н°° -субоптимального регулятора Шаг 1. Взять некоторое достаточно большое значение 7 > 0. Шаг 2. Решить уравнение (9.27) - определить Q . Шаг 3. Положить к = 0, Qo = 0 . Шаг 4. Решить уравнение (9.31) с Q = Q* - определить РЬ1. Шаг 5. Решить уравнение (9.32) с Р = Р*+1 - определить Qi+1. Шаг 6. Если к > 1, проверить выполнение условий сходимости |P*+i-M<e и ||Qt+1 -Q*||<e. Шаг 7. Если сходимость в шаге 6 не достигнута (или к = 0), то взять к = к +1 и вернуться к шагу 4. Шаг 8. Если сходимость в шаге 6 достигнута, то в случае, если 7 больше требуемого значения, уменьшить 7 и вернуться к шагу 2. Шаги 2, 4, 5 представляют собой решение стандартного уравнения Риккати, для которого разработано множество методов [10, 19]. Известно, что такое уравнение разрешимо, если его квадратичный член неотрица- тельно определен. Применительно к уравнению (9.27) это означает неот- рицательную определенность матрицы y-2RIoo - Е, таким образом, накла- дывается ограничение на возможные значения у , т.е. существует некото- рая граница, при переходе через которую уравнение (9.27) становится не- разрешимым. Поэтому наиболее ответственным шагом в алгоритме явля- ется шаг 8, на котором осуществляется выбор нового у . Важно найти «плавный» переход к меньшей величине у без ухудшения вычислитель- ной эффективности. Эту проблему решают более сложные алгоритмы про- должения [38].
Глава 9. Проблема смешанной Н2 !Н°° -оптимизации 225 . Решение смешанной Н21 Н°° -проблемы управления можно предста- вить кривой в системе координат Н2 - и Н°° -компонент качества системы (выраженных через потери) (рис. 9.3). Н°°- качество'1 Рис. 9.3. Вес потерь-компонент в системе оптимального смешаппого качества в зависимости от у Из рисунка видно, что чем выше Н2 -потери в такой системе, тем меньше ее Н°° -потери (и наоборот). Это вообще характерно для много- критериальной задачи оптимизации. Если убрать Н°° -ограничение (у —> оо ), то получается наилучшее Н2 -качество и проблема вырождается в Н2 -задачу. И напротив, при у —>у (где у* соответствует Н“- оптимальному значению) Н2 -качество системы наихудшее. 93.2. Пример синтеза Н2 / Н°° -субоптимального регулятора Программа, в которой реализован алгоритм синтеза п. 9.3.1, позволила построить субоптимальное управление самолетом из главы 8 по смешан- ному Н2 /Н°° -критерию. Результаты синтеза не только подтверждают (см. рис. 9.4 - 9.7, где приведены, соответственно, отклонения по высоте (АН), по скорости (AV), рулей сектора газа (дег) и сигнала управления тангажом (•0с.у.) от глиссадных в результате появления сдвига ветра при использовании Н°° -, Н2 - и смешанного (Н2/Я“-) регуляторов) пра- вильность предположения, сделанного во введении главы 9 по поводу компромиссности (в отношении к Н°° - и Я2 -подходам) ожидаемого ре- зультата, но и приводят к неожиданным на первый взгляд фактам. При некоторых весовых соотношениях между Н°° - и Н2- компонентами смешанного критерия его эффективность (рис. 9.8) превы- шает эффективность, казалось бы, самой подготовленной к «неприятно- стям» Н°° -оптимальной системы. Объясняется этот факт тем, что, как 16 Зак. 108
226 Я “-теория. Часть! видно из (5.34), задача Я" -оптимизации означает на самом деле миними- зацию (по допустимым К) максимальной (по возможным w) ошибки системы, и как всякая минимаксная подстановка приводит к так называе- мому «гарантированному результату» - рассчитанному на неудовлетвори- тельную работу в наихудших условиях. В ненаихудших условиях резуль- тат мог бы быть и лучше, но Н°° -подход по определению должен отказы- ваться от него (в пользу максимальной готовности к предотвращению раз- рушительного влияния наихудшего воздействия), чего не требуют от сме- шанного регулятора. Рисунки 9.8 - 9.11 свидетельствуют, таким образом, о предпочтительности оптимизации по смешанному критерию, если наи- худшее воздействие не губительно для системы. t,c > \ 1 > 1 i < // > III "" iff II1 1(1 _ ДН- nf Ih &Ha*» HLs Is, AH> К / / / Рис. 9.4. Реакции оптимальных систем по высоте на возмущение AV.Mfe ° & Ч Ч X » X X • « AU* XC, AW» / / ( t' \ Л t r Рис. 9.5. Реакции оптимальных систем по скорости на возмущение
Глава 9, Проблема смешанной Н1! Н°° -оптимизации •в.г., град. ' / Уч Ос/1 1 t,e < Рис. 9.6. Сигналы управления (сектор гам), оптимально компенсирующие возмущение ве.у.. град, 4 / / \\ 6м** \U \ \\^ 1 1 м Рис. 9.7. Сигналы управления (руль высоты), оптимально компенсирующие возмущение ЛИ, и «.с у»-*— 1 WHIM ч№- /1/и ш -<^Н2 + KMt.WtCMatXh.**'» -o-K»«_wcoa-i.ca_<*’S) — КВН.ИСМиГСи.а*"» —K2*i_e<CM"i.ca_e*a.s) —имимм>1.<м** "ffr Рис. 9.8. Влияние соотношения компонент в оптимальной по смешанному критерию системе иа отклонение высоты 16'
228 Рис. 9.9. Влияние соотношения компонент на отклонение скорости «с.у,, град. аге к 17.5 IS 13.6 10 ?.s -O-H2 -Л-Н2/М in!(Ch2*Chjr>№) HMLInf(Ch3>0.8.Cb_fnf"1) H2/H_W(Ch2-1 .Chjnfal) -o~H2/Mjn4Ch2«1.ChJnb1,5) —— MWJn>(Ch2«1,Ch_W"S) ——Ha/HJn4CM«’.Chjn*3/5) 2.5 •15 5 -7.6 .10' » : i 4 Рис. 9.10. Влияние соотиошеиин комнонент иа управление рулем высоты tar,, град, Рис. 9.11. Влииние соотношения компонент на управление сектором газа
Глава 9. Проблема смешанной Н2! Н“ -оптимизации 229 9.4. Подход ВЫПУКЛОЙ ОПТИМИЗАЦИИ К ПРОБЛЕМЕ СМЕШАННОГО Н2 I Н°° -УПРАВЛЕНИЯ Решение системы взаимосвязанных уравнений Риккати, приведенных в предыдущем разделе, очень трудоемкая и сложная задача. В этой главе рассматривается альтернативный подход к решению смешанной Н21 Н°° - проблемы управления - подход выпуклой оптимизации. Вместо решения уравнений Риккати используется процедура выпуклого программирования [6], для осуществления которой разработано большое число алгоритмов. Определим некоторые множества, которые используются в дальнейшем изложении. Множество допустимых регуляторов K(s) для объекта G(s) (рис. 9.1 без штрихпунктира) обозначим A(G). Заметим, что A(G)*0 только тогда, когда G(s) - стабилизируема по u(r) и детектируема по у(г). Второе множество регуляторов: А.(С) = {К:КеА(О);|т^|_<у} представляет собой подмножество A(G) с ограничением на Н“-норму. Задача состоит в нахождении KgA„(G), обеспечивающего Н21Н°°- оптимальную меру качества (выраженную через потери): v(G) = inf{j(TIoW);K6A.(G)}. (9.46) В случае статического регулятора (постоянной матрицы в цепи обрат- ной связи) множество регуляторов с ограничением на Н°° -норму опреде- ляется следующим образом: A00CT(G) = {K:Kg A00(G); КеЯ,х₽}, где q = dim (u(f)), р = dim (у(f)), а Н21 Н°° -оптимальная мера качества есть vCT(G) = inf{y(T^);K6A.,„(G)}. (9.47) 9.4.1. Проблема обратной связи по состоянию Статический оптимальный регулятор. В этом разделе рассматрива- ется случай, когда регулируемый объект задан моделью в пространстве состояния, в которой вектор состояния пригоден для обратной связи. Ока- зывается, что для проблемы обратной связи по состоянию Н2Ш°°- оптимальные регуляторы могут быть выбраны как постоянные матрицы коэффициентов усиления обратной связи, причем эти статические регуля- торы обеспечивают качество замкнутой системы ие хуже, чем динамиче- ские. Модель объекта в проблеме обратной связи по состоянию задается следующим образом:
230 G#(s)=: ________H°° -теория. Часть I х = Ax + BjW+Bju; zo=Cox + Dou; „_Г«Т „т!т (9.48) Теорема 9.3. Для объекта обратной связи по состоянию Н2 / Н°° - Оптимальные потери для статического регулятора (9.47) не выше, чем для динамического (9.46), т.е. vCT (G^) < v(G^). Доказательство. Не нарушая общности, примем у = 1. Пусть дина- мический регулятор K(j) задается следующей системой уравнений в про- странстве состояния: [§ = Ac5 + Bc1x + Bc2w, (u = Cc§ + Dcx. Тогда замкнутая через регулятор К система представляется следую- щей моделью в пространстве состояния: у = Fi|/ + B3w, • zo = Hov; Zj =Н1щ, (9.49) где ц» = х Л. - вектор состояния замкнутой системы, в. вс2 . вэ = (9.50) F = A+B2Dc B2Cc . B01 Ac J Ho = [C0+DoDc D0Cf ]; Hj = [C,+DjDc DjCJ. Заметим, что так как К($)6 A., (G^ ), то F - устойчива и в условиях теоремы ,К)|| <1. А значит (см. [38] и (9.5), (9.6), (9.10)), су- ществует матрица Y = YT > 0 такая, что R(Y) = FY+YFT + YH^H1Y + B3B}<0. (9.51) Используя понятие такой матрицы Y, можно сконструировать стати- ческий регулятор следующим образом. Пусть размерность регулятора рав- на размерности объекта л (тогда deg Y и R(Y) = 2п . Разобьем Y и R(Y) на четыре пхп блока, т.е. ‘Y. Y2 Yj Y3 r,(y) r2(y)' _Rl(Y) R3(Y)j’ Y =
Глава 9. Проблема смешанной Н2 / Н°° -оптимизации 231 где Y, >0 и R, (Y)<0. Тогда оптимальный статический регулятор зада- ется как [38] K^=Dc+CcY2tY1-1. (9.52) Система G,f, замкнутая через К*л, описывается в этом случае сле- дующей системой уравнений пространства состояний: x = FCTx+B]W, •z0=HOCTx, (9.53) z,=HiCTx, где FCT = А+В2К‘СТ, НОи = Со +DoK*w, Н1ст = С! +0,^. (9-54) Покажем, что (11) блок матрицы R(Y) - (блок R] (Y)) представляется выражением: R, (Y) = FCTY, + Y,F^ + YXCTH1CTYi +8,8^. (9.55) Распишем левую часть неравенства (9.51) с Y и R(Y), разбитыми на блоки: Выпишем выражение для блока R|(Y) полученного матричного ра- венства: R, (Y) = (А + B2Dc ) Y, + B2CcY2T + Y, (А + B2Dc )Т + + Y2CM +Y, (C[ +DjDf)(C, +D.DJY, + +y2CjD^ (c,+d,dc)y,+y, (c[+dJd? )dxccyJ+ +y2 (c№jCc ) y2t+bX=(A+b2dc +b2ccy2t y;1 ) y, + + Y, (a + B2Dc + BjCcYjYf1)7 + B,B[ + Y^CjY, + + Y.D^C,^ + YjC^D^jYj + УДЭДЪВД + + YjCjD^Y, + Y2CjD^D1DcY1 + Y.CfyCjJ +
232 -теория. Часть т + Y2cXd,CcY2T = =(a+b2(dc+ccy2ty,-,))y1 + +Y, (a + B2 (dc + Cc Y2t Yr1 ))T + B^f + +Y, (cfa +DcTD^Cj + CjrD1Dc +DjD1rD,Dc + +(Y1-')T Y^Dfa 4-(yi-*)ty2c№,dc + +C?D,CcY2IY1“1 + DJD1tD1CcY2tY1“i + +(V )T ^CXDjQY/Yr1 )y, = FCTY, + Y.F* + +BX + Y^Cfa +^DcTD1TC1 + (yi'1)T Y2CXC, J+ +[c?D,Dc +C^D1CcY2tY1- ']+[dXDiDc + KV/YjCMDA +DtTD1rD,CcY2rY11 + +(y1'1)T Y^DfocXY,-1 JjY, =F„Y, + Yj£ + +B#+Y, (cfa +C^C + K^D?D,K; ) Y, = = FctY1+Y1F^ + Y,H^HictY1+B1B^ (cm. (9.54)), таким образом, справедливость равенства (9.55) доказана. В случае замыкания объекта (9.48) оптимальным стационарным регулятором К^г (тогда должно быть и = К*тх) (9.56) уравнение (9.48а) примет вид: x = (a + B2K;t)x + B]W , и, таким образом, должно стать: ¥opt = FCT = А + В2С (см. (9.54)). (9.57) Согласно (9.55), сомножителем при Yj в первом слагаемом правой части является матрица FCT, выражение которой (из первого слагаемого после третьего знака равенства преобразования для Ri (Y)) есть FCT = A + B2(Dc+CcY2TYr1). Сравнивая его с (9.57), получаем структуру оптимального стационарного регулятора (9.52).
Глава 9. Проблема смешанной И2! Н°° -оптимизации_________________233 Так как Y]>0 и Rj<0, то FCT - асимптотически устойчива и |tZ|W(Gs/,K < 1 [42]. Следовательно, К„ е Л.,ст (G sf ), и множество статических регуляторов, решающих проблему Н2 / Н°° -оптимизации для объекта G , не пусто. Теперь выразим меру качества, типа (9.9), для статического регулятора (см. (9.47) с учетом того, что статической оптимальной системе отвечает Y, из (9.55)) через меру качества для динамического регулятора. Для ста- тического (управление формируется по закону (9.56)) зависит от матрицы HoctYiHL = (с0 +D0K’ct)y, (с0 +D0K*ct)T = = C0Y,Cj +D0K’CTY1c; + + D0K’CTY1K’jD^ =COY,C; +D0DcY,Cj + + d0ccy2tcJ +coy,d^ +c0y2c!d; + + dodcy1dJdJ +dodcy2cJdJ + + D0CcY2tDjDJ + D0Cc y2 Yr*y2cJdJ . Для динамического (управление J (Tw, Y ) зависит от матрицы формируется по закону (9.49)) = [(С0 + DODC)Y1 +D0CcY2t (C0 + DoDc)Y2+DoCcY3]x (Co + DoDc)T CcTDj = (C0 + D0Dt)Y1(C0+D0D(. )T + + D0CcY2t(C0+D0Dc)T+(C0+D0Dc)Y2CIdJ + + D0CcY3C JD J = CqYjC J + CqYjDJdJ + DoD.YjCj + +dodcy,d^dJ +d0ccy2tdJdJ+doccy2tcJ + +coy2c*dJ+dodcy2cJdJ +doccy3cJdJ. Сравнивая полученные выражения, легко заметить, что HocrYjH^ =H0YHj-D0CcY3CjDj + + doccy2ty1-*y2cX =hoyhJ - -DoC^-yJy.-’y^cX, 15 Зак. 108
234 ______________________________н°° -TeopggJ**£^ и поскольку ('У, -Y2t Yf1 Y2)s0 [43], то из последнего вЫра*вНИ следует, что trace < trace (H0YHj). А значит, (см. свойство 2) меры (9.9)), vct J < Уот (Tzw, Y, ) = trace (hOctY1Hoct^S (9.58) S trace (H0YH0T) = /(T1W,Y) = v(g,z). Таким образом, использование динамического регулятора не улучШйТ Н2///“-качество замкнутой системы для объекта с обратной связью по состоянию, что и требовалось доказать. Синтез статического оптимального регулятора. Для системы G,y (9.48) статический оптимальный по смешанному критерию регулятор в виде обратной связи по состоянию (9.56) может быть найден как u = W*Y'lx (9-59) с использованием процедуры выпуклой оптимизации. Регулятор в этом случае задается в виде KCT = WY~l, (9.60) где Y - решение матричного квадратичного неравенства (сформированного из нетривиальной чвсти (9.55) уравнения Риккати), учитывающего ограни- чение на Н°° -норму (см. оценку (9.9) и ее физический смысл), a W - пара- метр выпуклой оптимизации. В дальнейшем изложении также примем у = 1, п = dim(x), q = dirn(u). Зададим строго выпуклое множество [42]: Q ={(W, Y)e Я?хл : Y = YT > о}. Для (W, Y)e Я определим функции f (W, Y) = trace[(C0 Y + D0W) Y-1 (Co Y+D0W)T ], (9.61) e(w,Y) = ay+yat+b2w+wtbI +b,b7 + +(C,Y+D,W)T(C1Y+D1W). (9‘62) Определим также множество вещественных матриц: O(G,/) = {(W,Y)efi:e(W,Y)<0}. (9.63) тогда может быть поставлена следующая задача оптимизации над множе ством Ф(С^): ’(Gj’taflAW.V): (W,Y)6®(C#)}, (#64) где a(Gtf)^0, так как /(W,Y)>0 для Я, что следует из (9 61) W = W* - решение задачи (9.64) и придает регулятору (9.60) оптимальц
Глава 9. Проблема смешанной Н2 / Н°° -оптимизации 235 свойства в силу того, что при W = W* Кст (9.60) становится (9.52), выражение 6(W,Y) переходит в R(Y), выражение f(W,Y) - в J (TIW,Y), а как было показано в теореме 9.3, именно(9.52) соответ- ствует inf J (что в данном случае означает inf f). Действительно, чтобы управление (9.59) стало оптимальным, т.е. чтобы WY = K„, параметр оп- тимизации должен принять значение W* = K„Y, и тогда Q (W,Y) = AY + YAt+B2K^Y + YK^B^+B1B]' + +(c1y + d1k^y)t(c1y+d1k‘„y)=(a+b2k’„)y+ +y( А + В2К„)Т + В,В? + Y(с, +О1К*ет)Т (с, +D1K,ct)y = = fy + yft + yh?h1y+b1b[ = r(y), a /(W,Y) = trace(H0YHj) = J„(TIW,Y) = infj(T2W,Y), (см. (9.58)), а значит, это есть inf{/‘(W,Y):(W,Y)e<I>(Gj/)} (так как К в данной задаче изменяется матрицей W), где обозначено F = A+B2K*ct = Fct, Но = Со + D0K*CT = НОст, Hi = Cj + D]K^ = Н1СТ - матрицы пространства состояния замкнутой оптимальным регулятором системы (ср. с (9.54)). Та- ким образом, оптимальной системе отвечает то значение W, которое удов- летворяет (9.64), т.е. как и утверждалось, именно решение (9.64) делает ре- гулятор (9.60) оптимальным «смешанным» регулятором (9.52). Таким об- разом, справедливо следующее заключение: Заключение 9.1. Так как Y > 0 и R (Y) < 0, то [42] F - асимптотиче- ски устойчива и ||TZ1W|| <1- Следовательно, WY-1 е Ам (G^), и мно- жество A^^G^J не пусто, когда не пусто множество а Н1 / Н°° - оптимальная мера качества v^G^j (9.47) равна o(G^) - оптимальному значению критерия в задаче оптимизации (9.64), являющей- ся задачей нелинейного программирования для матрицы W над множест- вом матриц Ф(С^). Покажем, что'проблема оптимизации, заданная (9.64), - выпуклая про- блема [6]. Теорема 9.4. Функция /(W.Y) (9.61) и множество ®(G^) (9.63) вы- пуклы - проблема (9.64) является задачей выпуклой оптимизации. 15*
236_________________________________________Я°° -теория. Часть I Доказательство. Область определения функции /(W.Y) составля- ет строго выпуклое множество вещественных симметрических матриц. Действительно, f (W, Y) может быть представлена в виде /(W, Y) = trace(c0YCj ) + 2trace(cjD0w) + , ч (9.65) + trace(D0WY_1WTDj), причем первые два слагаемых (9.65) выпуклы на множестве Я [6]. Поэто- му нужно доказать только выпуклость третьего члена этого выражения. Пусть р - число строк Do и Хе Rpxn , YT = Y >0. Определим функцию g(X,Y) = trace(XY-1XT). Так как trace(DoWY"1 WTDj) = g(D0W,Y) , то для доказательства выпуклости (9.65) достаточно показать выпуклость g(X,Y) на множестве {(X,Y):YT = Y > о}. Кроме того, так как g( X, Y) = ^xjY-1Xy , где xj - j-я строка матрицы X, для доказательства ’ J выпуклости g(X,Y) достаточно доказать выпуклость функции /i(x,Y) = xTY-1x на множестве |(x,Y):YT = Y >0, хе Дл|, а для этого достаточно показать, что й(х1+х2,¥1+¥2)<й(х1,¥1)+й(х2,¥?) (9.66) для всех х1,х2еЛл'и для всех положительно определенных матриц y„y2 , так как h(ах,aY) = ah(х, Y), если а > 0. Рассмотрим два случая: 1) Скалярный случай (и = 1), Из определения й(«) следует, что *(xi +х2,У! +у2) = (х, +х2)(у1 +у2)-1 (Х[ +х2) = = (х1 +х2 )(У1 + У г) 1 (*1 + хг) + Х1У Г‘х1 + Х2У 2 *х2 “ хтУ i Ч -х2у2‘х2 = фьУО+Фг.УгЬ (Х1 +Х2)2 У1У 2 - (у 1 + У 2 )(х?у2 +Х2У1) (У1 + Уз)У1У2 = h(xl,yl^h(x2,y2)+ , x?yly2+2x1x2yiy2+x|y1y2-x^yly2-xfy^-xlyf-x^y1y2 (У1+Уг)У1У2 = /i(x1,y1)+/i(x2,y2)- х^-2х,х2У1У2+х^у? (У1+Уг)У1У2 = й(х1,у1)+й(х2,у2)- ЧУг-ХгУ,)2 (У1 + Уг)У1Уг
Глава 9. Проблема смешанной Н2 / Н°° -оптимизации 237 следовательно, для всех х(,х2,у,,у2е R2 и всех уру2>0 выполняется Неравенство (9.66). 2) Матричный случай. Так как Yt,Y2 - положительно определенные мат- рицы, то существует несингулярная матрица Т и диагональные матри- цы Л, и Л2 такие, что [7] At=TYtTT, Л2 = TY2Tt . Определим сле- дующие векторы: х, = Тх( и х2 =Тх2, тогда h (х, + х2 ,Yt + Y2 ) = (х, + x2 )T (Yt + Y2 )’1 (xt + x2 ) = = (x[+x2) {(T')(A1+A2)(tt) j (x,+x2) = = (x, + x2 )T TT (A, + A2)-1 T(xt + x2) = (9.67) = (x, + Х2)т (A,+A2)'1 (xt +x2)<xJ'AjXt +х2Л2х2 = = x?TTAlTxl +x2TtA2Tx2 = h(x1,Y1) + h(x2,Y2). Здесь неравенство следует из того факта, что At = diag[Xu], i=l,n и Л 2 = diag [A.2j ], i = l,n - диагональные, положительно определенные мат- рицы, в силу чего выражение (xt + х2)т (Л, + Л2)4 (х, + х2) можно пред- ставить как сумму выражений для скалярных случаев (хп + x2f)(Xl( +X2i) 1 (xu +x2i), i = 1,п, для которых (см. (9.67)) справед- ливость (9.66) доказана в п.1. Таким образом, и в матричном случае усло- вие (9.66) выполняется. Следовательно, функция f (W,Y) (9.61) выпукла на множестве Q . Для того чтобы доказать выпуклость множества (9.63), нужно доказать выпуклость функции £?(W, Y) (9.62), а для этого требуется доказать [11], что e(a(W1,Y1) + 6(W2,Y2))<ae(W1,Y1)+bC(W2,Y2), если ае[0,1], Ь = 1-а (приэтом а,Ь>0)ипары (W^Yj, (W2,Y2)eQ. Для доказательства последнего введем в рассмотрение две вспомогатель- ные функции: P(W, Y) = AY + YAt+B2W + WtbJ+bX и T(W,Y) = ClY+D1W, тогда б( W.Y) = P(W,Y)+TT (W.Y)T(W.Y)
23g Я°° -теория. Часть I 2(fl(W1,Yl) + *(W2,Y2)) = P(fl(Wl,Yl) + 6(W2,Y2))+TT(fl(W1,Y1) + +*(W2,Y2)); TfefWpY, ) + h(W2,Y2)) = A(aYt +bY2)+(aYt + bY2 )AT + + B2(aWj +Z>W2 )+(«W, +hW2)TB} ч-В^ +[C1(eY1 +bY2 ) + ч-D, (aW( +hW2 )]T[C( (aY, +bY2 ) + Dt (aWi +2>W2 )] = = a[(AY! + Y1At) + B2W1 + WITB’’]+ + b[(AY2 + Y2At) + B2W2 + WjB{]+BiB} + +[aT(W<,Y,) + bT(W2,Y2.Y,) + W(W2,Y2 )] = = ^(W,, Y,) - aBjBj1, + bP( W2.Y2)-AB,B1t+BiB?’ + + fl2TT(Wl,YjT(W1(Y1) + 62TT(W2,Y2)T(W2>Y2) + + ab[ TT (W„ Y, ) T( W2, Y2) + TT ( W2, Y2 ) T( Wj, Y,)]= ^QtWpY.J-aT^WpYj^WpYj + ^W,,^)- -iTT(W2,Y2)T(W2,Y2)+B1B1T(l_a-^ + + a2TT(W1,Y])T(W1)Y1) + *2TT(W2>Y2)T(W2>Y2) + +4TT(«'>.Y,)T(W2,Y;)tT’-(W2,Y2)T(W„Y,)l = = »Q(«'..Y,)+»Q(W2,Y2)tB,BT(1_o_1+o)+ T ° ^W|,Y|)T(wI’Y>)+(*!-4)ti(W2,Y2); -a ;’V!^‘'S[T (W|,Yi)T(W!.Y!)+Tt(W2,Yj)T(W|,Y|)] = “))T (W!.Y2)T(W!,Y2)+a6l‘TT(W,,Y, )T(W2.Yj) + +^w¥!,T(W-Yl)>°O<W-Y,)+iQ(W2,Y2) + -Г/w 1'Y|)T(w”^)+tT(w2.y2)t(w1.y1)- =aQ(wn)T(W'’Y,)'TT(W’^’T<W^^= •[T(w1'i+^,W2’Y2)’0i[T(w”Y,)’T(W2’Y2)^* ’ 1 ^W2’Y2)]SaQ(W1,YI) + f>Q(W2,Y2),
Глава 9. Проблема смешанной Н1! Н°° -оптимизации________239 таким образом, выпуклость <2(W,Y) доказана, а с ней доказана выпук- лость множества ) (9.63) (оно выпукло в силу того, что состоит из пар (W,Y), принадлежащих выпуклому множеству й и отвечающих не- равенству Q(W,Y) < О , где Q - также выпукло). А значит, с учетом дока- занной на первом этапе доказательства выпуклости функции f(W,Y) (9.61), проблема оптимизации (9.64) - выпуклая проблема, эквивалентная исходной задаче (см. заключение (9.1)). Теорема доказана. Свойство выпуклости, доказанное в теореме 9.4, полезно с вычислитель- ной точки зрения, так как задача может быть решена с использованием ме- тодов выпуклого программирования, для которых разработано большое число алгоритмов и вычислительных процедур [15]. Необходимо, правда, иметь в виду, что для успешного решения задачи с использованием методов выпуклого программирования требуется ограниченность множества Ф, что имеет место в случае полноты столбцевого ранга матрицы Dt и детекти- руемости пары (Ct, - А), где Ci = (l -D,MD7)Ci , А = A -B2MDfa , М = (DfDi)'' (см. [42]). Таким образом, основным результатом этого раздела является то, что для любого заданного а > 0 в соответствии с приведенными теоремами существует К(1)бА„(Сг/) такой, что J(TIW,Y) =(см. (9.9а) в замечании (9.1)), когда существует пара (W,Y)e® такая, что f (W, Y) < а, и в этом случае вещественная матрица Кст = WY"1 -реше- ние этой задачи синтеза. Проблема определения (W,Y)e® таких, что /(W,Y)<a - проблема выпуклой оптимизации, для решения которой целесообразно использовать итерационную по а процедуру, останавли- ваемую тогда, когда уже нет заметного улучшения смешанной Н21Н°°- стоимости j(G^,K = WY-1) = /(W,Y), считая, что получен квазиопти- мальный результат, близкий к оптимальному (а-»v(G) (9.46)). Эту про- цедуру можно считать эффективным инженерным приемом, особенно в связи с тем, что возможны случаи, когда оптимальный регулятор не суще- ствует, но субоптимальные существуют. 9.4.2. Проблема обратной связи по выходу В этом разделе рассматривается смешанная Н2/Н“-проблема управ- ления для случая обратной связи по выходу. Для системы (рис. 9.1) с обь-
г™____________________________________________** -теория. Часть I сктом G(s), заданным системой уравнений пространства состояний (9.1), должны выполняться следующие условия: А1; Тройка (А,В2,С2) - стабилизируема и детектируема; А2: Пара (А,В,) - стабилизируема; АЗ: D2 - имеет полный строчный ранг и D2 D2 ] = [О I]. Условие AJ необходимо для существования непустого множества до- пустимых регуляторов. Предположение А2 сделано для олтимизируемости этого регулятора, а свойство АЗ гарантирует полную измеряемость шума н ортогональность компонент от шума в состоянии и в измерении, - это об- щие допущения для стандартных Н2 - и Н “-теорий оптимизации (см., например, свойства а, б, г объекта (7.3)). Предположим, что существует единственная симметрическая матрица Y £ 0 такая, что AY + YAt + y(c^C)y'2-CJC2)y + B1B[ =0, (9.68) и А + Y(C[C|Y”2 -CjC2) - устойчивая матрица (см. теорему 6.3). Исполь- зуя решение уравнения Риккати (9.68), определим вспомогательный объект, заданный в пространстве состояния следующей системой уравнений; * = (А + y‘2YC^C, )х + YCjw + (в2 + y^YCfD, )u; G# (Y)=: Zq = Сох + Dou; Z] = CjX + DjU; (9.69) у = x. Обозначение G ^(Y) означает, что вспомогательный объект определя- ется Y и имеет структуру, отвечающую структуре объекта в задаче обрат- ной связи по состоянию. Далее сформулируем теорему, дающую основной результат этого раздела. Теорема 9.5. Пусть для стандартного объекта (9.1) соблюдаются допу- щения А1 - АЗ и задана у > О, A„(G) * 0 . Тогда существует единствен- ная вещественная симметрическая матрица Y£0, удовлетворяющая ал- гебраическому уравнению Риккати (9.68), такая, что матрица A + Y(cfaY“2-ClC2) устойчива, и для вспомогательного объекта (9.69) выполняется следую- щее: 1) А„ ст ((Y’))* 0 и оптимальное смешенное Н2 I Н°° -качество (9.46) задается как v(G) = trace (c0YCj)+ vCT (G^ (Y)). (9.70)
Глава 9. Проблема смешанной Н2 / Н” -оптимизации 241 2) Для любой a>v(G) существует вещественная матрица Кст такая, что KneA.„(G^(Y)) и j(G^(Y),KCT)<a-ttace(C0YCj). 3) Для любого Кст е А„ ст ( G( Y )) динамический регулятор в виде об- ратной связи по выходу К(/)=: £ = (а + Y (у-2сТс( -с1с2)+(в2+y-2YC{D1)KCT^+ +YC2y; u = KCT^ (9.71) удовлетворяет K(s)6 А~ ( G ) , и J (G,K(s)) = trace(c0YCj)+J (G# (Y),KCT). Для того чтобы доказать теорему 9.5, необходимы некоторые предва- рительные результаты. Примем далее, не нарушая общности, у = 1 и рас- смотрим систему на рис. 9.12, где H(Y)=: х = (А + YC}C] )х + YC2r + (В2 + YC{ D, )u; vo = Cox + Dou; v, =C1x + D1u; (9.72) у =C2x + r и я = (а - YC|C2)n + (в( - YCJd2)w - YCfv,; (9.73) Покажем, что системе GU) (9.1)- Д» ”°т ИСПОЛИУ .12 эквивалентна стандартному объекту (9.72) и (9.73), запишем уравнения со-
242________________________________________Н°° -теория. Часть т стояния замкнутой системы так, чтобы w(f) и u(f) были входами, а _ выходами; сложим уравнения для векторов состояний (9.72) и (9.73), получим: i+п=(д+wfa )х+(а - ycJc2 )л+(в| - ¥ф>2) w + +(в2 + уф)! )u + YC2r-YCfvj =A(x + n) + YC?'C1x- -YC2 с21) + Bj w + B2u - YC2D2 w + YCj'DjU + YC2 (C2i) + D2 w) - -YC? (CjX + Djh) = A (x +1]) + Bj w + B2u - YC2 (C2i) + P2w) + +УфСрс + Ци) + YCj(C2n + D2w) - YCfai + D,») = = A(x +1)) + Bj w + B2u. А уравнения для выходов z0(/), МО, у(0 согласно рис. 9.12 имеют следующий вид: Zq = z0 + v0 = С01) + Сох + Dou = Со (х +i])+ DOU, Z] =С!П + У! =Cin + C!X + D1U = Cj (x + 1)) + D!U, у = C2x + r = C2x + C2i|+D2w = C2(x + h)+D2w. Из полученных уравнений в пространстве состояний для замкнутой системы рис. 9.12 видно, что они в точности совпадают с уравнениями стандартного объекта G(j) (9.1), если в качестве его вектора состояний взять (х + 1)). Таким образом, если регулятор K(i) внутренне стабилизи- рует систему на рис. 9.12, то он внутренне стабилизирует и G(j) (обрат- ное таюке верно). Далее сформулируем лемму, показывающую, что в случае обратной связи по выходу смешанное Н2 /Н°° -качество «расщепляется» на незави- симую от регулятора составляющую и смешанное Н2 /Н°° -качество для объекта H(Y), замкнутого регулятором K(j). Лемма 9.4. Пусть ARE (9.68) имеет стабилизирующее решение Y > 0. Тогда для систем рис. 9.13 с регулятором K(s)e А„ (G) (9.71) смешанная Н2/Н°°-мера качества конечна тогда и только тогда, когда конечна J(H(Y),K(j)), причем J(G,K(j)) = trace(c0YCj)+J(H(Y),K(j)), а также K(j)e Ав,(О),если K(j)e А„ (Н (Y)), и наоборот. Доказательство. Существование неотрицательно определенного ре- шения Y уравнения Риккати (9.68) означает, что объект P(Y) (9.73) удов- летворяет всем условиям леммы 9.1. В самом деле, легко показать, что Y яв-
Глава 9. Проблема смешанной И2 / Н~ -оптимизации _243 ляется грамианом управляемости пары ^A-YClC2,[B1~YClD2-YCT]y Запишем уравнение Ляпунова типа (9.15) для этой пары: (a-ycIc2)y+y(a-ycIc2)t + + (в! - YCjD 2 )(в! - YC^D.2)T + YCjCjY = о « AY +YAT -2YcJc2Y+bX -YC^dX- -b1dJc2y+yc!d2dJc2y+yc^c1y=o <=> ( в силу свойства АЗ объекта) ay+yat+y(c?c1-c!c2)y+bX =0 - получили уравнение Риккати (9.68), замена решением которого (Y) грамиана управляемости в (9.4) и обеспечивает критерию J(TZW,Y) свойства, отмеченные в замечании 9.1 и используемые по ходу доказательства леммы 9.1. б Рис. 9.13. Искомый регулятор (для G) есть регулятор для часта G а виде Н(У) Обозначим Tvr^ (H(y),K(s)) - МПФ замкнутой оптимальной систе- мы рис. 9.136 от г(0 к v(f), и Q](j) = TV|rw (H(Y),K(s)j - МПФ от r(t) к Vj(t). Предположим, что K(s)e A„(G), тогда передаточная матрица T2W(G,K(j)) - внутренне устойчива и смешанное Я2/Я”-качество
244 Н°° -теория. Часть I замкнутой системы на рис. 9.1 За равно J(G,K(j)) (9.9а). Применим этот же регулятор к структуре на рис. 9.12. В силу доказанной эквивалентности этой структуры объекту G(s) регулятор K(j) стабилизирует и структуру рис. 9.12, но тогда из леммы 9.1 следует, что Tvr^ (H(Y),K(j)) - внут- ренне устойчива, и ||01Щ <Ь т.е. K(s)e A«,(H(Y)). Кроме того, оценка смешанного качества J(G,K(j)) конечна тогда и только тогда, когда J ,у) = J (H(Y),K(s)) = v(H(Y)) - конечна, и оптимальное значение J(G,K(j)) = trace(coYCo)+j(H(Y),K(f)). Доказательство того, что из K(s)e А„(Н (Y)) следует K(j)€A«,(G), осуществляется аналогично. Таким образом, A„(G) = A„(H(Y)) и также можно записать, что v(G) = trace(c0YCj)+v(H(Y)). Доказательство теоремы 9.5 строится на основе леммы 9.4, эквивалент- ности структуры рис. 9.12 и стандартного объекта G(s), а также свойств наблюдателя для объекта H(Y) [42]. Теорема 9.5 показывает, что субоптимальные регуляторы для смешан- ной Я2/Н"-проблемы синтеза могут быть выбраны как комбинация Я"-наблюдателя (приводящего исходный объект к вспомогательному (9.69)) и коэффициента усиления обратной связи по состоянию, решающе- го смешанную Я2/Я"-проблему, соответствующую вспомогательному объекту G^(Y). Следовательно, этот результат совместно с результатом предыдущего раздела обеспечивает полное решение этого класса задач синтеза. Уравнение (9.70) показывает, что смешанная Нг1Нж- оптимальная стоимость в случае обратной связи по выходу может быть получена вычислением оптимальной стоимости vCT (G^(Y)) - для объек- та обратной связи по состоянию (G^(Y)). Эта теорема для заданной произвольной a>v(G) дает решение K(j)eA„(G) субоптимальной проблемы синтеза такое, что j(G,K(s))<a (уравнение (9.71)). Регулятор (9.71) строится на основе решения ARE (9.68) и решения смешанной Я2/Я"-проблемы обратной связи по состоянию (нахождения Ксте Ao.,CT(Gtf (¥)) такого,что j(G^(Y),KCT)<a-trace(C0YCjj). Ключевая идея этого подхода - использовать решение Я" -уравнения Риккати задачи фильтрации для преобразования проблемы обратной связи
Глава 9. Проблема смешанной Нг I Н°° -оптимизации 245 ^"выходу в эквивалентную проблему обратной связи по состоянию (это преобразование в некотором смысле подобно сведению стандартной Н” - проблемы обратной связи по выходу к проблеме оценки выхода). Напом- ним, что в этом разделе рассматривается объект G(s) (рис. 9.1), и что здесь решается субоптимальная задача. Метод выпуклой оптимизации дает эффективный способ поиска а, приближающегося к v(G) с любой степенью точности, и соответственно возможность конструирования регуляторов, близких к оптимальному. 9.5. «Четыре-Риккати подход» к задаче построения ОПТИМАЛЬНОГО РЕГУЛЯТОРА [28] Потребитель управляет исходным объектом управления с выходной координатой o(t), находящимся под воздействием среды (возмущающее воздействие w(t)). Управляет он через посредство созданного им регуля- тора, реализующего управление ирм(Г), обеспечивающее достижение це- ли управления Ц(ирм(г)) • Носителем цели (более или менее удачной с позиции Провидения) является потребитель [27]. Регулятор вместе с объектом образует СУ, в частности, оптимальную, если управление обеспечивает оптимальное достижение цели управления. Если потребитель возложит на регулятор и задачу формирования цели управления, то вновь созданная СУ-система автоматического целеуказания (САЦ), окажется (с точки зрения степени исключения человека из процес- са управления объектом) СУ более высокого уровня, которая, однако, даже решая оптимально и последнюю задачу, все равно не в состоянии обеспе- чить гарантию приближения к глобальной цели (например, благоденствие потребителя) в данный момент времени. Дело в том, что глобальная цель известна только Провидению, которое может взаимодействовать с потребителем лишь через его интеллект, при- чем, как правило, на подсознательном уровне (через его интуицию). По- этому осознать этот процесс часто невозможно. И даже если критерий оп- тимизации отражал веление Провидения, он являлся правильным только в момент выбора критерия (при расчете регулятора). Чтобы создать возможность принимать правильное решение во время работы СУ, необходимо присутствие интеллекта (как некоторой субстан- ции, обладающей свойством находить обоснованные с точки зрения разу- ма и интуиции человека решения) непосредственно в регуляторе. СУ с таким регулятором называется интеллектуальной СУ (ИСУ). Та- ким образом, введение ИСУ позволяет повысить шанс правильного функ- ционирования СУ в течение всего времени ее работы. Для расчета регулятора необходимо располагать не столько текущей информацией об объекте и воздействиях (как это необходимо на этапе не-
_~Z~______________________________________________Я*” -теория. Часть I посредственного управления), сколько о законе ее изменения в процессе работы системы. Для этого составляется математическая модель объекта, воздействий, а также цели. Выходные координаты в силу определения должны были бы быть представлены реальными, доступными потребителю процессами, что обычно и удается обеспечить с помощью измерителя. Правда, часто изме- рения (в силу специфики работы измерителя) представляют некоторую функцию h от выхода и от возмущений ( в силу влияния среды на процесс измерения): A(y(r),w(r)), Л( (z(r),w(r)). Неизвестное обычно состояние имеет принципиальную возможность быть вычисленным устройством «наблюдатель» по известным измерениям и известной модели объекта с некоторой точностью (результат вычисления называется поэтому оценка состояния если объект с измерителем обладают свойством «наблюдаемость». Цель управления (вследствие про- извольности ее сложности) принципиально может быть достигнута, если управляющих координат достаточно, чтобы привести объект к любому требуемому состоянию - если объект обладает свойством управляемости. О достижимости цели управления свидетельствует возможность достиг- нуть любого именно состояния (а не выхода), ввиду того что состояние как математическое понятие, веденное специально для полного представления объекта, является более адекватным этой задаче, чем инженерное понятие выход. Для получения управления u(f), обеспечивающего управляемость, к исходным управляющим воздействиям писх(0 могут быть добавлены но- вые управляющие факторы, а для удобства реализации процесса управле- ния к регулирующим органам могут быть подведены соответствующие приводы. Исходный объект совместно с приводом и измерителем будем рассматривать как объект управления. Влияние неадекватности математической модели объекту, потребителю и среде приводит к тому, что созданный регулятор работает не в тех усло- виях, для которых он рассчитывался (upM(f), несколько отличается от нужного бы ир0(/)), поэтому он должен быть робастным (его выход Црмр(О) _ сохраняющим работоспособность в этой ситуации, т.е. обеспе- чивающим Ц(ирмр (Г)) = Ц(иро (0) • Характеристика, выражающая степень достижения цели, - показатель эффективности управления Э(и) или обратная ей - функция потерь J(u). Робастность обычно достигается ценой некоторого уменьшения эффективности системы (“рмр (0) > J (Upo 0))
Глава 9, Проблема смешанной Н2 / Н°° -оптимизации 247 ИСУ, имея в своем составе динамическую экспертную систему (ДЭС) [26], обладает возможностью в процессе работы ИСУ уточнять модель СУ. Поэтому, являясь по своей природе адаптивной, ИСУ, казалось бы, устра- няет причину, по которой ей нужно быть робастной, однако на первых по- рах ее функционирования, когда информации еще нет (или ее мало), ИСУ находится в условиях сильной неопределенности, в связи с чем она должна быть изначально робастной. Таким образом, ИСУ есть изначально робастная с конструктивно пре- дусмотренной возможностью к адаптации (чтобы уменьшать J) СУ, и, следовательно, методы синтеза робастных систем (и, в частности, излагае- мые в данной работе методы на основе Н2 - и Н°° -теории) - методы ее расчета. ИСУ и расчет ее регулятора могут быть представлены информа- ционной блок-схемой на рис. 9.14. Оптимальный регулятор, когда это возможно, строят, пользуясь прин- ципом разделения (в силу громоздкости решаемой исходной проблемы), • согласно которому регулятор состоит из оптимального наблюдателя и оп- тимального формирователя позиционного (определяемого состоянием сис- темы) закона управления иар1 (х(Г)), где считается x(t) = xop((t) - выход оптимального наблюдателя. Известно, что управляемость объекта, справедливая для модели объек- та, означая принципиальную возможность получить любое его состояние, позволяет добиваться этого с помощью разных законов изменения управ- ляющего сигнала. Таким образом, алгоритм работы формирователя не единственный. Устраняет эту неоднозначность оптимизация формировате- ля (либо на основе принципов вариационного исчисления, либо динамиче- ского программирования и т.п., сводящихся к необходимости решения не- линейного матричного дифференциального уравнения типа Риккати [4]). Если достаточно располагать управлением, обеспечивающим оптималь- ность только в установившемся режиме, то формирователь может быть получен с помощью решения алгебраического уравнения Риккати (он в этом случае окажется стационарным). В аналогичных отношениях находятся понятие наблюдаемости объекта и получение оценки его состояния. Кроме этого, неоднозначно могут быть заданы модель цели и модель регулятора. Каждая из этих неопределенно- стей при соблюдении некоторых условий может быть раскрыта в опти- мальном регуляторе с помощью решения соответствующего уравнения Риккати, всего которых, таким образом, может оказаться четыре. Название известного в Н°° -теории метода построения оптимального регулятора на основе «два-Риккати подхода» и является следствием указанного «четыре- Риккати подхода», когда в задаче присутствовали только первые две из рассмотренных неопределенностей. Проиллюстрировать справедливость этого положения во всем объеме можно на примере задачи смешанной Н / Н°° -оптимизации.
Пусть в системе (рис. 9.14) измерения представляют непосредственно координаты выхода, причем часть из них о.(г) = уj(r).or(Osyr(t); y(rxl)W = (yI(O ...y,G))T | СРЕДА~]парам<:трическясв<”муи*:ни!1 д Г ОБЪЕКТУПРАВЛЕНИЯ , ^~П I | Г........ |“га 1^ Исходный | р— ' ' I ИЗМЕРИТЕЛЬ - 4— ПРИВОД “р» Робастный адаптивный регулятор с интеллектом Л(>.о>) 1 Результат использование । ИСУ ПРОВИДЕНИЕ СЛЕДСТВИЯ ДОСТИЖЕНИЯЦЕЛЕЙ благоденствие I—населения i_ I ИСУ как САЦ I- I ПОТРЕБИТЕЛЕ ЭТАПЕ РЕАЛИЗАЦИИ РЕГУЛЯТОРА И ЭКСПЛУАТАЦИИ игу । НА ЭТАПЕ ПРОЕКТИРОВАНИЯ РЕГУЛЯТОРАДДЯ САЦ ~ ~ ПРЕДПОЛАГАЕМОЕ ВРЕМЯ РАБОТЫ СУ «2 -а®. w оо Я » §sL ? 2 • SO ta а ГЛОБАЛЬНАЯ ПЕЛЬ »- Генеря гор целей S ВОЗМОЖНЫЕЦЕЛИ Выбор ! цели управления разум)— интуиция ИНТЕЛЛЕКТ о- Предполагаемое благоденствие потребителя .Предполагаемые следствия достижения целей дэс МОДЕЛИ (прошлая,теку щая, бу ду щая информация) ОБЪЕКТ СРЕДА ЦЕЛЬ X й: 8 МОДЕЛЬ РЕГУЛЯТОРА -теория. Часть г
Глава 9 ^Проблем а смешанной Нг1Н°° -оптимизации_________ 249 используется в регуляторе (h(y(r),w(f)) = y(f))>a4acTb »„.(')-*?().................................. »(>)((,.,м=(4 (0-4 (0 г; (0... zi - (^0)’ (/ )т )т, состоящая из двух векторов z°(t) и z1 (г), используется как-то по-другому (hj (г (t) > w (*)) = г (t)) (например, для оценки качества управления). Неко- торые компоненты выхода могут принимать участие и в векторе y(t) и z(r). Тогда объекту соответствует структурная схема на рис. 9.1 без штрихпунктира, где объект G(s) и регулятор K(s) описываются в про- странстве состояния, соответственно (9.1), (9.1а). Из соотношений теоремы 9.1 видно, что все матрицы, входящие в уравнения Риккати, за исключением Q,P,Q, известны, так как р в дайной работе — задаваемая постоянная, следовательно, неопределенности в цели нет, поэтому задача построения регулятора сводится к решению трех уравнений Риккати. Если сохранить неопределенность в модели регулято- ра (выбирать Q и Q неоднозначно (в соответствии с (9.26))), то уравне- ния (9.27) и (9.29) для ( Q и Q ) не потребуются, и задача сведется к реше- нию двух уравнений Риккати (9.5) и (9.28)). Если же в условиях теоремы потребуется убрать неопределенность (если она имеется) цели (тогда Р не задана и ее нужно тоже определять (матрица S станет тогда также неиз- вестной)), то потребуется решать четыре уравнения Риккати (9.5), (9.27) - (9.29), что и требовалось проиллюстрировать. В данном примере при соблюдении всех условий теоремы задача сво- дится, как и предполагалось, к 4 уравнениям Риккати, хотя принцип разде- лимости здесь и не выполняется, так как все уравнения Риккати взаимоза- висимы. В заключение следует отметить, что первые два из указанных четырех типов неопределенности приводят к необходимости решения, как уже об этом говорилось, двух уравнений Риккати. А вот третий и четвертый типы неопределенностей в зависимости от их глубины (например, неопределен- ность модели регулятора состоит в том, что R выражается через Q, Q, Q, а не через Q,Q, как в рассмотренном примере, и т.п.) могут привести и к большему (чем еще два) числу уравнений Риккати. Поэтому, может быть, имеет смысл говорить не о «четыре-Риккати подходе», а о 4-х типах при- чин, приводящих к уравнению Риккати.
250 Н°° -теория. Часть I ГЛАВА 10 СИНТЕЗ ДИСКРЕТНЫХ РЕГУЛЯТОРОВ МЕТОДОМ Я “-ТЕОРИИ* В теории управления наибольшей популярностью пользуются методы синтеза систем, основанные на минимизации квадратичного критерия. Для объекта в пространстве состояний х = Ax + B]W + B2u, 2 = С]Х, (10.1) у = C2x+D21w, где х - вектор состояния, и - вектор управления, г - вектор управляе- мых (стабилизируемых) переменных, w - вектор возмущений, у - вектор измерений (наблюдений), в качестве меры эффективности управления принимают квадратичный показатель 1 т J = Мт — J Е |zTQz + uTRu Jdt, (10.2) где Q и R - симметричные, положительно определенные матрицы, выбор которых позволяет согласовать требования малости стабилизируемых пе- ременных и «экономии затрат» на управление. Введя обозначения Q = qrq, R = rTr и z = (qi, га), можно представить (10.2) как , т J = KmyfE{z2}dt. (10.3) Выражение (10.3) является Н2 -нормой вектора z , поэтому подобные задачи называются задачами Н2 -оптимизации. Однако оказывается, что квадратичный критерий типа (10.3) чувствителен к наличию неучтенных * Настоящая глава написана при участии П.В. Томского.
251 10. Синтез дискретных регуляторов — "^змушений, как со стороны внешних сигналов, так и параметриче- п°ме возмущений самих объектов. По этой причине в последнее десятиле- сКЙХооЛучили развитие методы минимизации Н“-нормы, которая, как тйе „„ось, служит эффективным гарантированным показателем реакции °^еМы на различного типа воздействия при наличии неопределенностей » описании. Теория И -оптимизации является обобщением известных частотных -годов синтеза для систем с одним входом и выходом на многомерные системы и позволяет решать широкий спектр задач управления при нали- чии неопределенностей. Н-теория может работать как с параметрическим, так и с внешними возмущениями, причем о возмущениях делают предпо- ложения самого общего характера, например, что они ограничены по мощности. Создание математических и технических методов построения систем управления при наличии различных неопределенностей составляет содержание робастной теории управления. Примером таких подходов мо- жет служить задача робастной стабилизации, когда требуется построить регулятор, который при любом возмущении из заданного класса обеспечи- вал бы устойчивость замкнутой системы. Алгоритмы управления, полученные на основе Н-теории, являются ми- нимаксными, предлагая наилучший регулятор для наихудшего возмуще- ния, и по этой причине превосходят алгоритмы, полученные без учета возмущений по различным критериям. С другой стороны, Н-теория управ- ления хорошо работает только при наличии предположений, в рамках ко- торых были построены алгоритмы управления, т.е. при наличии неконтро- лируемых возмущений. Если же разработчик имеет информацию о дейст- вующих на систему возмущениях, то алгоритмы, полученные с учетом этой информации, как правило, оказываются лучше разработанных с по- мощью //-теории управления. Чтобы не перегружать изложение материала дополнительными матема- тическими конструкциями, авторы сочли возможным ограничиться изло- жением алгоритмов синтеза дискретного регулятора, который, как можно показать, стабилизирует и непрерывно-дискретный объект. 10.1. Стандартная задача Я“ -оптимизации Рассмотрим общую схему системы с регулятором (рис. 10.1): (о - вектор возмущений; у - вектор наблюдения; г - стабилизируемый вектор; и - вектор управления. Будем полагать, что P(s) и K(s) - матричные ограниченные, раци^ нальные правильные передаточные функции объекта и регулятора соо^' ветственно,т.е. Ре ШТ и КеR/Г.
252 Н°° -теория. Часть I Рис. 10.1. Замкнутая система (Ю.4) (10.5) (10.6) Разобьем матрицу Р на четыре части, каждая из которых относится к своему входу и выходу: (г = Рц -W+P12 •«. у = Р21 -й)+Р22-и, для краткости будем писать р_/рп Р12 ч Р21 Р22 J Выражения (10.1) и (10.4) связаны следующим образом: Pv(y) = C/(sI-’A)B/ + Dff. Подставив в систему уравнение и = К у и обозначив единичную мат- рицу за Е, найдем передаточную функцию от и к г : у = Р21 -й)+Р22-К-у или (Е-Р22-К)-у = Р21-О), откуда у = (Е- Р22 • К)'1 • Р2) • (й Далее, из и = К-у и г = Рц'й)+Р12-и находим передаточную функ- цию от со к г : Fl (Р.К) = Ри + Р12 • К -(Е- Р22 • К)'1 • Р21. (10.7) Схема, изображенная на рис. 10.1, и соответствующее ему выражение для передаточной функции (10.7) носят название нижнего дробно-линей- ного преобразования (LLFT) (нижнее - из-за положения регулятора). Аналогично определяется верхнее дробно-линейное преобразование (ULFT) рис. 10.2 и выражение (10.8): Fy (Р,Д) = Р22 +Р21 -Д-(Е-Ри -Д)"1 -Р12, (10.8) где Д представляет какую-то передаточную функцию, в общем случае принадлежащую L”. В дальнейшем мы часто будем использовать такие дробно-линейные преобразования. С помощью них удобно представлять различные виды не- определенностей моделей объектов, как это будет показано в дальнейшем. Также дробно-линейные преобразования позволяют дать унифицирован- ное описание проблемы Н°° -оптимизации.
Глава .^Синтез дискретных регуляторов 253 Рис. 10.2. Верхнее дробно-лииейиое преобразование (ЮТ Вернемся к рис. 10.1. Сформулируем стандартную задачу Н -опти- мизации. Необходимо найти такой регулятор К, чтобы он минимизиро- вал Н°° -норму передаточной функции omwKZ'. ^h(p-Kl=vn»n- <10-9) При этом К должно принадлежать множеству внутренне устойчивых регуляторов. Часто требуется решить задачу Н“ -субоптимизации; Найти регулятор К такой, чтобы выполнялось условие M.4L=n. <10* где у > Уmin и К - допустимый регулятор. Решение подобных задач состоит из двух шагов: 1) Находится множество допустимых регуляторов К, стабилизирующих объект Р. 2) Из найденного множества выделяются регуляторы, удовлетворяющие дополнительному требованию (10.9) и (10.10). 10.2. Множество внутренне устойчивых регуляторов Преобразуем схему на рис. 10.1, как показано на рис. 10.3. Добавим два входа Vj и v2, тогда z = Pn -й)+Р12-и, у = Р21 •й)+Р22-и + v2, и = К-у + у2, откуда z-P12-b = P1i-(0, y-K-u = vt, y-P22-u = P21-w+v2. Рис. 10.3. Замкнутая система
Я°° -теория. Часть т 254_________________ В матричной форме: 'Е “Р12 0 ГРн 0 Е -К • и = 0 0 -Р22 Е) .У, л ° OW Е 0 • v, ° ЕДу2, Система на рис. 10.3 хорошо обусловлена, если существуют и являются правильными [31] передаточные при функции от векторов ш, v,, v2 к век- торам z , и, у . Для выполнения этого условия необходимо чтобы матрица ГЕ -Р12 0 А 0 Е -К 0 -Р22 Е была обратима. Система на рис. 10.3 внутренне устойчива тогда и только тогда, когда 9 передаточных функций от векторов со, vx,v2 к векторам z , и , у асимпто- тически устойчивы. В этом случае будем говорить, что регулятор К ста- билизирует Р. Также можно сказать, что в этом случае регулятор К при- надлежит множеству внутренне стабилизирующих регуляторов, или, что то же самое, К является допустимым регулятором. 10.3. Примеры сведения различных задач к задаче Н°° -ОПТИМИЗАЦИИ (ЗАДАЧА СЛЕЖЕНИЯ) Рассмотрим схему слежения на рис. 10.4. Сигнал v, являющийся выходом объекта G, отслеживает сигнал г. Для обеспечения стабилизации объекта и слежения за сигналом г используют регулятор К , состоящий из Cj и С2 • Сигнал г неизвестен, но пусть он подчинен следующему требованию: (г: г = W• w, we Н2, ||w||2 < 1|. Рис. 10.4. Задача слежения Матрицы W и G считаются заданными, необходимо найти матрицы Cj и С2 . Будем предполагать, что матрицы W,G, Cj,C2 - правильные, рациональные. Ошибка слежения определяется выражением r-v. Оче- видно, что искомые Cj и С2 должны минимизировать квадрат ошибки,
Глава 10. Синтез дискретных регуляторов 255 также желательно сделать поменьше сигнал и. Окончательный критерий оптимизации может быть записан как / 2 2\V2 J = sup^||r-v||2) +(||р-и||2) ) , (10.11) где р - произвольный положительный коэффициент. Если ввести вектор r-v р-и , то выражение (10.11) соответствует Z = Н2 -норме вектора г, и критерий оптимизации можно представить в виде J=sup{||z||2:weH2,H2<l}. (10.12) Представим задачу слежения в стандартной задаче Н°° -оптимизации, т.е. найдем передаточную функцию от w к z в виде Рп+Р12-К-(Е-Р22-К)-1-Р21. г V Примем у = к=[с, с2]. По схеме и из стандартной системы: Г V u = C1-r+C2-v = [C1 С2]- откуда из и = К • у видим, что К = [С. С2]; из z = Рц w+P12-и получаем и Р12 - из у = Р21 w + P22-и r-v = W-w-G-u, p-и =0-w+p-u, Г-G' |рЕ? г = W-w+0-u, v = 0- w+G-u, получим Р21 = и Ри = 0 Теперь, для того чтобы найти решение исходной задачи слежения, не- обходимо решить стандартную задачу. Подобным образом можно пред- ставить и многие другие задачи управления, в частности, к стандартной задаче приводятся задачи по синтезу робастных регуляторов. 10.4. Внутренне-внешняя факторизация Определение 10.1. Матрицы F,Ge R/7“, имеющие одинаковое коли- чество столбцов, называется правыми взаимно простыми, если найдутся такие X, Y g R/7“, что
256 Н°° -теория. Часть I = XF + YG = E, (10.13) fF (X Y). ' I где Е - единичная матрица. Определение 10.2. F,GeRH“, имеющие одинаковое количество строк, называются левыми взаимно простыми, если найдутся такие X,YeRtf“, что (10.14) /'F'l (F G)- =F-X + G-Y = E. Определение 10.3. Упорядоченная пара матриц N,MgR77“, имею- щих одинаковое количество столбцов, при этом матрица М квадратная, представляет правую взаимно простую факторизацию матрицы Ge если G = N M~1 и матрицы N,M - правые взаимно простые. Определение 10.4. Упорядоченная пара матриц N,MeK№”, имею- щих одинаковое количество строк, при этом матрица М квадратная, представляет левую взаимно простую факторизацию матрицы G е <=> G = M*'N, где N и М - левые взаимно простые. Взаимно простые матрицы при перемножении на дают сокращений. Пример 10.1. G(s) = (j-l)/(s-2) =>G(s) можно разложит на устойчивые матрицы: М(s) = (j-1)/(j +10),N(s) = (з -2)/(з +10). 10.5. ТИПЫ НЕОПРЕДЕЛЕННОСТЕЙ Как уже говорилось, задачей робастного управления является синтез регулятора не для отдельного объекта управления, а для целого семейства. Неопределенности объекта могут быть описаны различными способами. Пусть О,бд - передаточные функции номинальной и возмущенной моде- ли объекта соответственно. Будем называть возмущения Д: • аддитивной неопределенностью и обозначать Дл, если G д = G + Д А, • мультипликативной (пропорциональной) неопределенностью и обозна- чать Д/>, если Сд = (1-Д/.)-6, пусть N,MeRH“, левая взаимно простая факторизация G , тогда Дл, Дм представят неопределенность взаимно простых факторов, если GA = (м + Ам) ' (N + Д„) = Мд ^д > где (Йд.Мд) - левая взаимно простая факторизация матрицы G&.
rjnrgJ0-Сиятез «ИСКР6™»1* регуляторов___________________2ЭТ '^^Ггипы неопределенности можно изобразить с помощью следующих Рис. 10.5. Аддитивная неопределенность Рис. 10.6 Мультипликативная неопределенность Рис. 10.7. Неопределенность, представимая взаимно простая 10.6. Представление неопределенностей В ВИДЕ ДРОБНО-ЛИНЕЙНЫХ ПРЕОБРАЗОВАНИЙ Можно показать, что любую из описанных неопределенностей возмо*' но представить в виде введенного ранее верхнего дробно-линейного пре' образования ULFT (см. рис. 10.8), т.е. СД = ГУ(Р,А), (Ю.0} 18 Зак. 108
Н°° -теория. Часть т 258 и тем самым унифицировать все типы неопределенностей. Рис. 10.8. Представление неопределенностей в виде дробно-лииейпых превбразований Здесь Р - стандартный объект, соответствующий номинальному объ- екту G, а Д - неопределенность одного из введенных выше типов. Легко проверить, что матрица стандартного объекта Р, соответствую- щего трем типам неопределенностей, имеет вид: Д = Д„: Р = Д = Д/): Р = Lr21 41 4з .411 Р22. 41 4г Р21 Р22 0 Е 0 Е Е G G G - для ад дитивной неопределенности; - для мультипликативной неопреде- ленности; 41 4г ,4ll 412 0 Е" М"1 G М'1 G 10.7. Проблема робастной стабилизации Определение 10.5. Допустимым называется возмущение Д такое, что Ae dt, где De = DSt U DVt и С&={Д:ДеКЯ-;Н.<4 -{д:дешг; я(М*»))-я(М*л));Н-<4 где Р - стандартный объект, а т](.) - число полюсов передаточной функ- ции в правой полуплоскости. Можно доказать важную теорему, которая связывает задачу робастной стабилизации со стандартной Н°° -оптимизацией. Теорема 10.1. Наибольшее число е = , такое что для всех Де Ц, су- ществует регулятор, который стабилизирует Fv (Р,Д). задается выражением
Глава 10. Синтез дискретных регуляторов________________________259 enBX=(inf||FL(P,Miy1, (10.16) где К выбирается из множества всех регуляторов, внутренне стабилизи- рующих Fu = (Р,0). Таким образом, на основании этой теоремы для нахождения робастного регулятора необходимо решить задачу Н“ -оптимизации (10.16). Рассмотрим алгоритм решения этой задачи. 10.8. Описание множества допустимых регуляторов Теорема 10.2. Регулятор К будет стабилизировать объект Р и => принадлежать к множеству допустимых регуляторов, если он стабилизи- рует Р22. Матрицу Р22 можно представить в виде двойной взаимно простой фак- торизации P22=M21-N2 = N2-M21, 'х2 -Y2VM2 y2a rN2. M2J[n2 X2J ’ XjMj-VjNj’I, -N2M2 + N2M2=0, X2Y2-Y2X2=0, -N2Y2 + N2X2=1. Теорема 10.3. Множество всех допустимых регуляторов описывается формулой К = (Y2-M2Q)(X2-Q2N)-1 =(X2-QN2)'l(Y2-QM2), (10.17) QgRH“. 10.9. Сведение стандартной задачи Н°° -оптимизации К ЗАДАЧЕ СООТВЕТСТВИЯ МОДЕЛИ (ММ?) Вернемся к стандартной задаче на рис. 10.1: TWI = F(P,K) = Pu +Р12К(Е-Р22К)-1 Р21, *^||TWiL = Ymin- На основании (10.17) возможно записать 18'
Н°° -теория. Часть I 260_________ (I-P22K)-1 = [l-M2'N2 (Y2 -M2Q)(X2 -N2Q) ] = n2y2-m2q~ ~m2x2-n2q - (X2 ~ N?Q)------ = M2 (x2 - n2q), 'm2(X2-N2Q)-N2(Y2-M2Q) к (I - P^K)'1- = (y2 - m2q)(x2 - n2q)-1 M2 (X2 - n2q) = = (Y2-M2Q)M2, PH +P22K(I-P22K)'1 P2I = Pn +P12 (Y2 -m2q)m2p21. Тогда Tw =PH +P12Y2M2P21 -P12M2QM2P21. (10.18) Обозначив ТрРи+РЛйл. t2=p12m2. _T3 = M2P21, можно записать, сформулировав, новую задачу, а именно: Задачу соответствия моделей (ММР: model matching problem): Даны Tj..Т36ЙЯ“. Найти Qe Н°° такую, что Т] = T2QT3, т.е. ||Ti-T2QT3L-^min. (10.19) Данная задача соответствует схеме на рнс. 10.9. Рис. 10.9. Задача соответствия модели 10.10. Приведение задачи соответствия к задаче Нехари Определение 10.6. Функция T(s)e называется внутренней, если Т (s)T(s) = I, где - эрмитово сопряженная функция.
гпява 10- Синтез дискретных регуляторов 261 для скалярных функций T(-s)T(s) = 1. Дискретная передаточная функция T(z)eRH” называется внутрен- ней, если T*(z)-T(z) = I, где T*(z) = TT(V], Для скалярных функций т(К)тМ'ь Свойстве внутренних функций. Умножение слева и справа на внутреннюю функцию любой функции R(s)e L” не меняет Я” -норму этой функции. Норма внутренней функ- ции равна 1 Определение 10.7. Функция T(s)eRH“ называется внешней, если она не имеет нулей в правой полуплоскости {Res > 0}. Дискретная передаточная функция T(z)eRH“ называется внешней, если она не имеет нулей вне круга единичного радиуса. Теорема 10.4. Любая функция Те КЯ” имеет единственную внешне- внутреннюю факторизацию Т = Т,Т0, где Т{ - внешняя функция, а То - внутренняя (с точностью до знака): ТТР ТР Т4 ТР 2 “ ^2*^20» f3 ~ 13i А30> h -Т2<ЭТз1 =|Т1 -Т2(Т2оОТз,Тзо1 = =|т27те1-т20от30[ = =Щт2/т2-;.,т1т3;,т3,. = (10'20) = ||т21. (тйЧТя -T2OQT3o)T3iL}=|R-XL. R = T^TjTS1, X = T20QT30, X е RH", Re RT. Минимизация последней Я°°-нормы в (10.20) представляет собой из- вестную задачу Нехари и имеет простую геометрическую интерпретацию. Искомая матрица Хе Я", удовлетворяющая минимуму нормы (10.20), является проекцией матрицы Re RL°° на пространство Я”, а сама норма (10.20) - это расстояние от R до пространства Я". Ю.11. Решение задачи Нехари для дискретного случая
_______________________________________Я “° -теория. Часть I Пусть x(iT) - решетчатая функция, принимающая нулевые значения только в дискретные моменты времени iT, где Т - период дискретизации, a ieZ. Для удобства в дальнейшем будем опускать параметр Т и записы- вать просто x(i). При этом выполняется условие У (x(i) x(i)j <°°, (10.21) где р = 1,2,3...<». Тогда множества таких функций будет представлять собой лебеговы пространства =Lp (-<»,«>), если /е(-«»,оо), L* = Lp (-00,00), если ie[0,oo) и L; = Lp(-oo, 0], если ie с соответствующей нормой И,-"^Ё(*('Л(0Г'2- (10.22) Каждая функция хе Lp (-<»,»») имеет уникальное разложение х = jq + хг, где jq е Lp (0,«>) и х2 е Lp (-»,0], что можно описать соотно- шением М'~И=М“~’°]®М0’00)' (10.23) Операторы, ставящие в соответствие каждой хе Lp (-«»,«’) xj илих2, будем называть ортогональными проекциями. Для представления решетчатых функций на комплексной плоскости воспользуемся двухсторонним z -преобразованием, или дискретным пре- образованием Лапласа Z[x(i)] = #(z)= £ x(i)z"'. (10.24) i=-oo Определения пространств Лебега и Харди для дискретных передаточ- ных функций, их нормы и свойства аналогичны соответствующим опреде- лениям, нормам и свойствам для обычных передаточных функций непре- рывных систем [31,50, 88]. Пространство Лебега Lp при ре (1,°°] составляют такие комплексно- значные функции F(z) комплексного аргумента z, для которых выпол- няется неравенство Я Т f [г(ехр(-Дщ))Г(ехР(Яй>))у/2<оо, (10.25) Я Т
263 Гяава 10» Синтез дискретных регуляторов _______________ при этом норма функции F (г) определяется выражением я т J |/ (exp(-jT(fl))F(exp(jT())))]₽/2 я Т Для р = °° неравенство (10.25) имеет вид ess sup F(exp(-jTw))F(exp(~jTw))<« [я я! — т TJ (10.26) (10.27) и норму: ||F|L=ess sup ||F(exp(>' l" t’t] Аналогично (10.23) можно записать Lp = Hp®Hp, (10.28) (10.29) где под пространством Харди Нр будем принимать класс функций анали- тических при | z[ > 1, а под Нр - аналитических при |z| < 1. Ортогональные проекци из Lp в Нр будем обозначать Пх, а из Lp в нр-п2. Нас будут интересовать главным образом пространства с р = 2 и °°. Пусть Fe Определим оператор Af, переводящий функцию g из L} в Li, по правилу AFg=Fg, (10.30) т.е. действие является умножением g из 1% на F. Такой оператор будем называть оператором Лорана. Учитывая соотношение (10.29), мож- но представить оператор Лорана как Ап Aio Af= АП *2 , (10.31) л21 а22_ где операторы (i,j~ 1,2) задают отображения Л^Я^Я/, А12 : #2 ’ Л21: Я2 —> Я2, Д22 : Я2 Я2.
264_______________________________ Н°° -теория. Часть I Для Л12 и Л22 приняты следующие названия: A12^rf - оператор Ганкеля, Л22 = &F - оператор Теплица. Очевидно, что для каждой функ- ции gE Н2 оператор Ганкеля является ортогональной проекцией П1 функции Fg на Н2, т.е. Гр = Yl\\F/H2 , а оператор Теплица - ортого- нальной проекцией П2 -&F = n2hF/H2 . Так, например, для F = —— е А» и для g е Н2 имеем Fg = gx + g2 , г-2 г-2 г-2 В этом случае оператор &F отображает g в g2, а оператор - g в gt. Очевидно, что Гр = 0, если F Е Н„. Рассмотрим дискретную систему автоматического управления, описы- ваемую в пространстве состояния разностными уравнениями: х[/+1] = Аг[/]+Ви[/], А(лхл), В(лхм), уИ = Сф], С(гхл). ' } В этом случае дискретная передаточная функция от и (г) к у (г) вы- ражается как P"(z) = у(г)/и(г) = С(г1-А)_1В, (10.33) а во временной области решение (10.32) определяется по формуле л-1 у(л) = САлх(0)+2}САл“/“1Ви(1) . (10.34) 1=0 Рассмотрим строго неустойчивую дискретную систему, т.е. передаточ- ная функция этой системы F(z)g - оператор Ганкеля. Для такой сис- темы все собственные значения матрицы А будут по модулю больше 1. При этом оператор Г (г) будет переводить управляющий сигнал и(г)е Н2 в у(г)е Н2 , а временный аналог оператора Ганкеля, обозна- чим его как Г у, соответственно отображает решетчатую функцию и e Li [0,оо) в у е (-оо,о). Для системы (3.32) можно записать сопряженную систему x[f + l] = (A~1)Tx[i] + CTy[i], (1О35) в этом случае сопряженный оператор Ганкеля Гу переводит решетчатую функцию уе ^(-оо.О] в не Аг [О, о»).
Глава 10. Синтез дискпетн^ п„„, juuuqpnn 265 Р омогатеиьиые операторы m системы (1() Л). оператор управления ч/ _ v л -i« , Тс«-ДА B«(i) i=0 (10.36) и оператор наблюдения Ч'ол = СА"л (п<0) Аналогично для системы (3.35) (10.37) *>=вт(ат)'\, (10.38) ^)-Ё(АТГс’у(„). (10.39) но ппедставитьСН° onePaTOP“ Ганкеля во временной области мож- пи ирсдихаоИТЬ. Введем еще два важных оператора: грамиан управляемости Wc = 'РС'Р* = У А"‘ВВТ (ат (10.41) 1=0 и грамиан наблюдаемости Wo = = £(атСТСАЧ. (10.42) /=о Легко убедиться путем подстановки, что грамианы управляемости и на- блюдаемости являются решениями соответствующих уравнений Ляпунова: Wc = AWCAT - АВВТАТ, (Ю.43) Wo = ATWCA - АТСТСА. (10.44) Рассмотрим оператор Гу Гу. Этот самосопряженный оператор отобра- жает пространство Я2 в себя. Можно доказать, что оператор Г/Г/ и маТ" рица WCWQ имеют одинаковые ненулевые собственные значения. Действительно, временной аналог оператора Гу Гу представляет собой оператор VP*VP*VPOVPC. Пусть X - ненулевое собственное значение ГуГу, тогда А также является собственным значением 'РеЧ,о'РоЧ/с. Следова тельно, существует ненулевой и € 1^ [0,°°) такой, что (10,45) Умножим левую и правую часть (10.24) на Тс и определим х. ^си, тогда получим 17 Зак. 108
266______________________________________________ц°° -теория. Часть I H^Wox = Xr, (10.46) где x не может быть равен нулю. Действительно, если х = 0, тогда следу- ет эквивалентность нулю либо X, либо и, что противоречит условию. Следовательно, х является собственным вектором матрицы Wc Wo, а X - соответственно ее собственным числом. Обратно, пусть теперь X - ненулевое собственное значение матрицы WCWO их- собственный вектор. Умножим левую и правую часть (10.46) на и определим и = и получим (10.45). Очевидно, что и не равен нулю, так как не равен нулю х, а Т* и Wo инъективны, поэтому А, является собственным значением , а значит, и Г*гГг, что и требовалось доказать. Это дает простой алгоритм вычисления нормы оператора Ганкеля, со- ответствующего передаточной функции FgRL“. Шаг 1. Разлагается F на строго неустойчивую и строго устойчивую часть: Г = Г1+Г2,где FxeRH^, F2eRH°°. Шаг 2. Находится минимальная реализация в пространстве состояния для Fx-А, В, С . Шаг 3. Решаются уравнения Ляпунова (10.43), (10.44) и находятся WC,WO. Шаг 4. Находится максимальное собственное значения матрицы WCWO, корень квадратный из которого и будет являться нормой операто- ра Ганкеля. Теперь рассмотрим решение задачи Нехари, к которой сводятся многие задачи теории управления. Задача имеет простой геометрический смысл. Необходимо найти минимальное расстояние в смысле Я“-нормы от за- данной произвольной передаточной функции Re Ц*, до ближайшей функ- ции Хе Нх, т.е. проекции функции R на подпространство устойчивых функций Н°° и саму эту проекцию: distort,#”) = inf{|Я-XL: Хе Н°°]. (10.47) Если ReH°°, то решением очевидно является сама эта функция, в об- щем же случае И- = ИЛ« - Ax h И (Ал - Лх )|Я21 = |ГЛ -Гх || = ||ГЛ ||. (10.48) Очевидно, что X может быть не единственной. В реальных задачах необходимо, чтобы X е ЯЯ“ и при этом dist(fl,R№°) S dist(r,Н°°).
гпяпа 10. Синтез дискретных регуляторов 267 Пусть X2 - максимальное собственное значение матрицы WCWO и (0 - соответствующий собственный вектор: WcW0a>=k2(o. (10.49) Определим и := Х.-1№0(0, тогда (Wcv = Xxo, (W0co = Xa). (10'50) Преобразуем уравнение Ляпунова (10.43): WC=AWCAT-ABBTAT, WCAT-AWC = -ABBT, AWC - WCAT = ABBT, -(zl-A) Wc + Wc (d-A“T) = ABBT. Умножим левую и правую часть равенства слева на C(d-А)-1: -CWc + C(d-A)-1 Wc (d-A'T) = C(d-А)"1 ABBT, затем справа на (zl - А"т) v: -CWc (d - A-T )-1 v + C(d - A)-1 Wcv = C(d - A)-1 ABBT (d- A’1)4 v. Заметим, что -C Wc (d - A-T j v e RH2, а с учетом (10.49) C(d-A)-1 Wcv = C(d-A)-1X(o. (10.51) Введем две функции f (z) = C(d-A)-1co, (10.52) g(z) = BT(z/-A-T)v. (10.53) Очевидно, что f (z) e >a 8 (z)e • С учетом того, что /?i(z) = C(z-A)-1 AB, имеем X/ (z) = Ilj/iig (z) = , так как = Гй, получим T«g=X/. (10.54) Проведя аналогичные преобразования с (10.44), можно получить rV = Xg. (10.55) Из (10.53) и (10.54) следует r«r«g=X2g, (10.56) 17’
268 Н°° -теория. Часть I т.е. g - собственный вектор оператора ГДГД: Р-П.-М (10.57) (H~X)g=rllg. (10.58) Откуда X = R-\flg. (10.59) Минимизация -нормы в (10.57) аналогична минимизации нормы (10.20) для непрерывных систем и имеет ту же геометрическую интерпре- тацию. Пример 10.2. Решим задачу синтеза дискретного регулятора для заданного объекта управления. Рассмотрим систему управления с обраткой связью на рис. 10.10. Здесь P(z) - дискретная передаточная функция объекта управления, К (г) - передаточная функция иско- мого регулятора. Схема ив рис. 10.10 является частным вариантом более обшей стандартной задачи рис. 10.1. Полагая P(z) = -G(z) = G22(?). можно по аналогии с (10.17) получить ус- ловие определяющее множество всех допустимых регуляторов K(z) на рис. 10.10: K=(Y-MQ)(X-NQ)~K, (10.60) где Q - искомая функция из Я„, М,N,X,У - элементы правой взаимно-простой фактори- зации функции -Р(г),такчто -P(z) = N(z)M~l(z), (10.61) M(z)X(z)-N(z)Y(z) = l. (10.62) W Рис. 10.10. Система управления с обратной связью Выберем целью управления минимизацию сигнала ошибки £ при подаче на вход систе- мы внешних воздействий ш, спектр которых сконцентрирован на полосе частот от 0 до (Oj. При решении аналогичной задачи для непрерывных систем [40] возможно было бы ввести в регулятор весовую функцию, зависящую от Ш], например такого вида 0,01 -----з + 1 --------• (Ю-63) — 3 + 1 Ш, В этом случае W (з) играла бы роль низкочастотного фильтра и тогда требование мини- мизации ошибки можно было представить в виде ||И'-Фе||-<£1, , (10.64) где Фе = [I + РК]'1 - передаточная функция по ошибке, а е1 - заданная величина. Для дискрет- ных систем аналогичную весовую функцию можно получить путем преобразования типа [33]
г ва 10. Синтез дискретных регуляторов -------------------------------- --------------------------- Mg. W(z)=(i-z-,\z Ы I ’ ] (10.65) Подставим (10.60) и (10.61) в передаточную функцию по ошибке, получим фе = (1 + РК)-' = (1 + (-WAC1)^ - MQ^X _NQyJ- = = (М(Х-Л/е)(м(Х-1Ие)_М(у.м<=Мх_^ (Ю.66) тогда вместо (10.64) |w4i=|w‘MX-W‘MJVGL>rflO>=l . Приняв 7j = WkMX , T2 =WkMN , получим задачу «конструирования наилучшей моде- ли» алгоритм решения которой неизвестен. Ввод свободного параметра к обусловлен тем что решение задачи (10.67) при fc=l может не удовлетворять требованию точности но мож- но доказать [40], что ’ ta|w‘MX-WkM№| =0, поэтому для любого заданного et >0 можно найти к , так чтобы //„-норма (10.67) была меньше Et. На практике параметр к определяется путем перебора Проиллюстрируем решение задачи на примере синтеза регулятора дая неустойчивого, неминимально-фазового объекта управления (рис. 10.10): р( , 0,36(1+2,5-z)(l+0,4-z) 1 (l+l,4-z)-(l+l,2-z)-(l-0,8-z) Данный пример объекта взят из работы [8]. Объект неустойчивый, поэтому для факторизации функции - P(z) примем . -0,36(1+2,5-г)(1+0,4г) к(1+1.4-г)-(1+1,2-г)-(1+0,4-г) (z-0,5)3 ’ U (г-0,5)3 для нахождения двух других функций X (г) и других У (г), таких чтобы выполнялось ра- венство MX - NY = 1, воспользуемся алгоритмом Евклида, применение которого подробно описано в главе 2. Тогда получаем _j (993370 • г2 -5655277-z+39325) Х = 314600 (2-г-1)3 ’ _ц (958616-г2 - 5349679-г+6489025) 1415700 ~ (2-z-lf Для определения весовой функции примем (О|=0,01, тогда ’ W (г)а -Z—при периоде дискретизации Г = 0,01. Примем первоначально к = 1. Приведем задачу к model-matching problem: У-(100 г-99)(10 + 14 г)(10+12 г)(10-8 г)(993370 г2 - 5655277-г+39325) 314600(1000 • г - 999)(10 • г - 5)’(2 • г -1)2 т, ,_288(100 z-99)(5 + 7-z)(5+6 z)(-5+4-z)(5+2-z)(2+5-z) 2 2 15625(1000-z-999)(2-г-1)6
270 __________________________________________________ Я°°-теория. Часть* Выполнив внутренне-внешнюю факторизацию Г2 (г), получим ' (-4 + 5-z)(5-z + 2) ’ Определим функцию Л = Г27‘-Г, н Я, =[A,AS,C,0] так, что Я = Я,+Я2,где и R2gH„: д,=2859 =0,2743. 13996 , . 80619 " g^~ 27992(5-z + 2) ’ . . 80619 5 2 „ 80619 K‘ *' 69980(5 + 2 z) ' = "2• 5 ’ 69980 ' Решая уравнения Ляпунова (10.23), (10.24), найдем грамнаны управляемости н наблю- 4 309496341 "'-Я-"1-7ЙМ20« " Определив согласно (10.32) и (10.33) fl у- 80619 J(Z' = 69980(2 z+5) в конечном итоге получим искомый регулятор -2(5 + 7-z)(5 + 6-z)(356500-z-354651) 11517г-(1000-г-999)(5-г + 2) и передаточную функцию замкнутой системы , . P(z)-*(z) 3-(2-z+5)(356500-z-354650) 'Z'“l+A»(z)-Ar(z) 34990(5-z-4)(100-z-99) Для проектировщика представляют интерес характеристики фильтра К (г) и временные процессы, определяющие качество системы. При выборе различных параметров ш( можно сделать вывод, что, расширяя полосу пропускания весовой функции, повышаем быстродейст- вие регулятора и уменьшаем время переходного процесса для замкнутой системы.
ЧАСТЬП НЕЧЕТКОЕ УПРАВЛЕНИЕ ВВЕДЕНИЕ Наличие неопределенной или нечеткой информации, которая не может быть интерпретирована в вероятностных терминах, приводит к тому, что традиционные количественные методы, используемые в теории автомати- ческого управления, являются недостаточно адекватными, В результате появляются трудности в формировании алгоритмов управления. Один из способов их преодоления состоит в использовании нечетких понятий и знаний, проведении операций с использованием нечетких логических пра- вил и в получении на их основе нечетких выводов, на базе которых фор- мируются алгоритмы управления. этих случаях используется математическая теория нечетких мно- с-т™’ кото₽ая была предложена Л. Заде (США) [10]. Логику, которая по- Рем еНа На основе те°рии нечетких множеств для исчисления нечетких пе- в котс>НЫХ’ пРинята называть нечеткой логикой (fuzzy logic), а управление, зывакхг°М УПравляЮщий алгоритм основан на нечеткой логике, обычно на- обознач НеЧетким Управлением (fuzzy control) [22]. Нечеткое управление является°Д“° И3 напРавяений в современных технологиях управления и одной из ветвей теории интеллектуальных систем [16,17].
Нечеткое управление. Часть ц • ЯЧЯМЖИ» ЯфИИвИ» » ШСТОЯЩИ „ „ л» ГЧ’ят ’е,т"а Ф»лира. -»*<»« • ят“' И. линте,, ZX7Z™. ™»™“ “ОТ“ “ММИЭвад, Г5 61 синтеза гибридных регуляторов на базе классических ПИД. регуляторов [7] и других систем. По сравнению с традиционными систе- мами нечеткие системы имеют лучшую помехозащищенность, быстродей- ствие н точность за счет более адекватного описания реальной среды, в ко- торой они функционируют. Основная цель предлагаемого раздела состоит в изложении элемент теории нечеткой логики и применения ее положений к задачам теооии°В тематического управления. ав'
гписок используемых аббревиатур 273 СПИСОК ИСПОЛЬЗУЕМЫХ АББРЕВИАТУР гмод мнк САО СЛАУ П пд ПИД - групповой метод обработки данных - метод наименьших квадратов - система автоматической оптимизации - система линейных алгебраических уравнений - пропорциональный регулятор - пропорционально-дифференциальный регулятор - пропорционально-интегро-дифференциальный регулятор СОА - процедура преобразования нечеткой переменной в физическую (center of area - англ.) COG - метод преобразования нечеткой переменной в физическую (числовую) величину (center of gravity - англ.) dfz - процедура преобразования нечеткой переменной в физическую (defazzification - англ.) idfz - индексный метод преобразования нечеткой переменной в физическую (числовую) величину (indexed defazzification - англ.) fuzz - процедура преобразования физической (числовой) величины в нечеткую переменную (fazzification - англ.) singl - одиночная функция принадлежности (singlton - англ.)
274 Нечеткое управление. Часть П ГЛАВА 1 НЕЧЕТКИЕ МНОЖЕСТВА 1.1. Принадлежность множеству В классической теории множеств принадлежность элемента х некото- рому множеству А записывается в формализованном виде: х& А. Эта формальная запись может также представляться с помощью харак- теристической функции: Иа(*) = 1 , XG А <=> хе А. О, хе А Символ <=> обозначает эквивалентность. Принадлежность множества к некоторому одномерному множеству А можно представить в графической форме. Пусть имеем одномерное ариф- метическое пространство Ж|( в котором заданы два непересекающихся подмножества А и В : Ac9<1,Sc'R1,AnB = 0. Тогда принадлежность х подмножеству А можно представить в виде прямоугольника Пл (рис. 1.1а), принадлежность подмножеству В - в ви- де прямоугольника Пв (рис. 1.16). Обычно эти графические формы при- надлежности совмещаются и в результате получается совокупность из 2-х прямоугольников (рис. 1.1 в). Принадлежность некоторому двумерному подмножеству представляется параллелепипедом в трехмерном простран- стве, а принадлежность n-мерному подмножеству - соответственно (п+1) -мерным параллелепипедом. В классической (четкой) теории множеств четкое подмножество А оп- ределяется как совокупность упорядоченных пар |х,р.д(х)}, где {...} -
ЭТ5 1JtaPgJ- Нечеткие множества имвол совокупности. В одномерном случае хе SK,, в общем хе . Вы- бор ариФметическ0Г0 пР°стРанства обусловлен тем, что в теории явления с переменными х обычно связывают некоторые физические ичины (температура, давление, расход и т.д.), которые получают с из- ВВ ительных датчиков, установленных на объекте управления. a множеств
_____________________________Нечеткое управление. Част., тт Факту принадлежности можно также придать лингвистическую форму Пусть в задана некоторая физическая величина, например, температура воды, которая измеряется соответствующим датчиком. Будем ассоцииро- вать с подмножеством А диапазон изменения температуры от 0°С до 50°С, а с подмножеством В ее изменение в диапазоне от 50°С до 100°С. В лингвистической интерпретации принадлежность измеренной температу- ры подмножеству А будет соответствовать лингвистической переменной «холодная вода», а подмножеству В ~ «горячая вода». Аналогичная ин- терпретация может быть дана и для других физических величин: давление «низкое» (подмножество А) или «высокое» (подмножество В ), линейная скорость перемещения «маленькая» (подмножество А) или «большая» (подмножество В) и т.д. Если использовать кодирование символами 0 и 1 для упомянутых выше лингвистических переменных, то получим соответ- ствие: «холодная» - 0, «горячая» - 1, «маленькая» - 0, «большая» - 1 и т.д. В этой интерпретации ие представляется возможным отразить промежу- точные состояния температуры воды типа: «прохладная» вода, «теплая» вода, так как переменная принадлежности тому или иному подмножеству принимает только два значения 0 или 1, что подразумевает наличие четкой или резкой границы между подмножествами. В классической теории мно- жеств принадлежность элемента одному подмножеству исключает одно- временную принадлежность его другому множеству. Таким образом, в математических терминах характеристическая функ- ция Цд (х) осуществляет отображение некоторого дискретного или непре- рывного подмножество А в множество 5К], которое содержит всего лишь два элемента 0 и 1: р’д(х):А->^={0,1}. Из определения следует, что областью определения цд (к) является дискретное или непрерывное подмножество, а область значений есть дис- кретное множество {0,1}. В дискретной математике для исчисления вы- сказываний с функциями, имеющими двоичные значения, используется булева алгебра, которая является теоретической базой вычислительной техники. Если область значений одномерного отображения цд (х)е [0,1] с SRi, тогда |ЛД (х) называется одномерной функцией принадлежности (member- ship function). Для исчисления высказываний с такими функциями, прини- мающими непрерывные значения на отрезке [0,1], используется нечеткая логика, которая является одним из разделов теории нечетких множеств. Сопоставление характеристической функции цд (х) классической теории
Глава !• Нечеткие множества множеств с функцией принадлеяон^ТТ^^ --- показывает, что характеристическая функция явля И He4™ МНОЖеств функции принадлежности, так как бинарная совокупи^
“.'°__________________________________Нечеткое управление. Часть II Графическая трактовка одномерной функции принадлежности пред- ставлена на рис. 1.2. Подмножество AcSl, имеет функцию принадлежно- сти Ил W (рис. 1.2а), подмножество функцию принадлежности ^в(х) (рис. 1.26), их совместное положение изображено на рис. 1.2в. Из рис. 1.2а следует, что элемент х( е А имеет ЦЛ (xj) = 1, а элемент х2 е А соответственно ЦЛ (х2) = 0,8, поэтому в теории нечетких множеств приня- то говорить, что элемент х1 принадлежит множеству А полностью, а эле- мент х2 принадлежит множеству А частично. Аналогично из рис. 1.26 имеем х4бВ полностью ((х4) = 1), х3е В частично (рй(х3) = 0,8). Соответственно из рис. 1.2в имеем х2е А частично с весом 0,8 (цЛ(х2) = 0,8) и х2еВ частично с весом 0,2 (Ц8 (х2) = 0,2). Элемент Лз е А частично с весом 0,2 (цЛ (х3 ) = 0,2) и х3 е В частично с весом 0,8 (Ив (*з) = 0>8). Таким образом, граница между двумя множествами А и В является размытой или нечеткой, и переход элементов из одного множества в дру- гое происходит плавно, без скачков. В классической теории множеств этот переход осуществляется скачкообразно и оба множества имеют четкую границу между собой. В табл. 1.1 представлено сопоставление характери- стической функции |Хд (х) теории четких множеств с функцией принад- лежности |ХД (х) теории нечетких множеств. Таблица 1.1 Сопоставление характеристической функции с функцией принадлежностей Теория четких множеств Теория нечетких множеств Характеристическая функция р^(х) Функция принадлежности рЛ (х) р: А—> {0.1}сЯ| р: А—>[0, Цсй) Наличие между нечеткими множествами размытых границ можно ин- терпретировать в лингвистической форме (рис. 1.3). Для температуры во- ды будем предполагать, что температура в 15°С и ее окрестности является «холодной» водой, температура в 85°С и ее окрестности ассоциируются с «горячей» водой (рис. 1.3а, б).
Pe(*). Рис. 1.3. Количественное представление нечетких логических переменных «холодная», «горячая» вода Тогда нечетким лингвистическим переменным «холодная», «горячая» можно дать количественную форму с использованием функций принад- лежностей. Температура в 50°С частично с весом 0,5 является «холодной» и с весом 0,5 «горячей» (рис. 1.3в). Отметим, что имеет место условие нормировки: HaW+M*)®1-
280 Нечеткое управление. Часть II Одномерное нечеткое подмножество А с SR] определяется как сово- купность упорядоченных пар {х, цА (х)}, хе SR,. В различных источниках используются эквивалентные способы представления нечетких множеств: Л = {*/Ил (*)} <=> 4 = {цА (х)/х) <=> А = {х, цА (х)} <=> А = {цл (х), х} <=> (x^/xi - дискретное множество; ‘ • (1.1) J Ил (*i )/х - непрерывное множество. А Здесь символы Ей/ понимаются как объединение. Аналогичным способом представляются четкие множества с заменой ЦА (х) на цА (х). Пример. 1.1. Пусть Е={1,2,3.4,5} - четкое дискретное множество, А = {2,3,5} - чет- кое дискретное подмножество множества Е , т.е. А а Е . Тогда подмножество А может быть' представлено в следующих эквивалентных формах: Л={(1;0),(2;1),(3;1),(4,0).(5;1)}<=>4={1/0+2/1 + 3/1+4/0+5/1}<=» <=> Л = {1/0и2/ЮЗ/1и4/0и5/1}. Графическое представление А изображено на рис. 1.4. Четкое число X; е SRj в теории нечетких множеств определяется с помощью одиночной (singlton) функции принадлежности (рис. 1.5): Ид (x) = singl(x-x,.) = 1, х,- =х ; 0, xt * х. Пример. 1.2. £={1,2,3,4,5} - дискретное множество, АсЕ- нечеткое дискретное подмножество с заданной функцией принадлежности (рис. 1.6), тогда А может быть пред- ставлено в следующих эквивалентных формах А={(1; 0), (2; 0,5), (3; 1), (4; 0,5). (5; 0)} «=> А = {1 /0+2/0,5+3/1 + 4 /0,5 + 5/0} <=> <=> Л = {1/0и2/0,5иЗ/Ю4/0,5и5/0}. Рис. 1.4. Четкое дискретное подмножество А
Глава 1. Нечеткие множества 281 Рис. I.S. Одиночная функции ярииадлежиости, представляющая собой четкое число х( е Ri в теория нечетких множеств Рис. 1.6. Нечеткое дискретное иодмиожество А Пример. 1.3. KcOt,, АсЕ - нечеткое непрерывное подмножество с функцией при- надлежности цл(х) = тах(у1=|х-2|;уа=0),хб911. (1.2) Тогда А может быть представлено в форме (рис. 1.7) А = Jmax(l-|х-2|; 0)/х, Е где, как и ранее, символ J обозначает объединение. При использовании вычислительных устройств непрерывная функция принадлежности представляется в дискретной форме. После аппроксимации непрерывной функции принадлежности цА(х) треугольного типа ступенча- той функцией р.д. (х) получим нечеткое дискретное подмножество А , которое в первом приближении аппроксимирует непрерывное нечеткое подмножество А и может быть также записано в следующих эквивалентных формах (рис. 1.8): А = А* = {(1;0),(1,25:0,25),(1,5;0,5), (1,75;0,75), (2;1),(2,25:0,75). (2,5:0,5),(2,75:0,25),(3;0)}s 1/0 + 1,25/0,25 + 1,5/0,5 + 1,75/0,75+ +2/1 + 2,25/0,75 + 2,5/0,5 + 2,75/0,25 + 3/0s l/0ul,25/0,25u cj!,5/O,5cj 1,75/0,75 cj2/l u2,25/0,75 w2,5/0,5u 2,75/0,25иЗ/0.
282 Нечеткое управление. Часть II Помимо приведенных выше функций принадлежности треугольного типа и одиночной, в теории нечеткого управления широко используются функции трапецеидальной и колоколообразной формы (рис. 1.9): (x) = min{max(a-£-|x-6|; 0); 1} (1.3) - трапецеидальная; а, Ь - заданные числа, к - показатель нечеткости; хбЭ^; цл(л) = ехр (1.4) - колоколообразная (нормальная); т - заданное число, б - показатель нечеткости, При решении научно-исследовательских задач нечеткого управления также могут быть использованы следующие функции принадлежности: На (*) = «'**• На (л) = 1 ~а*к > 0 - х < а~х,к ; HAW = (1+fo2)А>1- Обзор простейших функций принадлежности, которые ассоциируются с нечеткими утверждениями «величина х - мала», «величина |х[ - мала», «величина х - велика», «величина |х| - велика», приведен в [12]. Нечеткое множество с одномерной функцией принадлежности На W принято называть нечетким множеством 1-го рода.
Гпява 1. Нечеткие множества 283 Рис. 1.8. Нечеткое непрерывное подмножество Л и его дискретная аппроксимация А* Рис. 1.9. Функции принадлежностей трапецеидальной и колоколообразпой формы Различают также нечеткие множества 2-го рода, в этом случае функция принадлежности: Ma, W = На, (»Ц W) • Для нечеткого множества л-го рода соответственно: НА, wi- fi современных разделах теории нечетких множеств активно изучается теория вероятностных нечетких множеств, ддя.которых На, W = p{Ha W€M}> где Р{..,} - вероятность того, что случайная величина (х) принимает значения из промежутка [0; 1]. Изучаются другие типы нечетких множеств с определением функций принадлежностей на булевых переменных, решетках, сетях и тд. Обоб- щаются традиционные разделы математики в нечеткой постановке: нечет-
284 Нечеткое управление. Часть II кая статистическая проверка гипотез, нечеткий регрессионный анализ, не- четкие марковские случайные процессы, нечеткие дифференциальные уравнения и другие разделы. Двухмерное нечеткое множество А с использованием двухмерной функции принадлежности HA(xt,x2) определяется как совокупность: А = {А1хА2-, Цд (xltX2)}, где А, хЛз - прямое (декартово) произведение; XpXj е 91,. На рис. 1.10 представлено нечеткое множество А с двухмерной функ- цией принадлежности пирамидального типа: (х|,х2) = тах{а-Л, -|х, -Z>|-£2 J *2 -ch (xi = 0>х2 = 0)} > где а, Ь, с - заданные числа, кх,к2 - показатели нечеткости, а на рис. 1.11 - с двухмерной колоколообразной функцией: Цд(^,х2) = тах ехр (Х1-/И,)2 (*2-"»2)2 |.(0; 0) . 5? 5? где т,,»^ - заданные числа, 5,,82 - показатели нечеткости. Многомерное нечеткое множество А определяется как совокупность: А = {А, х...хА„; (х,..х„)}. Многомерная пирамидальная функция принадлежности: fiA(x,,...,x„) = max{a-*,-|xi-i1|-...-*n-|xn-6n|;(x1 =0.хп =0)}, где a, bj (i = 1, л) - заданные числа; kt - показатели нечеткости. Рис. 1.10. Нечеткое множество А с двухмерной функцией принадлежности Пирамидального типа
Рис. 1.11. Нечеткое множество А с двухмерной функцией принадлежности колоколообразного тина Многомерная колоколообразная функция принадлежности: Иа(*1 ...,лп) = тах где (i = l,n) - заданные числа, 8; - показатели нечеткости. Нечеткое множество с многомерной функцией принадлежности поми- мо названия «многомерное нечеткое множество» имеет эквивалентное на- звание «нечеткое отношение» (fuzzy relation). По аналогии с (1.1) оно записывается в виде: A = R= {.../|аДхь...,хп)/(х1,...,хл) = f |1я(х!.......хл)/(х1,...,хл) А д, ДХ...ХД, - многомерное нечеткое непрерывное множество. Здесь символ R - аббревиатура «Relation» - «отношение». Например, двумерное нечеткое дискретное множество А с На (*ь ) = тах 0 ~|*1 ~ 2> (°’’ °)} на Дискретной области : 0; 1; 2;...;10 имеет представление А = R = 0/(0; 0)+О/(0; 1)+„.+1/2/(0; 9)+1/(0; 10)+...+ +1/(10;0)+1/2/(10;1)+0/(10;2)+...+0/(10;10), ИЛИ в Матричной форме:
Нечеткое управление. Части ц Z6O С *1 *i,o = 0 *1.1 =1 *1.2 ~ "• *1.9 =9 0 0 ' 0 ... 1/2 1 ! *2.0=0 0 0 0 1 1/2 ! *2,1=1 0 0 0 • •• 1/2 0 ; *2.2 = 2 А = /? = 0 1/2 1 0 0 ! *2,8 =8 1/2 1 1/2 0 0 ! *2,9=9 1 1/2 0 0 0 | *2,10 = Ю 1 к 1 1.2. Свойства нечетких множеств При анализе работы нечеткого регулятора важную роль играют свойст- ва нечетких множеств, перечислим некоторые из них (рис. 1.12 - 1.17). Высота (height - hgt) нечеткого множества А : hgtA = suppA(x). хеХ Нечеткое множество А с hgt А = 1 называется нормальным, а при hgt А < 1 субнормальным. Ядро (core, kemal, nucleus) или центр нечеткого множества А: core А = {х е /р,А (х) = 1}. Основание (support - supp) нечеткого множества А : suppA = {xe9ii/pA(x)>0}. Если suppA<<», то основание называется компактным основанием, т.е. совокупность точек является ограниченной и замкнутой. При supp А = ±оо основание называется некомпактным. Поперечными точками (crossover points) нечеткого множества А назы- вается совокупность {*е^1/рА (х) = 0,5}. Уровень а нечеткого множества А, или а-разрез (сечение) нечеткого множества А: а - cut А = {х е 91,/цА (х) > а}. Строгий а-разрез: а-cut A={xe9tj/nA (х)>а}.
Глава 1. Нечеткие множества 287 Из определений следует: coreA = a-cutA/a=1 = l-cutA = {xe Х/цА(х) = 1], т.е. ядро нечеткого множества равно а -разрезу с a = 1. supp А = a - cut A/a=0 = {хе Х/цА (х) > 0}, т.е. основание нечеткого множества равно а -разрезу с a = 0. Выпуклое (convex) нечеткое множество А: tfxj.x^e X : Xj <х2 <х3 => цА(xj^min^xj),ц(хз)). При невыполнении неравенства нечеткое множество называется невы- пуклым. Нечеткое разбиение нечеткого множества А. Если имеем: нечеткое множество А , нечеткие подмножества: ___ N Aj С A, j = 1,ЛГ; Aj *0; А}*А\ Vxe А => ^цАДх) = 1, тогда подмножества Al,...,AJV называются нечетким разбиением нечетко- го множества А. Рис. 1,12. Нечеткое множество с компактным основанием и центром в виде отрезка Рис. 1.13. Нечеткое множество с компактным основанием и центром, содержащим одну точку
288 Нечеткое управление. Часть И Пример. 1.4. Пусть Aj,j-l,N - нечеткие подмножества, такие, что hgtAy = l. ~ выпуклые, т.е. Vxh'xh'xh e AJ ’ тп(цЛ. (xA),цЛ. .
Нечеткие множества______________________________ 289 ^яя j нечеткое подмножество не содержит более 2-х пересечений с другими нечетки- подмножествами, тогда Aj есть нечеткое разбиение Л (рис. 1.18). Рис. 1.17. Выпуклое нечеткое множество Рис. 1.18. Нечеткое разбиение нечеткого множества Специальный тип нечеткого множества А называется нечетким чис- лом, если выполняются следующие условия: А является выпуклым; (1.5) А является нормальным (hgt А = 1); (1.6) (х) является кусочно-непрерывной функцией; (1.7) соте А содержит одну точку. (1.8) Пример нечеткого числа «приблизительно 5» в графической форме приведен на рис. 1.19. 20 Зак. 108
290 Нечеткое управление. Часть Н Рис. 1.20. Нечеткий интервал «от приблизительно 2 до приблизительно 7» Нечеткое множество А, для которого выполняются условия (1.5) - (1.7), а (1.8) не выполняется, называется нечетким интервалом. Пример не- четкого интервала «от приблизительно 2 до приблизительно 7» приведен на рис. 1.20. 1.3. Принцип обобщения. Нечеткая арифметика Этот принцип обобщает понятие «отображение» математического ана- лиза и соответственно математические операции типа сложение, вычита- ние, умножение, деление и другие, которые в теории нечетких множеств интерпретируются как специальный тип отображения. Впервые этот прин- цип был сформулирован Л. Заде в 1975 году и является одним из наиболее важных в теории нечетких множеств. Как утверждают ведущие специали- сты в области теории нечетких множеств Дубоис (Dubois) и Праде (Prade): «этот принцип дает общий метод для обобщения нечетких понятий с тем, чтобы иметь дело с нечеткйми количествами» [21]. Применение этого принципа для нечеткой арифметики с нечеткими числами позволяет решать традиционные задачи теории управления: па- раметрической и структурной идентификации; фильтрации и прогнозиро- вания случайных процессов; обработки измерений по методу наименьших квадратов; распознавания образов и другие задачи. Имеется много вариантов определения нечеткого отображения. Рас- смотрим некоторые из них. Классическое отображение f определяется как соответствие элемента хе Ai элементу у е А^: f-Ai-^Az. В теории нечетких множеств нечеткое отображение f определяется, как соответствие элемента хе А, элементу уЕ А^ с функцией принадлеж- ности lif (х, у). В одномерном случае нечеткое отображение в системе ко-
Глава 1. Нечеткие множества _________________________ 291 ординат {х, у, Цу (х, у)] характеризуется некоторой поверхностью, и для этого отображения приняты различные обозначения: и Н/(х.у) У^-^еФу = у(х)ит.д. По другому варианту определения нечеткое отображение f - это ото- бражение с нечеткой областью определения А[ и нечеткой областью зна- н чений Aj : у=У(х); хе 4; уе Л2; Alt Л2-нечеткиемножества. Иногда нечеткое отображение f определяется нечеткой поверхностью рДх.у) в AjXAj. Нечеткая функция f многих переменных определяется в виде: y=f(*.....хв); х1еЛ1,..„хвеД„уб4,+1; А1,...,Ав+1 - нечеткие множества и задаются поверхностью Hz(xj,...,xB) в А1х..,хАв,Ав+1. Геометрическая интерпретация нечеткой функции одного переменного н y=f(x) приведена на рис. 1.21. Рис. 1.21. Геометрическая ннтернретацня нечеткой функции одного переменного У »/(*) Принцип обобщения в многомерном случае формулируется в следую- щей постановке: н • задана нечеткая функция многих переменных у=f (xj,..., хв); 20'
292 Нечеткое управление. Часть II • задано нечеткое множество А аргумента нечеткой функции А = {Д х...хД,; (*1...*„)}. Необходимо найти функцию принадлежности (у) нечеткого мно- жества Лп+1, которое является областью значений нечеткой функции мно- н гихпеременных у=/(х1,...,хя). Имеет место следующее определение принципа обобщения в много- мерном случае: ^,(y)s SUP ...................*„)= sup min(gAi(xI)..............(*„)). ..x,) У=/{Х|..x„) Пример. 13. Применим этот принцип для сложения двух нечетких чисел; « =5 + =2» с заданными непрерывными функциями принадлежности треугольного типа: ил1.5(*1)=тах(1-°-51х1 (19) Ux2.2fei)=m'w(1_ta~2l;0)- <1л°) Шаг 1. По заданным Д =5, рд„3(х|); Aj =а2,Ил1*-2(х2) находятся (рис. 1.22) Л3 = 4|ХА2, (хрХг) • Шаг 2. Находится min[pA_3(X|),pA!=w2(x2)]. Для этого фиксируется х2 = х2, и варьируется л, е [3; 7]. В результате получается плос- кость Я), которая пересекает пирамиду ^(xj.Xj) ио прямой CtC2 (рис. 1.23). Диалогично поступаем для х2=х22 и далее для Х| =хи,х1 =х12>... и т.д. В проекции иа горизонтальную плоскость х2Ох, при различных у ={0;1/4;1/2;3/4;1] будем иметь изокривые (рис. 1.24) п>1п[цЛ1(х|),рА!(хг )]Д, f[. (1.11) Шаг 3. На горизонтальной плоскости xflXt строятся зависимости для отображения у = х,+х2 при фиксированных у = у,- (рис. 1.25): У =Х| +х=» 4=Х| +x=s> Xj =4-Х|, / у =Х|+х=^5 = Х|+х=*х2=5-Х|, / >-5 У =х, +х=> 10=Х| +х=> ль =10-Х|. / л'Ю Пересечение этих прямых с изокривыми определяют точки: В результате получается совокупность точек (рис. 1.26) {у/,МА««34.-2(У;)}. которые оп- ределяют функцию принадлежности при сложении двух нечетких чисел «“З+^З».
Рис. 1.2Х Изокривая =min
Нечеткое управление. Часть Д 294 Рис. 1.25. Совокупность А, ~ (я) л,—5—г Рис. 1.26. Функция принадлежностей суммы 2-х нечетких чисел « = 5+ = 2 » Аналогичные построения могут быть сделаны в случае арифметиче- ских операций «-» «:» «х» для нечетких чисел с треугольными функ- циями принадлежностей. Пусть, как и ранее, имеем функции принадлежностей (1.9), (1.10) двух нечетких чисел =5 и =2 и необходимо вычислить =5-=2, т.е. необходимо найти: После вычисления прямого произведения пространств А3 = Д х и дальнейших построений получим в плоскости х}х2 соответствующие изо- кривые (1.11) и для задаваемых cf соответствующие зависимости у = Х]-Х2 =ct (рис. 1.27). Их взаимные пересечения определяет совокуп- ность {у = с> > ^^5-^2 (yi=Ci) = ai}> которая будет представлять собой функцию принадлежностей разности двух нечетких чисел «=5 - «2».
295 доП-ТкНечеткие множества_____________ " д^рис. 1 -28 показаны изокривые и зависимости у = -х-> = с(, возни- а10щИе при вычислении «<=5х=»2». На рис. 1.29 представлены изокривые й зависимости у = — = с,- при вычислении «=5: ~Ъ. Рис. 1.28. Функции принадлежностей произведения 2-х нечетких чисел Геометрические построения, представленные на рис. 1.22 - 1.29, пока- зывают, что при наличии треугольных функций принадлежностей и эле- ментарных арифметических операций типа «+», «-», «:», «х» получение результирующей функции принадлежностей является более или менее тривиальной операцией. В этом случае принцип обобщения для результи- рующей функции принадлежностей может быть сформулирован в виде следующего правила: ^ ()>) = • /=1 п ZiM (*<' )// (х;), - дискретное нечеткое множество; (1.12) (*. )//(*, )’А - непрерывное нечеткое множество,
296 TV Нечеткое управление. Часть— где у = /(*)> хе А^уе , Д, Xj - нечеткие множества с треугольными функциями принадлежностей. Рассмотрим несколько примеров арифметических операций с нечетки- ми числами по (1.12). Рис. 1.29. Функция принадлежностей отношении 2-х нечетких чисел Пример. 1.6. Имеем нечеткое число «“5» с дискретной функцией принадлежностей (рис. 1.30): р.5(х) = 0,5/4 + 1/5+0,5/б. Это нечеткое число возводится в квадрат (“5)г =(в5)-(=5). Необходимо иайтн И(»5)2(х) • В соответствии с (1.12) имеем М2(х) = Х“(-5)(х<)/х'2 =(°>5/4+1/5 + 0.5/6)2 = =0,5/42 + 1/52 + 0,5/б2 =0,5/16 + 1/25 + 0,5/36. Пример. 1.7. Имеем нечеткие числа «=5» и «=2» с дискретными функциями принадлеж- ностей (рис. 1.31): р.5W = 0,5/4+ 1/5+0,5/6; р.2(х)=1/2 . Рассматривается сумма двух нечетких чисел: «=5 + “2». Необходимо найти P-s+.jW- По (1.12) имеем: Р-5*-2 (х)=(0,5/4+1/5+0,5/6)+ (1/2) = =0,5/(4 + 2)+1/(5+2)+0.5/(6 + 2)=0,5/6 + 1/7 + 0,5/8. При наличии более сложных функций принадлежности для нечетких чисел «а» и «Ь», например, колоколообразных: / \2" 5? . ------------------------------------------------------ si
297 !• Нечеткие множества с показателями нечеткости SpSj соответственно, построение результи- рующей функции принадлежностей для соответствующих арифметических операций представляет собой достаточно сложную вычислительную про- цедуру (Рис- I -И)- В некоторых случаях не всегда удается получить анали- тические решения для результирующей функции принадлежностей. Это обусловлено вычислением декартового произведения пространств. 0 1 2 3 4 5 6 Рис. 1.30. Возведение в квадрат нечеткого числа = 5 х2, 1 I I 0 1 2 3 4 5 6 Рис. 1.31. Сложение 2-х нечетких чисел « = 5+ = 2 » 0 Рис. 1.32. Функция принадлежностей произведения двух нечетких чисел для колоколообразных функций принадлежностей сомножителей 19 Зак. 108
298 ________ Нечеткое управление. Часть Ц 1.4. ПРИКЛАДНЫЕ ЗАДАЧИ НЕЧЕТКОЙ ЛОГИКИ В предыдущем разделе было дано определение нечеткого отображения и как частный случай этого определения, были рассмотрены и решены за- дачи по реализации арифметических операций над нечеткими числами. В этом разделе приводятся алгоритмы решения некоторых прикладных за- дач в сфере экономики, а также задач параметрической и структурной идентификации теории автоматического управления с использованием не- четких арифметических операций. Пусть имеется фирма по продаже недвижимости и статистика ее дея- тельности за несколько лет. Анализируется деятельность фирмы за про- шедший период по усредненным данным: • E7V] = 75 кл./год - среднее Е число Nx клиентов в год, которые посетили фирму недвижимости; • ЕЛГ2 =0,3 (30%) - средний процент клиентов, совершивших сделки, от числа клиентов, посетивших фирму E/V]; • ESi = 142,815 $ - средняя стоимость одной сделки в год; • Е$2 = 0,055 (5,5%) - средний процент комиссионных в год от средней стоимости одной сделки. Необходимо определить среднюю прибыль Е77 фирмы за год. Для решения этой задачи используем нечеткую арифметику. В результате статистической обработки данных о деятельности фирмы получен следующий набор функций принадлежностей: М(*)=|*-Т’ 67-х*75; 1 о о g=wi 75<х-87; 0|^0.25; IW2 (х) = 1, 0,25<х<0,35; ^2<х) = "7Г77х+Г^’ 0>35<х^0,5. V/f * «7 VZj A J ^00= 8103 Х 8 ’ 13O-1O3 < х < 138 -103; И^(х) = 1, 138-103 <х<140 103; *Ч(х) = -^4 х+15- 140-103<х<150403;
Глава 1. Нечеткие множества 299 M-.s2(x) = ^~x-4, 0,4<х<0,05; H-s2(*) = !, 0,05 <х £0,06; H-s2(x) = -~x+7, 0,06<х£0,07. После дискретизации получим: н.»,(-')=|/694/714/,з+/754/7’4/814А4; g.N2 (x) = i/o,1375+ |/о,1750+|/о,2125+1/0,25+1/0,35 + + |/о, 3875 + /о, 4250+i /о, 4625; U-s (х) = -/132-1О3 + -1/134-103 +-/136-103 + 1/138-103 + 1 4/ 2/ 4/ +1/140-103 +I/142.5 103 +1/145-103 +1/147,5-10*; ц“52 = 4 /°’0425 + i/0,0450 + 4А0425 + ^°’05+1/,°’06+ о / 1 / 1 / +-/0,0615+-/0,0650+ — /0,0675 . 4/ 2/ 4/ В соответствии с (1.12) получим НлМ" И-w-V-*! -I/6S-O.1375 132 1O1 0.0425+ 4-1 /71-0,175-134-103-0,045+^/73-0,2125-136-103 -0,0475+ 2/ 4/ +1/75 -0.25 -138-103-0,52 + 1/75-0,35-140-103-0,06+ +-/79 0,3875-142,5-Ю3-0,0615+-/81 0,425-145-103 0,065+ 4/ 2/ +-/в4 • 0,4625 • 147,5 • 103 • 0,0675 = i/53,225 + -/74,923+-/100,211+ 4/ 4/ 2/ 4/ +1/129,375 + 220,500 +1 /268,280+|/з24,456+^386,800. После линейной интерполяции получим функцию принадлежности Ип(у) прибыли П в виде непрерывной кусочно-линейной зависимости, которая позволяет сделать следующие выводы: • средняя прибыль ЕП = (130+220)40* $/год; • минимальная прибыль min П = 35 • 103 $/год; • максимальная прибыль max П = 450-103 $/год.
300 Нечеткое управление. Часть П В настоящее время для решения задач, подобных приведенной выше, используется программируемый нечеткий калькулятор, реализованный на персональном компьютере. В США фирмой FuziWare разработан пакет FuziCalc. Интерфейсная оболочка пакета подобна электронным таблицам. Нечеткие числа и интервалы задаются параметрами «min, max, диапазон (core)», В графической форме этому соответствует трапецеидальная функ- ция принадлежности. Результат вычислений также будет представлен в виде параметров «min, max, диапазон». Этот пакет находит применение при проведении оценочных расчетов и прогнозов в различных сферах эко- номики: анализ функционирования туристических фирм, магазинов, опто- вой торговли, банков и т.д. Аналогичные задачи позволяет решать отече- ственный пакет «Бизнес-прогноз». Классическая задача параметрической идентификации в теории авто- матического управления формулируется в следующей постановке. Имеет- ся линейная или линеаризованная модель объекта управления: >(r) = a1-/I(0+...+aB./B(0 = AT.F(0. (1,13) где Ат =(а1,...,ав) - вектор неизвестных параметров; у (г) - выход объ- екта управления; FT(/) = (f1(r),...,fB(t)) - вектор заданных базисных функций. Необходимо по текущим измерениям у1 = y(/j У* = у(^) выхода, полученным в моменты времени t: , определить вектор оценок А вектора А неизвестных параметров модели (1.13). В нечеткой постановке предполагается, что yiti = l,k являются нечеткими числами с треуголь- ными функциями принадлежностей, и необходимо найти функции при- надлежностей компонент вектора оценок А" вектора А . Предварительно рассмотрим решение вспомогательной задачи. Для простоты рассмотрения пусть имеем модель: У(0 = аг/1(0 + а2,/2(0- <1Л4) Нечеткие числа имеют треугольные непрерывные функции при- надлежностей р^Ц), р^Осг) соответственно, т.е. core С4 = {xi е Х/ц,в1 (Xj) = 1} = ^, core а2 = {^2 е X /ц02 (Хг j) = 1} = а2, supp d! = {xj е Х/\кщ (х,) > о} = с,, supp а2 = {х2 е X(х2) > о} = с2. Базисные функции Д (г), f2 (г) являются четкими числами, т.е. имеют функции принадлежностей типа синглтон (рис. 1.5). Необходимо найти функцию принадлежности рА (у) выхода объекта управления.
Рис. 1.33. Умножение нечеткого числа на четкое число fl:bi = al-fl Для простоты выберем шаг дискретизации т=0,5 прИ аппроксимации непрерывной функции принадлежности, тогда будем иметь произведение нечеткого числа at на четкое число для первого слагаемого в (1.14), ив соответствии с (1.12) получим (рис. 1.33): = 2А11 + V*12 Л + 2А3 С учетом того, что х12 = coreat = оц, получим из геометрических сооб- ражений (рис. 1.33): согеЬ[ = а, • Д , supp = q -|/ij. (1.15' Аналогично для второго слагаемого в (1.14): =[ Vх21++){1/+А2+ s jA21 + ^X22'^2 + i/*23 ^2‘ Так как x22 = core <5^ = a2, получим: core^ = a2 • f2, suppb2 = c2 -|/2j • После сложения 2-х нечетких чисел сц Д, ос2 /г получим. HA(y)=^/x11.fi+l/a1-fi4A’/0+ +^А21‘/2+1/а2'Л+|/ХИ,^') = = |Airf1 + x21-/2+l/a1-/1 + a2-/24A3’/1+X22'/2' откуда с учетом (1.15), (1.16) будем иметь согеу = «;/!+а2/2 . suppy = Cijfi!+c2^2b
302 Нечеткое управление. Часть П Таким образом, получим следующий результат (рис. 1.34): core a,, supp а, , , (core^)•/] +(core a2) f- a,,a,: -» У = «i-/i+°2'/2: z 1 1 , core a2. supp#2 (SUPPai)-|/i| + (suppO2)-[/2|' В общем случае будем иметь: л л п у = 1>-/->согеу = 2>-л. suppу = Lci|Л| . гдесц = core а,, с, = supp af, i = l,n. Из решения вспомогательной задачи можно получить решение задачи нечеткой параметрической идентификации. Имеем нечеткие измерения: где у,- - нечеткие числа; fu,..., /„,• - четкие числа. Из решения вспомогательной задачи имеем: у,. =(согеу(, suppy,) = (£ai/(, £с,|/;|), <=1 /=1 где а;,с, - неизвестные величины, которые подлежат определению, тогда задача нечеткой параметрической идентификации может быть сформули- рована в следующем виде. Необходимо минимизировать линейную форму при наличии ограничений: minfc, .|Д| + ... + cn-|f„|]; Ti * Е • fi + £ ci • |Z1 = core У] + 0,5 • supp у,, i=i i=i У* гЕагЛ+ЁсНЛ| = согеу4 +0,5-suppy4, /=1 (1.17) Л n У1 * £ ai fi ~ S ci • |Z1= соге У1 ~ 0.5 • supp y,, i=l /=1 Ук 2Еа| ’^-Ес1 |Л| = согеУ* -0,5-suppy*. i=l i=l Эта задача может быть редуцирована к стандартной задаче линейного программирования. Минимизации линейной формы (1.17) соответствует минимизация суммы оснований функций принадлежностей нечетких чи- сел коэффициентов af, i = 1,п модели при условии, что разброс измерений
гчява 1. Нечеткие множества______________ y;,isl>^, обусловленный неконтролируемыми возмущениями, выводит их за пределы отрезков [соте уs — 0,5 • supp yf, core у; + 0,5 • supp у; ], i = U, которые являются основаниями функций принадлежностей нечетких чисел измерений (рис. 1.35). Если решение оптимизационной задачи обозначим через а”, с*, i =1,п, тогда коэффициенты щ модели, характеризуемые ядрами функций принадлежностей, будут равны core = а", а их разброс соответственно supp at = с“. В результате получим п i=l где символ «н» обозначает нечеткие оценки. Рис. 1.Э4. Сложение двух нечетких чисел: у-^+Ьг-0: Л °2 Представленный подход к решению задачи нечеткой параметрической Идентификации имеет много общих черт с решением классическ
304 Нечеткое управление. Часть И идентификации с использованием гарантированного (минимаксного) оце- нивания, который находит применение в математической статистике [18]. Задача структурной идентификации определяется в следующем виде. Имеется несколько моделей типа (1.13): У1 = A* -F] (/) = аХ1 /„ (f)+... + aln •/]„ (/); Ум ~^n '®лг(О = aNi ’Zvi(f)+,,, + aNn ’/nbO)' Необходимо выбрать из этой совокупности моделей наилучшую в со- ответствии с некоторым критерием. В теории иечетких множеств эта зада- ча решается групповым методом обработки данных (ГМОД) [15]. Пусть, как и ранее, получены нечеткие измерения: {у,-, fu fni},i = l,k, к>п. В соответствии с ГМОД эти измерения разбиваются на две группы. Одну из этих групп составляют подготовительные данные (ПД): ,.пд ,.пд ,,пд ,.пд ,.ПД ПД У1 . У2 > >4 > У5 • У1 .Ук\ • в которых пропущено каждое третье измерение. Другая группа определяет контрольные данные (КД): ПД ПД ПД ПД Уз • Уб • У9 >••• Ук2 • При этом кх + к2 = к, к - общее число измерений. Для ПД решается задача (1.17) нечеткой параметрической идентифика- ции. В результате находятся нечеткие оценки моделей: у,1* = A*-F! (г)/цд ,...,Уя = -Fw (г)/цд • Из этих оценок фиксируем какую-то i-ю оценочную модель и подстав- ляем в нее контрольные данные Уз®, Уб®, Уд®..... у*5: У1 = Ц •₽!(г)Д=уВД...Лб = A?' F,. (г)Д=укд = A?- F,- (0Д=?вд • Это соответствует тому, что найдены нечеткие числа, которые имеют треугольные функции принадлежностей (рис. 1.36): *%(>). ......... Они позволяют определить ранги измерений, которые входят в кон- трольные данные: -|*ч w/>->=%(>“) Величины с(и3.и ЦуДуз"). характеризуют степень адекватности i-й модели, которая получена на подготовительных данных,
ряда 1-Нечеткие множества Дей^ительно, из геометрических построений (рис. 1.36) следует, что чем больше величина 7‘-)=>%ивд)+...+^ (у^), тем более адекватна модель, так как в этом случае отклонение контроль- ных данных уз , у6 , у™yjj® от соответствующих ядер будет минимальным. С другой стороны, чем меньше величина J® =с" + +ГИ которая характеризует разброс контрольных данных, тем также более аде- кватна i-я модель. Эти два показателя объединяются в один в форме отно- шения ’ 4'>' которое и определяет критерий адекватности i-й модели. Очевидно, что чем меньше J;, тем лучше i-я модель аппроксимирует контрольные данные. о Рис. 1J6 Ранги измерений из группы контрольны» д«иных (КД) ^ЛГОрцтм 1) На подг стР^ктУРн°й идентификации состоит в следующем, ской ОТОвительных данных решается задача нечеткой параметриче- оч / ент1,фикации, в результате которой находятся оценки 2)^’-?^. Tenu»tnp°Ja,№ux данных для каждой оценочной модели находятся кри- ЭДекватности
306________________________________Нечеткое управление, Чаг^ ц 3) Из критериев конструируется вариационный ряд , в кото- ром критерии располагаются по величинам их возрастания. Крайний левый критерий , принимающий минимальное значение в вариаци- онном раду, определяет ту модель, которая наилучшим образом ап- проксимирует измерения. 1.5. Формы представления нечетких множеств И ИХ КОМПЬЮТЕРНАЯ РЕАЛИЗАЦИЯ В теории нечетких множеств большинство арифметических операций определены для непрерывных областей. Операции для дискретных облас- тей выделяются обычно в виде особого случая. На практике нечеткие множества запоминаются в компьютере в виде данных о структуре и операциях над ними, и далее производится исполне- ние этих операций. Компьютерная реализация обуславливает необходи- мость рассмотрения основных форм представления нечетких множеств. Эти представления имеют три формы. Функциональное (аналитическое) представление. Для представле- ния нечеткого множества в этой форме используется представление в виде некоторой функциональной зависимости / : ИА(х) = /(х). Примером / служат зависимости треугольного (1.2), трапецеидально- го (1.3), колоколообразиого (1.4) и других типов. При использовании тако- го представления появляются затруднения, обусловленные необходимо- стью производить операции с множеством другого типа представления, например, с дискретным нечетким множеством. При функциональном представлении возможно использование компьютера, оперирующего сим- волами. Однако символьные вычисления возможны лишь для простых операций с простыми функциями принадлежностей. Во многих случаях результат не может быть представлен в символьной форме в виде функ- циональной зависимости, поэтому используются различные варианты приближения для результирующей функции принадлежностей. Таким об- разом, при компьютерном решении практических задач необходима дис- кретизация непрерывной области. Парное представление. Оно определяется в виде цА(х)=ц1/х1+...+ц„/хл, где X; - дискретные значения аргумента, - дискретные значения функ- ции. Это представление описывает дискретные нечеткие множества. При- мером такого описания в лингвистических переменных служит множество «друзья Петра», которое объединяет множество персон, определяемых
своими именами х ~~~~----------------------------—------------ ранги определяют ст ГйМИ ’ котоРые приписываются друзьям, и эти Уровневое предста^ Аружбы‘ совокупность уровней ^Но описывает нечеткое множество, как ИА(х)=Л[а~Сиг^^))]> где а - дискретное. гтяпгм^иа*1»11^101^6^110^ Реализаиии в основном используется парное пред- Аг». ’ <рункциональное - лишь для компьютера, имеющего символь- ную форму операций. Ид (х),1 , Рис, 1.37. Взаимосвязь xt функции singl(x-xt) с соседними значениями ц.г/хг, |t|/X| Рассмотрим компьютерную реализацию перечисленных выше форм представления нечетких множеств. Для приближенного описания функционального представления дис- кретным имеется несколько вариантов, каждый из которых имеет свои преимущества и недостатки. Один из этих вариантов - векторное представление, которое является дискретной аппроксимацией непрерывной области в виде парного пред- ставления с равноточной дискретной областью. Название такого вида представления связано с тем, что значения принадлежности в памяти ком- пьютера запоминаются как вектор. Например, при хе [0;10] и шаге Д = 1 дискретизации имеем: ю |лл(х) = тах(1-Х-|х-5|;0)«£|х|/1-Д = 1=0 = (0/0 + 0/1+ 0/2 + 0/3 + }^/4+1/5+}^/6+0/7+0/8+0/9+0/10)в = (0, 0, 0, 0, ХЛ- ^,0,0,0, 0, ). В двухмерном случае при х,.^ : 0,1, 2,3,...,10 имеем совокупность . векторов или матрицу:
308 Нечеткое управление. Часть П На(Х|.х2) = max |1-|-|х|-5|-|-|х2 -5|; (°,°)} = 0 0-1 1 2 о о ••• i -1 2 0 0 ••• - 0 2 0 0-00 0 0-00 0 0-00 0 0-00 0 0-00 о 1 - 0 0 2 11-00 2 11-00 2 ) В трехмерном случае будем иметь соответственно совокупность мат- риц и т.д. Этот тип приближения может приводить к проблеме, когда не- обходимо представить некое четкое число в виде нечеткого множества. В этом случае нечеткое множество представлено только одной точкой (функция принадлежности - синглон), которая не подлежит какой-либо дискретизации, поэтому это множество не может быть представлено в век- торной форме. В этом случае используется приближение для singl(x-x*) по двум соседним значениям цг/хг, ц, /х( какой-либо дискретной функ- ции принадлежностей, которая находится в компьютерной памяти. Это приближение может быть получено из геометрических построений (рис. 1.37). Пусть хк = |1д (1) обозначает обратное отображение. Величина хк является неизвестной и подлежит определении). Пусть выбрано значе- ние хг, тогда по заданному (х) определяется соответствующее значе- ние цг и площадь $3=ц,-хг. Значение ц, выбирается из условия = 1 - , тогда соответственно найдутся xt и площадь 54 + S2 = Ш 'xi • Координата Цд1 (1) находится из условия 5] = S2: И, {н;1 (1)- х, ] = (1 -Ц, )• [х, - р;1 (1)], откуда получается:
_ 1. Нечеткие множества 309 -------- "" —— " ' ..............— 1— Таким образом, получено приближение четкого множества в виде не- четкого множества. Парное представление в компьютере реализуется точечным способом. При этом шаг дискретизации необязательно представляется эквидистант- ным способом. Промежуточные значения получаются методом интерполя- ции. Этот способ имеет преимущества перед векторным представлением, так как при точечной реализации отсутствуют ограничения, связанные с эквидистантной дискретизацией. Точечный способ часто используется в программном обеспечении компьютеров при решении коммерческих задач методами нечеткого управления. Простым примером является нечеткое множество с треугольной функцией принадлежности, которая содержит только три точки / х> , а остальные получаются путем интерполяции. Бо- лее сложная форма может быть аппроксимирована любым способом, кото- рый дает компромисс между необходимой памятью и точностью. Уровневое представление нечеткого множества в компьютере также реализуется путем дискретизации. При уровневой дискретизации нечеткое множество запоминается в виде множества интервалов, каждый из кото- рых имеет свой вес. Каждый из этих интервалов является классическим четким множеством и включение их в нечеткое множество производится в соответствии со своим весом. При уровневой дискретизации возникает проблема, связанная с вычислением произведения пространств. Число операций над классическими множествами зависит экспоненциально от числа нечетких множеств, включенных в произведение пространств. В программном обеспечении компьютеров обычно имеются различные способы представления нечетких множеств и в зависимости от операций над ними используется та или иная форма представления. Например, при существовании решений для определенных типов операций в аналитиче- ской форме целесообразно использовать функциональное представление нечеткого множества. 1.6. Лингвистические модификации нечетких множеств Каждое нечеткое множество может быть ассоциировано с некоторой лингвистической переменной. Например, нечеткому множеству с функци. ей принадлежности (х) может быть поставлена в соответствие лин- гвистическая переменная «большая величина». Для нее может быть опре- делена лингвистическая модификация «очень», которая характеризует взаимосвязь лингвистической переменной «большая величина» с перемен- ной «очень большая величина». Этой модификации соответствует моди-
310__________________________________Нечеткое управление, филированное нечеткое множество с функцией принадлежности Другими примерами могут служить лингвистические модификации: «н значительно», «более или менее» и т.д. В теории нечетких множеств взаи мосвязь нечеткого множества А с функцией принадлежности и его иппификапией т(А) характеризуетси связанностью. При определении связанности нечеткого множества с его модификаци- ей используются следующие арифметические операции: • степенная связанность; • связанность в форме сдвига; • связанность в форме изменения масштаба. Стеиениая связанность определяется в следующем виде: X где р - параметр модификации; ц.л (х) - функция принадлежности не- четкого множества А, тр (А) - функция принадлежности модифициро- ванного нечеткого множества. Использование арифметической операции возведение в степень позволяет получить соответствующие модификации, например: "очень(Л)" = А2 = (х)/ х, X "более или меиее (А)” = Va = J2 (х)/х . X Здесь степенная арифметическая операция производится в соответст- вии с принципом обобщения. На рис. 1.38 приводятся примеры для лин- гвистических модификаций «очень» и «более или менее». Преимуществом подхода степенной связанности является то, что для каждой связанности определяется стандартная операция путем выбора соответствующих зна- чений параметра р. Отметим следующие свойства тр (А) для различных значений р: 0 < Р < 1 - нечеткое множество А расширяется, т.е. тр (А) Э А ; р = 1 - нечеткое множество А не изменяется, т.е. тр (А) = А; Р > 1 ~ нечеткое множество А уменьшается, т.е. тр (А) с А . Другим характерным свойством степенной связанности является тот факт, что «основание» и «центр» модифицированного нечеткого множест- ва тр (А) не изменяются, так как 1₽ = 1 и 0₽ = 0.
РЯС, 1.38. Нечеткое множество Л (тело), модифицированные нечпкиемн1та «очень Л» = Л при р = 2 н «более Ияя менее Л» = Д p = J/2 для которых используется арифметическая операция возведения в етеяень Рис. 1.39. Нечеткое множество А (тело), модифицированные нечеткие множества «очень А»=А1 н «более илн менее А», нолучеяные с помощью арифметической операции сдвига РИС, 1.40. Нр • ечеткое множество А (тело), модифицированные нечеткие множества «о- *<- - с = 2) н «более или менее (/<)»(----, с = 1/2 X полученные путем изменения масштаба относительно точки т4
312 Нечеткое управление. Часть П Связанность в форме сдвига определяется а виде: тЛА) = /Рл(х-*)/*> где ms(A) - функция принадлежности модифицированного нечеткого множества; j - параметр сдвига. В пределах одной и той же связанности параметр j может иметь различные значения. Например, для нечеткого множества с трапецеидальной функцией принадлежности при получении модификации «очень» параметр j >0 на левой стороне от центра н s <0 на правой стороне (рис. 1.39). При таком способе модификации исходное нечеткое множество А сжимается, для примера «очень А »: ms (А) с А. Расширение А , например, «более или менее А », получается как операция инверсии: т3 (А) Э А . Связанность в форме изменения масштаба определяется в форме МА) = МН*-ъ)+ъ)/* = .[ил (сх + (1-с)-гл)/х. X X где с - масштабный множитель лингвистической модификации тс (А); гА - точка сравнения для нечеткого множества А . Точка гА является ха- рактеристической точкой А. В случае выпуклой функции принадлежно- сти такой точкой может быть выбрана точка центра ядра. В случае моно- тонной функции принадлежности может выбираться точка sup А , если та- кая точка существует. Если sup А не существует, тогда в качестве точки сравнения может выбираться произвольная точка. На рис. 1.40 показаны нечеткое множество А и его модификации «очень А », «более или менее А », которые получены путем изменения масштаба относительно точки гА. Модификации сохраняют форму оригинала. Можно утверждать, что масштабирование оригинала является специальным случаем модификации путем сдвига. Отметим, что в случае одиночной функции принадлежно- стей, методы модификации нечетких множеств не могут быть применены, несмотря на то что четкие множества приближаются нечеткими. В настоящее время существует большое число методов построения М4К»(л)(х) [2J: • парных сравнений; • обработки статистических данных; • параметрической идентификации с использованием дробно-линейного конформного отображения теории функции комплексного переменного; • экспертных оценок и другие.
313 1™!“М^аяЛом, --Л^логика ГЛАВА2 НЕЧЕТКАЯ ЛОГИКА 2.1. Нечеткая операция «И» В классической четкой (двухзначной) логике существуют логические операции «И», «ИЛИ», «НЕ», которые определяются единственным обра- зом и они составляют полные системы, т.е. любое уравнение четкой логи- ки путем логических преобразований может быть выражено в виде логи- ческих комбинаций: «НЕ-И-ИЛИ»; «НЕ-И»; «НЕ-ИЛИ». Одна из задач теории нечетких множеств состоит в обобщении четких логических операций в их нечеткие аналоги. Нечетким расширением опе- рации «И» в общей форме является Т или триангулярная норма, которая в теории нечетких множеств обозначается символом (Т). Другим названием Т -нормы является S -конорма [15]. Рис. 2.1. Схемотехническое представление Г-нормы Эта операция определяется как отображение: Нд, (х)(т)^ (х) -» На, (*); На, (*)е [W], (ф |Ц (х)е [0,1], для которого выполняются аксиомы: иа, (х)(г)(на2 W=9e(^(x)=^W): од)
314_______________________ Нечеткое управление. Ча^. п ^МЮ(Ца2(х) = 0) = (>хЛз(х) = 0); У|хЛ1(х)е[0;1]; (2.2) На, (x)(^)Ha2 (Л) = ^Л2 (хК'О^Л, (•*)’ (2.3) Ни, (х)<Т)(»хД2(х)(Г)н^ (х)) = (|Ц (х)(Т)иДг(х))(Г)ИЛз (*); (2.4) На, М^А2 (х) —* Иа( (х)(т)Наз ОО^АгЮС^Нл, (х). (2.5) Рис. 1.1. Граничные условии Т-нормы Аксиомы (2.1), (2.2) называются аксиомами граничных условий Г-нормы; (2.3), (2.4) - объединения (пересечения), (2.5) - упорядоченности. На схемотехническом уровне операция (Т) реализуется в виде схемы с двумя входами и одним выходом (рис. 2.1). Аксиомы (2.3), (2.4) означают, что входы равнозначны и нет необходимости их различать. С позиций тра- диционной математики операция (Т) реализует функцию двух переменных: у=Г(и,,и2), ' где «I “На, (*)• “2 =1Ц (*)• У =Haj (х). Эта функция «Г» в трехмерном пространстве (и,,и2,у) изображает некоторую поверхность. Геометрическая фигура, построенная в соответст- вии с аксиомами граничных условий, дает возможность определить мак- симальные и минимальные значения Т -нормы, как функции двух пере- менных. При ее построении величинам (х), (х) придают различ- ные значения, принадлежащие отрезку [О; 1], и в соответствии с (2Л), (2.2]
315 Глава 2. Нечеткая логика определяют значение (х), что в системе координат (ui,«2,y) дает со- ответствующую совокупность точек (рис. 2.2): “!=!• «2=0 -» у/и,=1 = 1(Т)0=0. Это изображает точку с координатами (и, =1; и2 =0; у=0). После аналогичных вычислений получаются координаты точек А^-А^: Уи1=о = 0(г)1=0 -» (0;1;0)=Л,; / “2е1 У/И1=о=О(Г)О = О -> (0;0;0)=А,; / “2=0 = 1(Г)1 = 1 -> (1;1;1) = Д,. Совокупность точек Д - А* определяет вершины единичного куба. Прн изменении от 0 до 1 и фиксированном и2 = 1 получим уравнение прямой В\: =«!• Далее аналогично для прямых В2 - В4: = «I (Tjo = 0 - уравнение прямой В2; у/и el = 1 (Г)и2 = и2 - уравнение прямой Bj; / «2е[0;1] уД _0 = 0(Г)и2 = 0 - уравнение прямой В4. / “2610: Ч Из аксиомы (2.3) имеем: • - уравнение плоскости С\ . Таким образом, м^имальны. и мияашльиые бражаклск геометрической фигурой, симметрично огаое ста Uj - и2 = 0. В теории нечетких множеств в зависимости от способов задания опера- ции (Г ), которые удовлетворяют аксиомам (2.1) - (2.5), существует беско- нечное число нечетких операций «И». В теории нечеткого управления на- ходят применение следующие их типы.
316 Нечеткое управление. Часть и Логическое произведение (Заде, 1973 г.): Мд, (х)-!^^ М = Мд1 (*)в1Ц (х)лНл2 (х) = = i^n^(x),HAj(x)j, Vxeflp ( } Можно показать, что аксиомы (2.1)-(2.5) для операции «л» выполня- ются. Геометрическая фигура граничных условий для логического произве- дения получается по методике, аналогичной выше, и в результате будем иметь совокупность точек Д - Д| и прямых В1 - В4. точ<гИ л получим уравнение прямой В«, проходящей через У=«| = и2 fab“LZ£-M2-Q_ У-0 1-0 1-0 1-0 '
311 . Логическое проиГ ----------------------------——-——-------- виде пересечения нечХАвНИе (2>6) имеет геометрическую интерпретацию в Алгебраическое п«КИХМН0Жеста А‘ и (Р“с 2 4> ц (х) —. ,*13ведеиие(БандлериКохоут, 1980): МA)-^W(T)H. (х).и.(").|1.(4»««,. О’) где символ «» _ п_ «г \ \ \ i нение аксиом (2 В ^?ведение« принятое в классической алгебре. Выпол- для точек А - л ’ ~ очевидно. График граничных условий Г-нормы ,, т , прямых В, — в, получается аналогично предыдущему. НЛвм ура>яеаие У =иГИ2 =И2И! следует, что м1=«2>поэтому У ~ “? - «2 при у/ = И|2 = 0, ^/ = и2 = 1. R /0 /l о результате сложения этих уравнений получим uf+ul =1, откуда и2 = ±-^1-и2. Так как и2 > 0, поэтому u2 = +^l-uj определяет уравнение кривой В;, проходящей через точки Д.А; (рис. 2.5). Геометрическая интерпретация алгебраического произведения (2.7) изображена на рис. 2.6. Граничное произведение (Лукашевич, Гилес, 1976): На, W = Ha, (^(Г)^ (^) = На) (х)ОРа2(х)= = max (р(х) + р(х) -1;0) э (х)+(х)-1)v 0, где символ О - граничное произведение (рис. 2.6). График граничных ус- ловий аналогичен предыдущему (совокупность точек Д-Д, и прямых В, - В4 )• Кривая В6 из (2.3) имеет вид (рис. 2.3): у = Н]ОН2 =«2 0“! -» («t+«2-1)v0s0v(“l+“2_l)~* —» и, +«2 —1 =0 —» И2 =1-Ut. Геометрическая интерпретация (2.8) приведена на рис. 2.6. Сильное, или драстическое (drastic), произведение (Вебер,1983): На, (х) = На, (х) = |аа (х)^ (х) = Ha, W. еслиНл2(х) = 1; = 1Ц (х), если(x)=i, VxeЯ,; (29) О для других,
318 Нечеткое управлением;^ ц где символ Д - сильное произведение (рис. 2.6). Зависимость В7 из (2 3) изображена иа рис. 2.5. Геометрическая интерпретация (2.9) Изображена на рис. 2.6. Из графических построений (рис. 2.6) следует, что справедливо соот- ношение ^«i О«2 ’и2 ЛИ2 • Существует бесконечное число других типов нечеткой операции «И». Не- которые из них, зависящие от вещественных параметров, приведены в [21]. В теории нечетких множеств показывается, что все операции «и» рас- положены между сильным и логическим произведениями: 0<щ£щ2 £...<»] л«2. нечетких множеств НС‘ Схемотехническое вредставлеиие S-нормы
319 гнав* 2. Нечеткая логика ______________ 2.2. Нечеткая операция «ИЛИ» Нечетким расширением операции «ИЛИ» в общей форме является S-норма, которая обозначается символом (5). Иногда для нее использует- ся название Т-конорма. Эта операция определяется как отображение: для которого выполняются аксиомы: Ha1(-s)(5)(Ha2W’1) = (|Xa3W = 1); V|xAi(x)e[0;l]; (2.10) На, М(5)(На2(-«) = 0) = (|»АзМ = |Ха1(х)); VjXa, (х)е[0;1]; (2.11) На, (л)(^)|Ха2 (х) = ^а2(х)(^)1*а1 (*)’> (2.12) На, (х))=(|Ц W(5>A2 (*))($)1% W; М На, W^!Xa2 W^Haj W^^ WSHAiW^^AjW- (2.14) Сравнение аксиом для Т -нормы с аксиомами для 5 -нормы показывает, что различие между ними состоит только в аксиомах граничных условий. Операция (5) реализуется в виде схемы с двумя входами и одним вы- ходом (рис. 2.7) и представляет из себя функцию двух переменных: y = S(ul>M2). где, как и ранее, «1=1*4, W- «г =!%(*)> У=!%(*)• Геометрическая фигура, представленная на рис. 2.8, изображает гра- ничные условия (2.10), (2.11) и аксиому (2.12). Рис. 2.8. Граничные условна S-нормы Существует бесконечное число нечетких операций, которые удовле- творяют аксиомам (2.10) - (2.14). Некоторые из них, которые используются в теории нечеткого управле- ния, приводятся ниже.
Нечеткое управление. 4aetb n 320 ________—----Т““ ' \xl ^vA2v ' ч (2.15) =тахЬц 0’*Ч (x))’ VЛЕ Я* Ля^,ч«И«еумм.(БадаЧ>«К'»’Х'. 198”: . и^ИЧМ-М'^Ю- *«Ч-ЙЛ® * А+Л» 2-9. Логическая, алгебраическая, граничная и сильная сумма нечетких множеств Рае, 2.10. Схемотехническое представление нечеткого «НЕ» Граничная сумма (Лукашевич, Гилес, 1976): Ч W=^®x2 М=1ц (х)(5)^ (х)=дД1 W= (217) с W+SW+i^0A1- ильная, или драстнческая (drastic), сумма (Вебер, 1983): % (*)(^>4j (х) = Мл, (Х) = |ц(л), еслищ^вО; (2.18) s (л), если(х) = 0 УхеЛр г 1 для других. . (2.18) ппи^ИЧССКйЯ интсРпретация перечисленных выше 5-ноРм деиа на рис. 2.9, из которого следует:
Глава 2. Нечеткая логика 321 “I vw2 <,и1+и2 ®и2 SutVu2 £1,где Mt =1Ц (х), и2 =1Ц (х). Так же, как и выше, существует бесконечное число других типов не- четкой операции «ИЛИ». Некоторые из них, зависящие от вещественных параметров, приведены в [21]. В теории нечетких множеств показывается, что всевозможные опера- ции «или» расположены между логической и сильной суммой: И[ vu2 <,....<u}Vu2 <1. 2.3. Нечеткая операция «не» Операция нечеткого «НЕ», или дополнение, определяется как отобра- жение: (-): На (*)->!%) (*)• для которого выполняются аксиомы: (2.19) ((На (*)F)° = М-а (*). Vрд (х)е [0;1]; (2.20) На, (*) < Haj (*) -» (Ил, W)( ’ > (1Ц W)( ’. V |Ц (х),ЦА2 W6 М • <2-21) Таким образом, множество отображений, которые удовлетворяют ак- сиомам (2.19)-(2.21), являются нечетким отрицанием. Операция (-) реализуется в виде схемы с одним входом и одним выхо- дом (рис. 2.10) и представляет из себя функцию одного переменного: У = 7(“)* где m = UaW< У = Нл(-) ОО- Существует бесконечное число операций нечеткого «НЕ». Некоторые из них, используемые в теории нечеткого управления, приводятся ниже. Нечеткое «НЕ» по Заде (1973) определяется как вычитание из едини- ЦЫ' Цн(х) = 1-ИаМ< (2.22) Проверим выполнение аксиом (2.19) - (2.21): (и = 0)(~)=1-(и = 0) = 1-0 = 1-»0(‘)=1; (и(-)У')=1-иН=1_(1-и) = и-»(и(_)У Из графика рис. 2.11: 22 3»«.108
322 Нечеткое управление. Часть Ц и, < иг -» «J> “а") Все аксиомы выполнены, поэтому (2.22) является нечетким «НЕ». Функции принадлежностей (х) и (х) изображены на рис. 2.12. Нечеткое «НЕ» по Сугено (1977) или Л-дополнение определиется в следующем виде: U <-) (х) = -Д—• (2-23) 4 1+Л-мд(х) где Х>-1 - вещественный параметр. Выполнение аксиом (2.19)-(2.21) очевидно. При Х = 0 (2.23) совпадает с (2.22). Зависимости у = /(и,Л) при различных X изображены на рис. 2.13. Функции принадлежностей (х), (х) представлены на рис. 2.14. Нечеткое «НЕ» по Ягеру (1980) определяется как (рис. 2.14): Нл(-)(х) = ^1-Цл(х), (2.24) где р>0 - параметр. Справедливость аксиом (2.19) - (2.21) очевидна При р = 1 (2.24) совпадает с (2.22). Рис. 2.11. Операция нечеткого «НЕ» по Заде Рис. 2.12. функции принадлежностей ЦА(х) и нечеткого «НЕ» Ид(_)(х) поэаде
Глава 2. Нечеткая логика 323 Рис. 2.13. Операция нечеткого «НЕ» яо Сугеио Для Т - и S -норм возможны различные варианты отрицаний из-за бес- конечного числа нечетких «НЕ». Обычно выбирают такие отрицания, ко- торые удовлетворяют следующим условиям: (Ил, (х))<_) = (ЦЛ1 (х))Н ($)(|Ц (х))Н; (2.25) (>Ц (*)($(*))' ’ = (|Ц W)( ’ (T)(l% И)' ’ • (2.26) По аналогии с четкой логикой (2.25), (2.26) называют нечеткими зако- нами де Моргана. Рис. 2.14. Функции принадлежностей Цд(х) и нечеткого «НЕ» НЛ(-|(Х) В теории нечетких множеств доказывается, что из (2.25) следует (2.26) и, наоборот, из (2.26) следует (2.25). Поэтому достаточно указывать либо (2.25), либо (2.26). В этой связи операции (2.25) и (2.26) называют взаимно ВЛ. дуальными. Можно показать взаимную дуальность следующих нечет- ких операций: 22*
324 Нечеткое управление. Часть II И а, 00^ a, Aj W; и а (4и А W+u (*); u a, W0^ (*)£ц (*)®и (4 Ц А] (Х)ДН (*)н|» А) (х)7ц (л).
ГЛП"°3; НеЧеТКИе ВЫВ°ДЫ 325 ГЛАВА3 НЕЧЕТКИЕ ВЫВОДЫ 3.1. Нечеткие предложения и нечеткая база правил Важным понятием в нечеткой логике является понятие нечеткого пред- ложения (fuzzy proposition), которое определяется как высказывание типа « р: х есть А ». Здесь символ « х » обозначает некоторую физическую ве- личину, например, температуру, давление, скорость и т.д., символ « А » - лингвистическую переменную, которая ассоциируется с нечетким множе- ством, а символ « р » является аббревиатурой proposition - предложение. Примером такого предложения может служить высказывание «уровень во- ды есть высокий». Физической переменной х здесь является «уровень во- ды», который измеряется соответствующим датчиком, нечеткое множест- во А характеризуется лингвистикой «высокий» и задается с помощью со- ответствующей функции принадлежности (х). Лингвистике «есть» со- ответствует операция упорядоченности в виде равенства, которая обозна- чается символом « = ». В результате нечеткое предложение « р: уровень воды есть высокий» может быть записано в формализованном виде « Р: х = А ». Нечеткие предложения комбинируются между собой связками «И», «ИЛИ», которые реализуются посредством Т - и S -норм соответственно. Как было показано ранее, существует бесконечное их число и для выбора не существует общих правил. Выбор логических связок зависит от смысла и контекста нечетких предложений и взаимосвязи между ними. Операции - и S -норм по Заде (3.6), (3.15) в теории нечеткого управления имеют предпочтение, так как они не имеют избыточности. Это соответствует то- му, что комбинация двух равных нечетких предложений представляют одинаковую информацию:
326 Нечеткое управление. Часть II Мапл = min (Мл (х), рА (х)) = цЛ (х) ; Ма^л = max (рЛ (х), рА (х)) = ЦЛ (х). Это свойство отсутствия избыточности несправедливо для других Т - и 5-норм. Однако, когда нечеткие предложения не являются эквивалент- ными, но коррелированны или взаимосвязаны, тогда возможно использо- вание Т - н S -норм по Лукашевичу (2.8), (2.17). Наиболее Часто исполь- зуемые логические связки даны в табл. 3.1. Таблица 3.1 Часто используемы логические связки «И», «ИЛИ» в нечеткой логике «И» «ИЛИ» Примечание min(^ (х).^ (х)) (х),^ (х)) Заде тах(1Ц(х)+Илг (х)-1;о) т1п(ил, W+Цл, (х)-1:о) Лукашевич 1Ц (х)’1Ц (х) ^(xJ+^W-^to-^x) Бандлер, Кохоут Предложение р может, кроме того, быть представлено, как нечеткое отношение Р с функцией Принадлежности: Цр (xi, х2) = Т (p-Aj (А (х)] • Нечеткие предложения, соединенные нечетким «И», иногда называют условиями или предпосылками, и для их обозначения используют индика- тор «если»: Если ри : X] = Лц и pi2 : Xj = Ап и... Или Если р2]: X] = Д21 и Р22: хг ~ Агг и Или Совокупность условии определяет совокупность выводов или заключе- ний. Для их обозначения используют индикатор «тогда». Совокупность условий и выводов определяет продукционное нечеткое правило (fuzzy rale): . Ri: если х, = Аи их2=Д2 и....тогда у1 = Вц и У2 = й12 и... Или Здесь символ R, является аббревиатурой «rule» - «правило». Например, одно из правил при управлении температурой воды в лин- гвистических терминах имеет вид:
Глава 3. Нечеткие выводы_________________________ « : если температура воды есть холодная и температура воздуха есть холодная, тогда поверни вентиль горячей воды влево на большой угол и вентиль холодной воды вправо на большой угол». Здесь имеем нечеткие условия: • X] - температура воды, А, - холодная; • х2 - температура воздуха, - холодная; и нечеткие выводы: • У1 “ Угол поворота вентиля влево, В, - большой; • Уг “ У™71 поворота вентиля вправо, В2 - большой. Лингвистическому нечеткому правилу соответствует формализованное представление: Л,: если х, = Д и х2 = Аг, тогда у, = В{ и у2 = В2, 0.1) где Д.Д.Д.А - нечеткие множества, которые задаются соответствую- щими функциями принадлежностей. Совокупность нечетких продукционных правил образуют нечеткую ба- зу правил {Л, }*и1: Ri: если .... тогда ... ; i = l,k . Для нее справедливы следующие свойства: • непрерывность; • непротиворечивость; • полнота. Для того чтобы определить непрерывность {Л, }.=1, используются сле- дующие понятия: • упорядоченная совокупность нечетких множеств; • прилегающие нечеткие множества. Совокупность нечетких множеств {Д} называется упорядоченной, если для них задано отношение порядка, например: Д <...<Д_1<Д<Д+1<.... Если {Д} упорядочена, тогда множества Дч и Д, Д и Д+1 называ- ются прилегающими. Здесь предполагается, что эти нечеткие множества являются перекрывающимися. База правил {Л(}*=1 называется непрерывной, если для правил Л* : если = Д* и х2 = Д*,тогда у = Вк ъ к' *к имеем: * А* = А*' а ДА и являются прилегающими; * А* = А*' а А* и А*' являются прилегающими; • Вк и Вк- являются прилегающими.
328__________________________________Нечеткое управление. Част», и Непротиворечивость базы правил обычно демонстрируется на конто примерах. Контрпример 3.1. Нечеткое управление роботом. или Rk: если препятствие впереди, то двигайся влево, или Rk+l: если препятствие впереди, то двигайся вправо, или м База правил {Я/}"=1 противоречива. Контрпример 3.2. Нечеткая система (рис. 3.1) /?1: если %] = А или х2 = Е, тогда у = Н ; R2: если х( = С или х2 = F, тогда у = I; R3: если X] = В или х2 = Z), тогда у = G . В терминах управления правила, которые содержат два условия и один вывод, представляют собой систему с двумя входами X], Xj и одним вы- ходом у. В этом случае алгоритм функционирования нечеткой системы Представленная база правил непротиворечива. Пусть теперь база пра- вил имеет вид: _________ X. Х1 Х2 А 1 1 в С 1 1 D 1 G । I 1 1 - _Е . F н.п 1 I I i Рис. 3.1. Противоречивость базы правил
329 3 ^четкие вывода ^^учае база правил противоречива, так как она приводит к дву- 0 ^ности выводов в случае = А, х2 = F и = С, х2 = Е. Из этого смыслев примера становится очевидным, что заранее высказанные два простого будр давать двусмысленность выводов. Этот феномен не так правила. быть идентифицирован, в общем случае, при наличии более Полнота {Я К-i используется как мера, указывающая на полноту зна- которые содержатся в базе правил. Неполная база правил имеет так яйй’ аеМые «пустые места» для определенных ситуаций (на семантиче- Я^м уровне), т.е. не определены связи между входами н выходами. Это не сК0Мчает, что результат вывода из правила не существует из-за неполноты базы правил, а этот эффект обусловлен свойствами нечетких множеств, которые используются в условиях правил. В качестве меры полноты (СМ - Completeness Measure) используется критерий: N. см«=£ iXw *=1 1=1 где х - физическая переменная входных данных (условий); Nx - число условий в правиле; Nr - число правил в базе тфавил. Например, при Nx = 1, Nr = 1, что соответствует наличию одного условия (Nx = 1) базе правил, содержащей одно правило (Nr = 1), получим: 1 СМ(х) = £(х) = Ни(х), °5Цп(х)<1. k=l i=l Если |i[! = 0, что соответствует пустому месту, получим СМ (х)=0 • Численные значения, которые принимает критерий СМ (х), позволяю1 классифицировать базы правил по полноте знаний: • СМ (х) = 0 - «неполная» база правил; • 0 < СМ (х) < 1 - база правил «незначительно полная»; • СМ(х) = 1 - база правил «точно полная»; СМ(х) > 1 - база правил «сверхполная (избыточная)». ния^ °^азом’ ПРИ разработке алгоритмов нечетких систем управлв' В ВИДе б33111 пРавил обязательным этапом анализа алгоритма являете51 ч еРКа соответствующей базы правил на непрерывность, непротивор6' пит, и ПолнотУ и далее приступают к компьютерной реализации алг°' р тма управления. Зак. 108
330 _________________ Нечеткое управление. Часть п 3.2. Нечеткая импликация Если продукционное правило (3.1) содержит один вывод, то база пра- вил может быть записана в виде *1 Ran = . (*i) -> % (*2 ). «• = 1. * , где символ «—>» - нечеткая импликация; (*]), (х2) - функции принадлежности нечетких множеств условий А), . Дц соответственно; цЯ(1 - функция принадлежности нечеткого множества (вывода) Bit. Для нечеткой импликации используются следующие эквивалентные обозначения: На (У) = I (|Ц (х)-S (*)) 3 S (*) -> (*) • (3.2) Нечеткая импликация является обобщением четкой импликации. В случае булевой функции двух переменных четкая импликация в тер- минах характеристических функций определяется как 14 (>) = I* (н\ (4S (*))3 S (*)-»S (x), (3.3) или с помощью таблицы истинности: Н\(х) 4W и*в()') = /,(и’л1(*).4(х)) 0 0 1 0 1 1 1 0 0 1 1 1 С помощью таблицы истинности доказывается формула: S = (*)+s (4 где р* (-> (*) _ нечеткое отрицание. Л Сравнение (3.2) и (3.3) показывает, что в четкой импликации область определения и область значения функции Г принадлежат множеству {0; 1}, содержащему два элемента 0 и 1, в нечеткой импликации эти облас- ти принадлежат промежутку [0; 1]: Четкая импликация Нечеткая импликация Ут/(и1.«г) и\(х)=и*б{0;1} Ua,(*) = “ie 10:1] Нлг(х) = “2б[0;1] У е {0-.1}
Глава 3. Нечеткие выводы_____________________.____ 331 На лингвистическом уровне примером четкой импликации является силлогизм. На формальном уровне силлогизм представляется в виде не- скольких формул. Формула 1. Формальный уровень Лингвистический уровень “1 «если птица, то летает» “2~“3 Уг = “2-+“з «если летает, то направляется на тог остров» Вывод: «если птица, то направляется на тот остров» Таким образом, из утверждений: и* —>и2, «4 и3 следует новое ут- верждение: U] —> и3 . Формула 2. и* —> и2: из утверждения и* «если птица, то летает» делается вывод : «если животное - птица, то это животное летает». Формула 2 называется modus ponens (лат.). Формула 3. ; из утверждения «если птица, то летает» делается вывод : «если это животное не летает, то это животное - не птица». Аналогичные формулы существуют для нечеткой импликации, и с их помощью могут быть получены новые выводы из исходной информации. Для этого необходимо произвести замену uf на и, и у* на у. По аналогии с нечеткими «И», «ИЛИ», «НЕ», число которых не огра- ничено в нечеткой логике и зависит от способов их задания, число нечет- ких импликаций также не ограничено. В нечеткой логике рассматриваются следующие типы нечетких импли- каций по классификации Дубоиса и Праде [21]. Нечеткие импликации $ -типа, которые являются аналогом четкой импликации (3.2): y = /(ui,u2) = s(ui("),u2), где S - норма. Пример импликации этого типа приведен ниже в сопостав- лении с четкой импликацией: • четкая импликация: у* = Г (и,*, и2 ) = и‘(-) v ; • нечеткая импликация (Клиие, 1938): y = Z(«1,u2) = ul(")vuj=(i-u1)vuj. 21
332 Нечеткое управление. Част», п Геометрическая интерпретация граничных условий нечеткой имплика- ции представлена на рис. 3.2. **.зл
Глава 3. Нечеткие выводы 333 Нечеткие импликации QL типа {QL - Quantum Logic): y = /(u1,«2) = s(u['),r(«1,u2)j. Пример импликации QL типа по Рейшенбаху: У = Z(«p«2 ) = -S)j = «Р + И, 'И2 = l-«t + ut-иг. Модификацией QL -типа является импликация «расширение исчисле- ния высказываний по Ли»: У = Л“1 - “2 ) = 5 (Г (“1-))-u2_) ’ “1) • Другой пример импликации QL -типа: y = Z(«1,»2) = j«2> 1-й,, если и2 =0; если и( =1; 1, для других. Нечеткие импликации, отражающие частичный порядок в предложени- ях (нечеткие импликации R -типа): 1, если и( < и2; у = /(«[,и2)= если и{ =1au2 =0; е (0;1), для других. Здесь R - аббревиатура «residuated» - «разность, остаток». К этому типу относится также импликация: /(ирИ2) = 8ир{у = [0;1]/ (3.5) Иногда этот тип упоминается, как «обобщенный modus ponens» и также включается в перечень «обобщенного modus tollens», или обобщенного способа замещения. Часто используется другая форма (3.5) в виде: Z (uj ,и2) = 1 - inf {y = [0;1] / S (uj.y) £ kJ , которая следует из предыдущей в результате замены и, и и2 на 1-и2 и 1-U] соответственно. Примером импликации R -типа является импликация по Гогаену (1969) fl, еслии^О; у = /(«!,K2) = f . [min(и2/и,; 1), для других. Нечеткие импликации Т -типа, которые базируются на Т -норме: у = Z (прИ2 ) = 7”(UpU2 ). (3.6) Примером импликации 7"-типа является импликация по Мамдани (1974): у = 1 (ир«2 ) = «! А и2 = min(»p«2 )
334 Нечеткое управление. Часть Ц и по Ларсену (1980): у «/(Ири2) = иги2, где «•»- алгебраическое произведение. Нечеткие импликации, отражающие частичный порядок и осно- ванные на классическом пересечении множеств: y = Z(ui,M2) = 0, если И] + и2 S1; 1, если И] = 1 л и2 = 1; е (0;1), для других. Подклассом этой импликации является также нечеткая импликация: /(И1,И2) = тГ{у = [0;1]/5(1-И1,у)2И2}. К этому типу нечетких импликаций относятся импликации, которые не вписываются в классы, приведенные выше, например, нечеткая имплика- ция по Ягеру (1980): у = /(и1,и2) = и"1 . В [21] приведен перечень нечетких импликаций различных типов по Г еделю, Ви, Виллмоту и т.д. По аналогии с импликацией S -типа можно также дать геометрическую интерпретацию приведенных выше нечетких импликаций, оценить макси- мальные и минимальные значения и установить по ним взаимоотношения порядка. Приведенная выше классификация нечетких импликаций базиру- ется на различии Т - и S -типов импликаций. Можно дать другую, более общую, классификацию импликаций [21]. 3.3. КОМПОЗИЦИЯ НЕЧЕТКИХ ОТНОШЕНИЙ Выше были рассмотрены операции с нечеткими множествами, для ко- торых принадлежность определялась функцией одной переменной. Можно обобщить определения высоты, основания, определения и свойства опера- ций а -сечения, Т - и S -норм, отрицания для нечетких отношений (fuzzy relations - R) или многомерных нечетких множеств с функцией принад- лежности (xj.....хп). В теории нечетких множеств также рассматривается операция компо- зиции нечетких отношений, которая в символической форме для двумер- ного нечеткого отношения определяется в виде B = A°R, (3.7) где R - заданное двумерное нечеткое отношение в А, х с функцией принадлежности Pr(x!,x2); А - заданное одномерное нечеткое множест- во в А с функцией принадлежности (х,); В - нечеткое множество в
335 3. Н^2^ие выводы принадлежности, подлежащей определению; о - символ с фуякип коМП°зИ1^лас0вания размерностей простраиетв при выполнении этой опе- С«пяьзуюгся две вспомогательные операции*, проектирование (proi) рвйИ” ^рическое расширение (cext). и «йЯЙ^мерном случае операция проектирования нечеткого отношения с Bj^poe является подмножеством А = А| х А2 с А), Л= f Ur(xi.x2)/(x1,x2) AsAjXAj а одномерное нечеткое множество определяется в виде А, =ЬЧ j 8ирця (jcj.jtj) М. Пример техники проектирования показан на рис. 3.3. В двухмерном случае операция цилиндрического расширения определя- ется по Заде в виде R = cext (A;Ax4j)= j Пример техники цилиндрического расширения показан на рис. 3.4. С учетом операций проектирования и цилиндрического расширения операция композиции по (3.7), в результате которой получается нечеткое множество В, определяется в виде В = proj(/?ncext(A; А, xAj); Aj), где операция п задается в виде Т -нормы. Таким образом, для получения В выполняются три операции: proj, cext, n. В настоящее время в качестве Т -нормы в операции композиции широ- ко используется логическое произведение (2.6) по Заде. В результате этого Функция принадлежности цй(х2) нечеткого множества В, определяемо- го по (3.7), будет равна: Ив (хг) = sup Т (цА (xi), (xi, Xi))=sup min (цА (л,), Щ (*1 >*1)) (ЭД х! л Для примера используем лингвистическую переменную «=5» с одно- рной функцией принадлежности треугольного типа: ( 1 А Ид, (х,) = Ц.5 (х,) = max l--|xt-5|;0 k z го отнпИСТИЧеСКУ1° пеРеменНУю «приблизительно равное» в виде нечетко- кого ти^еНИЯ <<s>> с Двухмерной функцией принадлежности пирамидаль- Ня (x,, X2) = Ц, (xj, Xi) = max (1 - ^|x, - x21; (0;0)).
236__________________________^',CTIi°gagw^4 Найдем лингвистическую переменную <<приблизительно~5~~^~^Д тельно равное х2», где х2 - заданное значение. Это соответствует*16^311' дению результирующего нечеткого множества В с функцией пп ИаХ°*' нести цв (х2) по заданным ц.5 ), Ц. (%, х2). По (3.8) имеем Ра (*2) = sup min (И-з (*1 )>М. (*i < Ъ)) = I ( 1 \\ = sup min max -5];0 , max -x2|;(0;0) - (3g. Xi ( ( 2 у ( 2 JJ^'y = maxp--|x2-5|;0 . Различные стадии получения В показаны на рнс. 3.5. Если композиционное правило для получения нечеткого вывода или заключение применяются на дискретных областях с х1(х2:0,1,2,... в про- межутке [0; 10], тогда получим следующие результаты: ( О' (0 0 0 0 1/2 1' 0 0 0 0 0 1 1/2 0 0 0 0 0 1/2 0 0 0 0 0 0 0 0 1/2 0 0 0 0 0 0 Нй(х) = 1 0 0 0 0 . . 0 0 = 1/2 0 0 0 1/2 0 0 0 0 0 1/2 1 0 0 0 0 1/2 1 1/2 0 0 0 1/2 1 1/2 0 0 0 °, 1 1/2 0 0 0 °) : : 1/2 1 1/2 : . ^/2 1 1/2 о =maxnnn(g..3i(*i)>lx-(*i’Xz)) : 1 1/2 : *1 = (° 0 0 1/2 1/2 1 1/2 1/2 О О 0).
Рис. 3.5. а - композиции нечеткого отношения К; б- цилиндрическое расширение Н-s (*i) > о - пересечение отношения R и цилиндрического расширения; г - проекция В Рис. 3.6. Операции декомпозиции на непрерывной и дискретной областях Этот результат показан на рис. 3.6. Из него становится ясным, что этот результат не обусловлен эффектом дискретизации областей по сравнению с тем, когда используется операция композиции на непрерывных областях. Поэтому необходимо быть внимательным, когда используется дискретиза-
338________________________________Нечеткое управление, Ча~-, ц ция нечетких множеств и отношений при компьютерной реализации не- четкой системы. Аналогично предыдущему примеру можно получить локальный вывод при управлении уровнем воды в резервуаре (рис. 3.7). д вода Рис. 3.7. Управление уровнем воды в резернуаре Имеем лингвистические правила управления уровнем воды: Я,: если уровень воды в резервуаре низкий (нечеткое множество д), тогда вентиль поступления воды в резервуар открыт (нечеткое множество Aj); R2: если уровень воды в резервуаре не очень высокий (нечеткое мно- жество А), тогда вентиль поступления воды в резервуар слегка открыт (нечеткое множество В). Задача состоит в получении нечеткого множества В или нечеткого ло- кального вывода из двух правил при заданных нечетких множествах А» A], Aj . В соответствии с нечеткой композицией и нечеткой импликацией имеем: В = AoR = А«(А1 —> Aj). Здесь о - нечеткая композиция; —у - нечеткая импликация; R - не- четкое отношение. Выберем импликацию / в виде нечеткой импликации Т -типа (3.6), тогда для R = Д —> Aj получим: 1 (и,, и2) = Т ,и2) = и, (Т)и2 = и, л и2 = min (цА (х), (х)) = Цл (*1 • л2 ) • Операцию композиции ° выбираем по Заде (3.8), тогда для нечеткого множества В = А » R получим: Рд (х2) = sup Г (и, ,и2) = тах|цл (х), min (х), (*))} •
^3, Нечеткие выводы__________________________________________339 Стадии получения цв (х) показаны на рис. 3.8. Дальнейшая задача в емах управления состоит в преобразовании нечеткого множества В в Т зическую переменную. Различные методы этого преобразования будут ^смотрены далее. Ил, Рис. 3.8. Стадии получения нечеткого локального вывода В 8 виде ФУЯСТНИ принадлежности рв (х)=тах(цА (х),min^ (х).Нл, (*))} Рис. З.В. Процедура получения общего вывода В по локальным выводам i
340 Нечеткое управление, Ча<^. ц 3.4. АГРЕГАЦИЯ ЛОКАЛЬНЫХ ВЫВОДОВ И ДЕФАЗИФИКАЦИЯ ” Операция агрегации (aggregation) подразумевает объединение локаль- ных выводов В,, полученных по каждому правилу Я(, в один общий вы- вод В, который характеризует в целом базу правил {Я, }*=1, или в симво- лической форме: Я,-: если ..... тогда Bt р-\,к), где нечеткое множество Bt известно нечеткое множество В для {Я, }*=1. Здесь символ —»7 обозначает «не- обходимо найти». Для решения этой задачи возможны несколько подходов. Первый из них, обычно применяемый в традиционных экспертных сис- темах, состоит сначала в получении выводов В, по каждому правилу и да- лее в комбинировании этих выводов по определенным алгоритмам в об- щий вывод В. Второй подход состоит сначала в комбинировании всех правил В, и за- тем в получении вывода по этой комбинации, который принимается за общий вывод В для базы правил. Возможен другой подход, когда сначала из общей базы правил выде- ляются индивидуальные базы правил и для каждой из них формируется вывод с использованием первого или второго подходов. Совокупность та- ких выводов образует базу выводов. Затем формируется общий вывод, как композиция базы выводов. В теории нечетких множеств доказывается, что при реализации в базе правил нечетких «И», «ИЛИ» и нечеткой импликации в виде логических произведений и суммы по Заде T(u1,u2) = «1 ли2, S(h1,h2) = Mi v“2 Два подхода в получении общего вывода В дают эквивалентные результаты и поэтому справедливо соотношение к B = U5.- i=l где |J - объединение локальных выводов в виде нечетких множеств В,. Этот результат показывает, что при компьютерной реализации получе- ния общего вывода по базе правил возможно использование параллельных вычислений, когда по каждому правилу параллельно вычисляется В, и да- лее полученные результаты объединяются. Так как при вычислении В, и В используются логические операции, которые являются более быстрыми по сравнению с вычислительными операциями, поэтому в сочетании с па- раллельностью возможно достижение существенного быстродействия при реализации нечетких систем управления на нечетких компьютерах (кон- троллерах).
Глава 3. Нечеткие выводы 341 Для нечеткого компьютера, который обрабатывает нечеткую информа- цию, принята следующая единица быстродействия - FLIPS (число нечет- ких локальных выводов/сек). Например, японский нечеткий контроллер образца 80-х годов, который управлял скоростью разгона и торможения электролокомотива метрополитена, имел следующие характеристики: • быстродействие-10 FLIPS; • база правил 24; • длина разрядной сетки процессора 8 бит. В настоящее время в Японии созданы нечеткие контроллеры с быстро- действием 40-106 FLIPS. Продемонстрируем процедуру получения общего вывода В по локаль- ным выводам В1(В2,В3 с помощью графических построений (рис. 3.9). Для простоты рассмотрим базу правил {Д };=1, которая содержит три пра- вила: Я,: если х = А, и у = , тогда z = А,; или = Л2 : если х = \ и у = Aj, тогда z = А*; или 2?3 : если х = Ад и у = А^, тогда z = А,, где Д- (i = 1,4) — нечеткие множества, заданные своими функциями при- надлежностей. Нечеткие логические операции «И», «ИЛИ» задаются в ви- де логических «И», «ИЛИ» по Заде, тогда функции принадлежностей ло- кальных выводов В( будут равны: Ив, (z) = max^ (z), (x),^ (y)}}; Hb2 (z) = тах{цЛ4 (z), min^ (x),^ (y)]}; (z) = тах|1ц (z), minf^ (x),^ (y))}. Функция принадлежности общего вывода В равна: Mz) = Мд, (z)+Цд, (z)+Ug, (г). Заключительной операцией в нечетком управлении является процедура преобразования нечеткого общего вывода В в физическую переменную. Эта процедура называется дефазификацией (defuzzification) и обозначается dfz. Для ее выполнения существует достаточно много разнообразных ме- тодов. Рассмотрим кратко некоторые из них. Интуитивно очевидно, что преобразование общего вывода В, который характеризуется функцией принадлежности цв (г), в общем случае, с дос-
342 _____________Нечеткое управление. Части п «точно сложной формой (рис. 3.9), в физическую переменну^Г^З?? . быть сделано с помощью техники усреднения. Метод центра тяжесть (center of gravity - cog) является ничем иным, как тем самым методом, торый использует усреднение (рис. 3.10): [nB(z)-zdz ~ —()dz ~ непрерывный слУчай’ I N Zcog (5)=-----------дискретный случай, 2>в(«) i=i где N является числом разбиений, используемых для дискретизации функции принадлежности p,B(z). Метод cog имеет место также для п- мерного случая, когда цв (zt,...,z„). В этом случае численное значение j -той координаты равно: /D, ............. ZJcog(^)= f , \J J ’ JUb(Zi...Zjdz, dzn I гДе z -произведениепространств. Наиболее известным методом дефазификации является метод центра ° ласти (center of area - соа) или метод медианы, когда значение z раз- Ивает площадь фигуры под функцией принадлежности jxe (z) нечеткого “ножества В на две равные части (рнс. 3.11): гсоа sup г J JXe(z)fe= J ps(z)<fc- Этот infl г“*(Л) может быть обобщен на многомерный случай нечеткого > Ди* Двухмерного случая имеем: ^<ю.(В)- “Р*2 ,ирг1 'J J ^(zyzz'jdzxdzz- j J ^(zi.zz)*!^ ’ / ,up^‘T z A, 4 1ПЦ 4co.(e)infl2
Нечеткие выводы paBjLrti—------------ Vb(z) непрерывный cog цв (?), 1 343 Рис. 3.10. Дефазификация методом cog Рис. 3.11. Дефазификация методом соа (площадь площадь Рис. 3.12. Дефазификяция методой mom задач нечеткого управления также часто используется ся ЗДелзАА Него Максимума (mean of maxima - mom), который определяет- дУ1О1ЦИм образом (рис. 3.12): - сече 2m0m = СО8^ПС^’где С = НИе множества В при а = hgt 2?.
344 Нечеткое управление. Части п Очевидно, что этот метод дефазификации игнорирует большую часть информации, которое дает нечеткое множество В, за счет применения а, - разреза с уровнем разреза, который равняется высоте множества В. Этот метод применяется в случве, когда процедура дефазификации должна иметь фильтрующие свойства. Иногда такой метод называется индексным или метод пороговой дефазификации (idexed defuzzification - idfz) и в со- четании с методом cog обозначается icog: 4ют (*) = c°g{*nС) = • Возможно также сочетание с методом соа, тогда Zmom(S) = icoa{fl,hgtB}. Большой класс методов с фильтрующими свойствами составляют ин- дексные методы, в которых а = р,, Р, - заданные априори значения, и в сочетании с методами cog и соа равны (рис. 3.13): Pi) = c°g{^r’C₽,}» Ср, =ot-cutB/a_p(; Zidft(B,P,) = coa{BnC₽/}. В практических задачах обычно Р, =0,5. Численные результаты срав- нения методов дефазификации приведены в табл. 3.2. Таблица 3.2 Сравнение методов дефазификации Метод dfzfi idfz(S,P, =0,5) непрерывный cog 4% 44/j9 дискретный cog 4% 4 соа 47j 4716 mom 37, 37г Классификация методов дефазификации приведена ив рис. 3.14.
Рис. 3.14. Классификация методов дефазификаццн Рис. 3.15. Стадии обрабоки информации в нечетком контроллере 3.4. Нечеткие контроллеры Алгоритм функционирования нечеткого контроллера (регулятора) опи- сывается следующей системой уравнений: Л,: А, оzj = 4 о(Лц -# Л21)=; {J?.}* = . X2:A2or2:zA2a(Ai2-^A22) = S2’ ^:Atori=Ato(Alt-tA2t)=St; к i»i где « о » - композиция нечетких отношений, « -» » - нечеткая импликация; Bi = 1,к - локальный вывод из правила Л(; В - общий вывод из базы правил 4p = t*} = fiizz(x,.); Ajt = fuzz(xy,xj; fuzz - операция фазификации.
Нечеткое управление. Часть и -------- “тяянений показывает, что в нечетком контроллере для Эта система ура»» иМеют место трИ взаимосвязанные получения его выхода z по входу * в нечеткое множе- ПреХеХанХкаЦИИ (&«)• Логическая обработка нечетких пе- СПЮ ' импликация) базы правил контроллера, получение вода базы правил в виде нечеткого множества в; SS«4e™ro миожестаа в в физическую псремениую г - процедура дефазификации (dfz). Преобразование переменных в классической теории автоматического регулирования Преобразование переменных в нечетком контроллере РИС' 3'16, Сопоет*»Л(Пие преобразований Лапласа (Z) п Фурье (F)« преобразованием переменных в нечетком контроллере
гпява 3. Нечеткие выводы 347 В соответствии со стадиями обработки информации алгоритм функ- ционирования нечеткого контроллера по аналогии с классической теорией автоматического регулирования можно интерпретировать как модель ре- гулятора в терминах «вход - выход» в некотором новом пространстве, пе- реход в которое из пространства оригиналов (физические переменные) осуществляется с помощью оператора «fuzz». После проведения в новом пространстве (аналог пространства изображений в преобразовании Лапла- са) некоторых операций, осуществляется обратное преобразование с по- мощью оператора «dfz» в исходное пространство. Сопоставление преобра- зований Фурье и Лапласа, принятых в классической теории автоматиче- ского регулирования, с преобразованием переменных типа «fuzz» и «dfz», используемых в теории нечеткого управления, показано на рис. 3.16. По- добная ситуация имеет место также в элементарной математике, когда та- кие относительно сложные операции, как умножение и деление, путем ло- гарифмического преобразования могут быть заменены более простыми арифметическими операциями сложения и вычитания, и затем полученный результат с помощью обратного преобразования (антилогарифмирование) преобразуется в искомый результат. Характерной особенностью преобразования информации в нечетком контроллере является то, что оператор «fuzz» не является единственным и определяется типом задания функций принадлежностей: треугольные, трапецеидальные, колоколообразные и др. Логическая обработка нечетких множеств также не является единственной и определяется способами зада- ния нечеткой импликации и композиции. Не единственным является опе- ратор «dfz»: методы cog, соа и т.д. Эту неединственность можно ассоциировать с тем фактом, что теория нечетких множеств появилась в результате попытки исчисления высказы- ваний с неопределенными лингвистическими переменными: «большой», «маленький», «более или менее» и т.д., которыми обычно оперирует чело- век, и эти переменные в силу своей природы являются неоднозначными. В этой связи можно высказать предположение, что нечеткий контроллер яв- ляется первым приближением в создании интеллектуальных систем управления, в которых сделана попытка формализации мыслительной дея- тельности человека и реализации этой деятельности в виде некоторого технического устройства. Архитектура нечеткого контроллера представ- лена на рис. 3.17. Особенностью архитектуры является возможность па- раллельно обрабатывать правила базы правил, что позволяет существенно повышать быстродействие контроллера. В настоящее время нечеткие контроллеры выпускаются предприятиями США, Японии, Германии и другими странами. Они выполнены либо в ви- де интеллектуальной платы универсального контроллера, либо в виде са- мостоятельного блока.
Рис. 3.17. Архитектура нечеткого контроллера Для простейших систем управления, которые имеют дваоваН. выход, программирование контроллера производится „,»ммИпование ного пульта. Для более сложных систем управления пиетСЯ спе- осуществляется через персональный компьютер, которы кОИГролле- циализированным программным обеспечением и плато ра с персональным компьютером. обеспечения состоит в Настройка специализированного программного оо показателей не- выборе типа функций принадлежностей, задании Для сПОСОба дефа- четкости, определении типов логических операции и интерфейСОм пользо- зификации. Выпускается программное обеспечение с & виде структурны* вателя, который позволяет программировать контролл^Р^^ блоков, как это принято в теории автоматического упр
Глвв“^ Нечеткие системы регулирования 349 ГЛАВА4 НЕЧЕТКИЕ СИСТЕМЫ РЕГУЛИРОВАНИЯ Нечеткая логика применяется в системах автоматического регулирова- ния для различных целей и условно можно выделить две области ее прак- тической реализации: • нечеткие регуляторы, которые функционируют в прямом контуре и выполняют функции некоторого линейного преобразователя, в том числе они могут реализовывать линейные функции по типу П-, ПИ-, ПИД- и др. регуляторов; • комбинированные нечеткие регуляторы, у которых в прямом контуре функционируют традиционные регуляторы, а в дополнительном контуре имеются нечеткие системы, которые адаптируют коэффициенты усиления регулятора прямого контура, подстраивая их к изменяющимся условиям функционирования объекта управления. Ниже приводятся примеры нескольких систем нечеткого регулирования. 4.1. Нечеткое управление подъемно-транспортным механизмом При управлении сложными нелинейными объектами обычно использу- ется два подхода. При первом пытаются описать объект с помощью раз- личных математических моделей. Однако в эти модели входит достаточно много эмпирических коэффициентов, которые, как правило, изменяются в широком диапазоне, и их идентификация является сложной научно- технической задачей. Кроме того, возникают проблемы обеспечения ус- тойчивости вычислительного процесса. При таком подходе системы управления не обеспечивают нужного к8' чества управления и, как следствие этого, не удается получить roroeyw продукцию с высокими потребительскими свойствами. Примерами таких объектов являются доменная печь в металлургии, ректификационная ко- лонна при переработке нефти и т.д.
350 __________ Нечеткое управление. ЧастьТт Однако с управлением такими сложными объектами человек справля ется достаточно уверенно. При этом он использует показания контрольно- измерительных приборов и по эвристическим алгоритмам, которые осно- ваны на опыте и интуиции, воздействует на исполнительные органы объ- екта, добиваясь приемлемых конечных результатов. При этом чем более квалифицирован оператор, тем лучших результатов он добивается. В этой связи возможен второй подход при управлении сложными объектами, ко- гда эвристические алгоритмы управления реализуются с использованием языка нечеткой логики, который по своей структуре близок к естественно- му языку. Впервые этот подход в виде нечеткой системы управления был реализован при управлении цементной печью. Ниже дается простейший пример нечеткого управления подъемно- транспортным механизмом, когда на специализированном языке формали- зуются действия оператора для предотвращения раскачивания груза на крюке подъемно-транспортного механизма при начале его перемещения, изменении скоростных режимов или остановке. Покажем предварительно, что объект, которым управляет крановщик, является нелинейным динамическим объектом. Простейшей одномерной математической моделью раскачивания груза при движении крана являет- ся маятник с подвижной точкой подвеса (рис. 4.1). Баланс моментов отно- сительно точки О дает Mi + М2 = М3, где Ml=Jr-&(t) - момент инерции груза относительно точки подвеса; М2 =m[Vr(/)cos -момент, создаваемый составляющей скорости подвеса относительно точки подвеса; М3 = mgl sin а (г) - момент, созда- ваемый составляющей веса груза относительно точки подвеса. После ин- тегрирования и преобразований получим: Л----Ц-т a(t)+mgl------Ц— [sinaftV* = -mlVr (t), cosa(t) '' cosa(r)J ' r v ' где a(r = 0) = Oo, Jsina(r)«&/I=0 = Pg - начальные условия нелинейного интегро-дифференциального уравнения. Задача управления нелинейным объектом состоит в определении ско- рости Уо (г) по измерениям его текущей скорости Ут (г) и угла раскачива- ния а (г), для того чтобы предотвратить опасное раскачивание груза при изменении скоростных режимов крана (рис. 4.2): начало разгона — точка ; конец разгона - точка О2; начало торможения - точка О3; конец тор- можения - точка О4. Эта задача решается оператором крана эвристиче- ским способом. Один из возможных вариантов изменения скорости Vg (О
, ---------------------------351 . „рио»»». о,), „„„ Л1га„тта показан на рис. 4.3. При этом оператор формулирует для себя одно из Л ножных лингвистических правил: «»я одно из воз- несли угол 8а =а3-а, где а3 -задание, а - измеренное значе- ние; немного увеличивается по часовой стрелке и производная колебания груза немного увеличивается против часовой стрелки и ско- рость 8Vt ~ Утз ~ VT > W vts ~ задание, VT - измеренное значение; равна нули), тогда скорость Vo должна быть небольшой в отрицательном правлении относительно нуля. на- Рис. 4.1. Маятник с недвижной точкой О подвеса Рис. 4.2. Текущая скорость VT (t) перемещении крана: т. О, - начало разгона; т. Ог - конец разгона; т. Оу -начало торможения; т. О* - конец торможения Определим для нечетких лингвистических переменных 8а, 8а, 8VT, Vo нечеткие множества с соответствующими идентификаторами для функций принадлежностей ц(8а), р.(8а), |i(8VT), p(V0) (рис. 4.4). Например, для И (8а) эти идентификаторы имеют вид [14]:
“—:--------------------Ваг‘!гяав&ч^ PM - угол раскачивания За положительный vw«. хи) средний; PS -уголраскачивания 8a положительный небольшой- ZR -уголраскачивания 8a нулевой; ’ NS - угол раскачивания Sa отрицательный (по чапл»»к к часовое стрелке) Ке. Аналогично определяются идентификаторы для р(8а), р(8й), p(V0). С учетом заданных нечетких множеств база правил эвристического ал- горитма управления оператором скоростью Vo(г), крана при VT(t) = o (точка О4, рис. 4.3) имеет вид: [Ri: если Sa = NS и 8a = NSh8Vt = ZR, тогда V0 = ZR; или Я2: если Sa = NS и 6a = ZR и 8VT =ZR, тогда V0=NS; или R3: если 8а = NS и 8a = PS и 8 VT = ZR, тогда Vo = NS; или R4: если 8a = ZR и 8a = NS и 8VT = ZR, тогда Vo = PS; или Rs: если 6a = ZR и Sa = ZR и SVT = ZR, тогда Vo = ZR; или Rg: если 8a = ZR и 8a = PS и 6VT = ZR, тогда Vo = NS; или R7: если 8a = PS и Sa = NS и 8VT = ZR, тогда Vo.= PS. Fkc. 43. Изменение скорости крена для предотвращения раскачивании груза Аналогичные базы правил могут быть записаны для точек О^—О^ из- менения скоростных режимов крана (рис. 4.2). После их объединения по-
Глава 4. Нечеткие системы регулирования 353 лучим формализованное представление эвристического алгоритма, С по- мощью которого оператор управляет скорость перемещения крана для предотвращения опасного раскачивания груза. Реализация этого алгоритма в виде нечеткого контроллера в прямом контуре управления позволяет ис- ключить оператора крана и передать его функции нечеткой системе регу- лирования. И <х 1 -90» NMNS ZRPS РМ ваДград] стрелке стрелки NS ZRPS ч------► 2 5Уг,[ц/с] Рис. 4.4. Функции принадлежностей нечетких множеств Приведенный пример показывает преимущество нечеткой системы рс. гулирования нелинейным объектом по сравнению с традиционной систе мой регулирования простотой своей технической реализации. Блок-схема 24 Зак. 10В
Нечеткое управление. Часть п 354________________________——---------------------------—— ------пегулирования изображена на рис. 4.5. Подобные нечет- ”еЧ^ем^ Р^^в^|« могут быть рассмотрены для подъемно- м2=>в зшрузки ракет в подводные лодки, шахты, на ^Х^втформы и т.д. с учетом воздействия неконтролируемых фак- ХТХ ветров нагрузки, которые воздействуют иа груз; волнения юности воды, которые перемещают место расположения посадки ра- ке^ и т д. Во всех этих случаях действия опытного оператора могут быть формализованы и далее реализованы в виде нечеткой системы регулиро- вания. Рис. 4.5. Нечеткая система регулирования в прямом контуре управления 4.2. Гибридные системы регулирования Рассмотрим традиционную систему регулирования для асинхронного электропривода с частотным преобразователем и далее модифицируем ее с использованием нечетких высказываний. Как будет показано далее, это дает улучшение динамических характеристик (пуск, торможение) и точ- ность поддержания задания асинхронного двигателя. Рассмотрим структурную схему 1 классической системы с ПД- регулятором в цепи обратной связи и проанализируем ее эффективность (рис. 4.6). На схеме приняты следующие обозначения: И C/(s) s.(s+p) - передаточная функция электропривода, где 0(s) - угол поворота вала двигателя (выход объекта); U ($) - управляющий сигнал (вход объекта); р - динамический параметр объекта; s - переменная преобразования Ла- пласа; к - коэффициент усиления двигателя; Wi (s) = kp - передаточная функция П-регулятора в прямой цепи регулирования; W2 (j) - передаточ- ная функция измерительного устройства; = - передаточная функция ПД-регулятора в цепи обратной связи; Я(з) - задание; E(s) -
Глава 4. Нечеткие системы регулирования 355 ошибка в отработке задания. Передаточная функция замкнутой системы равна: —5UL— w г.'-PW- ____________ ”"1' *(•) 1»_5<_..’74мьц,Ну’ l+Wi-W^-W^ 3 откуда имеем: 0(O+(P + *^^)-®(O+bfcpe(O = k-*:p.R(O, (4.1) O(t = 0) = 0, 0(f = O) = O. Переходная функция h(t) изображена на рис. 4.7. Из (4.1) получим ко- эффициент затухания колебаний: X , А у = — 1п—, П Аг где X - частота затухающих колебаний, откуда у=у(кр,Лу). Полученные результаты показывают, что с увеличением коэффициен- тов усиления кр, kv увеличивается у . Это приводит к появлению нежела- тельных выбросов на выходе объектов управления. Кроме того, устано- вившаяся ошибка в отработке задания ие зависит от кр, к„: £(» = °°) = R(t = 00)-h(t = 00) = 0. Рис. 4.6. Структурная схема системы регулирования асинхронного электропривода с ПД-регулятором в псин обратной связи Замечание. Обычно передаточные функции Wp W3 реализуют в циф- ровом виде на контроллере, поэтому часто необходимо иметь цифровой анялог: и-М-э -а<’1 "W откуда l/(3) = *,.£(S)-k/vs-0(3). 24*
Нечеткое управление. Част», и 356___________ После применения обратного преобразования Лапласа получим г» —u« Aft 1= — « —, где * - шаг дискретизации по времени, то- ПОЛОЖИМ ’S'V/ гда Дв и = кр-Е-крк.-—. Это уравнение используется для представления ПД-регулятора в виде Рис. 4.7. Графики переходной функции Л (») Помимо структуры (рис. 4.6) для асинхронного электропривода ис- пользуется ПД-регулятор в форме последовательного корректирующего звена (структура 2, рис. 4.8). Из схемы следует ™ /ду0(*)_ + М, “"2U fl(s) 1+W-Wi-l ? + (р + Аг-^)-л + Л-^ откуда имеем 0(r)+(p+b^)-e(t)+fc.fcp-0(O=i-^-R(r)+*-*P^(r). (42) 0(/ = О) = О, 0(г = О) = О, Я(г = О) = О. Сравнение (4.1) с (4.2) показывает, что при реализации структур (рис. 4.6) н структуры (рис. 4.8) будем иметь различные типы дифферен- циальных уравнений при описании замкнутой системы. Эти структуры имеют один общий недостаток*, из-за отсутствия знаменателей в переда- точных функциях регуляторов происходит усиление высокочастотных ко- лебаний, которые поступают на вход объекта управления, и это может вы- звать нежелательные последствия (перегрев, пробой изоляции и т.д.). Для решения проблемы подавления высокочастотных колебаний рас- сматривается структура 3 (рис. 4.9), в которой неизвестная передаточная функция регулятора выбирается из условия (43)
Глава 4. Нечеткие системы регулирования 357 где - передаточная функция замкнутой системы структуры 3, либо из условия: Рис. 4.8. Структурная схема системы регулирования асинхронного злектрояривода с ПД-регулятором в прямом контуре Рис. 4.9. Структурная схема системы регулирования асинхронного злекзрояривша ири определения W* (з) Рис. 4.10. Структурная схема гибридной системы регулирования, исиояыу ш нечеткие высказывания Найдем (j) из условия (4.3) Wy -W_____________________________--------- W3hm3(s)- 1+Wjf ,wd~ s2 + p-s+^-wx __----------------------= %a„l(4 s2 +(p+k-k„-kp)-s+k-kp
Нечеткое управление. Часть И 358 .._---—--------- откуда имеем ^Ws— х v ’ J + Тот» Овриом. W ПР'®™""" с0&,й ПВД-РИУ^Р. которые ы^у. —«— »«&««« Пмучим ..«фро»» «мог ПИД. «WWP» 3 «Р-е. «X И» пероякточной функции wx (j) имеем £р)_ Ms+p) E(s) з+(р+к'кч •*₽) ^•(s+p)-E(r)=[s+(p+i^-*₽)]:C/(s). В пространстве оригиналов этому уравнению соответствует дифферен- циальное уравнение *,,-£0+^-р‘Е{»)=й(»)+(р+*-^ •*,,)•«(/). Аппроксимируем производные: „ РЕчЕИ-Лы = ы(-)-М>--)•тогда 1“ЯУП"М «(t-ThVAg-^p-P-^vl “^= \+(p+k-kv-kp)-x Это уравнение описывает ПИД-ретулятор вдафро^ высокочастотных Структура 3 (рис. 4.9) решает проблемы Фядар“' обеспечивает колебаний, однако при задании Я(0*Н0 эта С1РУКТ^0ДИфИЦируется в сверхбыстрой его обработки. В этой связи дополнительный структуру 4 (рис. 4.10), которая в своем СОС™^" ^но зависимости блок, использующий нечеткие высказывания ста изображен» на G(E) (рис. 4.П). Функции принадлежностей Н(^)’ Рис-412- ^плм улучшаются пр» Динамические свойства системы с ПИД-регу ечеткиХ высказываний, использовании гибридного регулятора на °*3®?1 ПИД-регулятора Для этого в качестве входной обратной свЯЗИ °,яивает коэффициент уси- используется нечеткий регулятор, который настраивав^ величнне пения G в зависимости от величины ошибки Еу)’ принятая для Е(г) в гибридном регуляторе используется величин
Глава 4. Нечеткие системы регулирования 359 обычного ПИД-регулятора, а при больших величинах Е(<) скорость ко- эффициента усиления G уменьшается. Сравнение обычного ПИД- регулятора с гибридным в системе управления асинхронным электропри- водом представлено на рис. 4.13. Из него видно, что при управлении час- тотным преобразователем интеллектуальная управляющая стратегия на базе нечетких высказываний обладает преимуществом перед традицион- ным ПИД-регулированием. Рис. 4.11. Зависимость «вход-выход» нечеткого регулятора Рис. 4.12. Функция принадлежности нечетного регулятора
360 Нечеткое управление, Чаг^. ц Рис. 4.13. Изменение сигнала управления u(t) для ПИД- я гибридного ПИД-регулятора 4.3. Нечеткая логика в задаче фильтрации СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ В составе задач АСУ ТП можно выделить класс задач, выполняющих алгоритмическую обработку входной информации от объекта с помощью средств вычислительной техники. Это и контроль правильности входной информации, и преобразование в дискретные сигналов от датчиков; сгла- живание (фильтрация) входной информации для выделения полезного сигнала на фоне помех и другие задачи. Задачи фильтрации входной ин- формации, например, часто возникают при реализации цифровых П-, ПИ-, ПИД-регуляторов в виде различных интеллектуальных модулей контрол- леров. Рассмотрим решение задачи фильтрации помехи с применением нечет- ких высказываний для сглаживания данных по методу наименьших квад- ратов [14]. Пусть имеем непрерывный сигнал у(1) от датчика, для которого при- нимается следующая математическая модель (рис. 4.Т4): ^(O=)'H(O+v(t) = AT-F(t)+v(t) = FT(t)-A + v(r), где А =(оо,а,,...,- вектор неизвестных параметров модели; " ...))(и<) - вектор заданных базисных функ- ций, v{t) - случайный процесс; Т - операция транспонирования, уи(1) " истинное значение. После преобразования непрерывного сигнала от датчика в цифровую *°Рму. будем иметь соответствующую решетчатую функцию y(» = «4i=ijV:
361 Глава 4. Нечеткие системы регулирования у(г = т) = Ат F(r = T)+v(t = T)=y1, у (t = 2т) = Ат F (г = 2т)+v (t = 2т) = у2, у (t = Nt) = Ат -F(t = Nt)+v(r = Nt) = yN, которой соответствует вектор измерений YT =(yb у2.Уя)^)- гДе х ~ шаг квантования по времени, N - число данных, полученных с датчика входной информации (N > п). Предполагаем, что относительно помехи v(t) выполнены условия: М {v(t = it)}=0, D{v(t = iT)}=o2-I, где М, D - символы математического ожидания и дисперсии соответст- венно, о2 - известная дисперсия помехи, I - единичная матрица. Алгоритм усреднения состоит в нахождении функции у (г), которая дает наилучшее среднеквадратичное приближение (метод наименьших квадратов - МНК) к заданной решетчатой функции у (it); min (vTv) = min (Y - XA)T (Y - XA), где ' /о(х) Л(х) - Л-1(Х)' Х = : = : (Уо(лгт) r.(NT) ... Л-,(^)^хя) X - матрица, полученная из базисных функций. 23 Зак. 108
362 _______ ________________________Нечеткое управление._Ч»2^ ц Геометрически задача МНК состоит в нахождении длины перпендику, ляра |Y-X-a£ в евклидовом пространстве Е, который опускается из точки В на подпространство £2, образованное вектором X(/Vxn)A(iixI) Рис. 4.15. Геометрическая интерпретация задачи МНК Условие перпендикулярности двух векторов Y(Wxlj и (XA)^xlj в про- странстве Е соответствует равенству нулю их скалярного произведения: (Y-XA, XA) = (Y, ХА)-(ХА, ХА)=0, или (XA)T-Y-(XA)T-(XA) = 0. С учетом свойств операции транспонирования матриц получим: ATXTY = АТХТХА. Умножим слева это соотношение на вектор А, тогда получим: aat(xty)=aat(xtxa), или (ХТХ) А = (ААТ )'* (ААТ )XTY = IXTY, откуда вектор А оценок МНК будет равен: А = (хтх)-1 XTY. (4.4) Дисперсионная матрица оценок МНК с учетом D {v} = о2 •! равна: о^}=о|(х1х)''х’-¥}=((х'гх)-1Хтуо{¥}^ХтхГхту = -[(ХТХ)"Х1УО{!И+,}.((Х1Х)''ХТР
Если для аппроксимации непрерывного сигнала решетчатой функцией используется модель 1: Y = XA+v, а в действительности имеет место модель 2: Y = XA+X1A1+v, тогда оценка МНК вектора А будет иметь смещение 8А = (ХТХ)'1 ХТХ1А1. (4.6) Действительно, с учетом М {у} = О, М {А}=А, М {At} = Aj имеем: м {а}=м |(хтх)’1 xty|=^(xtx)'1 Хт j-M{Y}= =((xT х)“1 Хт у М {ХА+Xt Al+v}= = (ХТХ)’1 (ХТХ)А+(ХТХ)'' ХтХД = А+8А. Дисперсионная матрица оценок в этом случае, как и ранее, будет опре- деляться по (4.5). Рассмотрим частный случай, когда для фильтрации используется поли- ном нулевого порядка (модель 1): y(0=ao-/o(0+v(0=flo+v(0>rw /о(0=Ь а в действительности имеет место модель 2 (рис. 4.16). Эта ситуация имеет место из-за отсутствия априорной информации о выборе порядка аппрок- симирующего полинома или структуры модели для фильтрации. В этом случае при наличии N измерений {уР у2,..., Ун} в соответствии с (4.4)— (4.6) будем иметь: 23*
364_____________________________Нечеткое управление, Ча^ ц 2 ... ' 0{л}=а“(Х’х)-'=^Л = #Ы-^. , т \ т t(N + 1) 5ао=(ХтХ)хтХ1а1=-^-^а1> где у - среднеквадратичная ошибка. Заменим в последнем выражении а, на ее оценку а,, вычисленную для модели 2: а, =СА = (О>1)(ХТХ)~1ХТ¥ = -Хц1у1., 12/—6/V “*6 n где ц. =—г----г> У И/ =1 ~ весовые коэффициенты фильтра для мо- ' n(№-1) м дели 2. Подставляя а, вместо в выражение для 8а0, получим: к N + l£ Ч=^-2ЛЛ- Z i=l y(,)=ao + ai, + ''(/) (модель 2) ОI___________ 2т Nt Рис. 4.16. Фильтрация помехи при аириори неизвестной структуре модели Графики зависимости у и 8а0 от числа измерений изображены на рис. 4.17. Зависимость суммарной ошибки Л = у+8о0 при фильтрации случайных возмущений методом усреднения показывает, что существует оптимальное число измерений No, которое обеспечивает минимум R . Для адаптации величины N , которая обеспечивает наилучшую фильт- рацию, может быть использовано нечеткое высказывание типа:
365 рдара 4* Нечеткие системы регулирования «если величина среднеквадратичной ошибки у при фильтрации очень большая и величина ошибки Soq модели очень маленькая, тогда необхо- димо в следующем цикле значительно увеличить число измерений». Этому нечеткому высказыванию соответствует правило [7J: if у = PL и 8а0 = № then N = PL. Правила для семи меток могут быть заданы в виде матрицы среднеквадратическая ошибка у NL NM ZR PS РМ PL NL * * * * * * PL] NM * * * * * РМ * ошибка модели NS * * * * PS * * (смещение) 8а0 ZR * * * ZR * * * PS * * NS * * * * РМ * NM * * * * * PL NL * * * * * * Элементы «*» матрицы являются пустыми. Функции классов для пара- метров у, Зоо и N изображены на рис. 4.18. Их форма уточняется по ре- зультатам моделирования [8]. Таким образом, при фиксированной величине шага т по времени, не- четкая логика адаптирует величину «окна» Nfi фильтрации, обеспечивая при этом наименьшую ошибку R аппроксимации входных данных по ме- тоду усреднения (рис. 4.19). Рис. 4.17. Зависимость среднеквадратичной ошибки у и смещения Sag от числа измерений У

Рис. 4.19. Адаптация величины «окна» фильтрами Nft с исиользомииеи нечеткой логики 4.4. Нечеткая система автоматической оптимизации В настоящее время теория и практика поисковых систем автоматиче- ской оптимизации (САО) является одним из классических разделов совре- менной теории автоматического управления [13]. Важное место в теории САО занимают алгоритмы импульсных (шаговых) помехозащищенных быстродействующих систем для управления инерционными объектами (энергетическими и химическими установками, ракетными двигателями и т.п.). Их математическая модель может быть представлена в виде последо- вательного соединения статической экстремальной зависимости с априори неизвестным ее видом и инерционной части, описываемой обыкновенным линейным дифференциальным уравнением с неизвестными нестационар- ными коэффициентами [11]. Основная проблема при реализации таких алгоритмов в реальном вре- мени заключается в обеспечении устойчивости вычислений решения сис- темы линейных алгебраических уравнений (СЛАУ) при идентификации показателей конечной суммы экспонент в случае использования метода Прони [1]. Предлагается решать СЛАУ и усреднять результаты вычислений на ос- новании нечеткого метода наименьших квадратов (МНК) [15]. Эффектив- ность предложенного алгоритма оптимизации исследуется методом стати- стических испытаний. Рассмотрим модель объекта, которая состоит из последовательно со- единенных: экстремального звена (нелинейная часть) с априори неиэвест-
368_________ . _________________________Нечеткое управлени»^^ ной характеристикой /(х) , звена чистого запаздывания с известно^ чиной запаздывания т3 и линейной части, описываемой Дифферент^ ным уравнением m-го порядка с соответствующими начальными ус виями и коэффициентами, зависящими от времени: Ло' /=1 i=| i=l i=l У*/ где Г; (t) - постоянные времени объекта. Предполагается, что канал измерения выхода объекта находится под воздействием помехи £(»), которая является центрированным случайным процессом. За начало отсчета для САО примем момент времени появления на вы- ходе у-го отклика u(lj) при подаче на вход объекта в момент времени t - tj -т3 ступенчатого управляющего воздействия: Дх; = Xj - Axj | = const j. В случае, если величина Tf (t) изменяется незначительно иа промежут- ке t e ], можно положить Т| (г) = 7} = const, при этом выход объек- та после решения дифференциального уравнения примет вид: «(7>)=“и(^)+;(гу)=рт(?;.)а>+;(?,), (*•?) где tj Aj =(flj0,aj|..а^т) - вектор неизвестных параметров, ajo~f{xj) - значение статистической характеристики объекта при j -м ступенчатом управляющем воздействии, FT(?J=^l,exp(-/,-ТД1),. - вектор базисных функций с неизвестными динамическими параметрами Tji, i = 1,т, Т - символ транспонирования. Соотношение (4.7) нелинейно относительно неизвестных параметров а;0,ал,...,ауя,,Т;1,...,Гут, и для их нахождения используется метод Прони, позволяющий находить оценки ...................fym без использования начальных приближений по измерениям выхода = °) = «J (0). =т) = И; (т) u{Tj =(N-l)^Uj ((N-l)t), где N > m+1, N - число измерений.
глава 4. Нечеткие системы регулирования 369 Алгоритм САО ускоренного поиска экстремума статической характе- ристики инерционного объекта, в котором используется прогнозирование установившегося значения переходного процесса (4.7) по измерениям иДгт), i = О, N -1, его начального участка имеет вид: AxJ+l=0-sign(v>+1AxJ, (4.8) где 0 = const >0 - величина шага при поиске максимума статической ха- рактеристики, vy+I =ay+i,o-ayo = 7(•*;) " оценка приращения статической характеристики, найденная по методу Прони. При технической реализации алгоритма на средствах микропроцессор- ной техники в случаях, которые характеризуются значительным уровнем возмущений близостью между собой постоянных времени объекта, небольшой величиной шага т по времени и т.д., возникают трудности, обу- словленные неустойчивостью (некорректностью) вычисления Vj+1. Как следствие неустойчивости, появляются ложные срабатывания САО, реали- зующей алгоритм (4.8), что иногда значительно затягивает процедуру авто- матической оптимизации н уменьшает быстродействие системы [11]. Цель настоящего раздела состоит в модификации на основе использо- вания нечеткой логики алгоритма (4.8), который обеспечивал бы робаст- ность поиска при значительных осцилляциях оценок и анализе его эффек- тивности методом статистических испытаний. Пусть в соответствии с методом Прони получены оценки Tt, i = l,m для j -го поискового шага из решения соответствующего разностного уравнения. Тогда, используя вектор FT ) = (*’ ехР(~^Л )....ехр("^> ))• для линейной модели = +^(7j) находятся оценки 7н(^) и 7Н (xj +1) с помощью нечеткого МНК [15]. Нечеткий алгоритм поисковой оптимизации при этом будет иметь вид: Лх>+1 = 0 • sign (v >+liH to;), (4.9) гае v;+1,H = /н (<+|) - /и (xj) Моделирование алгоритма. При моделировании нечеткого алгоритма поисковой оптимизации (4.8) было, взято т = 1, что соответствует сле- дующей модели объекта (4.7) на j -м поисковом шаге: “ ) = аю + aji ехР(Чтл' )+^(Т;). где Ojq = f (х,) - значение статической характеристики; - коэффици- ент, зависящий от начального условия и управляющего воздействия.
Нечеткое управление. Часть и •ИО . -— ----------------------------------------- -^^^мерений составлялись первая, вторая и т.д. разности пер. вого порядка. _ 8j(ix) = Uj((t + ty)~ujv4' 2, и в соответствии с методом Прони, была получена оценка ’ Л/-2 1 ^“2 - %. f = -т-1 In £ [5у (rt)] J} 5у (rv)Sj ((«+1)т) . J ,=о 1=0 Вектор параметров Aj = (aj0,afl) находили из условия Aj =argmin§jA5j, Aj где §J = (^(0)..£>j((N-1)т)), а Лу - диагональная матрица весовых коэффициентов, неизвестные элементы которой находили из нечетких правил в соответствии с нечетким МНК. Для базисной функции ехр^-Г/fjJ1 ^на j-том поисковом шаге вводи- лись нечеткие множества Bjs,Bjb с функциями принадлежности - «маленький», - «большой», типа арктангенса, и для каждого текущего момента времени tj = it, i = 0,1,..., N -1 определялись правила: Ядрт): если exp(-G^1) = p.J,TO.g/1(/T) = gJ(iT), или Ы,т)’ если expj-t^'J-^.To gJ2 (it) = (it). Полученные весовые коэффициенты gyl(iT), gp(iT) нормировались: W , -v М'О_________-д(|,) »лИ*»л(=) М > s„^gl2(lzy щВроулти были полу,™ диагоиальиые малицы ^,ых ,оэффи. лл = \>(0) 0 0 0 0 0 0 0 0 о 0 0 0 Х/1 ((^-1)т) Хр (0) 0 0 0 Ар = 0 0 Ы*) 0 0 0 0 0 0 0 Xp((N-l)T)
pff1,ga 4, Нечеткие системы регулирования___________ для каждой матрицы Лц.Л^ находили с помощью взвешенного I4HK оценки переходных процессов йд(Н), kj2 (ft) и остаточные суммы квадратов Ф;1,Фр: IV 2 Йд (ft) = + $ exp^-ftfд); Фл = £[н(.т)-и(it)] , i«0 IV—I 2 Мх) = а$ +^i)exp(-ftf;i1); ®j2si[»(ft)-fij2(ft)] , i=0 и взвешенную сумму 7н (*j) = 4? = + (1 - а7 , в которой Oj находили из нечетких правил: гл-. если Фд - «маленькая» и Фр - «большая»,то Oj -«большое», или rj2: если Фд - «большая» и Ф;2 - «маленькая», то aj - «маленькое», или Гр: если Фд - «маленькая» и Ф;2 - «маленькая», то а} - «среднее», или г;Ч: если Ф д - «большая» и Фр - «большая», той;- «среднее». Четкие переменные Фд, Фр преобразовывались в нечеткие (процеду- ра фазификации) с помощью треугольных функций принадлежности. Для обработки нечетких логических связок «И», «ИЛИ» использовалось пра- вило минимакса, а для преобразования нечеткой переменной а^ с тре- угольными функциями принадлежностей в четкую (процедура дефазифи- кации) - метод центра тяжести. Аналогичные вычисления проведали при определении ®j+1.0 = fa (xJ+>)' При моделировании были выбраны следующие исходные данные: /(х) = -х2+20х-10, хе [0,20], начальные условия в дифференциальном уравнении: *0 = 1,0; и0=5; 0*/(xq); ]ДхД=1,0; т3=0,2; £(г)« n(o,;2); о=0,1|ин(ft)-uH((i-l)t)|; T1(t) = 8-10“4t2-5,540'2t+6; т = 0,2; W = 6,7.13. Эффективность алгоритма нечеткой САО сравнивалась с алгоритмов системы поисковой оптимизации, в которой для фильтрации Цг) испоЛ^
Прчеткое управление. Часть Ц 372 _____________________ГСщк (четкая САО). Результаты моде- зовался классический Ра8Н0Т°’Н^ яспытаиий приведены на рис. 4.20, на лирования методом статистических чисЛа пойСКОВЫХ шагов „ от котором изображена мазнейд ₽ вая , характеризует четкую САО, числа измерений выхода А. на н зввисимости показывают эффек- тивен А - нечеткую САО. получен тивность нечеткой САО. „^™мтм нечеткой САО, которая обеспе- Таким образом, оптимизацию инерци- чивает совместную идентификацию У Р_______гдл на спапнеинт п онного объекта, и показана эффективность i-- нечеткой САО по сравнению с четкой САО. С Меткой последова®томатической оптимизации П^ВДОВАТЕЛЬНОЙ ПРОЦЕДУРОЙ ПРОВЕРКИ СТАТИСТИЧЕСКИХ ГИПОТЕЗ При наличии статической мального типа, форма котопай ₽ етеристики объекта управления экстре- координат под вХйстаием м^етСЯ относительно выбранной систе- поисковые САО. Задача Sre "L °НОТОННЫХ возмущений, используются мального зиачевди ы состоит в непрерывном поиске экстре- ристики и поддержании найденного значения.
373 4 Иачеткие системы регулирования —центральных проблем теории и практики САО состоит в льшении влияния случайных возмущений, которые возникают в изме- рительной системе на выходе объекта управления по каналу: «датчик - ка- ^ал связи - преобразователь аналог/цифра». Наличие случайных возмуще- B0g приводит к ложным срабатываниям САО и, как следствие этого, про- исходит увеличение времени поиска, и быстродействие системы уменьша- ется. При наличии значительной инерционности на выходе объекта и мо- нотонных возмущений система может быть неработоспособной. В импульсных (шаговых) САО для уменьшения влияния случайных возмущений применяются алгоритмические методы фильтрации, которые значительно повышают помехозащищенность системы. Эти методы осно- ваны на накоплении измерений, которые получаются на выходе объекта, с последующей их статистической обработкой в системе по различным ал- горитмам в зависимости от априорных сведений относительно случайных возмущений. Перспективным методом фильтрации в импульсных САО являются классические методы проверки статистических гипотез с использованием различных критериев отношения правдоподобия. В этом случае задача по- иска экстремального значения статической характеристики формулируется как эквивалентная задача проверки двух альтернативных гипотез. Эффективным методом испытания отношения правдоподобия является классический последовательный анализ А. Вальда [3]. По сравнению с другими критериями в последовательном критерии число измерений ап- риори не фиксируется и является случайной величиной. Алгоритмы САО, синтезированные на основе последовательной процедуры обработки изме- рений, обладают адаптивными свойствами. Это свойство состоит в том, что вдали от экстремального значения, ко- гда крутизна статической характеристики значительна, то имеет место не- большое значение отношения «помеха - сигнал», и тогда система автома- тически производит небольшое число измерений выхода; и наоборот, по мере приближения к экстремуму, когда крутизна характеристики незначи- тельна и отношение «помеха - сигнал» увеличивается, то система автома- тически увеличивает число измерений. Таким образом, система автомати- чески замедляет свое движение по мере приближения к экстремуму, адап- тируясь к изменению внешних условий. В классической теории проверки статистических гипотез рассматрива- ется отношение плотностей вероятностей, параметры которых принимают заданные четкие значения. Эти значения зависят от априорных сведений относительно помехи. В действительности из-за неопределенности помехи задаваемые значения параметров известны лишь приближенно и являются пытания^11 числами’ поэтому возникает необходимость в модификации ис- рые прии°ТН°ШеНИЯ пРавдот1ояобия с учетом нечеткости значений, кото- ческой послед параметРы- приводит к задаче модификации класси- довательной процедуры в ее нечеткий аналог.
Нечеткое управление. Часть II 374 0 этом разделе рассматривается нечеткая последовательная процедура. Синтезируются алгоритмы поисковой САО с использованием нечеткой последовательной процедуры проверки гипотез относительно значений, которые принимает параметр биномиального распределения. Показывает- ся преимущество нечеткого подхода по сравнению с классической после- довательной процедурой. Рассмотрим две альтернативные взаимоисключающие гипотезы Но, Я] и соответствующие априорные их вероятности Я (Яо), ,Р(Я1). Пусть в результате проведения эксперимента получен вектор измерений ^ = (Л>>2 >*)• компоненты которого у,-, i = l к являются незави- симыми случайными величинами. По формуле Байеса для апостериорных вероятностей Р(Я0/У), P(ffj/Y) принятия гипотез Но, получим: (4.12) (410) Условные вероятности P(H0/Y), P(^/Y) попадания случайной точки Ye 91" В ^-мерный параллелепипед dyl,dy2,...,dyk равны Р(Y!Hi= f (Y/Нj )dytdy2.. .dyk,j = Q,l, (4.11) Д - совместная условная плотность вероятности получения случайного вектора Y при условии справедливости гипотезы Hj. (4-Ю), (4.11) после преобразований получим- p(ffl/Y)_A е(я0/у)“л0’ где A A(YA) pt и \ f ®пюш««е правдоподобия, Ло = _ порОговое зта^шХшадХТ^Тятаостей (иорог)- при Л<АП что спД» 6 б0ЛЬШе ИЛИ меньше единицы, поэтому —A I— Р(НЛ\\>р(ц /v\ гается Если имеем Л^А0, что соответствует верпются Я ™ ПРИНИМаеГС" Я> И соответственно от- ЧМфиешчесое 7° 03иетает’'"° п0Р°г ло€ »i раэбиваег и™< Л ага» о, к,гв . , 1 “ Ч"™' 1^>" “"«‘«и» случайной л =»»»»„ л "А ? Ч"ИИМаСТС’ "° т°6°ет- ”р" -^ьГОн2.го°дл^±х:йтИ|-зд“ь л” ~
375 „ив 4. Нечеткие системы регулирования ' ^классической последовательной процедуре проверки статистических гипотез Но-Р = Ро> Hi:p = Pi, (4.13) где Р ~ оцениваемый параметр по выборочным измерениям \=(У1,У2...Ук) отношения правдоподобия д, д(й<д) - заданные четкие числа с одиночными (singleton) функциями принадлежно- сти соответственно (рис. 4.21): go(p) = singl(p-po) = 1, Р = Ро 0, р*р0’ Hl(p) = sin^(p-p1)= 1. P = Pi, О, p*Pi. Область К] принятия решения разбивается на три части порогами А и 1—В В (В < А). В теории последовательного анализа показано, что AS—- и . С учетом этих неравенств последовательный критерий записы- вается в виде: 1-В • гипотеза Я] принимается, если Ай— а В • гипотеза Но принимается, если AS——; 1-а • решение не принимается, если —— < Л < 1-а а
yi^ '______ Нечеткое управление. Часть П Число компонент к случайного вектора ¥ является случайной вели- чиной, и в теории последовательного анализа показано, что Ек S п, где Ек - математическое ожидание числа компонент случайного вектора ¥ при вальдовских испытаниях отношения правдоподобия; п - по классическим критериям Неймана-Пирсона, Байеса, среднего риска и т.д. В гипотезах (4.13) числа р0,р] являются четкими, выбор значений ко- торых зависит от априорных сведений относительно случайных возмуще- ний ф, воздействующих на компоненты вектора Y. В отсутствии таких сведений величины р0,р] являются приближенными (нечеткими) числа- ми. Рассмотрим частный случай гипотез, когда задано р0 четко, а рг не- четко, т.е. ра р{ с некоторой нечеткостью 5. По аналогии с [4] будем иметь: Яо: р = Рп, ~ 0 (4.14) #1:Р = Р1- где р0, = Pi имеют функции принадлежностей, изображенные на рис. 4.22: Рис. 4.22. Функции принадлежностей чисел Зададим значение Но (?) = h (/>) = И* р. В результате получим решения: и разрешим (4.15) относительно = Pi-^(l/p*), р(2) = Pi +5^(l/|x*), где Р0<Р1(1)<р1<рр. Рассмотрим совокупность следующих четких гипотез:
377 (4.16) рпана 4. Нечеткие системы регулирования________ Н^:р = р0, Н^: р = р0, Н^:р = р0, н^р-р,. иР-.р=рР. Для проверки каждой из трех сформулированных четких гипотез при- меним классическую последовательную процедуру, и решение каждой из них в виде уравнений порогов обозначим соответственно: где 4^ 0 е 0,1,2) - уравнения порогов, разделяющих области принятия гипотез н\р и продолжения испытаний; $ - уравнения порогов, разде- ляющих области продолжения испытаний и принятия гипотез Н$. Так как в (4.14) гипотеза Но четкая, a нечеткая, поэтому за порог ^2 принятия Но принимается Ц = 4°\ а за порог Д принятия Й( при- нимается Д =min^4°^4^’42^)- Аналогичным способом может быть построено решающее правило для гипотез Но :р“ р0, :р = р}. Нетрудно показать, что для гипотез Йо : р = р0, Hi :ра pi соответственно будем иметь девять четких гипотез. В этом случае: Д =min^4°V--4^)’ ^2 =max(4°).....4^)- Рассмотрим САО, в которой задача поиска экстремума статической ха- рактеристики объекта управления формулируется как эквивалентная зада- ча нечеткой последовательной процедуры проверки статистических гипо- Для простоты рассуждений и математических выкладок рассмотрим безынерционный объект со статической характеристикой ун = f(x)
378___________________________ Нечеткое управление. Часть II имеющей максимум, в отсутствии монотонных возмущений, на выходе ко- торого имеется помеха в виде аддитивного случайного процесса <р(0 (рис. 4.23). Рис. 4.24. Поиск экстремального значении х' зависимости уи = / (л) На входе САО имеем: уСО^уХО+ФО) • Пусть на вход объекта подаются пробные ступенчатые смещения ±g относительно х( <х* - оптимальное значение, что соответствует рабочей точке А, которая находится на левой ветви характеристики (рис. 4.24). На выходе будем иметь сигнал у, (г), фаза которого будет совпадать с фазой входного сигнала х,(г). При нахождении рабочей точки на правой ветви характеристики (точка В) выходной сигнал у, (г) будет находиться в противофазе с входным х( (г). Пусть в моменты времени t = т, 2т,..., Лт получены измерения выход- ного сигнала у, (г), у, (т) = уп , у( (2т) = у/2 . • • • • У/ (Лт) = У/* > к ~ четное число.
379 4 Нечеткие системы регулирования -<^^рим кодированные разности: [1. Ул'Уц^О, Zii = yfl-yt2=|n (О, иначе. , _v „ _j1’ Уо-Уи^О, ZI2 ~ Ув ~ У(4 ~ Тп 10, иначе. г1П = У/,ы-У>,* = О, иначе. Если бы ф(») = О (отсутствие помехи на выходе объекта), то в резуль- тате получили бы последовательность z, ={z(l, zi2»--.,ziB} только из п = к!2 единиц. При ф(|)#0 эта последовательность будет содержать нули и единицы, причем при небольшом уровне ф(г) число единиц будет значительно больше числа нулей, т.е. вероятность р появления единицы в последовательности будет больше вероятности q = \-p появления нуля. Рассмотрим выходной сигнал у{ (t) для рабочей точки В, которая на- ходится на правой ветви характеристики, и для измерений ун, y(2,...,yiik проведем аналогичные рассуждения относительно кодирования их разно- стей. Так как выходной сигнал находится в противофазе с входным, по- этому в результате кодирования при ф(т)=0 будем иметь последователь- ность ij ={zj|, Zp....Zjn} только из одних нулей, а при ф(г)*О эта по- следовательность будет содержать также нули н единицы, причем, по сравнению с предыдущим случаем, при небольшом уровне ф(т) число ну- лей в последовательности будет значительно больше числа единиц, т.е. ве- роятность q появления нуля будет больше вероятности р появления еди- ницы. Таким образом, задача поиска оптимального значения х* эквивалентна задаче проверки статистических гипотез относительно неизвестного пара- метра р и сравнении его с заданными порогами р0, р,. При р0 <0,5 ра- бочая точка находится на правой ветви, и следующий рабочий шаг необ- ходимо производить в сторону уменьшения х. При Pq >0,5 рабочая точ- ка находится на левой ветви, и следующий рабочий шаг необходимо про- изводить в сторону увеличения х • В результате задача распознавания типа ветви характеристики (левая или правая ветвь) превратилась в эквивалент- ную задачу распознавания типа бинарной последовательности. Для распо- знавания ее типа используем нечеткую последовательную процедуру.
380________________________________Нечеткое управление, Ч^ц Пусть относительно (?(/) имеем: Л/{ф(()}=0, Р{ф(г)}=о2>1, где M,D- операторы математического ожидания и дисперсии соответст веяно, о2 - известная величина дисперсии, I - единичная матрица. При этих условиях вероятность р появления единицы в бинарной последова- тельности является константой. Кроме того, предположим, что измерения У уа....у.л являются независимыми относительно ф(г): i=i где /(y(1,y,i..Л*) " совместная плотность вероятностей случайного вектора У| =(Ул.У;2..Уд)» /(Уи) “ одномерная плотность вероятно- стей I -той компоненты вектора Yf. Тогда появление нулей или единиц в бинарной последовательности z, = {zfl, zi2,--•. г|и} являются также незави- симыми событиями, и в результате имеем схему независимых испытаний, т.е. вероятность Рл(г,=т) появления т единиц в бинарной последова- тельности z, из л символов подчиняется распределению Бернулли: где С” - число испытании из п элементов по т. Задача определения типа ветви характеристики может быть сформули- рована как задача проверки двух гипотез относительно неизвестного пара- метра р биномиального распределения: Яо: Р ~ Ро (рабочая точка находится на правой ветви), Ht'PBPt (рабочая точка находится на левой ветви), ГДе Ро» * Pt - числа с функциями принадлежностей (4.15). После редукции гипотез к соответствующим четким гипотезам в соот- ветствии с (4.16) получим ^О):р = Ро, я!0);р = Р1. Вычислим для них логарифм отношения правдоподобия: 1пЛ I А/(г;=т/НР:р»р() СлдрГ(1-Pi m^\f[zi=mlH^}-.p = p0^ С„ро()~Ро) Решающее правило относительно продолжения подачи на вход обь Управления ступенчатых смещений ±g имеет вид
4 Нечеткие системы регулирования г(°) z- m <- H°) 381 где 4М°М°ММ0)+Л , i-р lnJL 40)=^=4^’ После аналогичных рассуждений относительно гипотез: Н^ -р = р0, Н^:р-р\1\ получим решающее правило: где формулы для порогов получаются из формул для , ес- ли в последних произвести замену pt на р,(1). Для гипотез: »$Ч:р = Ро. И,(2>:р = рР. соответственно получим: 42)<т<4), где уравнения порогов 4^.4^ получаются из уравнений для пу- тем замены на рр. Алгоритм функционирования адаптивной САО с нечеткой последова- тельной процедурой обработки измерений имеет вид xi+1 sjQ+asignV;, (4.17) где а - величина рабочего поискового смещения входа объекта (а > 0 дая статической характеристики, имеющей максимум), 1, если т> Д =min^0\4^>4^)’ У/в принимается - рабочая точка находится на левой ветви; О, если 4°)<m<Li, не принимается решение о положении рабочей точки; “1. еслит^4°\ принимается Но - рабочая точка находится на правой ветви.
382 ________________Нечеткое управление. ЧастьП На рис. 4.25 в координатах (л, т) представлены пороги т- число 4 единиц в бинарной последова- тельности 4*> Область принятия Н। (рабочая точка находится на левой ветви) 4° 4°’- Ъбласть продолжения испытаний (не принимается решение о положении рабочей точки) п — число символов в бинарной последовательности (рабочая точка находится на правой ветви) Рис. 4.2S. Нечеткая воследовательвая процедура принятия решения о положении рабочей точки статической характеристики объекта управления Графические построения показывают, что при числе т единиц в би- нарной последовательности из п символов меньшем, чем порог , при- нимается гипотеза Но о нахождении рабочей точки иа правой ветви ха- рактеристики, и тогда система в соответствии с (4.17) сделает рабочее смещение в сторону уменьшения входного сигнала. Наоборот, при числе т большем, чем порог Д, принимается гипотеза Н{ о нахождении рабо- чей точки на левой ветви характеристики, и система сделает рабочий шаг в сторону увеличения входа. Если же число т единиц будет находиться внутри области, ограниченной порогами Д , , то система автоматиче- ски продолжит подачу пробных смещений ±g иа входе объекта. Нестрогое утверждение с помощью геометрических построений пока- зывает, что алгоритм САО с нечеткой последовательной процедурой обра- ботки измерений имеет быстродействие лучше, чем САО с четкой после- довательной процедурой, так как площадь области, ограниченной порога- ми Д, 1%), меньше площади неограниченной полосы с порогами Д •
383 ГдЯва 4. Нечеткие системы регултфования £(°), которая появляется в случае четкой последовательной процедуры. За счет этого в нечеткой системе необходимо производить меньшее число пробных смещений. В [4] это утверждение показывается экспериментально с помощью мо- делирования методом статистических испытаний. Кроме того, , $ являются параллельными прямыми, поэтому возможна ситуация, когда при л —>00 не принимается никакого решения. В нечеткой процедуре из-за непараллельности , До) решение при- нимается при конечном п. В случае двух нечетких гипотез #о:Р“Ро. функция Vf в алгоритме (4.17) будет иметь вид: |1, если т > Д = 4°\ О, если Lj < m < Д; -1, если т < I? - тах(4°\ 4>). Для получения гипотез Но:р“Ро'. ^1-РаР1 соответственно будем иметь: [1, еслит> Д =min(^°\...,Z^); О, если 4 < т < Д; -1, если 4 = тах(4°\...,48Ь- V. Методика для синтеза адаптивной САО, изложенная выше, может быть легко модифицирована для объектов управления с инерционностью на вы- ходе путем использования принципов прогнозирования установившегося значения или вычисления разрыва старшей производной, которые позво- лят уменьшить вредное влияние инерционности иа быстродействие сис- темы, а также произвести модификацию в случае воздействия монотонных возмущений в виде вертикального и горизонтального дрейфов характери- стики объекта. Дальнейшее направление модификации (4.17) может быть связано с адаптацией рабочего шага «а» в зависимости от величины приращения статической характеристики путем формулировки нечетких лингвистиче- ских правил типа (5):
384 Нечеткое управление. Часть II или R/ -. если приращение характеристики небольшое, то величина шага «а» должна быть небольшой - или RM : если приращение характеристики среднее, то величина шага « а » должна быть средней или Здесь «ИЛИ» является нечеткой логической операцией, задаваемой в виде S-нормы. В соответствии с предложенной методикой могут быть разработаны нечеткие критерии проверки гипотез относительно нечетких значений па- раметров нормальной совокупности, как аналог соответствующих четких критериев, а также разработан нечеткий нормальный регрессионный ана- лиз, как аналог четкого нормального регрессионного анализа.
ЧАСТЬШ НЕЙРОСЕТЕВЫЕ МЕТОДЫ УПРАВЛЕНИЯ И ИДЕНТИФИКАЦИИ ДИНАМИЧЕСКИХ СИСТЕМ СПИСОК ИСПОЛЬЗУЕМЫХ АББРЕВИАТУР И ОБОЗНАЧЕНИЙ arg min /(х) xN с AsN(m,P) - значение x, минимизирующее функцию f(x) - последовательность случайных величин хц, асимптотически сходящаяся к нормально распределенной случайной величине со средним т и матрицей ковариации Р Ex Rd tr(A) A’1 AT V'(0) - математическое ожидание случайной величины х - d -мерное евклидово пространство - след матрицы А - обратная матрица к матрице А - транспонированная матрица А - градиент функции V по ее аргументу 26 Зак. 108
386 Нейросетевые методы управления. ЧастьЦ! Vn(9,ZN) - минимизируемая критериальная функция - прогнозируемое значение выходного сигнала в момент времени t на основе модели М (0) и данных 2'~* 0 Ф(0 - вектор настраиваемых параметров модели - регрессионный вектор (вектор входов нейросетевой модели) NNARX NNARMAX - нейросетевая авторегрессионная модель - нейросетевая авторегрессионная модель скользящего среднего NNSSIF - нейросетевая модель типа «обновлений пространства состояний» HC ФОП - (искусственные) нейронные сети - финальная ошибка прогнозирования
Глава 1. Функциональные особенности нейронных сетей_____387 ГЛАВА 1 ФУНКЦИОНАЛЬНЫЕ ОСОБЕННОСТИ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ Современное состояние таких областей науки и техники, как теория управления, информатика, вычислительная математика и статистика, ней- рофизиология, физика, технология производства микрочипов наряду с по- стоянно возрастающим уровнем сложности практических задач и ужесто- чением требований к качеству их решения обусловили появление концеп- туально новых технических средств - интеллектуальных систем [11]. Ин- теллектуальные системы на основе искусственных нейронных сетей (ИНС) позволяют с успехом решать проблемы идентификации и управления, про- гнозирования, распознавания образов, оптимизации. Известны и иные, бо- лее традиционные, подходы к решению этих проблем, однако они не обла- дают необходимой гибкостью и имеют существенные ограничения на сре- ду функционирования. ИНС дают многообещающие альтернативные ре- шения, и многие приложения выигрывают от их использования. Искусственные нейронные сети индуцированы биологией, так как они состоят из элементов, функциональные возможности которых аналогичны большинству элементарных функций биологического нейрона. Эти эле- менты организуются по способу, который может в некоторой степени со- ответствовать анатомии мозга. Несмотря на достаточно поверхностное сходство, искусственные нейронные сети демонстрируют удивительное число свойств, присущих мозгу [б]. К ним относятся: • массовый параллелизм, • распределенное представление информации и вычисления, • способность к обучению и способность к обобщению, • адаптивность, • свойство контекстуальной обработки информации, • толерантность к ошибкам, • низкое энергопотребление. 26*
388'Нейросетевые методы управления. Часть Ш Несомненно, что технические средства, построенные на тех же прин- ципах, что и биологические нейронные сети, обладают перечисленными характеристиками. Аппаратная реализация ИНС - нейрокомпьютер - име* ет существенные отличия (как по структуре, так и по классу решаемых за- дач) от вычислительных машин, выполненных в соответствии с традици- онной архитектурой фон Неймана. Сравнительные характеристики нейро- компьютеров и традиционных компьютеров приведены в табл. 1.1. Таблица 1.1 Сравнительные оценки традиционных ЭВМ н нейрокомпьютеров Категории сравнения . ЭВМ традиционной архитектуры (машина фон Неймана) Нейрокомпьютер Процессор Сложный. Высокоскоростной. Одни или несколько Простой. Низкоскоростной. Большое количество Память Отделена от процессора. Локализована. Адресация не по содержанию Интегрирована в процессор. Распределенная. Адресация по содержанию Вычисления Централизованные. Последовательные. Хранимые программы Распределенные. Параллельные. Самообучение Надежность Высокая уязвимость Живучесть Специализация Численные и символьные операции Проблемы восприятия Среда функционирования Строго определена. Строго ограничена . Без ограничений Вне зависимости от способа реализации (аппаратной, микропроцессор- ной или в виде эмуляторов для обычных компьютеров), ИНС проявляют следующие свойства, необходимые для решения широкого круга техниче- ских задач: Обучение. Искусственные нейронные сети могут измеменять свое по- ведение в зависимости от условий внешней среды, т.е. адаптироваться. После предъявления входных сигналов (возможно, с соответствующими выходами) нейронные сети самонастраиваются, чтобы обеспечить тре- буемую реакцию. Обобщение. Реакция сети после обучения может быть до некоторой сте- пени нечувствительна к небольшим изменениям входных сигналов. Эта осо- бенность выделять образ сквозь шум и искажения позволяет преодолеть требования строгой точности, предъявляемые обычным компьютерам. Важ- но отметить, что нейронная сеть делает обобщения автоматически благодаря своей структуре, а не с помощью «человеческого интеллекта», представлен- ного в форме специально написанных компьютерных программ. Абстрагирование. Нейронные сети обладают способностью извлекать сущность из входных сигналов, т.е. оперировать с данными, которые не возникали в процессе обучения.
Глава 1. Функциональные особенности нейронных сетей 389 Перечисленные свойства позволяют эффективно использовать ИНС при решении следующих задач [6]: Аппроксимация функций / моделирование. Имеется обучающая вы- борка ((xi,yl),(x2,y2),...,(xn,yn)) (пары данных вход-выход), которая ге- нерируется неизвестной функцией у = f(x), искаженной шумом. Задача аппроксимации состоит в нахождении оценки неизвестной функции у = /(х). Аппроксимация функций необходима при решении многочис- ленных инженерных и научных задач моделирования. Идентификация / прогнозирование. Заданы п дискретных отсчетов выходных сигналов системы {y(ti),y(r2),...,y(r„)} (возможно, с соответ- ствующими входами {uttJ.uUj).......u(r„)J) в последовательные моменты времени . Задача состоит в построении модели, прогнозирующей значения y(t„ +1) в момент времени tn +1. Прогнозирующие модели мо- гут быть использованы как в системах управления [1], так и в нетехниче- ских приложениях, например, для анализа цен на фондовой бирже и про- гнозирования погоды. Управление. Рассмотрим динамическую систему, заданную совокуп- ностью {u(r), у(г)}, где u(t) является входным управляющим воздействи- ем, a y(t) - выходом системы в момент времени t. В системах управления с эталонной моделью целью управления является расчет такого входного воздействия и(г), при котором система следует по желаемой траектории, диктуемой эталонной моделью. В качестве модели выбирается нейронная сеть, а динамический процесс ее настройки представляет собой решение задачи управления [1,10]. Классификация образов. Задача состоит в указании принадлежности входного образа (например, речевого сигнала или рукописного символа), представленного вектором признаков, одному или нескольким предвари- тельно определенным классам. К известным приложениям относятся рас- познавание печатных и рукописных текстов, распознавание речи, класси- фикация объектов по их изображениям и анализ сцен [16]. Кластеризация / категоризация. При решении задачи кластеризации, которая известна также как классификация образов «без учителя», отсут- ствует обучающая выборка с метками классов. Алгоритм кластеризации основан на выявлении подобия образов в силу выбранной метрики и раз- мещении близких образов в одни кластер. Кластеризация применяется для извлечения знаний, сжатия данных, моделирования сложных технологиче- ских процессов [23]. Оптимизация. Многочисленные проблемы в математике, статистике, технике, науке, медицине н экономике могут рассматриваться как пробле- мы оптимизации. Задачей алгоритма оптимизации является нахождение такого решения, которое удовлетворяет системе ограничений и максими-
390 Нейросетевые методы управления. Часть щ зирует или минимизирует целевую функцию. Задача коммивояжера, отно- сящаяся к классу NP-полных, является классическим примером задачи оп- тимизации, успешно решаемой ИНС [32]. Память, адресуемая по содержанию. В модели вычислений фон Ней- мана обращение к памяти доступно только посредством адреса, который не зависит от содержания памяти. Более того, если допущена ошибка в вычислении адреса, то может быть найдена совершенно иная информация. Ассоциативная память, или память, адресуемая по содержанию, доступна по указанию заданного содержания. Содержимое памяти может быть вы- звано даже по частичному входу или искаженному содержанию. Ассоциа- тивная память эффективно используется при создании мультимедийных информационных баз данных [37]. 1.1. Основные этапы развития теории ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ Основополагающие работы по теории нейронных сетей появились на рубеже XIX и XX столетий. Среди них - труды Г. Гельмгольца и И. Пав- лова, рассматривающие общую теорию обучения, анализа зрительных процессов мозга и условно-рефлекторной деятельности. К сожалению, в этих работах отсутствовали математические модели функционирования нейронных сетей. Современный этап развития теории ИНС начался после публикации в 1943 г. работы У.С. Мак-Каллока и У. Питтса [66], посвященной логиче- скому анализу нервной деятельности. В этой работе впервые представлена формализованная модель искусственного нейрона и разработана теория ИНС как конечных автоматов, способных реализовывать «психологиче- ские функции». В соответствии с концепцией У.С. Мак-Каллока и У. Пит- тса функциональные свойства моделей ИНС постулируются в качестве ис- ходных, т.е. отсутствует такое полезное свойство, как обучение. Первым результативным методом построения ИНС считается алгоритм Д.О. Хебба [46], в основу которого положен механизм корреляции актив- ности афферентного (входного) синапса (соединения) и эфферентного (выходного) нейрона. . > Теории Хэбба, Мак-Каллока - Питтса и накопленные со временем экс- периментальные знания в области психологии и физиологии стали осно- вой для модели мозга, предложенной ф. Розенблаттом и названной им перцептроном (от лат. perceptio - восприятие). В работе [73] Розенблатт определяет перцептрон как «некоторое множество элементов (нейронов), генерирующих сигналы, связанных в единую сеть. Логические свойства такой сети определяются топологической структурой, т.е. связями между нейронами; набором алгоритмов, управляющих генерацией и передачей сигналов; набором функций памяти, или преобразования свойств сети в результате активности. По сравнению с другими моделями нейрпникту се-
Глава 1, Функциональные особенности нейронных сетей__ 391 тей перцептрон допускал большую свободу установления связей и обладал способностью к обучению. Огромное значение имела теорема о сходимо- сти алгоритма обучения перцептрона [74]. В I960 г. была создана первая техническая реализация ИНС-перцептронMARK-1. В 60-е годы разрабатывается множество моделей, методов и алгорит- мов в области нейронных сетей - дисциплина быстро развивается. Одна из разработок того времени - обучающаяся матрица Штейнбуха [80], система распознавания образов, основанная на применении линейной дискрими- нантной функции. Тогда же Б. Уайдроу разрабатывает первое широко из- вестное правило обучения (Madeline Rule 1) искусственных нейронных се- тей, содержащих большое число линейных адаптивных элементов [85]. Другая ранняя работа в этой области, посвященная обучению по методу соревнования, - алгоритм «поиска оптимального режима» Л. Старка, М. Окашимы и Г. Уайпла [79]. За ней последовали работы по самооргани- зации С. Мальцбурга [64] н С. Гроссберга [41]. К. Фукусима исследовал аналогичные методы и проблемы на имитирующих биологические струк- туры моделях, названных «Когнитрои» и «Неокогнитрон» [36,37]. В то же время группой ученых Стэнфордского университета проводились исследо- вания в области адаптивных систем на основе ИНС. Разрабатывались тех- нические приложения, включающие распознавание образов и речи [8.1], прогнозирование погоды [52] и адаптивное управление [86]. В 1969 г. М. Минский и С. Пейперт в опубликованной ими книге [67] положили начало строгому математическому анализу перцептронных схем. Утверждалось, что однослойные нейронные сети имеют ограничен- ные репрезентативные возможности н обучение многослойных ИНС не- продуктивно. Авторитет ученых был настолько велик, что публикация их работы остановила процесс изучения проблемы более чем на 10 лет. После неудачных попыток разработки обучающих правил для многослойных адаптивных сетей исследования переключились на проблемы адаптивной фильтрации и обработки сигналов [88]. Применение адаптивной обработки сигналов оказалось весьма плодотворным для решения таких прикладных задач, как настройка антенн [87], создание систем управления [83] н ана- лиз сейсмических сигналов [84]. Исследования Р. Лаки в лабораториях Белла положили начало коммерческому применению адаптивных фильт- ров и метода наименьших квадратов (МНК) для настройки высокоскоро- стных модемов [62, 63] и подавлению «эхо»-зффекта в телефонных и спутниковых сетях [78]. Несмотря на ослабевший интерес к ИНС перцеп- тронного типа, в 70-е годы появляется ряд работ по самоорганизации, сре- ди которых - теория адаптивного резонанса (APT) С. Гроссберга, пред- ставляющая собой ряд новых гипотез, касающихся управления биологиче- скими нейросистемамн [42]. APT-модели послужили основой для после- дующих работ Г. Карпентера и С. Гроссберга, рассматривающих три клас- са архитектур APT: АРТ1 [29], АРТ2 [30] н АРТЗ [31], представляющих собой самоорганизующуюся нейросетевую реализацию алгоритмов кла-
392 Нейросетевые методы управления. Часть щ стеризации изображений. К этому же периоду относятся исследовщ^Т' Дж. Альбуса, автора нейросетевой модели, известной как «мозжечков*14 модель суставного регулятора (СМАС) [22]. Первоначально сети СМд^ применялись для управления роботом-манипулятором, хотя возможности этих структур значительно шире - они могут быть использованы для за поминания, восстановления и интерполяции функций многих переменных* Возрождение интереса к ИНС в большей мере связано с публикацией в 1982 г. работы Дж. Хопфилда, в которой исследовалась динамическая структура, предназначенная для. решения оптимизационных задач [50] Для сетей Хопфилда были разработаны методы обучения, основанные на правиле Хэбба. Значительный успех в области нейронных сетей прямого действия при- несла публикация в 1986 г. работы Д. Румельхарта, Дж. Хинтона и Р. Уильямса [75], в которой был предложен алгоритм обучения много- слойных сетей перцептронного типа, получивший название «метод обрат- ного распространения ошибки». Необходимо отметить, что метод был раз- работан и исследован еще в 1974 г. в докторской диссертации П. Вербоса [82], к сожалению, эта работа осталась незамеченной специалистами в об- ласти нейронных сетей. В 1982 г. Д. Паркер заново открывает метод [70] и в 1985 г. представляет его в техническом отчете Массачусетского техноло- гического института. Однако только ясное и четкое изложение материала Д. Румельхартом, Дж. Хинтоном н Р. Уильямсом приносит методу широ- кую популярность, и интерес к нейронным сетям н их приложениям при- обретает характер нейробума. В развитие теории многослойных нейрон- ных сетей значительный вклад внес российский ученый А.Н. Горбань - автор «принципа двойственности», позволяющего организовать эконом- ные вычисления векторов градиента сложных функций (функционалов) [3]. Решение этой задачи является основным этапом в процедуре обучения многослойных ИНС. Важный класс ИНС разработан финским ученым Тейво Кохоненом в 1982 г. [54, 55]. Самоорганизующиеся карты Кохонена являются мощным нейросетевым средством анализа н визуализации многомерных данных. Карты используются для отображения нелинейных статистических взаи- мосвязей иа легко интерпретируемые (обычно двумерные) решетки, под- черкивающие топологические и метрические зависимости анализируемых данных. Другие значительные разработки последних десятилетий - это создан- ная Б. Коско адаптивная двунаправленная ассоциативная память, бази- рующаяся на применении некоторых идей Хопфилда и Гроссберга [56]; вероятностные модели ИНС Дж. Хинтона и Р. Сежновского, На основе ко- торых Д. Акли разработал структуру, известную под названием «машины Больцмана» [48,49]. В этой нейросетевой архитектуре процесс обучения и принятия решений основан на моделировании процесса отжига .металла, подчиняющегося больцмановской статистике.
ГяяЯа 1, Функциональные особенности нейронных сетей____393 Представленный обзор дает лишь частичное представление о развитии дисциплины. Информация о нейросетевых парадигмах, не включенная в этот обзор, может быть почерпнута нз классического сборника статей под редакцией Дж. Андерсона и Е. Розенфельда [24]. Большинство из ранних работ области ИНС тщательно исследованы в монографии Н. Нильсона [68]. Некоторые интересные разработки представлены в популярном изда- нии Д. Румельхарта и Дж. Макклиланда [69]. Другим источником является отчет DRPA [34], дающий всесторонний и легко воспринимаемый обзор состояния проблемы. Проблемам теории и практики ИНС посвящено большое количество пе- риодических научных журналов, в частности, «Neural Networks» н «IEEE Transactions on Neural Networks». В России с 1992 г. издается журнал «Ней- рокомпьютер». 1.2. Определение искусственных нейронных сетей И ИХ КЛАССИФИКАЦИЯ Нейронные сети являются предметом исследования целого ряда дисци- плин, поэтому единое определение ИНС можно дать только с учетом раз- личных точек зрения, адекватных разным направлениям науки [2]. Математика / математическая статистика: ИНС - это системы, по- зволяющие сформировать описания характеристик случайных процессов (или их совокупности), сложные, многомодальные или априори неизвест- ные функции распределения. Математическая логика / теория автоматов: ИНС - это системы, в которых алгоритм решения задачи представлен логической сетью элемен- тов частного вида (нейронов) с полным отказом от булевских элементов типа И, ИЛИ, НЕ. Нейроны объединяются специфическими взаимосвязя- ми, носящими характер весовых коэффициентов. Теория управления: В качестве модели объекта управления или непо- средственно регулятора выбирается нейронная сеть, а динамический про- цесс ее настройки представляет собой процесс синтеза системы управления. Вычислительная математика / информатика: ИНС - структура, реа- лизующая алгоритм решения поставленной задачи, причем процесс вы- числений является более параллельным, чем в случае любой другой физи- ческой реализации. Вычислительная техника: ИНС (аппаратная реализация) - это вы- числительная система с архитектурой MSIMD [18], в которой реализованы два принципиально новых технических решения: * упрощен до уровня нейрона процессорный элемент однородной струк- туры и резко усложнены связи между элементами; • программирование вычислительной структуры перенесено на измене- ние весовых связей между процессорными элементами. 2S Зак. Ю8
394 __________ Нейросетевые методы управления. Часть Пт В общем случае ИНС может рассматриваться как направленный граф со взвешенными связями, в котором узлами являются элементарные пр0. цессорные элементы - искусственные нейроны [6]. По архитектуре связей ИНС могут быть разделены на два основных класса (рис. 1.1): сети прямо- го действия, в которых графы не имеют петель, и рекуррентные сети, или сети с обратными связями. Наиболее распространенным семейством сетей прямого действия яв- ляются многослойные перцептроны, в них нейроны расположены слоями и соединены однонаправленными связями, идущими от входа к выходу сети. Сети прямого действия являются статическими в том смысле, что на за- данный вход они вырабатывают одну совокупность выходных значений, не зависящих от предыдущего состояния сети. Рекуррентные сети являют- ся динамическими, так как в силу обратных связей в них модифицируются входы нейронов, что приводит к изменению состояния сети. В настоящей работе рассматривается категория многослойных сетей пер- цептронного типа, предназначенных для реализации нелинейных отображе- ний входо-выходных последовательностей экспериментальных данных. Искусственные нейронные сети (НС) Нейронные сети нрнмого действия Рекуррентные нейронные сети (с обратными связями) Однослойные Многослойные перцептроны перцептроны Сеги РБФ Соревнова- тельные сети Сети Кохонеив Сети Хопфклдл Модели APT Рис. 1.1. Классификация ИНС 13. Структура технического нейрона Впервые формализованная математическая и Питтс работана У.С. Мак-Каллоком И У. Питтсом [66]. ый пороговый предложили использовать в качестве модели нейрона и форми- элемеит, вычисляющий взвешенную сумму входных оПредв- рующий на выходе сигнал величины 1, если эта сумма „астоя111ему вРе' ленное пороговое значение, и 0 - в противном случае.
Глава 1. Функциональные особенности нейронных сетей 395 мени модель искусственного нейрона не претерпела существенных изме- нений, за исключением, быть может, введения различных типов активаци- онных функций. Структурная схема искусственного нейрона представлена на рис. 1.2. Рис. 1.2. Формальная модель искусственного нейрона На вход искусственного нейрона поступает некоторое множество сиг- налов (р{ (< = 1,п), каждый из которых является выходом другого нейрона или входным сигналом нейросетевой модели. Каждый вход умножается на соответствующий вес, аналогичный синаптической силе, все произведения суммируются, определяя уровень активации нейрона s. Данное преобра- зование с математической точки зрения эквивалентно скалярному произ- ведению вектора входов ф и вектора весовых коэффициентов нейрона W. Далее скалярный сигнал s преобразуется активационной (передаточ- ной) функцией нейрона F в выходной сигнал у. Таким образом, формаль- ный нейрон реализует отображение R п —> Л1 в соответствии с соотноше- нием: (1.1) где ф(', / = 1,л - входы нейрона; п - размерность вектора входов; wit i-l,n - весовые коэффициенты нейрона, настраиваемые в процес- се обучения; w0 - «нейронное смешение», вводимое для инициализации сети, - подключается к неизменяемому входу ф0 = +1; F(*) - активационная функция нейрона. Наибольшее распространение получили следующие активационные функции (рис. 1.3): 1) линейная (рис. 1 .За): F(x) = kx-, (1.2) 2) функция гиперболического тангенса (рис. 1.36): F(x) = th(x) = (ex-e"x)/(ex+e‘x); (1.3) 25’
396 _________Нейросетевые методы управления. Часть Пт 3) сигмоидальная (рис. 1.Зе): F(x) = 1/(1 + ₽’*); (1.4) 4) бинарные функции различного определения, например (рис. 1.3г): F(x) = sign(x). (1.5) Рис. 13. Активационные функции искусственных нейронов: а -линейная; б - гиперболический тангенс; в - сигмоидальная-, г — пороговая (ступенчатая) Рассмотренная простая модель искусственного нейрона игнорирует многие свойства своего биологического прототипа. Например, она не при- нимает во внимание задержки по времени, которые воздействуют на дина- мику системы: входные сигналы сразу порождают выходной сигнал. Так- же не учитывается влияние функции частотной модуляции или синхрони- зирующей функции биологического нейрона, которые с биологических по- зиций считаются решающими. Несмотря на эти несоответствия, сети, построенные из формальных ней- ронов, обнаруживают свойственные биологическим системам особенности. Более того, при подобранных соответствующим образом весовых коэффи- циентах совокупность параллельно функционирующих нейронов подобного типа способна выполнять универсальные вычисления. 1.4. Многослойные нейронные сети и их аппроксимирующие свойства Нейроны могут группироваться в сетевую структуру различным обра- зом. Функциональные особенности нейронов н способ их объединения в
Глава 1. Функциональные особенности нейронных сетей 397 сетевую структуру обуславливают ту или иную парадигму нейронной се- ти. Для решения задач идентификации и управления наиболее адекватны- ми, без сомнения, являются многослойные нейронные сети (МНС) прямо- го действия или многослойные перцептроны (МСП). При проектировании МНС нейроны объединяются в слои, каждый из которых обрабатывает вектор сигналов ОТ предыдущего слоя (или входной вектор). Минимальной реализацией является двухслойная нейронная сеть, состоящая из входного (распределительного), промежуточного (скрытого) и выходного слоя. При подсчете числа слоев входной слой обычно не учитывается, так как служит лишь для распределения входных сигналов по нейронам последующего слоя. На рис. 1.4 представлена структурная схема двухслойной НС прямо- го действия. Сигналы в сети распространяются от входа к выходу, связи между нейронами одного слоя и обратные связи отсутствуют. Фз < Wu <р2'_ W21 F,(‘) W12 W1I Wil W10 пгг Фг-' w» j wio Рис. 1.4. Структурная схема ** лйпониоЙ Реализация модели двухслойной нещю ВЫ1ОДОВ-2) дейяяя *»ш1изация модели диулълм..-— пиление: имеет следующее математическое пред * +tf,0 ’ (1.6) 5|(6) = у,-(0) = y,(w. W) ® Ъ нейронной сети, гДе Яф - размерность вектора входов Ф чаЮщий nh ~ число нейронов в скрытом сдое, кронной сети, вкЛ1° • ~ вектор настраиваемых параметро#* весовые коэффициенты и нейронные сме сКрытого слоя, f ~ активационная функция выхоДНоГО сЛ°*‘ ^(*) - активационная функция нейро
398 _______________Нейросетевые методы управления. Часть Пт Необходимо показать, что МНС, имеющая математическое представле- ние в форме (1.6), при условии соответствующего выбора активационных функций н весовых коэффициентов может быТь использована в качестве модельной структуры для решения задачи идентификации. Предположим что дискретная динамическая система может быть представлена как неко- торая функция (в общем случае, нелинейная) от предыдущих значений входов и и выходов у: y(t) ~ f (y(t ~ 1) y(t-n),u(t-l) u(t - т)). (1.7) Естественно предположить, что МНС может аппроксимировать функ- цию (1.7) при условия, что в качестве вектора входов сети ф выбираются п предыдущих значений выходов системы и т предыдущих входов^ Рассмотрим функционирование МНС как совокупности взаимосвязан- ных элементарных элементов (нейронов) с математической точки зрения. Кавдый структурный элемент МНС получает на входе вектор сигналов <р, вычисляет его скалярное произведение на вектор весовых коэффициентов нейрона W и некоторую функцию F в выходной сигнал у. Результат по- ступает на входы других нейронов иля на выход. Таким образом, нейрон- ные сети вычисляют суперпозиции функций одного переменного и их ли- нейные комбинации. Для обоснования возможности использования МНС в качестве моделей динамических систем нужно получить ответ на вопрос: можно ли произвольную непрерывную функцию и переменных получить с помощью операций сложения, умножения и суперпозиции функций одно- го переменного? В серии работ АЛ. Колмогорова и В.И. Арнольда решена следующая математическая проблема (составляющая существо тринадцатой проблемы Гильберта): любую непрерывную функцию п переменных можно получить с помощью операций сложения, умножения и суперпозиции из непрерыв- ных функций одного переменного. На основе этих работ (суть которых из- ложена в [4]) доказан ряд теорем [27, 33, 39, 47] об аппроксимации непре- рывных функций многих переменных нейронными сетями с использова- нием практически произвольной функции одного переменного. Помимо подтверждения общих аппроксимирующих свойств МНС необходимо по- лучить ответы на ряд частных вопросов, касающихся структуры сети: Сколько скрытых слоев должна содержать нейронная сеть? Сколько нейронов должно быть включено в каждый слой? Какой тип активационной функции должен быть выбран? В работе [33] показано, что любая-непрерывная нелинейная функция может быть аппроксимирована с достаточной точностью нейронной сетью с одним скрытым слоем, содержащим нейроны с сигмоидальными (или типа «гиперболический тангенс») функциями активации, и выходным сло- ем, содержащим нейроны с линейной активационной функцией. Попытка исследования влияния числа нейронов в скрытом слое на аппроксими- рующие свойства сети сделана в работе [27], однако полученный результат практически невозможно применить на практике.
у^ана 1, Функциональные особенности нейронных сетей 399 Тем не менее результаты исследований, представленные в работах [27, ЗЗ 39, 47], подтверждают универсальные аппроксимирующие свойства нейроННЫХ сете**’что позЬоляет сделать вывод о возможности использова- лия МНС в качестве модельных структур при реализации процедуры идентификации. В настоящей работе рассматривается минимальная реализация МНС в соответствии с выражением (1.6) и активационными функциями типа «ги- перболический тангенс» (1.2) для нейронов в скрытом слое и линейными аКТивационными функциями (1.3) нейронов выходного слоя. Возможно, репрезентативные способности МНС могут быть улучшены путем введе- ния дополнительных скрытых слоев, особенно в случае моделирования сложных взаимосвязей. Однако усложнение структуры нейросети приво- дит к значительным трудностям при практической реализации, параметри- ческой оптимизации (обучении) и последующем анализе МНС. Это объяс- няет факт использования именно минимальной реализации МНС в боль- шинстве технических приложений. 1.5. Сравнительный анализ нейросетевых вычислительных структур и ТРАДИЦИОННОГО программного обеспечения Традиционные программы выполняют точно установленные инструк- ции в определенный момент времени. В процессе выполнения вычислений в соответствии с традиционной программой для ЭВМ шаг за шагом произ- водится последовательность действий, пока не будет получен некоторый результат. Прохождение данных по нейронной сети и их преобразования, напротив, не могут быть заранее определены по причине иерархической структуры сети и распределенности по связям весовых коэффициентов. Кроме того, входные данные могут быть недоопределены или определены нечетко, что в традиционных программах не представляется возможным. Поставленная задача может быть решена нейросетью, даже если входная информация не рассматривалась ранее при обучении, при условии, что об- рабатываемые данные не выходят за предъявляемые к ним ограничения. Нейронные сети занимают небольшой объем памяти, так как сохраняется лишь структура нейронной сети и матрица весовых коэффициентов; Аппа- ратные реализации ИНС идеально подходят для решения задач идентифи- кации и управления, так как обеспечивают, благодаря параллельной струк- туре, чрезвычайно высокую скорость выполнения операций. Для решения таких прикладных задач, как прогнозирование и выдача рекомендаций (управление) на основе анализа данных могут быть исполь- зованы как экспертные системы, так и нейронные сети. Основное преиму- щество нейронных сетей заключается в возможности избежать традицион- ной процедуры программирования и сбора информации (или «знаний») при помощи экспертов или конечных пользователей. При создании экс-
400 Нейросетевые методы управления. Частьтц пертных систем, наоборот, требуется проводить «интервью» с экспертами для получения «правил» поведения исследуемой системы при определен- ных условиях, что требует значительных временных затрат и материалу ных вложений. Более того, процедура получения экспертных оценок мо- жет не дать желаемого эффекта, так как нет гарантии, что все необходи- мые правила будут получены и что экспертная система будет работать в различных (изменяющихся) условиях. Дополнительное преимущество нейронных сетей состоит в способно- сти выделять общие принципы (обобщение) при предъявлении некоторого набора обучающих векторов с неполным набором данных (абстрагирова- ние). Необходимо также отметить способность ИНС получать желаемый выход в случае неполного или нечеткого набора данных, что приводит к ошибочным результатам в случае использования традиционных компью- терных алгоритмов н программ. Способность нейронных сетей выделять взаимосвязи в эксперимен- тальных данных, к сожалению, связана с невозможностью проследить, ка- ким образом этот результат достигнут. То есть нейронная сеть представля- ет собой если ие «черный ящик», то, по крайней мере, ящик с полупро- зрачными стенками. Тем не менее при сравнении входных данных и от- кликов нейронной сети некоторые тенденции могут быть прослежены н получено объяснение того или иного поведения нейросети. Не следует недооценивать трудоемкости процедуры обучения нейрон- ной сети. Набор обучающих векторов должен быть составлен таким обра- зом, чтобы точно описать задачу н граничные условия обучения нейросе- ти. Так же как и прн обучении человека, именно качество примеров, на ко- торых производится обучение, определяет дальнейшую работоспособность системы.
~*ав^Л^?еализацня процедуры идентификации 401 ГЛАВА 2 РЕАЛИЗАЦИЯ ПРОЦЕДУРЫ ИДЕНТИФИКАЦИИ ДИНАМИЧЕСКИХ СИСТЕМ НА ОСНОВЕ НЕЙРОСЕТЕВЫХ МОДЕЛЬНЫХ СТРУКТУР В настоящей главе рассматривается комплексный формализованный подход к реализации многоэтапной процедуры идентификации динамиче- ских объектов с использованием нейросетевых модельных структур. Нейро- сетевые методы идентификации рассматриваются как естественное развитие традиционной теории линейных систем, методов оптимизации функций многих переменных, нелинейной регрессии. Особое внимание уделяется практическим аспектам: созданию репрезентативной выборки эксперимен- тальных данных и их предварительной обработке, рациональному выбору структуры нейросетевой модели, адаптации алгоритмов поиска минимума функций многих переменных к обучению нейронных сетей, проверке адек- ватности полученной модели, структурной оптимизации нейросетевых мо- делей с целью улучшения рабочих характеристик. В качестве основной за- дачи рассматривается построение логически законченной процедуры, по- зволяющей пользователю получить эффективные нейросетевые модели сложных нелинейных динамических объектов. 2.1. Основные этапы процедуры идентификации Задача идентификации состоит в построении оптимальной в силу неко- торого критерия модели (формализованного описания) по результатам на- блюдений над входными и выходными переменными системы [9]. На практике реализация процедуры идентификации (рис. 2.1) требует реше- ния целого ряда вспомогательных задач, основными из которых являются: • планирование / проведение эксперимента и предварительная обработка экспериментальных данных; • выбор модельной структуры; м • оценка (оптимизация параметров) модели;
402 • принятие решения об адекватности модели. Прокомментируем каждый из этих этапов. | Проведение эксперимента | Выбор структуры модели 14- Оценка модели | (оптимизация параметров) I Принятие решения об адекватности модели -------------------- адекватна не адекватна Рис. 2.1. Обобщенная схема реализации процедуры идентификации Планирование/ проведение эксперимента. Основной задачей на данном этапе идентификации является сбор необходимого количества данных во всем рабочем диапазоне системы: ZN в{[«(/),у(О]> f = (рис. 2.2). Полнота и достоверность данных во многом определяют качест- во идентификации. Значения входных и выходных сигналов могут регист- рироваться в процессе проведения целенаправленных идентификационных экспериментов, когда пользователь может определить перечень и моменты измерения сигналов, причем некоторые из входных сигналов могут быть управляемыми. Задача планирования экспериментов, таким образом, со- стоит в том, чтобы, учитывая возможные ограничения, выбрать макси- мально информативные данные о сигналах системы. В ряде случаев поль- зователь может быть лишен возможности влиять на ход эксперимента и должен опираться на данные наблюдений в режиме нормальной эксплуа- тации. Основными моментами на этапе планирования / проведения экспе- римента являются рациональный выбор частоты дискретизации; синтез входного (тестового) сигнала; фильтрация, удаление из эксперименталь- ных данных нежелательных эффектов (трендов, случайных (необоснован- ных) «выплесков» сигнала); тестирование на нелинейность. Выбор структуры модели. Множество моделей-кандидатов устанав- ливается посредством фиксации той группы моделей, которые подходят для описания исследуемой системы (например, ARX или ARMAX моде- ли). Затем общая форма представления модельной структуры должна быть конкретизирована на основе сведений об общей динамике системы (на- пример, ARX(2,2,1), где описание (2, 2, 1) определяет временную задерж- ку на один период дискретизации и зависимость текущего выходного сиг- нала системы от двух предыдущих входов и двух предыдущих выходов). То есть необходимо определить вектор входов (регрессор) для выбранного
Глава 2, Реализация процедуры идентификации____________ 403 семейства моделей-кандидатов. В случае использования нейросетевых мо- делей значительную роль играет не только выбор регрессора, ио и задание внутренней структуры НС - числа скрытых слоев и количества нейронов в каждом скрытом слое. Возмущения, v(t) Вход, и(») * СИСТЕМА --------->. Выход, у(г) Рис. 2.2. Схема получения множества Z* =([u(0,)4«)],r = l,Nl иаэтапе экспериментальных данных проведения эксперимента Выбор модельной структуры является наиболее важным и в то же вре- мя наиболее трудоемким этапом процедуры идентификации. На этом этапе знание формальных свойств моделей необходимо соединить с априорным знанием об объекте, инженерным искусством и интуицией. Оценка модели. После принятия решения об использовании некоторой модельной структуры необходимо выбрать определенную модель, наи- лучшим образом удовлетворяющую некоторому критерию. Традиционной стратегией оценки модели являются результаты оценки одиошагового ShZZXpZXS1 1». 5. и. Принятие решения об адекватности молю™ п должна быть адекватна реальной системе и условийСТроенная модель полагается использовать. Этап установления алек^™ КОТОрвд W W ния) модели требует непосредственного участия moT*™ (подтаеРЖДе- Если полученная модель не удовлетворяет каком”^ра'₽адРа6(^ика. вторяются предыдущие этапы процедуры ВДентификаи™^^1110’То По* ведения новой серии экспериментов. ч"«мщии, вплоть до про. Таким образом, алгоритм реализации процедуры ИЗг,^А вдает следующую естественную логику действия- пере- брать множество моделей; выбрать наилучшую в ДаЮше' вы- принять решение о возможности (невозможности) испалМИ0ЖеСТ8е И0Дадь; Результатом осуществления первых трех этапов то^°В№КЯ модели. ’ кадии является конкретная модель - одна из множествд^^ ^«тафи- выбором модельной структуры, причем такая, коптя» ’ Определеиного рад в ^вегстввд с
404 Нейросетевые методы управления, щ выбранным критерием наилучшим образом воспроизводит данные ня^д. дений. Вполне вероятно, что первая из найденных моделей не выдержит про. верки на этапе подтверждения. В этом случае повторяется один (или не- сколько) из предыдущих этапов процедуры идентификации. Существует несколько причин несовершенства моделей, обусловли- вающих повторение того или иного этапа процедуры идентификации: • численный метод не позволяет найти наилучшую по выбранному кри- терию модель: рекомендуется возврат к этапу оценки модели (возмож- но, в результате градиентной процедуры оценки достигнут локальный минимум); • критерий оценки выбран неудачно: рекомендуется выбор иного (воз- можно, регуляризованного) критерия оптимизации с последующим возвратом на этап оценки модели; • множество моделей оказались неполноценными в том смысле, что в этом множестве вообще нет «достаточно хорошего» описания системы: рекомендуется переход на стадию выбора модельной структуры (воз- можно, усложнение модели). В случае использования нейросетевых модельных структур проблема может быть решена путем выбора заве- домо достаточно «большой» модельной структуры, которая впоследст- вии подвергается структурной оптимизации; • множество данных наблюдений не было достаточно информативным для того, чтобы обеспечить выбор хороших моделей: рекомендуется переход на этап планирования / проведения эксперимента. Возможно, некоторые режимы из рабочего диапазона системы ие были отражены в полученных экспериментальных данных. . По существу, главным в приложениях идентификации является итера- тивное решение всех этих вопросов, особенно третьего, на основе априор- ной информации и результатов предыдущих попыток [9]. 2.2. Выбор модальной структуры В настоящем параграфе представлены нелинейные модельные структу- ры, реализованные на МНС, предназначенные для идентификации стохас- тических динамических систем. Прототипами нейросетевых моделей яв- ляются линейные представления динамических систем, рассмотренные в главе 1 настоящей работы. Значительное внимание уделяется выбору внешней и внутренней структуры нейросетевых моделей. Введем строгие определения системы, модельной структуры и модели в соответствии с терминологией, принятой в [9]. реальная система S может быть представлена следующим образом: 5:у(0 = 8о<Ф(г» + ео(0. (2.1)
405 „ aan2 Реализация процедуры идентификации ряяв» "* ~.... ——. । где go^'» " некот°Рое нелинейное отобРажение> реализуемое системой; ф(г) - регрессионный вектор; go(r) - сигнал типа «белый шум», не зависящий от входов системы. Модельная структура (Af) представляет собой параметризованное множество моделей-кандидатов: А/: {^(ф(Г.е),е)|в€Ом}, (2.2) У(О = g(<P(f,e),O)+e(t), где 0 определяет набор р настраиваемых параметров модели; (2.3) DM - некоторое подмножество пространства Rp, на котором осуще- ствляется поиск конкретной модели. Прогнозирующая модельная структура может быть представлена в сле- дующем виде: y(t|®) = Я(Ф(Г,е),е). (2.4) Основным требованием к модельной структуре является принадлеж- ность реальной системы S множеству моделей. М\ Se М. (2.5) Моделью М называется описание типа (2.4) при условии конкретно- го задания вектора 0 = 8*: М *: М * = Af (в*); в‘ е DM. (2.6) Таким образом, задача идентификации состоит в построении некоторой (в общем случае, нелинейной) функции £(ф(т,8),8), где ф(/) - регресси- онный вектор, а 0 - вектор параметров, настраиваемых в процессе реали- зации алгоритма идентификации. 2.2.1. Базовые нейросетевые модельные структуры Проблема идентификации нелинейных динамических систем связана с чрезвычайной трудностью выбора структуры модели. Способность много- слойных нейронных сетей моделироввть произвольные нелинейные не- прерывные функции в результате обучения на множестве примеров позво- ляет эффективно решать данную проблему. Реализация модельной структуры на двухслойной нейронной сети (с учетом (1.37), (2.2) и (2.3)) имеет следующее математическое представление: ««₽а.в),е)=у(т|е)=y,('l<w’W))s Wjo +W0 , (2.7) где f(x) = th(x) (2.8)
__ III 406 Нейросетевые методы управления. Част;-------------------------- - активационная функция нейронов скрытого слоя; F(x) = кх; к = const - активационная функция нейронов выходного слоя; лф -размерностьрегрессионного вектора (число входов НС); nh - число нейронов в скрытом слое; О - вектор настраиваемых параметров нейронной сети, вюпочаюШИЙ весовые коэффициенты и нейронные смещения . Использование МНС в качестве модельных структур предполагает ре- шение двух основных проблем: • выбор вектора входов (регрессора) нейросетевой модели; • выбор внутренней структуры нейронной сети. Вполне естественным способом построения нейросетевых модельных структур является использование методов идентификации на основе ли- нейных моделей. Этот подход.обладает следующими преимуществами: • определение регрессионного вектора базируется на хорошо изученных методах построения линейных структур (см. главу 1); внутренняя струк- тура МНС может расширяться в зависимости от степени сложности не- линейных отображений (2.4); • уровень сложности выбора модельной структуры может быть значи- тельно снижен, что является существенным при использовании метода конечными пользователями (технологами); • полученные модели могут быть использованы для синтеза систем управления. Нейросетевые модельные структуры могут быть представлены векто- ром входов (регрессором) и обобщенной формой описания прогнозирую, щей модели в соответствии с выражением (2.4). В качестве базовых нели- нейных нейросетевых модельных структур могут быть использованы сле- дующие модификации линейных регрессионных моделей: NNARX (Neural Network - based AutoRegressive exogenous signal) _ нейросетевая авторегрессионная модель, экзогенный тип сигналов. Регрессор: ф(/,в) = [у(Г-1)...у(г-лв) и(г-л*)...и(г-ль-л* + 1)]Т. (2.10) Прогнозирующая модель: y(t|e) = y(r|r-l,e) = g(9(t),e). (2.11) Модели NNARX, так же как их линейные прототипы, являются устой- чивыми, так как представляют собой простую алгебраическую зависи- мость между прогнозируемым выходом и предшествующими значениями входов и выходов системы. Это свойство, особенно важное в случае моде- лирования нелинейных систем, обусловливает предпочтение, отдаваемое NNARX-моделям в случае идентификации детерминированных объектов с низким уровнем измерительных шумов.
Глава 2. Реализация процедуры идентификации 407 NNARMAX1 (Neural Network - based AutoRegressive, Moving Average exogenous signal, вариант 1) - нейросетевая авторегрессионная модель скользящего среднего, экзогенный тип сигналов; вариант 1. Регрессор: Ф(г, в) = [у (г -1),..., у (t - па), u(t - п к),.. ..., u(t *- nb - пк +1), e(t -1).e(t - пс)]т = (2.12) = [ф?" (О, e(t -1),e(t - пс )]Т, где e(r) = y(f) - y(t |0) - ошибка прогнозирования. Прогнозирующая модель: уО|в) = 8(ф1(0.в)+(С(9*‘)-1)е(0. (2.13) где С(<у"1) = 1 + <?19~1 +..- + cnq~n - полином от оператора запаздывания q. Несмотря на тот факт, что функция g реализуется на МНС прямого действия, прогнозирующая модель (2.13) имеет обратные связи: ошибка прогнозирования зависит от выходного сигнала МНС у. Для линейного случая (модель ARMAX) устойчивость модели может быть установлена путем анализа корней полинома С, в случае нейросетевой реализации про- вести анализ устойчивости модели значительно сложнее. Обычно устой- чивость МНС-модели является локальной: NNARMAX-модель может быть устойчива в одном рабочем режиме и неустойчива в другом, что является существенным недостатком в случае практического применения. NNARMAX2 (Neural Network - based, AutoRegressive, Moving Average, exogenous signal, вариант 2) - нейросетевая авторегрессионная модель скользящего среднего, экзогенный тип сигналов; вариант 2. Регрессор: ф( t, 0) = [y(t -1),y(t - па )u(t - пк)......u(t - nb - nk +1), т г -|T <2Л4) E(t-l),...,e(r-Hc)] =^(t),e(t-l),...,e(t-nc)J . Прогнозирующая модель: у(ф) = «(Ф(0.е). (Z.15> Данный вариант NNARMAX-модели обладает теми же преимущества- ми и недостатками, что и NNARMAX1. Отличие заключается лишь в представлении скользящего среднего непосредственно нейросетевой мо- делью (без использования полинома С). NNSSIF(Neural Network - based, State Space Innovations form) - нейро- сетевая модель типа «обновлений пространства состояний». Регрессор: Ф(г) = [хт(г|0) ит(0 eT(t|O)]T, (2.16)
408 __________Нейросетевые методы управления. Часть Ш Прогнозирующая модель: х(/ + 1|в) = «(Ф(0.0). j)(rj0) = C(0)X(r|0). (2Л7) Расширение модели обновления пространства состояний [9] иа случай нелинейных модельных структур значительно сложнее, чем при модифи- кации линейных входо-выходных описаний динамических систем. Как и для случая NNARMAX-моделей, существенную роль играет проблема анализа устойчивости. Более того, значительно усложняется вопрос уста- новления идентифицируемости. В некоторых случаях проблемы могут быть решены путем введения нескольких нейросетевых структур для про- гнозирования отдельных частей вектора состояний. Нейросетевые модели типа NNSSIF могут рассматриваться как расши- ренный нелинейный фильтр Калмана [9,58]. При идентификации динамических систем помимо вышеперечислен- ных базовых моделей могут быть использованы их комбинации и модифи- кации. На выбор конкретной модельной структуры могут влиять априор- ные знания о физических принципах функционирования системы. 2.2.2. Основные критерии выбора модельной структуры При использовании НС моделей для реализации процедуры идентифи- кации нелинейных динамических систем необходимо решить задачу выбо- ра вектора входов НС (регрессора) и определить внутреннюю структуру нейросети. Методика выбора регрессора основывается на наличии априорных зна- ний о системе (процессе). Определение внутренней структуры нейросете- вой модели является более сложной и неоднозначной задачей. Приведем несколько эмпирических правил, которые могут быть эффек- тивно использованы при практической реализации. Рассмотрим регрессор Ф(0 = [<₽!...<р(<]т = [ф1(г-1)...ф1(г-и)...ф^(т-1)...ф<<(г-л)]т, (2.18) где ф( - i -я компонента регрессора, п - «глубина» регрессии. Выбор регрессора подразумевает определение компонент регрессора Ф/ и глубины регрессии, т.е. количества л значений компонент регрессора в предыдущие моменты времени. В качестве компонент регрессора обыч- но используются те параметры системы (процесса), которые могут быть непосредственно измерены (или оценены) в режиме функционирования. Выбор глубины регрессии определяется динамикой системы, поэтому при отсутствии необходимой априорной информации может быть осуществлен путем последовательного увеличения п и проверки адекватности модели. Другой способ - выбор заведомо большого значения л и проведение по- следующей структурной оптимизации модели.
409 2 реализация процедуры идентификации структура нейросетевой модели полностью определяется ^^лоом и набором параметров, значение которых необходимо про- т,е, одело входов (число нейронов во входном слое МНС) оп- егся количеством элементов регрессора, число выходов (число ней- ределя^ вых0ДН0М слое) определяется количеством прогнозируемых вели- р0Й°При выборе внутренней структуры нейросетевой модели должен быть Чедучен ответ на следующие вопросы: Й сколько скрытых слоев должна содержать НС? какое число нейронов должно быть в каждом скрытом слое? • какой вид активационной функции должен быть выбран? Ответы на эти вопросы так или иначе зависят от характера взаимосвя- зей «вход-выход», которые должны быть реализованы НС. В первой главе настоящей работы показано, что любые непрерывные функции могут быть аппроксимированы с заданной точностью при помощи нейросети, содер- жащей один скрытый слой нейронов с сигмоидальными функциями акти- вации и выходной слой с линейными активационными функциями. Однако вопрос о числе нейронов в скрытом слое остается открытым. Следует от- метить, что увеличение числа нейронов в скрытом слое и увеличение чис- ла скрытых слоев повышают репрезентативные возможности нейронной сети, т.е. дают возможность моделировать более сложные взаимосвязи, но приводят к увеличению временных затрат как иа обучение МНС, так и на работу в режиме прогнозирования. В силу простоты применения, обучения и статистического анализа обычно применяются НС, содержащие один скрытый слой нейронов с сигмоидальными функциями активации и вы- ходной слой с линейными активационными функциями. Число нейронов в скрытом слое определяется сложностью взаимосвязей «вход-выход». Незначительные изменения внутренней структуры нейросетевой моде- ли, как правило, не оказывают существенного влияния на ее качество, то- гда выбор глубины регрессии, т.е. числа отсчетов сигналов в предыдущие моменты времени, играет решающую роль. Недостаточная глубина регрес- сии приводит к модели, в которой не учтена существенная часть динами- ческих свойств, чрезмерная глубина регрессии также становится причиной Ряда проблем [9,45]. В последующих разделах будут представлены специальные методы оп- тимизации НС-моделей, использующие в качестве основного алгоритма о^еД°вательное сокращение структуры НС-модели вплоть до получения пвобМаЛЬН°Й‘ Однако инициализация НС-модельной структуры методом венн И ОШи®ок является трудоемкой процедурой, что приводит к естест- МУ выбо ЖеланиК) получить какие-либо рекомендации по первоначально- ДУет еш РУ КаК глубины Регрессии, так и внутренней структуры НС. Сле- Рощает п °™етить>41X5 правильный выбор регрессора значительно уп- вия апри₽°ЦеДУРУ инициализаДии нейросетевой модели. В случае отсутст- При»еденнь^°Й инФ°Рмации ° порядке системы могут быть использованы ые выше эмпирические правила оценки необходимой глубины
410 Нейросетевые методы управления. Часть III регрессии. В работе [58] предложили подход к оценке глубины регрессии для детерминированных моделей, основанный на предположении о воз- можности представления реальной системы достаточно гладкой функцией регрессоров. Подобный метод для систем, подверженных влиянию внеш- них возмущающих воздействий, предложен в работе [72]. Далее приводит- ся основная концепция методов определения глубины регрессии. Предположим, что реальная система может быть представлена моде- лью типа NNARX: y(t) = g(ф(т), в). Регрессионный вектор задай следующим выражением: Ф(О = [Ф| Ф2 Фз - Ф«]Т = = [у(/-1) - y(f~n) n(t-d) ... u(r-d-m)]T. Имеется множество экспериментальных данных, состоящее из N пар «вход-выход»: (2.19) Z/V={[<P(O.y(O]. г = 1Л}- (2.20) Предположим, что амплитуда производных реальной системы по каж- дому регрессору ограничена некоторым положительным значением В: (2.21) Для всех возможных сочетаний пар «вход-выход» вводится коэффици- ент Липшица где |«| обозначает евклидову норму. В соответствии с условием Липшица для непрерывной функции gQ коэффициенты являются ограниченны- ми,т.е. OSty <,L. Введем в рассмотрение следующие дифференциалы: 5у = у(Г() - y(tj), =Ф/(^)~Ф/(^). При малом значении 8ф/ имеет место следующее соотношение; 8у = ^*6ф|+^"5ф2+‘+‘^“5фг = ^>8ф' + ^2бф2+”' + й"8ф«- (2,23) Оф| 0фг Следовательно, коэффициент Липшица должен соответствовать выражению = И . |818ф,+Ъбфг1--И.6ф.| s fzB (2.24) 7<бф|)г+-+(8ф1)1 где верхний индекс <г) относится к общему числу регрессоров; gt - част- ные производные, определяемые в соответствии с выражением (2.21). Ис-
(2.25) ^^2.Реализация процедуры идентифика,,^ »°неНТ м отношение (2.24) принимает следующий вид* । fol ^(8ф>)2+"‘+(8<р()2 _ у(8ф,)^-ч-(8ф,)2 kfr.ufr.+.-nJ, ,/(8ф,)2 + -+(&Р1.,)2 т/(8ф,)а+’..+(8ф1)1 в качестве предельного варианта положим, что 8ф, =0 для всех I, за исключением I — z • В случае, если выход зависит от z-компоненты, суще- ствуют точки, в которых 8у * 0. Таким образом, пренебрежение z- компонентой приводит к бесконечному коэффициенту Липшица. В общем случае вероятность существования такого предельного варианта в множе- стве экспериментальных данных невелика, однако можно предположить, что недостаточное число компонент регрессора приведет к чрезвычайно большим значением коэффициента. Более того, нехватка нескольких ком- понент приведет к значительному возрастанию коэффициента. Избыточное число компонент регрессора. Большое число компонент (значений сигналов в предыдущие моменты времени) приводит к избы- точности информации, содержащейся в регрессионном векторе. Рассмот- рим случай включения одной дополнительной компоненты в регрессной ный вектор: = lSyl = iJ V(8<Pi)2 + - + (8фг+1)2 (2.26) 7(3ф1)2+--- + (3фг)2^ |gi&Pi + g28(P2+""t'gB^ ' J(S<p,)2+-+(8<p„1)2’ Очевидно, что дополнительная компонента оказывает & небольшому ное влияние на коэффициент Липшица, т.е. приводит уменьшению коэффициента. „„тллшей процедур*21 Рассмотренные особенности положены в основу следующей пр определения оптимального регрессионного вектора. Липшица • Для заданной глубины регрессии определить коэффииисн Для всех возможных комбинаций пар «вход-выход», /ogu4Ho иаи- • выбрать p=0,01N~0,02N наибольших коэффициенте большие коэффициенты возникают при небольпю • произвести оценку критерия
412 Нейросетевые методы управления. Часть дп 1 *=1 ) (2.27) . повторить вычисления для ряда структур регрессора (последовательно увеличивая глубину регрессии); • построить зависимость критерия от глубины регрессии и выбрать оп- тимальное значение как абсциссу точки излома. Вычисление всех значений коэффициентов для различных структур регрессионного вектора является чрезвычайно трудоемкой процедурой даже при использовании процессоров с высоким быстродействием. Осо- бенно сильно этот недостаток проявляется при больших значениях N и значительных вариациях структуры регрессора. Поэтому рекомендуется производить пошаговое одновременное увеличение числа предыдущих значений входа и выхода. Применение метода к оценке экспериментальных данных, полученных в результате моделирования нелинейной системы второго порядка, приве- дено на рис. 2.3. 23. Планирование и проведение эксперимента Основной задачей на стадии планирования и проведения эксперимента является получение множества данных о функционировании реальной сис- темы, необходимых для дальнейшей параметрической оптимизации вы- бранной модельной структуры. Достоверность и информативность входо-
413 ^^р_реализация процедуры идентификации хОдных данных tN ={[и(г).у(О], t = l,JV] в большей мере определяет ество модели. Особенное значение данный этап имеет при идентифи- K9«hh нелинейных систем. Наиболее существенными моментами на этапе аиирования и проведения эксперимента являются: проверка системы на нелинейность; • разработка и реализация тестирующих (входных) сигналов с целью по- лучения информативного множества экспериментальных данных; • предварительная обработка экспериментальных данных. Несмотря на тот факт, что разработка и размещение датчиков на реаль- ном объекте также являются составной частью проведения эксперимента, в настоящей работе предполагается, что системаизначально оснащена не- обходимыми датчиками и, таким образом, входо-выходные последова- тельности являются доступными. Кроме того, предполагается наличие возможности управления входными сигналами в соответствии с выбран- ным законом их изменения. В большинстве случаев данные предположе- ния вполне допустимы. 23.1* Тестирование системы на нелинейность В случае, когда процедура идентификации проводится с целью полу- чить модель реального объекта, пригодную для дальнейшего синтеза регу- лятора, достаточно часто пользуются линейными моделями, несмотря на нелинейность реальной системы. Основной причиной является значитель- ная простота синтеза систем управления по линейным моделям. Возмож- но, в некоторых случаях использование линейных моделей может быть вполне обоснованно. Далее предлагается ряд тестов, на основе которых возможно принять решение о целесообразности использования линейной (нелинейной) модели. Проверка принципа суперпозиции. Основными условиями линейно- сти системы является выполнение принципа суперпозиции (2.28) и гомо- генности (2.29) системы: у(0 = £(Ф 1 (0+<Рг W) = £(Ф1(0)+(2.28) у(г) = я(аф(г)) = <Х£(ф(г)), (2.29) где ф( - последовательности входных сигналов; $(*) - отображение, реа- лизуемое системой; а - некоторая константа. В случае, когда возмуще- ния, действующие на систему, незначительны (отсутствуют), условия (2.28) и (2.29) могут быть проверены следующим образом: на систему по- дается нулевой входной сигнал, определяется реакция в установившемся режиме (£)). Затем система тестируется двумя сигналами U],u2, сформированными в соответствии со следующим выражением: u2(t) = c«i(t). с=const. (2.30) В случае линейности системы коэффициент
414 Нейросетевые методы управления. Часть Ш Ф) = у2(О-Р У1(0-£> (2.31) г(О-е | с J должен быть равен значению константы с. В качестве показателя нели- нейности системы может быть использован коэффициент, определяемый в соответствии со следующим выражением: (2.32) Для линейных систем показатель (2.32) должен быть равен нулю. Проверка частотного отклика системы. Частотный отклик линейной системы не зависит от амплитуды входного тестирующего сигнала. Следо- вательно, оценка нелинейности системы может быть проведена путем про- верки реакции системы на синусоидальные воздействия. Как частота, так и амплитуда тестирующего синусоидального сигнала должна изменяться. В этом случае линейная система вырабатывает выходные сигналы той же частоты, что и входная синусоида, с амплитудой, пропорциональной ам- плитуде входного сигнала. Анализ преобразования Фурье на наличие до- полнительных гармоник позволяет сделать предположение о нелинейности системы. При наличии возмущений (измерительных шумов) рекомендует- ся проводить оценку усредненных по результатам нескольких эксперимен- тов выходных последовательностей. 23.2. Особенности формировании информативного множества экспериментальных данных В случае, когда априорные знания о физике объекта или результаты тестирования иа нелинейность позволяют сделать заключение о целесооб- разности применения нелинейных нейросетевых моделей, возникает ряд специфических вопросов, связанных с планированием эксперимента и по- лучением информативного множества данных, пригодных для построения работоспособных моделей. Выбор частоты дискретизации. В случае, когда частота дискретиза- ции выбрана неоправданно высокой по сравнению с динамикой рассмат- риваемой системы, могут возникнуть серьезные проблемы вычислительно- го характера. Если процедура идентификации предполагает получение мо- дели с целью дальнейшего использования в контуре управления, то выбор частоты дискретизации в значительной мере зависит от предполагаемого метода синтеза регулятора и, в частности, от желаемой «скорости» (дина- мики) замкнутой системы «объект - регулятор». Высокая частота дискре- тизации позволяет получить быстрое отслеживание траектории н более гладкий сигнал управления, но приводит к очевидным проблемам вычис- лительного характера. Таким образом, частота дискретизации должна вы- бираться в условиях разумного компромисса между качественным реше- нием «дачи идентификации н рациональным синтезом регулятора.
глава 2. Реализация процедуры идентификации ________ 415 Проклятие размерности. Для нелинейных систем несправедливы принципы суперпозиции и гомогенности. Это является причиной ужесто- чения требований к проведению эксперимента и, в частности, к тестирую- щему входному сигналу. Если в случае линейных систем для реализации процедуры идентификации достаточно протестировать объект входным сигналом, содержащим конечное число частот, то для нелинейных систем в тестовом сигнале должны быть представлены (в общем случае) все воз- можные комбинации частот и амплитуд в рабочем диапазоне системы. Следствием этого факта является поистине трагическое увеличение разме- ра экспериментальной выборки с ростом числа входов и выходов системы Проблема носит название «проклятия размерности» [77] и, к сожалению, не имеет очевидных способов решения. Этот общий недостаток моделиро- вания нелинейных объектов типа «черный ящик» является существенным препятствием при применении нейросетевых методов идентификации к большим системам. Синтез тестирующего (входного) сигнала. Перед тем как осущест- вить выбор тестирующего сигнала, чрезвычайно важно определить рабо- чий диапазон системы. Особые меры должны быть предприняты для ис- ключения из модели «нежелательной» динамики (например, механиче- ского резонанса или других критических режимов). Традиционно эта проблема решается путем введения ограничений на частотный диапазон тестового сигнала. При идентификации линейных систем эффективно используются входные последовательности, содержащие набор синусои- дальных сигналов с различной амплитудой (частотой) и так называемые псевдослучайные бинарные последовательности [9, 77]. Однако при ра- боте с нелинейными объектами чрезвычайно важно, чтобы во множестве экспериментальных данных были представлены все возможные комби- нации амплитуд и частот из рабочего диапазона системы. Рассмотрим некоторые варианты тестовых сигналов [77], удовлетворяющие указан- ным требованиям. Пусть е(г) - белый шум с дисперсией о*. Сигнал, определяемый как совершает переход на новый уровень в каждый М -й момент квантования (рис. 2.4). Функция ковариации сигнала определяется как ад = -^~ое2. (2.34) N Спектральная плотность сигнала ф((о) определяется в соответствии со следующим выражением: I" COSTCO 2ltN 1—coso) (2.35)
416______________________Нейросетевые методы управления. Часть m Большинство промышленных регуляторов способны вырабатывать сигналы управления, лишь незначительно изменяющиеся от итерации к итерации. В данной ситуации может быть применена следующая модифц. кация сигнала (2.31) при условии, что e(t) имеет гауссово распределение: Рис. 2А. Тестовая последовательность (входной спгнял). Уровень сигнала изменяется через каждые ЛМО дискрет Другой вариант тестового сигнала может быть получен путем введения добавочной переменной, определяющей момент изменения уровня вход- ного сигнала: м(г —1) с вероятностью а, и(г) = ( (2.37) e(t) с вероятностью 1-а. Ковариационная функция сигнала определяется в соответствии с выра- жением Яя(т) = атОв • (2.38) Спектральная плотность сигнала определяется следующим выражением: <Х©) = S.----±12:------. (2.39) 2л 1+0 -2acosco Сигнал представлен на рнс. 2.5. Для данного сигнала также может быть рассмотрена модификация типа (2.36). Следующий тестовый сигнал представляет собой синусоиду с постоян- но нарастающей частотой. При использовании такого типа сигналов появ- ляется возможность исследовать систему во всем рабочем диапазоне час- тот. Сигнал данного типа может быть реализован в соответствии со сле- дующими выражениями:
Глава 2. Реализация процедуры идентификации 417 (2-40) u(t) = и0 + Asin(<o,iT), t = ijV, (2.41) где <он,<ок - соответственно начальное и конечное значение частоты сину- соидального сигнала; А - амплитуда сигнала; Т -период дискретизации. Рве. 2.5. Тестовая последовательность (входной сигнал). Уровень сигнала изменяется в случайные моменты времени Сигнал для частот, изменяющихся в диапазоне от шн=0,01/Т до <ок = 0,2/Г, представлен на рис. 2.6. При использовании данного типа сигнала для идентификации нелинейных систем тестирование должно быть проведено при различных начальных значениях сигнала и0 и ампли- туды А. Независимо от выбранного типа тестового сигнала необходимо прини- мать во внимание особенности рассматриваемой системы. Например, а большинстве случаев существует ряд ограничений, обусловленных физи- ческими или техническими особенностями объекта. Так, для цифро- аналоговых преобразователей и исполнительных механизмов существует некоторая точка насыщения. * Проведение эксперимента в системе с обратной связью. В случае, когда система является неустойчивой или обладает высокой колебательно- стью, рекомендуется использовать стабилизирующую обратную связь с целью удержания системы в рабочем диапазоне. В качестве регулятора может быть выбран простейший вариант ПИД-стратегии или даже прове- дена стабилизация системы вручную (в случае медленной динамики объ- екта)- Вопросы идентификации замкнутых систем рассматриваются в ряде работ, например [77]. Основной проблемой при идентификации систем с 28 Зек 108
418 Нейросетевые методы управления. Часть Пт обратной связью является возможная потеря идентифицируемости. Пре- одолеть эту проблему можно путем введения дополнительного сигнала управления ит в замкнутый контур (рис. 2.7). Введение дополнительного сигнала может оказаться эффективным даже в случае теоретической иден- тифицируемости системы. Эго объясняется тем, что настраиваемый вруч- ную регулятор или человек-оператор являются достаточно «консерватив- ными» в смысле скорости формирования (изменения) воздействия, т.е. тестовый сигнал в этом случае охватывает только область низких частот. Таким образом, может возникнуть ситуация, когда данные о поведении системы в высокочастотной области рабочего диапазона не войдут в обу- чающее множество. Добавление высокочастотной составляющей в соот- ветствии со схемой (рис. 2.7) может решить данную проблему. Рис. 1Л. Тестовая последовательность (входной сигнал) - синусоида с лпнейпо возрастающей частотой Рис. 2.7. Структурная схема сбора экспериментальных данных в системе со стабилизирующей обратной связью
ГлаваЗ- Реализация процедурЫ идентификации___________ Ю 2.3.3, Рациональный выбор и предварительная обработка экспериментальных миям» Предварительная подготовка экспериментальных данных во многих случаях может оказаться более эффективным средством получения адек- ватной модели системы, чем попытки использования различных модель- ных структур и стратегий оптимизации. Существует несколько различ- ных способов предварительной обработки экспериментальных данных с целью извлечения наиболее значимой информации и приведения ее к виду, обеспечивающему хорошие результаты при нейросетевом модели- ровании. Фильтрация. Фильтрация широко используется для удаления из экс- периментальных данных нежелательных шумов, периодических возмуще- ний и «нежелательной» динамики. В случае возникновения проблем, вы- званных высокочастотными шумами I возмущениями, рекомендуется ис- пользовать аналоговые фильтры сигналов с датчиков (до дискретизации) с целью избежания эффекта наложения спектров (появления помех при не- достаточно высокой частоте дискретизации сигналов). Низкочастотные возмущения и дрейф (уход) сигнала могут быть удалены путем фильтра- ции дискретизованных сигналов. Удаление избыточных данных и выбросов сигналов. Иногда боль- шое число пар вход-выход, относящихся к одному и тому же участку ра- бочего диапазона системы, доминируют в экспериментальном множестве. При обучении нейронной сети это приводит к отображению данных имен- но из этого диапазона. Помимо более длительного обучения нейронной сети, это является причиной неадекватности модели, т.е. конечная модель хорошо представляет систему только в некоторой области рабочего диапа- зона, становясь неадекватной в других областях. Удаление избыточных данных уменьшает размер обучающего множества, делая его одновремен- но более репрезентативным, что положительно сказывается на качестве модели и скорости обучения. Также рекомендуется удалять из обучающего множества необоснован- ные выбросы выходных сигналов или заменять их на значения, получен- ные путем интерполяции. Ошибки измерительной аппаратуры, отражен- ные в обучающем множестве, могут оказывать негативное влияние на ка- чество обученной нейросети. Следует отметить, что при обучении рекуррентных нейросетевых мо- делей на множестве, из которого удалена часть данных, могут возникнуть некоторые проблемы. Наличие обратных связей в модели Является причи- ной возникновения переходного процесса при наличии резкого изменения Уровня сигналов. Переходный процесс имеет некоторое время затухания,, поэтому необходимо тщательно согласовывать данные, чтобы избежать проблем с построением нейросетевой модели. 28*
420 Нейросетевые методы управления. Часть тп Масштабирование. При подготовке экспериментальных данных реко мевдуется приведение сигналов к нулевому среднему и одинаковой дис- персии. Это объясняется следующими положениями: • обычно сигналы имеют различную размерность (с физической точки зрения), и сигналы с максимальной амплитудой становятся домини- рующими при построении нейросетевой модели; • масштабирование положительно сказывается на вычислительной роба- стности алгоритмов обучения и приводит к более высокой скорости сходимости [60]; • практика показывает, что при использовании масштабированных дан- ных получаются более точные модели. Если модель объекта реализована на двухслойной нейронной сети с линейными активационными функциями нейронов выходного слоя, ре- масштабирование весовых коэффициентов после обучения нейронной сети является достаточно простой процедурой. После ремасштабирования весо- вых коэффициентов нейросетевая модель может работать с немасштаби- рованными данными. Для систем с несколькими выходами при наличии шумов целесообраз- но вводить различные коэффициенты масштабирования для каждого из выходов. 2.4. Оптимизация параметров нейросетевой модели Предположим, что в результате проведения эксперимента и предвари- тельной обработки данных получено некоторое множество Z/v={[M(t),y(O], Г = 1Л}, (2.42) где и(г), у(г) - соответственно входы и выходы системы, N - число дис- кретных отсчетов. Допустим также, что выбрана некоторая модельная структура y(O = y(^|e) + e(r) = g(t,0) + e(r). (2.43) В соответствии с общей схемой реализации процедуры идентификации следующим этапом является оценка параметров выбранной модельной структуры. При использовании нейросетевых модельных структур этот этап представляет собой настройку весовых коэффициентов сети в резуль- тате реализации процедуры обучения на множестве примеров. Обучение представляет собой отображение множества экспериментальных данных иа множество параметров нейросетевой модели Z*->0 (2-44) с целью получения оптимального, в силу некоторого критерия, прогноза выходного сигнала у . Традиционно используемым критерием [5. 9] явля- ется среднеквадратичная ошибка прогнозирования
Гл*??Л РеализаЦИ£процеДурЫ идентификации________________ .£1 (2.45) Данный подход относится к классу методов ошибки прогнозирования (МОП) [9], так как основной задачей является минимизация суммарной нормы ошибки прогнозирования е = y(t)-y(t|0). В некоторых случаях рассматриваются нормы, отличные от квадратичной, которые являются оптимальными при негауссовом распределении возмущений е(г). При ис- пользовании критерия в виде (2.45) МОП соответствует оценке методом максимального правдоподобия при условии нормального распределения возмущений e{t). Наиболее привлекательной чертой метода является достаточно простой алгоритм оценки параметров (весовых коэффициентов) НС и независи- мость от возмущений (при условии их нормального распределения). В ря- де случаев данный критерий не является абсолютно оптимальным [9], но в практических приложениях обычно приводит к наилучшей модели. В разделе 2.4.1 представлены методы оптимизации с использованием критерия (2.45). В разделе 2.4.2 обсуждаются практические аспекты при- менения МПО к обучению нейронных сетей. 2.4.1. Метод ошибки прогнозирования При использовании МОП основная задача состоит в нахождении пара- метров модели посредством минимизации функционала 0 = argminV’w^O,ZJV). (2.46) При условии квадратичиости критерия рассматривается частный слу- чай безусловной оптимизации - нелинейная задача о наименьших квадра- тах [7]. Существует ряд методик решения этой проблемы; данный раздел посвящен обсуждению алгоритмов, имеющих непосредственное отноше- ние к обучению нейронных сетей. Процедура поиска минимума. Разложение критерия в ряд Тейлора (до 2-го порядка включительно) в окрестности точки 8* имеет вад: VN (0, Z* ) = VN (О*, ZN)+(0 -0*f V» (©’, Z* )+ , _ (2.47) +|(e-0’) k;(0’,zw)(0-o’), где градиент определяется как * G(0*) = v„ (0*, Zw)s , (2.48) d0 „ „• 0 = 0 а матрица вторых производных - гессиан, матрица Гессе:
422______________________Нейросетевые методы управления. Часть Щ . . . „n. d2VN(6,ZN)\ (24m #(0) = ^(0*,Zw) =----- “° в=е Достаточными условиями минимума функции являются Равенство ну. лю градиента (2.48) н положительная определенность гессиана (2.49): 6(0*) = 0, <2.30) Я(0*)>0. (2.51) В случае, когда критерий (2.45) имеет сложную нелинейную структуру, аналитическое нахождение минимума не представляется возможным, что приводит к использованию итеративных методов. В общем случае итера- тивный алгоритм поиска минимума может быть представлен в следующем виде: e('+,)=e(/)+|A(/)f(0, (2.52) где 0(/) определяет значение параметров на текущей итерации (i) ,f(0 оп- ределяет направление поиска, а |х<0 - шаг алгоритма на текущей итерации. В общем случае критерий имеет более одного минимума, но, к сожале- нию, итеративные методы поиска не обеспечивают сходимости к глобаль- ному минимуму. Проблема «локальных минимумов» непосредственно свя- зана с выбором начальных значений параметров 0<0>. Градиентный метод. В основе градиентного метода, или метода наис- корейшего спуска, лежит определение направления поиска как противопо- ложного направлению градиента, т.е. О0'*0 _ в(0 _ ц(О0(е«)). (2.53) Сходимость метода существенно зависит от выбора шага |Х(,): при дос- таточно малом шаге обеспечивается уменьшение критерия иа каждой ите- рации: VAr(0(,+l),ZA,)< V'n(O(,),Zn) . Применение метода к обучению ней- ронных сетей дает возможность организовать вычисления таким образом, чтобы рационально использовать структуру конкретной НС. В этом случае метод называется методом обратного распространения (ошибки), или обобщенным дельта-правилом. Для выбора шага алгоритма, определяющего скорость сходимости, мо- гут применяться различные методы, в том числе и адаптивные, хотя во многих приложениях используются методы с постоянным шагом ц(|). Независимо от выбора шага, градиентный метод может обеспечить только линейную сходимость, т.е. |о(,+,)-0*|< с|о(/+,)-0*|, се[0,1). Недостаточно высокая скорость сходимости алгоритма делает невозмож- ным применение метода для решения задач в режиме реального времени. Тем не менее метод может быть эффективно использован в нейросетевых
Глава 2. Реализация процедуры идентификации 423 приложениях благодаря значительной простоте реализации, скромным требованиям к оперативной памяти и возможности использования естест- венной параллельности алгоритма при наличии специализированного ап- паратного обеспечения. Метод Ньютона. Метод Ньютона является методом 2-го порядка, т.е. основан на следующем представлении критерия (2.45) рядом Тейлора (в окрестности текущей итерации): VN (0, Z N) = Vw(0<i), ZN)+(в - f G(0<|))+ 1, т (154) H(®(0)(®-®(0). Введя обозначение = (2.55) M получим выражения для градиента (2.48) и гессиана (2.49) критерия наи- меньших квадратов: 1 N с(0)=у;(0,гЛ,)=^-2'ио.®)()'(п-уа|в)). (2.56) N 1=1 . и 1 N - 1 N . Я(0) = V'N (G.Z*) = 4- £ w(t, 0)VT (т,0) - ~ £ v '(r,®)e(r,®). (2.57) N i=i N i=i Минимум функции (2.54) находится в точке V^(0,ZN) = O. В силу симметричности гессиана имеем: О = G(0(i))+^(2Н(0(О)®-Н(О(,))0(,) -Я(0(О)0(,’) = = G(O(,)) + #(O(/))(0-0(O). Анализ соотношения (2.58) приводит к следующему итеративному пра- вилу настройки параметров: 0(<+,) = е<0 -[Я(0«)]-’ G(0(i)). (2.59) Очевидно, это правило соответствует шагу алгоритма g(i) -1 и направ- лению поиска, определяемому решением системы линейных уравнений (2.60) Направление поиска f(0 обычно называют ньютоновским направлени- ем [7]. На практике метод должен дополняться линейным [17] поиском, так как выражение (2.54) представляет собой лишь аппроксимацию критерия (2.45). Аппроксимация действует только в некоторой окрестности текущей итерации, что может привести к существенной разнице между реяньями и прогнозируемым (полученным в результате аппроксимации) значением. В
424 Нейросетевые методы управления. Часть Щ случае, когда метод Ньютона дополняется линейным поиском, алгоритм носит название модифицированного (демпфированного) метода Ньютона. Эта модификация не обеспечивает абсолютной сходимости, поэтому обычно используется для увеличения скорости сходимости в окрестности точки минимума, тогда как для первоначального приближения использу- ется градиентный метод. Рассмотрим аппроксимацию в окрестности минимума в*: ^(e,zyv)=^(e*,zyv)+|(e-e’)TH(e’)(e-0*). (2.61) Несмотря на то что гессиан положительно определен, он может быть плохо обусловлен. Очевидно, что лишний параметр (весовой коэффициент НС) приводит к бесконечному множеству параметров 0*, удовлетворяю- щих условию 2.61, определяя сингулярное число гессиана. Однако гессиан в принципе не может быть сингулярным в точке минимума, что объясня- ется наличием возмущений в реальной системе. Сингулярность гессиана приводит к проблемам вычислительного характера при определении на- правления поиска. Проблема может быть решена путем добавления к гес- сиану диагональной матрицы перед решением системы (2.60) с целью улучшения обусловленности. С точки зрения вычислительных затрат определение гессиана и на- правления поиска является достаточно трудоемкой процедурой. Несмотря на квадратичную скорость сходимости в окрестности минимума, реализа- ция алгоритма требует даже больших временных затрат, чем для методов первого порядка. Эта проблема разрешается при использовании аппрокси- маций гессиана, используемых в квазиньютоновских методах [7]. Наиболее удачной схемой аппроксимации гессиана является алгоритм Бройдена - Флетчера - Гольдфарба - Шанно [7]. Алгоритм дает положи- тельно определенную аппроксимацию гессиана на основе значений на предыдущих итерациях и соответствующих градиентов. Существует ряд модификаций алгоритма [7], хотя наиболее часто используется вариант непосредственного получения матрицы, обратной гессиану. В этом случае итеративная процедура поиска минимума принимает вид: e(i+D = 0(0, (2.62) k \ (ДС(,))ТД0(О где B(0v,)«^H(0w,)J - аппроксимация обращенного гессиана, моди- фицируемая в соответствии со следующим выражением: B(0(»)_fl A0°W>)T>1 Д8(О(Д0(,))Т + (ДС(/))тД0(,) ’ (2.63) где
гпяиа 2. Реализация процедуры идентификации_________________425 А0<,+1) *0(,) AGO)sG(Oy))-G(0(W)). (2.65) Положительная определенность гессиана обусловлена выполнением следующего условия: (0(i+1))TAGy+1) >0. (2.66) Несмотря на теоретическую возможность применения метода к обуче- нию нейронных сетей, практическая реализация обычно не дает желаемых результатов по причине малой начальной скорости сходимости алгоритма. Поэтому для решения проблемы оптимизации нелинейных квадратичных критериев наиболее применимы специально разработанные алгоритмы, основанные на семействе методов Гаусса - Ньютона. Метод Гаусса - Ньютона. В методе Гаусса - Ньютона используется линейная аппроксимация ошибки прогнозирования е(г, 0) = y(r)- y(t|O) ёл, (т,в) = £(:,0<о)+(е'(г,вО1))т(0-еУ)) = =е( г, e(i)) - (v(t, e(i) ))т (е - е(0 )т. Модифицированный критерий (2.45) для i-й итерации имеет вид: 1 N VN(O,ZN)«L<n(0) = ^-y((6(t,0))1. 2N м Выражение для градиента является аналогом метода Ньютона: 1 N G(0y)) = Ly)(O(°.Z/v) = —Уф(Г,0и))(у(О-Мв(0))- N ;=i Выражение для определения гессиана претерпевает следующие изме- нения: 1 N R(0) = R(e(O) = -^£4’O.e<,))VT('>0). (2-70) N 1=1 где R(0) - гессиан Гаусса - Ньютона (является положительно полуопреде- ленным). Для нахождения гессиана требуется определение только первых производных, что дает значительные преимущества в вычислительном плане. По аналогии с методом Ньютона итеративная процедура минимизации критерия (2.68) принимает вид: о <z+1) = 0у) - [r (е(,) )]*' G(0y)). (2.71) На практике направление поиска Гаусса - Ньютона вычисляется на ос- нове решения системы уравнений (2.72) (2.72) В случае, когда для определения шага алгоритма используется линей- ный поиск, алгоритм носит название модифицированного (демпфирован- ного) метода Гаусса - Ньютона [7]. 27 Зак. 108 (2.67) (2.68) (2.69)
426____________ Нейросетевые методы управления. Часть1ц Очевидно, что при равенстве нулю матрицы вторых производи^ (2.73), (2.74) метод Гаусса - Ньютона идентичен методу Ньютона: * (2.73) ¥,,..) = «.О. (2.74) Помимо этого частного случая, локальная сходимость метода линейна При нулевых или близких к нулю невязках, т.е. при небольших значениях ошибки прогнозирования в окрестности минимума, применение метода Гаусса - Ньютона не дает желаемых результатов. Несмотря на теоретиче- ски медленную локальную сходимость метода, в практических приложе- ниях он приводит к лучшим результатам, чем метод Ньютона или ква- зиньютоновский метод. Псевдоньютоиовскнй метод. Псевдоньютоновский метод получил широкое распространение в технологии обучения нейронных сетей, так как представляет собой значительное упрощение метода Гаусса - Ньюто- на. В алгоритме используется аппроксимация гессиана, полученная путем удаления недиагональных элементов. Итеративная процедура минимизации определяется следующим выра- жением: e(HD = 0(О -ц<ОСдв(О)//ги(в(О) . (2.75) Преимущество метода заключается в отсутствии необходимости ре- шать систему уравнений большой размерности при определении направ- ления поиска и значительной экономней оперативной памяти, обусловлен- ной использованием только диагональных элементов гессиана. Однако практическая сходимость алгоритма ниже, чем при использовании метода Гаусса - Ньютона. Метод Левеиберга - Маркардта. Направление поиска в методе Гаусса - Ньютона не является абсолютно оптимальным, так как определяется по аппроксимации критерия L(O(0) в некоторой окрестности текущей итера- ции. Вследствие того что минимум L(<>(0) в общем случае может нахо- диться вне заданной окрестности, выбор направления поиска может ока- заться некорректным. Можно предположить целесообразность поиска ми- нимума LO)(0) только в некоторой окрестности текущей итерации. Вы- брав в качестве окрестности сферу радиуса 6(<), можно сформулировать проблему оптимизации следующим образом: 0 = argimnL(O(0); |в-е<0|^ 5<°. (2.76) ’Итеративная процедура поиска минимума при наличии ограничений (2.76) может быть представлена следующим образом:
Глава 2 реализация процедуры идентификации________________427 0<i+»=eli)+fW, (2.77) [r(0(/)) + X(Ol]f 0) » -G(0(l)), (2.78) где параметр X(f) определяет окрестность 8(0. Данный метод основан на работах [61, 65] и известен как метод Левенберга - Маркардта. Гиперсфера радиуса 5(0 интерпретируется как окрестность 0(,), в пределах которой L(n(0) может рассматриваться как адекватная аппроксимация критерия Vw(0,Zw). Этот же принцип, используемый при решении нелинейной за- дачи наименьших квадратов, носит название подхода «модель - довери- тельная область» [7]. В отличие от рассмотренных ранее методов, идеология линейного по- иска противоречит концепции алгоритма Левенберга - Маркардта, где шаг алгоритма выбирается автоматически в окрестности 8(,). Взаимосвязь ме- жду 8(0 и параметром Х(,) может быть установлена в результате эвристи- ческой трактовки влияния Х(,) на направление поиска. В случае, когда заменяется диагональной матрицей, направление поиска представляет собой направление антиградиента критерия. Очевидно, что при X —»о» диагональная матрица доминирует над R(0), что приводит к градиентному методу поиска. С другой стороны, установка Х=0 приво- дит к методу Гаусса - Ньютона. Направления поиска при промежуточных значениях Х(,) представлены на рис. 2.8. Очевидно наличие взаимосвязи между уменьшением радиуса 80> и увеличением параметра Xм (и наобо- рот). К сожалению, явных выражений, определяющих Х(,) для конкретно- го значения 8(,), не существует. Эго приводит к двум различным методам подстройки 8(,) - прямым и косвенным. В прямых методах настройка 8(,) производится непосредственно, после чего применяются итеративные процедуры для определения соответствующего значения Х(,) [7]. Косвен- ные методы представляют собой более простую схему, аналогичную пред- ложенной в оригинальной работе [65]. При использовании косвенных ме- тодов происходит непосредственная настройка параметра Х(|), причем оп- ределение действительного размера доверительной области не произво- дится. Для обеспечения сходимости метода предлагается последователь- ное увеличение Х(,) до тех пор, пока не произойдет уменьшение критерия !(0), после чего итерация завершается. Значение параметра X для сле- дующей итерации уменьшается. Применение метода к обучению НС пред- ставлено в работе [43]. Другой косвенный метод представлен в работе [35]. Метод превосхо- схему Маркардта, особенно с точки зрения простоты применения. Ос-
428 _______Нейросетевые методы управления. Часть Щ новная идея метода заключается в сопоставлении реального уменьшения критерия и уменьшения, прогнозируемого на основе аппроксимации В качестве меры точности аппроксимации рассматривается коэф. фициент у) _ VA,(8(<),ZA')-VH»(0+f(,)'Z^ . Г Vw(0<o,Zw)-£<,)(O<,)+f<,)) (2.79) Направление поиска в алгоритме Левенберга - Маркардта для различных значений X Направление антиградиента Х = 0 Направление поиска а алгоритме Гаусса - Ньютона X —> оо Рис. 2.8. Направление поиска в алгоритме Левенберга - Маркардта В случае близости коэффициента к единице, lP(0) является адекват- ной аппроксимацией Vw(0,Zw) и значение X уменьшается (что соответ- ствует увеличению С другой стороны, небольшие или отрицатель- ные значения коэффициента приводят к необходимости увеличения X. Общая схема реализации алгоритма может быть представлена следующим образом: Шаг 1. Выбрать начальные значения вектора настраиваемых парамет- ров 0(0) и коэффициента Х(0). Шаг 2. Определить направление поиска из системы уравнений [R(0(,))+X(,)l]f(i) = -G(0(i)). Шаг 3. Если r(i) >0,75 => Х(/)=Х(,)/2. Шаг 4. Если г(() <0,25 => Х<() =2Х(,). Шаг 5. Если + f(/),ZN)<VN(№,ZN), то принять 0 = 0 5 +f(как новую итерацию и установить Х^,+1^ = X<f). Шаг б. Если критерий останова не достигнут, перейти на шаг 2. начения констант (0,25, 0,75 и 2) выбраны произвольно и могут быть изменены без потери сходимости алгоритма. Критерий останова (шаг 6) обсуждается в разделе 2.4.3
Глава 2. Реализация процедуры идентификации 429 Значение минимизируемого критерия iP^’+f) может быть пред- ставлено в следующем виде: La)(eo) +f)=vA,(e<<>,zw)+f'rG(e“>)+lfTR(e(,))f. (2.80) Подставляя в (2.80) значение выражения для определения направления поиска, полученное из соотношения R(0(O)f(o =-G(eW).)-XfW), (2.81) получим: V(V(e(i),Zw)-L(i)(0(,) +f(i)) = | -(fl,))TG(e('))+V')lf(‘)H. (2.82) 2V ’ * J Соотношение (2.82) позволяет достаточно просто определять на шаге 3, 4 алгоритма коэффициент г(,). Значение выражения [Vw(0O),Z'v)-L<f)(0(O +f<())] всегда неотрица- тельно. Таким образом, если направление поиска, определенное на шаге 2 алгоритма, не приводит к уменьшению критерия, то значение коэффици- ента г(,) отрицательно и удовлетворяет неравенству, используемому на шаге 4. Следовательно, значение X увеличивается до тех пор, пока не бу- дет достигнуто уменьшение критерия. Сходимость метода Левенберга - Маркардта приблизительно такая же, как и у метода Гаусса - Ньютона с демпфированием. Дополнительным преимуществом является хорошая обусловленность гессиана, получаемая за счет добавления диагональной матрицы (2.78). Данный подход является оптимальным для реализации процедуры обучения нейронных сетей, так как обеспечивает быструю сходимость и вычислительную робастность. Основным недостатком метода является необходимость вычисления на- правления поиска при изменении значения X вне зависимости от того, производилось изменение весовых коэффициентов или нет. Очевидно, что выбор доверительной области как сферы в окрестности текущей итерации не является оптимальным в случае, если значения на- страиваемых параметров значительно различаются. Это может привести к снижению скорости сходимости метода. По этой причине иногда целесо- образно выбирать доверительную область, вводя матрицу масштабирова- ния D(,): |D<0(e-etf))|^8(i>. (2.83) При использовании матрицы масштабирования направление поиска определяется следующим соотношением: [R(e('))-X(0D(,)TD(,)]f(<)®-G(e(0). (2.84) В случае, когда нейронные сети используются в качестве модельных структур для решения задачи идентификации и экспериментальные дан-
__________________________Нейросетевые методы управления. Часть ные предварительно масштабированы, значительные различия весовы^Т'" эффициентов обычно не составляют проблемы. °' Рекуррентные методы. Рассмотренные ранее методы оптимизации носятся к классу нерекуррентных методов, или методов Пакетной (группу вой) обработки. Термин «пакетная обработка» подразумевает использование всего множества экспериментальных данных ZN на каждой итерации алщ. ритма оптимизации выбранной модельной структуры. Однако в ряде случа- ев необходимо идентифицировать систему в режиме реального времени По мере поступления измерений. Типичным примером являются адаптивные системы, в которых на каждом шаге синтеза сигнала управления необходи- мо иметь адекватную модель реального объекта [9]. Методы идентифика- ции, пригодные для использования в реальном масштабе времени для адап- тивноголценивания параметров модели по текущим данным, носят название рекуррентных. Традиционный критерий оптимизации параметров (2.45) не может быть использован в рекуррентных алгоритмах (в случае нестацио- иарностн системы). При рекуррентной оптимизации на каждой итерации для настройки параметров используется только одна входо-выходная пара [ф(г), у(г)] из множества экспериментальных данных: O(r) = O(r-l)+p(r)f(r). (2.85) Следует отметить, что в выражении (2.85) индекс (1> заменен на аргу- мент t (время). Большинство рекуррентных алгоритмов [9, 5, 15,19] разработаны для оценки достаточно простых линейных моделей. В случае, если модельная структура содержит большое число настраиваемых параметров, использо- вание рекуррентных алгоритмов в режиме реального времени становится проблематичным. Тем не менее рекуррентные алгоритмы могут быть эф- фективно использованы и для оценки моделей на всем множестве экспе- риментальных данных 1N. Последовательность обработки данных при использовании рекуррентных н пакетных методов обработки представлена иа рис. 2.9. Рекуррентные методы имеют следующие преимущества: • достаточно простая реализация; • скромные требования к использованию оперативной памяти ЭВМ; • эффективное использование избыточности множества эксперименталь- ных данных для получения высокой скорости сходимости алгоритма. Особенности применения рекуррентных алгоритмов к оптимизации па- раметров нейронных сетей рассмотрены в работе [32]. Рекуррентный метод Гаусса - Ньютона. Алгоритм основан на после- довательном включении пар вход-выход в множество данных, используе- мых для оптимизации модели. При использовании априори полученного множества экспериментальных данных ZN u(f) = и(г + N) + u(t + 2N) = - > y(t')~y(t + N) + y(t+2N)-... критерий, оптимизируемый в каждый мо- мент времени t, определяется следующим выражением:
Г-.ад 2. Реализация процедуры идентификации V,(e,Z') = J-£e2(fc,e). 2* *=i 431 (2.86) Рекуррентные алгоритмы Пакетная (групповая) обработка Рис. 2.9. Последовательность обработки экспериментальных данных при использовании рекуррентных и групповых методов оптимизации параметров недельных структур: N — число входо-выходных соответствий в экспериментальном множестве, т - число впроходов» Значения настраиваемых параметров вычисляются по формуле е(о=-i)+R-,(ov;<ea-i),z'), (2.87) где градиент определяется как V/O.Z') = у(*,е)£(М) = Y(*. W.o)- **=i r*=i (2,88) -1 V(t, 0)e(t,0) = Z"*)- у v(»,e)e(»,e). Предположим, что вектор параметров модели в(/—1) доставляет ми- нимум критерию (2.86) в момент времени г-1, т.е. что приводит к выражению V,'(0(t -1), Z') = --р(г,8(1 - 1))е(Г,00 -!)). (2.89) Выражение (2.70) для определения гессиана Гаусса - Ньютона может быть переписано в следующем виде: R(O=i^v(*.e)vT(*.0)=R(/-i)+-(v(».e)vTa.e)-R(»-i)). (2.90)
(2.91) (2.92) приме- (2.93) (2.94) с - доста- 432_______________________Нейросетевые методы управления. Таким образом, получаем следующие выражения для настрой^"''"' метров модели на текущей итерации: Па^>*‘ 0(f) = 9(t -1)+1R'1 (г) y(f)( y(t) - y(t 10(r -1))), R(r) = R(f -1)+|(y(r,0)vT(r,9) - R(r -1)). Чтобы избежать обращения гессиана Гаусса - Ньютона можно нить следующее выражение (лемма об обращении матриц): (А-1 + BCD)'1 = А - АВ(С'’ + DAB)'1 непосредственно к матрице ковариации P(r) = -R'1 (г): t l+V(0P(*-l)v(0 Начальное значение обычно выбирается как Р(0) = с! , где точно «большое» число, обычно 104 - 10s. Для модельных структур типа ARX алгоритм представляет собой тра- диционный рекуррентный метод наименьших квадратов (РМНК) [9]. При- чиной использования адаптивных методов и рекуррентной идентификации на практике является то, что свойства системы могут изменяться во време- ни, а алгоритмы идентификации должны отслеживать эти изменения. Это достигается путем взвешивания экспериментальных данных, причем меньшие веса назначаются более старым измерениям, которые мало ин- формативны. Для адаптивной оценки нестационарных систем могут быть применены различные модификации рекуррентных алгоритмов. Алгоритм экспоненциального затухания. Одним из способов удале- ния устаревшей информации из множества экспериментальных данных является введение в критерий (2.86) фактора затухания X: УД0,2') = ^£Х'"*ет(*,0)е(*,е). " к-> Оптимизационная процедура может быть представлена следующим об- разом: (2.95) (2.96) к(0= .-.yzlMfL-, l + VT(OP(»-l)v(O 0(f) = 0(r -1) + K(r) (y(t) - 10(r -1))), P(r) = (P(t -1) - K(f)VT (t)P(J -1))/X, где X - фактор затухания - выбирается в интервале [0,1]. В случае, если в некотором направлении пространства параметров затухание происходит быстрее, чем появляются новые данные, собственные значения матрицы ковариации стремительно возрастают. Эта проблема может быть решена
Глава 2. Реализация процедуры идентификя„ин путем введения ограничений на ««бствеиныГ^----‘~--------- ции. Алгоритм с ограничениями может бит/„ мэтР"«ы коварна- виде: заставлен в следующем K(t) = аР(г -1)\|/(1+ут(?)Р(г _ 1) ¥(г)у' 0(;)=ео-1)+к(о(у(п- у(г|в(г-1))), {2 97) Р( 0 = ^P(t -1) - К(/) ¥т (т)Р(т _ j)+pi _ 5р2(г _ где а,р,5А - параметры, настраиваемые с учетом следующих ограниче- ний: 0<у<а<1, (у~а)2+403<(1-а)2, (2.98) Р>0, 8>0. В неравенствах (2.98) значение у=(1-Х)/Л. Минимальные и макси- мальные значения матрицы ковариации выбираются на основе следующих выражений: fa-yV 1 465 А . М’зчгегт °м (2'“х>> Рекуррентный градиентный метод. Оптимизация параметров в ре- куррентной модификации градиентного метода реализуется путем подста- новки —R-1 =ц1 в выражение (2.91). В теории нейронных сетей подход получил название рекуррентного метода обратного распространения ошибки [24]. 2.4.2. Регуляризация и концепция обобщения В разделе 2.4.1 рассматривались методы отображения множества экс- периментальных данных на некоторую модельную структуру с целью по- лучения оптимальной в силу среднеквадратичного критерия оценки. В на- стоящем разделе рассматриваются методы регуляризации, применяемые к нейросетевым моделям с целью улучшения их рабочих характеристик (в частности, свойств к обобщению) [59,76]. Предположим, что система может быть представлена некоторой функ- цией f от предыдущих значений экспериментальных данных Z с ад- дитивными помехами типа белого шума е(г)
_____________Нейросетевые методы управления. Часть Данная реальная система может быть представлена с некоторойсгГ^ нью точности нейронной сетью с конечным числом настраиваемых пав6" метров (весовых коэффициентов). Тем не менее можно предположить множество данных генерируется абсолютно оптимальной нейросетевой моделью g0: й У(0 = &)«?('• в0),90)+е(Г). (2.102) Принцип получения модели, рассмотренный в разделе 2.4.1, состоит в отображении множества экспериментальных данных Zw на модельную структуру М , содержащую р настраиваемых параметров: у(* |в) = g(qKf, 9), 9), 9 е DM с Rp . (2.103) Настраиваемые параметры определяются в соответствии со следующим выражением: ’ ~ 1 n • , 9 = argnunVAf(9,ZN) = -i-£(y(r)-y(r|9))2. (2.104) a 2N " Очевидно, что более оптимальным, чем VN , критерием является мате* матическое ожидание ошибки прогнозирования, называемое ошибкой обобщения: У(9) = |е{(у(0-y(t|9))2 }. (2.105) Оценка критерия (2.105) практически невозможна, тем не менее при наличии соответствующих условий [9] выполняется следующее соотноше- ние: lira VN (9, ZN) = V (9). (2.106) N-f Таким образом, 0 —> 9* при N —> °°, где набор параметров 9* достав- ляет минимум ошибке обобщения (2.105). Если реальная система, пред- ставленная описанием (2.102), действительно входит в модельную струк- туру Se М , оценка параметров также является состоятельной: 9* = 90. В действительности множество экспериментальных данных всегда конечно. В работе (9) рассматриваются вопросы сходимости 0 к 9*. В частности, показано, что оценка 9 асимптотически нормальна со средним значением 9* и матрицей ковариации Ре: 06 As?V| 0*Дрв (2.107) ( N ) При условии, что S е М , асимптотическая матрица ковариации опре- деляется соотношением 1 Г1 N - т т1 Р.=4Ф('’во)*Т('’во)Я’ “2vw(§.zw)^-Eva.e)vTa.e)j . слов)
fлО*а2, Реализация процедуры идентификации 435 Ошибка обобщения может быть получена путем оценки обученной нейросетевой модели на тестовом множестве данных ZT, не используе МЫХ при обучении нейросети, в случае, если значение крнгеридаь^й функции У(в)-Уг(®.2 ) близко к VN(9,ZN), значения параметров О близки к в , и обученная нейросетевая модель удовлетворительна, Если в силу некоторых причин проверка на множестве тестовых данных невоз- можна, оценка ошибки обобщения достаточно затруднительна Другое ог- раничение на оценку обобщения связано с ее зависимостью от множества Z* через вектор параметров 0. Следовательно, ошибка обобщения не по- казывает, насколько хорошо выбрана модельная структура, т.е. как будет вести себя конкретная модель, обученная на множестве ZN, при предъяв- лении сигналов, не вошедших в это множество. Таким образом, целесооб- разно ввести среднюю ошибку обобщения как меру качества модели: VM=£{V(0)}, (2.109) где £(*) - математическое ожидание критерия по множеству данных раз- мера А. Одним из примеров является оценка финальной ошибки прогнози- рования (ФОП) Акайке [9, 21], состоятельная при условии принадлежности реальной системы выбранной модельной структуре S е М : гм4^(1+у)- (21|0) Минимальным значением ошибки прогнозирования является половина дисперсии шума , но по причине конечности множества данных ре- альное значение всегда больше. При анализе причин, влияющих на увели- чение ошибки прогнозирования, целесообразно выделить две следующие составляющие: • смещение: составляющая ошибки, обусловленная недостаточностью модельной структуры (Si М ). Если нейронная сеть не содержит дос- таточного числа настраиваемых параметров, то при W значения весовых коэффициентов сходятся к 0 , отличным от 0О, • дисперсионная составляющая: обусловлена обучением нейросети на недостаточно большом множестве «зашумленных» данных. * Если предположить, что иевязки системы ) ляются по сути белым шумом, то V» =£{^(в)}=£(ко(Ф(/),0о)-^(Ф<г)>в)|2}+СТ' ” . 1 „.21 , (2.111) e £{|so(9(O.Oo)-^(qKn,0’)fp-£{|«(^’e)"g(<P(,),e)l Г °** смещение ДЯСМрСИЯ
«6_______________________Нейросетевые методы управления. Часть in Как было отмечено ранее, принадлежность реальной системы выбо ной модельной структуре практически недостижима, следовательно все' гда существует некоторое смещение. Очевидно, что смещение уменьшав' ся по мере роста числа настраиваемых параметров неросегевой модели. Тем не менее увеличение числа параметров приводит к увеличению дис- персионной составляющей ошибки. Это явление носит название дилеммы смещения / дисперсии [38]. Дилемма может быть проиллюстрирована сле- дующим практическим примером. Десять различных модельных структур типа NNARX (2, 2, 1) обучают- ся на множестве зашумленных экспериментальных данных ZN, где N = 500. Простейшая модельная структура содержит один нейрон в скры- том слое. Структуры последовательно наращиваются на один нейрон, что соответствует увеличению числа настраиваемых параметров на 6 единиц. Обученная нейросеть проверяется на тестовом множестве ZT, содержа- щем 2000 входо-выходных пар. Критерий Vr(0,ZT) интерпретируется как оценка (средней) ошибки обобщения. В связи с возможностью существо- вания локальных минимумов каждая нейросетевая структура обучается 5 раз при различных начальных значениях весовых коэффициентов. Резуль- таты эксперимента представлены на рис. 2.10. По результатам экспери- мента можно определить, что компромисс между ошибкой смещения и дисперсии достигается при использовании 4-6 нейронов в скрытом слое. При увеличении числа нейронов доминирует дисперсионная составляю- щая ошибки смещения. Это явление объясняется избыточностью структу- ры нейросети, т.е. обученная модель включает не только признаки иссле- дуемой системы, но и нежелательные возмущения, содержащиеся в обу- чающем множестве. Недостаточность модельной структуры, напротив, приводит к доминированию ошибки смещения. Одним из способов решения проблемы смещения / дисперсии является расширение критерия VN(0,Zw) регуляризующим компонентом (коэффи- циентом сложности модельной структуры). Этот компонент может быть введен как коэффициент затухания весовых коэффициентов нейросетевой модели: (o.ZN) = -L-£(y(r)- у(т|в))2 +~eTD®, (2.112) где D - диагональная матрица, определяемая соотношением D = OtI; а - коэффициент затухания весов. В некоторых случаях различные значения коэффициента затухания используются для весов входного - скрытого й скрытого - выходного слоев соответственно, иногда собственные значения коэффициентов устанавливаются для каждой структурной связи. Очевцд, но, что введение регуляризующего компонента уменьшает ошибку смеще, ния. Оценка ФОП для нейросетевых моделей, обученных в соответствии с
437 2 Реализация процедуры идентификации при условии, чгоО = а1и$бМ , может быть получе- Дующим образом [761: МИ1+*Ь где (2.113) (2.114) 2 z z ч-1 ''=>«(R+^ r(r+£i) Г 1 N R = E{v(?.%)VTa,80)}s—Х^’в)¥Та,0) (2.116) N i=i Так как след матрицы равен сумме собственных значений, число на- страиваемых параметров нейросетевой модели определяется следую- щим соотношением: f 5? Й(5,+а/АГ)2’ (2.117) где 8(- является i -м собственным числом гессиана R. В разделе 2.4.1 бы- ло показано, что излишняя связь (весовой коэффициент) приводит к нуле- вому значению собственного числа гессиана. На практике ни один из весо- вых коэффициентов не может быть излишним, так как нейросетевая струк- тура не может быть избыточной. Таким образом, гессиан всегда положи- тельно определен. Однако малосущественные весовые коэффициенты приводят к небольшим собственным значениям гессиана и наоборот. Это явление может быть объяснено путем рассмотрения производных выход- ных сигналов по вектору входов (у(г,0)) как матрицы чувствительности. Если весовой коэффициент i несуществен, его производная будет мала при всех значениях t. В этом случае все диагональные элементы, так же как и элементы строки i (столбца i) матрицы R, будут малы, что приво- дит к небольшим собственным значениям гессиана. Для более существен- ных весовых коэффициентов наблюдается противоположный эффект. Сле- довательно, можно разделить собственные числа гессиана на две группы, группу, соответствующую весовым коэффициентам с небольшой значимо- стью, и группу более значимых весовых коэффициентов. Если предполо- жить, что значение a/N больше минимального собственного числа гес- сиана и меньше максимального, то число Р\ можно рассматривать как число эффективных (значимых) весовых коэффициентов нейросетевой мо- дели. В такой интерпретации (при условии, что значением у можно пре- небречь) оценка ФОП для регуляризованного критерия совпадает с оцен-
438 ______________________Нейросетевые методы упра^^^ кой для нерегуляризованного критерия. Настраивая парамёто72?^^ весовых коэффициентов, можно определить эффективный размеп н«1аНия тевой структуры. Основной проблемой является выбор затухани ей₽Осе* минимизирующего среднюю ошибку обобщения. я Весов, Следует отметить, что оценки типа (2.110), (2.113) не могут быть числены непосредственно при отсутствии информации о статистике ВЫ' характеристиках шумов. В разделе 2.4.4 рассматриваются варианты ре*1** ния этой проблемы. Ше' Эффект регуляризации может быть также достигнут путем останов оптимизационной процедуры до момента достижения минимума. Этот факт может быть проиллюстрирован следующим практическим примером Рассмотрим модельную структуру типа NNARX, содержащую 20 ней- ронов в скрытом слое (случай чрезмерной параметризации). Нейронная сеть обучается по методу Левенберга - Маркардта. На каждой итерации производится оценка ошибки обучения и обобщения (рис. 2.11). Ошибка обучения является монотонно убывающей функцией от номера итерации (вследствие применения метода Левенберга - Маркардта). Ошибка обоб- щения убывает только в начале процедуры обучения, а затем, после дос- тижения минимума, увеличивается. Это объясняется тем, что в начале процедуры нейросетевая модель обучается на характерные признаки сис- темы, после чего идет подстройка под возмущения, отраженные в обу- Рис. 2.10. Результаты пятикратного обучения (с рахлнчными начальными условиями) 10-тн различных модельных структур на множестве данных Z* : w* - ошибка обучения (С|); «о» - оценка ошибки прогнозирования на тестовом множестве (е,); Nf - число нейронов в скрытом слое
2 Реализация процедуры идентификации 439 Рис. 2.11. Изменения ошибки обучения (е,) и оценки ошибки прогнозирования иа тестовом множестве ( еа) в ходе процедуры оптимизации нейросетевой структуры методом Левенберга - Маркардта: М - номер итерации оптимизационной процедуры В работе [76] показано, что эффект предварительного останова не толь- ко аналогичен эффекту регуляризации, но и имеет с ним много общего по сути. Тем не менее рекомендуется на практике отдавать предпочтение именно прямым методам регуляризации, а ие предварительному останову, так как большинство методов структурной оптимизации и подтверждения модели предполагают достижение оптимизационной процедурой точки минимума. 2.4.3. Особенности оптимизации параметров нейросетевых модельных структур В настоящем разделе рассматриваются аспекты практического примене- ния методов безусловной оптимизации к обучению нейросетевых моделей. Обучение с использованием затухания весовых коэффициентов. В разделе 2.4.2 рассмотрены методы обучения нейросетевых моделей на ос- нове регуляризованного критерия WN(Q(i\ZN). Регуляризация осуществ- ляется путем добавления дополнительных компонентов к градиенту и гес- сиану: G<e)=.w;<e,z")=v;(e,z'*)+-lDe, (2.118)
Нейросетевые методы управления. 4<iriL 440 ui Допол. критерия Реализация метода Левенберга - Маркардта требует некоторых нительных модификаций. Аппроксимация Гаусса - Ньютона (0(f), ZN) может быть представлена в следующем виде: . ( ы \ адг") - £(,)(0)=— 2(ё(ле))2+otdo I, (2 Л20) где гессиан определяется следующим выражением: R(9) = L(0 (0<0) = — £vO.9(/))VT(^0<O) + d • N >=| I (2.121) Показатель, используемый для подстройки параметра Левенберга - Маркардта (к), может быть найден как ^(©‘^ z*)-L(0(e(0+f(0) Знаменатель W'w(0(O,ZA')-L(i)(6(/) +f(0) в выражении (2.122) может быть определен непосредственно из следующих матричных преобразований: WA,(O(/).ZN)-L(i)(0(i)+f<i)) = = ~f (f(i) )T f G(0(/)) +f X(,)I+—D^f(,)11 <2Л 4 1 I N J JJ Вычисление градиентов. За исключением метода Ньютона, требую- щего вычисления вторых производных, единственным определяющим компонентом процедуры оптимизации является производная прогноза нейросетевой модели по вектору настраиваемых параметров (весовых ко- эффициентов НС) ч»(г,0). Для модельных структур типа NNARX значение ц/(г,0) определяется следующим выражением: (2.124) Значение V(t,O) для NNARMAX моделей определяется как W) ___________________________________________________ М 30 Эе(т-1,0) m Эе(г-*,0) м - Ч»(О - С1 (т)у(» -1.0)-Скy(t - к, 0), или, при введении С(т. 1) = 1+с, + • +с* , ¥('.«) = фО)/с(г,<Г‘). (2.126)
f «аиа 2. Реализация процедуры идентификации 441 Зависимость регрессионного вектора от весовых коэффициентов ней- ронной сети прослеживается при сопоставлении (2.126) и (2.124). При ис- пользовании NNARMAX-моделей градиент получается в результате «вре- менной линейной фильтрации» частной производной <p(t). Очевидно, что это может привести к проблемам с устойчивостью алгоритма, особенно при начальной инициализации весовых коэффициентов случайными чис- лами. Таким образом, для получения приемлемого решения иногда прихо- дится проводить повторное обучение НС. Вычисление градиента для моделей типа «обновления пространства со- стояний» (NNSSIF) представляет более трудоемкую процедуру, чем для рассмотренных ранее случаев. Полагая, что все компоненты вектора со- стояний могут быть оценены, получаем следующее выражение для опре- деления градиента: V(/,e) = ^^CT = 4/x(r,0)CT, (2.127) где <£ст(г|0) _ Эхт(t|0) dxr(t -1|в) Эхт(г|в) аЮ + ЭЯ(г-1,в) Jy(t-r|0) Эхт(/|в) Эе(/-1,®)“ = <р(г) + ух (t -1, в) А (г) - у(? - г, 0)КТ (t) = (2.128) = ф(г) + «М'-1.»)(А(')-К(0)т. В случае невозможности получения полной информации о векторе со- стояний необходимо использовать несколько нейронных сетей (аналог фильтра Калмана [9]). Однако при вычислении градиентов можно рас- сматривать модель как единую НС. В этом случае имеет место следующее преобразование матрицы А(г) для всех значений j 6 {<?, } и ке {<?,+!}: AjJt=lJ=k+l, A}Jt =0,j>*+1. (2.129) Определение остальных компонент матриц А(г) и К(г) осуществляет- ся с использованием соотношения (2.133). Частная производная ф(0 является производной прогнозируемого значения (выхода НС) по весовым коэффициентам нейронной сети в слу- чае пренебрежения зависимостью регрессора от весовых коэффициентов. Обозначим обобщенную выходную переменную НС модели как zk Тогда для двухслойной НС с линейными активационными функциями нейронов выходного слоя и тангенциальными активационными функция- ми нейронов скрытого слоя
442 ________Нейросетевые методы г*а|0) = «*(ФО.9).») = ^и^ tanh| ^wjiVi(h9) j=t ( /=i = $Wvhj(t,0)+Wto. + wJO +WiQS (2.130) Частные производные вычисляются следующим образом: гЛу(г), j>0, к = i, 1, 0, aztq|9)_ f^(l-Aj(O)q»/(r.O), />0. ^•(l-Aj(O), 1=0. Эгл0|9)_ 7=0, k = i, i*k-, (2.131) dwji (2.132) Количество строк матрицы ф(г) определяется числом весовых коэффи- циентов НС, Число столбцов равно числу выходов НС. Якобиан нейросетевой модели. Якобиан, или мгновенная матрица усиления, является производной выхода НС по входам для заданной пары «вход-выход». Для двухслойной НС с линейными активационными функциями нейро- нов выходного слоя и тангенциальными активационными функциями ней- ронов скрытого слоя частная производная по произвольному входу опре- деляется как =£^[1-Л;2(г,е)] (2.133) Метод обратного распространения (ошибки). В случае, когда ней- ронная сеть содержит более одного скрытого слоя с нелинейными функ- циями активации, выражения, для определения значений ф(т), соответст- вующих элементам матрицы частных производных, очевидно, становятся более сложными. Алгоритм определения градиента минимизируемого критерия для сети с произвольным числом скрытых слоев и произволь- ным видом активационных функций, использующий особенности струк- туры НС, носит название метода обратного распространения (ошибки), или обобщенного дельта-правила [б]. Так как алгоритм рассчитан на обучение НС прямого действия, то он может быть непосредственно при- менен только к модельным структурам типа NNARX. Тем не менее метод может быть модифицирован и для получения частных производных ф(Т).
(2.134) г„оца 2. Реализация процедуры идентификации__ 443 Градиент критерия наименьших квадратов (рассматривается общий случай НС с несколькими выходами) может быть представлен следующим образом: gw=здг")=1£^^Е(/,е)= *V |я| Ои Прогнозируемое выходное значение НС вычисляется в соответствии со следующим выражением (для выхода к ): y*(4e)=F* £wf) = Ft , (2.135) 'to '=° ; где fj - активационная функция нейрона скрытого слоя/, a Fk - актива- ционная функция выхода к. Для простоты нейронные смещения пред- ставлены как добавочные весовые коэффициенты, т.е. /^(0 = <₽о(0 -1 • Частные производные выходов НС по весовым коэффициентам опреде- ляются следующими соотношениями: ч г=° Ф^ = Л1 (2.136) (2.137) °Wlg (j=Q U=° что приводит к следующему выражению для определения градиента скры- того-выходного слоя: f=l j=Q N =SMor’('), »=1 где «ошибка» или «дельта» вводится как 6^(0 = f/^ВД(т.е) |(у*(О- У*(Г|®>)• J=° ) Градиент для входного-скрытого слоя определяется как (2.138) (2.139) (2.140) i-o где
444 Нейросетевые методы управления Часть Ш . (2.141) Аналогичным образом алгоритм обобщается на случай произвольного числа скрытых слоев НС. Процедура заключается в распространении по НС значения «дельта» (2.139) слой за слоем в обратном направлении. При необходимости частные производные ф(г) могут быть получены из выражений (2.138) и (2.140). Из выражения (2.139) удаляется значение ошибки прогнозирования (невязки), затем отдельно для каждого выхода применяется метод обратного распространения ошибки. Определение направления пояска. При использовании методов Нью- тона, Гаусса - Ньютона и Левенберга - Маркардта для определения на- правления поиска необходимо решать системы линейных уравнений [7,13, 14). Методы, основанные на использовании таких свойств гессиана Гаусса - Ньютона, как положительная определенность и симметричность, рас- смотрены в работе [40]. Многомерные системы. Системы, имеющие векторный вход и (или) выход, называются многомерными. Очевидно, что построение моделей та- ких систем является более сложной процедурой (по сравнению с одномер- ным случаем). Тем не менее при многомерном входе могут быть использо- ваны рассмотренные в настоящей работе методы оптимизации. Модели с несколькими выходами имеют гораздо более сложную структуру, вследст- вие чего их параметризация нетривиальна. Существует несколько подхо- дов к решению данной задачи. Наиболее простым (с точки зрения практи- ческого применения) является использование независимой модели для ка- ждого выхода. В этом случае задача может быть решена без каких-либо дополнительных модификаций. Однако более естественно рассматривать систему в целом, модифицированный критерий идентификации 1 N vNW,zN ) = ™ £( ?(') - 5?(f| в))т (уЮ - у(‘|е» = Г=1 (2.142) = ™l>T(f'O)e(t,e). Критерий (2.142) не является достаточно эффективным при значитель- ном различии дисперсии шумов по каждому входу и существенной взаим но-корреляционной функции. Вместо критерия (2.142) может быть нсполь зована следующая модификация: 1 N V,(0.z«)~2eT«.<»A-•«<.•>. <2143) где A - матрица ковариации шумов, А = £{е(О«Т(О) • Оценка, получе11 путем минимизации критерия (2.143), соответствует оценке максимадьц правдоподобия при условии нормального распределения шумов и известц^
445 г^»нг2.Реализация процедуры идентификации матрице Л • При реализации метода Левенберга - Маокамта следуЮщие выражения для определения градиента и гесж °ЛЬЗуЮТСя », i w |=1 (2.144) ВД = Т ,8) А’1 ч»(Г ,6), (2.145) " t=i где матрица производных выхода по весовым коэффициентам определяет- ся как '^г,в)=~3£» (2-146) ов Алгоритм Гаусса - Ньютона (версия с экспоненциальным затуханием) модифицируется следующим образом: K(r) = P(t -l)v(n(XA‘l+vT(t)P(t - l)v(t)]'1, 0(t) = 0(Г -1) + K(t)A"1 (y(t) - y(j\9(t -1))), (2.147) P(t) = (P(t -1) - K(t) VT (t)P(t - 1))Д • В случае, когда матрица ковариации неизвестна, возникает необходи- мость определения А одновременно с определением весовых коэффици- ентов нейросетевой модели. Данная проблема подробно рассмотрена в ра- ботах [9,40]. Критерий останова. Критерий останова вводится для автоматического завершения процедуры обучения. Обычно критерием останова является некоторое условие, выполнение которого показывает, что дальнейшая оп- тимизация параметров модели неэффективна. Существенной проблемой при выборе критерия является невозможность определения адекватности модели иа стадии обучения. Решением проблемы является введение сразу нескольких ограничений. Первый вариант - задание максимального числа итераций процедуры обучения. Данный критерий не имеет физического (математического) обоснования и определяет лишь максимально допустимые временные за- траты на процедуру обучения. Тем не менее критерий может быть исполь- зован в качестве основного в системах реального времени. Следует отме- тить, что для достижения минимума с требуемой степенью точности при использовании метода Левенберга - Маркардта обычно достаточно про- вести 500 - 600 итераций для нейросетевой модели, содержащей 100 - 500 весовых коэффициентов. Другой способ задания критерия останова - введение ограничений на градиент G(0). В точке минимума 0 = 0’ градиент должен быть равен ну- лю. При использовании методов последовательного приближения дости-
446 Нейросетевые методы управления женив равенства G(9*)= 0 невозможно. Тем не менее в качестве останова может быть задано следующее условие; |G(e(0)||iSe. «Ригернл (2.14g) где е - некоторая константа. Несмотря на математическую обоснован, ность критерия (2.148), практическое применение является затрудните^ ным. Этот факт объясняется сложностью выбора значения £. Критерий останова может быть получен на основе оценки изменения весовых коэффициентов между двумя итерациями. В случае, если макси- мальное изменение весовых коэффициентов max{0*+l) -0j^| меньше не- которой величины, процедура обучения завершается. В некоторых нейросетевых приложениях в качестве критерия останова может быть использовано достижение некоторого значения е минимизи- руемой функции VN(0,Zw). Однако, с точки зрения нейросетевой реали- зации процедуры идентификации, использование этого подхода затрудни- тельно, так как априорное определение е невозможно в силу отсутствия информации о дисперсии возмущений. При оптимизации нейросетевых моделей достаточно часто возникает ситуация, когда аппроксимация критерия оптимизации вблизи точки ми- нимума становится неадекватной [20]. При использовании алгоритма Ле- венберга - Маркардта возникает риск недопустимого уменьшения довери- тельной области, что приводит к проблемам вычислительного плана. Ко- эффициент Маркардта X (2.78), находясь в обратно пропорциональной за- висимости от размера доверительной области, постоянно возрастает по мере приближения к точке минимума. Таким образом, можно установить некоторое максимальное значение X как критерий останова процедуры обучения нейросетевой модели. Таблица 2.1 Сравнительная оценка алгоритмов обучения НС Алгоритм обучения Оценка алгоритма по пятибалльной шкале Скорость сходимости Вычислительная робастность Требования к опера- тианой памяти Обратное распространение ошибки 1 4 2 обратное распространение .ошибки (рекуррентный) 1 4 5 ЦЧетод Гаусса -Нмотпи. з з з Метод Левенберга-Маркардта 5 5 1 разделе 2.4.2 обсуждались вопросы предварительного (без достижения минимума) останова процедуры обучения с целью достижения эффекта ре-
447 2 реализация процедуры идентификации £^-^дайГпри использовании данного подхода использование упомяну- ^ЛЯ^ми«е критериев останова становится невозможным. Вместо них ис- ть1Х ^тся результаты оценки модели иа тестовом множестве: процедура Пд^ения завершается по достижении минимума ошибки обобщения. ° Оценки эффективности алгоритмов обучения ИС. В результате ал- «тмизации и компьютерного моделирования получен ряд оценок мето- да оптимизации параметров нейросетевых моделей (табл. 2.1). 2.5. Принятие решения об адекватности модели На этапе оптимизации параметров (§2.4) реализуется выбор «наилуч- шей» (в силу некоторого критерия) модели в пределах фиксированной мо- дельной структуры. В соответствии с процедурой идентификации (рис. 2.1) следующим шагом является принятие решения об адекватности (неадекватности), или подтверждение модели. Основной задачей на дан- ном этапе является получение ответа на вопрос: «насколько хороша» оп- тимизированная модель? Несмотря на неформальный характер поставлен- ного вопроса, можно выделить ряд аспектов, исследование которых позво- ляет сделать выводы о возможности [фактического применения модели, т.е. подтвердить модель: • согласованность модели с экспериментальными данными; • возможность использования модели для решения поставленной задачи; • адекватность модели реальной системе. В общем случае для подтверждения модели необходимо сопоставить с полученной моделью всю имеющуюся информацию о реальной системе [9], т.е. априорную информацию, экспериментальные данные и опыт ис- пользования модели. В прикладных задачах идентификации систем типа < черный ящик наиболее естественным (а зачастую, единственно возмож- ным) объектом для сопоставления с моделью являются эксперименталь- ные данные. Наиболее простой и естественный способ подтверждения работоспособ- ности модели - проверка на множестве данных, не использованных при оп- тимизации параметров модельной структуры. Этот подход, известный как перекрестная оценка [9], требует специального набора данных ~ «тестового множества», удовлетворяющего тем же требованиям, что и обучающее множество (например, покрытие всего рабочего диапазона системы). Прак- тическая реализация подхода ие вызывает затруднений, так как сводится к оценке моделирования работы сети в режиме нормального функционирова- ния. Единственной проблемой может оказаться невозможность выделения тестового множества в силу недостатка экспериментальных данных. жлениТnaparPM>e рассматриваются следующие методы подтвер- множеетваэксп^ХХХх д=ГИ W ₽ЮМ*‘
448 • оценка модели с позиции невязок: исследование коопеп ~~ функций различных комбинаций невязок и данных; Реляционных • имитационное моделирование - прогнозирование иа к шагов впере • оценка средней ошибки обобщения: используется для шимид можности использования модели в качестве прогнозирующей для гто0' ведения структурной оптимизации нейросетевых моделей. 2.5.1. Исследование корреляционных функций Если предположить, что некоторая модель М (0) получена путем оп- тимизации на основе множества экспериментальных данных ZN, можно получить оценку адекватности модели путем анализа ошибок прогнозиро- вания (невязок). Источником данных предполагается уравнение типа y(O = e(q>a,S),6)+eW, (2.149) где е(г) - белый шум, #(ф(т,0),0)= у(г|0) - отображение, реализуемое моделью. По отношению к данным вопрос о подтверждении модели равносилен вопросу о правдоподобии того факта, что реализация Zw действительно может быть порождена соотношением (2.149). Это эквивалентно утвер- ждению, что ошибки прогнозирования (невязки) E(f,0) = y(/)-g(q>(r,e),6) = у(Г)-5»(:|1) (2.150) являются последовательностью нормально распределенных независимых случайных величин. Проверку выполнения условия (2.150) можно провес- ти статистическими методами различной сложности [25]. Можно утверждать, что модель вполне адекватна н информация, содер- жащаяся в обучающем множестве, была извлечена полностью в том случае, если ошибка прогнозирования некоррелирована с предыдущими данными [9,25]. В принципе, можно рассматривать корреляцию со всеми возможны- ми линейными и нелинейными комбинациями данных, хотя на практике это нереалистично. Поэтому для оценки обычно используются лишь несколько наиболее репрезентативных авто- и взаимокорреляционных функций [28]: w-t % (e(t, ё) - ё)(е( t - т, ё) - ё) rtt(t) = ---------R----------------- .ё)-Ё)2 м jV-t £(н(О-й)(е(т-т,ё)-Ё) = ( N ~ 7/2 = °. Vt ; (2.152) £(“(0-й)2 I £(е(г,ё)-е)2 \ ) [1, т = 0, (О, т*0; <2Л51>
рдона 2- Реализация процедуры идентификации fJfJ(‘t) = и e N-T £(и2(г)-й2)(е2(т-т,ё)-е2) >=i___________ \V2/ N \V2 Ё(е2(Г,ё)-Ё2)2 =0, Vt; £(и2(0-й2)2 1=1 N-t £(и2(о-й2)(Еа-т,ё)-ё) T^=0.Vx; = ------------- £(w2(o-«2)2 I »=1 £(Е(г,ё)-ё)(р(г-т-1)-Р) 'U(t)=77 \V2/a, \V2/ ,2 V где Р(г) = и(г)Е(г,ё), чертой сверху обозначены средние значения сигналов _ 1 £ ,ч 449 (2.153) (2.154) (2.155) (2.156) (2.157) Обычно производится проверка функций на равенство нулю при 95% доверительном интервале при те [-20,20], т.е. -1,96/4n <r< \,96ljN. Первые две корреляционные оценки (2.151), (2.152) традиционно ис- пользуются при реализации методов идентификации линейных систем, так как рассмотрение корреляционных функций более высокого порядка неце- лесообразно. В работе [28] также предлагается рассматривать следующие функции: N-T £(а(г)-а)(е2(г-т,ё)-Г) >=1 s . Wn о, £(е2(».ё)-Е2)2 *’ Т“0, (2.158) где Ёадо-а)2 < '=1 J { t=l N-t £(а(0-а)(и2(г-т)-й2) V(t) = ' N Swo-a)2 —:-----------------p=-=0, Vt, (2.159) У'2/’ ч _ , - Г 2}(и2(г, в)-й2)2 30 Зак. 108 а(г)ху(г)е(г,ё), (2.160)
Нейросетевые методы управления, Чя-ть 450 (N - _4 f2 £(е2(г,е)-е2) *2=Т;--------- £(а(г)-Я)2 (2.161) Следует отметить, что представленные тесты могут применяться и к многомерным моделям. В этом случае исследуются корреляционные функции для каждой комбинации вход-выход. 2.5J2. к -шаговое прогнозирование В случае, когда частота дискретизации достаточно высока по сравне- нию с динамикой реальной системы, анализ ошибок одношагового про- гнозирования становится неэффективным. Действительно, для двух после- дующих значений выходного сигнала в большинстве случаев верно соот- ношение y(r) = y(t -1), и значение ошибки прогнозирования невелико. Очевидно, что небольшие ошибки прогнозирования в этом случае не обу- словливают адекватности модели. Одним из подходов к решению данной проблемы является оценка многошагового прогноза модели путем имита- ционного моделирования [9]. В этом случае регрессионный вектор состоит из фактических входных сигналов реальной системы и прогнозируемых на предшествующих итерациях выходных значений. При использовании NNARX-модели к -шаговый прогноз определяется следующим соотноше- нием: y(f + t)s у(г + Л|»,ё) = ^(ф(1 + &),&), (2.162) где . 9T(r + t) = [y(r + t)„..,y(t + fc-min(fc,n) + l), 163) У(0,-•.. y(t- max(n- Л,0)),u(t - d + к),.. ,,u(t -d -т+к)]; п - число предшествующих значений выходного сигнала, т - число предшествующих входов, d — временная задержка. Результаты к -шагового прогнозирования можно оценивать визуально либо вводя некоторую формальную меру расстояния между сигналами. 2.5.3. Оценка средней ошибки обобщения Достоверная оценка средней ошибки обобщения весьма существенна для решения задачи подтверждения модели. Кроме того, данная оценка может быть эффективно использована для быстрого анализа различных модельных структур с целью установления наиболее адекватной реальной системе. В настоящем разделе рассматривается оценка ошибки обобщения, основанная на ФОП Акайке [21]. В разделе 2.4.2 оценка средней ошибки прогнозирования была введена как
451 Реализация процедуры идентификации „ 2 К N) (2.164) яри условии, что нейросетевая модель обучается лп и яимума нерегуляризоваиного критерия (2 145) й Д0СТИЖевдя точки ми- ка дисперсии шумов в соответствии со следуюш™» f9] ВВедена оцеп- , м выражением- N Р (2.165) Подстановка (2.165) в выражение (2.164) приводит к оценке типа ^=5~v«(®’zN)- (2.166) Для регуляризованного критерия (D = oil) оценка принимает вид vM °л67) где Pi = tr[R(R + D)'1R(R+D)'1 ], (2.168) у =-LoJd(r+—d) r[r+77d>| °®о (2169) № N j I N J При обучении нейросетевой модели в соответствии с регуляризован- ным критерием требуется определить оценку значения дисперсии шумов. ~ Проводя разложение критерия в окрестности действительных значении весовых коэффициентов сети 60, получим следующую оценку: e{vn(o,zn)}=E{vA/(ea,zN)}+E{(0-oo)Tv;(eo,z'v)}+ +1 е{(0 - е0)т (во, zN хе - во)}. Очевидно, что первая составляющая в правой части выражения (2.170) Равна половине дисперсии шумов: ’ E{vN(e0,zA,)}=v(e0)=“Oe- (2171) Определение второй составляющей несколько сложнее. Найдем разло- жение первого порядка критерия в окрестности 6q : о=w„ (ё, zN)» w„ (б0, zn)+(ё - oo)T Wn (в0. z* ), <2-172> что приводит к соотношению (ё-е0)» -[w’;(e0,zA')]'1 ^(e0,zN). (2-173> В работе [9] показано, что при достаточно больших значениях N VJ5(0o,ZN)«R = E{vd-eo)VT(/-eo)}. (2-174) что приводит к выражению зо*
452 Нейросетевые методы управления, Чаег< щ ^(0o.z'v)=v;(0o.z'v)+^d-r+±d. (2Л75) Подстановка полученного результата в (2.170) дает следующее сощ. ношение: ^{(O-Oo/^.Z")}» .т х (2.176) N х R +—D N 1 " 1 7;Х^во>а.во) + N r=l I \ 1 1 N > ±5>(U0)e(r,e0) • м t=l J1 Т-1 N +E |-bojD | r + 4d k " Шумы не зависят от входного сигнала и некоррелированы с функциями входного сигнала. Таким образом, вторая составляющая Е в выражении (2.176) равна нулю. Введение оператора трассировки матриц позволяет переписать выражение (2.176) в следующем виде [9]: E{(S-o6)Tv;(e,zw)}= »-tr Е I N у ] N —}?V(t,e0)e(f,e0) — ]£ч»(*.в0)е(Г,0о) N " Д N " (2.177) x[s+±D]“] _2 z , -tr R +—D N I N Найдем значение третьего компонента правой части выражения (2.170): п[е{(»-eo)TR(0 -е0)}]=tr[RE{(e - е0)(ё - е0)т}]=й[йр], (2.178) где матрица Р, представляющая собой математическое ожидание девиа- ций весовых коэффициентов, трактуется как простое затухание весов. На основе соотношений (2.173) и (2.175) можно получить выражение для
Глава 2. Реализация процедуры идентификации 453 сложного затухания (имеются в виду различные значения параметров за- тухания для каждого весового коэффициента): Р = Е<(0-80)(8-в0)т|=—£- Й+—D | Й Й+—D| + 1 J N J I N I V 1 , v > (2.179) 1 (_ i y*1 / i V1 + -73- R + 77D DeXD R + ±D , N \ N ) \ N ] что приводит к следующему выражению: - п2 (_ 1 Y* (_ 1 Т* trfRPUS-ft R+-S-DI Й R+—D + L J ЛГ J I N J 1 (- » У1 ( 1 Y* +—-t-OqDI R + -— D Й Й+—D 80D. № I IV 1 I AZ I (2.180) R - неизвестно, поэтому производится замена на гессиан Гаусса - Ньютона, определенный в точке минимума R = R(0). Выделяя в выраже- нии (2.180) Pj (2.186), Y (2.169) и подставляя (2.171), (2.177), (2.180) в (2.170), получаем следующий результат: 2E{vJV(0,ZJV)} - f . fr ( 1 = o2-2—tr R R+—D ‘ N 1 N ”1 ’ N \ 4 Определяя p2 как p2 = tr r(r+^d можно переписать (2.181) в форме 2E{VW (0, Z*)} « 1 + P1 Y > что приводит к следующей оценке дисперсии шумов: _,_2NVJV(6,ZAf)-WY * N + Р| - 2рг (2.181) (2.182) (2.183) (2.184) Для случая D = а! Отбрасывая у и подставляя оценку дисперсии в выражение (2.167), по- лучаем следующую оценку ошибки прогнозирования: vM =—^•VjV(0,zJV)'). (2.186) " N + Pi-2p2 N ( /V-Pi J
454 __________________Нейросетевые методы управления. Ч-)Г1 Выражение для средней ошибки обобщения получено с учётоЗ~"^ факта, что реальная система содержится в выбранной модельной ctdv^° ре, т.е. $€ М . Однако практическое использование оценки достат^ эффективно даже в случае существенной ошибки смешения. 4110 2.6. Практические рекомендации по применению нейросетевых МЕТОДОВ ИДЕНТИФИКАЦИИ динамических систем Рассмотренный подход к решению задачи идентификации динамиче- ских систем на основе нейросетевых модельных структур представляет собой многоэтапную процедуру, на каждой стадии которой решается ряд концептуально значимых подзадач. Последовательное решение именно этих подзадач с использованием рассмотренных рекомендаций обусловли- вает эффективность метода. Несмотря на мощные обобщающие свойства нейросетевых структур, предложенный подход не является панацеей, так как качество идентификации прежде всего основано на информативности экспериментальных данных. Значительная часть материалов, представлен- ных в данной главе, посвящена именно вопросам эффективного извлече- ния информации из множества данных, полученных в результате проведе- ния тщательно спланированного эксперимента. При решении задачи идентификаций нелинейных систем весь ампли- тудно-частотный рабочий диапазон системы должен быть равномерно представлен в множестве экспериментальных данных. Существенную роль играют вопросы предварительной обработки данных, такие как фильтра- ция н приведение к нулевому среднему и единичной дисперсии. Обычно экспериментальные данные разделяются на обучающее и тестовое множе- ство, используемые соответственно для настройки параметров и подтвер- ждения адекватности модели. Пропорции, в которых данное разделение должно быть произведено, определяются размером экспериментального множества: чем больше данных, тем больше может быть размер тестового множества. Определение модельной структуры является достаточно сложной зада- чей в силу наличия большой свободы выбора. Нахождение абсолютно оп- тимальной структуры практически невозможно, поэтому необходимо оп- ределить структуру, достаточно близкую к оптимальной. В настоящей гла- ве предложены методы решения данной проблемы. Выбор конкретной стратегии обусловлен наличием ряда ограничений, прежде всего, на мно- жество экспериментальных данных. При незначительном размере множества экспериментальных данных преобладающую часть ошибки обобщения составляет ошибка смещения (вне зависимости от размера выбранной модельной структуры). В этом случае сравнение различных модельных структур и подтверждение модели достаточно проблематичны. Рекомендуется использовать модельные
Глава 2.?еализация процедуры идентификации 455 структуры типа NNARX, реализованные иа полносвязных нейронных се- тях, прячем отношение количества обучающих пар к числу настраиваемых параметров НС должно находиться в диапазоне от 3 до 10. Обучение должно производиться на основе нерегуляризоваиного критерия. При значительном размере множества экспериментальных данных эф- фективность применения методов регуляризации незначительна. Поэтому рекомендуется использовать в качестве модельных структур полносвязиые НС, обучаемые без регуляризации. При высоком уровне шумов могут быть использованы структуры типа NNARMAX. Выбор оптимальной архитек- туры производится путем последовательного расширения структуры НС с обязательной проверкой на тестовом множестве. При среднем размере множества экспериментальных данных сущест- венное значение имеет нахождение разумного компромисса между ошиб- кой смещения н дисперсионной составляющей средней ошибки обобще- ния. В данном случае чрезвычайно эффективны методы регуляризации и структурной оптимизации нейросетевых моделей. Следует отметить, что в ряде случаев бывает достаточно трудно опре- делить принадлежность задачи идентификации к одной из перечисленных выше категорий. Понятие «достаточности» экспериментального множест- ва напрямую связано со сложностью системы, подлежащей идентифика- ции. Проблема может быть решена путем последовательной многократной реализации всех этапов процедуры идентификации с целью получения наиболее полного представления о характеристиках исследуемой системы. Очевидным преимуществом является априорное знание порядка систе- мы, основанное на четком представлении физических принципов функ- ционирования. В случае отсутствия такового, проблема выбора регресси- онного вектора может быть решена путем применения рассмотренной ме- тодики, основанной на исследовании коэффициентов Липшица. На этапе оценки (оптимизации параметров) модели необходимо осуще- ствить выбор критерия, на основе которого реализуется оптимизационная процедура. Кроме того, должен быть выбран один из рассмотренных мето- дов оптимизации (обучения) нейросетевой модели. В настоящей главе ис- следован традиционный тфитерий наименьших квадратов и его модифика- ция, использующая концепцию регуляризации путем введения затухания весовых коэффициентов. Для реализации процедуры обучения нейросетевой модели рекоменду- ется использовать метод Левенберга - Маркардта. Этот метод, разрабо- танный специально для решения задач безусловной минимизации средне- квадратичного критерия, обладает высокой скоростью сходимости, вычис- лительной робастностью и простотой применения. Так как минимизируе- мая функция имеет в общем случае несколько локальных минимумов, ре- комендуется проводить обучение НС 5-7 раз, изменяя начальные значе- ния весовых коэффициентов.
Нейросетевые методы управления. Часть Ппинятие решения об адекватности модели (поотерждан^^^ большей завись от особенностей поставленной задачи и п₽«*^ ХТапХскот применения модели. В общем случае желательно, ч^ Способное» модели была подтверждена на тестовом множестве. вХ-пИ главе рассмотрен ряд эффективных методов подтасрждс. ния моделей:. • корреляционные тесты для проверки невязок на мость от предшествующей информации; • одношаговое н многошаговое прогнозирование; • оценка средней ошибки обобщения. Данные тесты могут быть использованы для однозначного подтвер- ждения модели в случае реализации модельных структур на полносвязных НС. Однако, если отношение количества обучающих пар к числу настраи- ваемых параметров НС меньше 15, рекомендуется провести ряд экспери- ментов с изменением параметра затухания весовых коэффициентов НС и/или структурную оптимизацию модели. Процедура нейросетевой идентификации практически обеспечивает получение адекватных прогнозирующих моделей, предназначенных как для моделирования поведения динамических систем, так и для использо- вания в контуре управления. «белизну» и независц.
раана 3. Нейросетевые системы управления 457 ГЛАВА 3 НЕЙРОСЕТЕВЫЕ СИСТЕМЫ УПРАВЛЕНИЯ В предыдущей главе были рассмотрены основные принципы нейросе- тевой идентификации нелинейных систем. Реализация нейросетевой про- цедуры идентификации необходима для решения достаточно широкого круга самостоятельных задач, связанных с необходимостью получения моделей сложных нелинейных динамических систем. В настоящей главе нейросетевая идентификация рассматривается как один из этапов проекти- рования регуляторов. Проблема синтеза нейросетевых регуляторов, реше- нию которой посвящена настоящая глава, рассматривается с двух позиций, а именно: прямые методы синтеза и косвенные методы синтеза нейросете- вых систем управления. В прямых методах регулятор реализуется непо- средственно на нейросетевой структуре; в косвенных методах использует- ся нейросетевая модель системы, полученная в результате реализации процедуры идентификации, а синтез регулятора осуществляется одним из традиционных методов. В последнем случае регулятор как таковой не яв- ляется нейросетью. В соответствии с основной концепцией данной книги рассматриваются вопросы практического применения методов прямого и косвенного синтеза нейросетевых систем управления. 3.1. Введение в нейросетевые методы синтеза СИСТЕМ АВТОМАТИЧЕСКОГО управления Синтез системы управления подразумевает создание такого устройства, в результате работы которого система ведет себя «должным образом», т.е. достигается заранее определенная цель управления. Однако на поведение системы в целом (и, следовательно, на определение цели управления) су- щественное влияние оказывают динамические свойства исполнительных органов и объекта управления, погрешности измерительного оборудова- ния, наличие вычислительных мощностей и т.д. 29 Зек. 1ОВ
458_________________Нейросетевые методы управления, Традиционно выделяются два основных типа систем управления^ • системы стабилизации, предназначенные для поддержания заданно значения системной переменной (выхода системы) на определен» уровне независимо от действующих на систему возмущений; м • следящие системы (серворегулировання), предназначенные для под держания (выхода) системы на определенной траектории. В настоящей работе, как, впрочем, и в большинстве учебников по тео- рии управления, рассматриваются именно следящие ситемы. На этапе определения метода синтеза системы управления рассматри- ваются следующие постановки задачи: • замкнутая система, состоящая из регулятора и объекта регулирования, должна соответствовать заранее определенной модели (например, за- данной передаточной функцией). Для решения задачи в данной поста- новке используется ряд методов, таких как модальное управление и управление по эталонной модели; • желаемое поведение системы формулируется в виде (квадратичного) критерия, который минимизируется в результате работы регулятора. К методам решения задачи управления в данной постановке относятся, например, управление по минимуму дисперсии, управление с прогно- зированием и оптимальное управление. Стандартным требованием к замкнутым системам является обеспече- ние устойчивости. К сожалению, анализ устойчивости нелинейных систем чрезвычайно сложен. Это объясняется тем, что нелинейная система, буду- чи устойчивой в одних режимах, может быть неустойчива в других. В некоторых работах предлагается использовать нейросетевые методы синтеза адаптивных регуляторов для нестационарных нелинейных систем. Несмотря на теоретическую обоснованность данных методов, их практи- ческое применение ограничено узким классом систем с «медленной» ди- намикой. В данной главе рассматриваются два принципиально отличных подхо- да к построению нейросетевых систем управления: • прямые методы синтеза - регулятор реализуется непосредственно на нейросети. Применение метода не вызывает трудностей, однако необ- ходимость постоянного переобучения нейросети приводит к ряду про- блем; • косвенные методы синтеза - нейросеть используется в качестве модели объекта управления, а синтез регулятора осуществляется трядипион- ным методом. В данном случае процедура разработки ситемы управле- ния включает следующие основные этапы: 1. Проведение эксперимента с целью получения множества данных, пред- ставляющих объект регулирования во всем рабочем диапазоне; 2. Построение нейросетевой модели объекта посредством обучения ней- росети на множестве экспериментальных данных;
f „.маЗ, Нейросетевые системы управления __________________ 459 3. Синтез регулятора с использованием полученной нейросетевой модели (возможно, в режиме реального времени). Методы косвенного синтеза наиболее применимы для разработки сис- тем управления реальными объектами. Для иллюстрации различных концепций построения нейросетевых сис- тем управления используется следующий объект: у(г)+у(О+у(П+(у(г))2 =и(г). (3.1) Рис, 3.1. Тестирование системы (3.1) последовательностью прямоугольных импульсов различной амплитуды 4«(0.у(0 Рис. 3.1. Тестирование системы (3.1) синусоидальными сигналами различной амплитуды
460 _____________Нейросетевые методы управления. Часть Щ Уравнение (3.1) представляет довольно простую устойчивую мини- мально-фазовую систему с гладкими нелинейностями. Степень нелиней- ности системы устанавливается двумя сериями экспериментов. В первом случае на систему подается тестовый сигнал, представляющий собой по- следовательность прямоугольных импульсов различной амплитуды (рис. 3.1), во втором случае система тестируется синусоидальными сигна- лами различной амплитуды (рис. 3.2). Анализ рис. 3.1 и 3.2 позволяет сде- лать заключение о нелинейности системы. Особенно хорошо просматрива- ется нелинейность при увеличении амплитуды входного сигнала. При ам- плитуде тестового синусоидального сигнала равной 10 выходной сигнал уже совсем не похож на синусоиду. Таким образом, для рассматриваемой системы условие гомогенности y(t) = g(au(t))^ag(u(t)') (3.2) не выполняется. 3.2. Синтез нейросетевой системы управления на основе инверсной модели объекта топа вЛТН°М С31^чав основным принципом синтеза нейросетевого регуля- систрми еТСЯ нах0ЖДение инверсной нейросетевой модели динамической Пусть некоторая система S может быть представлена в виде Мг+1) = ^(у(/).................U(t-m)). (3.3) ет пн» Д Одель НеЙроконтроллера (инверсная нейросетевая модель) име- «Ю = g (y(t +1), у (г),..., у(г - п +1), u(t -1)................u(t - m)). (3-4) Рис. 3J. Структура схем» нейросетевой системы управления с ипверсиой моделью Данная модель обучается на множестве примеров (экспериментальных данных), а в режиме непосредственного функционирования использует следующий вектор входов:
Глав» 3 Нейросетевые системы управления ф(?) = [гО +1), у(0, • • , y(t ~ п +1), u(t -1), 461 (3.5) u(t-m)]T, где r(r + l) - желаемый выходной сигнал системы (уставка) для момента времени (г+0- Структурная схема метода для системы первого порядка представлена на рис. 3.3. Инверсные модели динамической системы могут быть получены на ос- нове обобщенного метода обучения в режиме офлайн («off-line») или ме- тода обучения в режиме реального времени («оп-line», онлайн). Обобщенный метод обучения инверсной нейросетевой модели. Наи- более простой способ построения инверсной нейросетевой модели динами- ческой системы по существу является аналогом процедуры нейросетевой идентификации, подробно рассмотренной в предыдущей главе: проведение эксперимента с целью получения обучающего (тестового) множества; выбор структуры нейросетевой модели; обучение в режиме офлайн. Единственным отличием является специфика выбора регрессионного вектора и выхода нейросетевой модели. Теперь они определяется соотношениями (3.4) и (3.5). При обучении нейросети минимизируется критерий в форме J(0,Z")=^^(«(f)-«(f|e))2. (3.6) В данном случае процесс настройки коэффициентов нейросети произ- водится в режиме офлайн одним из методов, рассмотренных в предыду- щей главе, а процедура настройки весовых коэффициентов нейросети но- сит название обобщенного обучения. Основным достоинством данного метода является независимость от модели реальной динамической систе- мы, т.е. нейросетевой регулятор строится непосредственно на основе экс- периментальных данных. Для пояснения принципа работы алгоритма предположим, что известно желаемое значение выхода системы (уставка) на последующем шаге (рис. 3.3). Передаточная функция замкнутой системы может быть пред- ставлена как Н(<Г1) = ч'1. (3.7) Таким образом, регулятор линеаризует исходную систему, выходной сигнал в точности повторяет уставку, за исключением смещения на один шаг назад. В случае, если временная задержка (запаздывание) в системе превыша- ет единичную, использование принципа управления на основе инверсной модели затрудняется. Передаточная функция замкнутой системы опреде- ляется как Я (g ) = q~d t где _ запаздывание. дующеДП0Л°ЖИМ’ ЧТ° система может быть представлена уравнением сле- У(т+d) = g(y(j+d i)....y(j+d- п), и(0„. .,w(t - m)).
462 ___________________Нейросетевые методы управления. Часть Ш Нейросетевой регулятор представляет собой инверсную модель системы: u(t) = g~l(y(t+d),y(t+d~l),...,y(t),...,y(t+d ~n),u(t),u(t-m))- (3-8) По аналогии y(t+d) заменяется на желаемое значение выхода системы в момент времени (t+d). Таким образом, значения {у(г + 1).у((+^-1)} необходимо доопределить и подставить в уравнение (3.8). Доопред®1®0® значений выходов системы может быть осуществлено с использованием (нейросетевой) прогнозирующей модели. Другой способ - непосредственное включение прогнозирующей моде- ли в нейросетевой регулятор. Предположим, что запаздывание d = 2. То- гда необходимо доопределить лишь одно значение y(t +1): y(t+1) = y(t+1) = g1 (y(t). ... у(» +1 - n), м(е -1).u(t - m -1)) • О-9) Инверсная модель системы может быть получена посредством объеди- нения (3.8) и (3.9): “(О = I (yU+2), y(t) y(t + 2 - n), y(t +1 - n), u(f --1),..., u(t - m -1)). (ЗЛО) Аналогично можно получить инверсный нейросетевой регулятор для случая d>2. Несмотря на простоту реализации, практическое применение нейросе- тевых регуляторов на основе инверсных моделей существенно ограничено. Это связано с тем, что использование обратной связи для достижения «бы- строй» реакции системы на изменение входного сигнала (уставки) обычно приводит к значительной чувствительности системы к высокочастотным возмущениям. Кроме того, управляющее воздействие является чрезвычай- но активным, т.е. могут возникнуть проблемы с его реализацией исполь- нительными устройствами. Другая проблема связана с тем, что соотношение 8(У(О>..., y(f- л+1), Mj (Г), u(t - т +1)) * * g(y(O y(t - и+1), И1 (t),..., u(r - m +1)) (3-1 *) не всегда выполняется для м((г) # и2(1), что в большинстве случаев приво- дит к неадекватной инверсной модели ситемы. Пример 3.1. Построение регулятора на основе инверсной нейросетевой модели дл« темы (3.1). «'исис- На рис. 3.4 представлен входной (тестирующий) сигнал н соответствующая редкий темы. На полученном множестве экспериментальных данных обучена нейросетевая cnv1,CHC ра, содержащая 5 нейронов с тангенциальными функциями активации в скрытом слое^*1^" линейный нейрон в выходном слое (рис. 3.5). Обученная инверсная нейросетевая моде** °ДИн темы использована в качестве регулятора. Ль Снс- Результаты тестирования (рис. 3.6) показывают наличие небольшого пеРерегуЛ(10 т.е. построенная инверсная нейросетевая модель системы не является идеальной. шее воздействие достигает значительных величин и является чрезвычайно активны^ .вВлЛ1о- лнрующим). ^Чид- Обученне нейросетевой модели в режиме реального времеци f анализированный метод обучения). При использовании обобщ метода обучения инверсной нейросетевой модели используется
1"Я»на 3; Нейросетевые системы управления________________463 (3 5), в соответствии с которым выход нейросети максимально приближа- ется к некоторой последовательности управляющих воздействий. В реаль- ности основной задачей регулирования является максимальное приближе- ние выхода объекта к желаемому значению, определяемому уставкой. Та- ким образом, более естественно выглядит критерий типа 1 N '«•г") j-jSO-W-J’Gtf- <3-12’ 10 0 -10 •---------- .1 I I ?. — 1 I I 0 200 400 600 800 1000 Рис. 3.4, Входной (тестирующий) сигнал н соответствующая реакиня системы Рис. 3.5. Структура инвереиой нейросетевой модели При использовании нейросети в качестве регулятор вход у(,+ ) на значение уставки Kt+1) Рис. 3,6. Результаты тестирования нейросетевого регулятора
_______________________Нейросетевые методы управления. Частиц ______________________nt н обобщенном методе обучения Иокшиошиие Ч"Ч-„mMU Ут представляется возможным, так как выход нн0 зависит от выходного сигнала инверсной модели u(t Модификация критерия (3.12) и рекуррентная схема обучения НС по- зволяют построить алгоритм обучения инверсной нейросетевой модели в режиме реального времени. Инверсная нейросетевая модель обучается в соответствии со следую, щей модификацией критерия типа (3.12): J,(9,Z') = Jl_J(9,Zt~t)+(r(t)-y(t))2 • (3.13) Рассмотрим рекуррентный градиентный метод обучения нейросетевой модели в соответствии с критерием (3.13). Предположим, что составляю- щей ^(_|(0,Z''1) минимизирована, а весовые коэффициенты нейросетевой модели в момент времени t настраиваются в соответствии с выражением где e(t) = r(t)~ у([) и ё(О=еа-1)-р^^, d6 (3.14) &L(0_ dy(t) () вычисляется по формуле ЭД = _^0)_Л(г-1) (3.15) (3.16) (£Z_22+у du(t-l) dy(t~i) А Эи(г-1) du(t-i) * do +^du(t-i) d» . Эу(г) ^нытьПолУ , который может В формулу (3.16) входит якобиан _• чек с использованием прогнозирующей модели си (3.17) Эу(П _ JyWL. Эи(г-1) -» рассмотрев* Прогнозирующая модель определяется м ’ ей0е главе, посвященной идентификации систем. подразумевает поЛ\1/ТОЙ В ряде случаев синтез системы управлени*^^стикн заик»? некоторой заранее определенной (эталонно ) системы, например, , -Ц (318) = оясег в подобных случаях в критерии обучения не^>С^сиМ образом, ПР° быть использована ошибка типа е(0 я Ут(^
Глг«аЗ, Нейросетевые системы управления ____________ фотается аналогия с адаптивными системами управления по эталонной модели. Схема алгоритма построения нейросетевого ального времени представлена на рис. 3.7. регулятора в режиме ре- Рнс. 3.7. Схема реализации специализированного алгоритме обучения инверсной нейросетевой модели в режиме реального времени Значительное число весовых коэффициентов нейросетевой модели и медленная сходимость градиентного метода оптимизации затрудняют ис- пользование принципа регулирования на основе инверсных нейросетевых моделей, обучаемых в режиме реального времени. Вычислительные (вре- менные) затраты на обучение нейросетевой модели могут быть уменьше- ны путем применения обобщенного метода обучения на предварительном этапе инициализации настраиваемых параметров нейросетевой модели. Кроме того, для увеличения скорости сходимости может быть использован метод Гаусса - Ньютона. Существенным преимуществом метода обучения в режиме реального времени является отсутствие проблем, связанных с выбором оптимальной структуры нейросетевой модели и «переобучением» нейросети. В боль- шинстве случаев реальная система выполняет ограниченный круг задач. Типичным примером являются робототехнические системы, рабочий ор- ган которых движется по заранее определенной траектории. В таком слу- чае нейросетевой регулятор может настраиваться именно на заданную тра- екторию. Другим преимуществом онлайнового подхода является возможность создания регуляторов для нестационарных систем. Пример 3.2. Построение регулятора ив основе инверсной нейросетевой модели для сис- темы (3.1) с настройкой в режиме реального времени (адаптивный регулятор). Входной (тестирующий) сигнал и соответствующая реакция системы (рнс. 3.4) те же, что н в примере 3.1. Инверсная модель системы (регулятор), содержащая 5 нейронов с таигенци-
Нейросетевые методы управления. щ 466___________________и один линейный нейрон Т^Гфункииями активации в «Р метоДОМ обучеиия, Затем применяется эаданн ,p8e’crop,,,, (ИОСЛеДОмт^>4 XXroS^SnbC08)' /пие 3 8) показывают, что перерегулирование уменьшилось w Результаты тестирования (рис. Э «> управляющее воздействие по-прежие* достигает значительных величии и о -2о уставкаиреаи»^!^ 60 .—f йГ 40 .J_______i 1—4------------------ 80 100 120 140 160 180 200 воздействие в(0 100 0 -100 0 20 Рис. 3.8. Результаты тестирования нейросетеви.» обучения инверсной нейросетевой модели Замечания по применению метода управления на v инверсных .. „ члтпавления на осн°“^. 100 120 140 160 «0 200 основе ннверс- Замечания по применение >------- «явления на uv«~-3 ннверс ных нейросетевых моделей. Метод упр существами: нейросетевых моделей обладает следующи , • интуитивная понятность и • возможность построения регуляторов для модели В режИМ ₽ случае использования обучения нейрос него времени). оЯяШДЯк Недостатками метода являются: «истее случаев привод» • неустойчивость обратной модели, в болын неустойчивости замкнутой системы; большинстве слУ4* оСцо* • высокая чувствительность к возмущениям (» _егулИрованНЯ Обобщенная процедура реализации мето игальнь1* ве инверсных нейросетевых моделей. пЖества зкспериме 1- Проведение эксперимента (получение мн «осРеДСТ’ „ данных1 й модели системы 2. Построение прогнозирующей иейросетево fiO6meHIlblM вом реализации процедуры идентификаци , сйСтемМ о 3. Инициализация нейросетевой инверсной мод BOg мо^ методом обучения; .„«.пеной нейр00 ^фова**' • Предварительная настройка параметров и ₽ меЯИ (сп®^оДвЯя; ли методом обучения в режиме реального Л^руюшеЙ ный метод обучения) с использованием про
Глава 3. Нейросетевые системы управления 467 5. Окончательная настройка параметров инверсной нейросетевой модели методом обучения в режиме реального времени. 3.3. Система управления С ПРЯМОЙ И ИНВЕРСНОЙ МОДЕЛЯМИ ОБЪЕКТА Построение систем управления с прямой и инверсной моделями объек- та непосредственно связано с методом управления на основе инверсных моделей. Наиболее привлекательным свойством систем управления с пря- мой и инверсной моделями объекта является способность компенсировать аддитивные возмущения на выходе объекта (рис. 3.9). В теории управле- ния подобного рода структуры известны как системы с пассивной адапта- цией или с косвенным измерением возмущений. Идея использования ней- росетевых структур для построения систем пассивной адаптации предло- жена в работе [53]. рис. 3.9. Принцип построения системы упрявлеппя с прямой и ппяерсяой моделями объекта (НС1 - прямая модель объекта, НС2 - инверсная модель) Для построения системы управления необходима как i рукпцая), так и инверсная модель объекта (рис. зТв (прогноэи- управления по инверсной модели, сигнал обратной связиА^ ” Принвдпа разность между выходом реальной системы и выхолим мируегся модели. При соответствующем выборе фильтра F Л5^Т™таИрующей г(» с желаемой данамих<>й»не^™воси„ШВМ)та^ “°8 Операторные передаточные функции замкнутой систем» дредставлены в следующем виде: системы могут быть vz.\_ q XFC = d(f)4--t , 1 + 9‘‘ГС(/> - j ° “ d(f 0 • (3.19)
468 Нейросетевые методы управленияЛЦ^^ q~lFC u(t\ ----z—-------(r(t)-d(t)). {) l+flFC(P-M) (3.20) Очевидно, замкнутая система является устойчивой при устойчивости объекта управления и инверсной модели, т.е. разомкнутая система доджи, быть устойчива. Устойчивость разомкнутой системы существенно сужает сферу применения метода. В идеальном случае М = Р и С = Р 1. Тогда передаточные функции системы могут быть записаны в следующем виде: u(t) = 4 F(/t- -(r(t) -d(t)), (3.2i) P(q J (3.22) При выборе фильтра F(q'1) должны приниматься во внимание сле- дующее условие: фильтр должен быть устойчивым и иметь единичный статический коэффициент передачи (для точного отслеживания траек- тории). Замечания по применению систем управления с прямой и инверс- ной моделями объекта. Системы управления с прямой и инверсной моде- лью объекта обладают практически теми же преимуществами и недостат- ками, что и системы управления с инверсной моделью.
Глава 3. Нейросетевые системы управления Системы управления с прямой и инвепгн^йТ^ ' ерснои моделью позволяют ком- пенсировать возмущения. Необходимое условие на устойчивость разомкнутой системы пеласт область применения системы управления с прямойТинверсвдй мот объекта существенно ограниченной. инверсной моделью Пример 3.3. Построение системы упоавлеиия <• лью для объекта (3.1). УР ₽ямой н инверсной нейросетевой моде- Параметры нейросетевых моделей те же, что и в примам 31 Ъфьттл моделирования представлены на рис. 3 10. 3.4. Оптимальное управление Основной идеей оптимального управления является синтез такого кри- терия оптимизации параметров регулятора, в котором помимо точного от- слеживания заданной траектории (уставки) предусмотрено «штрафование» по амплитуде управляющего воздействия. Принцип оптимального управ- ления может быть реализован на основе рассмотренного ранее специали- зированного алгоритма обучения НС. Изначально критерий оптимизации для специализированного алгорит- ма настройки параметров нейросети в режиме реального времени выгля- дит следующим образом: Лв) = £(г(г)-у(О)2. 0.23) Введем в критерий (3.23) добавочный компонент, функцию штрафа р(и(г-1))2,р > 0. Тогда модифицированный критерий примет следующий вид: /(8) = £(г(0 - У (О2 + Р(«(1 ~ 1))2.Р * 0. (3.24) Г При р = 0 критерий вырождается до вида (3.23) и обученная нейросеть представляет собой инверсную модель системы. При увеличении парамет- ра р регулятор уже не является инверсной моделью системы, но сигнал управления становится более гладким с меньшей амплитудой. При использовании специализированной схемы обучения регулятор настраивается в режиме реального времени. В этом случае могут быть ис- пользованы алгоритм обратного распространения (ошибки) или рекур- рентный метод Гаусса-Ньютона, причем использование последнего предпочтительнее по причине высокой скорости сходимости. Однако кри- терий оптимизации при введении штрафа на управляющее воздействие от- личен от критерия наименьших квадратов. Поэтому традиционная схема оптимизации претерпевает некоторые изменения. Перепишем критерий оптимизации следующим образом: Jt (О, Z') = (9, z'-i) + + р(и^ _ ^2 j q 25)
(3.26) 470 _________Нейросетевые методы управления. Частхтц Прешоаыжя™. ™ j,-, м™»мизч»ва»а. Д», ад*. лени. Панеки может бы» иполиовая» следящее выражение; г,в.» +ри(г -1)1. ат------лГД 9а«-0 ) Введя обозначения d«(r-D можно представить (3.26) как G(0)» (О Н» (')+Р«(' ~ !>) (3.27) (3.28) В некоторых случаях бывает целесообразно оптимизировать регулятор для управления по некоторой заранее заданной траектории. Этого можно достигнуть путем многократного обучения по рассматриваемой траекто- рии. Можно утверждать, что при этом минимизируется критерий > f N f J(0) = £ j£(r(r)- y(t))2 +p(u(t))2 |, (3.29) I i=i j где N - число дискрет на выбранной траектории. Замечания по применению оптимального управления с использо- ванием нейросетевых моделей. Средн преимуществ оптимального управления на основе нейросетевых моделей можно отметить: • простоту реализации; • возможность использования для построения систем управления широ- кого класса систем; • выработку управляющего сигнала сравнительно небольшой амплитуды с незначительными осцилляциями; • возможность эффективного использования для создания систем про- граммного управления. Недостатки метода: • необходимость настройки параметров регулятора в режиме реального времени (требует существенных вычислительных затрат); • необходимость перенастройки параметров при изменении коэффициен- та штрафа на управление. Пример 3.4. Нейросетевой оптимальный регулятор для системы (3.1). Параметры нейросетевого регулятора те же, что и в предыдущих примерах. Значение ко- эффициента штрафе на управление р=2х10"*. Результаты моделирования представлены на рис. 3.11.
Гля»* j Нейросетевые системы управления 471 Рис. 3.11. Результаты моделирования системы оптимального нейросетевого управления
ЧАСТЬ IV ПРИНЯТИЕ РЕШЕНИЙ В СИСТЕМАХ УПРАВЛЕНИЯ Введение Современное проектирование систем автоматического и автоматизиро- ванного управления характеризуется этапом перехода от многомерных од- нообъектных систем к многомерным многообъектным системам управле- ния, наделенным, как правило, иерархической структурой с элементами децентрализации функций управления. Такой подход вызван, в первую очередь, появлением практических задач, в которых оптимальное (или до- пустимое) локальное управление комплексом взаимосвязанных объектов или вообще неосуществимо, или связано со значительными потерями эф- фективности и качества управления, а применение централизованных структур недопустимо из-за высокой размерности или трудоемкости задач управления. Необходимость рационального распределения функций управления между центральными и локальными управляющими подсистемами харак- терна практически для всех многообъектных систем управления промыш- ленными предприятиями, оборонными комплексами, информационными и вычислительными процессами в сетях ЭВМ, экономическими и экологи- ческими процессами. Среди современных функционирующих и проектируемых систем мож- но выделить широкий класс многообъектных систем управления, отли- чающийся жесткой централизацией функций управления и большой раз- мерностью. При сравнительно простом функциональном описании задач управления на верхних уровнях иерархии, сводящихся, в основном, к мо-
Введение 473 делям планирования работы нижних уровней и распределению ресурсов управления, трудности расчета управляющих воздействий, моделирования и проектирования таких систем обусловлены, прежде всего, большой раз- мерностью. Существенным фактором повышения эффективности таких систем могла бы стать децентрализация, однако возникающая при этом потенциальная опасность потери управляемости и, как следствие, невы- полнение поставленных перед системой задач делают этот путь практиче- ски неприемлемым. В последнее время, особенно в связи с широким применением в систе- мах управления микропроцессоров, микропроцессорных систем и сетей, широким фронтом развернулись исследования по анализу н проектирова- нию распределенных систем. При этом нужно учитывать, что под распре- деленностью системы понимают или топологическую (территориальную) распределенность, или распределенность функций управления. Поскольку, на наш взгляд, в наличии многообъектности и свойств распределенности в сочетании с высокой размерностью сконцентрированы в настоящее время основные проблемы теории управления, целесообразно выделить для ис- следования специальный класс многообъектных распределенных систем управления (МРСУ). Проблемам анализа и синтеза алгоритмов и структур МРСУ и посвящена настоящая работа. Одним из ключевых вопросов, связанных с функционированием и про- ектированием МРСУ, является вопрос принятия решений. Это определяет- ся не только наличием в иерархии задач управления уровня принятия ре- шений, но и тем, что в терминах принятия решений достаточно удобно ха- рактеризовать большинство из решаемых системой функциональных за- дач, а также и тем, что проектирование МРСУ есть последовательный процесс принятия проектных решений. Однако задачи принятия решений в системах управления и особенно в МРСУ имеют дополнительное, весьма существенное, ограничение - огра- ничение иа допустимое время принятия решений, причем очень важно, что этот допуск не постоянен, а зависит от текущей ситуации. Задачи принятия решений с ограничением на допустимое время решения будем называть задачами принятия оперативных решений. Традиционно при построении алгоритмов принятия оперативных решений в реально действующих сис- темах управления или используют «самый быстрый» (и, как правило, са- мый неэффективный алгоритм), или в редких случаях - алгоритм итераци- онного типа и прекращают вычисления по истечении допустимого време- ни. Поэтому эффективность системы управления в целом при таком под- ходе оказывается заниженной. Более того, задача построения эффективных алгоритмов принятия решений на ограниченных, зависящих от текущей ситуации отрезках времени, не поставлена даже теоретически. Очевидно, что максимальная эффективность процедур принятия опера- тивных решений обеспечивается в том случае, когда используют весь до- пустимый для решения интервал времени. Следовательно, возникает необ-
474________________Принятие решений в системах управления ча ходимость разработки специальных гибких алгоритмов приняТияТ^~~^~~~' обеспечивающих максимум эффективности принимаемых решений ках допустимого, зависящего от текущей ситуации, времени. Теопд.^' ские основы построения таких алгоритмов в настоящее время отсугсп»^' Для нх создания необходимо: ух*г- 1) математически корректно сформулировать задачу принятия операнд, ных решений, например, за счет введения дополнительного критерия отражающего трудоемкость реализации процедуры принятия решений (сложность задачи и алгоритма), выбора параметров, определяющих сложность, и стратегии их изменения; 2) установить и использовать средства вариации параметров сложности и эффективности алгоритмов. Первую из названных проблем можно решить на основе принципа сложности, разработанного В.В. Солодовниковым, В.Л. Ленским, В.ф, Би- рюковым. Для использования данного принципа в задачах принятия опе- ративных решений необходимо лишь провести доказательный выбор пока- зателя сложности. Для этого можно использовать принципы, отражающие фундаментальные концепции науки- принципы наименьшего действия механики н физики. Значительные трудности связаны с решением второй проблемы, так как средства вариации параметров сложности н эффективности задач принятия решений крайне ограничены. В связи с этим необходимо пересмотреть ос- новные концепции теории принятия решений и сформировать новый тип задач, которые называют задачами принятия решений на расширенных множествах. При этом необходимо в едином комплексе факторов, опреде- ляющих задачи принятия решений, учесть не только факторы сложности и эффективности, но и факторы многокритериальное™ и неопределенности. В ходе решения названных проблем получены результаты, формирующие, по мнению авторов, основы теории принятия оперативных решений для многообьектных распределенных систем управления. При разработке основ теории принятия оперативных решений были рассмотрены вопросы, охватывающие следующие научные направления: I) системный анализ и теория иерархических систем управления; 2) исследование операций; 3) математическое программирование и экстремальные задачи комбина- торного типа; 4) психология творчества и интеллектуальные системы; 5) векторная оптимизация; 6) теория принятия решений в детерминированных условиях и условиях неопределенности; 7) вариационные принципы механики и теории сложности. Алгоритмы принятия оперативных решений являются лишь составной частью МРСУ, их трудно реализовать независимо от системы, а систему, в
475 Введение свою очередь, трудно проектировать без широкого набора альтернатив реализации каждой из ее компонентов, в том числе и алгоритмов принятия оперативных решений. Таким образом, предлагаемые вниманию основы теории принятия оперативных решений должны быть составной частью теории принятия проектных решений для МРСУ. Проблемы построения теоретических основ автоматизированного про- ектирования систем управления и, в частности, МРСУ в настоящее время далеки от завершения, несмотря на значительные успехи в этой области и появление мощных и эффективных средств автоматизированного проекти- рования в виде персональных компьютеров и сетей ЭВМ. Разработку основ теории принятия проектных решений следует начи- нать с выбора понятий структуры МРСУ и формы ее математического описания. Применение специальных структур МРСУ ромбовидного типа (даймонд-структур) позволяет ие только эффективно использовать в про- цессах проектирования аппарат классических и новых задач принятия ре- шений, ио и отображать структуры МРСУ в специальные ориентирован- ные мультиграфы ярусио-параллельной формы (графы структур), а затем приводить большинство процессов выбора проектных решений к задачам оптимизации на этих графах. Возникающие при этом проблемы неопреде- ленности проектных параметров, сложности МРСУ и процессов проекти- рования, многокритериальное™ можно разрешить, используя те же кон- цепции сложности и расширения множеств альтернатив поиска решений, что и в задачах принятия оператавных решений. В настоящую работу включены вопросы теории и методы проектиро- иия алгоритмов принятия оперативных решений. Этот материал имеет «замкнутый» характер и может изучаться студентами независимо от дру- гих разделов учебника.
476 Принятие решений в системах управления, Чя-чх ц, ГЛАВА 1 ЗАДАЧИ ПРИНЯТИЯ РЕШЕНИЙ В МНОГООБЪЕКТНЫХ РАСПРЕДЕЛЕННЫХ СИСТЕМАХ УПРАВЛЕНИЯ И ПРОБЛЕМА СЛОЖНОСТИ 1.1. Основные особенности многообъектных распределенных СИСТЕМ УПРАВЛЕНИЯ, ТРЕБОВАНИЯ К АЛГОРИТМАМ УПРАВЛЕНИЯ, СИСТЕМАМ И ПРОЦЕССАМ ПРОЕКТИРОВАНИЯ Анализируемые многообъектные распределенные системы управления, наиболее характерные из которых территориальные автоматизированные системы управления (АСУ) оборонного назначения, космические системы связи и управления одним или группой космических аппаратов, сети ЭВМ для обмена информацией и управления и распределенные АСУ технологи- ческими процессами (РАСУ ТП), являются сравнительно новыми объек- тами в теории управления. Совокупность таких свойств, как многообъект- ность, распределенность объектов и средств управления, а также большое число переменных предъявляют новые требования к теории управления. В то же время низкая эффективность и большая стоимость существующих АСУ, а главное, появление вычислительных средств в виде микропроцес- сорных систем и сетей ЭВМ определяют насущную потребность и практи- ческую достижимость разработки теоретических и методических основ автоматизированного проектирования МРСУ. Перечислим концептуальные и методические особенности функциони- рования и проектирования МРСУ, отражающие современные требования к процессу проектирования, качеству проектных решений, которые сущест- венно влияют на автоматизированное проектирование: 1) Система управления по своему функциональному содержанию должна быть строго централизованной, т.е. отклонение от полного выполнения поставленных перед системой задач недопустимо. Однако это не означа- ет, что проектируемая система не должна иметь подсистем автономного
Глава 1. Задачи принятия решений 477 локального управления или частичной децентрализации по информаци- онным и управляющим каналам. Результаты, полученные в теории при- нятия решений, показывают, что даже в рамках жестко централизован- ной системы можно достигать эффекта децентрализованного управления за счет специального формирования на верхних уровнях иерархии огра- ничений иа распределяемые ресурсы и заданий для исполнения нижними уровнями. Применительно к системам управления производственными процессами этот подход подробно изложен в статье [27]. 2) Структура системы может быть такой, что каждый ее уровень является одновременно стратой, слоем и эшелоном, т.е. каждый уровень харак- теризуется собственным (по форме) математическим описанием, пред- ставляет собой уровень принятия решений и обладает приоритетом действий по отношении к нижерасположенным уровням. 3) Каждый объект проектируемой многообъектной системы является сложным техническим устройством, для проектирования которого при- влекаются высококвалифицированные специалисты различных научно- технических профилей. Зачастую эти специалисты работают на раз- личных предприятиях и поэтому сотрудники головной организации практически не в состоянии всесторонне проанализировать проект во всем многообразии допустимых вариантов. В связи с этим имеется предложение о создании специализированных отраслевых и межотрас- левых банков данных и применении технологии так называемого ком- позиционного проектирования, в значительной степени основанной на использовании наборов проектных решений [35]. Идея получения и по- следующего агрегатирования наборов (комплексов) параметрических решений использовалась и ранее, ио в процессах автоматизированного проектирования МРСУ она должна занимать особое место и как сред- ство комплектования частных проектных решений, и как средство сни- жения вычислительных трудностей самого процесса проектирования. 4) Методика проектирования должна быть ориентирована на использова- ние задач векторной оптимизации, поскольку проектируемые системы управления являются системами многоцелевого назначения, предна- значаются для функционирования в различных режимах эксплуатации и характеризуются множеством противоречивых показателей эффек- тивности, при этом в большинстве случаев осуществляют «оптимиза- цию в области» и по каждому критерию назначают допустимый предел. 5) Рассмотренная в п. 4 особенность распространяется и на те случаи, ко- гда отдельные подсистемы могут оперировать с собственными локаль- ными критериями эффективности, которые находятся в противоречии с общими для всей системы критериями. 6) При проектировании технических объектов и систем управления прак- тически всегда приходится иметь дело с факторами неопределенности критериев, параметров объектов или других характеристик. В процес- сах проектирования факторы неопределенности учитывают чаще всего
478 Принятие решений в системах управления. Часть IV путем задания интервалов, в которых могут меняться параметры. Далее для учета факторов неопределенности будут проанализированы метод интервальных ограничений, теории вероятностей, ^исчисления и ап- парат теории нечетких множеств. 7) Факторы неопределенности, многокритериальиости и сложности наибо- лее трудно учитывать на ранних этапах проектирования, которые к тому же являются трудно формализуемыми. Этим, в частности, объясняется тот факт, что большинство разработок по автоматизации проектирова- ния, закончившихся внедрением программных средств, посвящено этапу выбора технических структур и технических средств. Разработки же, от- носящиеся к синтезу функциональных и организационных структур, но- сят, как правило, сугубо теоретический характер. Поэтому необходимо, чтобы методика автоматизированного проектирования охватывала и свя- зывала воедино этапы синтеза функциональных, организационных и технических структур многообъектных систем управления. 8) Ввиду того что динамические особенности систем автоматического ре- гулирования (САР) и управления (САУ) чрезвычайно многообразны, в настоящее время отсутствует единый универсальный метод не только синтеза, но и анализа таких систем. В предлагаемой методике автомати- зированного проектирования иерархических систем управления и не предпринималась попытка разработать универсальный метод, предпола- галось лишь, что методы и технические средства проектирования САУ доступны проектировщикам, проектировщики обладают эффективными принципами и средствами моделирования систем управления на ЭВМ типа систем СиАМ, MatLab, Simulink [64]. Знание основных методов синтеза и наличие эффективных средств моделирования САР и САУ яв- ляется необходимым условием для построения множества альтернатив- ных вариантов многообъектных распределенных систем управления. 9) И, наконец, самое главнее. Современную систему управления (иерар- хическую или одноуровневую, централизованную или распределен- ную) нельзя проектировать без учета факторов сложности ее реализа- ции и самого процесса проектирования. Постановку задачи проектиро- вания с учетом факторов сложности системы называют технически корректной [59]. Сложность процесса проектирования необходимо учитывать уже хотя бы потому, что процесс проектирования ограничен во времени и (во многих проектных организациях) в вычислитель»^ средствах для автоматизированного проектирования. 1.2. Типовая функциональная схема многообъектной РАСПРЕДЕЛЕННОЙ СИСТЕМЫ УПРАВЛЕНИЯ И ФУНКЦИОНАЛЬНЫЕ ЗАДдЧи Современные многообъектные системы управления, как правило характеру решаемых задач выходят за рамки традиционных систем авт0°
Глава 1. Задачи принятия решений 479 матического регулирования и управления. Проблемы согласования взаи- модействий между отдельными объектами и подсистемами, необходи- мость оперативного реагирования иа существенно меняющиеся внешние условия, миогорежимиость функционирования и противоречивость требо- ваний, предъявляемых к системе в целом, породили новые функциональ- ные задачи: координации, оперативного управления и принятия решений. Для установления взаимосвязи традиционных с новыми задачами управ- ления рассмотрим типовую функциональную структуру многообъектной системы управления. В настоящей работе под структурой будем понимать: 1) общепринятое качественное определение структуры как способа организации целого из составных частей [67]; 2) широко распространенное математическое опре- деление структуры как решетки, т.е. частично упорядоченного множества, в котором каждое двухэлементное подмножество имеет как точную верх- нюю, так и точную нижнюю грань [7], Использование этого математиче- ского определения позволит в дальнейшем формализовать множество структур в виде специального ориентированного мультиграфа. Рис. 1.1. Структура иерархической системы управления «треугольного» тина За счет наличия сложных взаимосвязей между отдельными объектами, большой размерности переменных, характеризующих объект в целом, сис- Ху управления проектируют в виде иерархической системы, на каждом функциональном уровне которой средствами вычислительной техники
480_______________Принятие решений в системах управления. Част.. решаются задачи управления определенного типа. Традиционно (см. пример, [68]) иерархическую систему управления изображают в вид' структуры «треугольного» типа, в которой каждый структурный элемент объединяет информационные и управляющие функции (рис. 1.1). Выделим последовательно четыре уровня управления: локального ре. гулирования (уровень САР), локальной оптимизации (уровень САУ), ко_ ординации локальных систем оптимизации, оперативного управления и принятия решений. Рассмотрим задачи, решаемые на каждом уровне иерархии. Уровень САР. На этом уровне обеспечивается решение задач локаль- ного автоматического регулирования, т.е. стабилизации или программного изменения параметров объекта в соответствии с уставками, задаваемыми на вышерасположенном уровне САУ. В качестве технических средств на уровне САР могут быть использованы как цифровые регуляторы (в том числе и микропроцессорные), так и традиционные регуляторы непрерыв- ного действия. Уровень САУ. Предназначен для оптимизации при управлении огра- ниченным комплексом подобъектов, подчиненных соответствующим оп- тимизаторам. Критерии цели управления, рассматриваемые на этом уров- не, могут отличаться от общего критерия функционирования всей систе- мы. Во всяком случае, в них необходимо учитывать «собственные интере- сы» подчиненных оптимизатору подсистем. Технические средства уровня САУ, а также средства более высоких уровней иерархии должны содер- жать ЭВМ, так как без них немыслима оптимизация. Уровень координации. На этом уровне осуществляется координиро- ванное, т.е. согласованное управление работой локальных оптимизаторов с целью достижения обшей задачи функционирования всей системы в це- лом. При этом для оптимизации используется один или несколько крите- риев, отражающих «интересы» всей иерархической системы. Уровень оперативного управления н принятия решений. Как пра- вило, этот уровень содержит руководящий орган (коллектив специалистов или лицо, принимающее решение (ЛПР)), обеспеченный ЭВМ для прове- дения расчетов возможных вариантов решения. На этом уровне общие це- ли и задачи, стоящие перед системой, преобразуются в конкретные устав- ки для нижних уровней управления. Кроме того, происходит распределе- ние ресурсов управления между отдельными подсистемами и принятие решений в различных нештатных ситуациях. Идеальное средство для обеспечения эффективной работы этого уров- ня - использование «быстрых моделей» нижних уровней иерархии и объ- екта управления. Особый интерес представляют варианты полной автома- тизации функций оперативного управления и принятия решений, обу- словленные повышенными требованиями к качеству принимаемых реше- ний и ограничениями на время решения, а также (в отдельных случаях) невозможностью организации условий для нормальной работы ЛПР.
481 ровные задачи, решаемые на каждом уровне иерархии, Установй®исхОДНОй структурной схемы к эквивалентной схеме ромбо- иереЙД6^ °^bi (рис. 1.2). Поскольку термин «ромбовидная структура» сис- видной уже применяется в научной литературе для характери- теМЫ ^ем, находящихся под управлением двух управляющих центров, с*”*сИ на3йвать структуры, изображенные на рис. 1.2, даймонд- ^фукгурами (от английского diamond - алмаз, ромб). На рис. 1.2 приняты обозначения: O.I-O.wIq - объекты управления; 1,1-1, т, - датчики инфор- мацйИ для локальных регуляторов и наблюдающие устройства; 1,1-1,/п, - собственно локальные регуляторы (без датчиков), реализующие выбранные законы; 2,1-2,^ - локальные оптимизаторы; 2,1-2,?^ - информацион- ные подсистемы для локальных оптимизаторов, воспринимающие инфор- мацию от датчиков и перерабатывающие ее в необходимую форму; 3,1-3, Из - координирующие оптимизаторы; 3,1-3,т3 - информационные подсистемы для координаторов; 4,1 - орган оперативного управления и принятия решений; 4,1 - информационная подсистема для оперативного управления и принятия решений, в том числе информационный зал с систе- мами отображения информации и ЭВМ. Введение даймонд-структур позволяет более четко выделить и связать воедино задачи двух типов, которые необходимо решать в процессе проек- тирования систем управления. К первому типу относятся задачи анализа и синтеза динамических контуров управления, структурируемые при прове- дении «разрезов» даймонд-структуры по вертикали. Второй тип составл#' Ют 3аДачи статического расчета, структурируемые при выполнении «раз- инлВ>> да^МОнд*стРУкгУРы по горизонтали на любом из уровней иерархии Формационной или управляющей части системы. роме того, необходимость перехода к даймонд-структурам вызвана ^м, что требуется; Разделить управляющие и информационные звенья системы на все* ^Ровнях Иерархии, так как их функции являются настолько сложными» боле** Также необходимо рассматривать в виде совокупности звенье0, упоТ ТОГ0’ в некотоРых современных многообъектных система* 2) выдел 10,ВДе и информационные звенья разделены территориально; ЗДя поов* И3 СИСГемы локальные динамические контуры управлеи 3) Рассмотре^Н^ДИНамическог°Расчета; Дом уровне ТИП0ВЫе задачи статического расчета, решаемые на 4) создать за УпраЗДяющей и информационной подсистемах; 3, ние отдельный ₽азделеш1я функций «удобное» математическое 0°*^, ные пРеобразов^екьев и системы в целом, а также упростить стрУ*1^ 2 Эа«- юв Ия в процессе проектирования системы.
Рис. 1.2. Даймоид-структура иерархической системы управлении Для формализации функциональных задач каждого звена рассмотрим систему с «треугольной» структурой. Каждое звено в структурах такого типа с номером i = находящее- ся на J-м иерархическом уровне (j = 0, л), можно представить в виде ото- бражения
Глав» I, Задачи принятия решений 483 где #р={“р} " множество управляющих (координирующих) сигналов звена вышестоящего уровня; У;, ={Ур] - множество сигналов обратной связи, поступающих от подчиненных звеньев; ={^Д - множество возмущающих воздействий данного звена: X ={л;-3} - множество вы- ходных сигналов звена i, воспринимаемых подчиненными звеньями (J-1)-го уровня. На рис. 1.3 представлены сигналы звена j, i. Сигналы обратной связи, поступающие от данного звена к звену более высокого уровня иерархии с индексами j+1,0, обозначены у;+1р. Эти сигналы не включены в выше- приведенное отображение Sjt, так как они являются продуктом другой функциональной задачи того же звена j,i - задачи информационной обра- ботки сигналов. В простейшем случае может оказаться, что у^ = у^, т.е. звено выполняет функции ретранслятора сигналов. Однако в большин- стве случаев информация, получаемая из сигналов у , должна преобра- зовываться специальным образом в ту форму, которая обеспечивает над- лежащее функционирование звена у^. Этот недостаток структуры «треугольного» типа устранен в системе с даймонд-структурой. Для звена самого верхнего иерархического уровня отображение 5л1 принимает вид: sn,i'- ¥пл*Нп<1-*ХяЛ, а для управляемого объекта формируется система отображений so.i: хи хЯо.< -»хо^ »= Гйо • Рассмотрим пару звеньев для системы с даймонд-структурой, соот- ветствующих звену j,i в системе с «треугольной» структурой. Обозна- чим, как это показано на рис. 1.4, управляющее звено j,i, информацион- ное- Jj. Отображение 8]л в системе с даймонд-структурой заменим двумя ото- бражениями: Sjj : -> xу=Гйй; i = , J = l.n-1; i = l,my. При этом множество возмущающих воздействий оказалось разделен- ным на два множества: , = {Л; | } и Й= {Л,7}: Первое из них харак- теризует возмущения, влияющие на выработку управляющих сигналов > второе - иа оценки достигнутых состояний или результатов 32*
484 ________ Принятие решений в системах управления. Часть IV ~ Такое разделение не только удобно методически, но и соответ- ствует физическому смыслу процессов управления системой. Заменим отображение 5и1 для верхнего уровня иерархии двумя ото- бражениями: У»Д • п,\ *^аД *#»Д “* %п,\< У»,! :*лДх#л,1 “^лД1 М/д Т - Л I Звено i уровня j x |ъ ¥ I Рис. 1.3,Звено в структуре «треугольного» тиля Рис. 1.4. Звено в даЯмонд-«трУктУРе .янИ® 0 нфор*4®** Первое из них определяет процесс принятия решенийя роз^У0* Достигнутых результатах уп1, наличных ресурсах мпД цоДТ0*0**** Ниях Чд6 Н пд. Второе отображение характеризует сис ур0®*16’^^ представления информации для принятия решений на ®^ййЯ всбЙ^сстя°' с п J01" говоря’ ЯД® получения математического £ХОдиМО ощью системы отображений подобного типа
ря<,яа 1. Задачи принятия решений 485 ваНИе связанной категории [10], в которой объектами категории являются множества входных и выходных сигналов каждого звена, а морфизмами - отношения, характеризующие каждое звено. Используя понятие многоме- стного фактора, можно преобразовать категорию St (систему SJ в кате- горию S2 (систему S2), т.е. построить множество вариантов системы управления. Следует отметить, что даже в рамках теоретико-множест- венных конструкций каждая из функциональных задач в управляющей и в информативной подсистемах может быть формализована как одна из задач принятия решений. 1.3. Классические задачи принятия решений Под задачей принятия решений в соответствии с установившимся оп- ределением [1, 2, 44] будем понимать процесс, который включает в себя: 1) генерирование альтернативных вариантов решения; 2) их оценку по за- данному критерию эффективности; 3) выбор из них наилучшего. Столь общее определение требует введения математического формализма, также обладающего достаточной общностью, поэтому далее будем использовать аппарат общей теории систем [38, 39]. Для этого приведем определение системы, данное в книге [38]. Под системой «вход-выход» в самом общем случае (абстрактная систе- ма) будем понимать отношение . ScYxX, (1.D где Y - множество параметров, называемых входными; X - множество параметров, называемых выходными, х - знак декартова произведения. Если множества У и X не единственны, т.е. система имеет не один вход или не один выход, то следует использовать отношение S cx{Vf; ie /}, (I-2) где Vj - множества входных и выходных параметров, / - множество ин- дексов. . Если в (1.1) или (1.2) отношения являются функциями, то следует поль- зоваться отображениями 5:У->Х, 0’3) 5:{у(:1 = Гпй}-»Уи. Введя понятие абстрактной системы, сформулируем задачу приня'1*1# решений. Выполним это аналогично работе [38], но дополним при э*0 перечень используемых множеств некоторыми новыми. Пусть у - множество исходных данных. Конкретизация элеме У е К приводит в дальнейшем к получению решения с конкретным*1 еловыми параметрами, зависящими от у0.
48(5 __________Принятие решений в системах управления. Множество неопределенностей обозначим Н, в нем элемент йёГй* характеризует свойство действующих случайных возмущений или степень незнания параметров задачи. Множество управляющих воздействий или просто множество дейст- вий, которые могут привести к решению задачи, обозначим U, тогда его подмножество Uf будет соответствовать множеству допустимых управ- лений (действий). Наконец, собственно решение задачи обозначим х, а все множество возможных решений - X . Построим на перечисленных множествах выходную функцию P.YkHxUX , {15) определяющую структуру и содержание задачи принятия решений. Зададим оценочную функцию G:УхЯх(/хХ —» Е, (1>6) которая отображает принимаемые решения на множество оценок. Эта функция частично или полностью упорядочена отношением < . Введем также функцию допустимости (толерантности) Р:УхЯ-»Е, (1.7) определяющую предельные значения качества решения (1.6). Сформулируем задачу отыскания удовлетворительных (допустимых или толерантных) решений в следующем виде. Заданы элемент у0 е У и подмножество (/^е£7. Требуется определить такой элемент u°eU^ и соответствующий ему элемент х° е X , при которых для всех he Н будет выполняться неравенство с(у°,и0,Л,х°)<п(у<),й). (1.8) Таким образом, шестерка <P,G,D,y°,(//,n> (1.9) определяет задачу нахождения удовлетворительных решений. Для нагляд- ной иллюстрации этой задачи рассмотрим последовательность выполняе- мых в процессе решения операций, отобразив ее ориентированным графом (рис. 1.5). Маршрут из начальной вершины 0 в конечную вершину F, удовлетворяющий для каждого he Н и управления uQeUf условию (1.8), является решением задачи. Задачу принятия оптимальных решений сформулируем следующим об- разом. Даны элемент у0 е Y и подмножество U f. Требуется определить такой элемент u* eUf и соответствующий ему элемент х*е X , при ко- торых для всех he Н и для всех ueUf {utu) будет выполняться нера- венство G(y0,M*,h,x*)sG(y0,u,h.x). (1.Ю)
глава 1- Задачи принятия решений 487 Рис. 1.5. Граф процесса поиска допустимого решения Иными словами, задача оптимизации является задачей нахождения удовлетворительных решений для того случая, когда функция толерантно- сти имеет вид D= inf С(у°,и,м). utU' ' ' Задача принятия оптимальных решений принципиально отличается от задачи принятия удовлетворительных решений тем, что требует полного перебора всех допустимых управлений для выбора оптимального решения (разумеется в тех случаях, когда неприменимы методы, основанные на не- обходимых условиях оптимальности). Это отличие приводит к существен- ному усложнению задачи. Процесс отображается более объемным графом (рис. 1.6) по сравнению с графом, представленным на (рис. 1.5) и отра- жающим процедуру поиска удовлетворительных решений. Широкое распространение в практических приложениях имеют детер- минированные задачи принятия оптимальных или допустимых решений. При этом полагают, что случайные факторы и факторы неопределенности можно не учитывать Тогда выходная и оценочная функция принимают вид
488_____________Принятие решений в системах управления. Часть IV P-.Y*U-*X, G:rxt/xX->£. U11) Для поиска оптимального решения требуется при заданных у0 и мно- жестве Vs сU найти такой элемент и соответствующий и* элемент х * е X, при которых для всех eU , (и Фи), будет справедли- во неравенство с(у0,и’,х*)<б(у°,и,х). (1.12) Рассмотрим взаимосвязь понятий принятия решений и системы. В соответствии с формальным определением абстрактной системы, ис- пользуя введенные для задач принятия решений множества переменных Y, Н , U и X, вместо выходной функции (1.5) аналогично (1.2) запишем ScYxHxUxX. (1.13) Рис. 1.6. Граф вроцесса поиска отгималыгого решения Однако для того, чтобы S действительно являлась системой с целена- правленным выбором управления и? eU , необходимо выполнение усло- вия (1.8). Следовательно, 5 является системой тогда и только тогда, когда тройка (у,м,х) содержит элемент х, являющийся решением задачи. В дальнейшем условие вида
Глава 1. Задачи принятия решений 489 {y,u,x)eS (1.14) будем использовать для формализации задачи принятия решений. Приведем пример, иллюстрирующий взаимосвязь задач принятия ре- шений и задач теории оптимального управления. Пусть требуется перевести некоторый объект, характеризующийся уравнениями х = Ах+Ви, (1.15) из начального состояния х(0) в конечное х(Т) так, чтобы в процессе этого перехода критерий энергетических затрат обращался в минимум: т Е = J (u(t),u(t))dt -> min. о Здесь х(г) - п -мерная вектор-функция состояния, интегрируемая с квадратом на отрезке [0,Т], т.е. x(t)e L2. [0,Т]; u(t) - n-мерная вектор- функция управления, ограниченная по модулю на отрезке [0,Т], т.е. u(i)e Со[О,Т]; А и В - матрицы размеров ихп с постоянными коэф- фициентами; символ скалярного произведения векторов. В терминах задач принятия оптимальных решений запишем: выходную функцию P = {x(t):x = Ax+Bu}, оценочную т G = E = |(u(t),u(t))A, о исходные данные, характеризующие в этой задаче краевые условия, У = у0 ={х(0),х(Т)}. множество допустимых управлений [о,т] и множество выходов (множество решений) х=е2.[о,т]. В простейшей подстановке (задача А) определим систему следующим образом: SCy°xCtf,[0,T]x£a.[0,T], а задачу принятия решений - как задачу выбора путем перебора в про- странстве Со, [0,7’] функций и,(г), Д™ выполнения этого не- обходимо ограничить множество выбираемых функций, например, путем 31 Зак. 108
490 ____________Принятие решений в системах управления. Часть iv их дискретизации. Используя понятие е-энтропии метрического про- странства (см. [30] и далее параграфы 1.5 и 2.4), зададим в С&, [0,7"] шар квантования по времени А, и по уровню е. Тогда число возможных функций управления в пространстве CQ, [0,Г] определяется мощностью £ -покрытия этого пространства. Мощность Е -покрытия данного пространства где константа с ограничивает любую / -ю переменную по модулю С учетом краевых условий получим для задачи А общее число переби- раемых вариантов w(y»xCtf.[0,T])=|'(<-/e)(%.)-2l -Нл. (1.16) Очевидно, что перебор на практике такого числа вариантов неприем- лем, поэтому перейдем от задачи А к задаче В, в которой использованы необходимые условия оптимальности в форме принципа максимума Л.С. Понтрягина. Для этого определим новое множество допустимых управле- ний пространством С ДО, Т], т.е. множеством действительных функций, ограниченных по модулю и имеющих ограниченные первые производные |«/(Ф с- |«/(Фс1> (» = и»). Введем функцию Гамильтона Н =(ip,Ax + Bu)-(u,u) и сопряженную вектор-функцию у (г), определяемую уравнением . z v дН т ф(0 = -Г- = -А > с/х Здесь Ат - транспонированная матрица А. В соответствии с принципом максимума оптимальное управление и* (г) определяется из условия максимума в каждый момент времени t функции Гамильтона. Найдем из условия ^l=0=BTv-2u du оптимальное управление и’(1) = 0,5Втф и, подставив его в уравнение (1.15), получим так называемую П-систему порядка 2л
Глава 1. Задачи принятия решений 491 x(t) = Ax+0,5BB\, ty(/) = -AT. В данном случае задача принятия решений состоит в выборе начальных условий v(0) для сопряженных переменных, в интегрировании 11- системы с начальными условиями х(0) и v(0) и проверке выполнения условий х(Т) на правом конце траектории. Число возможных решений определяется числом комбинаций на сетке переменных j (0), (i = l,n) с шагом Ду7-. Если для всех j [max у j (0) - min у, (0)]/ду у = > то общее число решений Nfi = w;. (1.17) Точность выполнения краевых условий зависит от выбора Ду j и ме" тода интегрирования П-системы. Рассмотрим еще одну постановку задачи, ориентируясь на применение вычислительных процедур динамического программирования (назовем ее задачей С). Введем шаг квантования времени Д, и шаги квантования пе- ременных . Пусть N, = T/bt,Nx = [maxxi-minxi]/Axi = NJ. Используя второй способ редукции задач оптимального управления к задачам математического программирования [47, 48], запишем выходную и оценочную функции в виде ______ х(£ + 1) = х(Л)+Д,Ах(Л)+ДгВм(Л), fc=0,Nf-l, w-i к=0 Применение второй вычислительной процедуры динамического про- граммирования, подробно изложенной в работах [47,48}, приводит к Nt - шаговой задаче принятия решений. Общее число вариантов решения в за- даче С определяется числом узлов сетки переменных NC=N,N”X. (LU) Знание оценок типа (1.16) - (1.18) в ряде практических случаев позво- ляет непосредственно сделать вывод о возможности решения задачи. Од- нако при сопоставлении этих оценок необходимо учитывать, что каждому отдельному варианту решения в задачах А, В и С соответствуют различ- ные трудоемкости. Нередко задачи принятия решений, в которых необхо- димо проанализировать большее число простых вариантов, можно 31*
492______________Принятие решений в системах управления. Часть IV быстрее, чем задачи с меньшим числом трудоемких вариантов. В качестве примера приведем результаты сопоставления методов случайного поиска и градиентного спуска [53], оказавшиеся в свое время для многих неожи- данными. Далее будет показано, как при введении иерархических оценок сложности задач принятия решений мйжно сопоставлять разнородные за- дачи. 1.4. Качественная постановка задачи принятия оперативных РЕШЕНИЙ И ОБОСНОВАНИЕ НЕОБХОДИМОСТИ ФОРМАЛИЗАЦИИ ПОНЯТИЯ «СЛОЖНОСТЬ» Принципиальным отличием задач принятия оперативных решений от классических является ограничение на время, отводимое для принятия ре- шения, 'с^д, где tc - время решения задачи; - допустимое время. Такие задачи будем называть задачами принятия оперативных реше- ний. Для функциональной схемы многообъектной системы управления за- дачи принятия оперативных решений свойственны не только четвертому уровню в управляющей и информационной подсистемах, но и уровню ко- ординации, а в ряде случаев и уровню оптимального управления (см. рис. 1.2). В работе [47] выделен специальный тип систем автоматического или автоматизированного управления, названный системами оперативного управления, в которых ограничение на время счета ЭВМ является принци- пиальной особенностью. Системы такого типа используют при организа- ции процессов управления на втором, третьем и четвертом уровнях иерар- хии многообъектной (централизованной или распределенной) системы управления.. Отметим еще одну принципиальную особенность. В задачах принятия оперативных решений допустимое время Тд часто является не констан- той, а функцией, зависящей от текущей ситуации, что приводит к допол- нительным трудностям при разработке алгоритмов принятия оперативных решений. Каким же образом можно формализовать задачи принятия оперативных решений? Казалось бы, достаточно дополнительно к ограничению (1-8) в задачах принятия толерантных и оптимальных решений ввести ограниче- ние t < Тд, однако математически это некорректно, так как связи между временем счета tc и остальными параметрами классических задач приня- тия решений не формализованы (нет зависимости между управлениями ueUf и tc и т.д.). Следовательно, нужен иной формализм для задач
Глава 1. Задачи принятия решений ________ 493 принятия оперативных решений, более мощный, нежели формализм клас- сических задач. Обратимся к практике построения систем управления, в которых реа- лизованы алгоритмы принятия оперативных решений. В подавляющем большинстве случаев эти алгоритмы сформированы следующим образом. Проанализированы все возможные состояния системы и получено пре- дельное (наименьшее) значение допустимого времени Гд. Затем выбран такой алгоритм, который позволяет получить некоторое законченное ре- шение за предельное время. Естественно, что вопрос о близости получае- мых решений к оптимальным не ставится, и эффективность систем управ- ления с алгоритмами такого типа оказывается крайне низкой. Более совершенными являются системы, в которых задачи принятия оперативных решений реализуются на основе итерационных алгоритмов. Решение прерывается, как только истекает отведенное время, и результат последней законченной итерации выдается в качестве решения. Недостатки систем такого типа: 1) необходимы специальные исследования, показывающие, что в течение допустимого времени может быть реализована хотя бы одна итерация; 2) класс используемых методов ограничен только одними итерационными методами, хотя для многих задач принятия решений они не являются наилучшими. Очевидно, что для задач принятия оперативных решений разумно иметь набор алгоритмов, а еще лучше - «гибкий» алгоритм, позволяющий за отведенное время получать решение задачи, максимально близкое.(в за- данном смысле) к оптимальному. Однако для этого нужен соответствую- щий математический формализм. Дла формализации задач принятия оперативных решений необходимо каким-либо конструктивным способом ввести в постановку задачи время работы алгоритма tc. По отношению к основному критерию показатель tc будет характеризовать «внутренние» свойства алгоритма, отражающие его трудоемкость или сложность. Интуитивно время решения задачи мож- но связать с понятием сложности задачи или сложности алгоритма. Осно- ванием для этого может стать анализ вариационных принципов механики и физики, в которых «внутренние» свойства процессов связаны с понятием действия (сложности) и играют основную роль. 1.5. Концепция наименьшего действия-сложности В КЛАССИЧЕСКОЙ И НОВОЙ ФИЗИКЕ И ЕЕ ВЛИЯНИЕ НА ФОРМАЛИЗМ ЗАДАЧ ПРИНЯТИЯ РЕШЕНИЙ Практика расчета автоматических и автоматизированных систем управления и, в особенности, задачи автоматизации проектирования вы-
494 _______________Принятие решений в системах управления. Часть IV двигают целый ряд новых требований к математическим методам теории управления. Одним из них является принципиальное требование учета технических, эксплуатационных и экономических показателей проекти- руемой системы уже на этапе ее динамического расчета. Это требование может быть удовлетворено при использовании принципа сложности, из- ложенного в работах [59 - 61]. Для того чтобы на концептуальном уровне избежать математических тонкостей и их пояснений, рассмотрим достаточно простую, но имеющую большую общность задачу принятия решений в следующей постановке. Пусть конечное или бесконечное множество ^ = {xt,x2 (1Д9) есть множество вариантов решения (траекторий движения, алгоритмов, конструкций систем и т.д.), причем запись хе означает, что 1-й вари- ант решения удовлетворяет всем ограничениям, определяемым природой рассматриваемой задачи. Пусть также заданы критерий Е (xt), отражающий степень достижения цели принимаемого решения, и показатель Z(x,), отражающий сложность (трудоемкость, стоимость и т.д.) /-го варианта решения, т.е. являющийся «внутренним» показателем по отношению к решаемой задаче. Если задать допустимую область значений критерия £(л(), т.е. Ё, и поставить задачу поиска решения наименьшей сложности: (1.20) Е(х,)е£, то можно дать простейшую формулировку принципа минимальной слож- ности. Если назначить допустимую область сложности принимаемых решений Z и в ее границах искать экстремум критерия £(j0-»extr, (1.21) Z(x,)eZ, можно получить формулировку принципа ограниченной сложности. Выбор критерия £(х,) и показателя Z(x,) во многом определяет ха- рактер решаемой задачи. Обратимся к опыту изучения законов природы в оптике, механике и физике, где формулировались, исследовались и обоб- щались так называемые вариационные принципы, и в которых эквивален- том понятия «сложность» было понятие «действие». Формализм задач принятия решений (1.20) и (1.21) позволяет сравнивать в качестве возмож- ных альтернатив две или большее число траекторий луча света или мате- риального тела.
Глава 1. Задачи принятия решений 495 По-видимому первым принципом такого рода можно считать утвер- ждение Герона Александрийского, заметившего, что свет движется между двумя точками пространства (в том числе и при отражении) по кратчай- шему пути [65]. Однако для преломления света этот принцип несправед- лив. П. Ферма сформулировал (примерно в 1660 г.) принцип наискорейше- го пути и показал, что свет при преломлении движется по наискорейшей траектории. Этот принцип, обобщающий утверждение Герона, оказался не только справедливым при анализе более сложных явлений, связанных с природой света (Э. Шредингер заметил, что «принцип Ферма - тривиаль- ная квинтэссенция волновой теории» [73]), но и дал толчок развитию ва- риационных принципов механики. М. Мопертюи, попытавшийся обобщить постулат древних ученых о том, что «природа всегда действует наиболее легкими и доступными пу- тями», сформулировал (1744) принцип наименьшего действия и показал его справедливость при анализе законов рычага, ударов упругих и твердых тел [50]. Действие, по определению Мопертюи, есть произведение массы тела на его скорость и пройденный путь. В дальнейшем принцип наименьшего действия (ПВД) в механике раз- вивался по двум основным направлениям. В формулировке Ж. Лагранжа [34], обобщившего принцип наименьшего действия в форме Л. Эйлера Vds -» min (max) (V - скорость тела под действием центральной силы, ds - элемент пути), действие д ля системы тел оценивается выражением (1.22) i Здесь т, - масса i -го тела; Т - живая сила или кинетическая энергия. Используя соотношение между дифференциалами живой силы Т и си- ловой функции U, dT = dU, приводящее при интегрировании к закону живой силы т=и+н, У. Гамильтон (1834 г.) предложил варьировать начальные значения коорди- нат, что привело к вариациям не только Т и U, но н постоянном интегриро- вании Н получившей в дальнейшем название гамильтониана системы: ’ 5T=5U+8H. Если допустить, что соответствующие точки исходной к варьируемой траектории «проходятся» одновременно, тогда минимизируемое действие (Т + U )dt -» min. В вариационной форме это соответствует известному принципу Га- мильтона: t s](r+u)a».o. (123)
496_____________Принятие решений в системах управления. IV На протяжении многих лет различия в принципах Гамильтона и Ла- гранжа считались весьма принципиальными, даже антагонистическими до тех пор, пока Гельдер (1896) не рассмотрел общую вариацию движения системы материальных точек: |[27И5г + (87- + 8,Ь/)Л] = О, (1,24) >1 где 8'U - работа, вызванная действующими на систему силами на одной из виртуальных траекторий. Оказалось, что. различие в принципах Гамильтона и Лагранжа определя- ется разницей вариаций. Первый полагал, что t = 0. При этом из формулы (1.24) непосредственно следует (1.23), если 8'U = 81/ . Лагранж считал & * 0, но предполагал постоянной полную энергию системы: Т - U = const. При этом -ST = 8U и из (1.24) следует, что б (Tdt) = 8Tdt» О, и справедливость выражения (1.22). Важнейшим фактором для развития ПНД оказались работы Гельмголь- ца, который (после того как Л. Больцман и затем Р. Клаузиус установили тесную связь ПВД со вторым началом термодинамики) сделал системати- ческое сопоставление всех возможных применений принципа наименьше- го действия в механике, электродинамике и термодинамике. Клаузиус, введя определение времени прохождения точкой замкнутого цикла /, фазы движения и средних значений координат и скоростей, с по- мощью закона сохранения энергии получил соотношение, аналогичное по форме ПНД и отличающееся от него только тем, что интегрирование пе- ременных проводится от 0 до /. По Клаузиусу кинетическая энергия, поду- ченная системой, Якии^бфтИпТ}). ЗДесь с - константа; Т- абсолютная температура, полученная в предполо- жении, что mv2 = 2mcT . После введения обозначений А8ЕКИИ=82, А^2тс\аТ,=8, (1.25) где А - тепловой эквивалент работы; S - величина, которую Клаузиус на- звал энтропией, можно записать 8Q = T8S. Заменив б иа d и проинтегрировав это уравнение для кругового процесса Клаузиус получил отношение *2-0 т и сделал вывод о том, что «второе начало механической теории теплоты сводится к общим механическим принципам» [50].
Глава 1. Задачи 491 ----—решений_____________.______________—-—" Этот и последующие чисто механистические вывода и обобще“Т1Х обогатили физическую картину мира, так как задача описания «ехф^ ческих процессов на основе одного универсального принципа была менена идеей объединения различных областей физики с помощью соотношения, но рассматриваемого с разных позиций. гхпго по- Тем ие менее после введении Гельмгольцем понятия киистич част. тенциаяа L — Т + U , рассматриваемого как первичный показа ^щпо- ным случаем которого является понятие энергии, были ПОЛ5™ОНИО^тео- шения в термодинамике, электродинамике Максвелла и элеиро рии, аналогичные в механике соотношениям О Ж ДГилы^го я эпек- принципа Гамильтона эйнштейновы уравнения гравиташю •геомагнитного полей, Э. Шредингер - свое основноеВСе [73]. М. Планк считал, что принцип наименьшего № цксамй фи- принципы физики и господствует над всеми обр зики (45). тияпипа наименьшего действия Исторически развитие и обобщение "Р®®ких и энергетических фи- проходило на фоне формирования механ и не обобщая ГИД ® лософских концепций. Не ми носит чисто форматный области, где его справедливость не^по аз даяенных выше аспекте® характер, ограничимся его значе’ ”^в”Хиике, где по утверждению Хники и физики. CJP°ro ЙМСМЫСЯ лишьтогжшдаточ- М. Планка ПНД приобретает определенн но указаны ...--------------- наложенные условия, которым должны быть подчинены возможные движения (1.26) и, кроме того, характерная величина (приращение критерия), которая для любой вариации действительного движения должна ис- чезнуть Несоблюдение условия (1.26) и приводит к различиям в принципах Ла- гранжа и Гамильтона. Наиболее завершенными результатами, относящимся к принципу наи- меньшего действия, являются положения, сформулированные в теореме Э. Нетер. Согласно этой теореме всякому непрерывному преобразованию координат, обращающему в нуль вариации действия, при котором задан также закон преобразования функций поля, соответствует определенный инвариант, т.е. сохраняющаяся комбинация функций поля и их производ- ных. Например, инварианту функции Лагранжа относительно смещения начала отсчета (однородности пространства) соответствует закон сохране- ния количества движения, инварианту функции Лагранжа относительно смещения начала отсчета времени (однородности времени) - закон сохра-
498 Принятие решений в системах управления. Часть нения энергии, инварианту той же функции относительно пространств^' иых поворотов (изотропности пространства) - закон сохранения момента количества движения, инварианту относительно преобразований Лоренц^ или вращений в плоскостях (x,r), - обобщенный закон сохра. нения движения центра тяжести и т.д. Всего в четырехмерном пространст- ве-времени имеется десять фундаментальных законов сохранения [50]. Для полноты оценки необходимо подчеркнуть, что теорема Э. Нетев справедлива лишь для непрерывных преобразований. Какие же выводы, помимо положений (1.26) и (1.27), можно сделать из анализа развития вариационных принципов механики и физики для обра- тимых неуправляемых процессов, полезные при формализации задач при- нятия оперативных решений? 1. Формулировки задач принятия оперативных решений должны быть такими, чтобы в иих помимо критерия эффективности принимаемого ре- шения содержался показатель, характеризующий «внутренние» свойства самого процесса принятия решений, «трудоемкость действия» по выбору решений иди сложность процедуры принятия решений. Без такого показа- теля формализм задач принятия оперативных решений не может быть ак- сиоматически завершенным, доказательством чему служат формулировки ПНД, в которых даже для неуправляемых процессов присутствует этот «внутренний» критерий, характеризующий понятие действие. 2. Аналогом ПНД для обратимых неуправляемых процессов механики и физики, сформулированных с учетом условий (1.26), (1.27), в задачах принятия оперативных решений может служить принцип минимальной сложности в форме (1.20) или в иных имеющихся формах [47,60]. 3. Среди различных формулировок вариационных принципов механики формализму задач принятия оперативных решений и принципу сложности удовлетворяют интегральные принципы, для которых «действие» относит- ся не к моменту времени, а к интервалу времени (можно сравнить не во- шедшие в краткий анализ принципы Даламбера, Герца и др. [50]). Именно использование интегральных принципов позволяет формализовать различ- ные по своей природе задачи принятия решений. 4. Размерностями действия в механике и физике являются «время», «энергия-время» или «плотность-четырехмерный объем пространства- времени» - в зависимости от рассматриваемой природы явлений, т.е. дей- ствие измеряется конкретными физическими показателями. В каждый из этих показателей входит время. Следовательно, в задачах принятия опера- тивных решений, формализуемых с помощью принципа сложности, время может быть использовано как один из важнейших показателей сложности. Тем не меиее ограничивать все постановки задач принятия оперативных решений введением времени как единственного показателя сложности не- правомерно. Во-первых, простое формальное перенесение показателей действия-сложности из области физики в область задач принятия решений, в которой может присутствовать и элемент живой природы - человек, не-
допустимо, так как по утверждению В.И BenuTZT-------------21 время, имеет в живой природе смысл, отлич^Т°Г0 такое понятие>«» Ньютону или Эйнштейну [13]. Во-вторых в X.? Смысла временв 00 них решений не всегда можно ограничиться 0Ператив’ действия-сложности: в целом ряде задач возникХ Zk показателем Атония векторного показателя еяожне^Т^«*- оперативных решений охватывают многие асп₽^2 ’ Шчи ПРИНЯТИЯ в технических к лрутнх сформулированы с равной аененыо приближена. адч. , 4 прототипам. Для задач механики в физики «ейгаие, ..я,етс, уровнем формализации «сложности». Возможны н другие, более высокие, уровни. Убедительным свидетельством неправомерности формального перено- са понятий из одной области науки в другую служит использование в тео- рии информации Шеннона понятия энтропии (см. формулу Клаузиуса (1.25)). Возможно, по этой причине теория информации может дать ответы лишь на крайне ограниченный круг вопросов. Впрочем, К. Шеннон не шел по пути целенаправленного формального переноса энтропии в теорию ин- формации. Судя по работе [72], он искал для новой теории функцию, удовлетворяющую вполне определенным свойствам. Оказалось (см. тео- рему Шеннона в [72]), что она может иметь единственную математиче- скую форму - форму энтропии Клаузиуса. 5. Области, в которых справедлив принцип наименьшего дайтммп. ределяемые, в первую очередь, условиями М. Планка(1.26), ( • “У виями теоремы Э. Нетер, значительно уже тех областей, в к0Т°р“* Р х руются задачи принятия решений вообще в[задачи(или решений в частности. Поэтому, взяв от ПНД ид хаоа1сгеризуюшего обеспечения допустимости) «внутреннего» криг®р ’ 2^еские конструк- действие-сложность, необходимо искать новые и и позволяющие «ни, удовлетворяющие более широкому клаСцУ^стаи0Вке задачи пере- варьировать не только выделенные в *?1Т™Хия, харак«ризуюше- менные, но и сами постановки задач. Нали ОДLH0Be аппарата принятия го Действие-сложность, позволяет это сделать н решений на расширенных множествах. 1.6. Обзор математических теорий сложи •сложности в мела Завершив анализ концепций нике и физике, обратимся к анализу ма тоЧН0 подро6*10® я,1ЧИСЛитель- * Наст°ящему времени известно пять. Д иформационной и ^ают описание трех из- них (алгоритмическо , менй интен ой к те- Н°Й) содержится в работе [77]. С неДав . однако наИ^олеепявпения, Р33’ называемую теорию е-сложности [63]^ управлени Р- Ме настоящей работы является теория
500 Принятие решений в системах управления. Часть jy виваемая в трудах В.В. Солодовникова и В.И. Тумаркина [62]. Рассмотрим основные понятия этих теорий и оценим эффективность их применения дня принятия оперативных и проектных решений. 1.6.1. Алгоритмическая теория сложности Пусть jg S - некоторая индивидуальная задача принятия решений из класса 5 и пусть хе X - ее решение на множестве X. Для решения любой задачи из класса 5 имеется алгоритм А, позволяющий с помощью програм- мы Р получить на универсальной машине (машине Тьюринга или машине Поста) со структурой ф(Л з) решение х задачи з. Структура <р(Р,з) - это частично рекурсивная функция, такая, что <р(/’,з)= х. Обозначим через 1(р) длину программы Р, где р - число знаковых символов ее записи. Чане всего р = 2, так как для записи программы используется двоичный код. Под алгоритмической сложностью вычисления решения х задачи з по- нимают минимальную длину программы, обеспечивающую получение решения £(x/s) = minl(p). (1.28) Если ф(Р,«)= х, т.е. решение задачи j с помощью программы Р невоз- можно, то Ку (х/з)=оо. Введение такого понятия сложности вполне естественно и полезно для характеристики задач принятия решений, поскольку, во-первых, оно бази- руется на ключевых понятиях теории алгоритмов и вычислений, а, во- вторых, его применяют для оценки индивидуальной задачи з ограниченно- го класса S, что необходимо в случае принятия оперативных решений. Од- нако использование понятия сложности для построения алгоритмов опера- тивного управления накладывает определенные ограничения и на проце- дуры вычисления самих характеристик сложности. Эти вычисления не должны быть слишком трудоемкими, чтобы эффект от учета сложности задач принятия решений не был сведен на нет затратами на вычисление сложности. В этом отношении оценки алгоритмической сложности являет- ся крайне неудобными, так как функции Kv (х/з) - невычислимые функ- ции. Следовательно, при их определении для любой индивидуальной зада- чи принятия решений могут потребоваться трудоемкие оптимизационные процедуры. Определение же верхних оценок функций алгоритмической сложности (мажорант) обычно приводит к завышенным результатам. Тем не менее в рамках алгоритмической теории сложности получены результаты, которые непосредственно можно использовать для построения алгоритмов принятия оперативных решений. Понятие сложности функции, введенное Д. Гильбертом при формули- ровке его 13-й проблемы [77], важно не само по себе, а потому, что оно
Глава 1. Задачи принятия решений 501 связано с фундаментальными понятиями естествознания: случайностью, закономерностью, информацией. А.Н. Колмогоровым была предпринята революционная попытка освободить понятие «информация» от вероятно- стных свойств и связать его с наличием или отсутствием закономерности [31]. Несмотря на то что развитие этого направления из-за появления не- предвиденных трудностей математического характера в настоящее время замедлилось, полученные в нем промежуточные результаты имеют серьез- ное самостоятельное значение. Одним из важнейших достижений алгоритмической теории сложности является возможность количественной оценки мощности бесконечных множеств и формирование нового научного направления для решения проблемы табулирования непрерывных функций. Пусть X является метрическим вполне ограниченным пространством, тогда можно говорить о приближенном задании элементов этих про- странств с точностью до произвольного положительного числа е [30]. Мощность бесконечных множеств можно оценивать при этом одним из следующих способов: 1) заданием функции N° (X), равной наименьшей мощности е-сети, т.е. такого множества X с X , в котором любой элемент хб X находится на расстоянии, не большем е от какого-либо элемента хб X ; 2) заданием функции N* (X ), равной наименьшей мощности покрытия пространства X множествами с диаметрами не более е ; 3) заданием функции (X ), равной точной верхней грани мощностей R, состоящих из точек, находящихся попарно на расстоянии, не большем чем £. Существует теорема, утверждающая, что для любого метрического пространства X ^(x)£N*(x)<n:(x)<^2(x), т.е. оценки N*(X) эквивалентны для z = a,b,c- Обычно в задачах табу- лирования функций и при анализе информационных оценок используют Е -покрытие множества X - систему непересекающихся множеств с диа- метром d<2e. [14]. На основании приведенной теоремы можно заклю- чить, что данное Е-покрытие образует наиболее экономную Е-сеть. В дальнейшем будем использовать именно эту сеть с обозначением Ne(X) вместо N2e(X). Поскольку из бесконечности пространствах следует, что lim JV,(X) = oo, е-Ю ' ' выбор значения е имеет немаловажное значение.
502 Принятие решений в системах управллии» „ _ -----—-LZHJCTbty При вычислении функции Nc (X) следует учитывать не только"" элементарных подмножеств (т.е. собственно Nt (X)), Ио и СВ0ЙСПа жества X, ограничивающие число задаваемых на X элементов. Ми°" Рассмотрим оценки Ne (X) для некоторых метрических прострацс том числе и использованные ранее в параграфе 1.2. ’8 Пусть X есть С0[а,(>] - множество непрерывных действительных функций х(Г), заданных на сегменте [а.Ь] и ограниченных по модуЛ1о |Х/)|<с, Тогда, обозначив Ь-а = Т и введя е-сеть с шагом квантоВаиия по х равным е и с шагом квантования времени Д,, нетрудно получить оценку числа возможных дискретных функций (Ve(X)=(c/E)r/\ (129) Если X =С[ , т.е. помимо ограничения по модулю самой функции введено ограничение на ее первую производную |х(г)| < q, то, несмотря иа то что число элементов Е -сети остается прежним, на этой сети оказывает- ся возможным задать N't (X) различных функций (1.30) Для дважды дифференцируемых функций оценка Nt (X), характери- зующая число возможных функций х(г), подчиненных условиям |х(фс, |х(фс!, |х(г)|<С2 , получена В.Н. Четвериковым и Н.К. Самсоновым [70]: Л£(Х) = (с/е)[(Д, q/Ej+l][2,5 + 0,75(Д, с2/е)]Г/Д' . (1.31) От оценок (1.29) - (1.31) можно перейти к информационным оценкам, определяющим число двоичных знаков, необходимых для выделения функции х(/). Прологарифмировав формулы (1.29) - (1.31), можно полу- чить оценки энтропии: (X) = log2 (X) = (Т/Д, )log2 (с/е), (1>3^ We'(X) = 1°g2Are(X)«[(T/A,)-l]log2(q/E)+log2(c/E), (133) Н;(Х) = (Т/Д, )log2 [2,5+0, 75(д?с2 )/е] + (1 з4) +log2(c/e)+log2[(A,C1/e)+l]. Подводя итог возможности использования алгоритмической те0^ сложности для задач принятия оперативных решений, следует сказать, , непосредственное использование оценок типа (1.28) является неприемл
глава 1. Задачи принятия решений 503 мым, однако оценки в виде е -покрытий метрических пространств (1.29) - (1.31) и оценки в виде е -энтропии (1.32) - (1.34) могут найти широкое применение и в дальнейшем будут использоваться как оценки сложности. 1.6*2. Теория информационной сложности Термин «информационная сложность» используют в основном для ха- рактеристики трудоемкости вычислительного процесса при решении задач оптимизации и сформулированных выше оптимизационных задач приня- тия решении [77]. В теории информационной сложности, как это следует из [77], изучаются «потенциальные возможности численных методов оп- тимизации для различных массовых экстремальных задач», при этом опе- рируют с «такими аморфными характеристиками, как степень гладкости, выпуклость, мера обусловленностей другими». В информационной теории сложности используют предложенное Н.С. Бахваловым [5] формальное понятие «метод решения». Это понятие применяют к некоторому семейству задач математического программиро- вания F, которое определяется тройкой F =< E,G,X >, где Е(х) - крите- рий оптимизации, зависящий от вектора переменных х размерности п; G(x) - система ограничений вида g((x) = 0, = g,(x) - линейные или нелинейные функции п переменных Xj; X - область определения х, причем обычно X = R. Дополнительно введем понятие оракула О, который определяется: 1) множеством допустимых вопросов, на которые О может «ответить», характеризуя параметры оптимизационного процесса, в том числе те- кущее состояние вектора х; 2) множеством возможных ответов; 3) функцией наблюдения y(x,E,G):Xx<£,G,X>->r, приводящей в соответствие каждому конкретному вопросу для любой ин- дивидуальной задачи из семейства F конкретный ответ yG Y. Любую индивидуальную задачу решают численным методом по итера- тивной схеме, причем на каждой итерации оракул «отвечает на вопрос», поставленный методом решения В. Метод решения В - это набор инст- рукций для формирования на каждой итерации вопросов оракулу и набор правил, определяющий момент останова процесса вычислений н момент формирования решения. По отношению к методу В оракул О можно тРа*7°ьать как описание индивидуальной задачи из семейства F. Ключевой характеристикой теории информационной сложности явля- р я трудоемкость метода В по отношению к индивидуальной задаче r е F’ ®на определяется числом итераций, требуемых для получения
504 Принятие решений в системах управления. Часть ГУ решения с погрешностью е не ниже заданной. Погрешность определяют как меру отклонения от оптимального решения. Трудоемкость метода В для семейства задач F определяют как верх* нюю грань трудоемкостей индивидуальных задач. Аналогично вычисляют и погрешность. Информационной сложностью 2V(e) решения задач семейства F с по- мощью метода В и оракула О называют минимальную трудоемкость, с которой методом В можно решить любую индивидуальную задачу из класса F с погрешностью, ие превышающей е [77]. Теория информационной сложности обладает двумя важными для за- дач принятия оперативных решений особенностями: 1) в ней используется понятие трудоемкости индивидуальной задачи, ко- торое можно применять для построения алгоритмов принятия опера- тивных решений, учитывающих специфику конкретных ситуаций, воз- никавших в миогообъектной распределенной системе управления; 2) а теории информационной сложности используют понятие погрешно- сти решения, что совершенно необходимо для построения приближен- ных и гибких алгоритмов принятия оперативных решений. Однако ориентация понятия информационной сложности на семействе задач, а не на индивидуальную задачу, ограничивает сферу его примене- ния в системах оперативного управления. Это связано, прежде всего, с до- вольно низкой точностью оценок. В качестве примера приведем следую- щую задачу оптимизации: минимизировать функцию п переменных Е(х), дифференцируемую по всем (/»!,«) сколь угодно раз. Известно, что все частные производные до v-й включительно по модулю не превышают 1, а областью определения Е(х) является единичный шар в Rn . Для этой задачи, решаемой градиентным методом, оценку информаци- онной сложности определяют по формуле TV (е) = C„,v (1/е)"А. где е -заданная погрешность, C„v - константа. Для л = 20, v = 2 и Е = 0,001 получим N(e) = 1014, и эта оценка совпа- дает с оценкой метода случайного поиска. Из определения понятия информационной сложности вытекают оче- видные преимущества и недостатки использования такого подхода. Преимуществами являются большая общность использования информа- ционных оценок для широкого класса задач оптимизации и принятия реше- ний, а также возможность получения значимых результатов даже при столь широкой постановке задачи. Недостатки подхода связаны с неточностями измерения трудоемкости метода; с отсутствием возможности вариации ме- тодов для выбора из них минимально или ограниченно сложного, а также с тем, что не учитываются реальные затраты вычислительных ресурсов.
Глава Ь Задачи принятия решений 505 1.6.3. Теория вычислительной сложности В теории вычислительной сложности формируется пара <Л, з>, состав- ленная из алгоритма А, предназначенного для решения семейства задач S и в частности, конкретной (индивидуальной) задачи s из семейства S. Для любой пары сложность можно оценивать системой показателей, каждой из которых называют сигнализирующей функцией. Наибольшее распространение получила сигнализирующая времени TA(s), определяющая число шагов, которые необходимо проделать алго- ритму А для решения индивидуальной задачи seS. Для оценки эффективности алгоритма А на семействе задач S в теории вычислительной сложности используется верхняя оценка сигнализирую- щей времени ТА (S) = max TA(s), (1.35) а для выбора алгоритма из заданного набора {А}, наиболее эффективного для решения семейства задач S, минимаксная оценка T(S) = minmaxTA(s) = minTA(S). (1.36) (A) s€S Помимо сигнализирующей времени в теории вычислительной сложно- сти формируют следующие функции сложности: сигнализирующая емко- сти - число ячеек оперативной памяти, необходимых для решения задачи seS алгоритмом Л; сигнализирующая колебаний (поворотов) - количест- во циклов в программе для реальной ЭВМ, которые изменяют типовую последовательность вычислений; сигнализирующая режима - число обра- щений к долговременным запоминающим устройствам. Оценки типа (1.35), (1.36) применяют ко всем названным сщ-нализи- рующим функциям. Однако наибольшее значение в теории вычислитель- ной сложности имеет сигнализирующая времени, которую в большинстве случаев называют вычислительной сложностью и обозначают в вида функции, пропорциональной параметрам задачи О(п),О(п2) и т.п., где п - размерность задачи. Различают задачи полиномиальной и экспоненци- альной сложностей. Для первых сложность определяют полиномом от размерности задачи, например, О(«2),О(«3), для вторых - экспоненци- альной зависимостью: О(ап ),O(bn10g") и т.п. К задачам, для которых разработаны алгоритмы полиномиальной сложности, относятся, в частности: • задача перемножения двух матриц порядка и (алгоритм Штрассена имеет сложность О(п 2,609)); задача о кратчайшем маршруте на графе с п вершинами (алгоритм Дейкстры имеет сложность О(п3));
506 Принятие решений в системах управления. Часть ГУ • двухиндексная задача назначения - О(п3). Основным экспериментальным материалом, на котором развивалась и апробировалась теория вычислительной сложности, были и являются экс- тремальные задачи комбинаторного типа и задачи теории графов. С.Р. Яб- лонским (1957 г.) была высказана гипотеза о том, что для экстремальных задач комбинаторного типа не могут быть разработаны алгоритмы, суще- ственно менее трудоемкие, чем алгоритмы полного перебора [78]. С тех пор основные усилия в теории вычислительной сложности были направле- ны на поиски алгоритмов полиномиальной сложности для задач экспонен- циальной сложности и иа доказательство сводимости или несводимости конкретных задач к задачам полиномиальной сложности. С. Куком и Р. Карпом была предложена классификация задач принятия решений, получившая впоследствии широкое распространение [19]. Задя. чи, для решения которых разработаны алгоритмы полиномиальной слож- ности (так называемые эффективные алгоритмы), ртносятся к классу P-сложных задач. Задачи, которые в настоящее время можно решить толь- ко с помощью алгоритмов экспоненциальной сложности, относятся к клас- су NP-сложиых задач. Очевидно, что класс задач P-сложности является подклассом NP-сложных задач. В классе HP-сложных задач выделен специальный подкласс так назы- ваемых NP-полных задач, которые характерны тем, что если хотя бы для одной из них будет разработан алгоритм решения полиномиальной слож- ности, то аналогичные алгоритмы можно получить для всех NP-полных задач. Разработать такой алгоритм пока не удалось и вопрос о сводимости NP-полных задач к классу P-сложных остается открытым. В книге [19] приведен список трехсот NP-полных задач. Таким образом, основная ценность теории вычислительной сложности - глубокий анализ проблемы построения эффективных алгоритмов и нали- чие алгоритмов для решения конкретных задач. В то же время нельзя согласиться с тем, что проблема построения алго- ритмов принятия оперативных решений в рамках теории вычислительной сложности решена. Необходимы специальные исследования для сопостав- ления по времени счета различных алгоритмов, однако проблема построе- ния гибких алгоритмов в рамках этой теории даже не поставлена. 1.6.4. Теория Е-сложности В 1980 г. (США) появилась первая монография о результатах работ по теории сложности, проводимых в Колумбийском университете [63]. Пер- воначально разрабатываемую теорию называли теорией аналитической сложности, затем /-сложности н, наконец, теорией информационной слож- ности. Далее будем использовать термин «теория е-сложности», чтобы существовало отлнчне от теории информационной сложности, обсуждав- шейся ранее.
Глава 1. Задачи принятия решений 507 По утверждению авторов теория Е-сложности отличается принципи- ально от теории вычислительной сложности тем, что в ней изучают слож- ность задач, решаемых иа основе неполной, неточной или платной инфор- мации; в теории же вычислительной сложности оперируют с точной, пол- ной и бесплатной информацией. Центральную роль в теории е-сложности играет понятия «информация» и «реализуемый алгоритм». Точные нижние оценки погрешности решения в данной теория определяют без введения нормы, используя радиусы или диаметры информации, которые формиру- ются различно для задач с полной или приближенной информацией н для класса реализуемых алгоритмов. Применяя теорию Е*сложностн, можно ответить на следующие вопро- сы: • можно ли решить данную задачу с точностью е? • сколько это будет стоить или какова сложность задачи? Рассмотрим основные понятия этой теории. Пусть имеются два тоже- ства F = {f} и G = [$}, в которых f - элемент задачи, g - элемент ре- шения. Класс всех подмножеств множества G обозначим 2е н введем опе- ратор решения S: S: Fx/?+->2G,/?+=[0,+«>). Оператор решения S должен обладать следующими свойствами: а) $(/,О) = 0, для всех f е F, б) S(f,hi)c.S(f,h2) при A!<A2- О-37)' Пусть задано число е * О, характеризующие допустимую погрешность решения. Элемент g е G, удовлетворяющий условию geS(/,E), будем называть Е-приближением. Для поиска Е-приближения произволь- ного неизвестного пока f необходимо ввести информационный оператор tf: F-эЯ, где Н - образ множества F; W) - располагаемая информация об эле- менте f. Информационный оператор называют полным, если он содержит всю информацию об элементе f , и неполным - в противном случав. Рассмот- рим множество A(N./.*)= Л feV(N,f) где V(N Г) - множество всех элементов /, неотличимых с помощью информации W) or иехоторых фихеироваиимх /. Т« «н«жк™, Л Д^УДО-егворятиусяоаию^ rm™^erou»«a
508 Принятие решений в системах управления. Часть IV которую называют локальным радиусом информации. Глобальный радиус информации в теории е-сложности r(N) = supr(N,f). feF Очевидно, что если заданная допустимая погрешность е < r(N), то по- лучить решение с заданной точностью невозможно. Для введения понятия «сложность» необходимо задать множество Р. простейших операций: арифметические операции, операции сравнения, операции определения максимума из п чисел и т.п. Пусть Wo - прибли- женный информационный оператор. Его называют допустимым, если для всех feF существует программа вычисления /%(/), состоящая из ко- нечного числа простейших операций. Если такими операциями являются рх,р2...pi, то сложностью оператора N0(f) называют сумму i сошр^о (/)) = 2}сошр(р,) . 1=1 Аналогично вводят определение сложности алгоритма ф. Эту слож- ность сошр(ф) называют комбинаторной, н в ней не учтены информацион- ный оператор и заданная погрешность решения. Пусть Я(Л/0) - класс реализуемых алгоритмов, для которых радиус информации г(Я(ЛГ0)Л0) не превосходит заданную погрешность. Слож- ность алгоритма ф сотр(ф) = sup[comp(W0 (/))+comp (ф(^ (/ )))], а Е-сложность сотр(Я (Nо), No, е) = inf {comp (ф): ф е Я (No, е)} и характеризует минимальный по сложности алгоритм, способный решить данную задачу с необходимой точностью. В теории Е-сложности пока в качестве простейших операций выбирают четыре арифметические операции над вещественными числами и при этом полагают, что сложность каждой из них равна 1. Это затрудняет использо- вание данной теории даже в традиционных разделах математического про- граммирования, так как, с одной стороны, является достаточно грубой аб- стракцией, а с-другой - из-за использования «мелких», неукрупненных компонентов для оценок сложностей связано с большой трудоемкостью процессов построения алгоритмов оценок сложности. Вероятно, по этим причинам число практических приложений теории е-сложности невелико. В задачах оптимизации с дискретными множествами в теории в- сложности используют Е-энтропию и оценки сложности близки к оценкам, полученным в алгоритмической теории сложности.
509 сложности систем управлении тпя на то что понятие сложности наиболее актуально для задач ЦесМ° ваНИЯ систем управления любых классов, формализация этого лроект^Р0 зана с огромными трудностями именно для систем управления. г1онятйя св течеНИе долгого времени, даже после формулировки в 1965 г. 0Оэто**У д0Вниковым и В.Л. Ленским принципа сложности (как стратегии . 0.0- и синтеза систем управления) не удавалось ввести универ- ^^Гпонятие сложности. саЛЬН иная с 1986 г. появляются публикации В.В. Солодовникова и Тумаркина по те0Рии сложности систем управления, в которых вве- В И- специальные пространства (множества), отношения эквивалентности ДейЬ1 поЧТения на них, и в которых сложность системы управления опре- Й ПРется порядковым числом (ординалом). ^Перечислим основные компоненты теории сложности систем управле- ния [32]' Теория сложности основана на понятии целевого пространства систем (ДПС) как тройки < X,R,P >, где X = {х} - множество систем управле- ния реализующих заданную цель A = aimx для любого х, R - множество отношения эквивалентности на X (причем Ае R), Р- множество отноше- ний предпочтения на X. Предполагается, что множества R и Р замкнуты относительно импликации: если из Rt е R вытекает Л2 (из е Р вытекает Р2), то /?2 е R Р). С помощью любого R из R можно разбить ЦПС на смежные классы XR R-эквивалентных систем; совокупность классов XIR образует декомпозицию ЦПС из непересекающихся между собой мно- жеств. Однако в теории сложности чаще используют иные декомпозиции, описывающие ЦПС как топологическую башню М =(№), т.е. из XiXjgM следует, что XxqX2 либо Х2 G X,. Для построения таких Декомпозиций из ЦПС отбираются сопряженные пары <R,P>, по опре- делению обладающие следующими свойствами: а) Для любых х, х, у е X из хРу, x'Rx следует х'Ру; б) Для любых не R-эквивалентных х,уеХ среди x'Rx, y'Ry найдутся такие х'.у', что либо х'Ру', либо у'Рх. Для сопряженной пары совокупность смежных классов Х/Л-|Х'| ном Н° уп?рядочить: каждому смежному классу назначить порядковый еР (X = Х') и образовать шкалу, т.е. множество ZR = {xt€Xt) ннду аВИТелей этих смежных классов. С помощью 2Я можно построить ИВКЬ1м способом «башенную» декомпозицию ЦПС |JM а, где Мо ~~ мноЖестп в тво, содержащее «минимальный» элемент шкалы х0;
510 Принятие решений в системах управления. Часть IV Мо-Ма И Ма - смежный класс, содержащий «минимальный» элемент оставшегося от- резка шкалы с наименьшим номером из ZK \ (J хь. Ъ<А В теории сложности систем управления порядковой R -сложностью на- зывают номер а элемента шалы ха , R -эквивалентного системе х из X. Оператором R -сложности является отображение <р: X ~*ZR. а функцио- налом - отображение v: X —» V, где V - отрезок множества неотрицатель- ных действительных чисел. Для проектирования систем управления на основе теории сложности вводят понятия « R -обладание одинаковыми техническими характеристи- ками» (обозначается с) и «предпочтение» Р (обозначается с). Совокуп- ность характеристик, введенных иа базе указанных и вытекающих из них понятий, образует множество признаков системы (МПС). Элементы МПС можно представить в виде множества слов (или, в частном случае, чисел) @ ={@}, выражающие все возможные свойства систем из ЦПС, включая aim х. Для элементов множества @ задается операция сшивания состоящая в объединении слов с исключением повторов. Слова могут быть первого рода (не особые), выражающие собственные свойства хеХ, и второго рода (особые), выражающие сравнительные свойства х по отно- шению к другим системам. Например, сложность х. Множество слов пер- вого рода вместе с операцией сшивания образует пространство обликов систем @ (ПОС), а аналогичное множество слов второго рода - критери- альное пространство Е (КПС). Пара <ЦПС, ПОС> реализуема, если суще- ствует сюръективное отображение f: X —> @ , ставящее в соответствие системе х слово @ = /(х), содержащее признаки х и только х. Эквива- лентность Я = [/(х) = /(у)] называют ядром отображения f , обозначают кег/ и характеризуют ею сложность систем (ker f = с). Для этой эквива- лентности определяется шкала сложности Zf={xe }, оператор сложности фг и функционал сложности ис. Ограничением (или минимизацией) сложности системы при макси- мальной (или достаточной) эффективности выполнения ею цели управле- ния характеризуют корректное проектирование. Для достижения второго условия используют основное «решающее правило» теории сложности систем управления - принцип сложности. В терминах цитируемой теории сложности его записывают следующим образом: е. = [F(x) = extr,xe
511 г„ава 1- Задачи принятия решений де её Е - критерий обобщенной эффективности (качества управления), р выражающий его функционал, X с X - располагаемое подмножест- во систем, Г« - отрезок (главный идеал) декомпозиции ЦПС по R- сдожиости. В настоящее время в теории сложности наряду с эквивалент- ностью с большое внимание уделяется эквивалентности по затратам на проектирование (обозначается СП ) В последнем случае в принцип слож- ности вводят критерий сложности проектирования. Этот принцип состоит в обеспечении максимальной эффективности при ограничении затрат либо достаточной эффективности при минимальных затратах. Хотя сложность системы характеризуется порядковым числом (номером соответствующего элемента шкалы), а сложность ее проектирования - обобщенными затра- тами, общий подход к проблемам ограничения (минимизации) сложности системы и сложности процесса проектирования остается неизменным. Процесс проектирования систем управления на базе теории сложности состоит в формировании ПОС, множеств эквивалентностей, предпочтений и ЦПС, декомпозиции ЦПС по выбранной эквивалентности и сложности, поиск элементов минимальной или ограниченной сложности. Многие из перечисленных операций в настоящее время еще не формализованы в виде эффективных вычислительных процедур, что затрудняет применение тео- рии в инженерных расчетах. Не распространена теория сложности и на задачи принятия оператив- ных решений. Анализируемая теория сложности формирует основы математического формализма процессов проектирования систем управления высокого уровня общности. Теория находится на начальном этапе развития и требу- ет совершенствования способов и вычислительных процедур формирова- ния ПОС, ЦПС и т.д., совершенствования процедур поиска элементов ми- нимальной сложности (более эффективных, чем прямой перебор), форми- рования процедур минимальной сложности для решения проблемы век- торной оптимизации и процедур учета неопределенности проектных пара- метров.
512 Принятие решений в системах управления. Часть IV ГЛАВА 2 ЗАДАЧИ ПРИНЯТИЯ РЕШЕНИЯ НА РАСШИРЕННЫХ МНОЖЕСТВАХ ПО СКАЛЯРНОМУ КРИТЕРИЮ 2.1. Постановка задач принятия решений на расширенных МНОЖЕСТВАХ АЛЬТЕРНАТИВ ПО СКАЛЯРНОМУ КРИТЕРИЮ Для классических задач принятия решений, рассмотренных в предыду- щей главе, предполагалось, что в шестерке (1.9) определены все элементы Р, G, D, у° и множества Uf ,Н, при которых задача сводится к перебору (полному или целенаправленному, т.е. заданному определенным алгорит- мом) всех управлений и ueU^ для выбора оптимального решения или к перебору до первого выполнения условий толерантности при поиске допус- тимого решения. На практике же весьма важным является случай, когда названные эле- менты шестерки четко не определены, но их можно задавать различными способами в ваде некоторых множеств, имеющих различную мощность. Такие задачи возникают практически всегда в начальный период проектирования систем управления. Более того, расширение возможных формулировок од- ной и той же задачи может привести к получению метода и алгоритма ее ре- шения, существенно превосходящего по некоторым параметрам исходный метод и алгоритм решения. Определение 2.1. Пусть А, - любой из элементов (множеств) шестерки (p.G.D, у0,[Л,(2.1) Назовем A = (jA; расширенным множеством задачи принятия решений: 1) если любой элемент (множество) А э А, удовлетворяет всем свойствам соответствующего элемента (множества) шестерки (2.1); 2) если для лю- бых двух элементов (множеств) А( и Aj имеет место условие:
Глава 2. Задачи принятия решения 513 A,Qa;=O или (для множеств) при А;сА} найдутся такие элементы a, е А;,а;- е Aj, что а,- # Oj, т.е. элементы А(, А?- в задаче принятия реше- ний не тождественны. Введем для задач принятия решений следующие обо- значения расширенных множеств: Р - всех используемых выходных функций Р, G - всех используемых оценочных функций G, D - всех используемых функций допустимости, Y - всех используемых множеств входных условий Y, U - всех используемых допустимых областей управления, Н - всех используемых областей неопределенности. Важной особенностью задач принятия решений на расширенных мно- жествах является их методическая идентичность с классическими задача- ми принятия решений, но при значительно большей размерности и при на- личии дополнительных оценочных функций. Эти функции, как будет ска- зано далее, имеют смысл сложности. В то же время введение расширенных множеств позволяет сформулировать и формализовать совершенно новые задачи. Рассмотрим ряд задач принятия решений на расширенных множествах, полагая, что в шестерке (2.1) присутствует лишь одно расширенное мно- жество и что достаточно ограничиться поиском допустимого решения. Задача 2.1. Идентификация типов внешних воздействий. Пусть име- ется шестерка < P(Y),G(Y),D(Y),Y,(/^(Y),tf(Y)>, в которой расширен- ным множеством является множество всех возможных условий Y. По- скольку выбор конкретного У с Y может привести к изменению P,G и других компонентов шестерки, введем запись P(Y),G(Y) и т.д., которую далее целесообразно заменить более простой, выделяя в шестерке лишь «расширяемые» элементы: <P,G,D,X,Uf,H>. Для данной шестерки имеет смысл следующая задача принятия реше- ний: найти такое подмножество У'с Y, любой элемент которого у'еУ' позволяет определить элемент u°.eU^ и соответствующий и0 элемент ju° е X так, что для любых he Н будет выполнено неравенство(1.8) G(y',u°,h,x0)SD(y',h) и условие 2(У')Р/(У), (2.2) где Z(K') - некоторый заданный априори показатель эффективности вы- бора У' из Y; Ry - заданное отношение порядка; У - любое из подмно- жеств Y , не совпадающее с У'. 34 Зак. 108
514 Принятие решений в системах управления. Часть IV Далее постановки задач принятия решений на расширенных множествах будем формулировать более кратко: для шестерки (p,G,D,\,U f ,Н^ найти такое подмножество У'е Y , любой элемент которого у' удовлетворяет ус- ловиям ^у',и0,х°^б 5 и (2.2). Отношение порядка (количественного превосходства, предшествова- ния, подчиненности, включения, предпочтения) классифицируют в теории систем в зависимости от сочетания свойств симметричности, рефлексив- ности, транзитивности и обратных им свойств. Наличие для любых эле- ментов отношения «меньше или равно» соответствует линейному (совер- шенному) порядку. Запись вида (2.2) означает, что Y' предпочтительнее, чем У, где любое из подмножеств Y и У' # У . Орграф, изображенный на рис. 2.1, иллюстрирует процедуру выбора типа внешних воздействий. По сравнению с орграфом для классической задачи принятия решений (см. рис. 1.6) этот орграф имеет значительно бо- лее развитую структуру. Выбор У по оценке Z(Y’)RtZ(Y) I О N Рис. 2.1. Граф процесса решения задаче выбора типа Внешних воздействи
Глава 2. Задачи принятия решения 515 п п^мГстп2мйл^ДеНТИиИКаЦИЯ неопРеделенности. Пусть в шестерке ества Й содержится расширенное множество, т.е. задана шестерка ’ <P,G,D,y°,U/,Н>, (2.3) тогда задачу можно сформулировать следующим образом: найти такое подмножество Н с Н, для любого элемента которого h' выполняется ус- ловие < у 0, и 0, х° >е S и, кроме того, Z(H')RhZ(H). (2.4) Здесь Z(H ) — показатель эффективности выбора Н' из Н; Rh - задан- ное отношение оценок 2 на Н. Для данной задачи требуются дополнительные пояснения. Пусть под- множества Н с Н таковы, что совокупность их элементов определяет не только факт наличия неопределенности и мощность множества неопреде- ленности, но и характеризует конкретный способ указания неопределенно- сти. Так, неопределенность можно характеризовать; 1) с помощью статистических характеристик параметров задачи, которые (статистические характеристики) сами могут быть классифицированы различно, в частности, по заданию: а) законов распределения; б) веро- ятностей наступления определенных событий; в) моментов случайных величин различных порядков; 2) интервальными значениями параметров типа /imin < h < ; 3) оценками из теории X -Исчисления [80]; 4) заданием для соответствующих параметров функции принадлежности и использованием аксиоматики нечетких множеств. Очевидно, что для некоторых задач принятия решений способ задания (в данном случае выбора ив возможных) Н не приведет к изменению са- мой процедуры принятия решений. Именно такой случай должен иметь место в задяче. 2.2. Однако в большинстве случаев способ задания неопре- деленности влияет и иа процедуры принятия решений. В этих случаях не- обходимо в шестерке (2.1) сделать расширенными множествами и Н , и Р. Аналогично при выборе критериев Z(H) в первом случае можно ог- раничиться показателями, характеризующими процесс построения облас- тей Н G Н, во втором - необходимо использовать критерии, характери- зующие весь процесс принятия решений. Как в первом, так и во втором случае такие показатели обычно отражают сложность решения задачи, вы- раженную в теоретико - множественных или иных оценках, в том числе и в некоторых физических единицах. Задача 2.3. Выбор критериев. Переходя к рассмотрению задачи выбо- ра критериев, следует подчеркнуть, что эта задаче имеет смысл лишь в тех случаях, когда-система является целеустремленной в том смысле, что цель ее функционирования определена и известна. 34*
516 ________ Принятие решений в системах управления. Часть IV Цель функционирования системы можно сформулировать различно с использованием разных уровней формального описания, в том числе вер- бально или с помощью нечетких категорий. Поскольку далее речь будет идти о технических системах, цель функционирования системы определим в виде некоторых «первичных показателей качества» qv , которые должны принадлежать допустимым областям Qv, (v = 1,2,...) : qv^Qv- (2.5) Теперь для шестерки <P,G,Qv,y°,U^,Н > можно поставить сле- дующую задачу принятия решений иа расширенных множествах: найти такой элемент G'cG, что < у°,и°,х° >е S, т.е. удовлетворяются требо- вания к первичным показателям качества (2.5) и, кроме того, выполняется условие Z(G')RgZ(G). (2.6) Здесь Z(G) - показатель эффективности выбора G' из множества аль- тернатив G, отражающий сложность процедуры принятия решений с кри- терием G'. Действительно, если, например, в задачах математического програм- мирования выбор критерия позволяет осуществить переход от нелинейно- го функционала общего вида к выпуклому или даже квадратичному, то сложность решения существенно снижается. Задача 2.4. Выработка технического задания. Рассматриваемая зада- ча получила такое название потому, что варьируемыми (расширяемыми) параметрами в ней являются функции допустимости, которыми при проек- тировании технических систем в основном и определяются компоненты технического задания. Рассмотрим шестерку <P,G,D,y°,£/^,H >, в которой расширенное множество D есть множество всех возможных функций допустимости. Задачу принятия решений сформулируем следующим образом: найти та- кое множество D'cD, для которого < у°,и°,х° >6 S , т.е. выполняются ограничения (2.5) на первичные показатели качества и, кроме того, усло- вие Z(D')/?OZ(D), (2.7) где Z(D') - показатель эффективности выбора D’; D - произвольное подмножество из множества D, D * D'. Постольку выбор D' чаше всего приводит к изменению (упрощению или усложнению) алгоритма принятия решений исходной задачи, под по- казателем Z(D') удобно понимать сложность реализации алгоритма. Задача 2.5. Выработка технического задания совместно с критерием оценки. Рассмотрим ситуацию, когда задачи формирования критерия и
Задачи Функция nnnvtm принятия решения_______________ 31' 1М0СТИ необходимо объединять в одну задачу. При этом для РасШиренных множеств G и D, т.е. для шестерки < P,G,D,y°,U^ ,Н >, Может быть поставлена следующая задача при принятия решений: найти та- кие множества G'e G, D'e D, для которых < y°,uQ,x° >е S , т.е. решение Удовлетворяет первичным показателям качества и, кроме того, выполняется Условие Z(G',D')/fgDZ(G,D), (2.8) гДе Z(G'.D') — показатель эффективности выбора критерия и его допус- тимого значения, учитывающий сложность реализации процедуры приня- тия решений. В качестве одного из вариантов процедур принятия решений на расши- ренных множествах для задачи 2.5 можно использовать алгоритмы штрафных и барьерных функций. Задача 2.6. Выбор области управления. Пусть в шестерке (2.1) вместо множества допустимых управлений содержится совокупность этих множеств U. Тогда задачу принятия решений можно сформулировать следующим образом : найти такое множество , любой элемент которо- го и'е таков, что тройка < у°,и',х'>е S и, кроме того, выполняется условие Z(Ur)RvZ(Uf), (2.9) где Z(U-f ) — показатель эффективности выбора множества допустимых управлений Uf . Задача 2.7. Выбор модели объекта. Рассмотрим следующую шестер- ку: <P,G,D,y°,Uf ,Н >. Записав в ней вместо единственной выходной функции Р множество функций Р, предположим, что известно несколько способов математического описания выходной функции (по терминологии теории управления объекта управления ) или такие способы можно «сге- нерировать». При этом можно задать «неизменяемую часть объекта», т.е. те его звенья, математическое описание которых варьировать недопусти- мо, и «изменяемую часть», выбирая которую можно придать системе же- лаемые свойства. Оба эти случая сводятся к классу задач принятия реше- ний на расширенных множествах. Интуитивно можно предположить возможность различного математи- ческого описания одного и того же объекта. Для электродинамических систем эта возможность строго доказана А. Пуанкаре [52]. Итак, сформулируем следующую задачу: найти элемент Р'е Р, для ко- торого при любом заданном у°б У найдется элемент u'eU^ такой, что < у°,и',х' >е 5, т.е. выполняются условия толерантности (1.8):
518 Принятие решений в системах управления. Част», jy G(y0.u',h,x')£D(y°,h) и, кроме того, условия Z(P')RPZ(P), (210) где Z(P’) - показатель эффективности аыбора выходной функции Р' • р - произвольный элемент из Р. Заметим, что одним из частных случаев этой задачи может быть тот в котором в качестве альтернативных форм выходной функции используют различные области допустимых решений х^. Именно такой случай и та- кая постановка задачи принятия решений имеют место в теории решения задач, при доказательстве теорем и т.п., когда у0 - «условие задачи» а х? - «то, что требуется доказать» или «искомое решение». Таким обра- зом, частные варианты задачи 2.7 можно отнести к области теории реше- ния задач или к области искусственного интеллекта. Принципиальное от- личие состоит в том, что в названных областях не сформулированы усло- вия типа (2.10) и процесс поиска ограничен получением любого удовле- творительного решения. Введение же оценок Z(P') и условий типа (2.10) позволяет характеризовать «внутренние свойства» процесса принятия ре- шений, поскольку «внешние свойства», определяющие цель решения, уже полностью отражены условиями толерантности типа (1.8) или «первичны- ми показателями качества» (2.5). Естественно, что в качестве таких оценок можно использовать показатели сложности процедур принятия решений. Задачи принятия решений на расширенных множествах не ограничива- ются перечисленными выше семью задачами и изложенными процедурами «расширения» классических задач принятия решений. Легко установить, что общее число задач принятия решений на расширенных множествах рас- смотренного типа определяется числом комбинаций «расширяемых» эле- ментов шестерки (2.1): 6 лг^»£с?=53, ;»1 где Cf - число сочетаний 6 элементов по i. Среди этих 53 вариантов постановок задач принятия решений на рас- ширенных множествах есть сугубо абстрактные, не имеющие практиче- ского значения, но есть и новые, оригинальные постановки задач, откры- вающие новые направления исследований. Некоторые из них будут рас- смотрены далее. ' Последней из задач принятия решений на расширенных множествах является задача, практически всегда имеющая место на начальник стадиях работ по созданию новых, не имеющих аналогов, образцов техники. Задача 2.8. Принятие решений на расширенных множествах по скалярному критерию. Пусть все элементы шестерки (2.1) заданы рас- ширенными множествами, т.е. имеется шестерка
Глава 2. Задачи принятия решения 519 <P,G,D,Y,U,H>. (2,11) Поставим следующую задачу: найти такие подмножества K'cY, [М с U, W с Н и элементы G'& G, Dze D, Р'е Р, при которых для лю- бых элементов у 6 У и h'е Н’ найдется такой элемент u'eU-^ и соот- ветствующий и элемент х , что < у',и,х'>& S , т.е. выполняются пер- вичные показатели качества (2.5) и, кроме того, условие Z(P',G',D',Y',Uf ,Н') R Z(P,G,D,Y,Uf ,Н). (2.12) Здесь Z - показатель, характеризующий «внутренние» свойства про- цедуры принятия решений (сложность); R - отношение порядка на оцен- ках Z. В рассмотренной постановке задача принятия решений соответствует случаю, когда сама по себе задача еще четко не сформулирована. Извест- ны лишь общие требования к решению в виде первичных показателей ка- чества. Все иные компоненты постановки задачи требуется определить. Для этого сформированы всевозможные альтернативы по всем компонен- там постановки задачи и критерий (2.12), характеризующий, как об этом говорилось выше, сложность процедур принятия решений. Остановимся теперь на вопросе о необходимости введения дополни- тельных критериев типа (2.12). Утверждение 2.1. Вез введения дополнительных критериев типа (2.12) задача принятия допустимых решений на расширенных множествах не имеет математического смысла, поскольку любые варианты решения, удовлетворяющие первичным показателям качества, равнозначны. Проанализируем это утверждение. К задачам принятия допустимых решений относятся те задачи, в которых используются первичные показа- тели качества, а именно, задачи 2.3 - 2.5 и 2.8. Формулировать их без вве- дения критериев типа (2.12) бессмысленно, так как все возможные альтер- нативы решения окажутся равнозначными. Бессмысленно и отказываться от формирования альтернатив решения, поскольку в этом случае придется ограничиться случайной альтернативой. Остановимся на вопросе о физическом смысле критериев типа (2.12). Будем исходить из того, что первичные показатели качества (2.5) полно- стью определяют цель решения задачи, в противном случае-вообще нельзя говорить о том, что задача сформулирована. Но если цель решения отра- жена в первичных показателях качества, то дополнительные критерии типа (2.12) могут отражать только средства достижения этой цели, причем при введении расширенных множеств альтернатив они могут существенно различаться. В качестве показателей, характеризующих средства достиже- ния цели решения задачи, наиболее приемлемая характеристика - слож- ность процедур принятия решений, поскольку для формализации понятия «сложность» были предложены (см. параграф 1.6) различные математиче- ские подходы. Естественно, что сложность в задачах принятия решений
----— Принятие решений в системах управления. Часть IV является «внутренним» критерием по отношению к «внешнему» крите- рию, формирующему цель решения. Поэтому при постановке задач приня- тия решений на расширенных множествах говорилось о критериях типа (2.12), как о «внутренних» критериях или критериях сложности. Таким образом, задачи принятия допустимых решений с введением расширенных множеств можно преобразовать в задачи на условный экс- тремум, где в качестве критерия оптимизации используются показатели сложности типа (2.12), а в качестве ограничений выступает первичные по- казатели качества (2.5). 2.2. Общие процедуры принятия решений НА РАСШИРЕННЫХ МНОЖЕСТВАХ И ГРАФЫ СТРУКТУР РЕШЕНИЙ Сделав первый шаг, т.е. сформировав задачи принятия решений на расширенных множествах альтернатив, необходимо сделать и второй - определить процедуры принятия решений на расширенных множествах. В наиболее общем виде эти процедуры уже были рассмотрены в парагра- фе 2.1, где на рис. 2.1 представлен функциональный граф, иллюстрирую- щий содержание и последовательность операций при решении задачи идентификации типов внешних воздействие. Обратим внимание на то, что любая из задач принятия решений на расширенных множествах, состоит из четырех основных подзадач: 1) формирования расширенного множест- ва; 2) проверка существования допустимых решений для каждого из под- множеств, принадлежащих расширенному множеству; 3) оценки решений для всех допустимых подмножеств по критерию предпочтения (сложно- сти); 4) выбора наиболее предпочтительного (наименее сложного). Назо- вем только что рассмотренную процедуру стратегией 1. Стратегия 1. Является наиболее общей и, очевидно, единственно воз- можной в тех ситуациях, когда для решения подзадачи оценки предпочте- ний по правилу (2.2) необходимо предварительно решить вопрос о суще- ствовании допустимых решений. Число таких ситуаций довольно велико, особенно в экстремальных задачах комбинаторного типа и в задачах, ре- шаемых итерационными методами. В ходе решения задачи о существова- нии решений можно получить оценки необходимого числа итераций или среднего (предельного) времени решения, по которым затем сформировать условия (2.2). В то же время для целого ряда ситуаций получить оценки предпочте- ния или проще, чем решить задачу о существовании решений, или же эти оценки уже сформированы. Таким образом, проверка существования ре- шений для всех сформированных подмножеств становится явно персо- нальной процедурой, поскольку можно ограничиться проверкой только тех подмножеств, для которых оценки (2.2) наиболее предпочтительны. По- этому сформируем иную стратегию.
глава 2. Задачи принятия решения _________________________521 Стратегия 2. Включает в себя следующие процедуры: 1) формирование подмножеств расширенного множества; 2) оценка предпочтения выбора подмножеств; 3) исключение бесперспективных подмножеств (например, путем форми- рования и проверки условия Z(Y)RyZ^, где Z^ - допустимая оценка); 4) проверка существования допустимых решений для всех У, удовлетво- ряющих условиям п.З; 5) выбор наиболее предпочтительного варианта решения. Наконец, можно предложить стратегию, являющуюся по существу од- ним из вариантов общей стратегии поиска элемента минимальной сложно- сти, предложенной В.Ф. Бирюковым [59]. Стратегия 3. Содержит процедуры: 1) формирование подмножеств расширенного множества; 2) оценка предпочтения подмножеств; 3) упорядочивание подмножеств по предпочтению У'>- У', У'>- У*,. 4) проверка существования допустимых решении для наиболее предпоч- тительного подмножества У' и (если в У' допустимых решений не существует) подмножеств У',У* и т.д. Очевидно, что приведенными стратегиями не исчерпываются все вари- анты организации процедур решения задач на расширенных множествах альтернатив. Для формирования таких стратегий удобно использовать специальную конструкцию - граф структур решения (ГСР). Он является ориентированным мультиграфом, как правило, ярусно-параллельной фор- мы, в котором каждая вершина отражает факт решения какой-либо подза- дачи (или выполнение определенной операции), входящей составной ча- стью в задачу принятия решений на расширенных множествах. Дуги, «входящие» в каждую вершину, «нагружены» значениями компонентов оценочной функций, функций допустимости и сложности и характеризуют каждую подзадачу (операцию). Граф структур решений необходимо соста- вить так, чтобы любой маршрут, начинающийся в начальной вершине О и заканчивающийся в конечной вершине N, соответствовал бы только од- ному конкретному варианту решения, при этом все варианты решения должны быть отображены маршрутами из О в N. Таким образом, множе- ство всех маршрутов из О в N будет отражать множество всех вариантов решений задачи. Для задачи принятия решений, формализованной функциональным графом (см. рис. 2.1), ГСР представляет собой простую цепь из вершины О в вершину N, в которой каждый уровень (подзадача) изображен одной ду- гой. Рассмотрим в качестве примера ГСР граф, представленный на рис. 2.2, который отображает три описанные выше стратегии решения. Стратегия 1 соответствует маршруту, связывающему вершины 0,1,2,3, N ; стратегия 2-0, 1, 4, 5, 3, N; стратегия 3 - 0,1,4,6 и N. Как видно из этого 33 Зак. 108
Принятие решений в системах управления. Часть IV графа, стратегии решения задачи формируют задачу, аналогичную задаче принятия решений на расширенных множествах альтернатив. Достоинст- вом построения ГСР является уже то, что с их помощью удается в нагляд- ной и компактной форме отображать содержание и количественные харак- теристики задач принятия решений на расширенных множествах. Рис. 2.2. Граф структур решений В настоящем параграфе ие рассмотрен весьма важный вопрос о форми- ровании расширенных множеств (см. рис. 2.2, дуга 0, 1). Этот вопрос наи- более трудно формализуем. Ключевым моментом для его решения может послужить концепция доминантных условий.
Глава 2. Задачи принятия решения__________________ 523 2.3. Три уровня оценки действия-сложности ДЛЯ ЗАДАЧ ПРИНЯТИЯ РЕШЕНИЙ На основании введенного в параграфе 1.5 определения принципа слож- ности нетрудно установить, что задачи 2.1 - 2.8 принятия решений на расширенных множествах при соответствующей интерпретации отноше- ний порядка R являются задачами минимальной сложности. Действи- тельно, требование принадлежности тройки < у,и,х> системе S опреде- ляет множество G , на котором отыскивается решение; из подмножеств У С Y (см. задачу 2.1) может быть составлена шкала сложности: JVc={yacY: aeQ}, если отношения порядка Rv линейны н отображение Уа->2(Уа) есть отображение на подмножество на вещественной прямой (функционал). Аналогичную шкалу можно составить для задач 2.2 - 2.8, если под расши- ренным множеством понимать множества P,G и т.д. Однако обратим внимание на то, что принципу сложности удовлетворяют не только линей- ные, но и произвольные отношения порядка R . Это особенно важно для задач принятия решений, результаты которых оцениваются не только ко- личественными, но и качественными показателями (каждому отношению порядка R соответствует определенный показатель по шкале сложности). Введем обозначения: М - одно из расширенных множеств P,G,D, Y,U,H или их объединение, определяемое конкретной задачей принятия решений; х? - множество допустимых решений, определяемое первич- ными показателями качества или условиями (2.12); R - отношение поряд- ка типа (2.12) на оценках Z(Af). Шкалу сложности запишем в виде Nc={Ma.aeQ}, причем элемент та1еМ1 будем считать сложнее элемента та2 е М 2, ес- ли a\Ra2, т.е. al предпочтительнее а2 по отношению R. Теперь принцип минимальной сложности можно сформулировать в следующем виде: найти элемент ma,G r»Nc и минимальный по слож- ности относительно шкалы Nc. Вернемся к задаче 2.8. Пусть M = PxGxDxYxUxH. Построим шкалу сложности Nc ={Ма,ае С}, разбив множество М на подмножества М а так, чтобы в каждое Ма вошли соответствующие под- множества Pa,Ga,Da,Ya,Ua,H0 .составленныеиз P,G,D,Y,U и Н.Теперь с помощью шкалы сложности можно найти задачу принятия решений мини- мальной сложности. В данном случае можно говорить о верхнем (наиболее общем) уровне, когда сложность трактуется как принадлежность к классу. 33*
5*4 Принятие решений в системах управления. Часть IV Приведем простой пример. Пусть для некоторого объекта множество входных воздействий Y есть п -мерный вектор случайных параметров у, множество Zf । характеризуется п -мерным вектором средних значений у, а множество Н 2 есть расширение Н} и вместе с у содержит матрицу ко- эффициентов корреляции D. Тогда задача принятия решений, заданная шестеркой <P,G,D,ya,Uf,H2 >, сложнее задачи, заданной шестеркой <Р, G, D, у0, Ijf, Я] >, поскольку Мi с М2 Таким образом, используя оценки сложности верхнего уровня, можно получить ответ на вопрос, является ли конкретная задача принятия реше- ний частным случаем другой задачи, какие более узкие задачи могут быть получены из исходной задачи и т.п. При этом всякая более общая задача в соответствии с принципом сложности будет сложнее частной задачи. Средний (второй ) уровень оценки сложности является уровнем оценки по обобщенным показателям. К их числу в задачах принятия решений можно отнести оценки числа вариантов, которые необходимо исследовать для получения решения, информационные и некоторые другие оценки. Рассмотрим некоторые способы оценки числа вариантов решения, за- висящие от топологии множеств. Пусть расширенные множества Р, G, D, Y, U и Н есть конечные множества, для которых можно построить шкалу сложности второго типа, т.е. P^Pj =0 для любых i и j. Этим же свойством должны обладать множества G, D, Y.UhH. В этом случае число вариантов решения определяется кардинальными числами множеств или мощностью по Кантору. Для любого У,- будем иметь card У, , а для Y = |JK, card/ = ^cardP,. Для принятия решений на расширенных множествах необходимо выде- лить два типа задач. Задача первого типа дает ответ на вопрос о существова- нии решения. При этом необходимо для каждой выходной функции Ре Р просмотреть все исследуемое подмножество Ya и показать, что для любого уаеУа найдется такой элемент uaeUat что тройка <у0, иа, x>gS. Может возникнуть необходимость анализа всех элементов иа. Поскольку решение определяется на множестве Ма = GxDxYa xUa хНа , то сапШ0 = card G card D card Ya card cardJ70. С учетом того что cardG = £card Gf, card D = У card Dt,
Глав» 2» Задачи принятия решения 525 получаем сгайМд (2.13) V \ - XcardG( rScardD,. cardYecardU/cardff \ • Д i Если в М а некоторые из множеств не являются расширенными, то в выражения (2.13) их сумму заменяют кардинальным числом. Задача второго типа — собственно задача принятия решений - характе- ризуется числом вариантов, которое для заданного у0 определяют по формуле cardM' = card(C/^ W^cardH, (2.14) где - множество допустимых управлений, Uf*c.U{ - подмножество удовлетворительных вариантов, которое также можно характеризовать подмножеством X при однозначном отображении U -»X. При этом предполагают, что нужно найти решение, удовлетворяющее всем he Н, т.е. проанализировать все h. Если ставится задача поиска оптимального решения, то cardM' есть card U , поскольку Н = h. Чтобы убедиться, что найденное решение оп- тимально, необходимо просмотреть все варианты. Для расширенных множеств можно составить шкалу сложности из ва- риантов постановок задач принятия решений, число которых равно card(PxGxD)NyNt,NH, (2.15) где Wy, NUt NH -число подмножеств соответствующих множеств. Сложность задачи 2.8, в которой все множества расширенные, оцени- вается произведением кардинальных чисел всех расширенных множеств, или cardM = card(PxGxDxYxUxH). (2.16) Остановимся теперь на случае, когда множества У, V и Н бесконеч- номерные. Отметим, что если указанные множества не являются тополо- гическими пространствами, то справедлива только та формулировка прин- ципа сложности, в которой иод сложностью понимается принадлежность к классу. Для топологических и особенно метрических пространств слож- ность можно оценивать по обобщенным показателям. В п. 1.6.1, где анализировалась алгоритмическая теория сложности, приведены формулы дли вычисления е -энтропии различных метрических вполне ограниченных пространств. Вычисления по формулам (1.29) - (1.31) позволяют определить число функций (вариантов), которое можно сформировать в пространствах Со, С] и С2 соответственно. Вычисление Е -энтропии для тех же пространств по формулам (1.32) - (1.34) позволяет определить число двоичных знаков, необходимых для формирования Функции x(t).
------- ------Принятие решений в системах управления. Часть IV Отметим, что аналогом е-энтропии для конечных множеств является информационная оценка по Хартли. Действительно, если элемент хе X способен принимать W значений (card X = /V), то по Хартли энтропия Н(Х) = log2 2V, а фиксация конкретного хе X «сообщает» информации-, •/(X) = log2W. Как и оценки числа вариантов для конечных и бесконечных множеств, информационные оценки, если они использованы как показатели сложно- сти задачи принятия решений, следует отнести ко второму уровню. Это объясняется тем, что е -энтропия характеризует лишь минимальный теоре- тически допустимый объем памяти, поэтому при переходе к реализации алгоритмов на ЭВМ необходимо скорректировать информационные оцен- ки с учетом разрядности ЭВМ, структуры ее памяти, языка программиро- вания и ряда других факторов. Интересные результаты в этой области приведены в работе [29]. ; Напомним также о теории вычислительной сложности. Сигнализи- рующие функции и особенно сигнализирующая времени могут быть ши- роко использованы в качестве оценок сложности среднего уровня. Нижний (первый) уровень оценки сложности можно назвать уровнем оценки по физическим параметрам. На этом уровне вычисляют конкрет- ные числовые характеристики физических параметров процесса принятия решений (проектируемой системы), выбранные в качестве показателей сложности. Сложность рассматриваемых задач принятия решений на расширенных множествах удобно характеризовать временем решения или (реже) необ- ходимым объемом памяти ЭВМ, что достаточно просто сделать после вве- дения оценок типа (2.ГЗ) - (2.16), (1.29) - (1.31) или сигнализирующих времени типа (1.35). Обозначим через т отрезок времени, необходимый для анализа одного варианта решения на ЭВМ заданного типа по имею- щейся программе расчета. Поскольку все варианты по времени счета рав- ноценны, получим, например, для (2.13) W, =тсагсШа, для (1.20) = тЛ\(Х), для сигнализирующей времени о(п) оценку Wt=xO(n). Здесь W, - время, необходимое для принятия решений. Используя информационные оценки теории алгоритмической сложно- сти типа (1.32) - (1.34) и учитывая дополнительные условия, связанные с характеристиками конкретной ЭВМ, можно оценить необходимый объем памяти. Введение трех уровней оценки сложности вызвано следующими об- стоятельствами. 1. В задачах принятия оперативных решений и особенно проектных решений желательно иметь оценки сложности по физическим парамет- рам. Это связано прежде всего с тем, что именно физические показатели заданы в виде требований к проектируемой системе, а также с тем, что
Глава 2. Задачи принятия решения 527 оценки такого типа дают окончательный ответ об итогах принятия реше- ний. Однако получение оценок сложности подобного типа требует стро- гой формализации всех элементов задачи, которая на ранних этапах про- ектирования далеко не всегда возможна. Вместе с тем некоторые резуль- таты можно получить, если применить к достаточно общим математиче- ским описаниям принцип сложности с оценками верхнего уровня. При этом удается получить ответы на такие вопросы, как вопрос о соотноше- нии различных задач. Зная, что одна задача является частным случаем другой и что она в силу этого менее сложна, удается уже на ранних эта- пах принятия проектных решений получить полезные для дальнейшего проектирования сведения. Кроме того, оценка сложности на верхнем уровне является единствен- ным средством, позволяющим принимать решения относительно тех объ- ектов, которые ранее совершенно не поддавались сравнению. К этим объ- ектам в первую очередь следует отнести оценки математический, физиче- ских и других научных теорий, оценки различных методов и т.д. При этом сложность можно трактовать как «критерий внутреннего совершенства теории» (терминология А. Пуанкаре и А. Эйнштейна [74]), а использова- ние принципа сложности - как процесс выбора из нескольких теорий той, которая при меньшем числе постулатов дает больше результатов. 2. По мере увеличения степени формализма задачи появляется возмож- ность дать первые количественные оценки сложности по укрупненным по- казателям. В ряде случаев этих оценок может быть достаточно для приня- тия окончательного решения. Например, при сравнении двух методов при- нятия решений, требующих анализа Nt и N2 вариантов соответственно, каждый из которых характеризуется использованием типового трудоемко- го алгоритма (например, алгоритма вычисления вероятности события по методу Монте-Карло) такого, что его реализация более продолжительна, чем все другие машинные операции в данных методах, при <N2 вы- бор первого метода однозначен. Это следует из того, что при любых ко- нечных N2 Wf, =(T+tI^I<IVfi=(T+T2)N2, (2.17) где т - время реализации типового алгоритма, т, и т2 - аремя, затрачи- ваемое на вспомогательные операции при анализе одного варианта первым и вторым методом соответственно. 3 Оценка сложности по обобщенным показателям может оказаться не инвариантной относительно оценки по физическим параметрам. Эго легко показать на рассмотренном примере. Пусть величинысоизмери- мы Тогда неравенство (2.17) справедливо не для всех конечных Nt<N2 и имеют место случаи, когда второй метод предпочтительнее первого. Назо- ^вариантными относительно урови оценок сложно™ „ ,от,„ ™ решений, лил которых (,««, 2
528 Принятие решений в системах управления. Част.... - " 1 " ——----——4— ---------——— дму дачи 1), следует card М j < card М2 или N\<N2, а также Wt < w, этих задач оценки сложности на любом уровне эквивалентны, что пчет дополнительные преимущества. Им Среди задач принятия решений на расширенных множествах далеко все являются инвариантными в указанном смысле. Не Утверждение 2.2. Оценки сложности верхнего уровня по Дискретной (дискретизированной) шкале сложности первого типа N = {Xo:XocX,Xo#0, aSQ) или шкале второго типа $ = {Xfl :Ха сХ,Ха *0,cardXai <cardXai,al <a2,aeQ] инвариантны оценкам сложности среднего и нижнего уровня, если эле- менты множеств Ха с Х,Ха с X обладают одним и тем же характери- стическим свойством (однородные). Доказательство. Рассмотрим произвольные Х(, Xj из шкалы N или N. Пусть Xiг 6 Xj и Xj eXj неоднородны и различаются между собой по крайней мере одним характеристическим свойством. Это означает, что для формирования оценок сложности среднего и нижнего уровня необходимо задать минимум две функции: 1) функцию от мощности множеств /j(cardX,); 2) функцию, учитывающую различия между х( и ху из-за их неоднородности f2(XitX j). При этом оценка сложности может быть про- извольной композицией функций /] и f2,r.e. Wj(fj,f2), и инвариантность оценок даже на среднем уровне не гарантируется. Пусть теперь х, и ху однородны. Отсюда следует, что оценка сложно- сти среднего уровня есть функция только одной переменной (мощности множеств) и при любом ее выборе из условия cardX, < card Ху следует инвариантная оценка /i(card X,)< У](card Х;) или < Wj. Оценка сложности нижнего уровня в данном случае есть функция мощности множеств и констант , т.е. Wti = T,/](cardXf), = ty/j(cardX}). Из условия однородности Xj v. х} следует равенство t] =т и условие инвари- антности оценок Wti < Wt.. Итак, утверждение 2.2 доказано. Смысл утверждения 2.2 аналогичен условиям М. Планка (1.26) и (1.27) в принципе наименьшего действия. Таким образом, введение задач принятия решений на расширенных множествах позволяет: 1) свести к единой математической форме разнообразные задачи, возни- кающие при проектировании и эксплуатации многообъектных систем управления (становится возможным сопоставление этих задач);
Глава 2. Задачи принятия решения______________________529 2) использовать дополнительные оценки, имеющие смысл принятия ре- шений; 3) установить возможность различной конкретизации отношений порядка и, следовательно, возможность оценок сложности на различных иерар- хических уровнях. 2.4. Математическая постановка задач ПРИНЯТИЯ ОПЕРАТИВНЫХ РЕШЕНИЙ Ранее в параграфе 1.4 была рассмотрена качественная постановка зада- чи принятия оперативных решений. Формирование задач принятия реше- ний на расширенных множествах и использование в них оценок сложности нижнего уровня позволяет сделать математическую постановку задачи принятия оперативных решений. Подчеркнем, что основной особенностью задачи принятия оператив- ных решений является ограниченность времени, отводимого на выработку решения, причем это время может существенно меняться в каждой теку- щей ситуации. В современных иерархических многообъектных системах управления главным средством повышения оперативности решений явля- ется их заведомое огрубление вследствие использования быстрых, но при- ближенных алгоритмов решения. При этом в большинстве случаев выби- рают наиболее «быстрый» и наименее точный алгоритм, обеспечивающий получение решения в установленный срок, но не приспособленный к тому, чтобы повышать точность решения, если этот установленный срок в неко- торой текущей ситуации окажется больше расчетного минимального. Для формализации в самом общем виде задачи принятия оперативных решений воспользуемся результатами принятия решений на расширен- ных множествах. Поскольку в качестве оценок сложности выбора опера- тивных решений могут быть использованы только оценки времени полу- чения решений, отношение порядка (2.12) для данного случая конкрети- зируют так: Wt (Р', G', D', Wt(P, G,D,Y,Uf,H). (2.18) В тех случаях, когда время, отводимое на принятие решений в системе управления, является функцией текущего состояния управляемого процес- са, задача принятия решений формулируется как сопряженная (двойствен- ная) к рассмотренной. При этом необходимо минимизировать скалярный критерий (оценочную функцию) вида G:YxHxUf хХ-*Е. (2.19) Рассмотрим следующие две задачи принятия оперативных решений. Задача 2.9. Выбор алгоритма принятия оперативных решений. За- дача характеризуется пятеркой <P,G,Y,U>H>, (2.20)
530 Принятие решений в системах управления. Часть IV в которой фиксированы множество К, определяющее возможный набор исходных данных, элемент у*еУ, который характеризует некоторый «типовой» элемент исходных данных, и оценочная функция G. Множест- ва Р, U и Н - расширенные. Необходимо определить такие элемент Р*е Р, подмножества Uf* с U и Н*С.Н, в которых существует элемент и преобразование /’♦:у*х и*х такое, что для всех h^H* выполняется условие Wt(P*, у* Uf*, (2.21) и обращается в минимум критерий (2.19). В приведенной формулировке задача имеет подклассы задач выбора алгоритма принятия оперативных решений, определяемые компонентами расширенных множеств, в том числе: 1) задачи, основанные на вариациях выходных функций Р на множестве Р путем выбора их рациональных форм, приводящих к экономному расходованию ресурсов времени в процессе генерации альтернативных вариантов; 2) задачи, основанные на вариациях множества допустимых управлений Uf ctf; 3) задачи, основанные на разных способах учета неопределенности. При использовании алгоритмов последней группы в ряде случаев мож- но получить наибольший эффект, например, при переходе от теории веро- ятностей к нечетким множествам. Следует обратить внимание на то, что при такой постановке задачи любое из средств построения эффективного алгоритма принятия опера- тивных решений охватывает весь процесс: и генерацию вариантов, и их оценку, и выбор наилучших из них. Однако ясно, что реализация задачи 2.9 непосредственно в системе управления приведет к большим потерям времени на поиск алгоритма. По- этому решать эту задачу необходимо на этапе проектирования системы, а в самой системе реализовать один «гибкий» алгоритм или набор алгоритмов с заранее сформированными функциями оценки сложности. В связи с этим сформулируем еще одну задачу. Задача 2.10. Принятие оперативных решений в системе управления. Имеется пятерка (2.20), в которой задан элемент у 'е Y, оценочная функция G, подмножество элементов Pt е Р, подмножества U[ C.U и HjCH , а также преобразования Pt у*х и,х Л,—эх,- и оценки W, i(P,y* Uf Мд- Требуется выбрать такие Pt с. Р, и/ сЦН^Ни элемент и,- е и[, Д™ которых выполняется ограничение W^P^U^H^W^y*) <2’22)
ртЛЭцачи принятия решения 531 й обращается в минимум критерий (2 193 Таким образом, в ппонрггр „ управления необходимо ста^аТ™’”0™ ПрИНЯТИЯ Р" ’ rmm сначала ПО подготовленным исходным данным °НР m йпгг, Р ограниченной сложности, а затем с помощью вы- бранного алгоритма принять оптимальное решение. 2.5. Концепция доминантных условий в ПРОБЛЕМЕ ПРИНЯТИЯ РЕШЕНИЙ Одной из важнейших проблем принятия решений является проблема размерности задачи, порожденная необходимостью анализа огромного числа альтернативных вариантов решения. Каковы же средства ее преодо- ления? Аристотелю принадлежит утверждение: «Ум, направленный на суще- ство предмета, как суть его бытия, истинен всегда; ум же, касающийся че- го-то другого - не всегда» [3]. Каким же образом в процессах принятия решений определять «существо предмета» и как строить процесс решения? Советский психолог Я.А. Пономарев исследовал процессы творчества и на основе экспериментальных фактов установил следующие уровни в разви- тии и существовании мышления [51]: 1. На первом (начальном) уровне развития мышления человек опирается при решении простейших задач на метод проб и ошибок или интуицию. Элементы формального мышления на этом этапе отсутствуют полно- стью. Простейшее решение может быть получено в предметной облас- ти, но его пересказ после того, как предметы убраны, невозможен. 2. На втором уровне, как и первом, решение также можно получить толь- ко в предметной области, но уже возможен пересказ использованного хода решения. 3. Третий уровень характеризуется возможностью получения решения простейших задач в отрыве от предметной области путем построения словесных рассуждений и использовании представлений, вытекающих из анализа предметной области. 4. Получение решения на четвертом уровне в значительной степени осно- вано на использовании метода проб и ошибок, однако процедуры поис- ка могут производиться в уме. Полученные таким образом формальные решения затем конкретизируются в предметной области. Задачи, ре- шаемые на этом этапе, отличаются существенно большей сложностью, чем на трех предыдущих этапах. 5. Наконец, на пятом (наивысшем) уровне развития мышления возможны сознательный анализ структуры задачи, построение плана решения и, что особенно важно, формулирование основного принципа, которому необходимо следовать для получения решения. По словам Аристотеля, именно выявление этого основного принципа и есть проявление ума, направленного на существо предмета. Целенаправ-
532 ___________Принятие решений в системах управления. Часть ту ленную детерминированную составляющую творческих поисков человек А.А. Ухтомский назвал доминантой, понимая под ней длительную уст & новку научного поиска, т.е. основной принцип, которому необходимо еле довать в процессе научного познания [79]. В задачах принятия решений' более простых, чем процессы научных исследований, доминанту, или ос' новноЙ принцип решения, можно, очевидно, трактовать как некоторые не обходимые, или доминантные условия, которым должно удовлетворять решение. Если такие условия найдены (а для их поиска необходимо ис- пользование структур мышления пятого уровня), то получение решения конкретной задачи не представляет затруднений. Перечисленные уровни развития мышления в процессе творческой дея- тельности человека могут быть использованы различно в зависимости от сложности решаемой задачи. По Я.А. Пономареву, процесс творческой ра- боты протекает примерно по следующей схеме [51]. Пусть возникшая пе- ред человеком задача нетривиальна, и он, работая на уровне формального мышления (пятый уровень), пытается найти ее решение. Однако это еще нельзя назвать проявлением творческого мышления. Если решение на пя- том уровне не получено, то вовлекаются в сферу действия более низкие уровни иерархии, на которых поиск решений ведется методами проб и ошибок, случайного поиска, интуиции и т.п. Передача результатов поиска от верхнего уровня иерархии к нижним и наоборот происходит неодно- кратно, пока, наконец, на одном из нижних уровней решение не будет найдено. Затем на верхнем уровне оно логически осмысливается и форму- лируется в необходимых человеку атрибутах формального мышления. Весьма существенно подчеркнуть, что переход от уровня к уровню в мышлении человека происходит не только по мере его творческого разви- тия, но постоянно при возникновении соответствующих обстоятельств, например, при появлении новой трудной задачи. Доказательством тому может служить известный закон Хика (см., например, [22]), согласно кото- рому с увеличением одной лишь размерности решаемой задачи у человека меняется структура и способ ее решения. Для построения алгоритмов принятия решений, соответствующих пя- тому уровню процессов мышления, необходимо введение и активное ис- пользование концепции доминантных условий. Формирование доминант- ных условий немыслимо без постановок задач принятия решений на рас- ширенных множествах. Классифицируем доминантные условия по четырем типам в порядке, пропорциональном эффективности их применения и обратно пропорцио- нальном сложности их получения. Доминантные условия первого типа. Их определяют в форме функ- циональных соотношений между параметрами задачи. С позиций задач принятия решений на расширенных множествах это означает, что исполь- зуется шестерка < P,G,D, у°,и?,Н >, в которой среди множества выход-
глава 2. Задачи принятия решения_______________________533 функций Р обязательно должна существовать такая функция Рл , ко- торая просто приводит к минимальной оценке сложности, но эта оценка существенно (по крайней мере на порядок) ниже оценок для всех осталь- ных выходных функций. Аналогом доминантных условий в вариационном исчислении являются необходимые условия оптимальности, использова- ние которых, как известно, существенно качественно и количественно ме- няет процедуры проведения оптимизационных расчетов. Примером доми- нантных условий первого типа могут служить также правила, требующие использования только максимальных и минимальных управляющих воз- действий. Доминантные условия второго типа. На их основе решение исходной задачи сводят к решению аналогичной, но более простой с последующей корректировкой результатов решения для удовлетворения всех ограниче- ний исходной задачи. В практике управления интуитивно широко пользу- ются условиями данного типа, заменяя нелинейные уравнения объекта управления линеаризованными, применяя линейный или квадратичный критерий, преобразуя форму фазовых ограничений. С точки зрения формализма задач принятия решений на расширенных множествах применение доминантных условий второго типа означает, что если исходная задача характеризуется шестеркой <P,G,D,y°,Uf ,Н>,то решаемая вместо нее задача определяется шестеркой <P',G',D',у0', для которой выполняется хотя бы одно из соотношений Р'б Р, G'e G, D'e D, Uf> cUf, H'cH. При этом должно выполняться условие Z(P',G',D', у0,i//',H,)/?2(P,G,D,у0, Доминантные условия третьего типа. Применяют для разделения ис- ходной общей задачи на локальные подзадачи. При этом возможны два ва- рианта: 1) последовательная декомпозиция и преобразование исходной за- дачи в цепочку подзадач; 2) параллельная декомпозиция. В первом случае выходная функция исходной задачи P;YxUxH—*X разделяется по крайней мере на две функции: Pt:YxUxH -> Х}, Р2: X{xUxH-t X . При этом может быть достигнуто и разделение допустимых областей управления на (У/ и (У/ . Во втором случае при параллельной декомпозиции производится разде- ление общей задачи на L независимых, как правило, однотипных задач, что требует в общем случае разделения исходных данных у0 на у{*,...у®,...у?, разделение области (ресурсов) управления на 1У1,...,(У1,...,1У/> и формиро-
534________________Принятие решений в системах управления. Часть ту вания выходных функций вида Р, :YlxUixHi->Xt. Решение исходной задачи формируется как объединение X,. Доминантные условия четвертого типа. С их помощью ограничивают множество допустимых управлений более узкой областью Uf‘ Трудности получения доминантных условий этого типа, а также эффектив- ность их использования в большинстве случаев минимальны. В работах [47, 49] содержатся примеры доминантных условий всех че- тырех типов для областей анализа интеллектуальных способностей чело- века, математического программирования и экстремальных задач комби- наторного типа. Концепции принятия решений на расширенных множествах и доми- нантных условий могут быть эффективно использованы для построения систем искусственного интеллекта. Для этого необходимо реализовать ми- нимум двухуровневую систему принятая решений на расширенных мно- жествах, содержащую: 1) программы получения оптимальных решений для задач невысокой размерности (например, программы, использующие метод перебора); 2) программы расширения элементов, входящих в шестерку классической задачи принятия решений, и генерации доминантных условий (в про- стейшем случае методом случайных комбинаций из элементов расши- ренных множеств); 3) программы проведения многократных решений для проверки доми- нантных условий на задачах малой размерности с оценкой эффективно- сти получаемых решений и сложности процедур решения. Реализованная в таком виде система программных средств принятия решений будет обладать многими свойствами системы искусственного ин- теллекта, в том числе главным из них: способностью без участия человека находить не только решение поставленной задачи, но и минимально слож- ный метод ее решения. Данное свойство может быть положено в основу формирования понятий «интеллект» и «искусственный интеллект».
Глава 3. Методы и алгоритмы решения задачи выбора 535 ГЛАВА 3 МЕТОДЫ И АЛГОРИТМЫ РЕШЕНИЯ ЗАДАЧИ ВЫБОРА (НАЗНАЧЕНИЯ) В КЛАССИЧЕСКОЙ ПОСТАНОВКЕ И НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ 3.1. Постановка задачи и сфера ее использования Широкое практическое применение во многих сферах управления тех- ническими и экономическими объектами имеет следующая детерминиро- ванная задача принятия решений. Имеются два равномощных множества элементов Q, и Qj, элементы которых нумеруются числами натурального ряда от 1 до п. Множество управляющих воздействий [/={и,; ={0Д}} характеризует наличие связи между элементами </, е С/ и i6 Qj< если uij = 1, и от- сутствие связи, если иу - 0. Каждой паре <qt, qj> поставлено в соответствие неотрицательное число ajj, характеризующее стоимость установления связи между q, и у°еУ определяется л числами йу. Требуется для каждого элемента найти единственный, связанный только с qt, элемент qj, такой, при котором достигается минимум общей стоимости всех п связей, т.е. оценочная функция Е имеет вид: Л я Е = ХХаЛ->пйп- . i=l 7=1 Множество допустимых управлений Uf ограничено условиями непо- вторяемости элементов q. и qt во всех связях:
jjH________________Принятие решений в системах управления. Часть ГУ . | п п -- £//=]иМ:Хми=1’Ём<./=1’ '•> = 1’л • ( **1 7 я 1 Данную задачу называют задачей выбора, или назначения [18, 32]. Эту задачу можно трактовать как частый случай широко известных нелиней- ных распределительных задач [6, 47]. Пусть имеется п складов, в каждом из которых хранится одна единица ресурса, и п пунктов потребления, за- прашивающих одну единицу ресурса, а также известны неотрицательные числа as j, определяющие стоимость доставки единицы ресурса из склада i в пункт потребления j. Требуется распределить ресурсы между складами так, чтобы = 1™п’ (ЗЛ) 1=1 ;=1 и выполнялись ограничения: Ехм=1’ (3.2) 1=1 (3.3) J=1 Переменная xtj может принимать лишь два значения: 1 или 0. В пер- вом случае ресурс со склада i поступает в пункт j, во втором этого не про- исходит. Ограничения (3.2) введены для того, чтобы каждый пункт по- требления мог получить только одну единицу ресурса, ограничения (3.3) показывают, что на каждом складе хранится всего одна единица ресурса. Иногда, в более широкой постановке, под задачей выбора понимают целый класс задач принятия решений комбинаторного типа (см. [18]), учи- тывая, очевидно, необходимость организации специальных процедур ана- лиза множества вариантов решения. В данной главе под задачей выбора будем понимать только задачу (3.1) - (3.3), хотя большинство из рассмат- риваемых далее алгоритмов решения будут эффективны и для других за- дач принятия решений. Если из чисел Яц критерия (3.1) сформировать квадратную матрицу A =£a( ;J порядка п (i,j - номера строки и столбца соответственно), то решение задачи (3.1) - (3.3) можно интерпретировать как выбор в каждой строке и в каждом столбце матрицы А по одному элементу а, у, причем их сумма должна быть минимальной. На практике задача назначения определяется теми сферами, где необ- ходимо распределять некоторые ресурсы между пунктами потребления [47]. Далее будем использовать термины, «источники ресурсов (ресурсы) - потребители» и «исполнители - рабочие места (работы)».
Глав2-3, МеТ—-ы ? алгоР1™ы решения задачи выбора___________________537 0 задачах принятия оперативных решений задача назначения занимает • особое место, поскольку ее широко применяют в многообъектных систе- мах управления и решают в реальных условиях, как правило, в крайне ог- раниченные сроки. Условимся называть задачу (3.1) - (3.3) классической задачей выбора (назначения), а те задачи, где ограничения (3.2) и (3.3) имеют иной вид или отсутствуют, - неклассическимн. 3.2. Точные методы решения классической задачи выбора Назовем точными те методы, которые позволяют получить оптималь- ное решение задачи. Альтернативными являются приближенные методы, не обеспечивающие во всех без исключения случаях минимум критерия (3.1), но позволяющие найти решение, близкое в заданном смысле к опти- мальному, и за существенно короткое время. 3.2.1. Методы линейного программирования Задачу выбора можно решать методами линейного программирования после преобразования задачи (3.1) - (3.3) к стандартной форме задач ли- нейного программирования. Такое преобразование модно осуществить по следующей схеме: 1. Матрицу исходных данных задачи выбора А порядка п трансформиро- вать в матрицу С размером 1хл2: C = [A1|A2...|Ai|...|A„|], (3.4) где А,- - i-я строка матрицы А. 2. Аналогично переменные xtj сгруппировать в матрицу-строку х= [х1|х2...|х,|...|хв|], где х( - матрица-строка, составленная из следующих компонентов: Xj — [Xj] Х|-2 ... Хц]— Х;в]. 3. Ограничения (3.2) и (3.3) преобразовать к виду Ахт =В, (3.5) где Е] Е2 ... Ев A"[l 11...| 1]; В = [1 1 1 ... 1]Т. Матрица Е,- содержит во всех строках, кроме i-й, нулевые элементы, а в строке/ все элементы равны 1.1- единичная матрица порядка п. Матрица В имеет размер n2xl.
538 Принятие решений в системах управления. Часть IV Получив выражения (3.4) и (3.5), можно сформировать задачу выбора как стандартную задачу линейного программирования: Схт—>min, Ахт=В. (3.6) Однако задачу выбора в форма (3.6) решают крайне редко, так как ис- пользование стандартных программ линейного программирования из фон- дов прикладного математического обеспечения универсальных ЭВМ не является эффективным. По нашим прошлым исследованиям время счета задачи выбора на ЭВМ ЕС 1033 с программой MERCI более чем на поря- док превышало время счета специализированным венгерским методом. Разрабатывать же специализированные программы линейного программи- рования для задачи назначения не имело смысла, поскольку в том же фон- де прикладного математического обеспечения имелись эффективные про- граммы венгерского метода. 3.2.2. Метод динамического программирования Для реализации метода динамического программирования введем функ- цию Веллмана в следующем виде wk(iiti2...ik) - оптимальное значение критерия (3.1) при распределении к типов ресурсов с номерами ilti2.ik между первыми к пунктами потребления. На первом шаге необходимо вы- числить пзначений и>1(1)=я1>1, n'1(2) = a21,n'I(t) = afcl,...,W|(n) = aI11. На втором шаге последовательно определить значения w2 (i‘i, i2) = min {[a,- ,2 + Wj (ii)], [a,2 2 (i2 )]}• Число таких и»2 равно С2 - числу сочетаний из л элементов по 2. На третьем шаге следует использовать соотношения n'3(i1,i2,i3) = min а.1.3 + и'2('2>'з) ^.з + и'гОк'з) а.з.з + м'гОь'г) которые соответствуют С2 вариантам решения на третьем шаге. Для произвольного fc-ro шага (1 < к < л ) можно записать функциональ- ные уравнения динамического программирования wt(i1,i2,..„it) = min e<1.*+w*-i(‘2’’3...'*) + .............'*) (3.7) aikJt + W*-1(G>’3’— >Ц-1) Число вариантов решения на к-м шаге будет равно Ск . Оно увеличи вается с ростом к (при к = 1 равно л), достигает максимума при к = п/2
—~ва ^Методы и алгоритмы решения задачи выбора___________ 539 или к - (и +1) / j и к = (п -1) /2 (для нечетных п) и снова убывает до п иа последнем n-м шаге. Общее число вариантов решения, которые необходимо проанализиро- все п шаг°в динамического программирования, определим по фор- w=£с; +1=§—5L-+1, (3.8) Й Й^Кп-к)! а с учетом всех локальных вариантов, из которых на каждом шаге выбира- ется только С[' локально-оптимальных, + л. (3.9) £[(k-l)!(n-k)l Приведем оценки числа вариантов при п = 10. Методом полного пере- бора в этом случае необходимо проанализировать около 4-Ю6 вариантов решения. При использовании же динамического программирования 1V' = 7-1O3 и W = 1,3-103. Тем не менее метод динамического программирования не является са- мым эффективным среди известных методов решения задачи выбора. В работе [47] подробно изложен оригинальный метод динамического про- граммирования, основанный на использовании конфликтных ситуаций. Однако и он не является для рассматриваемой задачи наилучшим. 3.23. Венгерский метод В нгерский метод для решения задачи назначения и различные его мо- ж капии представлены в работах [32, 33, 47], поэтому в данной работе дификацп ^ледует отметить, что основу метода, сформированного аме- не изложе ‘ ематиком г. Куном [33], составляют теоремы Д. Кеиига и риканским чеСТЬ которых метод и получил название венгерского. Teo- Il. Эгервари, для решения задачи так называемого простого ка- рему Кенига пр ида д содержит только 0 или 1. Теорема Эгервари значения, ког^_и задачу назначения (3.1) - (3.3) с помощью эквивалентных позволяет све а атрицы А к задаче простого назначения, преобразовании модификации венгерского метода и способы их Существуют Р опирающиеся на теоремы Кенига и Эгервари, теоретического ооо тдКОТОрые можно найти в приведённой выше теорию ДвОЙС'ГВе22дМ тот факт, что различные модификации венгерского ме- литературе- Отмети в среднем различаются между собой незначительно, тела по времени счет оценок от задачи к задаче. Так, в результате Хотря на большой Р ренш, поставленного на ЭВМ IBM/360-75, срав- “мчиТлительного - Фулкерсона, Белинского - Гомори и Куна для «Х моДиФИКаЦ Х выбора с матрицами порядка 50 показало, что среднее Сборок ИЗ 10 заЯ ОМОШЯО названных модификаций соотносится как 16:4:1. время реШсНИЯСП°М°
540_______________Принятие решений в системах управления. Часть ту При этом для модификации Куна иаихудший по времени счета результат отличался от среднего на 37% [47]. В последние годы широко распространена одна из модификаций венге- рского метода, так называемый метод Мака. Метод Мака отличается более простой для программирования логикой выбора поэтапных решений, чем метод Куна [4]. Среднее время счета задачи выбора методом Куна или Мака с матри- цами п-го порядка может быть оценено по формуле W,B=aBn3, (З.Ю) где ав - коэффициент пропорциональности, зависящий от квалификации программиста, алгоритмического языка и типа ЭВМ. Для анализа эффективности венгерского метода статистически проана- лизировали алгоритм Мака на выборках из 100 задач назначения различных размерностей. Элементы матрицы А заполнялись генератором равномерно распределенных чисел в интервале [1, 10]. В табл. 3.1 для анализируемых выборок приведено среднее, минимальное и максимальное время счета. 32.4. Методы кратчайшего увеличивающего пути В последние годы, в основном благодаря работам К. Томизавы и дру- гих японских ученых, получили распространение методы кратчайшего увеличивающего пути (КУП). Пусть в матрице исходных данных задачи выбора порядка п (обозна- чим ее А(я)) выделена квадратная подматрица порядка (и -1), т.е. А и пусть для этой подматрицы каким-либо образом найдено оптимальное решение. Для простоты предположим, что это оптимальное решение сформировано из элементов главной диагонали А^.ц. Как же найти оптимальное решение для полной задачи? Таблица 3.1 Порядок матрицы Время счета, с Минимальное Среднее Максимальное л =20 0,786 1,202 2,048 л = 40 4,952 7,056 8,523 л =60 13,930 22,616 32.832 л =80 42,884 61.828 84,202 __ л = 100 81,264 123,088 155,385 Поскольку для А(яЧ) известно оптимальное решение, то возможны две альтернативы: 1) добавить к известному решению «свободный» элемент апЛ: 2) заменить в оптимальном для матрицы А(я_п решении элемент aiti парой элементов Л|Л н ая(. Сформируем п разностей (ajn+anf)-(afi(+аил)-
Глава 3. Методы и алгоритмы решения задачи выбора 541 Последняя из них для i = п есть нуль. Все остальные могут быть как положи- тельными, так и отрицательными. Выберем из этих п разностей наименьшую. Если она будет равна нулю, то к решению для необходимо добавить элемент апп, если это отрицательное число, то из А(пЧ) нужно исключил, соответствующий минимуму разности элемент ац и ввести в решение эле- менты и anJ. Очевидно, что для А(в) при этом будет получено опти- мальное решение. В методах кратчайшего увеличивающего пути для получения А(вЧ) ис- пользуют матрицу А(п_2). Для получения А(в_2) -матрицу А(в_3) нтд. Первоначальную матрицу определяют в результате проведения подготови- тельного этапа, аналогичного одноименному этапу в венгерском методе. Поскольку процедуры перехода к матрице А()+1) от матрицы A(j) для i < (n-1) много сложнее процедур перехода от А(вЧ) к А(в), методы КУП часто проектируют как методы приближённого решения. Один из та- ких методов будет приведён далее в параграфе 3.4. Оценки сложности, полученные для точных методов КУП, аналогичны оценкам для венгерского метода: W,1"11 = акупл3, (3.11) но при эффективном программировании <ав. 3.3. Метод решения задачи назначения С МАТРИЦАМИ ОСОБОГО ВИДА Рассмотрим следующую задачу назначения: Е = X min- (312) i=l 7=1 имеющую ограничения (3.2), (3.3). Отличие данной задачи от задачи назначения (3.1) - (3.3) заключается в том, что элементы bt j, составляющие матрицу В удовлетворяют условиям С, = Ь,;>у+1 - bi j = const, j = l,n-1, (3.13) C, SC,+1, j = l,n-l, (3.14) т.е. приращения от элемента к элементу в каждой строке матрицы В по- стоянны и строки расположены по возрастанию приращений. Для задачи назначения (3.12) с матрицей В, удовлетворяющей услови- ям (3.13), (3.14), справедлива следующая теорема. Теорема 3.1. Вели в каждой i -й строке матрицы В размером пхп приращения С, = const для всех j от 1 до п -1 и строки матрицы располо-
542 Принятие решений в системах управления- Часть IV жены так, что Ct >С2 Й...>С, >С„, то оптимальное в смысле (3.12) ре- шение будет составлено из элементов главой диагонали матрицы В : £’=SpB. Доказательство теоремы приведено в работах [46,47]. Дли решения задачи (3.13), (3.2), (3.3) необходимо лишь расположить строки в порядке возрастания приращений и найти элементы главной диа- гонали матрицы В . В системах оперативного управления и принятия ре- шений укачанная задача встречается не так уж и редко. К ней сводятся за- дачи распределения алгоритмов в вычислительных системах, когда произ- водительности составляющих ее ЭВМ (или процессоров) удовлетворяют соотношению (3.13), а также задачи загрузки станков, производительности которых связаны тем же соотношением, и т.п. Кроме того, теорему 3.1 можно легко обобщить на тот случай, тогда вместо условий (3.13) и (3.14) имеют место соотношения _____ с^+1>с‘<р с^с%+1, i=uzi;j = i,n-i, где В работах [46,47] приведен метод решения задачи выбора с матрицами особого вида для неклассических задач, отличающихся различными соот- ношениями между числом складов и пунктов потребления. 3.4. Приближённые методы решения классической задачи выбора В задачах принятия оперативных решений, реализуемых' в многообъ- ектных системах управления, использование венгерского метода решения, метода Мака или КУП, отличающихся наименьшими затратами вычисли- тельных ресурсов, допустимо далеко не всегда. Нередко требуется полу- чить решение задачи в столь короткое сроки, что применить любой из точ- ных методов решения невозможно. В этих условиях обычно можно удов- летвориться любым «не худшим» решением. Такое положение обусловило появление многочисленных методов приближенного решения. 34.1. Методы локальных вариаций, «бегущей волны» и их модификации Рассмотрим в качестве первого из приближённых методов решения за- дачи назначения метод локальных вариаций. В основе метода для задачи назначения лежит общая идея метода локальных вариаций Ф.Л. Черноусь- ко [69]. Предположим, что для задачи (3.1) - (3.3) известно опорное реше- ние, элементы которого удобно расположит на главной диагонали матри- цы А.
f^gggjj^70^1 и алгоРитмы решения задачи выбу -^^локальных вариаций ~ ^ой пары элементов, принадлежащих опорному решению? ”Г“ парой элементов а<+м + ац+1 для всех /от1 до «Ч.Еежда^^ i получено й|+1,<+ам+1 <al,i +ol+ij+1, то строки i и i+1 меняют местами значение i увеличивают на 1 и процесс сравнения продолжает до i -п данное решение - первое приближение - подвергает той же noon^t проверки, и так до тех пор, пока для некоторого приближения? теч2Ге всего цикла вариации от «= 1 до , = п -1 лучших решений не обнарХя Метод локальных вариаций весьма чувствителен к локальным экс™ Мумам и не гарантирует достижения абсолютного минимума. Для пХ шения точности решения можно использовать метод «бегущей волны»' который для задачи назначения отличается от метода локальных вариаций следующим: I) сравниваются локальные стратегии, составленные не из двух, а из п'<п элементов; 2) при сравнении стратегий (особенно, если п' велико) используется не прямой перебор, а один из точных методоа решения задачи выбора с матрицами размером и'Хи'. Очевидно, что точность решения должна возрастал, с увеличением и', однако при этом возрастают и вычислительные трудности. Для метода ло- кальных вариаций справедлива оценка числа вычислительных операций ^Л = «даЬлв(п-1)К, (3.15) где ала - коэффициент пропорциональности, зависящий от типа ЭВМ и языка программирования; Ь№ - среднее число вычислительных операций, необходимое для сравнения двух локальных решений, перестановки строк матрицы А и перехода к следующему сравнению; К -число итераций. Для метода «бегущей волны» Я?в=а6я(п)\п-п+1}К. (3.16) Здесь третья степень сомножителя п' свидетельстве! о том, что для решения локальных задач был использован метод Куна или метод Мака. Можно предложить различные модификации методов локальных ва- риаций и «бегущей волны», отличающиеся способами организации вычис- лительных процедур. Весьма эффективным является метод приближённого Решения задачи, предложенный В.И. Чернецким и др. [38], где использу- ется следующий порядок вычислений: О сравнивают а1д +О(7 (как и ранее, предполагается, что искомое решение Е = Sp А ) с суммой ati + аи последовательно для всех i от 2 до л. Ес- ли для некоторого /справедливо а1Д +°м <ai.i +ви> пеРвУю и ' 10 строки меняют местами и возобновляют процесс сравнения от i = 2,
544_______________Принятие решений в системах управления. Часть IV 2) после завершения цикла элемент а, । считают принадлежащим опти- мальному решению, из матрицы А вычёркивают первую строку и пер. вый столбец, затем сравнивают пары a, j +at / и а, ,• + at l для матрицы порядка п - 2 и т.д. Оценка сложности данного метода И,,Чер =«чеР«2 (1.5Sa4ep S20). (3.17) Метод характеризуется сравнительно высокой точностью. 3.4.2. Приближённый метод, основанный на идее кратчайшего увеличивающего пути Рассмотрим алгоритм приближённого решения задачи выбора, исполь- зующий быстрые процедуры нахождения кратчайшего увеличивающего пути. Программа данного алгоритма была реализована на IBM PC/AT и на- писана иа языке Турбо-Паскаль версии 5.0. В ней использованы следую- щие основные массивы исходных данных и промежуточных результатов: А - массив исходных данных (матрица A); D1 - массив включённых в ре- шение строк (вначале заполняется нулями); Е - массив включённых в ре- шение элементов матрицы А (вначале заполянется числами 1); D2 - мас- сив невключённых в решение столбцов переменной размерности; DO - массив оптимальных строк для невключённых столбцов. На подготовительном этапе решения формируют матрицу оптималь- ных решений порядка i < п. Для этого анализируют строки и столбцы матрицы А. Анализ строк. Последовательно сканируют все строки А для поиска минимального элемента в каждой строке. Пусть а, * - минимальный эле- мент в i -й строке. Проверяют наличие в массиве D1 элемента g. При от- сутствии g заносят в массив D1 под индексом /, а элемент ajg - в массив Е под индексом i. Если в D1 уже содержится элемент g под индексом к (Dl[fc] = g), то сравнивают элементы Е[А] и ВД.Если E[i] < Е[а], то ни- каких изменений не проводят (старое значение затрат меньше), а если на- оборот, то старое решение обновляют, т.е. делают запись Dl[a] = 0; E[Ar] = IE; Dl[i] = g, E[i] = ai<g . Анализ столбцов. В массив D2 заносят номера тех столбцов, которые не вошли в решение после анализа строк. Если таких столбцов нет, то ре- шение закончено. Далее последовательно сканируют все те столбцы, но- мера которых имеются в массиве D2. В каждом столбце отыскивают ми- нимальный элемент. Пусть, например, ars - минимальный элемент в столбце s. Проверяют, есть ли уже элемент под индексом г в массиве D1, т.е. использована ли уже строка г. Если Dl[r] = 0, то записывают
545 ^-Й2$аЗ. к* Djiyj' ~~-2£У°Ды и алгоритмы решения задачи выбора ^Р^ММе ** Исключают соответствующий элемент из массива D2 (в про- ®Се цуд элементу присваивают значение 0, а в конце этапа удаляют ИНдекс :&Ые элементы). Если элемент под индексом г в D1 уже занят, этот Пе ап°минается в соответствующем элементе массива DO. с°Ргип Иачал°м итерационного процесса элементы массивов DO и D2 Цт/10ТСя в порядке убывания элементов. Текуц. Рация. Организуют цикл по элементам массивов D2 и DO. Пусть / - и Индекс в этих массивах. Пусть s = D2[/] и w = D0[ j] суть номера ''фОКи u * нахоп Н ст°лбца некоторого минимального в столбце элемента, который ДИтся в ещё не включённом столбце. Извлекают t = Dl[w], т.е. номер Ца, предназначенного для строки w в первоначальном решении. из СТолбце s отыскивают наименьший элемент, принадлежащий одной стР°к, не включённых в D1 (пусть это будет als, который обозначается Как ^|) и вычисляют сумму Qw.s+atj aw,l' В свободной строке (с индексом 1) отыскивают минимальный элемент (например, ), а затем минимальный элемент находят в столбце/(пусть это будет ab j ). Составляют сумму $3 ~al,f +ab,s ~ab,f- В столбце t отыскивают наименьший элемент среди элементов, при- надлежащих свободным строкам (пусть это будет aeJ), и определяют два числа: ^4 = + aw,s ae,s‘ Из пяти чисел Sl...S5 выбирают наименьшее. Соответствующий вы- бранному числу элемент включают в искомое решение, корректируют массивы и переходят к следующей итерации. Таблица 3.2 Порядок матрицы Соелняя ошибка решения методом КУ11, % — Минимальная Средняя Максимальная л = 20 0,0 9,55 21,42 л=40 0,0 7,05 1136 л = 60 0,0 7,82 12,20 л = 80 0,0 8,25 14,52 л = 100 0,0 8,36 15,50 Для анализа эффективности разработанного алгоритма был выполнен статистический анализ из 100 задач выбора каждой исследуемой размер- ности. Элементы матрицы А заполнялись генератором равномерно рас- пределённых чисел в интервале от 1 до 10. В табл. 3.2 приведена средняя ошибка (%) относительно оптимального решения, получаемого с помощью 36 Зак-10®
546 Принятие решений в системах управления. Часть IV алгоритма Мака, максимальная и минимальная ошибки для исследуемых выборок. В табл. 3.3 представлены данные, характеризующие среднее вре- мя счёта для алгоритма Мака и исследуемого алгоритма кратчайшего уве- личивающего пути. Таблица 3.3 Порядок матрицы Время счёта, с. Методом Мака (среднее) Методом КУП л = 20 1,202 0,455 | л = 40 7,056 1,820 л = 60 22,616 4,040 л = 80 61,828 7,224 л = 100 123,088 | 11,143 3.4.3. Методы, основанные на доминантных условиях первого типа В параграфе 2.7 были классифицированы методы решения, основанные на так называемых доминантных условиях, которые позволяют снизить вычислительные трудности решения комбинаторных задач. Рассмотрим три приближённых метода решения задачи выбора, сформированные на некоторых эвристических предположениях о характере искомого решения, которые можно отнести к методам, основанным на доминантных условиях первого типа. Проанализируем ещё раз задачу назначения. Заметим, что решение сводится к выбору из матрицы А порядка п только одного элемента из ка- ждой строки и каждого столбца. Сумма выбранных элементов должна быть минимальной. Человек, осуществляющий выбор, может сформулиро- вать некоторые условия, которым выбираемые элементы должны удовле- творять. Наиболее естественным кажется предположение о том, что опти- мальное решение должно содержать минимальный элемент, принадлежащий А. Поэтому доминантное условие можно сформулиро- вать в виде где а, - первый из включаемых в решение элементов А. Если элемент at выбран, то из матрицы А можно исключить ту строку и тот столбец, на пересечении которых находится at. К полученной мат- рице порядка п-l можно также применить условие выбора (3.18) и найти а2, для образовавшейся матрицы порядка п-2 использовать правило (3.18) и т.д. Это доминантное условие формализуется так называемом Ме- годом минимального элемента, который в силу своей простоты получил достаточно широкое распространение. Во многих случаях его использова-
г„ава 3. Методы и алгоритмы решения задачи выбора 547 лле вполне оправдано, поскольку наряду с незначительными вычисли- тельными затратами метод минимального элемента характеризуется и приемлемой точностью решения. В то же время существуют классы матриц задачи выбора и могут встретиться случаи, когда использование метода минимального элемента недопустимо. Рассмотрим, например, задачу с матрицей особого вида [4 3 2 11 [15 И 7 3J Используя доминантные условия в форме (3.18), получим а( =а1л = 1, затем а.1 ~аг^ ~4, затем а3 =а32 = 8, после чего в решение включим единственный из оставшихся элементов а4 = а41 =15 Легко установить, что найденное решение не минимизирует, а максимизирует заданный кри- терий. Другая форма доминантных условий и вытекающий их неё метод ре- шения задачи назначения предусматривает выбор ие просто минимально- го, а взвешенного минимального элемента: бЕ*, (3.20) 1'.Л в этом случае матрицу А преобразуем в матрицу D по следующим формулам [8]: di.j=nai.i + D^j-Di-Dp <=1 J=l >1 Л i=l Приведенные преобразования А и D являются эквивалентными в том смысле, что оптимальные стратегии для D и А совпадают. Для задачи выбора с матрицей (3.19), используя данный метод, можко- получить оптимальное решение. Отличительная особенность метода - увеличение объёма вычислений. Существуют и более простые формы доминантных условий первого ти- па, в которых учитывается не модуль элементов йц , а их разность. Напри- мер, метод, известный в литературе как метод Фогеля (см. например, [47, 54]), основан на последовательном выборе элементов, согласно правилу 36*
548 Принятие решений в системах управления. Часть IV а1 = max intaf, -mina, , (О (О J into,' j -mina',j (Ji Ui (3.21) где mina, j - элемент матрицы А, наименьший в j-м столбце; inta^. _ ближайший к нему элемент; min a, j - элемент А, наименьший в i-й стро- ке; into-у - ближайший к min а, у элемент. Для решения задачи с матрицей (3.19) по методу Фогеля получено оп- тимальное решение. Сравнительный статистический анализ методов минимального элемен- та, Фогеля и Мака, проведённый при тех же исходных данных, что и ана- лиз приближённого метода КУП, иллюстрируется табл. 3.4 и 3.5. В табл. 3.4 приведены средние ошибки методов Фогеля и минимального элемента, в табл. 3.5 - время счёта, полученное с помощью названных ме- тодов и (для сравнения) метод Мака. Таблица 3.4 Порядок матрицы Средняя ошибка, % Метод Фогеля Метод минимального элемента л = 20 83,81 25,42 л = 40 94,24 25,44 л =60 85,28 24,47 л = 80 79,50 18,52 л = 100 74,38 17,70 Таблица 3.5 Порядок матрицы Среднее время счёта, с Метод Мака Метод Фогеля Метод минимального элемента л = 20 1,202 1,614 • 0,730 л = 40 7,056 9,792 3,142 л = 60 22,616 30,089 8,215 л =80 61,828 67,927 16,675 л = 100 123.088 128,857 29,576 Из'приведённых данных видно, что наилучшнм и по времени, и по точ- ности оказался оригинальный метод, основанный на идее кратчайшего увеличивающего пути. Однако обратим внимание на то, что справедли- вость этого несколько неожиданного вывода ограничивается областью ус- ловий, в которой проводились статистические исследования, и что данный метод не предусматривает средств вариации длительности счёта, необхо- димых для алгоритмов принятия оперативных решений.
Глава 3. Методы и алгоритмы решения задачи выбора____ 549 3.5. Алгоритмы решения классической задачи выбора НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ Для формирования алгоритмов решения классической задачи выбора на расширенных множествах альтернатив построим орграф специального вида, который назовём графом структур решения (ГСР). Каждая дуга этого графа будет соответствовать решению конкретной задачи или части задачи и нагружена компонентами критериев, по которым проводят оценку каче- ства и сложности решения. При этом для оценки сложности решения мож- но использовать не только числовые оценки нижнего и среднего уровней (см. параграф 2.3), но н оценки верхнего уровня. Каждая вершина в ГСР (кроме начальной с номером 0 - фиктивной) будет отражать факт решения соответствующей локальной задачи (подзадачи), а последняя вершина с номером — факт решения общей задачи. Для классической задачи выбора один нз вариантов ГСР представлен на рис. 3.1. Здесь дуги имеют следующий смысл: О, 1 - расчёт элементов матрицы исходных данных А; 1, 2- решение задачи выбора каким-либо из точных методов, причём каждому методу должна соответствовать отдельная дуга и вершина; 1, 3- решение задачи'каким-либо приближённым методом; 1, 4- декомпозиция задачи каким-либо методом на М локальных задач; 4, 5 - решение каждой из М локальных задач каким-либо точным мето- дом; 4, 6 - решение каждой из М локальных задач каким-либо приближён- ным методом; 5, 7 и 6, 7 - формирование объединённого перечня (рекомпозиция ло- кальных решений); 1,8- формирование вместо исходной задачи новой задачи; 8, 9 - решение новой задачи; 9, 10 - формирование решения исходной задачи по решению новой;- 0, 11 — формирование опорного решения на п независимых элементов матрицы А; 11, 12 - последовательное формирование новых элементов матрицы А и улучшение опорного решения;' 12, 7 — контроль за выполнением условий останова времени и останова решения; i, N - оформление и выдача решения (i = 2,3, 7,10). Очевидно, что представленный иа рис 3.1 граф структур решения клас- сической задачи выбора можно дополнить новыми маршрутами и каждый иэ имеющихся маршрутов детализировать и по последовательности ре- шаемых подзадач, и по вариантам решения каждой подзадачи Рассмотрим маршрут ГСР, проходящий через вершины 0, 1, 8, 9, 10 и N, т.е. способ решения классичекой задачи выбора, состоящий в замене исходной задачи некоторой новой.
Рис. 3.1. Граф структур решений классической задачи выбора Остановимся на одном из возможных вариантов формирования новой задачи. Учитывая, что задачи математического программирования и, осо- бенно, экстремальные задачи комбинаторного типа весьма чувствительны к вариациям форм критерия, ограничений и даже числовых значений ком- понентов ограничений, изменим формулировку задачи. Будем считать, что каждый пункт потребления может переработать не одну единицу ресурсов, a kj (j = l,n) единиц, причём если для некоторого j: kj > п, то возмо- жен варйант решения, когда j-й пункт потребления один перерабатывает ресурсы всех складов. В соответствии с этим запишем вместо (3.1) - (3.3) следующую задачу: п п /=1 /=1 Л ____ i = l,n, >=1 Л '£Xi,j=1' J^tn. i=l (3.22) (3.23) (3.24) Очевидно, что для решения этой задачи необходимо найти минималь- ные элементы в каждой строке матрицы А: а< =mina.,, i = l,n, (Л ,J (3.25) и составить из них решение.
Глава 3. Методы и алгоритмы решения задачи выбора______ 551 В частном случае, используя алгоритм (3.25), можно получить решение задачи (3.22) - (3.24), которое будет совпадать с решением задачи (3.1) - (3.2). Однако в большинстве случаев требуется организовать переход к решению исходной задачи. Наиболее просто это можно сделать путём вве- дения в алгоритм (3.25) специального правила, состоящего, например, в том, что после поиска минимального элемента в каждой строке столбец, в котором оказался минимальный элемент, из дальнейшего рассмотрения исключается. Назовём метод, реализующий данный подход, методом по- этапного выбора (МПВ). С помощью МПВ можно получить приближённое решение исходной задачи. Для повышения точности используем предварительное упорядочи- вание строк: I) по мере убывания сумм их элементов; 2) по мере убывания минимальных элементов строк; 3) по мере убывания сумм минимальных и ближайших к ним (into ) эле- ментов строк; 4) по мере убывания разностей into -а и т.п. Метод поэтапного выбора с упорядочиванием строк по мере убывания сумм их элементов был реализован на IBM РС/АТ-286 на языке Турбо- Паскаль версии 5.0 (как и анализируемые ранее методы). Результаты ста- тистического эксперимента на 100 матрицах каждой исследуемой размер- ности, заполняемых от генератора равномерно распределённых случайных чисел в интервале от 1 до 10, приведены в табл. 3.6. Заметна явная тенден ция повышения точности решения с ростом размерности задачи, ие прояв- лявшаяся в других методах. Таблица 3.6 Порядок Средняя ошибка решения, % Среднее время счёта, с. л = 20 43,34 0^802 л = 40 28,51 3,512 л =60 21,27 9,095 л = 80 20,48 18,511 л = 100 17,27 32,703 Для задач выбора, где в ограничении (3.23) хотя бы для одного; место условие к j #1, kj<n, структуру решения не меняют, но в алгор вводят счётчики задействованных пунктов потребления. Столбец с та Ром j исключают из рассмотрения, как только содержимое j го станет равным к j. Предварительное упорядочивание строк можно сох нить, хотя эта процедура и будет иметь меньшее значение. Поскольку ?увеХием размерности задачи эффективность упортдо- чивания строк снижается из-за увеличения в них числа элементов
552 Принятие решений в системах управления. Част», jy большими весами, для задач с матрицами порядка 150 - 200 и более цеп сообразно отказаться от этой предварительной процедуры. При этом в числительная сложность алгоритма снижается и становится равной дмпви2, причём основными операциями оказываются достаточно простые операции сравнения (их число равно пхп). Таким образом, данный метод можно рекомендовать для приближённого решения задач выбора большой размерности. 3.6. АЛГОРИТМЫ РЕШЕНИЯ ОБЪЕДИНЁННОЙ ЗАДАЧИ ВЫБОРА НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ При решении классической задачи выбора (3.1) - (3.3) обычно предпо- лагают, что матрица исходных данных А, содержащая коэффициенты а. . t известна. Однако при реализации задачи выбора в системах управления должны быть предусмотрены специальные алгоритмы, вычисляющие a, j в заданные моменты времени. Кроме того, должны быть предусмотрены алгоритмы, определяющие допустимость включения элементов atj в ис- комое решение на основе ряда ограничений, сформированных в дополне- ние к ограничениям (3.2) и (3.3). Такого типа дополнительные ограничения присутствуют практически всегда в реальных системах управления. 3.6.1. Постановка объединённой задачи выбора и возможные пути её решения Задачу выбора в системах управления можно представить в виде по- следовательности задач: Задача 3.1. Проверка допустимости использования коэффициентов матрицы исходных данных А. Задача 3.2. Вычисление коэффициентов матрицы А. Задача 3.3. Собственно решение задачи выбора. Совокупность этих задач будем называть объединённой задачей выбо- ра. В графе структур решений на рис. 3.1 объединенная задача выбора представлена маршрутом, связывающим вершины 0,11,12, 7, N. Если решать эти задачи в указанной последовательности и использо- вать для задачи 3.3 точный метод решения, то общее время решения с учё- том оценки (3.10) to =(О] +а2)п2 +пви3, (3.26) где ai,«2>a3 = aB ~ коэффициенты, зависящие от типа ЭВМ, языка про- граммирования, свойств операционной системы. Последовательность решения задач 3.1 и 3.2 может быть и обратной. Это определяется существом проводимых вычислений (например, для Ре" щения задачи 3.1 необходима информация, получаемая в ходе решения за-
553 -i 94 „ __ ; ----ЫР£Шения задачи выбора дачи j.zj и трудоёмкостью-----------------— н ----- симы и известно, что а ₽ешения заДач. Пусть задачи 3.1 и 3.2 незави- последовательность: 2 <<: й>' рациональной является следующая 1) 2) 3) решить задачу 3 2 для 2 да я всех п возможных паросочетаний i и j и за- пяти МЯТ«,„^ЧУА '1 ДЛЯ кажД°го из М значащих элементов и сформиро- пешХкТ У АЛ°РадКа к ^значащими элементами; решить задачу 3.3. В этих условиях общее время решения to =Я[М +а2п2 +а3п3 может быть меньше времени решения по формуле (3.26), однако далее (поскольку значение М априори определить невозможно) будем ориенти- роваться на оценку (3.26) и считать основным или базовым следующий ал- горитм. Алгоритм 3.1. Состоит в последовательном решении задач 3.1, 3.2 и 3.3. Предположим, что при решении задач 3.1 и 3.2 вычисления проводят- ся для каждого элемента матрицы А, а для решения задачи 3.3 использует- ся один из точных методов (например, метод Мака или кратчайшего уве- личивающего пути). В то же время очевидно, что задачи 3.1 и 3.2, а возможно, и 3.3 можно решить более экономными способами, так как в искомое решение входит не п2 элементов матрицы исходных данных А, а лишь л элементов. Приведём ряд алгоритмов точного и приближённого решения объеди- нённой задачи выбора, имеющих более экономные оценки счёта, чем оценка (3.26). Расширенные множества альтернатив для решения объеди- нённой задачи выбора могут быть сформулированы различно. Представим алгоритмы, основанные на рациональной с точки зрения времени машинного счёта модификации и комбинации процедур решения задач 3.1 <- 3.3, причём совокупность этих задач будем рассматривать как единое целое, т.е. как общую задачу. Алгоритм 3.2. Основан на точном методе решения для разреженной матрицы, не сводимой к блочно-диагональному виду. Данный и последующие алгоритмы можно разбить иа этапы. Этап 1. Решение задачи 3.1 для всех элементов матрицы А и выделе- ние допустимых элементов. Этап 2. Для всех допустимых элементов решение задачи 3.2 и форми- рование разрежённой матрицы А. Этап 3. Одним из точных методов, как и в алгоритме 3.1, решение за- дачи выбора. Время решения общей задачи t0 =ajn2+a2N+a3n3, (3.27) где N < п 2 и равно числу значащих элементов разреженной матрицы А. 35 Зак. 108
554 Принятие решений в системах управления. Часть IV Очевидно, что данный алгоритм по времени счёта мало отличается от первого. Алгоритм 3.3. Применяют для матрицы А = В особого вида. Этап 1. Решение задач 3.1 и 3.2 для элементов двух первых столбцов матрицы В или любых двух элементов каждой строки. Этап 2. Вычисление коэффициентов Ct для всех строк. Этап 3. Упорядочивание строк матрицы В по мере убывания коэффи- циентов Cj. Переиндексация строк. Этап 4. Решение задач 3.1 и 3.2 для элементов главной диагонали преобразованной матрицы В . Фиксирование оптимального решения. Время решения задачи выбора алгоритмом 3.3 приближенно можно оп- ределить по следующей формуле: г0 = (а1+а2)(я-2). Если среди элементов главной диагонали преобразованной матрицы В окажутся недопустимые элементы, алгоритм 3.3 усложняется незначи- тельно: при реализации этапа 3, когда окажется, что в строке к - недопус- тимый элемент, меняют местами строки к и к +1, к и к + 2 (если в стро- ке к +1 оказался недопустимый элемент) и т.д. Алгоритм 3.4. Используют для разреженной матрицы А, обладающей особыми свойствами и приводимой к блочно-диагональному виду. Обозначим матрицу исследуемого вида В. Этап 1. Решение задачи 3.1. Этап 2. Редукция полученной на этапе 1 разреженной матрицы к блочно-диагональному виду. Простейший способ редукции состоит в сле- дующем: а) вычисление суммы индексов первого и последнего значащих эле- ментов в каждой строке; б) расположение строк в порядке возрастания вычисленных ранее сумм индексов; в) разделение матрицы на блоки и выделение подблоков, принадлежа- щих одновременно двум блокам. Этап 3. В каждом блоке решение задачи 3.2 для элементов двух пер- вых столбцов (или первой пары значащих элементов), вычисление для всех строк коэффициентов С,, затем в каждом блоке независимо строки меняются местами в порядке убывания коэффициентов Q. Этап 4. В каждом блоке независимое решение задачи 3.2 для элементов главных диагоналей блоков; введение данных элементов в искомое решение. Этап 5. Поиск объединенного решения в общих подблоках каждых двух смежных блоков; сравнение компонентов решения в подблоках, при- надлежащих разным блокам, и выбор из них наилучшего. Приближенную оценку времени счета данным алгоритмом без учета времени структуризации разреженной матрицы на этапе 2 и времени на
555 поиск объели/ neu,P„„„ «ПМ ^ле- в подблоках на этапе 5 определяют по сле- Алгоритм 3.5 n 'o=«i« + 2a2n(n-2). дающей особыми свойстНЯ!°Т Для Ма'гРиЦ“ А (разреженной), не обла- ВИДУ- вами, но приводимой к блочно-даагоналыюму Данном алгоритм 5 алгоритма 3.4 Р ЭТапь1 1, 2 и 5 полностью идентичны этапам 1,2 и На этапе 3 в кажлп Ществляется ^дом блоке с помощью одного из точных методов осу- вр=«» ” нивается по форму *₽И ТСХ Же допУщениях’ что и для алгоритма 3.4, оце- *о =axn + a2N+ 2,а3М (g), 2 *=l где N < п , как и в формуле (3.26), определяется числом значащих эле- ментов разреженной матрицы А; g - текущий индекс блока матрицы А; Мй) - общее число блоков А; М(g) - порядок g -го блока. Алгоритм 3.6. Применяют в том случае, если существует возможность быстрого определения минимальных элементов в каждой строке матрицы А. Возможность быстрого определения минимальных элементов в каждой строке матрицы А определяется наличием априорной информации о свойствах А. Поскольку число данных элементов может оказаться недос- таточным для получения решения вследствие того, что они не образуют систему различных представителей, требуются дальнейшие вычислитель- ные операции для получения решения, удовлетворяющего ограничениям (3.1) - (3.2). Для этого можно использовать любой из вышеприведенных алгоритмов. Существенного сокращения времени счета при этом не про- исходит. 3.6.2. Гибкий алгоритм Рассмотрим алгоритм решения задач выбора, объединяющий возмож- ности применения принципа сложности и идеологии принятия решений на расширенном множестве альтернатив. Для получения решения, макси- мально близкого к оптимальному, за ограниченное время, наиболее пер- спективной является специальная модификация метода локальных вариа- ций, одна из разновидностей которых содержится в работе (69]. Алгоритм 3.7. Применяют для решения объединенной задачи выбора. Этап 1. Определение произвольного опорного решения. Пусть это решение составляют элементы главной диагонали матрицы А, т.е. для элементов главной диагонали А решаются задачи 3.1 и 3.2. 35*
_______Принятие решений в системах управления. Часть |у Этап 2. Отыскание среди элементов главной диагонали atj макси- мального элемента а', н ближайшего к нему into,',- элемента. Пусть ди определенности a', = акк, inta', = arr. Этап 3. Решение задач 3.1 и 3.2 для пары элементов, которые могут составить «конкуренцию» элементам акк и ar г, т.е. для элементов ак г и аг к: Если неравенство aM+ar.r>a*.r+ar1* (3.28) выполняется, то строки к и г меняют местами, если это неравенство не выполняется, то вместо элемента агг берут ближайший к нему меньший элемент, вновь проверяют неравенство (3.28) и т.д. При выполнении усло- вия (3.28) после перемены местами строк к и г осуществляют возврат к этапу 2 и начинают новую итерацию. Алгоритм 3.7 имеет ярко выраженный итерационный характер, поэто- му в формулу для оценки времени счета входит переменная К , обозна- чающая число итераций: Wt =(О] +a2)n + tf[rfn(n-2)+2(e1 + a2)]. (3.29) Здесь d - время, затрачиваемое на проведение операции сравнения двух элементов для поиска а'ц и intaj ,- на втором этапе алгоритма; п(п-2) - предельное число таких поисков на каждой итерации. Строго говоря, данный алгоритм, поскольку он является разновидно- стью метода локальных вариаций, не гарантирует достижения глобального минимума. Однако для матриц особого вида алгоритм дает оптимальное решение при К = п/2, а по данным, приведенным в [68], аналогичен по смыслу, но более сложный алгоритм, решающий только задачу 3.3, приво- дит к получению близких к оптимальным решений за время d'n2, где 3/2 <</'<20. Весьма важным свойством алгоритма 3.7 является то, что функция из- менения критерия Е(К) является монотонно убывающей от итерации к итерации, причем с увеличением К модуль приращений Е(К) в среднем убывает. Следовательно, данный алгоритм можно отнести к классу жад- ных (greedy algorithms), разработке которых в последнее время уделяется большое внимание [24, 37]. Для нас более существенным является то, что алгоритму 3.7 можно придать свойство «гибкости», сформировав условия останова работы алгоритма одним из следующих способов: 1) при первом выполнении условия Е(К)<ЕЛ, (330) где Ед - заданное априори допустимое значение критерия; 2) при первом нарушении ограничения
Глава 3. Методы —SSEggyrMbi решения задачи выбора 551 h _ И'«(^.Л)>Тд(Л)-е, (3.31) раметр текущей ситуации, определяющий в первую очередь ™ .ти«Н^СТЬ 3аДаЧн ” и гД '• 7’Д(Л) - заданное в каждой текущей си- Условие Н °Г.1УСТИмОе время счета; е - заданное малое число. Я • ) можно заменить условием выполнения заданного числа итераций К (Т ,h). Для этого названные функции необходимо предва- рительно сформировать. Алгоритм, учитывающий условия (3.30), соответствует принципу ми- нимальной сложности, а алгоритм, учитывающий условия (3.31), - прин- ципу ограниченной сложности. Эффективность гибкого алгоритма зависит от текущего ограничения на время счета и соотношения коэффициентов a[,d2 и а3. Прежде всего, за- метим, что если для всех h выполнено условие T(h)>tc (tc определя- ется по формуле (3.27) для базового алгоритма), то надобность в гибком алгоритме отпадает. С другой стороны, если Тд(/)<(а1+а2)л2, то ни базовый, ни любой из приближенных традиционных алгоритмов задачу выбора не решит. Не решит задачу и гибкий алгоритм, если нет времени даже на получение опорного решения (при Тд <(a!+a2)n). Однако это особый случай, требующий принятия специальных мер в системе управле- ния, не связанных с решением задачи выбора. Таким образом, будем счи- тать, что для всех h сфера применения такого алгоритма определяется ус- ловием (а, +а2)п<,Тл‘ (й)<(а1+а2+а3)п2. (3.32) Эффективность гибкого алгоритма тем выше, чем больше значение от- ношения (at+a2)/a3. Однако и в предельном случае, когда в ходе работы гибкого алгоритма матрица исходных данных оказывается заполненной, оценка решения задачи 3.3 базового алгоритма а3п3 и оценка приращения времени работы гибкого алгоритма (после заполнения матрицы А) Kdn(n - 2) (см. формулу (3.29)) позволяют отдать дань предпочтения гиб- кому алгоритму. Для экспериментального подтверждения эффективности разработан- ного гибкого алгоритма была проведена серия статистических исследо- ваний. Для каждого сочетания исследуемых параметров с помощью дат- чика равномерно распределенных случайных чисел в интервале 5-10 заполнялись матрицы соответствующих порядков. Для оценки точности решения использовался алгоритм Мака. Программы реализовывались на IBM РС/АТ-286 на языке Турбо-Паскаль 5.0. В табл. 3.7 приведена максимальная ошибка решений, получаемых гибким алгоритмом для классических задач выбора (при а, =0,а2 =0) в
/58 _______Принятие решений в системах управления. Часть зависимости от отношения К In . В табл. 3.8 — среднее время работы гиб- кого алгоритма в зависимости от отношения Kin для задач различной размерности. В табл. 3.8, кроме того, приведено среднее время счета мето- дом Мака для всех исследуемых размерностей задач. Из приведенных данных следует, что применение гибкого алгоритма позволяет варьировать в широких пределах время решения задачи при от- носительно невысоких отклонениях от оптимальных решений. Кроме того видно, что предложенный гибкий алгоритм действительно является жад’ ным алгоритмом и обеспечивает равномерно убывающее приращение точ- ности вычислений в зависимости от числа итераций. Из сказанного следу, ет, что разработанный метод и алгоритм решения удовлетворяют всем требованиям, предъявляемым к методам и алгоритмам принятия оператив- ных решений. Таблица 3.7 п Ошибка решения ( % ) при К tn аг 0,3 0,4 0.5 0.6 0,7 0,8 20 33,84 29,14 25,24 22,28 20,72 18,73 17,63 40 30,94 29,04 27,74 23,17 19,4 60 34,91 29,65 25,84 22,58 1 20,46 19,04 18,02 80 34,15 28,16 22,98 20,26 18,75 18,25 18,06 100 34,59 30,55 27,18 23,65 20,24 17,76 Таблица 3.8 п — ~ । Среднее время (с) при Kin 0,2 0,3 0,4 0,5 0,6 0,7 Метод Мака 20 0,063 0,095 0,126 0,158 0,189 0,221 1,202 40 0,126 0,183 0,252 0,315 0,378 7,056 60 0,189 0,292 0,378 0,568 0,756 0,955 22,616 80 0.307 0,462 0,614 1,230 1,890 2,520 61,828 100 0,425 0,664 0,904 1,302 2,538 4,092 123,08 —— Таблица^ п Среднее время (с) при К!п — 0,2 0,3 0,4 0,5 0,6 0,7 Метод Maw, 20 1,031 1,519 2,007 2,495 3,093 3,409 50,°02__ 40 2,062 3,093 4,124 5,155 6,241 7,217 22О,25^_ 60 3.093 4,667 6,242 7,815 9,443 11,212 46L8£_^ 80 4,179 6,241 8,412 10.584 12,811 15,314 84X63^. 100 5,265 7,924 10,694 13,574 16,178 21.516
Однако в наибольшей степенТ^Г^ «0 явность гибкого алгоритма проявляв °Г0 и с^вапПГ--—~ >и*ч» В "«” 39 • 4>™epa’nX^m‘““ 0SkS^*" таблице. кроме того, даны оценки ерике™ +“>)Ч -W В кетр1„ монено «гсита, то m »» »«,„ ' ,-а,„а не гомо эффеимвним, но и «ta» нежкхгп. решения. ”Р«»™«иир«™
560 Принятие решений в системах управления. Часть IV ГЛАВА 4 ЗАДАЧИ ПРИНЯТИЯ РЕШЕНИЙ НА РАСШИРЕННЫХ МНОЖЕСТВАХ ПО ВЕКТОРНОМУ КРИТЕРИЮ 4.1. Сущность и условия появления МНОГОКРИТЕРИАЛЬНЫХ ЗАДАЧ ПРИНЯТИЯ РЕШЕНИЙ При создании современных систем управления проектировщикам чрез- вычайно редко приходится иметь дело с системами, работоспособность и качество которых можно оценить одним единственным показателем. Чаще всего существует целое множество таких показателей (критериев), каждый из которых характеризует тот или иной аспект проектирования и функ- ционирования системы управления. Проблему решения оптимизационных задач с учетом множества пока- зателей эффективности называют проблемой решения многокритериаль- ных задач или проблемой векторной оптимизации. Очевидно, что эта про- блема не существовала бы, если все отдельные показатели (локальные критерии) были бы выражены в одних и тех же единицах измерения и тем самым сведены к единому (глобальному) критерию, кроме того, если (да- же не сводимые один к другому) локальные критерии были бы непротиво- речивы, т.е. если изменение параметров системы управления приводило бы к одновременному улучшению (или одновременному ухудшению) всех локальных критериев. Однако в задачах векторной оптимизации всегда присутствуют противоречивые критерии, когда улучшение одного приво- дит к ухудшению другого и наоборот. Подобное явление наблюдается уже на нижнем уровне иерархии сис- тем управления - на уровне САР, поскольку такие требования качества, как время переходного процесса и перерегулирование, являются противо- речивыми и не сводимыми одно к другому. В теории автоматического ре- гулирования эта проблема была решена путем введения допустимой об- ласти показателей, комплексно учитывающей все требования проектиров-
Глава 4. Задачи принятия решений ия - ——н шении на расширенных множествах 3t>1 тика к системе [56]. Подобии»~ Хмы векторной оптимизации4будемЯ’ КаК ЧаС™ЫЙ Р!ШеИИЯ йозвпашаясь к чя „о, ЦИи’6удем использовать и в дальнейшем. юности систем vnn« проектиРования САР, отметим, что рост на- ле риир йистппгтАй Р ВЛеНИЯ обычио связан с увеличением массы, уве- ЛИЧ т «и лбпа ствня ~ с ростом мощности и энергопотребления и т.Д- ак Р °м, проблема векторной оптимизации возникает всякий раз, когда результаты функционирования системы управления приходит- ся оценивать по нескольким несводимым один к другому и противоречи- вым показателям. Проблема векторной оптимизации возникает также в следующих слу- чаях: а) задачи, поставленные перед системами управления, выполняются в результате совместного функционирования нескольких объектов (или не- скольких систем) управления, эффективность каждого (каждой) из кото- рых оценивается своим критерием; б) объект управления находится в различных режимах эксплуатации и каждый режим характеризуется собственным показателем эффективности; в) программа функционирования объекта может быть разделена на эта- пы и каждый этап оценен отдельным показателем эффективности. Формулировка проблемы оптимизации по векторному критерию эф- фективности впервые встречается у Внльфредо Парето в 1896 г. В 1963 г. Лотфи Заде опубликовал заметку, в которой поднимался вопрос о проек- тировании систем управления по нескольким показателям качества и было показано, что точная оптимизация векторного функционала в большинстве случаев недостижима. Это означает, что если выбором управления можно оптимизировать какой-либо скалярный функционал, то практически не- возможно в той же области допустимых управлений оптимизировать дру- гой скалярный функционал, даже когда смысл скалярных функционалов непротиворечив. Таким образом, проблема векторной оптимизации - это проблема принятия компромиссного решения. Проблема векторной оптимизации в настоящее время занимает все большее место в практике расчета систем управления и в задачах принятия решений. При этом, если ранее задачи векторной оптимизации ставили в основном для статических моделей, то теперь они присутствуют и в дина- мических расчетах. Поскольку расчет даже однообъектных систем автома- тического управления сложен и не укладывается в рамки аналитических методов, а использование процедур векторной оптимизации требует, как правило, применения методов математического программирования, то ос- новное место в процессах проектирования систем занимают интерактив- ные вычислительные процедуры, обеспечивающие задачи расчета и моде- лирования. В настоящее время сформировались две тенденции оптимизации по векторным критериям качества. Первая из них, используемая в основном в областях экономики, автоматизации научных исследований и других не-
562 Принятие решений в системах управлеи»^» достаточно формализованных областях, состоиГГ^^^^ между лицом, принимающим решение (ЛПР), и ЭВМ. В диалога от ЛПР требуется получить дополнительную инфОрМац ve ^ого ляюшую решать плохо формализованную задачу до конца. Эта тен П°38°' нашла наиболее завершенное воплощение в экспертных системах в Ция тенденция, господствующая в основном в сфере автоматического уП1<₽’’ ния и проектирования технических систем, состоит в разработке спеии^' зированных методов расчета, охватывающих избранный класс сисС?' специализированные критерии оптимизации. м и Для обеих тенденций характерным является важность учета факто сложности процессов векторной оптимизации, хотя вызвано это разный причинами. При организации диалога между ЛПР и ЭВМ важным являет ся построение такой процедуры диалога, при которой обращение ЭВМ ЛПР для уточнения тех или иных параметров задачи было бы минималь- ным. С другой стороны, математическое обеспечение ЭВМ при использо- вании ее в режиме двустороннего диалога должно позволить ЛПР ставить перед ЭВМ не однотипные вопросы, а вопросы, охватывающие различные аспекты решения поставленной задачи. При этом -возникают некоторые специфические требования и к методам векторной оптимизации (органи- зация поиска в пространстве вариантов решения, использование промежу- точных результатов при переходе от одной задачи к другой и т.д.). Как следует из работы [36], реализация диалогового общения должна позволить не только эффективно решать вопросы выбора искомых реше- ний, но и существенно упростить процедуры формирования математиче- ских моделей для решения оптимизационных задач, например, за счет конкретизации только тех ограничений, которые непосредственно опреде- ляют экстремум. Это требует модификации известных методов оптимиза- ции, что и сделано в работе [17] применительно к задачам линейного про- граммирования. Общие концепции диалога ЛПР и ЭВМ для решения задач векторной оптимизации изложены в работе [16]. Обзор зарубежных работ в этой области содержится в книгах [29,75]. Вторая тенденция в развитии методов векторной оптимизации базиру- ется на хорошо развитом аппарате теории оптимального управления и ма- тематического программирования. В рамках этих направлений разработа- ны многочисленные методы скалярной оптимизации, максимально учиты- вающие специфику решаемых задач, которая проявляется, прежде всего, в форме математического описания объекта управления, форме критерия, фазовых ограничений, ограничений на управление. Поскольку при Ре® ии задач векторной оптимизации так или иначе приходится решать о или большее число задач скалярной оптимизации, то вполне естествен пытаться использовать математический аппарат, разработанный дл ®№я задач скалярной оптимизации. й о1Пц- Миз РИВеЛем пРимер. Пусть поставлена задача двухкритериально
Глава 4. Задачи принятия решений на расширенных множествах 563 (П т Е (x,u,r)=|F^XiU>f^f_+max *0 Е^ \x,u,t)=-(7’-t0)_^max, где х(О — вектор-функция состояния; u(t) - вектор-функция управления; Го и г - начальный и конечный моменты управления. Предположим, что для оптимизации по первому скалярному критерию разработаны вычислительные процедуры динамического программирова- ния и получены результаты оптимизации в виде (и +1) -мерной таблицы (п - размерность вектора состояния). Одним из параметров такой таблицы являются дискретизированные значения времени иа интервале р0,Т], а именно г0, Го + Дг,..., г0 + ЛДг, ...,Т. Следовательно, для проведения опти- мизации по двум критериям (одним из них является время) достаточно из таблицы результатов динамического программирования, не проводя ника- ких дополнительных вычислений, выбрать серию оптимальных значений £fl)*(ro + ДО и т-д > после чего в плоскости критериев построить область Парето, на которой затем выбрать единственное решение. Впер- вые возможности двухкритериальной оптимизации на базе вычислитель- ных процедур динамического программирования были рассмотрены в [48]. Проблему выбора единственного из множества Парето-оптимальных решений называют проблемой скаляризации, или свертки векторного кри- терия. 4.2. Парето-оптимальность и обзор основных подходов К ПРОБЛЕМЕ СКАЛЯРИЗАЦИИ ВЕКТОРНОГО КРИТЕРИЯ В настоящее время можно выделить четыре сложившихся подхода к основной проблеме векторной оптимизации - проблеме скаляризации век- торного критерия, т.е. к преобразованию множества скалярных (локаль- ных) критериев в один глобальных критерий: 1) построение области Парето и предоставление проектировщику или ДПР (лицу принимающему решение) возможность выбора единствен- ного из Парето-оптимальных решений; 2) последовательная оптимизация скалярных критериев после введения для них приоритетов с назначением или без назначения уступок; 3) оптимизация на основе компромиссных отношений, вводимых, напри- мер, путем назначения весовых коэффициентов для каждого скалярно- го критерия или путем назначения предельных значений для всех кри- териев, кроме одного - главного; 4) оптимизация, основанная на приближении решения к некоторому, спе- циальным образом выбранному, идеальному значению.
564 Принятие решений в системах управления. Часть IV Рассмотрим сущность области Парето. Пусть задача принятия решений состоит в максимизации двух противоречивых и несводимых один к дру- гому критериев Е^(х)-»тах, Е^(х)-»тах на множестве допустимых решений X , определяемом и-мерным векто- ром состояния х. Очевидно, что данная задача в области X f решения не имеет. На рис. 4.1 изображена плоскость критериев Е(1) и Е(2), и которой область допустимых решений Xf замкнута контуром OCABD. Наиболь- шее значение критерия Е(|) достигается в точке В, однако для точки В значение критерия Е(2) далеко от максимума. При наибольшем же значе- нии критерия Е(2), которое достигается в точке А, далеко от максимума значение Ет. В точке S оба критерия имели бы максимальное значение, однако эта точка не принадлежит области допустимых решений И потому недостижима. Очевидно, что решение нужно искать на кривой АВ- Каждая ее точка соответствует решению в интервале [Е(1)*,Е(1)(Е(2)*)] по крите- рию Е(1), а по критерию Е(2) - в интервале [Е(2)*,Е(2)(ЕО)*)1 • Л Е“’ ?Ие‘ 4Л‘ Пло«кость критериев _ пределяет для рассматриваемого примера область Кривая АВ с~ . .................................................. _ облает решение н^я свойством, что любое принадлежащее * РИЯМ' Действительно, выЙТ”* ОДновРеменно по всем скаляру об- ласти решений Xf „ Р произвольную точку М в допусти14 еЖащую на кривой АВ, нетрудно убеди’*®*
Глава 4. Задачи принятия решений на расширенных множествах 565 определяемое ею решение можно улучшить одновременно и по критерию £(|) - точка М', и по критерию £(2) - точка М', и по двум критериям одновременно — любая точка кривой М.’М’, Решения же, определяемые любой из точек кривой АВ, нельзя улучшить одновременно по двум крите- риям. Из сказанного следует, что, во-первых, искомые решения должны быть Парето-оптимальными, поскольку остальные решения заведомо хуже сразу по всем скалярным критериям, и, во-вторых, необходима какая-то Дополнительная информация для выбора единственного из множеств Па- рето-оптимальных решений. Определение 4.1. Решение хпеХ^ является Парето-оптимальным для задачи £(,)(x)->max, хеЛ q = ij. в том и только в том случае, если среди всех вариаций решения хп не най- дется такой вариации 5х, что для всех q= 1,L будут выполнены условия Е(,)(хп+5x)>£(,)(xn), <? = VL. (4.1) Основными отличительными особенностями методов скаляризации, относящихся ко второй группе, является процедура упорядочивания кри- териев по важности и построение процедур последовательной оптимиза- ции сначала по первому критерию, затем по второму, третьему и т.д. Наи- более характерными для данной группы являются методы последователь- ного достижения частных и последовательных уступок [17,24]. Для метода последовательного достижения частных целей характерно поэтапное решение задач векторной оптимизации. Каждый этап - дости- жение определенной цели, т.е. выбор решения, связанного с одним компо- нентом векторного критерия, например, с достижением на q-м этапе соот- ношения EW(X)>EW, (4.2) где £(,) - минимально допустимое значение £(,). Этот метод удобно применять, когда все этапы, исключая последний, можно оценивать по шкале «да - нет», или если введены условия типа (4.2). На результат решения существенно влияет порядок достижения ча- стных целей, поэтому все скалярные критерии предварительно необходи- мо упорядочить по приоритетам: Е(1) > £(2) > £(3) > > Ew > > (4.3) Соотношение вида £(4) > £(,+,) показывает, что критерий Ew важнее (предпочтительнее) критерия £(,+1). В методе последовательных уступок после установления отношения (4.2) решают задачу максимизации критерия £(1), отыскивают оптималь- ное значение £(1)*, а затем назначают уступку ЕЕ(1>, т.е. ту потерю эф-
566_______________Принятие решений в системах управления, фективности по критерию £(”, которая может быть допущена с целью максимизации других компонентов векторного критерия. После этого ре. шают следующую задачу: £(2\х)~»тах, Назначают уступку Д£<2’, максимизируют критерий £<3) при ограни- чениях на критерии £(1) и £<2) ит.д. Этот метод достаточно эффективен, когда экстремумы скалярных кри- териев «пологие», что даже при небольших значениях уступок Д£(?) обеспечивает широкий диапазон поиска решений. К недостаткам метода последовательных уступок следует отнести не- обходимость формирования экспертных оценок как для назначения при- оритетов, так и для назначения уступок, а также необходимость примене- ния различных процедур оптимизации, если скалярные критерии имеют различную математическую форму. Кроме того, возникают дополнитель- ные трудности при неудачном выборе приоритетов или уступок, когда ре- зервы поиска локально оптимальных решений оказываются исчерпанными ранее, чем рассмотрены все скалярные критерии. Отмеченные недостатки практически исключают применимость методов данной группы к задачам принятия оперативных решений. В третьей группе методов компромиссное решение определяют путем установления определенных весовых соотношений между локальными критериями или путем назначения допустимых значений всех локальных критериев, кроме одного, главного. Наиболее распространенный способ скаляризации состоит в формировании общего критерия в виде завершен- ной суммы £(х) = £х,£(,) (х) max, = I, (4.4) 5=1 где - весовые коэффициенты важности критериев. Задача определения весовых коэффициентов не менее сложна, чем за- дача выбора приоритетов или уступок, ее решают чаще всего путем экс- пертных оценок. Достоинством же данного метода является то, что реше- ние, удовлетворяющее экстремуму критерия (4.4), является одновременно и Парето-оптимальным. Наиболее широко этот метод распространен при решении экономических задач. Кроме того, с позиции этого метода можно трактовать проблемы выбора весовых коэффициентов в задачах аналити- ческого конструирования оптимальных регуляторов. В задачах проектирования технических систем и систем управления условия безаварийной работы объекта и ограничения на исполнительные органы позволяют сравнительно легко сформировать допустимые значе-
Глава 4. Задачи принятия решений на расширенных множествах 567 ния всех скалярных критериев Е(,), при достижении которых объект на- ходится в нормальных условиях эксплуатации и удовлетворяет техниче- ским условиям достижения цели своего функционирования. Следователь- но, при известных значения Е{ч) наиболее простым решением проблемы скаляризации является отыскание такого решения, которое удовлетворяет ограничениям Е1чУ(.х)2Е™, q = KL. (4.5) Недостатком такого способа скаляризации является то, что полученное решение может не быть Парето-оптимальным. При E(I) =Е(1)(е(2)*) и £(?) _ £(2) (e(|)‘J условиям задачи удовлетворяют все решения, попа- дающие в область RAB, но из них Парето-оптимальными будут лишь те, которые соответствуют кривой АВ (см рис. 4.1). Чтобы избежать этого недостатка, от задачи (4.5) переходят к так назы- ваемой задаче пороговой оптимизации. Для этого из всего множества кри- териев выделяют единственный (наиболее важный или произвольно взя- тый) критерий, а остальные сводят в систему ограничений типа (4.5). В ре- зультате получают задачу пороговой оптимизации Е(1)(х)->тах, V ' ___ (4.6) Е(,,(х);>еЧ g = 2,L, решение которой принадлежит области Парето. Легко убедиться в том, что для случая, изображенного на рис. 4.1, решение задачи Е(0(х)-^ шах, Е(2)(х)йЁ<2) определяется точкой В и принадлежит области Парето. Метод пороговой оптимизации будем использовать далее как основу для построения эффективных вычислительных процедур принятия опера- тивных решений. Рассмотрим методы скаляризации четвертой группы, основанные на введении тем или иным способом идеального (утопического) решения и на приближении к этому идеальному решению. Наиболее часто идеальное решение задают в пространстве L максимизируемых критериев утопиче- ской точкой с координатами Ет',Ет* Е19Г EtL}*, где E(4i* - мак- симальное значение q -го критерия, полученное без учета остальных кри- териев (q = l.L ). В качестве меры приближения искомого решения к идеальному в са- мом общем случае применим норму (4.7)
568 _____________Принятие решений в системах управления. Чает», jy для которой показатель р зависит от сущности и сложности конкретной задачи оптимизации. Довольно широко распространен критерий близости в виде квадрата еаклидовой нормы [55] £(x)»£{[£UW£‘”‘]-1}2. (4.8) ?=i Таким образом, при введении утопической точки (см. рис. 4.1, точка S) решение задачи распадается на два этапа: 1) определение оптимальных значений каждого скалярного критерия не- зависимо от остальных критериев; 2) решение задачи минимизации отклонения от утопической точки по критериям (4.7) или (4.8). Задачи оптимизации на этапах 1 и 2 могут отличаться по своей матема- тической форме, что может привести к дополнительным вычислительным трудностям. Если скалярные задачи оптимизации, решаемые на первом этапе, суть задачи линейного программирования, то на втором этапе появ- ляется необходимость решения задачи квадратичного программирования [55]. Тем не менее идеи метода скаляризации путем приближения к иде- альному решению далее будем использовать для построения эффективных алгоритмов принятия оперативных решений на расширенных множествах. Вторым широко распространенным способом формирования идеальной точки является выбор в качестве ее координат допустимых значений каж- дого скалярного критерия q = 1,L . На рис. 4.1 такой точкой является точка Н. На втором этапе вместо минимизации нормы (4.7) или критерия (4.8) ищут решение, максимально удаленное в смысле заданной нормы от сформированной таким образом идеальной точки. В качестве нормы мо- жет быть использована одна из норм в формуле (4.7). Этот подход приме- няют для задач оптимального формирования параметров технического за- дания на изготовление какого-либо изделия; он обоснован тем, что при на- значении таких параметров повышается вероятность выпуска годных из- делий [44]. В задачах принятия оперативных решений этот метод пока не нашел применения. 4.3. Векторная оптимизация на основе принципа сложности Традиционный подход к проблеме поиска оптимальных решений, тре- бующий нахождения единственного оптимального решения, называют оп- тимизацией в точке. В современных системах, управления, особенно при наличии свойств многообъектности и иерархичности структуры, при жест- ких ограничениях на время решения, требуется получить не оптимальное решение, а решение, удовлетворяющее заданной системе ограничений. Точно так же, но по другим причинам, связанным с существованием век-
глав» 4. Зялдчи принятия решений на расширенных множествах 569 ооных показателей эффективности, требуется получить не оптимальные, а допустимые решения при проектировании систем управления и других технических систем. Такой подход называют оптимизацией в области. Примером этого подхода может служить задача поиска допустимых реше- ний, удовлетворяющих условиям (4.5). Однако решение, найденное на основе учета одних только требований (4.5), может не оказаться Парето-оптимальным, поэтому были использова- ны методы пороговой оптимизации. Эффективность этих методов можно увеличить, если использовать концепции принятия решений на расширен- ных множествах и оценки сложности. Для изложения этого подхода сфор- мулируем в виде утверждений следующие исходные положения, введен- ные в работах [47,61]. Утверждение 4.1. Необходимым условием решения задачи векторной оптимизации является принадлежность решения области Парето. Данное утверждение следует рассматривать как постулат. Его смысл очевиден: нельзя говорить о том, что решена задача векторной оптимиза- ции, когда не доказана принадлежность найденного решения области Па- рето или не применен такой метод оптимизации, который гарантирует Па- рето-оптимальность искомых решений. Утверждение 4.1 можно было бы специально и не формулировать, если бы не было большого числа публи- каций, в которых это условие нарушалось. Утверждение 4.2. Если решение задачи пороговой оптимизации E(l)(x)-^max, Е<”(х)>Е(?), q = 2,L (4.9). существует и является единственным, то это решение Парето-оптимально. Для доказательства данного утверждения достаточно установить, что максимизация первого критерия проводится в области, ограниченной (L-1) -й гиперплоскостью, и в этой области существует решение х*, об- ращающее в максимум Е(1)(х). Поскольку это решение единственно, то оно и Парето-оптимально, так как любая вариация х , даже улучшающая значения других критериев, ухудшает значения первого. В тех случаях, когда существует не одно единственное, а множество оптимальных решений задачи (4.9), можно утверждать, что на множестве этих решений существует хотя бы одно Парето-оптимальное. Для поиска этого (этих) решений необходимо построить специальные дополнительные процедуры. Утверждение 4.3. Множество скалярных критериев, формирующее векторный критерий оптимизации, на этапе постановки задачи может быть дополнено любым новым критерием. Это утверждение затрагивает вопрос полноты системы критериев и подчеркивает субъективный характер процедур формирования векторного критерия и принципов скаляризации.
570 Принятие решений в системах управления. Часть IV Субъективный характер принципов скаляризации связан не только с субъективизмом методик выбора весовых коэффициентов или пороговых значений критериев в процессе экспертного оценивания (диапазон весовых коэффициентов и порогов существенно зависит от состава экспертов)! но и с субъективизмом любого количественного сопоставления разнородных по своей физической сущности показателей. Из этого утверждения следует, что ни один из принципов скаляризации не может иметь перед другими прин- ципиальных преимуществ. Преимущества могут носить вычислительный, аппаратный или какой-нибудь другой не принципиальный характер. Прежде всего, заметим, что формирование векторного критерия столь же субъективный процесс, как и выбор метода скаляризации. Дайке выбор формы единственного критерия для однокритериальной оптимизации не представляет в этом отношении исключения. Так, например, использова- ние широко распространенного в статистической динамике систем управ- ления критерия минимума среднего квадрата ошибки имеет как положи- тельные, так и отрицательные стороны, не поддающиеся количественной оценке [57]. Максимальное число скалярных критериев, из которых может быть сформирован векторный критерий, по-видимому равно суммарному числу управляющих и выходных параметров управляемого процесса. При расчете систем управления число критериев обычно стремятся уменьшить. Сам по себе факт добавления нового критерия к выбранной системе критериев еще не означает изменения решений, получаемых относительно решений, най> денных ранее. Эти изменения связаны, прежде всего, со скаляризацией, на- значением весовых коэффициентов или порогов. Очевидно, что существуют такие значения весовых коэффициентов или порогов для нового и прежнего векторного критерия, которые обеспечат одни и те же результаты. Действительно, пусть х* есть решение задачи (4.9) и введен новый скалярный критерий E(L+1). Легко показать, что решение задачи порого- вой оптимизации Е(М\х) -> max, Е<п(х)>Е°’(х*), Е(?\х)^Е(,), q = 2,L, удовлетворяет всем свойствам решения исходной задачи (4.9), так как одно из ограничений не нарушено, а требования по первому критерию 1*И тены путем введения дополнительного ограничения. Уч- Иными словами, смысл утверждения 4.3 состоит в том, что всегп введении нового критерия можно добиться того, что результаты д нутые по старым критериям, не будут ухудшены. ’ ДОстцГ- Использование выводов данного утверждения может быть Полези многих случаях. Пусть, например, необходимо решить следующую Ым Во векторной оптимизации: 3аАачу E(l) =ayfa-> max, Ет = -> max
ртаяа 4. Задачи принятия решений на расширенных множествах 571 при известном отношении между критериями (*£(1))2 + (аЕ(2>)2 = (ай)2. Область Парето для этой задачи изображена на рис. 4.2 в виде кривой „ -=(1) -(2) е АВ. Наличие пороговых значений Е и Е позволяет сузить область возможных решений по кривой CD. Предположим теперь, что параметр и характеризует затраты на управление, которые всегда полезно уменьшать. Введем скаляр и в систему критериев и получим новую задачу; Е(1) —> max, Е(2) -> max, Е(3) = -и -> max. Если ограничить область решения кривой CD, то данную задачу можно привести к следующей задаче пороговой оптимизации: Е(3)->щах, Ев)>Ё0), Еа)*Ё(2>, решить которую чрезвычайно просто. Необходимо вычислить значения и при Е(|) = Е(1) и Е(2) - Е(2) и выбрать из них наименьшее. Утверждение 4.4. Задача оптимизации в области, требующая выполне- ния ограничений типа (4.5), порождает L задач пороговой оптимизации Е(г)(х) —> max, Е(?)(х) > Е(<?), q = 1,L; q # г, (4.10) и решение каждой из них удовлетворяет ограничениям (4.5). Задачи (4.10) будем называть сопряженными. Доказательство данного утверждения легко построить на том очевид- ном факте, что если существует хотя бы одно решение, удовлетворяющее ограничениям (4.5), то в ходе решения любой из задач (4.10) также будет найдено решение, удовлетворяющее (4.5), так как всегда выполняется ус- ловие тахЕ(г)(х)>Е(л). Практическая значимость утверждения 4.4 весьма велика. Рассмотрим пример двухкритериальной оптимизации (см. рис. 4.2). Со- ставим две задачи; E(l)-»max,E(2)SE(2), E(2)->max, E(IiSE0). Для первой из них в силу утверждения 4.2 решение будет соответство- вать точке D (см. рис. 4.2), для второй - точке С. Если безразлично, какое именно из Парето-оптимальных решений нужно выбрать, то следует ис- пользовать ту задачу, решение которой получить проще. Пусть необходимо решить первую задачу, но по каким-то причинам, суть которых нам сейчас не важна, получить решение затруднительно. Тот же самый результат можно получить, решая не первую, а вторую задачу, если в качестве Ет взять EfIi(x‘), полученное при решении первой за-
572________________Принятие решений в системах управления. Частг ц. дачи. Разумеется, значение Ew(x*) заранее неизвестно, но если по ра решения второй задачи действительно много проще, чем первой то жет оказаться эффективным решение набора задач следующего вида- М°' Ет(х)-*тах., Е(,)(х)> Е° + клЕ<1), к =0,1,2,..., где Е° - начальное значение порога по Е(1); к - текущий множится Д£(1) - приращение первого критерия. Рис. 4.2. К пояснению сопряженных задач Для систематического выбора сопряженной задачи, решение которой наименее трудоемко, и организации процедуры получения искомого ре- шения можно применить принцип минимальной сложности. Будем понимать под сложностью решения задачи векторной оптимиза- ции, как и ранее, одну из характеристик любого из трех уровней оценок сложности. В качестве оценок нижнего уровня удобно использовать ха- рактеристики алгоритма оптимизации, реализованного на ЭВМ, т.е. объем необходимой памяти или время машинного счета, которое для q -й сопря- женной задачи обозначим Wtl4>. Вычислив сложность решения каждой сопряженной задачи, можно по- строить дискретную шкалу сложности W, = {w,(,) : W,(4) < W/«+1); q = 1Д}, (4.11) и по ней затем выбрать минимальную по сложности решения задачу поро- говой оптимизации. С помощью тех же самых процедур оптимизации, но дополнив шкалу сложности, можно решать не только задачи оптимизации в области типа (4.5), но и задачи, первоначально сформулированные как задачи пороговой оптимизации (4.9). Для этого необходимо для всех или хотя бы для одной из сопряженных задач сформулировать начальное значение порога опти- мизируемого критерия Е°, его приращение ДЕ(1) и получить ожидаемую оценку для предельного числа итераций к .
принятия решений иа расширенных множествах 573 ''поскольку в ряде случаев, особенно для принятия оперативных реше- - по качественно меняющейся информации, процедуры построения ’"’’’алы сложности могут оказаться недопустимо долгими, целесообразно ^сТи оценки времени построения шкалы сложности и подготовительный * ап на котором определять, стоит ли выбирать минимально сложную за- Эачу или можно ограничиться получением любого удовлетворительного шения. На этом этапе шкала сложности будет иметь вид ₽6 W,4w,c,W,(< (4.12) где W,c - время, требуемое для построения шкалы и решения минимально сложной задачи; Wr(a) - время получения удовлетворительного решения некоторым базовым алгоритмом. Использование принципа минимальной сложности для решения задач векторной оптимизации не ограничивается применением только метода пороговой оптимизации. Широкие возможности открываются и при выбо- ре метода решения и способа скаляризации из совокупности существую- щих, а также в тех случаях, когда решение каждой из рассматриваемых за- дач можно проводить не абсолютно точно, а с заданной погрешностью. При этом каждый или некоторые из элементов шкалы сложности будут иметь внутреннюю шкалу. Особое значение процедуры векторной оптими- зации на основе принципа сложности имеют для принятия решении на расширенных множествах. 4.4. Задачи принятия решений по векторному критерию НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ Рассмотренные ранее в параграфе 2.1 задачи принятая р* оп. сширенных множествах относились к тем случаям, кот» опти- мт»3аЦИИ был скаляРНым. Проанализировав проблемы ^цряжен- н ЦИИ и оптимизации в области, а затем СФ°РМИР°® йпеМ к формули- р ОвкГДач В рамках заДач пороговой оптимизации, п0 ваПорно- Му принятия решений на расширенных мно щений<^ерлКа определяет задачу отыскания имеется не Обычной классической постановке. Предположим, енная оценочная _- (4.13) П С(<?):УхНх[/хХ-»Е(,)’^sl,L дикции толе' ^^!НГЛЬН0 к «точным функциям можно зада Ф Ти (Допустимости): (414) Тя D.w-.YxH-+Ew, q = воКуВноСТьфУйЮ1ИЙ ^о^азом, вместо шестерки (1.9) получаем
УПравленияЛЬ^р^ М.15) 574______________Принятие решений в системах < P,Gw,Dw,y°,Uf . которую также будем называть шестеркой. Утверждение 4.5. Введение в задачи принятия решений на расширен ных множествах дополнительных критериев типа (4.13) аналогично пре образованию этих задач в задачи векторной (многокритериальной) опти'. мизации и требует решения проблемы скаляризации векторного критерия" Для доказательства утверждения рассмотрим возможные варианты со- отношений между числом оценочных функций и функций толерантности Случай 1. Число функций толерантности (4. ] 4) равно числу оценочных функций (4.13). Это наиболее простой случай, в котором решается задача минимизации сложности на оценках (2.12) и возможно формирование L сопряженных задач для выбора из иих минимально сложной. Случай 2. Число функций толерантности (4.14) на единицу меньше числа оценочных функций (4.13). Очевидно, что в этом случае допустима постановка задачи минималь- ной или ограниченной сложности в зависимости от того, что будет избра- но в качестве основного критерия. Случай 3. Число функций толерантности (4.14) меньше числа оценоч- ных функций (4.13). Проблема скаляризации векторного критерия (для локальных критери- ев, по которым не заданы допуска) возникает здесь в явной форме. Допус- тимы все подходы, рассмотренные выше. Случай 4. Функции толерантности не заданы. - Очевидно, что этот случай сводится к предыдущему после введения первичных показателей качества типа (2.5). Предположим теперь, что в задаче принятия решений с векторным кри- терием имеется не только набор локальных критериев, но множество таких наборов. Рассмотрим сразу наиболее общий случай принятия решения на расширенных множествах, когда в шестерке (4.15) все множества расши- ренные, т.е. задана шестерка <P,G<4),D(<7>, Y,U.H> . (4.16) Задача 4.1. Общая задача принятия решений на расширенных мно- жествах но векторному критерию. Итак, задана шестерка (4.16) и первич- ные показатели качества (2.5). Поставим следующую задачу: найти такие подмножества У'сУ, {j! cU, cG,D(,) cD и элемент P'cP, что для любых элементов у'е Y' и h'e Н найдется элемент и соответствующий и' элемент х', при которых тройка (у',и',х')е 5 , т.е. выполняются пер- вичные показатели качества (2.5) и, кроме того, условие Z(P'.G(4>'.D(«>'iy',t//',H') R Z(.P,Gi4\Dl4i,Y,Uf ,Н). (4.17)
г а 4, Задачи принятия решений на расширенных множествах 575 Здесь Z - показатель, характеризующий «внутренние» свойства про- цедуры принятия решений (сложность), R - отношение порядка на оценках Z. Очевидно, что данная задача, обобщающая задачу 2.8, является и более сложной по процедуре решения, но в то же время ее постановка открывает дополнительные возможности для получения более эффективных решения хотя бы за счет того, что расширяется множество рассматриваемых аль- тернатив и имеются дополнительные возможности минимизации сложно- сти за счет процедур векторной оптимизации. 4.5. Задачи принятия оперативных решений по векторному критерию Введение векторного критерия открывает дополнительные возможно- сти для построения алгоритмов принятия оперативных решений. Напомним, что в задачах принятия оперативных решений сложность оценивается временем работы алгоритма, которое ограничено и зависит от текущей ситуации. С учетом того что вместо одной оценочной функции имеется L таких функций и L функций толерантности, поставим следую- щие задачи. Задача 4.2. Формирование шкалы сложности для выбора алгорит- ма принятия оперативных решений. Задача характеризуется шестеркой <P,Gf,),£>(,),Y,U,H>. (4.18) Поскольку число функций толерантности равно числу критериев, т.е. решают задачу оптимизации в области, основным критерием становится критерий сложности, построенный иа оценках типа (2.12), причем могут быть использованы все три уровня формализации сложности, если оценки на каждом уровне пропорциональны времени решения задачи. Это условие вместо оценки (2.12) запишем в виде Z'(P,G<?),Z)(”,y,l/,//). (4.19) Итак, заданы расширенные множества, объединяемые шестеркой (4.18). Требуется найти такие подмножества F'cP,G(?) cG(,),T'c Y,l/^ cU и H'cH, в которых для любого у'е У' существует и'е (М и преобразова- ние Р':у'хи'хЯ'—>х'такое, что для всех heH' выполняются условия G(’r2D(?), = U и обращается в минимум оценка (4.19). В результате решения набора задач 4.1 строят шкалу сложности, анали- зируют полученные алгоритмы принятия решений и оценки (4.19) перево- дят в оценки сложности нижнего уровня Wtj (i - номер алгоритма в шка- ле сложности). После этого назначают единственную оценочную функцию
576 Принятие решений в системах управления. Част, ц, G и формируют собственную задачу принятия оперативных решений (гл. 2, задача 2.10). 4.6. Задача выбора с аддитивным и максиминным критериями В качестве примера эффективности подхода к проблеме векторной он- тимцзадии на основе принципа сложности рассмотрим (см. гл. 3) задачу выбора, но с двумя критериями: традиционной аддитивной и максиминной форм. Максиминный критерий Ew = min PijXfj -4 max (4.20) отражает необходимость выбора таких элементов из матрицы Р по- рядка п, наименьший из которых был бы максимален. Физически матрицу Р можно трактовать как матрицу вероятностей успешного выполнения i -м исполнителем j -й работы. Второй критерий имеет традиционную для задачи назначения аддитив- ную форму ЕЕа<л <421> 1=1 >1 Ограничения (3.2) и (3.3) остаются в силе. Рассмотрим два возможных случая формулировок задачи. Случай 1. Заданы допустимые значения по каждому критерию, т.е. требуется произвести оптимизацию в области, ограниченной условиями Е(1)£Ё0), £(2)<Ё(2). (4.22) Наличие условий (4.22) позволяет в соответствии с подходом на основе принципа сложности сформировать две сопряженные задачи. Сопряженная задача 1. Е(1) -» max, £(2) <. Е™. В связи с отсутствием эффективного метода решения задачи выбора с максиминным критерием и, самое главное, отсутствием способа формиро- вания множества решений, удовлетворяющих ограничению £(2>££( \ можно использовать следующую стратегию решения первой сопряженной задачи: 1) максимизировать критерий £(1) и рассчитать значение £<2), соответствующее полученному решению; 2) если £<2) > £( }, то организо- вать процедуру перебора, состоящую в последовательном «ухудшении» решения по первому критерию и в проверке допуска по второму. Слож- ность решения этой задачи приближается к сложности метода полного пе- ребора: И'м=^1)Л3+Т(21)л!,
4. Задачи принятия решений на расширенных множествах 577 где - коэффициент времени, характеризующий процесс максимизации 1-го критерия методом, аналогичным венгерскому методу или методу Ма- ка; - коэффициент времени, характеризующий один этап в процессе перебора. Сопряженная задача 2. Процедура решения этой задачи чрезвычайно проста: 1) из матрицы А исключить те элементы, которым в матрице Р соответствуют элементы р(. . < Ет; 2) на разреженной таким образом матрице А отыскать мини- мум второго критерия. Сложность второй задачи Wf2 =т(12)п2+Т[1)п3, где т'2> - время, затрачиваемое на проведение одной операции сравнения и исключения элемента из матрицы. Таким образом, при наличии ограничений (4.22) целесообразно решать сопряженную задачу 2. Случай 2. Задано допустимое значение только второго критерия, т.е. необходимо решить сопряженную задачу 1. Принцип сложности позволяет предложить следующую стратегию ре- шения: решить набор сопряженных задач вида Е(2) ->min, E(1>>e°-UE(1), к = 0,1,2,..., где е° - начальное значение искусственно введенного допуска по первому критерию; ДЕ(1) - шаг квантования первого критерия; к -текущий индекс. Поскольку оценки сложности сопряженных задач таковы, что даже для ^•кратного решения сопряженной задачи 2 при больших значениях к вы- полняется условие IV, ( > kWt 2, целесообразность применения предложен- ной стратегии очевидна. 4.7. Многокритериальная задача выбора С АДДИТИВНЫМИ КРИТЕРИЯМИ Рассмотрим многокритериальную задачу выбора с аддитивными по форме критериями, в которой вместо единственного критерия (3.1) имеет- ся Lкритериев = j?£aWx.j ->min, q = 1,L. (4.23) 1=1 J=1 38 Зак. 108
578 ______________Принятие решений в системах управления. Част», ц. Ограничения (3.1) и (3.2) остаются в силе. Поскольку допустимые значения критериев не заданы, наименее ело» ным методом решения проблемы скаляризации критериев (4.23) являете метод, основанный на приближении к идеальной (утопической) точке. Проведем предварительное нормирование критериев (элементов мат- риц А(,)). Для этого в каждой матрице найдем максимальный элемент аМт и преобразуем остальные элементы по формуле а(9) = aty Воспользуемся широко распространенным методом приближения к утопической точке (см. формулу (4.8)). Алгоритм 4.1. Разобьем его на этапы. Этап 1. Решение L скалярных задач выбора и определение компонен- - (о)* тов оптимальных скалярных решении д.у . Этап 2. Формирование L матриц квадратов отклонений с элементами aij ’ (4.24) причем операции (4.24) проводятся последовательно или только по стро- кам нормированных матриц Л(?), или только по столбцам тех же матриц, так как в каждой строке и в каждом столбце находится только один опти- мальный элемент. Этап 3. Формирование обобщенной матрицы А06 Путем суммирова- ния матриц А. Этап 4. Решение задачи выбора для обобщенной матрицы. Анализируя данный алгоритм, нетрудно убедиться в том, что квадрат евклидовой нормы, используемый в качестве меры приближения к утопи- ческой точке в алгоритме 4.1, при решении многокритериальной задачи выбора не является самой удачной мерой. Это связано с тем, что вычисле- ние по формуле (4.24) нивелирует элементы а$, меньшие чем а$*, но не вошедшие в оптимальные скалярные решения, хотя эти элементы могут оказаться эффективными в новом векторном решении. Поэтому вместо квадрата евклидовой нормы для задачи выбора с векторным критерием це- лесообразно использовать норму О (4-25) 9=1 Построим следующий алгоритм. Алгоритм 4.2. Разобьем его на этапы. Этап 1. Аналогичен этапу 1 алгоритма 4.1. Этап 2. Формирование L матриц отклонений с элементами Л (9) -5 <9) _я(9)‘ “U “i.j aiJ Этап 3. Аналогичен этапу 3 алгоритма 4.1. Этап 4. Аналогичен этапу 4 алгоритма 4.1.
£д?м 4, Задачи принят™ „ «то Помимо Л™ Решений на расширенных множествах __________21Z. ритма 1 и болрре^еННЫХ пРеимУЩеств алгоритм 4.2 отличается от алго- Одиако болыи^Г™МВРеМеНеМСЧета- “но идеологии ппмиа-т 6 преимУЩества имеет алгоритм 4.3, построенный по чае «оасшипр» " решений на расширенных множествах. В данном слу- к vTonuap^J5 г ИЮ>> подвеРгается не мера приближения искомого решения Оппе ТОЧКе’а сама утапинеская точка. р деление 4.2. Биутопической точкой в пространстве критериев на- зовем точку с координатами Е(?)”, q = TJL, представляющими собой ИД(е^изиР°ванные значения скалярных критериев, причем такие: 1) что & — Е 4 для всех q (в задачах минимизации), 2) что сложность вы- числения не превышает сложности вычисления оптимальных значений скалярных критериев. В качестве биутопической точки для задачи выбора с аддитивными (как максимизируемыми, так и минимизируемыми критериями) может быть взята точка, для которой можно определить как сумму макси- мальных элементов каждой строки матрицы (в задачах минимизации - сумму минимальных элементов). Ее вычисление существенно проще, чем оптимальное решение задачи. Если все скалярные критерии задачи выбора подлежат минимизации, то в качестве биутопической точки целесообразно взять точку начала ко- ординат пространства критериев. В этом случае необходимость в процеду- рах скалярной минимизации отпадает и может быть создан очень эффек- тивный с вычислительной точки зрения алгоритм. Алгоритм 4.3. Разобьем его на этапы. Этап 1. Суммирование элементов всех L нормированных матриц и вычисление таким способом обобщенной матрицы. Этап 2. Решение задачи выбора для обобщенной матрицы. Для подтверждения эффективности предложенного метода введения биутопической точки были реализованы все три алгоритма. В табл. 4.1 приведены результаты решения задачи выбора с пятью кри- териями для матриц 100-го порядка, а на рис. 4.3 те же результаты отраже- ны в форме гистограммы, причем нижние значения определяют оптималь- ное решение скалярной задачи Ем\ а верхнее - соответствующий ком- понент Е(9) в общем векторном решении. Для расчетов во всех случаях в качестве метода оптимизации был использован метод Мака. Расчеты вы- полнены на IBM РС/АТ-286 в среде Турбо-Паскаль версии 5.0. Поскольку все критерии имеют одинаковую математическую форму (аддитивную) и нормированы, можно сопоставить результаты работы ал- горитмов, сравнив сумму компонентов локальных критериев, формирую- щих векторное решение. Для алгоритмов 4.2 и 4.3 эти суммы одинаковы и составляют 98,164. Для алгоритма 4.1 эта сумма 101,514, что подтверждает его полную эффективность и по качеству получаемого решения, и по вре- мени счета. Использование приближения к биутопической точке на основе 38*
580________________Принятие решений в системах управления. Часть IV алгоритма 4.2 приводит к сокращению времени машинного счета пример, но в L+1 раз. Следует обратить внимание на то, что для задачи выбора с матрицами 100-го порядка этим методом получено решение задачи век- торной оптимизации за время, меньшее, чем минимальное время решения одной скалярной задачи. Алгоритм 4.1 1 Критерий 1 I Критерий 2 | Критерий 3 | Критерий 4 , Критерий 5 Скалярное решение , _ Сумма затрат 1,469 1,466 1,457 | 1,638 1,791 Воемя счета 123,187 111,538 129,945 1 123,462 112,857 Векторное решение Сумма затрат 21,647 21,135 19,311 21,302 18,119 Время счета 710,110 Алгоритм 4.2 Критерий 1 1 Критерий 2 Критерий 3 Критерий 4 . Критерий 5 Скалярное решение Сумма затрат 1,469 1,466 1,457 1,636 1,719 Воемя счета 123,187 111,538 129,945 123,462 112,857 Векторное решение Сумма затрат 19,210 19,927 19,482 19,984 19,661 Время счета 688,077 Алгоритм 4.3 Критерий 1 Критерий 2 | Критерий 3 Критерий 4 Критерий 5 Скалярное решение Сумма затрат 1,469 1,466 1,457 1,636 1,719 Время счета 123,187 111,538 129,945 123,462 112,857 Векторное решение Сумма затрат 19,210 19,927 19,482 19,984 19,661 Время счета 109,011 Алгоритм 4.3 - В Алгоритм 4.2 - * Алгоритм 4.1 - А Критерий S Критерий 1 Критерий 2 Критерий 3 Критерий 4 • • 1 Д Л А • ▲ МАА • ▲ J М Ж А ДВА М А А д лф Ak ‘ И Ж А д ж А А А А М А А 1^1 • ▲ МАА д А А МАА > М А М А А д А А и А А । Д А Ж д д А МАА МАА д А А ▲ ДЖА Маа М А А Ж Ж А ДДА И Ж А Д Ж А д • д ' ® А А М Ж А д ф А М А а д д А 1 Н А А М А А А ж д д д А LULA. М А JLUL «- 21.647 шаг 1.346 Рис. 4.3. Результаты векторной оптимизации для задачи выбора с матрицами 100-го порядка
j Задачи принятия решений на расширенных множествах 581 Гла®*_-—-------- ------------------------------------------— ^4.8. Интерактивная система CHOISE для проектирования АЛГОРИТМОВ ПРИНЯТИЯ РЕШЕНИЯ Идя исследования эффективности и автоматизации процессов проекги- ования А.В. Смирновым и А.А. Щелковым под руководством авторов была Роздана интерактивная система CHOISE, в которой реализован набор алго- ритмов решения задачи по скалярному и векторным решениям. Система вы- полнена в системе Турбо-Паскаль версии 5.0 на IBM PC/AT - 286. Для формирования матриц исходных данных система содержит генера- тор псевдослучайных чисел, распределенных по равномерному закону. Предусмотрены возможность варьирования диапазона генерируемых чи- сел а также коррекция полученных матриц и заполнение их вручную. В проведенных на систем CHOISE статистических исследованиях по- рядок матриц достигал 100. С помощью системы можно решать как класические, так н многокрите- риальные задачи выбора. Для решения задач скалярной оптимизации в CHOISE реализованы: метод Мака, метод кратчайшего увеличивающего пути (см. п. 3.4.2), метод минимального элемента, метод Фогеля, метод поэтапного выбора, гибкий алгоритм (см. п. 3.6.2). Каждый из методов можно использовать как для решения классической задачи выбора, так и для решения объединенной задачи выбора. Для этого в системе CHOISE предусмотрены специальные датчики времени расчета элементов матриц исходных данных и таймеры. Для решения задач векторной оптимизации с аддитивными критериями в системе CHOISE реализованы все три алгоритма (см. параграф 4.7), при- чем скалярные задачи и задачу выбора с обобщенной матрицей можно ре- шать любым из перечисленных выше шести методов скалярной оптимиза- ции. Число критериев можно варьировать в пределах от 2 до 5. 1) 2) 3) 4) 5) 6)
582 Принятие решений в системах управления ГЛАВА 5 УЧЕТ ФАКТОРОВ НЕОПРЕДЕННОСТИ В ЗАДАЧАХ ПРИНЯТИЯ ОПЕРАТИВНЫХ РЕШЕНИЙ 5.1. Принятие оперативных решений в условиях неопределенности При анализе подходов и методов принятия решений в условиях неоп- ределенности будем учитывать помимо качества принимаемых решений следующие требования, порожденные спецификой задач принятия опера- тивных решений и использованием этих задач в системах управления: 1) «оперативность» принимаемых решений, т.е. время, затрачиваемое на процедуру принятия решения; 2) сложность получения исходной для принятия решений информации и время, затрачиваемое на получение информации; 3) сложность используемых алгоритмов получения исходной информации и алгоритмов принятия решений, выраженную не временем решения, а такими показателями, как объем требуемой памяти, надежность алго- ритмов и т.п. Для учета таких показателей при анализе методов кон- кретные оценки можно и не вычислять, если есть достаточные основа- ния для относительного качественного сравнения подходов. 5.1.1. Наихудшие оценки и робастное программирование Использование наихудших оценок, как и робастное программирова- ние, ориентировано на те задачи принятия решений в условиях неопре- деленности, в которых известны диапазоны возможных значений пара- метров задачи. Пусть, например, необходимо выбрать решение на множестве исходов xteXf, / = й. <51) При этом известны критерии выбора
(5.2) (5.3) - (5.3) иеоб- __________________________________________________583 и диапазоны Ноамов ,тч^'^ CsxiSdr. /=й. ходимХ^ит^Хей™ наихудших °ценок) задачу (5П E(d™>)->min. (5.4) адача (5.4) является детерминированной задачей принятия решений, сложность решения которой после формирования ограничений (5.3) ми- нимальна. Следует учитывать также, что обычно процедуры формирова- ния ограничений (5.3) являются чрезвычайно простыми и поэтому такой подход можно широко использовать, особенно в условиях жестких огра- ничений на время принятия решений. Большой недостаток этого подхода - невысокое среднее качество принимаемых решений, обусловленное сущ- ностью подхода — ориентацией на наихудшее из возможных проявление неопределенности. Развитием подхода, основанного на применении наихудших оценок, является робастное (грубое) программирование, которое начали изучать после появления работы Сойстера в 1973 г. Применительно к задачам ли- нейного программирования оно достаточно подробно изложено в книге [41]. Суть этого подхода состоит в том, что формируется область возмож- ных решений, ограниченная всеми возможными проявлениями неопреде- ленности, после чего отыскивается наилучшее решение в этой области. Для задачи (5.1) - (5.3) область возможных проявлений неопределенно- сти и область возможных решений определяются системой ограничений (5.3), поэтому задача робастного программирования имеет вид E(x)-+min, d^x^d™, i = U (5.5) Очевидно, что сложность решения этой задачи из-за появления ограни- чений возрастает и вероятность того, что область допустимых решений не окажется пустой, мала. 5.1.2. Теоретико-игровые методы В частной группе методов теории игр неопределенность трактуется как возможность некоторого игрока с противоположными или нейтральными интересами (игры против природы) выбирать по своему усмотрению зна- чения неопределенных параметров. Эта интерпретация неопределенности унаследована от задач управления боевыми операциями, где игроки имеют ясно выраженные и явно антагонистические интересы, позволяющие четко формализовать критерии каждого игрока, и ценна для управления и приня- тия решений в условиях неопределенности возожностью получения гаран- тируемого результата. Достаточно высокий математический формализм теоретико-игровых методов и существенные результаты, полученные в этой области, делают
584 Принятие .решений в системах управления. Часть IV этот подход одним из основных подходов для формализации задач приня- тия решения в условиях неопределенности. Однако в задачах принятия оперативных решений для систем управле- ния использование теоретико-игровых методов связано с рядом дополни- тельных проблем, одна из которых связана с необходимостью, в общем случае, проведения процедур высококачественной формализации «интере- сов второго» игрока. 5.1.3. Вероятностные методы и стохастическое программирование В условиях появления неопределенности параметров в задачах принятия решений вполне естественным кажется желание провести статистические исследования, установить вероятностные меры проявления неопределенно- сти и использовать их в процедурах принятая решений. На основе такого подхода сформирована целая область научных исследований, получившая название стохастического программирования [76]. В зависимости от способа формализации неопределенности в стохастическом программировании вы- деляют Р -модели (максимизируется вероятность попадания решения в за- данную область), М -модели (требуется обеспечить экстремум математиче- ского ожидания), и V -модели (минимизируется дисперсия критерия). При- менение методов стохастического программирования к задачам принятия оперативных решений ограничивает то, что в многообъектных распределен- ных системах управления иногда приходится алгоритмизировать такие зада- чи принятия решений, для которых получение полной достоверной стати- стической информации принципиально невозможно. 5.1.4. К -исчисление Применение К -исчисления основано на введеных профессором Ту- ринского университета Е. Кайонелло специальных математических конст- рукций: К -множеств [80]. Рассмотрим некоторое множество X и его подмножества X,. Будем полагать, что X имеет иерархическую структуру в тех случаях, когда ка- ждому подмножеству X,, с X поставлена в соответствие количественная характеристика Л, , обозначающая уровень иерархии в подмножестве уровней j[ie = п). Для количественного описания множества X с учетом иерархии его подмножеств Кайонелло ввел К -множества. Пусть, например, X есть множество людей в возрасте от 20 до 50 лет, X j - подмножество людей в возрасте от 40 до 50 лет, X 2 - в возрасте от 30 до 39 лет и Х3 - от 20 до 29 лет. Присвоим Хр Х2 и Х3 некоторые характеристики иерархического уровня Лр Л2 и Л3 (например, ht =45,
125515^^ , _ ^3?~ТТ5~~~^Е^^РеДенноСти____________________ множество. ’ ЕСЛИ hi >h2, h2 > h3, то строка Х„ Х2, Х3 есть К - Операции объ операции сло'Жез11^(Ивения н пересечения К -множеств вводят аналогично $2* 83 есть так УМНожения чисел в позиционной системе. Пусть X ।, X 2, х ИГе "Множество н для него, как и для К -множества являющёеСя3’кСП₽аВеДЛНво Условие h} > h2 > h3. Тогда К -множество Z , объединением двух этих К-множеств, а ~Zi'22.Z3 = X x,uS2,X3uS3, а л множество v г» 1 1 1 2 J J К -множеств ’ ПРедставЛяющие собой пересечение двух названных онной системе)**11* ^П° аналогии с операцией умножения чисел в позици- у = Х1п51, XlnS2\jX2r^Si, XiryS3'^X2nS2<jX3r>Si, X2nS2uX3nS2, X3nS2. Операции объединения и пересечения К -множеств являются коммута- тивными, подчиняются ассоциативному и дистрибутивному законам отно- сительно операции объединения, что делает аксиоматику К -исчисления высокоэффективной н вычислительном плане. Теория К -исчисления не получила широкого распространения, хотя имеет серьезные преимущества по сравнению со многими методами, ис- пользуемыми в настоящее время в теории принятия решений. Основной недостаток, ограничивающий применение теории в задачах принятия опе- ративных решений - непроработаиность проблем формализации неопре- деленных параметров К -множествами. 5.1.5. Теория нечетких множеств Понятие и аксиоматику теории нечетких множеств ввел в 1965 г. аме- риканский математик и специалист по теории управления Л. Заде с целью количественного описания трудноформализуемых понятий (в частности, определенных вербально) и количественного описания процессов в усло- виях неопределенности [40]. Пусть X = {х] есть обычное (четкое) множество. Нечетким множест- вом А = {х,ц(х)} называют множество, состоящее из совокупности всех упорядоченных пар, в которых хе X есть элемент четкого множества X , ц. х М есть оценка принадлежности х множеству А, а М - про- странство принадлежности. Характеристика ц носит название степени принадлежности или функ- ции принадлежности и изменяется в интервале [0,1]. Если М = {0,1], то X - обычное четкое множество, из которого должны быть исключены те элементы хе X , для которых ц(х) = 0. Если М =[0,1] - интервал, то М _ частично упорядоченное множество и, в частном случае, - решетка. 37 Зак. 108
Принятие решений в системах управления. Часть IV В течение достаточно долгого времени дискуссировали по поводу того, какой же физический смысл должны иметь степени принадлежности, Наи- более общая их трактовка, очевидно, аналогична вероятностям и, в частно- сти, субъективным вероятностям. На основании этого некоторые вообще склонны отоадествлять вероятности и функции принадлежности. Одно из достоинств теории нечетких множеств: если известны вероятности появ- ления элементов х е X, то их можно использовать как степени принад- лежности. Однако аксиоматика теории нечетких множеств существенно отличает- ся от аксиоматики теории вероятностен и позволяет использовать более простые вычислительные процедуры. Чтобы убедиться в этом, достаточно рассмотреть операции объединения и пересечения нечетких множеств. Пусть нечеткое множество Z есть объединение нечетких множеств А и В. Тогда степень принадлежности p,(z) элемента zeZ вычисляют по формуле g(z) = max{n(a),n(b)}, (5.6) где ае А и be В - элементы, формирующие ze Z. Пусть нечеткое множество V есть пересечение нечетких множеств А и В . Тогда степень принадлежности H(v) элемента v 6 V ц(у) = пйп{ц(д),ц(й)}. (5.7) Аксиоматика теории нечетких множеств и сферы ее использования из- ложены в работах [8,41, 62]. Исключение из многочисленных сфер приме- нение теории нечетких множеств составляют задачи принятия оператив- ных решений, и связано это, по-видимому, с тем , что решение задали на нечетких множествах есть также нечеткое решение (множество). Однако эту проблему, можно преодолеть. Такие преимущества аппарата теории нечетких множеств, как невысокая трудоемкость определения степени принадлежностей и простота вычислительных операций, позволяет сде- лать этот аппарат одним из основных инструментов построения алгорит- мов принятия оперативных решений в условиях неопределенности. 5.2. Задачи принятия решений на нечетких множествах КАК ЗАДАЧИ ВЕКТОРНОЙ ОПТИМИЗАЦИИ Рассмотрим задачу выбора решения на множестве исходов x,eXz, i = l,и, с известным критерием выбора Е(х;) = х, —>min (5.8) и степенями принадлежности ц(х,), определяющими достоверность того, что выбранное значение реально достижимо
Глава 5. Учет факторов неопреденности 587 М(х') = {ц(х():(=Гп}. (5.9) Решение задачи (5.8), (5.9) есть множество на 1<п пар элементов <х,,ц(д;1)>, в которые, во-первых, не вошли те для которых H(*i) = 0, и, во-вторых, те х(- > х,, у которых ц(хг) = ц(л,). Естественно, что использовать такое нечеткое решение в задачах принятия оперативных решений в системах управления не представляется возможным. Пользуясь концепцией принятия решений на расширенных множествах альтернатив будем рассматривать набор степеней принадлежности (5.9) как новый критерий, который целесообразно назвать критерием достовер- ности. Таким образом, от рассматриваемой задачи принятия решений на нечетких множествах можно перейти к задаче векторной оптимизации. Осталось предложить метод скаляризации векторного критерия. Сформируем допустимые значения критерия (5.8) £ и критерия досто- верности ц. В соответствии с принятой методологией формирования за- дач минимальной сложности можно сформулировать две сопряженные за- дачи пороговой оптимизации. Сопряженная задача 1. Найти решение, обращающее в минимум ос- новной критерий (5.8) и обладающее достоверностью достижения на ниже заданной E(xf) = x( ->min, m(Xj)>p.. (5.10) Сопряженная задача 2. Найти максимально достоверное решение, ие превышающее по критерию (5.8) заданного допуска |A(x,)->max, £(х()<£. (5.11) Итак, из задач (5.10), (5.11) можно выбрать задачу минимальной слож- ности. 5.3. Задача выбора с критерием эффективности и вероятности. Подход НА ОСНОВЕ РАСШИРЕННЫХ множеств Предположим, что в результате проведения статистических испытаний неопределенность параметров задачи принятия решений снята и имеются дополнительные характеристики в виде вероятностей выполнения приня- тых решений. Каким образом можно повысить «оперативность» алгорит- мов принятия решений? Рассмотрим классическую задачу выбора (3.1) - (3.3), усложненую на- личием второго критерия, характеризующего вероятность принятия эле- ментами as j из матрицы А их зафиксированных значений. Иными словами, если первый критерий имеет традиционную для зада- чи назначения адддитивную форму 37*
588 Принятие решений в системах управления. Чат п п <’«2) то второй критерий (критерий вероятности) имеет мультипликати форму ВНую п п *<2,=niw (5.13) Такая формализация критерия допустима, если вероятности Р, . »,у ‘«сза» висимы. Критерий (5.13) можно привести к аддитивной форме путем логариф. мирования и получить двухкритериальную задачу выбора с аддитивными критериями, возможности решения которой на основе концепции расши- ренных множеств изложены в параграфе 4.7. Однако более интересным представляется подход, при котором задача с критериями (5.12) и (5.13) модифицируется в задачу, где требуется обеспечить выбор таких элемен- тов решения, минимальная вероятность выполнения которых была бы максимальна. Это означает, что вместо критерия (5.13) необходимо ис- пользовать уже известный нам из параграфа 4.6 критерий (4.20): е(2) = min Р. .х, . —> max. (5.14) Алгоритмы решения задачи выбора минимальной сложности с крите- риями (5.12) и (5.14) изложены в параграфе 4.6. Весьма важно подчеркнуть, что если бы вместо вероятностей Pt были использованы степени принадлежности ц, 7 , все алгоритмы решения задай с критериями (5.12) и (5.14) остались бы справедливыми. 5.4. Задача выбора с нечеткими параметрами минимальной сложности Рассмотрим задачу выбора с аддитивным критерием, в которой вместо четкого критерия (3.1) имеется критерий с неопределенными коэффициен- тами aitj: и л Ё = (515) |=1 J=1 Ограничения (3.1) и (3.2) - четкие. Определим диапазон, в котором может находиться Любой из коэффи- циентов a,j, т.е. [amin,amex], и разделим этот интервал на (L-1) отрезок, получив дискретную сетку значений с текущим номером q (q~l,L). У °' тановим для каждого afj степень принадлежности, Для этого могут быть
Глава 5. Учет факторов неопреденности_______ использованы экспертные оценки. Теперь вместо критерия (5 15) мы полу- чим векторный критерий, состоящий из L аддитивных скалярных Крите- риев: Е1ч) = ZZai.’4j -♦ min, (5.16) i=l j=\ и набор характеристик . Рассмотрим |х^> как L критериев достовер- ности и подчиним их ограничениям > Ц, q = П; i = 1л; j = Щ. (5.17) С учетом результатов, приведенных в параграфе 4.6, для задачи выбора с критериями (5.16) и ограничениями (5.17) можно предложить алгоритм решения, который будет отличаться минимальной сложностью. Первый этап этого алгоритма будет содержать операции, исключающие из матриц А(,) все элементы а( j, для которых не выполняются условия (5.17). Да- лее используем алгоритм 4.3, осуществляющий решение задачи векторной оптимизации на основе приближения к биутопической точке. Эффектив ность этого алгоритма показана в параграфе 4.6.
590 Принятие решений в системах управления, Чр„т, ц, ГЛАВА 6 ЗАДАЧИ ГРУППИРОВАНИЯ ИНФОРМАЦИИ В МНОГООБЪЕКТНЫХ РАСПРЕДЕЛЕННЫХ СИСТЕМАХ УПРАВЛЕНИЯ И АЛГОРИТМЫ ИХ РЕШЕНИЯ 6.1. Качественная постановка задачи группирования ИНФОРМАЦИИ В МНОГООБЪЕКТНЫХ РАСПРЕДЕЛЕННЫХ СИСТЕМАХ В миогообъектных распределенных системах управления возникают специфические для распределенных систем задачи - задачи группирования информации о расстояниях объектов управления. Необходимость поста- новки и решения таких задач вызвана тем, что в условиях быстрого изме- нения параметров состояния объектов при достаточно сложных алгорит- мах обработки информации и продолжительности передачи больших объ- емов информации по каналам связи требования к оперативности принятия решения резко возрастают, снижается эффективность алгоритмов приня- тия оперативных решений и эффективность всей системы управления в целом. Одним из средств решения этой проблемы является быстрое объедине- ние объектов в труппы с достаточно близкими характеристиками парамет- ров состояния, выделение в каждой группе некоторого контрольного (главного) объекта со «средними» для группы характеристиками и переда- ча информации в целом о труппе. Это позволяет на уровне оперативного управления и принятия решений иметь укрупненную информацию об объ- ектах управления и принимать на основе этой информации оперативные решения. В дальнейшем по мере уточнения информации и наличии сво- бодного времени (если параметры состояния объектов не претерпели серь- езных отклонений от «групповых» параметров) проводится коррекция принятых раннее решений и качество решения повышается. Обратим внимание на то, что для многих задач принятия оперативных решений в многообъектных распределенных системах управления алго-
591 _„нпипования информации ЗадачиНЕ.—- ГЛ^^*^иягрешений по групповым характеристикам могут быть пол- пр1й1,гГ чнЫ алгоритмам принятия решений по индивидуальным ха- объектов. Это придает задаче группирования информации ^^иуго значимость, так как алгоритмы группирования информа- р полПН* „Хсить информационной основой для алгоритмов декомпози- 2и м^Хнягия оперативных решений. цИИзаДаЧ нно что В системах управления эффективность алгоритмов Естестве ^еМ вЫше, чем дольше сохраняются первоначально создан- группИР0®^ а это определяется, с одной стороны, динамикой группового /ые ^"объектов и качеством алгоритмов группирования - с другой, поведения q 0M> при разработке алгоритмов группирования информа- Таким ______й^АКТных распределенных систем упоавленм необхптшп цИИ ДДЯ решить । 1) многообъектных распределенных систем управления необходимо следующие задачи: - ^деление общего множества объектов на группы (решить задачу Группирования), деление в каждой группе главного объекта с некоторыми «средни- ми» ГРУППЫ характеристиками; Нормирование групповой информации для передачи по каналам связи; принятие мер для быстрого решения задачи группирования в условиях дефицита времени (может быть, за счет качества группирования). Задачи группирования информации имеют достаточно широкие сферы применения во всех областях, где необходимо обрабатывать большие объ- емы научной или статистической информации. Эти области знаний носят название кластерного анализа [23]. 2) 4) 6.2. Решение задачи группирования НА ОСНОВЕ КЛАСТЕРНОГО АНАЛИЗА Пусть имеется множество, состоящее из п объектов, каждый из кото- рых оценивается /и-мерным вектором \ (i=l,n). Требуется разделить множество из п объектов на некоторое число К групп так, чтобы сгруп- пированные объекты были максимально близки в заданном смысле. Меру лизости объектов группирования (ОГ) можно задать различными спосо- ми. Будем использовать обычную прямоугольную (манхетгенскую) мет- гИКу, приб^0Тр™ один из эффективных в вычислительном плане, хотя и лизе к к^ННЬГЙ’ алгоРи™ группирования, относящийся в кластерном ана- гориТмГ?ссу алгоритмов типа разрезания графа [53]. Структура этого ал- 1 НайтиУДеТСЛедующей' ное ра ПаРу ОГ, имеющих среди всего множества объектов минималь- ^Остроит°ЯНИе От ЛРУга- Назовем эти ОГ первыми. объе!сГаГГЬ типа дерева путем определения ближайших к первым м следующих объектов, затем ближайших к найденным еле-
592 Принятие решений в системах управления. Част», ц, дующих объектов и т.д. (при построения данного графа используем алгоритм ближайшего соседа). . я 3. Разделить граф на К подграфов (групп) путем последовательного оты- скания на графе максимальных расстояний между всеми парами вел', шин и «разрыва связей», соответствующих К -1 максимальному рас. стоянию. Число групп К может быть фиксированным или меняться оператором при автоматизированном решении задачи. Основным недостатком данного метода (разумеется, при его использо- вании для оперативного группирования информации в многообъектных распределенных системах) является низкое быстродействие. Так, по про- веденным нами исследованиям (IBM PC/AT - 286, Турбо-Паскаль версии 5.0) время группирования 150 объектов с двухмерным вектором признаков на 15 групп составило 372 с. Кроме того, с помощью данного алгоритма можно решить только зада- чу разделения на группы и нельзя решить задачу выбора в каждой группе главного объекта. 6.3. Метод и алгоритмы оперативного группирования информации ДЛЯ МНОГООБЪЕКТНЫХ распределенных систем УПРАВЛЕНИЯ Рассмотренные выше методы группирования сводились к реализации в различной форме двух следующих этапов принятия решений: 1) построение графа взаимных расстояний между объектами группирова- ния (ОГ); 2) поиск на построенном графе множеств вершин, удовлетворяющих свойствам групп. Нетрудно заметить, что такой путь решения характе- ризуется значительной избыточностью вычислительных операций. Действительно, при реализации первого этапа приходится искать крат- чайшие пути в графе по всему множеству ребер или, как в алгоритме по типу разрезания графа, по ограниченному множеству. При реализации второго этапа формирование групп осуществляется в виде направлен- ного поиска среди множества ОГ (вершин графа), которое заведомо может быть сокращено более эффективным решением на первом этапе. К тому же приведённые выше методы не дают никаких указаний отно- сительно «автоматического» выбора главного объекта в группе. Предложим подход, основанный на ином способе построения процеду. ры группировки. Будем реализовывать первый этап принятия решений, как процесс построения графа или нескольких графов, заведомо удовлетво. ряющих групповым свойствам включённых в него вершин. На втором эта- пе при этом потребуется лишь контроль непересечения полученных мц0. жеств (групп) и формальная запись полученных решений. При этом будем
593 рдроб. Задачи группирования информации йМеть в виду, чт0 в процессе такого решения должна быть получена ин- формация, п0 К0Т0Р°й можно было бы достаточно просто выделить в Lnne главный объект. Таким образом, расширение множества альтернатив решения, как и в параграфе 3.7, будет связано с формированием обобщённой задачи, связы- вающей воедино задачи установления групповых свойств, разделения на группы и выбора в каждой группе главного объекта. Групповые свойства образуемых множеств наиболее просто можно за- дать в виде параметра d строба (квадрата, куба и т.д.). Из практических ус- ловий применения сгруппированной информации можно задать величины >£^ср • Очевидно, что при d = dmx, число сформированных групп К минимально, но максимально число объектов в группе - 1к- При d = dmil, имеет место обратное: К = Ктм , а число объектов в группе ми- нимально. Выбор параметра строба d может быть произведен как в зависимости от пропускной способности используемых в системе управления каналов связи (при d =dmsx число передаваемых сообщений минимально), так и в зависимости от «живучести» группы, т.е. от того отрезка времени, на котором объекты группы будут сохранять группов свойства. а Рассмотрим сущность предлагаемого метода для двумерного в® признаков (х, у). Пусть объекты группирования пронумерованы в иер. вольном порядке от 1 до п. Образуем две матрицы-строки, вую значения параметров ОГ по оси х, а во вторую - по оси у: X = [xl,x2,-.-,xi,--'<xn^ ^2) Y = % величину Образуем из матрицы X матрицу Ех- Для эТ0Г0 вы’ велИЧИВу х2, об- *1 и примем её за первую строку Ех, затем вычтем из матрицу Разуем вторую сторку Ех и т.д. В результате получим квадра Ех=[х,-хД i = Аналогично сконструируем матрицу Вычитая из каждого элемента Ех 4 \xr^\-dl2 fr состоя^”3 « новую матрйИУ 6 и'е.иий i и j ч«сп0 Если условие (6.5) выполнено, т _ветсТВуюШих зка нулей и единиц, запишем по адресу со проверки О, если (6.5) не выполнено-запишем • причём °пеР Аналогично Ёх составим матриПУ Y Условия
I ,ЫХ элемен*м^> 594 __________Принятие решений в системах достаточно проводить лишь для тех i и J, для кото Ёх равен единице. Матрица Ё у содержит в каждой сгорке только те связи между объек тами, которые по евклидовой норме не превышают d-Л/2, а образован ные таким образом группы ограничены стробом шириной d. Для окончательного формирования групп (если величина d назначена удачно) проведём следующие операции: • подсчитаем число единиц в каждой строке матрицы Ё Y и выберем из них наибольшее; • выпишем номера ОГ, входящих в первую строку и образуем из них первую группу; • из матрицы Ёу вычеркнем те строки и столбцы, номера которых соответствуют элементам первой группы, и в усечённой матрице подсчитаем число единиц в каждой строке; • выберем строку с максимальным числом единиц и образуем вторую группу. Процесс формирования групп закончится, когда будут сгруппированы все объекты. Если полученные группы не удовлетворяют по числу образованных групп или максимальному числу объектов в группах, необходимо повто- рить расчёты для нового значения d. Практически целесообразно начинать расчёт с d = dmax. В этом случае, при выборе нового d<dm^, расчёт можно проводить только для элементов матриц Ё х и Ё Y » которым в матрице Ё у соответствует 1. Заметим, что при выборе строк с максимальным числом единиц в мат- рице Ё у, номер строки можно принять за номер главного объекта. Этот объект является «центральным». Относительно него на расстоя- нии, не превышающем по евклидовой норме O,7O5d, располагаются все остальные ОГ. Рассмотрим, как, пользуясь данным методом, можно решать задачи группирования, когда информация об объектах появляется не сразу, а постепенно, по мере «срабатывания» информационных подсистем. В этом случае необходим следующий порядок действий: 1) по имеющейся информации о первых объектах решить задачу группи- рования и установить в группах главные объекты; 2) к вновь появившимся объектам добавить главные объекты групп, сформированных иа первом этапе, и вновь решить задачу группирова- ния. Эти операции нужно повторять до тех пор, пока поступает дополни- тельная информация о новых объектах. Ранее сформированные группы нужно учитывать при группировании до тех пор, пока расстояния между
Глава 6. Задачи группирования информации 595 «старыми» и новыми объектами не будут намного превышать величину d или пока сформированные группы не будут «переданы» управляющим подсистемам нижних уровней иерархии. Отметим также, что при решении задачи таким образом вычислитель- ные затраты оказываются меньшими, чем в первом случае, когда группи- рование проводилось для большого числа объектов одновременно, а не по этапам. Более того, поскольку вычислительные трудности при поэтапном группировании ниже, чем при группировании на полном множестве объ- ектов, вохникает возможность конструирования в рамках предлагаемого метода алгоритмов группирования минимальной сложности. Рассчитаем число вычислительных операций, которые необходимо осуществить для реализации на ЭВМ алгоритма группирования с выбором главных объектов. Для заполнения матрицы Е х необходимо произвести вычитание и2 раз. Учитывая, что эта матрица симметрическая, ограничим число вычита- ний величиной 0,5(п2 + п) . Столько же действий необходимо для запол- нения матрицы fe у . Таким образом, для данного этапа число операций типа сложения составит М j =п2 +п. При образовании матрицы Е Y необходимо с элементами матрицы Ех провести (ихл)/2 операций сравнения с элементами матрицы Еу - В итоге получим М2=п2. Следующим этапом реализации алгоритма является расчёт числа еди- ниц в каждой строке матрицы Е у, дня чего потребуется Л/3=л2 операций сложения. И, наконец, для формирования К групп из п элементов по приведённой выше схеме потребуется проводить операции сравнения. Их число составит м4 = пк-(х:-1)/1~(а:-2)/2-. где 1к - число элементов в к -й группе (А = !,/?). На этом этапе наиболее трудоёмким по числу операций сравнения является тот случай, когда /] = 12 =...~1к. В этом случае вместо Л/4 получим М\=пК-1К(К-1)12. Полагая в первом приближении, что длительность операций типа сложения и сравнения близки друг другу, получим общее число
«ь«г. М3 л/ =3и2 + и(Х + 1)~^^~1^2, (6.7) <=10«Л=10 да- =« kj'-K-та " ’“’О- Ь»» декомпозицию и да» »»»ой .-и группы (. -1,2), Ститал использ _ , = ю, то общее число вычислительных операций ЧТО Л( =50, Л/“•’> 2 получается равным По пооведёГмм нми исследованиям при тех же условиях, при которых анализировалось время работы алгоритма кластерного анализа в предыду. тем параграфе, время счёта данным алгоритмом составило около 100 с. 6.4. Основные особенности метода Отметим следующие положительные особенности данного метода группирования. I. Сформированные группы по геометрическим размерам не выходят за пределы строба - квадрата со стороной d. 2. Возможен автоматический выбор главных объектов. 3. Выбранные главные объекты располагаются в большинстве случаев в центре строба, поэтому число переформирований групп и пересмотров номеров главных объектов сводится к миниумуму. 4. С помощью задания параметра d и его простой вариации как для всего множества объектов, так и для отдельных групп легко учитывать фак- торы, связанные с дальнейшим использованием сгруппированной ин- формации для принятия оперативных решений по обеспечению групп объектов. 5. Получаемое в результате группирования решение - однозначно. Неза- висимо от порядка построения объектов группирования и их числа, ал- горитм заканчивает работу за конечное время н выдаёт решение, пол- ностью удовлетворяющее заданным требованиям. 6. Метод хорошо приспособлен для использования декомпозиции, кото- рую можно осуществлять по каждому компоненту вектора признаков объекта. Следовательно, при осуществлении машинной реализации ал- горитма всегда можно построить программы, приемлемые по времени счёта, объёму памяти. 7. Алгоритм группирования может быть реализован как одна программа, используемая и для проведения основных расчётов, и для декомпози- ции, и для перегруппирования отдельных групп.
гдява 6» Задачи группирования инАл„ J‘ ~ ~~ -—--ЕхРмации g Исследования близости получа^Г^^-----^ • адьно не проводились, однако Р11РеШениГГ^^_ 597 показывают, что к числу групп п« Ьг ^я найп годом, близки к наилучщиТ Р ШенЧ сфоДл 9. Работа оператора при наличии даНН(1г ческого обеспечения комплекса адг°₽«гма в ' контролю и утверВДению реИ1ен7^енйя> о ^е творительных решений (груПп). будет осуществляться тем же алХ^ Шее y^e,Z? НеУ®>вле. адг°Р^ом авто^^Уппнро^
598 Принятие решений в системах управления, ц ЗАКЛЮЧЕНИЕ Подводя итоги, перечислим основные преимущества теоретического и методического плана, отличающие рекомендуемый в работе подход к разработке алгоритмов принятия оперативных решений от других анало- гичных. В изложенных основах теории принятия проектных решений для соз- дания многообъектных распределённых систем управления существенны- ми компонентами, определяющими удобство и эффективность решения, являются: а) формы структур МРСУ специального ромбовидного типа (даймонд- структуры) н их отображение в специальные ориентированные мульти- графы ярусно-параллельной формы (графы структур решений и графы структур МРСУ); б) постановка и формализация неклассических задач принятия решений - задач принятия решений на расширенных множествах; в) новые концепции в принципе сложности, расширяющие области по- иска решений и формирующие процедуры построения функционалов и шкал сложности (в частности, концепция доминантных условий для задач принятия решений); г) взаимосвязанные трёхуровневые оценки сложности - действия и ус- ловия инвариантности оценок; д) методы, алгоритмы и программные средства векторной оптимизации минимальной или ограниченной сложности, являющиеся, по существу, от- ражением нового способа скаляризации векторного критерия. Рассмотренные основы теории принятия оперативных решений для МРСУ являются частным случаем теории принятия проектных решений и позволяют разрабатывать алгоритмы и программные средства оперативно- го управления и принятия решений, удовлетворяющие свойствам гибкости и жадности алгоритмов. В качестве примеров, иллюстрирующих основы теории принятия опе- ративных решений для МРСУ, представлены методы и алгоритмы приня- тия оперативных решений для задач, математически формализуемых в ви- де классических и неклассических задач выбора (назначения) со скаляр- ным или векторным критериями различной математической формы (адди- тивной, мультипликативной, макснмииной), а также методы и алгоритмы оперативного группирования объектов в МРСУ для структурной декомпо- зиции задач принятия решений.
Заключение 599 И гГгппитмпч п Ма CHAISE для автоматизированного проектиро- вания алгоритмов принятия опреативных решений, сводящихся к задачам выбора соскалярным или векторным критериями, а также обучающая сис- тема MATHPROG, предназначенная для изучения с помощью ПЭВМ ме- тодов и алгоритмов решения задачи выбора, применяются в учебном про- цессе и научных исследованиях на кафедре систем автоматического управления МГТУ им. Н.Э. Баумана.
ЧАСТЬ V НЕПРЕРЫВНЫЕ АДАПТИВНЫЕ СИСТЕМЫ ВВЕДЕНИЕ Адаптивное управление является одним из разделов современной теории автоматического управления. Теория адаптивного управления за- родилась в конце 40-х - начале 50-х годов XX столетия, однако интерес к этой области не ослабевает и по сей день, что подтверждается многочис- ленными публикациями, симпозиумами и конференциями ИФАК (меж- дународной федерации по автоматическому управлению), посвященны- ми этой тематике. Задачей теории адаптивных систем является анализ и синтез в условиях неполной априорной информации о режиме функцио- нирования системы и, как следствие, с возможностью больших вариаций структуры и параметров ее математической модели. В прикладной об- ласти такие задачи часто возникают при проектировании автоматов для летательных аппаратов, авторулевых для морских судов, автоматических (автоматизированных) систем управления технологическими процесса- ми, робототехническими системами и т.п. Неточность математической модели объекта, труднопрогнозируемое изменение характеристик объек- та в процессе функционирования снижают эффективность использования традиционных методов автоматического управления. В связи с этим уже на начальном этапе развития теории автоматического управления представлялся весьма эффективным путь построения управ- ляющих систем, не требующих полной априорной информации об объекте и условиях его функционирования.
Введение 601 Эффект приспособления к условиям функционирования в адаптивных системах обеспечивается за счет накопления и обработки информации о поведении объекта в процессе его функционирования. Это позволяет су- щественно снизить влияние неопределенности на качество управления, компенсируя недостаток априорной информации на этапе проектирования систем. Глава 1 посвящена классификации адаптивных систем, формализации задачи синтеза адаптивных регуляторов, а также обзору основных методов синтеза. В главе 2 рассматриваются поисковые адаптивные системы. Ос- новное внимание уделяется поисковым алгоритмам с настраиваемой моде- лью, синтезируемым на основе метода синхронного детектирования. Син- тез алгоритмов адаптивного управления неразрывно связан с проблемой обеспечения устойчивости замкнутой системы, в которой контур адапта- ции всегда носит нелинейный характер. В связи с этим глава 3 посвящена использованию метода функций Ляпунова для синтеза беспоисковых алго- ритмов адаптивного управления. Здесь же обсуждаются условия возник- новения идентифицирующих свойств алгоритмов адаптации. Глава 4 по- священа схеме скоростного градиента, позволяющей осуществлять выбор алгоритмов адаптации из некоторого семейства (класса) алгоритмов и до- казывать их работоспособность (достижение поставленной цели управле- ния и устойчивость замкнутой системы) путем проверки заранее огово- ренных условий. В главе рассматриваются примеры синтеза адаптивных систем на основе схемы скоростного градиента, приводится сравнитель- ный анализ эффективности алгоритмов скоростного градиента в диффе- ренциальной, конечной и конечно-дифференциальной формах, обсужда- ются вопросы робастности алгоритмов в условиях воздействия аддитив- ных и мультипликативных помех, а также дискретизация алгоритмов управления. Глава 5 посвящена системам с переменной структурой, в ко- торых адаптивные свойства появляются за счет организации скользящих режимов. Эти системы обладают высоким быстродействием, простотой реализации, однако сохраняют свою работоспособность в узком диапазоне параметрических возмущений. Для повышения эффективности скользя- щих режимов в главе обсуждается идея самонастройки (адаптации) по- верхностей скольжения. В главе 6 рассматриваются беспоисковые адап- тивные системы, не использующие измерения производных от выхода объекта управления. В главе обсуждаются схемы построения адаптивных наблюдателей состояния и использования оценок состояния и параметров объекта управления для построения адаптивных регуляторов, приводятся схемы алгоритмов прямого адаптивного управления, а также обсуждается использование методов декомпозиции систем, позволяющих осуществлять синтез на основе редуцированной модели объекта.
602 Непрерывные адаптивные системылц^ СПИСОК ИСПОЛЬЗУЕМЫХ АББРЕВИАТУР ОУ ЦУ снс АдСУ ОНО ПАС АСГ ЭМ СПС СПФ - объект управления - цель управления - самонастраивающаяся система - адаптивная система управления - обобщенный настраиваемый объект - поисковая адаптивная система - алгоритм скоростного градиента - эталонная модель - система с переменной структурой - строго положительно-вещественная функция
603 ai Методы адаптивного управления ^двва/д.----—----------------------— ГЛАВА 1 МЕТОДЫ АДАПТИВНОГО УПРАВЛЕНИЯ 1.1. Определение и классификация адаптивных систем Управляющая система, автоматически определяющая нужный закон управления посредством анализа поведения объекта при текущем управ- лении, называется адаптивной. Многочисленные обзоры по теории адаптивных систем имеют разно- образные варианты классификации. Мы будем придерживаться классифи- кации, приведенной А.А. Вороновым и В.Ю. Рутковским в обзоре [6]. Адаптивные системы можно разделить на два больших класса: соиоор- ганизующиеся и самонастраивающиеся. В самоорганизующихся системах в процессе функционирования про- исходит формирование алгоритма управления (его структуры и парамет- ров), позволяющего оптимизировать систему с точки зрения поставленной цели управления (ЦУ). Такого рода задача возникает, например, в услови- ях изменения структуры и параметров объекта управления в зависимости от режима функционирования, когда априорной информации недостаточно для определения текущего режима. При широком классе возможных структур объекта трудно надеяться на выбор единственной структуры ал- горитма управления, способной обеспечить замкнутой системе достиже- ние ЦУ во всех режимах функционирования. Таким образом, речь идет о синтезе при свободной структуре регулятора. Очевидная сложность поста- новки задачи не позволяет надеяться на простые алгоритмы ее решения, а следовательно, и на широкое внедрение в настоящее время таких систем в практику. Задача существенно упрощается, если структура объекта управления *е-на и неизменна, а поведение зависит от ряда неизвестных парамет- в- Эта задача решается в классе самонастраивающихся систем (QIC), в
604____________________Непрерывные адаптивные системы. Част», у которых структура регулятора задана (заранее выбрана) и требуется опре. делить лишь алгоритм настройки его коэффициентов (алгоритм адапта- ции). СНС делятся иа два подкласса: поисковые и беспоисковые. В поиско- вых СНС минимум (или максимум) меры качества (производительность установки, расход топлива и т.д.) ищется с помощью специально органц. зованных поисковых сигналов. Простейшими поисковыми системами яв- ляются большинство экстремальных систем, в которых недостаток апри- орной информации восполняется за счет текущей информации, получае- мой в виде реакции объекта на искусственно вводимые поисковые (проб- ные, тестовые) воздействия. В беспоисковых СНС в явном или неявном виде имеется модель с же- лаемыми динамическими характеристиками. Задача алгоритма адаптации состоит в настройке коэффициентов регулятора таким образом, чтобы све- сти рассогласование между объектом управления и моделью к нулю. Такое управление называют прямым адаптивным управлением (direct adaptive control), а системы - адаптивными системами с эталонной моделью (model reference adaptive systems). В случае непрямого адаптивного управ- ления (indirect adaptive control) сначала проводят идентификацию объекта, а затем определяют соответствующие коэффициенты регулятора. Такие регуляторы называются самонастраивающимися (self-turning regulators). При прямом адаптивном управлении контуры адаптации работают по замкнутому циклу. Это позволяет парировать изменения параметров объ- екта и регулятора. Однако каждый контур самонастройки повышает поря- док системы как минимум на единицу и при этом существенно влияет на общую динамику'замкнутой системы. В случае непрямого адаптивного управления контуры самонастройки работают по разомкнутому циклу и, следовательно, не влияют на динами- ку системы. Однако все ошибки идентификации, уходы параметров объек- та и регулятора существенно влияют на точность управления. В беспоисковых самонастраивающихся системах эталонная модель может быть реализована в виде реального динамического звена (явная мо- дель) или присутствовать в виде некоторого эталонного управления, свя- зывающего регулируемые переменные и их производные (неявная модель). В неявной модели коэффициенты эталонного уравнения являются пара- метрами алгоритма адаптации. 1.2. Постановка задачи синтеза адаптивных систем управления. Гипотеза о квазистационарности Рассмотрим задачу синтеза для непрерывных динамических объектов [35]. Пусть на объект управления (ОУ) влияют измеряемые возмущения (задающие воздействия) Y = Y(t), неизмеряемые возмущении N = N(t) и
Глава 1. Методы адаптивного управления________________________605 управляющие воздействия U = U(r). Наблюдениям доступны выходные переменные объекта X = XB(t) . Поведение объекта зависит от ряда неиз- вестных параметров, совокупность которых обозначаем через 5. Задано множество а возможных значений 5, определяющих класс допустимых объектов и возмущений. Задана цель управления, определяющая желаемое поведение ОУ. Требуется синтезировать алгоритм управления, исполь- зующий измеряемые или вычисляемые на основе измерений величины, не зависящие от 5 е S, и обеспечивающий для каждого £е Е достижение заданной ЦУ. Вектор неизвестных параметров Е, обычно состоит из коэффициентов уравнений, составляющих математическое описание объекта, а также из коэффициентов, определяющих изменение внешних воздействий (состоя- ния среды). Кроме того, вектор 5 может содержать абстрактные парамет- ры, описывающие неизмеряемые возмущения, обусловленные неточно- стью описания ОУ. Вектор 5, как правило, считается квазистационарным: постоянным или меняющимся медленно (медленнее динамических про- цессов в объекте и изменений внешних воздействий). Определение 1.1. Процесс (вектор-функция) Z называется квазиста- ционарным, если он меняется существенно медленнее остальных динами- ческих процессов, протекающих в системе. Описанная выше задача является задачей управления в условиях неопре- деленности, связанной с 5 е Н . Задача может решаться поэтапно: вначале идентификация вектора Е,, а затем определение алгоритма управления, обеспечивающего требуемое качество функционирования одним из тради- ционных методов. Однако такая стратегия синтеза требует дополнительного времени на изучение объекта и неприменима в нестационарных условиях. Более совершенной стратегией управления является адаптивная стра- тегия, состоящая в одновременном изучении объекта и управлении им. Алгоритм адаптивного управления имеет двухуровневую структуру (рис. 1.1). Алгоритм 1-го уровня (алгоритм регулирования или алгоритм основного уровня) зависит от вектора параметров 0 (вектора параметров регулятора), при каждом Е он должен обеспечивать достижение ЦУ при соответствующем выборе 0 = 0(5) • Алгоритм 2-го уровня изменяет (настраивает) вектор 0 таким образом, чтобы обеспечить достижение ЦУ при неизвестном 5е Определение 1.2. Совокупность алгоритмов регулирования и адаптации называется алгоритмом адаптивного управления, а динамическая гагтемя, состоящая из объекта и устройства, реализующего алгоритм адаптивного управления, - адаптивной системой управления (АдСУ). Формализуем задачу синтеза. Пусть непрерывная динамическая система описывается уравнениями состояния
606 Непрерывные адаптивные системы. Част»- у (1.1) (1.2) X(t)~F(X,Y,V.Ni,t„t), Xa(t) = G(X,Y,V,N2,^,t), где F(-),G(-) - известные вектор-функции; Nt, N2 - возмущения на ОУ и помехи измерений; ХеЯ", Ue«m, YeRr, XBeR‘ - векторы состояния, управления, внешних входов и выходов ОУ соответственно. ' YW 4 Обобщенный настраиваемый объект (ОНО) I J Блок ОУ датчиков р |Х8(О J Регулятор Г 0(0 Алгоритм адаптации И Алгоритм адаптивного управления Рис. 1.1. Структурная схема адаптивной системы управления В уравнения (1.1), (1.2) помимо, самого объекта управления, могут вхо- дить математические модели исполнительных, измерительных устройств, эталонная модель и т.п. В простейшем случае цель управления задается в виде целевого нера- венства Д при т&г», Д>0, (1-3) где q(t) = <7(Х(т), U(r)) - целевая функция. В задачах слежения в качестве целевой функции выбирается функция невязки между действительной и желаемой траекторией движения объекта q~q(^t),t), Е(г) = Х(П-ХМ(О. Желаемое поведение системы может быть задано, например, с помощью эталонной модели VO = FM(XM,Y, г), (I-*)
Глава 1, Методы адаптивного управления 607 где Хм 6 Rn - вектор состояния эталонной модели, Y € Rm - вектор за- дающих воздействий. В частном случае при Хм(г) = 0 (задача стабилизации) получается це- левая функция текущего состояния объекта q = <j(X(T), f). Задача синтеза состоит в нахождении алгоритма управления из задан- ного класса двухуровневых алгоритмов вида U(r) = l/((Xe(r),U(t),0(t),Y(t)), (1.5) 0(f) = 0z(Xe(t),U(t),0(f), Y(t)), (1.6) обеспечивающих достижение ЦУ (1.3) в системе (1.1), (1.2), (1.5), (1.6) для каждого £е 2 . Здесь U,(_), ©,() некоторые операторы. Если АдСУ функ- ционирует в стохастической среде, то цель (1.3) заменяется «усредненной» целью Mq Д при t > t.. (1-7) Система (1.1), (1.2), (1.5), (1.6) называется адаптивной в классе 5 по отношению к цели управления, заданной одним из неравенств (1.3), (1.7), если для любого Е,е 2 и при любых начальных условиях Х(0), 11(0), 0(0) выполняется соответствующее неравенство (1.3) или (1.7), Так как адаптивные системы управления отличаются от традиционных (неадаптивных) систем управления наличием контура адаптации, то ддя формулировки задачи синтеза алгоритма адаптации удобно использовать понятие «обобщенного настраиваемого объекта» (ОНО). Обобщенный на- страиваемый объект включает в себя всю неизменяемую часть системы («обобщенный объект» и регулятор основного контура). В качестве входов ОНО могут выступать как настраиваемые параметры регулятора (1.5) 0(0 (см. рис. 1.1), так и входы обобщенного объекта U(t) (0(0 = 4(0), если основной контур управления отсутствует. При этом формально описание системы в форме (1.1), (1.2) или в форме (1.1) - (1.3) представляет собой систему алгебраических и дифференциальных уравнений. В первом случае задача состоит в синтезе алгоритма адаптивного управления (1.5), (1.6), а во втором случае - алгоритма адаптации (1.6). В рамках приведенных выше схем можно рассматривать также неста- ционарные задачи, в которых вектор неизвестных параметров £ меняется во времени (£ = £(г)). При этом вектор «идеальных», с точки зрения ЦУ, параметров регуля- тора 0 также зависит от времени. Он должен для достижения цели «от- слеживать» дрейф неизвестных параметров, приспосабливаясь к изменяю- щимся условиям. Ясно, что такое поведение системы возможно лишь при медленном изменении £ по сравнению с изменением состояния объекта X, когда в измерениях накапливается достаточно информации о дрейфе. При этом быстрые процессы управляются первым уровнем системы - ре-
608 Непрерывные адаптивные системы. Часть у гулятором, а медленные изменения отслеживаются вторым уровнем - адаптером. Двухуровневая система управления находится в соответствии с разделением движений объекта на быстрые {координатные) и медленные {параметрические). Предположения о медленном изменении неизвестных параметров (ги- потеза квазистационариости) практически означает, что параметры объ- екта считаются постоянными, «замороженными». Если же скорость измене- ния £ сравнима со скоростью процессов в объекте и изменением внешних воздействий, то целесообразно задаваться законом дрейфа £, а параметры закона считать новыми параметрами. Тем самым задача сводится к квази- стационарной. 1.3. Методы синтеза адаптивных систем Условно методы синтеза адаптивных систем можно разделить на эври- стические и теоретические. В эвристических методах отсутствует строгое обоснование устойчивости адаптивной системы и, как следствие, условия применимости рассматриваемых методов. Этот подход был характерен для раннего этапа развития адаптивных систем. Теоретические (строго обоснованные) методы можно разделить на два класса: точные и приближенные. В соответствии с двухуровневой схемой адаптивной системы задача разбивается на два этапа: синтез основного контура и контура адаптации. Среди точных методов синтеза основного контура наибольшее распро- странение получили: 1) метод инвариантности [10, 11, 26], реализующий идею выбора «идеального» управления из равенства правых частей эталонной модели и модели объекта управления; 2) метод модального управления, в котором «идеальное» управление выбирается исходя из желаемых показателей качества переходного процесса; 3) оптимальный синтез, в котором решается задача оптимизации по управляющему воздействию некоторого асимптотического (при t —> оо) показателя качества. В основе приближенных подходов лежат методы декомпозиции, осно- ванные на упрощении модели и синтезе по упрощенной модели. Для уп- рощения и декомпозиции используются методы теории возмущений [21, 42], методы скалярных и векторных функций Ляпунова [6, 19], линеариза- ция, понижение порядка, отбрасывание возмущений. Популярным явля- ется подход, основанный на выделении быстрых и медленных движений системы, при этом синтез осуществляется по модели, описывающей мед- ленные движения. К таким методам относятся: 1) метод усреднения, начало которого было положено работами Н.М. Крылова, Н.Н. Боголюбова [16] н Б. Ван дер Поля [4];
устава 1- Методы адаптивного управления ____________________609 2) метод сингулярных возмущений. Фундаментальные результаты в этой области принадлежат Н.Н. Красовскому {12}, Л.С. Понтрягину [27], А.Н. Тихонову [32] и их ученикам. Основными методами синтеза алгоритмов адаптации являются: 1) градиентные методы. Алгоритм изменения настраиваемых пара- метров строится в направлении антиградиента целевой функции от ошибки рассогласования. Алгоритмы требуют вычисления функции чувствительности, которая зааисит от параметров объекта, что про- тиворечит постановке задачи адаптивного управления. Эго преодо- левается приближенным вычислением функции чувствительности с использованием эталонной модели [26]; 2) методы, основанные на применении функций Ляпунова. Большое число алгоритмов этой группы можно получить в рамках схемы скоростного градиента [2, 34, 36,42,46,50]. В методе используется тот факт, что градиент целевой функции близок по направлению с градиентом ее приращения по времени. Алгоритм адаптации стро- ится в антиградиентном направлении от скорости изменения целе- вой функции. Метод обеспечивает существование функции Ляпуно- ва в виде суммы целевой функции и квадрата невязки между на- страиваемыми и идеальными параметрами; 3) методы, основанные на теории гиперустойчивости. Синтез конту- ра адаптации осуществляется из условия гиперустойчивостн сис- темы с адаптивным регулятором. Сравнение методов группы 2 и 3 приведены в работе [51]; 4) методы, основанные на организации скользящих режимов. При воз- никновении скользящего режима система приобретает свойства ин- вариантности по отношению к параметрическим возмущениям и помехам. К этой группе примыкают системы с сигнальной адапта- цией, полученные на основе схемы скоростного градиента; 5) методы, основанные на введении «бесконечно большого» коэффици- ента усиления [13, 18]. В методе используется бесконечно большой коэффициент усиления, за счет которого передаточная функция системы становится эквивалентной передаточной функции эталон- ной модели. Главные недостатки метода: возможная потеря устой, чивости при большом коэффициенте усиления, слабая помехоза- щищенность. Системы, построенные на основе методов четвертой и пятой группы, часто называют системами с адаптивными свойствами, поскольку в них отсутствует контур настройки параметров.
непрерывные адаптивные системы. Часть у 610 ГЛАВА 2 ПОИСКОВЫЕ АДАПТИВНЫЕ СИСТЕМЫ В поисковых адаптивных системах (ПАС) выбор направления на- стройки параметров, обеспечивающих экстремальное значение меры каче- ства, осуществляется на основе организации специальных поисковых сиг- налов. 2.1. Системы экстремального регулирования Простейшими ПАС являются большинство экстремальных систем. В системах экстремального регулирования инерционностью объекта часто пренебрегают, а задача состоит в «отслеживании» дрейфа экстремума ста- тической характеристики объекта. Типовая блок-схема экстремальной сис- темы регулирования представлена на рис. 2.1. 2.1. CWMWBM „ема экстреиального ряул иро1|ани1|
Глава 2. Поисковые адаптивные системы_____ 611 На входы объекта подаются поисковые воздействия, в оценивается ре- акция на них объекта,, проявляющаяся в изменении целевой функции q(r). Определяются те воздействия, которые приближают целевую функцию к экстремуму. Экстремальные системы классифицируются по способу поиска экстре- мума: системы с регулярным поиском и случайным поиском. К регуляр- ным методам относятся хорошо известные методы полного перебора, Га- усса - Зейделя, градиентного поиска и их модификации. В случайных ме- тодах направление поиска ищется случайным образом. Подробнее пред- ставление об экстремальных системах можно получить из учебных посо- бий [1, 5] и справочников [29,30]. 2.2. Поисковые алгоритмы непрямого адаптивного управления С НАСТРАИВАЕМОЙ МОДЕЛЬЮ Непрямое адаптивное управление предполагает решение задачи в два этапа. На первом этапе осуществляется идентификация объекта. На втором этапе - выбор коэффициентов регулятора. В поисковых системах идентификации измеряются входные н выходные сигналы объекта, но, в отличие от беспоисковых систем, ведется активный поиск, сопровождающийся испытаниями адаптивной модели по параметри- ческим каналам. При этом расширяются границы работоспособности систем идентификации с адаптивной моделью. При неполной структурной адекват- ности модели и объекта, при воздействии на объект случайных возмущений, при сильном отличии в начальных значениях параметров настраиваемой модели от параметров объекта возможно существование множества экстре- мумов целевой функции по настраиваемым параметрам. В этих условиях беспоисковые алгоритмы идентификации часто оказываются неработоспо- собными. В основе поисковых систем могут использоваться простейшие методы поиска экстремума, начиная от простого перебора параметров и кончая градиентными методами, а также их комбинации. Общая структурная схе- ма поисковой идентификации представлена на рис. 2.2. Задачей алгоритма поисковой настройки является изменение парамет- ров модели 0М таким образом, чтобы минимизировать целевую фуикпиш невязки <у(Е). Рассмотрим подробнее непрерывный градиентный алгоритм идентифи- кации с синхронным детектированием [30]. Пусть объект и модель описываются уравнениями состояния Х = Г(Х,У,0,гД), X, = G(X,Y,r)+N2, (2.1) Хм=/м(Хм,¥,0м,г), XlM=GM(Xtt,Y,0, Q.2) 40*
Непрерывные адаптивные системы. Часть у --------------®“ 6 R*' Ye *" ~ »<*- где Хб X",Х“ е Я ’ ’ „апам’етров и входов объекта и модели соответ- торы состояний, выхолов’ и помех измерения. Целью иден. ственио; N|. N2 ' \,'мизация целевой функции <?(Е) невязки тификации является Е = Хв-Х8.«- (23) /Е) - имиуклая. положительно определенная Предполагается, что q _ наблюдаемая, так что известны текущие функция, а напаиваемая модель значения Xu. модели будем осуществлять в направлении ан- (2.4) г Гг>о-Яхй гдеГ = 1 т ' а?(ЕЙ _ градиент целевой функции по параметрам модели. Э0И Ve^(E)=i Пп» осуществления градиентного метода необходимо определить W dq(E) 3<?(E) 3GH ЭХВ эё?" ЭЕ эхм Э0М Основная трудность в вычислении правой части уравнения (2.5) состоит в нахождении . Добавим к вектору параметров 0М малую высокочастот- Э0М ную центрированную составляющую 80м (О. При этом уравнение модели в / вариациях будет иметь вид й-<8х-+^8в- ™ Пусть поисковый сигнал 80м является быстромёняющейся вектор-функ- цией по сравнению с собственными движениями модели и движением, по- рожденным внешним воздействием Y(f) (т.е. процесс Хм (г) считается квазистационарным). Тогда вариацией бХм(г) можно пренебречь ввиду ее малости по отношению к 80м, так что будет справедливо приближенное равенство 5Х м Э0М “ или в операторной форме бхм<«-5-|£ме ₽Э0М м’ (2.7) (2.8)
r„a«ui 2, Поисковые адаптивные системы где p'd/dt - символ дифференцирования по времени. Рис. 2.2. Структурная схема системы поисковой идентификации Из соотношения (2.8) при квазистационарном режиме получаем ЭХН 1 dFM —в. 8-----и., (2.9) Э0М pd0M ' ’ причем для достаточно высокочастотного поискового сигнала 50м при- ближенное равенство можно заменить строгим. С учетом (2.9) уравнение (2.5) принимает вид A- э©м ЭЕЭхДРа0м) (2.Ю) Для вычисления (1/p)(dF„/d&„) применим процедуру синхронного детектирования. Умножим выражение (2.8) справа на 50^ и усредним по- лученное уравнение по некоторому скользящему интервалу времени 8ХИ(8®„)Т =-^-8®м(80м)Т- <211) pd0M где 8ХЛ8®„)Т=^ /8Хм(т)(50м(т))тЛ. V *-Г Учитывая квазистационарность настройки модели, получаем SXM(8OM)T =-^-30„(3®м)Т • (2.12)
614____________________Непрерывные адаптивные системы. Чя<~— у Пусть поисковые сигналы выбираются из условия невырожденности матрицы 50м (8О„ )т . Тогда алгоритм настройки параметров (2.4) с уче том (2.10), (2.11) принимает вид 0М =r{80M(80M)T}'l80M(8XM)T^^.j . (2ЛЗ) Структурная схема системы идентификации представлена на рис. 2.3. Заметим, что термин синхронное детектирование связан с изменением вариации 8XM(z) синхронно изменению вариации 80м (поисковых сигна- лов) согласно равенству (2.8) при достаточно высокочастотном сигнале 50м, а также с возможностью детектирования (выделения) градиента на основе измеряемых величин путем их усреднения (сравните (2.4) и (2.13)). Условия применимости алгоритма: 1) целевая функция q(E) - положительно определенная и выпуклая по Е; 2) отличие структуры модели объекта, а также начальное рассогласо- вание векторов 0 и 0М обеспечивают единственное значение экстремума целевой функции; 3) поисковые сигналы 80м - малы и центрированы, удовлетворяют условию квазистационарности процесса Хм (г) и невырожденности матрицы 80м (80м )т . Замечания: 1) В случае многозкстремальности целевой функции целесообразно использовать градиентный метод в сочетании с другими методами поиска, например, со случайным поиском района главного экстре- мума. 2) Условие невырожденности матрицы 50м (80м )Т , в частности, вы- полняется для ортогональных функций, обладающих свойством 8®м(8®м)Т = diag80M(8©M)T . К таким функциям, например, относятся периодические сигналы с различными частотными компонентами, функции Уолша и т.п. 3) Вычислительные затраты при реализации алгоритма могут быть со- кращены за счет вычисления матрицы 50 м (60М )т заранее на ста- дии проектирования, а также при аналитическом раскрытии матри- цы-столбца dq dGM А ЭЕЭХМ )
Глава 2. Поисковые адаптивные системы 615 4) Процедура усреднения типа скользящего среднего может быть заме- нена усреднением в любом линейном фильтре низких частот, а с учетом наличия в алгоритме блока интегрирования Г/р может быть и вовсе опущена. Рнс. 2.3. Структурная схема поисковой системы с градиентным алгоритмом Пример 2.1. Пусть объект управления описывается передаточной функцией вида где к - коэффициент усиления, а - неизвестный параметр. Провести идентификацию параметра а методом синхронного детектирования, считая, что на объект действует задающее воздействие у = sin{»), к = 2 , а выход измеряется с адди- тивной помехой T] в виде центрированного случайного стационарного процесса с нормаль- ным распределением. Выберем настраиваемую модель в виде звена первого порядка где 0 = 00) - настраиваемый параметр. Пусть на вход модели поступает измеряемое задающее воздействие у с аддитивной по- мехой т] в виде центрированного случайного стационарного процесса с нормальным распре- делением. Целью управления будем считать синтез алгоритма настройки параметра 6, обеспечи- вающего минимизацию целевой функции q «е1, где » = т-ти - рассогласование между выходами объекта и настраиваемой модели. Выберем а качестве поискового сигнала высокочастотный, по сравнению с задающим воздействием, сигнал вида 50 = O,lsin(2OO/). Тогда в соответствии с (2.13) алгоритм иденти- фикации будет иметь вид
616 Непрерывные адаптивные системы. Част», у 80&см е=у , 80’ где 60! = 200 - заранее вычисленное значение для заданного поискового сигнала. Структурная схема системы идентификации приведена на рнс. 2.5. Результаты моделирования при разных значениях дисперсии помехи Z>n =0;0,1;0,3 приведены на рис. 2.4а - в соответствен-
Рнс. 2.5. Структурная схема В заключение следует отметить, что, несмотря на очевидные преиму- щества поисковых алгоритмов, их реализация намного сложнее, чем бес- поисковых алгоритмов адаптивного управления, так как, по крайней мере, требует наличия генератора поисковых сигналов. 39 Зак. 108
618 Непрерывные адаптивные системы. Часть V ГЛАВА 3 СИНТЕЗ БЕСПОИСКОВЫХ АДАПТИВНЫХ СИСТЕМ МЕТОДОМ ФУНКЦИЙ ЛЯПУНОВА Выше подчеркивалось, что динамика контура самонастройки (адапта- ции) существенно влияет на общую динамику СНС. Поэтому синтез не- разрывно связан с обеспечением устойчивости замкнутого объекта с кон- туром адаптации. Метод функций Ляпунова является одним из основных методов иссле- дования устойчивости и качества движения нелинейных систем, описы- ваемых обыкновенными дифференциальными уравнениями. Метод нашел глубокое и эффективное приложение к проблеме синтеза адаптивных сис- тем управления. Поясним идею применения метода функций Ляпунова на примере синте- за алгоритма адаптивного управления для линейного стационарного объекта управления [50]. 3.1. Постановка задачи синтеза Пусть объект управления (ОУ) описывается уравнением состояния: X = AX(r)+BU(r), (3.1) где Хе Я" - вектор состояний ОУ; UeEm - вектор управления; А,В - пхп и пхш постоянные матрицы параметров ОУ. Предполагается доступность измерению всего вектора состояния ОУ, так что Х, = Х(1). Рассмотрим задачу обеспечения ОУ желаемой динамики, которую за- дадим с помощью эталонной модели XM=AMXM(r)+BMY(r), (3.2) где Хме Я" - вектор состояния эталонной модели, Y(t)e Rm - задающее воздействие.
_^2_беспоисковых адаптивных систем модели зависит от требований, Выб°Р ме (времени переходного процесса, перерегулирОв‘Х * замкн и т д.). При этом, естественно, она должно быть устойчивой астатизм^ ^вицева. ’ч маТР”^м считать, что вектор параметров £ ОУ, состоящий из коэффИЦй БуДмаТриЦ А, В, заранее не определен. Известно лишь, что еЙТ°В ство 3 можно задать, например, с помощью максимальных и ми Мй0ЯСьных значений, которые могут принимать параметры ОУ в завИСи нималь т овий изготовления и функционирования. и' м°^пмализуем цель управления (ЦУ), потребовав, чтобы ФР limE(r) = 0, (3.3) где Е(0 = Х(г)"Х“^ -°шибкасистемы(3-1)и(3.2). Таким образом, в соответствии с ранее рассмотренной классификацией ставится задача построения СНС с явной эталонной моделью. Решим задачу на основе прямого адаптивного подхода. В соответствии с двухуровневой структурой СНС будем решать задачу в два этапа: построение основного контура и синтез контура адаптации. 3.2. Синтез основного контура Задача решается в предположении, что параметры ОУ известны. Для получения структуры «идеального» регулятора запишем уравнение в от- клонениях Ё(т)= AME(f)+(A-AM)X(/)+BU(r)-BMY(f). (3.4) Потребуем выполнение условия разрешимости уравнения (A-AM)X(f)+BU(f)-BMY(f)=O (3.5) относительно U, е Rm при любых Хе Rn, Ye Rm. При этом уравнение (3.4) будет иметь вид Ё = АмЕ(т), решение которого асимптотически устойчиво в силу гурвицевости матри- цы Ам, и, следовательно, в идеальных условиях ЦУ (3.3) достигается. Идеальное управление, удовлетворяющее соотношению (3.5), описыва- ется Уравнением и,(г)=кЗД+кЗД, которое можно записать в форме U.(r) = K.YK.xX(r)+K.YY(r), (3.6) Где К?, КУ, к* К? - матрицы идеальных коэффициентов регулятора, з^УДовлетворяющие уравнениям:
620 Непрерывные адаптивные системы. Чагу, у ВК? = Ам - А, BKY =ВМ , (3< ВМК.Х «Ам -A, BKY =ВМ (3‘7б) Условия (3.7) часто называют условиями согласованности модели и Оу и они определяют возможность решения поставленной задачи в условиях точного знания параметров ОУ. Заметим, что в соответствии с (3.7) матри цы идеальных коэффициентов регулятора зависят от конкретных парамет- ров ОУ £е Е . Поэтому в ситуации неопределенности параметров ОУ це. лесообразно настраивать матрицы коэффициентов регулятора для дости- жения в системе ЦУ (3.3). Выберем структуру основного контура в соответствии с (3.6) в виде U(0 = KY (r)Kx (r)X(r) + KY (г) Y(r), (3.8) где Kx(r),KY(r) - матрицы настраиваемых коэффициентов регулятора. Рис. 3.1. Структурная схема обобшеииого настраиваемого объекта Подставляя (3.8) в уравнение (3.4), получаем описание обобщенного настраиваемого объекта (ОНО), состоящего из ОУ (3.1), модели (3.2) и ре- гулятора основного контура (3.8), в форме E(r) = AME(f)+B4Kx(t)-Kx)x(r) + Bj(Ky)_1KY(0-l]x x(kx(t)X(i) + Y(j)|= АмЕ(т)+ (3-9) +BM[0(t)X(t) + Y(r)KY (i)(Y(t) + Kx (i)X(j))j, где 1-тхт единичная матрица, Ф(г), Т(г) - матрицы отклонений коэф- фициентов регулятора от «идеальных» значений, Ф(т) = Кх(т)-Кх, Ч'(г) = (кУ)'1-(к¥(г))'1. (3.1°) Структура ОНО показана на рис. 3.1.
Глава 3. Синтез беспоисковых адаптивных систем 621 3.3. Синтез контура адаптации Для синтеза алгоритмов настройки матриц Кх (г) и KY (t) запишем уравнение ОНО (3.9) в виде Ё(О = АмЕ(г)+Вм0(г)Е(г), (3.11) где 0(t) = (Ф(г)‘:Т(г)) ~ расширенная матрица отклонений настраивае- мых коэффициентов от их «идеальных» значений, Х(г) 2(г) = KY(t)[Y(f)+Kx(t)X(r)] - pxl вектор сенсоров (вектор, элементы которого являются измеримыми или вычислимыми на основе измерений функциями), р = п+т. Рассмотрим в качестве претендента на роль функции Ляпунова квадра- тичную скалярную функцию вида V =O,5ETHE + O,5tr(®Tr10), Н = НТ, Г = ГТ. (3.12) Здесь trD означает сумму элементов главной диагонали матрицы О (след матрицы). Определим производную функции (3.12), используя уравнение ОНО (3.11): V = ЕТНЁ + tr (0гГ’1©) = ЕТНАМЕ + ETHBM0S+tr (©ТГ *©)= = ЕТНАМЕ + tr (В*НЕЕТ + ГЧ©)Т 0 . Нетрудно заметить, что если алгоритм адаптации выбрать в виде © = -ГВ*НЕЕт(г), Г = Гт>0, (3.13) то функция V обладает свойствами У>0 и У<0, т.е. является функцией Ляпунова. Последнее утверждение следует из гурвицевости матрицы Ам, для кото- рой в силу леммы Ляпунова существует Н = Нт>0, удовлетворяющее матричному уравнению AyH + HAm=-Q,Q = Qt>0, и, следовательно, V = -0,5ETQE. (3.14) Таким образом, система (3.11), (3.13) устойчива и в силу (3.14) ЦУ Е(/)-> О при t —> «о достигается. Так как V (3.14) не содержит в явном виде настраиваемых параметров, то из приведенных рассуждений следует лишь ограниченность матрицы 0 .
622 Непрерывные адаптивные систе»т, ч 3.4. УСЛОВИЯ ИДЕНТИФИЦИРУЕМОСТИ Усилим задачу, потребовав, чтобы адаптивная система (3 in была асимптотически устойчивой, т.е. выполнялось Л ^^З) limE(r) = 0, lim®(r) = 0. (3.15) /—>00 Последнее условие эквивалентно требованию Кх(г)-»К?, Ку(т)-»К/ при г —> оо , что означает наделение алгоритма (3.13) идентифицирующими свойствами Предположим, что компоненты вектора Е(т) - ограниченные функции времени. Тогда из устойчивости системы (3.11), (3.13) и Е(г) = О при t -> оо следует lim0(r) = Нт(-ГВМЕЕТ) = О /->00 ' /_>оо х / и, следовательно, 0„ = Нт 0(г) - постоянная матрица. Рассмотрим траектории, вдоль которых V s 0 или Е s 0. Из (3.11) по- лучаем BM0„S(r) = O. (3.16) Пусть Вм - матрица полного ранга, тогда из (3.16) следует тождество 0.Е(г)*О. (3.17) Обозначим 0, - вектор-столбец матрицы 0„ и <st - элемент лектора S. Это позволяет переписать (3.17) в виде ^0,сг1(г) = О. (3.18) i Предположим, что Е(г) - периодический вектор (S(r) = E(t + T)), элементы которого являются сигналами с различающимися частотными компонентами. Это означает, что сг( (г) - линейно независимые функции времени. При этом уравнение (3.18) имеет только тривиальное решение ®i = Q, i = l,2.р, так что 0,=О. Таким образом, в предположении периодичности вектора £(<) из Е s 0 следует 0 = 0. Проведенный анализ устойчивости позволяет сформулировать следую Щую теорему.
г кава з. Синтез беспоисковых адаптивных систем 623 Теорема 3.1. Пусть пхп матрица Ам является устойчивой, nxm мат- рица Вм - полного ранга, Г = Гт>0 - mxm матрица, Н = НТ ~ пхп матрица, удовлетворяющая уравнению Ляпунова А*Н + НАМ = -Q, Q = QT > 0, (3.19) и S(t)-pxl вектор ограниченных функций. Тогда система (n+mp) дифференциальных уравнений (3.11), (3.13) Ё = АмЕ+Вм0(г)Е(г), €> = -rB^HE(t)S(t)T устойчива и E(t) —»0 при г —> «>. Более того, если р компонент вектора S(t) - сигналы с взаимно различными частотными компонентами, то сис- тема (3.11), (3.13) асимптотически устойчива в целом. Таким образом, теорема 3.1 сводит задачу синтеза адаптивной системы управления к конструированию структуры основного контура, обеспечи- вающего приведение описания ОНО к виду (3.11) и использованию для настройки неизвестных параметров регулятора (или самого ОУ) алгоритма (3.13). При этом в вектор сенсоров Е(г) должны входить лишь измеряе- мые или вычисляемые на основе измерений ограниченные функции вре- мени, а матрицы Ам, Г, Н удовлетворять условиям теоремы. Для реализации алгоритма адаптации следует записать уравнение (3.13) в терминах матриц настраиваемых коэффициентов Kx(t),KY(t). Для этого достаточно представить Г в виде Г ГГ‘ Н 1° rJ’ где Г; = Г(т > 0 - квадратные матрицы соответствующих размеров. При этом система (3.13) записывается в виде Ф = -Г1в2НЕ(г)Хт(г), Т = -r2B^HE(r)(¥+Kxx)T(KY)T. Используя равенства (3.10), с учетом К? а 0, КУ * 0 получаем ^Х(0 = -Г1В^НЕХт(г), RY(r) = -jKYr2BjHE(Y+Kxx)T(KY)TKY. (3'20) Структурная схема адаптивной системы ((3.11), (3.13)) с учетом струк- туры ОНО (рис. 3.1) приведена на рис. 3.2.
Рис. 3.2. Структурная схема адаптивного управления линейным ОНО Пример 3.1. Пусть объект управления описывается моделью вида Х = АХ + Ви, где Хб Я2, не Я1; А =| ° 1 |, В=f ? |; ап, а., В -неизвестные параметры. (do aj Требуется синтезировать алгоритм адаптивного управления, обеспечивающий достиже- ние близости траекторий замкнутой системы н эталонной модели, т.е. ЦУ: X -Хм —>0 при Зададим структуру эталонной модели в виде уравнения состояния Хм = АМХМ +Вму , где Хм е Я2, уе Я1; Ам =] ], В„ =| ° |; ад , at. Ь - параметры эталонной модели. (^о atj Параметры эталонной модели выберем исходя нз желаемого расположения полюсов замкнутой системы Xj = -1, Xj = -2 так, что ? - a,г - ад = (j - Х’)($ - Xj) - характеристи- ческое уравнение эталонной модели. Получаем а, = -3 , а0 = -2 . Значение b выберем равным 2. При этом статическая ошиб- ка эталонной модели будет равна нулю. Этап 1. Синтез алгоритма основного контура управления. Проверим условия согласованности модели объекта управления н эталонной модели (276) В4?=ВМ, ВМК?=АМ-А. Очевидно, что условия выполнены при любых параметрах объекта и эталонной модели (3*0, 6*0). Идеальное управление выберем в форме (3.16) H.(0=*?[R?x(r)+y(0]. где k.y=b/$. А,* =(оо-a0)/fc, kl = (al-ai)/b - «идеальные» параметры регулятора Заменяя «идеальные» параметры регулятора настраиваемыми, получаем алгоритм основ- ного контура управления в виде “(О = * ” (')[(*! (') *1 (')+*2 (0*2 (0)+ ?(')]•
625 Этап 2. Синтез алгоритма адаптации~~~~~~~------— Алгоритм настройки параметров регулят™. » й „>о ^ ’ч*“ь»-«оа)пр> Г,>0. *=> 6>«f](т» « x.1 где Н = Н >0-2x2 матрица, являют»^» модели: щвяся Решеиием уравнения Ляпунова для эталонной Таким образом, алгоритм адаптации имеет вид *• =-v>8('h(0. = ~?а8(')(у(0+rtf (t )х| (t)+*, (г )хг (/))* f (i), 5(,)^2el(t) + 4e1(f)/3,
626 Непрерывные адаптивные системы. Частьу где • Ъ -Уз •(*’)’>0 ' *оэФ*ициеит введенный УпР<»Це«ия реализации алгоритма (при этом антиградиентное напрввлеиис настройки к> не меняется, а изменяется лишь се скорость). ~ _ Результаты моделирования системы адаптивного управления при «о -1. а,«I. р = 1< V| =5. ?2 . Ю, нулевых начальных условиях для эталонной модели и объекта и начальных условиях алгоритма адаптации *,(0)=0. к2(0) = 0, Р(0) = 1 приведены на рис. 3.3. СоОТ. аетствующие значения идеальных коэффициентов регулятора основного контуре равны Г/ « 2, к' = -0,5, kJ =-2 . В качестве заданного входного воздействия был выбран меанд- ровый сигнал у “0,5(l+slgn(sin((n-f)/6))j, обеспечивающий алгоритму адаптации допол- нительные идентифицирующие свойства
р-чН, Схема скоростного градиента ГЛАВА4 СХЕМА СКОРОСТНОГО ГРАДИЕНТА Многообразие структур объектов и целей управления., возможность широкого выбора структуры основного контура даже при использовании квадратичных форм функции Ляпунова порождает целый спектр алгорит- мов адаптации. Для каждого из этих алгоритмов, подобно теореме 11, должны быть сформулированы условия применимости, обеспечивающие достижение поставленной ЦУ и устойчивости системы адаптивного управления. Обоснование работоспособности алгоритмов, как было пока- зано в предыдущем параграфе, - задача не простая, а изобилие теоретиче- ских выкладок затрудняет их использование в инженерной практике. Представляется разумным иметь методы или схемы синтеза, позволяющие для конкретной ЦУ с учетом специфики ОУ осуществлять выбор алгорит- мов адаптации из некоторого семейства (класса) алгоритмов и путем про- верки выполнения заранее оговоренных условий доказывать их работоспо- собность. К таким методам относится схема скоростного градиента, в ос- нове которой лежит идея настройки параметров в направлении, противо- положном скорости изменения целевого функционала вдоль траектории ОНО. Эта идея принадлежит А.А. Красовскому [14,15], который для зада- чи идентификации с адаптивной моделью установил общий вид алгоритма адаптации, оптимального по критерию обобщенной работы. Оптимальный алгоритм описывается функциональным рядом и в чистом виде не реали- зуем. Однако в первом приближении он совпадает с хорошо известными беспоисковыми градиентными алгоритмами. Если взять второе приближе- ние и предположить высокочастотность входного сигнала и квазистацио- нарность процесса настройки, то получается семейство алгоритмов скоро- стного градиента. Обоснование алгоритмов скоростного градиента, их мо- дификации, способы огрубления, обеспечивающие сохранение работоспо- собности при аддитивных и мультипликативных шумах, а также дискрети- зации алгоритмов управления для нестационарных ОУ, наличия фазовых ОгРаничений, сингулярных возмущений рассматривались в работах
628 ____________Непрерывные адаптивные системы. Част», у А.Л. Фрадкова [2, 7, 17, 28, 35 - 42], применение алгоритмов скоростн^ градиента в системах с запаздыванием рассматривается в работе [43]. цс пользование схемы скоростного градиента для управления механическими системами приведено в работе [45]. 4.1. Алгоритмы скоростного градиента и условия их применимости Вернемся к постановке задачи, описанной в §1.2. В предположении из- меряемое™ компонент вектора состояния (Хв(г) = Х(г)), отсутствии внешних возмущений (N{, N2 ^0) и с учетом структуры основного конту- ра (1.5), обобщенный настраиваемый объект (ОНО) описывается диффе- ренциальным уравнением вида X = F(X,O(^),t), (4.1) где Хе Л" - вектор состояния ОНО, 0€ - вектор входов (вектор на- страиваемых коэффициентов регулятора). Будем предполагать, что вектор-функция F(-) непрерывна по X, 0, t и непрерывно дифференцируема по 0 , а ЦУ задается целевым неравенст- вом (1.3) q<& при t>t„ Л>0, где q - локальный $ = $(Х(г),г) или интегральный q = j^(X(j),0(s), s)ds о целевой функционал ( q (•) - скалярная функция). Определение 4.1. Алгоритмом скоростного градиента (ЛСГ) называет- ся правило изменения вектора 0 , задаваемое уравнением адаптера вида d(0 + V(X,0,t)) , -i-----------— = -ГУ0со(Х, 0, t), (4.2) где Г = Гт>0- матрица коэффициентов усиления, ш(Х, 0, г) = + Vx9tF (X, О, t) - для локального функционала и (о(Х,0,г) = ?(Х,0,г) - для интегрального функционала представляет собой полную производ- ную функционала по времени в силу траектории системы (4.1), \|/(Х, 0j) - некоторая вектор-функция, удовлетворяющая условию псевдоградиент- ности
Глава 4. Схема скоростного градиента 629 V(X,0,r)T-Ve(o(X,®,t)SO. (4.3) Условие псевдоградиентности эквивалентно требованию, чтобы угол Ф между векторами ц/() и «X) лежал в пределах от ~ до (см. рис. 4.1). У(Х,0,Г) ; V0C)(X,0,r) Рис. 4.1. Геометрическая интерпретация условия псевлоградиентмости Условие (4.3) выполняется, например, если V(X, 0, r) = r1V0to(X, 0,1), (4.4а) или V(X,0,f) = r2sign(v0(o(X,0,t)), (4.46) где Г,! = ГТ >0 (1 = 1,2) - т$*.т$ матрицы, причем Г2-диагональная, sign (v0co()) - вектор, состоящий из знаков компонент вектора Ve<o( ). Условия применимости АСГ (4.2) для локального и интегрального це- левого функционала даются соответственно теоремами 4.1,4.2 [2]. Теорема 4.1. Пусть целевой функционал локальный и выполнены ус- ловия: 1. Условие разрешимости. Для любого Ре Л”* существует единст- венное решение 0 = Ф(Х, Р, г) уравнения 0+ф(Х,Р,г) = Р. 2. Условие локальной ограниченности. Функции F(X,0,t), Vx9(X,r), iy(X, 0, г), V0co(X,0,г) локально ограничены равно- мерно по t, т.е. для любого 0 > О существует с(0) такое,что |F(x, 0, <)|+|vx,(x, r)|+fr(x.e. t|+||ve<o(x,e, <)| Sc(S) в любой области {(X, 0, г): ||Х||+(|0Ц < 0, t > 0}. 3. Условие роста. Функция <у(Х,/) - неотрицательная, равномерно непрерывная в любой области {(X, г) :||Х| < 0, t >0} и удовлетворя- ет соотношению при||х||->«. (4.5)
630_______________ Непрерывные адаптивные системы. Чаг-в^ 4. Условие выпуклости. Функция й)(Х, ®, / ) - выпуклая по ©£ дт т.е. для любых ©, 0, X, t выполнено неравенство <в(Х, 0, г)-св(Х, 0, г) > (0-0)Т Veto(X, 0, /). (4 6) 5. Условие достижимости. Существуют вектор 0. G Я"1* и функцИя р(^) > 0 при q > 0 такие, что для любых X, t ш(Х,О„г)$-р(?). (4.7) Тогда все траектории системы (4.1), (4.2) с начальными условиями из множества Оо={(Хо,0о);(ч-гт)(®0 -0.) = о} ограничены и д(Х(/), -> 0 при г —>» , т.е. достигается цель управления (1.3) при любом Д >0. Теорема 4.2. Пусть целевой функционал - интегральный и выполнены условия разрешимости, ограниченности функций F(X, 0, t), V0co(X, О, г), Ф(Х, Р, 0, роста и выпуклости теоремы 4.1. Пусть, кроме того, существует вектор 0. е Я'"8 такой, что ' ш(Х,0.,О^О .(4.8) (условие достижимости для интегрального целевого функционала). Тогда при любых Х(0), 0(0) в системе (4.1), (4.2) достигается цель управления (1.3) при А = ?(Хв, О)+О,5|0о-0. -у(Хо, О0,0<.. Доказательство теорем 4.1, 4.2 проводится с использованием функций Ляпунова вида V(X, 0, t) = g(X.i)+0,5|® . (4.9) В частности, это означает, что алгоритм адаптации, приведенный в §3.3 принадлежит классу АСГ. В этом легко убедиться, непосредственно заме- нив Х(г) на Е(0, выбрав <?(Е, t) = 0,5ЕтНЕ и вычислив CO(X, &, t) в силу уравнения (2,11). Для пояснения условий теорем 4.1, 4.2 рассмотрим доказательство тео- ремы 4.1. Доказательство теоремы 4.1 [2,36]. Вычисляя скорость изменения функции (4.9) в силу системы (4.1), (4.2), имеем V, = ш(Х(0.0(f). О - Р,тГ+Г7вш(Х(г), 0(0, о,
Глава 4. Схема скоростного градиента 631 где Р, = ®(1) -О» + V(X(t), ®(t), t). По условию теоремы (Хо, ®0)е Йо ,т.е. РоеЦГ),где ЦГ) - линей- ная оболочка столбцов матрицы Г. В силу алгоритма (42) 4Р(/ЖеЦГ) и, следовательно, Р, е ЦГ) при всех 1 > 0. Но Г+Г - проектор на множест- во ЦГ) и, следовательно, Г+ГР, = Рг При этом V, принимает вид Vt = Ш(Х(0,0(0.0 - р;%со(Х(П. 0(0,0= = ю(Х(0,0.. О+[co(X(t), ®(t), 0 - w(X(0,0., 0]- -P,TV0to(X(0,0(0,0- Из условия выпуклости и достижимости получаем V( <-р(д(Х, О. O + (0(O-0.)TV0co(X(O,®(O,O-P^0co(X(0,0(0,0= = -р(<?(Х, г), 0 - у(Х(0,0(О.ОТ Veco(X(t), 0(0,0. Далее, из условия псевдоградиеитности (4,3) имеем V, <-р(?(Х,0,0^0. (4.10) Следовательно, И(Х(г),0(0,0 Г(Х(0), 0(0), 0) и траектории систе- мы (4.1), (4.2) ограничены. Наконец, из конечности интеграла jr/(X(t), t)di, вытекающего из о (4.10), условий локальной ограниченности и равномерной непрерывности q(X(t),t) следует достижение ЦУ q(X(l), t)0 при I-Joo. Доказательство теоремы 4.2 проводится аналогично. Замечания к теоремам 4.1,4.2: 1. В теоремах приняты обозначения: I н 1М-Е>? - евклидова норма вектора Хе /?”; V i=i ||х ||А = VxTAX - норма, порождаемая матрицей А; А+ - матрица, псевдообратная кА1; ®о = 0(0) - начальные условия. 1 Вещественная матрица А+ размера mxn называется псевдообратной или обобщенно обратной для матрицы А размера nxm, если выполняются условия АА*А = А. A‘=UAT = ATV, где U, V - некоторые матрицы.
632__________________ Непрерывные адаптивные системы. Част», у 2. Для однозначной разрешимости уравнения 0 + \у(Х, 0, г) = таточно, чтобы функция у(Х, 0(/),г) удовлетворяла условию Лив шица по 0 с константой I < 1: |у(Х, 0, t) -\|<(Х, 0, £)|| 51||<Э -q|| 3. Условие роста можно ослабить, заменив его требованием, чтобы ограниченности q на решениях системы (4.1), (4.2) вытекала огра ниченность X(z). 4. Условие выпуклости <й(Х, О, z) по ®е Я'"* означает, что скалярная функция ш(Х, 0, z) растет по аргументу 0 не медленнее линейной функции (см. рис. 4.2). В частности, при линейности со(Х, 0, t) по 0 неравенство (4.6) обращается в равенство. " Рис. 4.2. Геометрическая интерпретация условия выпуклости при 0е К1 5. АСГ, описываемые уравнением (4.2), принято называть алгоритмами в конечно-дифференциальной форме. Частными случаями АСГ явля- ются алгоритмы: а) дифференциальной формы= -Г70со(Х, О, t); (4.11) б) конечной формы -0 = 0О - у у(Х, О, t) (4.12) ( у - миожитель шага), которые получаются из уравнения (4.2) при у(Х, 0, t) = 0 и Г = 0 соответственно. Условия применения АСГ в дифференциальной форме (4.11) вы- текают непосредственно из теорем 4.1, 4.2. Условия применения АСГ в конечной форме (4.12) будут рассмотрены ниже. 6. Смысл требований принадлежности начальных условий множеству Яо состоит в том, что отклонение настраиваемых параметров от своих идеальных значений вдоль направлений, по которым не дей-
Глава 4, Схема скоростного градиента________________________633 ствуют дифференциальные составляющие, должно быть ограниче- но. Только при этом возможна компенсация начального отклонения за счет конечных составляющих. При использовании АСГ в диффе- ренциальной форме (4.11) это требование снимается, т.е. результат теоремы справедлив при любых начальных условиях Хо,0о. При этом матрица Г+ в функции Ляпунова (4.9) заменяется иа Г-1 (detr*O). 7) Наиболее существенными условиями теорем 4.1,4.2 являются усло- вия выпуклости и достижимости, которые гарантируют достижение ЦУ. Условие достижимости, по существу, означает наличие «иде- ального» управления, позволяющего решать поставленную задачу в условиях полной априорной информации о параметрах ОУ (0, =©(£)). Условия применимости АСГ в конечной форме (4.12) и интегральном целевом функционале приведены в теоремах 4.3,4.4. Теорема 4.3. Пусть целевой функционал локальный и выполнены ус- ловия разрешимости, выпуклости и достижимости (при 0, =0(Х,О) тео- ремы 4.1. Пусть, кроме того, при некоторых р>0,8>1 вектор 0, =О(Х, Z) удовлетворяет условию pY(X, r)||Veoo(X, 0, /)||3-1 > |0О-0.(Х, 1)|, . (4.13) а вектор-функция у(Х, 0, г) - усиленному условию псевдоградиентности хр(Х, 0, z)T V0co(X, О, z) > p|Vew(X, 0, t)f, (4.14) тогда в системе (4.1), (4.2) достигается цель управления (1.3). Теорема 4.4. Пусть целевой функционал интегральный, выполнены ус- ловия разрешимости и выпуклости теоремы 2. Пусть вектор О, =О(Х, г) удовлетворяет условиям (4.8), (4.13), а функция \р(Х, 0, t) - условию (4.14). Тогда в системе (4.1), (4.12) достигается цель управления (1.3). Замечания: 1. Усиленному условию псевдоградиентиости удовлетворяют, напри- мер, функции (4.4а) и (4.46) при 8 = 2,р=А.т1п(Г,) и 6 = 2, p = Amin(r2)/>/«i^ соответственно. Здесь Xmin(r) - мини- мальное собственное число матрицы Г. 2. При выполнении условий теоремы 4.3 доказано, что ЦУ (1.3) при Д = 0 достигается за конечное время г = г. н при z >/* в системе возможно возникновение скользящего режима на поверхности q=0. 3. Если величина ||©0 -0,(Х, :)|| ограничена, то в (4.12) можно брать у = const.
°"_______________________Непрерывные адаптивные системы. Часть V В заключение отметим, что при дополнительных условиях АСГ обла- дают идентифицирующими свойствами, т.е. обеспечивают в системе (4.1), (4.2) достижение дополнительной ЦУ О —> 0. при t—>°°. В частности, в линейных системах эти условия сводятся к достаточному разнообразию внешних воздействий. Подробнее с этими вопросами можно познакомить- ся, например, в [2] или монографии [36]. Выбор подходящей целевой функции, с одной стороны, связан с основ- ными требованиями, предъявляемыми к системе (точности, быстродейст- вия, помехоустойчивости и т.п.), с другой стороны, решающую роль в применимости схемы скоростного градиента играет степень сглаживания задачи, которая тесно связана с видом целевого функционала. Определение 4.2. Степенью сглаживания задачи d называется наи- меньшее целое число л, при котором л-я производная по времени от целе- вой функции (<?(л)) в силу уравнений ОУ явно зависит от 0, так что V8gw = 0 при i = 0.d -1, V8gw * 0. Для непосредственного применения АСГ необходимо, чтобы d = 1. Случай d = 0 соответствует случаю явной зависимости целевой функ- ции от настраиваемых параметров (^(Х, Ф(Х, 0, /), /). где Ф(-) - некото- рая вектор-функция, явно зависящая от 0). Для применения АСГ необхо- димо ввести дополнительные инерционные звенья в ОУ или целевой функционал. Повысить инерционность объекта можно, например, введением допол- нительного фильтра eZ =-г+Ф(Х, 0, г), где е > 0 - малый параметр. При этом, естественно, расширяется вектор состояния объекта, а целе- вая функция ?(Х, г) (где X = (X:Z)T) имеет степень сглаживания d = 1. Можно «сгладить» саму целевую функцию, например, по формуле $ = -а$+Р9(Х,Ф(Х,©,/).*). а>0. При а = 0, Р=1 сглаживание соответствует замене локального целево- го функционала <?() на интегральный q(-). При d > 2, наоборот, требуется снижение степени сглаживания. Этого - можно добиться или переходом к новому целевому функционалу q = (переходом от интегрального целевого функционала к локальному), или отбрасыванием малоинерционных звеньев в ОУ. Таким образом, переход от локального целевого тральному и наоборот служит средством приведения к d = 1. функционала к инте- пппяпка сглаживания
4 С^ояскорос,гногоградиента _________635 АЛГОРИТМОВ СКОРОСТНОГО ГРАД ИЕНТА [36] деление 43. Способность сохранения системой некоторых свойств ОпР* и, диссипативности и т.п.) при достаточно малых вариациях ее (ycT^^Vjqgpgott модели называется грубостью (робастностью} системы к ^^ассувариа^одели. яфетическая ценность сво“ства грубости алгоритма управления со- вОзможности получения приемлемых, с позиции точности, резуль- СТО”Т управления реальной технической системой с помощью регулятора, тат°в У ованного по ее математической модели. СЙЙДоказано, что АСГ в конечной форме (4.12) в естественных условиях ври ограниченных возмущениях N(t) (|N(f)|< An <«) н описании ОНО в виде X = F(X, 0,f) + N(t), (4.15) или X = F(X,0+N(/),t) (4.16) является робастным даже при зависимости возмущения от фазовых коор- динат N = N(X, 0, Г). Это достигается путем выбора достаточно большого коэффициента у. Отметим, что модели (4.15), (4.16) являются характер- ными при учете шумов датчиков измерения и адаптера Что касается АСГ в дифференциальной форме (4.11) или конечно- дифференциальной форме (4.12), то они обладают робастностью только при дополнительных условиях. Это объясняется тем, что система (4.1), (4.2) или (4.1), (4.11) находится на границе устойчивости. Имеет место лишь ограниченность траектории (Х(г), 0(0) системы и асимптотическая устойчивость по части переменных состояния, а именно по Х(0. Это при- водит к тому, что при сколь угодно малых возмущениях управление 0(0 неограниченно растет при г —> , в то время как основная цель управления продолжает достигаться. Для преодоления негрубости алгоритмов исполь- зуются два подхода: а) препятствовать росту 0(/) при достаточно боль- ших 0; б) прекращать изменение 0(0 при малых значениях q. Первый ^иант Реализуется введением в АСГ отрицательной обратной связи, вто- ~ ведением зоны нечувствительности по целевой функции. АСГ с от- тельной обратной связью имеет вид ^(0+w(X, 0 щ , -------------” = -r[jtVew(X, 0,г)+М(0+V(X, 0, Г))], (4.17) где г r-т сТИ (з ** > 0. > 0, цг(.) удовлетворяет условию псевдоградиектно- •^4), Af(0) - вектор-функция, препятствующая чрезмерному увели-
____________Непрерывные адаптивные системы. Част», у Доказано, что при описании ОУ в форме (4.15), где N(t) == N(X, ©, f) h локальном целевом функционале АСГ (4.17) обеспечивает замкнутой сис- теме диссипативность. Более того, если при «идеальном» управлении в замкнутой системе достигается ЦУ с А = А., то при любых начальных ус- ловиях Х(0), 0(0) и достаточно большом к АСГ (4.17) обеспечивает сис- теме достижение ЦУ с уровнем, сколь угодно близким к предельно дости- жимому. На практике регуляризующую функцию М (0) часто выбирают в виде М(0)=а© (а>0). Недостатком этого способа является существенное искажение процесса управления при малых Vew(X, 0, t) . Преодолеть этот недостаток можно путей введения зоны нечувствительности по Ц© -О||, например, если взять а(0 - 0) при ||© - ©II > d, М(&)- и —и (4.18) 0 при ||0 - ©О < d, ' где а, d - положительные числа, 0е R1"* - некоторая априорная оценка вектора 0,; или использовать релейную обратную связь Gsign(0-0) при II©- ©II >d, М(в) = - ! -J л (4.19) О прн||0-©|| <d, гдеС>0. АСГ в дифференциальной форме с зоной нечувствительности по целе- вой функции имеет вид d@ Г-ГУв(О(Х, 0, t) при д(Х, 0 £ А, dt 0 при q(X, г) < Д, Д > 0. (4.20) Применение огрубленных АСГ позволяет обеспечить работоспособ- ность синтезированных систем в условиях стохастических возмущений ог- раниченной интенсивности, нестационарности ОУ, а также обеспечивает сохранение свойств системы при дискретизации алгоритмов управления. Если параметры системы постоянны, но иа объект управления дейст- вуют случайные возмущения, то настраиваемые параметры будут флюк- туировать. Размах флюктуаций убывает с уменьшением коэффициента усиления Г. Поэтому выбор подходящего коэффициента усиления в алго- ритмах адаптивного управления осуществляется как компромис между скоростью адаптации и точностью. Типичным является использование ал- горитмов с убывающим коэффициентом усиления. Наиболее простой за- кон убывания имеет вид Г(г) = Г,+-^2-, г+ц
637 аСКОРостногоградие1т . Схема££Л--—~~ - матрицы с постоянными коэффициентами, Ц>0. Дру- (* Гi ^цйЯ алгоритма настройки матрицы усиления имеет вид овании того или иного алгоритма настройки матрицы усиле- 0ри исЯ0Лс^едует помнить о выполнении условия двухсторонней ограни- ни» г(,) ° чеин<*ти 0<rmin<r(f)srmax, е гарантирует сохранение работоспособности АСГ. 4 з. АЛГОРИТМЫ СКОРОСТНОГО ГРАДИЕНТА В СИСТЕМАХ С ЯВНОЙ ЭТАЛОННОЙ МОДЕЛЬЮ Системы с явной эталонной моделью по способу достижения цели управления можно разделить на системы параметрической и сигнальной адаптации. В системах с сигнальной настройкой эффект адаптации достигается без изменения параметров управляющего устройства за счет повышения ко- эффиециента усиления или на основе создания скользящих режимов. При этом к управляющему воздействию добавляют специальный сигнал - сиг- нал адаптации. Эти системы достаточно просто реализуются, но обеспечи- вают требуемое качество управления лишь в ограниченном диапазоне из- менения параметров ОУ. В системах с параметрической адаптацией цель управления достигает- ся за счет изменения параметров управляющего устройства. Такие систе- мы более универсальные, но имеют более сложную структуру. Сложность систем определяется числом настраиваемых параметров. адаптааелью П0ВЫШения точности системы и быстродействия процесса ной и ЦИИ Применяются алгоритмы, сочетающие в себе методы сигналь- настройки 1^етрической адаптации. В таких системах алгоритм сигнальной быстро^ и выбиРается обычно релейным, обеспечивая в системе высокое Нии коэЛАСТВИе' ^аРаметРическая часть настройки служит для стабилиза- ПаРаметпич ЦИеНТа усиления в требуемых пределах. Системы с сигнально- и 0ТличаюЛСКОЙ адаптаиией обеспечивают достаточно высокую точность ЛяЮщей По, * пР°стотой реализации, так как наличие сигнальной состав- 8 качеств°ЛЯеТ уменьшить число перенастраиваемых параметров. *°РМе npocnf приме₽а Рассмотрим синтез АСГ для ОУ, описываемого в фанства состояния уравнением (3.1) гДеХб/?(1 т *(O»AX(r)+BU(/), ПостояНнь1^ 6 Я ~ векторы состояния и входа ОУ; А, В - лхл и лхт атРицы неизвестных параметров ОУ.
638 Непрерывные адаптивные системы. Ча»»,, V Эталонную модель выберем в форме (3.2) хма)=АмХм«+вмуа). где Хм е Л"; Ye Rm - задающее воздействие. Потребуем для замкнутой системы достижения ЦУ (23) в условиях па- раметрической неопределенности limE(f) = O, где Е(г) = Х(г) - Хм (г) - вектор ошибки. Будем предполагать управляемость ОУ н измеряемость вектора состоя- ния (X, =Х). Система с параметрической адаптацией Этап 1. Для применения схемы скоростного градиента выберем ло- кальный целевой функционал, например, а форме скалярной квадратичной функции <?=0,5ЕтНЕ, Н = Нт>0. Очевидно, что из </—>() при г— следует выполнение ЦУ (3.3) ( Е(0 —> 0 при t —> 00 ). Этап 2. Действуя по схеме скоростного градиента, получим произ- водную целевой функции в силу траекторий системы в (3.1), (3.2) q, = Ш(Х, ©, Г) = ЕТН(АХ + BU - АМХМ - Вм Y) . (4.21) Структуру основного контура управления выберем из класса допусти- мых алгоритмов, удовлетворяющих условию достижимости (4.7). Условие достижимости будет выполнено, например, если уравнение (3.5) (A-AM)X(r)+BU.(r)-BMY(Z) =0 разрешимо относительно U, бЯт при любых Хб7?",¥еЯ”г и Ам - гурвицева матрица. Действительно, при этих условиях существует матрица Н = Нт>0, удовлетворяющая уравнению Ляпунова НАМ + aSh = -G, G = GT > 0, и при этом ш(Х, U, t) = -0,5ETGE < -<ы, (оо = > 0), ’ ^ПИХ (“) т.е. условие (4.7) выполняется. Идеальное управление запишем в виде * Оценка ветчины Од, определяющей скорость достижения ЦУ, получается на основе известного матричного неравенства: Xmin(M)jx|<xTMx<Z mx (м)|4 гае X^n(M),XnBX(M) - минимальное н максимальное собственное число матрицы М размера лхл, хе К".
Глава 4. Схема скоростного градиента 639 U.=K?X+K?Y, <4122) где матрицы идеальных коэффициентов регулятора удовлетворяют соот- ношениям (3.7 а) ВК? = Ам -А, ВК? =ВН. Выполнение соотношений (3.7а), в свою очередь, эквивалентно ранго- вым условиям Эрцбергера [2] rank В = rank{B,B J = rank{B, Ам - А). (4.23) Этап 3. Используя прямой подход к синтезу, выберем в качестве на- страиваемых параметры регулятора 0(t)=col{Kx(t), KY(t)}. При этом структура основного контура имеет вид u(o=kx(ox(o+k¥(oy(o- с4-24) Этап 4. Перейдем к синтезу алгоритма адаптации в классе АСГ. Ско- ростной градиент имеет вид VKxcXX, 0,0 = ВТНЕХТ, УКуш(Х, 0,0 = BTHEYT. Выбирая АСГ в дифференциальной форме (4.11) и полагая Г = у1„, у >0, получим ^Х = -уВтНЕХт, ^X = -yBTHEYT. (4.25) dt dt С целью повышения быстродейстаия в контурах параметрической на- стройки коэффициентов регулятора (4.24) можно применять пропорцио- нально-интегральные алгоритмы адаптации (АСГ в коиечно- дифференциальной форме (4.2), (4.4а)) = -уВтНЕХт -у, -Г ВТНЕХТ], dt dfL (4.26) = -yBTHEYT -у, -Г BTHEYT1. dt at*- J Этап 5. Проверим выполнение условий теоремы 4.1. Условия дости- жимости выполнены, если выполнено условие Эрцбергера (4.23) и Ам - гурвицева матрица. Условие выпуклости выполнено (см. замечание 3 к теоремам 4.1, 4.2) в силу линейности (3.1) по 0. Условие роста выполне- но, если Ам - гурвицева и Y(t) - ограниченная функция. В силу теоремы 2 все траектории системы (3.4), (4.24), (4.25) ограничены и выполняется ЦУ <?(Е(г), г) -> 0 при г -> оо. Существенной особенностью систем с алгоритмами вида (4.25), (4.26) является свойство сохранять работоспособность при изменении коорди- натных и параметрических возмущений в широких пределах. Недостатком является ухудшение качества системы при высокой скорости изменения параметрических возмущений. В этом случае целесообразнее применять алгоритмы сигнальной адаптации.
640 Непрерывные адаптивные системы. Часть V Система с сигнальной адаптацией. Вернемся к рассматриваемой за* даче синтеза, предполагая этапы 1 - 3 выполненными аналогично системе с параметрической адаптацией. На четвертом этапе вместо алгоритмов (4.25) или (4.26) выберем АСГ в конечной форме (4.12), (4.4а) Кх = -уВтНЕХт, KY е -уВтНЕУт, (4.27) или в форме (4.25), (4.46) Кх = -уsign(BTHEXT), KY = -уsign(BTHEYT). (4.28) Подстановка (4.27), (4.28) в (4.24) приводит соответственно к алгорит- мам управления вида иа)=-у(||та)||2+||х(о||2)втнЕ, (4.29) U(/) = -Y т п SMI+SW ВТНЕ. (4.30) Заметим, что при управлении вида (4.29) или (4.30) контур адаптивной подстройки параметров регулятора отсутствует. Этап 5. Для обоснования работоспособности алгоритмов (4.29), (4.30) используем теорему 4.3. Рассмотрим, например, выполнение условий тео- ремы 4.3 для алгоритма (4.30). Условие разрешимости выполнено, так как градиент функции ш(Х, 0, t) по настраиваемым параметрам не зависит от О. Условие выпуклости выполнено в силу линейности ОУ по входам. Ус- Л • го ловие достижимости выполнено при р(д) = aoq , a0 = . min 1 ' и U, вида ^max (Н) (4.22). Условие роста выполнено при 5 = 1. Наконец, условие (4.13) вы- полняется при v>|b+Mia-a«II2+IIbmII2 • Следовательно, в системе (3.4), (4.30) достигается ЦУ Е(г)—>0 при t —. Другой вариант структуры основного контура для рассматриваемой за- дачи можно получить, если в качестве настраиваемых параметров выбрать непосредственно вход ОУ (О = U). Скоростной градиент в этом случае равен Vu(fl(X, U, г) = ВТНЕ и алгоритм (4.25), (4.46) (при 0О = 0 ) примет вид U = -у sign(BTHE). (4.31) Для обоснования работоспособности алгоритма вновь воспользуемся теоремой 4.3 с учетом замечаний. Условие псевдоградиентиости выполне- но при 5 = 1. Условие роста: если У(т) - ограниченная функция. Условие однозначной разрешимости выполняется в силу того, что
гчява 4. Схема скоростного градиента_________ \|/(X,0,r) = sign(BTHE) 641 не зависит от 0. Условие выпуклости выполняется в силу линейности ОУ по управлению. Условие достижимости выполнено при р(д) = Оо<?, ao^mfoCGVlnaxtfl) и U.(X, Г) вида (4.22). Из теоремы 4.3 с учетом за- мечаний следует, что при у(Х, Г) =Yx|X|+Yy |Y|, где |Х| = £|х,|, |Y| = Yx i|B+(AH-A)|p-,,Yv2|B*BM|p’‘. траектории системы (3.1), (3.2), (4.31) ограничены и E(t)-»O при »-»0. Алгоритмы вида (4.29) - (4.31) рекомендуется применять в случае бы- стро меняющихся параметрических возмущений ОУ, ио в узком диапазо- не. При этом возможно возникновение скользящих режимов на поверхно- сти <?(Е) = О. Системы сигнально-параметрической адаптации. Другой класс ал- горитмов адаптивного управления для ОУ айда (3.1) с эталонной моделью (3.2) можно получить, если перераспределить составляющие закона иде- ального управления (4.22), задав структуру основного контура вида U=KxX+KyY+Us (4.32) и выбрав вектор настраиваемых параметров в виде 0 = col(Kx, KY, Us)e /?ям+т'+м. Здесь Us - сигнальная составляющая управления. Вновь выбирая целе- вую функцию q = 0,5ЕтНЕ, вычислим компоненты скоростного градиента VKx<j, =ВТНЕХТ, 7кд = BTHEYT, = ВТНЕ. Если в алгоритме адаптации (4.32) положить r = diag(Y1Imn,y2Iml,Om), а алгоритм для сигнальной составляющей взять в конечной форме (4.12), то адаптивный регулятор будет описываться уравнением (4.32) при Us=-Y|E|sign(BTHE), (Sv Т Т dKv т Т (4.33) ^L = -Y1BTHEXT, ^X = -Y2BtHEYt, dt dt где Yj >0, у2 >0, y>0. Для проверки условия достижимости ПОЛОЖИМ • ВК?=(АМ-А), K.Y = B+B„, BU$ = (Ам -G)E, 0. =col(K?, K.Y, U,).. Тогда ш(Х, О., r) = -ETHGE<-Oo<? и, следовательно, условие дости- жимости выполнено при любой гурвицевой матрице G, удовлетворяющей 42 Зак. 108
___________________________Непрерывные адаптивные системы. Часть V неравенству Ляпунова HG+GTH < 0. Матрица задает желаемую динами- ку процессу адаптации, которая а данной структуре не зависит от динами- ки эталонной модели. Из теоремы 4.3 следует, что при у>|в+(Ам -G)||/p система (3.4), (4.32), (4.33) асимптотически устойчива по переменным ошибки E(z) и все ев траектории при отсутствии помех ограничены. Следует заметить, что перераспределить составляющие закона управ- ления можно по разному. Например, выбрав U. = В+(АМ-ДА), К? =В+(АМ -А), K.Y = В+В„, гдеА = А+ДА. В алгоритмах адаптации в системах с явной ЭМ присутствует матрица В, которая, вообще говоря, неизвестна. Одиако можно показать, что Ад- СУ сохраняет работоспособность, если заменить матрицу В иа любую матрицу того же размера В , связанную с В соотношением В = КВ, где К = Кт > 0. В частности, можно заменить В иа Вм, если выбрать струк- туру основного контура в форме (З.б) и выполнены условия разрешимости (3.76). С ростом размерности векторов входа, выхода, состояния ОУ реализа- ция АдСУ а явной ЭМ становится более громоздкой. Упрощению структу- ры препятствует условие адаптируемости (4.23). В следующем параграфе описываются адаптивные системы с неявной эталонной моделью, позво- ляющие за счет ослабления условия адаптируемости снизить требования к структуре основного контура и полноте измеряемой информации. Пример 4.1. Рассмотрим объект управления, описываемый моделью в форме простран- ства состояния Х = АХ+Ви, „а I . Г # П . (0) „ где XeR , ueR1; А= 1, В= „I; а», at, 0 - неизвестные параметры ОУ («о ai) (.₽) Требуется синтезировать АСГ с явной эталонной моделью, обеспечивающий Достижение в замкнутой системе цели управления (ЦУ) Х-Х„-»0 при »-»«» , где ХмеЯг - вектор со- стояния эталонной модели XM=AuXu+BMy . (О 1 ) „ (0\ с известной матрицей А„ =1 _3 • в« =1 2 и скаляРным задающим воздействием у(») 1. Синтез системы параметрической адаптации Этап 1. Синтез алгоритма основного контура. Выберем локальную целевую функцию ?(Е) = 0,5ЕтНЕ .где Е = Х- х„ - ошибка сле- жения, Н = Нт >0. При этом ЦУ зададим в виде ч(Е)-»О при /-><». Для синтеза основного контура проверим выполнение условия Эрцбергера (4.24): ВК* =А„-А. в*;=вм.
Глава 4. Схема скоростного градиента 643 ' 1 । . где К* = (*’ скаляр. Решая (4.24), находим коэффициенты идеального регулятора Таким образом, система (4.24) разрешима, сели 0*0. Идеальное управление зададим в форме линейной обратной связи (4.22) , «. = К'Х + Л*у. Заменяя идеальные коэффициенты регулятора настраиваемыми параметрами, получки структуру основного контура управления “(О = МОх(О+М0Д')=М0л|(0+МФг(0+М0у(')- Этап 2. Синтез алгоритма адаптации. Выбирая АСГ в дифференциальной форме (4.2$), нолучвем к* =~У|ВТНЕХТ, 4,=-у2ВтНЕу, где У|>0, у3>0, Н = Н‘>0 - 2x2 матрица, являющаяся решением уравнения Ляпунова для эталонной модели ha„+aJh=-g, где G = GT>0, „ (40) Выбирая G “I 0 2 получаем Н = Таким образом, алгоритм адаптации имеет вид =-Г|8(0*|(')- *r, =-Yi8(»)*2(0' *,, = -у28(т)у(г). где 8(/) = 2е|(«)+4ег(т)/3, e/(0e-‘<(r)-*Bf(0 Дискретизованный и огрубленный согласно §4.2 параметрический алгоритм адаптивного управления описывается следующими уравнениями. «(»„)=('« (»« )+ ('«)*2 (»-)+('• )>'('» )’ к,, (»и+|)=*<3 (»-)}• «((„)= 2e,(rJ+4e2(z.)/3, i=U> где tu=nh,h>0 - шаг дискретизации, »«Л1......Ц;>0- Результаты моделирования приведены на рис. 4.3. Моделирование проводилось при сле- дующих условиях: а) объект управления: Ц)=-1, а( = 1> ₽=Ь Jf2V,)=0' б) эталонная модель: ц, = -2, «t = -3. b-2, .г„|(0)=Ао(0)=®1 в) алгоритм адаптивного управления: 42
। ____________ Непрерывные адаптивные системы. у Г|=2 . YjHO, Мо=О, I», =0, *,(0)«0. ^(0)«0. М°) = 1 • Л = 0,02 ; г)задающее воздействие yfT.JsO.sJl+signJsinfn-T./ie))), шаг дискретизации Л = о.О2 Рис. 43. Результаты моделирования системы параметрической адаптации Рис. 4.4. Результаты моделирования системы сигнальной адаптации в форме (439) 2. Синтез системы сигнальной адантацнп. Вернемся к рассматриваемой задаче, пред- полагав, что структура алгоритма управления выбрана в виде (4.29) или (4.30). Для рассмат- риваемого примера имеем “(/)=-'ГзОу(')|+Ь(,)|+1*г(,)|)5(,)> шш
глава 4. Схема скоростного градиента 645 и(0='ИГ«»>8п8(0- где 8(т)=2е|(«)+4е2(т)/3 • «/(0=*((«)--М0- Результаты моделирования при нулевых начальных условиях объекта управления и эта- лонной модели, коэффициентах усиления у, =36, у.=10 для сикгезироваииых алгоритмов управления приведены соответственно на рис. 4.4,4.5. Рис. 4.5. Результаты моделирования системы сигнальной ждиитацни я форме (430) ол 06 0.4 02 о -02 О 1*1 1.2 0.1 5 10 IS 20 V ав ат П.6 аз а* Ч 10 -ол "0,6 "0,1 -U и в —Is- 1 » сигнально-параметрическо*1 «да „ -...„и объединяя алгоритмы Система сигнально-нараметричсской ядантац • осой И сигнальной адаптации, подучаем управление вида и(0=Ч(0+“-И’
646_____________________________Непрерывные адаптивные системы. Чат у где u^f/) - параметрический алгоритм адаптивного управления в дискретизованной форме описывается системой Я/, Оя ) а ) Л*| Оя ) * Оя )Л2 (fn ) * ^у ) У Оя ) * 0я.|)а А,( Оя )~А{У|8(/я )“Ч (б.)"М(Ля| би)}. ('.*l)=*r, ('»)-*{V|S('n)<’('»)-Mo*,2 (»„)}. *, )=к, (/„)- Л{у28(/„) у (/„) - g|*y (/„)}. 8(/,) = 2е|(/„)+4е2(/„)Д с, (/„) = */(/„)-*«;('»)• » = 1-2. а «,(/) можно выбрать, например, в форме ^(/)^-74sign6(/). Результаты моделирования при у, = 5,у2 = 2,у4 =0,8, ph=0, ц,»о, (О) = о. *ъ(0) = 0, АДО)=О. й = 0,02 приведены пврис. 4.6. 4.4. Алгоритмы скорост ного градиента в системах С НЕЯВНОЙ ЭТАЛОННОЙ МОДЕЛЬЮ (35, 36] Рассмотрим адаптивную систему управления, в которой эталонная мо- дель выступает не в виде реализуемого динамического звена, а в виде не- которого «эталонного уравнения». Системы с параметрической адаптацией. Рассмотрим ОУ, описы- ваемый уравнениями состояния X = AX + BU , Хв = LTX, (4.34) где X = X(t)e Л", V = U(t)e Ят, X, = Хв(/)е R1 - векторы состояния, управления в выхода объекта; А = А(£), В = В(£), L = L(lj) - параметры ОУ, зависящие от £е S. Поставим задачу синтеза алгоритма адаптации 0 = F(XB), (4.35) обеспечивающего для любого £е Е достижение цели управления lira ЦХ(О - Х.(/)|| = 0, Нт 0(г) = const. . (4.36) Регулятор основного контура выберем а виде линейной обратной связи по измеряемым выходам объекта и = 0тХв. (4.37) где 0/хт ~ матРииа настраиваемых параметров. Поставленную задачу синтеза будем решать методом скоростного гра- диента. Выберем локальный целевой функционал вида 9(Х) = 0,5ХтНХ. Н = Нт>0.
647 г„ява 4. Схема скоростного градиента Преобразуем алгоритм основного контура (4.37) к виду U = RT(X,)0, (4.38) где ёт =(eT ~ lxim вектоР настраиваемых параметров, составлен- ных из столбцов 0, (i = l,m) матрицы 0, X R(Xe) = О ' - Imxm матрица. 8- X О Вычислим со(Х,ё) - производную <?(Х) в силу траектории системы (4.34), (4.38), а затем градиент V^<o(X, 0). Имеем 0)(Х, ё) = хтн(ах+BRt (Х,)0), Vgio(x, ё) = [xTHBRT (X, )]Т = R(X,)BTHX. (4.39) В правую часть равенства (4.39) входят неизмеряемые переменные со- стояния X, в то время как в алгоритм адаптации должны входить только измеряемые выходы ОУ Хв. Потребуем выполнение дополнительного ус- ловия HB = LG, (4.40) где G = (Gt... Gm) - некоторая Ixm матрица со столбцами G,g Подставляя уравнение (4.40) в (4.39), получаем V0to(x, ё) = R (X в )GTLTX = R (X, )GfX, = . (4.41) Выбирая АСГ в дифференциальной форме (4.11), получаем алгоритм адаптации вида В 0 = -Г (4.42) где Г = Гт > 0 - Imxlm матрица. Если матрицу Г выбрать в блочно-диагональной форме и учесть, что Хв - скалярные функции, то алгоритм адаптации можно записать в виде V-G^X.F.Xi,, «=Гй, (4.43)
648 Непрерывные адаптивные системы. Часть V где О, - столбцы матрицы 0, Г, = Г? > 0 - /х/ матрицы. Структурная схема адаптивной системы представлена на рис. 4.7. Заметим, что в системе (4.34), (4.37), (4.42) (или (4.43)) отсутствует в явной форме эталонная модель. Однако при достижении в системе Цу . (4.36) процесс адаптации прекращается = 0 j. Следовательно, GT'X, =0, i = l,m, (4.44) что позволяет трактовать эти уравнения как неявно заданную (с помощью коэффициентов векторов матрицы G ) эталонную модель. Поясним это на Алгоритм управления Рис. 4.7. Структура адаптивной системы управлении с иеявиой эталонной моделью Пусть ОУ (4.34) имеет скалярный вход и(/), а в качестве выходных пе- ременных выступает скалярный выход хв(Ц и его производные xB(f).x^~>}(t), так что X, = (х, < ... х«-*’)Т = (1 Р... Ри~'})Г х,, где p-d!dt-оператор дифференцирования. Матрица G в этом случае представляет собой вектор размером Zxl. С учетом этого уравнение G?X, =0 можно записать в виде
Гл”*Л Схемаскоростного градиента 649 g(p)xB(t) = O, (4.45) ГДе &1~1Р + 81-2Р1 2 +... g0 - многочлен от оператора дифферен- цирования с коэффициентами вектора G . .™апМЕ^е?Ие ^-45) представляет собой запись однородного дифферен- уравнения с постоянными коэффициентами, характер общего Р®*®® _ котоРого определяется корнями характеристического уравнения g(X) - 0. Таким образом, выбирая коэффициенты матрицы G, можно за- дать желаемую динамику эталонного уравнения (4.45) и как следствие - желаемую динамику адаптивной системы. Для обоснования работоспособности системы (4.34), (4.37), (4.42) вос- пользуемся теоремой 4.1. Условия локальной ограниченности и роста вы- полнены, так как правые части системы и функция q(X) являются глад- кими функциями, не зависящими от г. Условие выпуклости выполняется в силу линейности системы по 0 . Условие достижимости будет выполнено, если существует матрица 0. такая, что О)(Х,0.) = Хтн(аХ + В0.гХв)<О при Х*0,Н=Нт>0. (4.46) При этом нет необходимости находить матрицы Нив., поскольку алгоритм (4.39) от них не зависит. Достаточно убедиться, что они сущест- вуют. Таким образом, возникает следующая алгебраическая задача Даны пхп матрица А , nxm матрица В, nxl матрица L, Ixm мат- рица G. Требуется найти условия существования пхп матрицы Н = НТ >0 и 1хт матрицы 0. таких, что HA. + AlH<0, HB=LG, A. = A+B0lLT. (4.47) Для формулировки утверждения, являющегося решением поставленной задачи, понадобится следующее определение. Определение 4.4. Пусть Р(Х) - mxm матрица, состоящая га правиль- ных дробно-рациональных функций от X, имеющая вид P(X) = Sj’(^In-R)~ls2> где R - пхп матрица, S!,S2 - nxm матрицы, 1Л - (пхп) единичная матрица. Введем следующие обозначения: 5(X) = det(XI„-R), q>(X) = 8(X)detP(l), D=limXP(X). Матрица P(X) называется минимально-фазовой, если многочлен ф(Х) - гурвицев. Матрица Р(Х) называется строго минимально-фазовой, если многочлен <р(Х) - гурвицев, а матрица D - симметричная н положительно определенная. Можно показать, что <р(Х) - многочлен не выше п-т порядка со старшим членом X"“*detD. 41 Зак. 108
650 Непрерывные адаптивные системы. Часть-V В частности, при т = 1 Р(Л) = <р(А,)/5(Л) - дробно-рациональная функция, а <р(Л) - многочлен степени не выше п -1. Требование мини- малыю-фазовости Р(А) означает гурвицевость многочлена ф(Х), а для строгой миннмально-фазовости требуется, чтобы многочлен <р(А) был гурвицевым степени л-1 с положительными коэффициентами. Теорема 4.5. Пусть для любого £ = 3 матрица TGTW(X) - строго минимально-фазовая при некоторой T = diag-fa,...,i:m},Tz >0, где W(X) = Lt(XI-A)~'b - матричная передаточная функция ОУ. Тогда существуют матрицы Н - Нт > 0 и О», удовлетворяющие усло- виям (4.47), и в системе (4.34), (4.37), (4.42) достигается ЦУ (4.36). Кроме того, у системы существует квадратичная функция Ляпунова У(Х, 0) = ХтНХ + |0-0.[2г-', где Г = Гт>0 - ml xml матрица. Замечания: I. Согласно условию теоремы и определению строго минимально- фазовой матрицы при любом £ = S должны выполняться условия: a) 5(A)detGTW(A) - гурвицев многочлен; б) Матрица TD - симметричная и положительно определенная, где D = GT Hm XW(X) = GTLTB . 2. Если ОУ имеет скалярный вход (т = 1), то условия теоремы 4.5 сводят- ся к требованию строгой минимально-фазовости функции GTW(X), что, в свою очередь, эквивалентно выполнению условия: ц(Х) = GTQ(X) - устой- чивый многочлен степени л-1 с положительными коэффициентами. Здесь Q(X) = a(X)W(X), a(X) = det(Xl-А), Согласно критерию Стодолы необ- ходимым условием устойчивости многочлена является требование, чтобы все коэффициенты многочлена имели одинаковый знак. Следовательно, достаточно проверить положительность хотя бы одного, например, стар- шего, коэффициента Ц(Х). Требование гурвицевости ц(Х) сохраняется. 3. В связи с формулировкой теоремы в терминах матричной передаточ- ной функции W(X) объекта управления не обязательно приведение опи- сания ОУ к форме пространства состояния (4.34). 4. В теореме не требуется ни управляемость, ни наблюдаемость ОУ. По- этому многочлены числителя и знаменателя дробно-рациональной функции w1?(X), являющейся элементом матрицы W(X), могут иметь одинаковые корни (нули и полюса wM(X)). Однако в силу условия теоремы эти корни
Гп1т8 4. Схема скоростного градиента иметь отрицательные ВеЦ1ест^^------___ числителям знаменателя Wy(X) Д0ЛЖны Z'4**’. т-е-^^ГГ^- Системы с параметрической ада ПфШв**мц. ^лены о* !!2|х<<>-М)Н И ограниченность всех траекторий замкнутой Св„ (148> В качестве X.(z) выбирается Решение^Д0ВДе^,Ы’ A.X.(I).BSlC где А. - желаемая матрица замкнутой системы, состоящей (Ш) алгоритма «идеального» управления Щ8в 10 Оу (4.34) и u.=eJxB(t)-eTYw, так что А» =A+B®TLT. В частности, при Y(t)=const упав описывает замкнутую систему в установившемся cocroZu^(4А9> (4.49) можно рассматривать как неявную эталонную уР»*ине без учета динамики ОУ. ь’ постРОенную Покажем, что закон управления (4.50) обеспечивает в сие» < (4.50) достижение ЦУ (4.48). Для этого, выбирая целевую ivHwmV4,3^’ ратичиой формы д(Е) = 0,5ЕтНЕ, Н = НТ, Е = Х~Х., с учетом ния (4.50) вычислим О)(Е, ®.) = (Х-Х.)ТН^(А +В01и)х-В01у(г)-Х^= = (Х-Х.)Т НА.(Х-Х.)-(Х-Х.)ТНХ., Пусть матрица идеальных параметров О» выбирается из условия гур- вицевости матрицы А* так, что существует матрица Н = Нт >0, удовле- творяющая неравенству А?Н+Н.А. <-рН<0, р>0. Тогда получаем ш(Е.е.)<-рЕгНЕ+|Е||Н||х.|. МЯ) Первое слагаемое неравенства (4.52) является квадратичной отрица- тельной функцией по |Е||. Второе слагаемое неравенства с учетом эталон- ного уравнения (4.49) не превышает по норме величины CjE|^f(t)|, где С Z |Н||а; 1В0.т| , и является линейной функцией по |Е|, Пусть вектор- «о - функция Y(r)6 ^(О,-), Т.е. j YT(t)Y(t)dt <«, тогда при достаточно о большом р>0 и малом Ср >0 справедливо неравенство (4.51) 4Г
4S52 _____________Непрерывные адаптивные системы. Част», у 0)(Е, 0.)<-СрЕтНЕ. Таким образом, управление (4.50) обеспечивает замкнутой системе (4.34), (4.50) достижение ЦУ (4.48) в условиях полной априорной инфор. мании о параметрах ОУ при гурвицевости матрицы А. и Ye /^(О,»). Регулятор основного контура при адаптивной постановке задачи управления зададим уравнением U = 0TXB(O-0TY(O, (4.53) где 0(0,0(0 - матрицы настраиваемых параметров. Преобразуем уравнение (4.53) к виду U(O = RT(XB)0-QT(Y)0, (4.54) где 0г = (в]',...,0*), 0Т = (0]Г,...,0Т) - 1x1т и 1хл? векторы настраи- ваемых параметров, составленные из столбцов матриц 0 и 0 соответст- венно, (х, R(XB) = О - mxml и mxmi матрицы. ° A (Y , Q(Y) = X«J 1° О Вычисляя градиенты от функции ш(Е, 0,0), являющейся производ- ной от ^(Е) вдоль траектории системы (4.34), (4.54), получаем 7ёш(Е, 0,©) = /?(Хв)ВтН(Х-Х.), Vdw(E, 0, ©) = -Q(Y)BTH(X-X.). Выбирая АСГ в дифференциальной форме с учетом выполнения усло- вия (4.40), а также дополнительного условия существования О., такого что получаем GTLTX. = Y, (4.55) ( 0 = Г 8|(/)Y) (4.56) (MOYj 8/(0 = GTXB-y., i = l,m,
653 вектора Y. >0 ~ linxlm цтгХт2 матрицы, y( - i-я компонента Убедимся в возм некие эталонной Молелмгл™ выполнения условия (4.55). Учитывая урав- дсли (4.49), имеем GTLtX.»GtLtaMtY. (4-57) Выбирая ОТ =/Тт, Есд \ *- л* В| , получаем равенство (4.55). ритм (4.56)запишете ** ВЫ®Рать в блочно-диагональной форме, то алго- 0( = -8,(г)Г(Х„ t-exnFjY, (4.58) 5M^GjX,-ylt i = l,m, где 0(, 0. -столбцы матриц 0,0, Г = ГТ >0, Г = ГТ >0 - 1x1 и mxm матрицы. Для проверки работоспособности системы (4.34), (4.53), (4.56) (или (4.58)) вновь воспользуемся теоремой 4.1. Условие достижимости выпол- няется, если Ye Z^(0,°°) и существует матрица 0,, обеспечивающая вы- полнение условия (4.47). Условие роста выполнено, если У(0 - ограни- ченная вектор-функция. Условие выпуклости выполняется в силу линей- ности ОУ по векторам 0 и 0. Таким образом, условия теоремы 4.1 вы- полнены и справедливо следующее утверждение. Теорема 4.6. Пусть выполнены условия теоремы 4.5, Y(t) - ограни- ченная вектор-функция, такая, что ее производная Y е L/O,»). Тогда все траектории системы (4.34), (4.53), (4.56) (или (4.58)) ограничены и дости- гается ЦУ (4.48). Замечания: 1. При достижении ЦУ (4.48) 5, ->0, что позволяет трактовать систе- му уряпнений GjXB = у, , z = 1,т как неявно заданную модель, характери- зующую желаемое качество системы. 2. Условие Ye 1^(0,«>) означает, что вектор-функция Y(0 - гладкая функция, стремящаяся к нулю на конечном интервале времени. Последнее означает, что задача слежения должна плавно переходить в задачу стаби- лизации. Пример 4.2 [7]. Рассмотрим частный случай ОУ (74), описываемого дифференциальным уравнением вида ptp1 +oi/’+ab)X') = (6iP+ib)i<(0+a(l), (459) где ~ параметры ОУ, n(t) - ограниченное возмущение, p=dldl - оператор диффе- рентфовяния.
654 _________________________Непрерывные адаптивные системы, Ча^- Y Целью управления является приближение вектора состояния Х(/) ОУ (4.59) к состо ' равновесия X. системы с «идеальными» коэффициентами регулятора, вычисленными в И1° положении, что задающее воздействие установилось на уровне y(t). п₽ед' Выберем непрерывный закон управления в виде «(/)=0а(<ХХО-ХП)+0|(/)*. (4fijJ являющегося частным случаем алгоритма управления (4.53). Параметрический алгоритм адаптации в соответствии с (4.58) и при л(Ц = 0 будет иметь вид (4.61) 0о=^о8(О(х(П-Х')). ёг(о=^|&е(о. 8(<)=go (*(О- X'))+giXO. где Yo-Yi - положительные числа. Для достижения ЦУ (выполнения условий теоремы 4.6) требуется, чтобы многочлен (giA+goX4X+A>) был гурвицев с положительными коэффициентами, что выполняется, если go, gi<4>>4 имеют одинаковый знак. Кроме того, требуется, чтобы задающее воздействие y(z) и его производные были огра* ничены. Неявная эталонная модель получается из равенства в(/)« 0 и имеет следующий вид: (giP+go)»(0=goX()- (4.62) Так как иа ОУ (4.59) действует ограниченное возмущение п(г), то алгоритм адаптации (4.61) необходимо «огрубить», например, введением отрицательной обратной связи . Йо s-Yd8(z)(*(*)-X'))-ao^>W • fli =-Y18(r)i(t)-alOl(z), 8(0=go (X0 - XO)+g|i(0. <Xo > 0, a,> 0. Структурная схема адаптианой системы управления представлена нв рис. 4.8. Предполага- ется, что возмущение «(/) является стационарным случайным процессом н моделируется как реакция формирующего фильтра с передаточной функцией 1УР(р) = — • на белый шум Ло(»). (4.63) Рис. 4.8. Структурная схема адаптивной следящей системы с неявной эталонной моделью
где адп’»»1шш -г^х: yt,+«lXt, »ояо»шаКл* Л,*),Ла^ — МОами₽ада^сиЗДмыс ft LO W.44) 0,3 0,5 О 0.». од 0,4 0,4 О б 1,0 с о 14 к /, ft ^>ис* 4*^' Результаты моделировании ^Да нз тРе6аван1^₽^Ги1°,*И0ГО Ураметя (462) 6шн »ыв₽»»« « »я» io =l.ft =l,Jc ЭДного процесса ’ - о^еооечнмют нулевую статическую ошибку ыакяшя и «ром р-ц^1 ”а °У и контур №3 ~6 с при отсутствии возмущения (я(т)=0). Начальны* ус- ет’>оа Сдавался вы®нРалнсь нулевыми. Диапазон возможных значений ва- 4e'3Sp0Sl8c-3, L6c-2Sfl,S16c-J, BaPUietJ>« Формируй 1С'1£а1£3'2с'‘- Зс-3^^^-1. йк,^Ран Мсандро Кт№п> Ф1,як'гРЗ а9 -ОД4,т9 =1. В качестве задающею воздействия бел *<<*2*вл,,Ровання СВГИая = 0,5(1+signu/) с периодом 14 с. Метадон мапмтческого ^чло Получено приемлемое качество системы при значениях Yo = Yi=IO-
656 Непрерывные адаптивные системы. Часть у “o = «i=O,l, А = 0,04 с . На рис. 4.9 для сравнения представлен график выхода у- эталонной модели (4.62) с передаточной функцией Следует заметить (см. рис. 4.9, б), что параметры регулятора имеют тенденцию к неогра- ниченному росту. Эго объясняется тем, что задающее воздействие у(г) = 0,5(1 + sign од) не удовлетворяет условию теоремм 4.6 (у е Z^(0,<=)). Однако на любом конечном промежутке времени или при выполнении условия , [0,5(1 + sign ОД), 0S1ST, ХО=[_ [у, tzT, где |у)<о», параметры будут иметь ограниченные значения, причем скорость их изменений можно регулировать соответствующим выбором зивчений у,.а(. Системы с сигнальной и сигнально-параметрической адаптацией. Системы с сигнально-параметрическими алгоритмами адаптации, соче- тающими в себе релейное (знаковое) управление и параметрическую об- ратную связь, рассмотрим на примере стабилизации ОУ со скалярным входом и выходом [2,31]. Пусть ОУ имеет вид Х(0 = АХ(0+Ви(0, j=LtX, (4.65) где Х(г)е Я", и(г)е Я1, jg Я1 - функция «невязки». Зададим целевой функционал в виде q - 0,5||s||2, а цель управления в виде д->0 при Тогда, действуя по схеме скоростного градиента, получим q = ш(Х, 0, t) = s(i)(ltAX(0 + LTBu(t)). (4.66) Структуру основного контура выберем в виде и(0 = КХ(0+и,(0, (4.67) где вектор настраиваемых параметров 0=со1(К, и,). Вычислив градиент функции ш(Х,0,г) (4.66) по настраиваемым параметрам, получим VK(o(X, 0, О = (ЬТВ)Т s(i)Xt, Vm w(X, 0, t) = (LTB)T s(r). Если алгоритм настройки параметров выбрать в конечной форме (4.12), тогда закон адаптивного управления примет вид u(r) = K(OX(l)-Ysign(LTB)Ts(O, К(г) = -у1(ьтв)Т s(l)XT(T). (4-68) Для обоснования работоспособности алгоритма воспользуемся теоре- мой 4.3. Условие строгой псеадоградиентности выполняется при 5 = 1’ Условие однозначной разрешимости выполняется, так как *1 (X, 0,1) = sign(LTB)T у(0, (X, 0, t) = (ЬТВ)Т S(1)Xt (Г)
657 (лава 4. Схема скоростного градиента Не зависят от и. Условие выпуклости выполнено в силу линейности ОУ (4.65). Условие достижимости выполнено при Р(д) = а0Л/д, К.=-(ЕТВ) ЬтА, «J=-a0(LTB) signs, если det LTB * 0. Из замечания к теореме 4 следует, что ЦУ q->0 дости- гается, если y2kx0|(ltb) *|/р, Y-|(lTb) 'lTa| ^(Pao)- Условие роста для вектора состояния Х(г) не выполнено, и, следова- тельно, более сильная ЦУ limllX(r)||—>0 может не достигаться. Следую- Щее утверждение показывает, что если ОУ (4.65) строго мииимальио- фазовый, то условие роста выполнено и ЦУ lim||X(r)||->0 достигается. Лемма 4.1 [2]. Пусть система (4.65) - строго минимально-фазовая, пара i {А,В} - управляема. Тогда из s(r)—>0, J||s(t)|| dt<« следует, что о МНо, а из ||j(r)||< const следует [|X(t)||<const. Аналогично, с помощью проверки условий теоремы 4.1 доказывается работоспособность системы с законом настройки К в чисто дифференци- альной форме и(г) = K(r)X(r)-ysign^(LTBj з(0^, k = -7(LTB)Ts(t)XT(t), где Y = y(t) = уо|х(г)|, Yo '(^А+Ь7^"1, или в конечно- дифференциальной форме К = -У1 (ЬТВ)^(Г)ХТ(Г)-У2^{(ЬТВ)ХОХТ(О}. Сигнально-параметрические АСГ с неявной эталонной моделью облада- ютвысоким быстродействием, простотой реализации и сохраняют свою ра- ботоспособность в условиях параметрических и координатных возмущений, изменяющихся быстро и в достаточно широких пределах. Однако в услови- ях сильных параметрических и координатных возмущений переходные про- иимЫ В КоН1^Ре адаптации носят существенно колебательный характер. Од- го ^10со®ов борьбы с этим явлением является введение дополнительно- мпфирования (производной от «невязки») в контур адаптации.
658 Непрерывные адаптивные системы. Часть V ГЛАВА 5 АЛГОРИТМЫ СИСТЕМ С ПЕРЕМЕННОЙ СТРУКТУРОЙ Системы с переменной структурой (СПС) впервые были предложены С.В. Емельяновым в работах [8, 9] и получили дальнейшее развитие в ра- ботах В.И. Уткина [33]. 5.1. СКОЛЬЗЯЩИЕ РЕЖИМЫ В общем случае процедура синтеза СПС рассчитана на. класс нелиней- ных динамических объектов [3] X = F(X,r)+B(X,r)U, (5.1) где Хе Я", Ue Rm, a F(Xj), B(X,r) - непрерывные по своим аргументам матрицы размером лх1 и лхт соответственно. Управление строится в виде U = -yG(X,r)signE(X), (52) где у>0, G(X,r) - мажорирующая функция для компонент эквивалентно- го управления S,(X.I)>|i<l„(X,r)|, где G(X.0=(«,(X,<)...«.(X.r))T, ... Предполагая, что управление осуществляется в скользящем режиме на многообразии Е(Х) = 0,Е(Х) = (at(X)...a„,(X))T, эквивалентное управ- ление вычисляется из условия Ё(Х) = 0: 1(Х,=^х=йг<ад+^В(ади--0- Откуда |Вв(Х,г)1 ||f(Xj), det(||B(X,oj# ил дл dX j 0.
Глава 5. Алгоритмы систем с переменной структурой____ 659 Синтез осуществляется в два этапа. На первом этапе выбираются поверх- ности разрыва - таким образом, чтобы движение в скользящем режиме обладало желаемым качеством. На втором этапе строится управление, гараи- тирующее возникновение и существование полного скользящего режима в системе. Двухэтапный подход реализуется введением наряду с основной це- лью управления lim Х(г) = о, вспомогательной цели limi(X)=0. Доказательство, что управление (5.2) гарантирует возникновение скользящего режима, как правило, проводится методом Ляпунова с ис- пользованием квадратичной формы вектора функции 1(Х), играющей роль функции отклонения траектории от поверхности скольжения. Аналогичность первого этапа синтеза СПС выбору структуры основно- го контура в адаптивных системах, а второго этапа - синтезу алгоритма адаптации, позволяет осуществлять синтез СПС на основе схемы скорост- ного градиента. Продемонстрируем применение схемы скоростного градиента на при- мере синтеза СПС для линейного стационарного объекта [2] Х(г) = АХ(т)+Ви(т), (5.3) где X(t)e Rn, u(t)e Rl. Цель управления Ни» Х(г) = 0, и требуется обеспечить скользящий ре- жим по плоскости о(Х) = 0ТХ = 0. Предполагается, что первый этап синтеза, состоящий в выборе поверх- ности скольжения о = 0, обеспечивающий системе Х = АХ(г)+Ви(Г), 0тХ(г) = О в скользящем режиме достижение ЦУ X(f)->0 при с заданным качеством, выполнен. Детально этот этап синтеза будет разобран ниже в примере 5.1. 1 т Выберем локальный целевой функционал вида $(о)=“О о и вспомо- гательную ЦУ lim а = 0. г—и» Вычисляя последовательно О(о) = ю(Х, и, г) = сг(0тАХ+0тВи), VM<o(X, и, г) = 0тВо(Х) и выбирая АСГ в конечной форме (52), Щ, и, t)=signV.wfX, в, t), по- лучаем алгоритм управления вида H = -Ysign(0TB<i(X)). (54)
-------- ----------------Непрерывные адаптивные системы. Часть V Для обоснования работоспособности воспользуемся теоремой 4.3. Условие сильной псевдоградиентности выполнено при 5 = 1. Условие раз. решимости выполнено, т.к. Ч^Х, и, t) = 0тВст(Х) не зависит от и(г). Усло- вие выпуклости выполнено в силу линейности ОУ по входу. Условие дости- жимости выполнено при и, (/) = -£(0ТВ)"10ТА + 0Т JХ(г), т.к. при этом <о(Х, и„ /) = о^0тАХ-0тв(0тв)"' 0TAX j-o(0TB)CTS -а01сттст. Заметим, что предполагается выполнение условия 0 < а0 S 0ТВ. Таким образом, иа основании теоремы 4.3 приходим к заключению, что в системе (5.3), (5.4) достигается ЦУ: 0(d) -* 0 при г —> «, если у = уо|Х|.УофТВ"10тА + 0т||/р, р>0. Если измерению доступен не весь вектор состояния ОУ, а лишь вектор выходов Хв(/) = LTX(f)e R1, то выбирая уравнение плоскости скольжения в форме o = 0TXB=O, (06/?z), а целевую функцию вида <?(Х) = 0,5ХтНХ, Н = Нт>0, действуя по схеме скоростного градиента, приходим к алгоритму АСГ в конечной форме и = ~у signa, <j = 0TXB, Хв = LTX . (5,5) Все условия теоремы 4.3 выполнены, а для выполнения условия достижи- мости требуется существование Н = Нт > 0 н вектора О., удовлетворяю- щих неравенству (4.47) ha.+aIh<o при HB = L0, A, =A+B0lLT. Согласно теореме 4.5, последнее выполняется, если №(Х) = 0Т(Х1-А)'‘в - строго минимально-фазовая передаточная функция, что обеспечивается соответствующим выбором вектора О . Таким образом, если W(X) - строго минимально-фазовая передаточная функция, то в системе (5.3), (5.4) ЦУ Х(г)->°° при г—><» достигается. Пример 5.1. Рассмотрим систему второго порядка, заданную моделью в пространстве со- стояний (*1 = а1Л + а12хг, (5.6) Л2 »а2,Л| +а22л2 +Ьи, где ац,Ь - параметры ОУ. На первом этапе синтеза выберем уравнение отклонения траектории ОУ от плоскости скольжения в виде os&q+J^,
— переменной структурой 661 Глава 5. Алгоритм, где в - параметр, определ _____________________ верхностью скольжения. ЮЩий тангенс угла наклона прямой х2 = -вх,, являющейся по- ользящем режиме (о = 0 ) система (5.6) описывается уравнениями Х|«(в||-0О|2)*|, Xj = ~8х,, которые не зависят от параметров а2,,а22,Ь, что позволяет говорить об инвариантности сис- темы, находящейся в скользящем режиме по параметрам исходного объекта, точнее, от часта параметров. Выберем значение параметра 0 = 0, из уравнения ап“М2=-р. (5.9) При этом решение системы (5.6) имеет вид x2(f) = -0.x,(O)e’p'. Очевидно, что при р>0 система (5.8) экспоненциально устойчива (х, —♦ О, Х2 —♦ 0 при г —ь «о) , Более того, желаемое качество системы (скорость сходимости) может быть обеспечено соответствующим выбором значений р. На втором этапе выбираем управление вида (5.4) и = -ysign{0^cr}=-ysign(0^(M + х2)). (5.10) которое гарантирует возникновение скользящего режима а системе (5.8), (5.10). Так как в рассматриваемом примере Ь - скалярная величина, а значение в, выбрано на первом этапе синтеза, то, предполагая известным значение х=sign 0.6, получаем управле- ние (5.10) в виде и = -уsign 0(X|>Xj) = -ysign (8.x, + х^, (5.11) где у = ХГо (h| + |ж2|). у0 2 яирЦе^-'А+0ДЦ/р. av,b А =1 0,1 °12 I, I- 2x2 единичная матрица. ( а21 а22 ) Задаваясь допустимой областью начальных условий (x^OJ.x^O)), можно использовать алгоритм (5.11) с постоянным коэффициентом усиления Y>ro(h(0)|+h(0)|). Заметим, что при разбросе параметров а,,,а,2 ОУ следует выбирать 0. из уравнения (5.9), рассчитывая на наихудший вариант значений аи,Л|2, таким образом, чтобы выполня- лось неравенство ei । ~ 0«а12 S -р, Уац,а,2.
“-L-.----------------K В этих условиях гарантируется, что тойчивостаиениже р.т.е. ^1}$Х{(0)^ (И4) (U9) при параметрах ОУ 1£ац£3, Результаты моделирования Л1(0) = 1.x, (О) = 2 . при выбранном -ISO.,S1. °« = 2- Ь= иНном к0Эффицие«те усиления МО) релейного элемента р = +1, при постоянном и переменно /й--0.5) иллюстрируют воэиикновение Я I -5 3 Графики на рис. 5.1 приведены на рис. 5.1 неустойчивого скользящего процесса. *1(0 wo во Ю' 40 20 0 оГй'Й Й 50 40 30 И t ’° "Vo5o* 06 0.8 A*1(O t Рис. 5.1. Результаты моделироиания ири 9 = -0.5. у(0 = 2|М(М+ Приведённый алгоритм управления (5.4) обеспечивает высокое быст- родействие, простую реализацию, возможность сохранения стабильных динамических свойств при быстроменяющихся параметрических возму- щениях. К недостаткам следует отнести возможную потерю работоспо- собности системы при изменении параметрических возмущений в широ- ких пределах и большой инерционности исполнительных элементов. Первый из указанных недостатков СПС связан с тем, что задача фор- мирования поверхности разрыва о=0, обеспечивающая требуемое каче- ство системы в скользящем режиме, тесно связана с точностью априорной информации о параметрах ОУ. В частности, в предыдущем примере было указано на необходимость выбора параметров поверхности скольжения 9., исходя из наихудшего набора возможных параметров ОУ.

664_____________________Непрерывные адаптивные системы. Част», у Это позволяет решить задачу обеспечения качества системы bq^Z " щем режиме не хуже заданного. Однако при большом разбросе параметр"' это ведёт к увеличению коэффициента усиления у0 и, следовательно °8 большому значению управляющего воздействия. На практике такое увели чение управления часто бывает неприемлемо, так как задача решается условиях ограниченной энергии управления. Кроме того, желание упро^ стать реализацию алгоритма управления за счёт выбора постоянного, но достаточно большого коэффициента усиления у приведёт к большим ам- плитудным колебаниям системы в реальном скользящем режиме. Для расширения границ применения алгоритмов СПС можно использо- вать рассмотренные выше сигнально-параметрические алгоритмы скоро- стного градиента с явной или неявной эталонной моделью. Параметриче- ская обратная связь вводится для дополнительной стабилизации ОУ. При этом в системе достигается ЦУ при широком изменении параметров ОУ н возможно возникновение скользящего режима при меньших значениях ко- эффициента усиления у. Более того, если параметрическая обратная связь строится на основе явной эталонной модели, то появляется возможность выбора поверхности скольжения исходя из параметров эталонной модели. В этом случае независимо от параметров ОУ при возникновении скользя- щего режима система будет иметь заданную скорость сходимости (быст- родействие). Функциональная схема системы с явной эталонной моделью представ- лена на рис. 5.4. не. 5.4. Фуикциоиальаая схема сигиальио-иараметрического алгоритма адаптивного управлении
-^^рераспределяя энергетическТГТГ^^^^Рой ^равлением ва ниже рассмотрим иной путь си *еДае^^' верхности скольжения [22,23]. ***’ °««>8aHw. Кач^- ^йке по. 5.2. СИСТЕМЫ с настраиваемой поверхн Процедура синтеза. Процедура сивд^ ^^«Ия верхностью скольжения осуществляется в ™СТе« с Hac_ «г =АГ • 0 <0- = ®® - «««ль»» ВР^ рЫва) таким образом, чтобы движение в скользят^» ^«ения раз- лаемыми свойствами. ящем Режиме обладало же На втором этапе синтезируется алгоритм наст й» нения разрыва, обеспечивающий желаемое качество п ПарамегР°в Урав- орной информации о параметрах объекта управленияа?^1"1 апри' лое множество). 6 а - выпук- На третьем этапе строится управление, гарантиоуюшее вм и существование полного скользящего режима. У Щ никнове™е Опишем идею синтеза на примере стабилизации линейного сташюшт ного ОУ, описываемого в виде «ионар- X = AX + BU, Х(О) = Хо, (5.12) где Хе Rn - вектор состояния, Ue Rm - управление, А = А(£); В=В(£) - постоянные матрицы размером пхп и mxm соответственно, причем rank В = пт, £е Н - неизвестные параметры ОУ. Предполагается, что система управляема при любом Е. С помощью неособого преобразо- вания приведем систему (5.12) к регулярной форме X] = АиХ] + А12Х2, (5 13) Х2 = А21Х] + А22Х2+B2U, Х1(0) = Х10, Х2(0) = Х20, где Ао-(£) (i,j-1,2), В2(£) - постоянные матрицы соответствующих размеров, Xj - n-m -мерный вектор, Х2 - m-мерный вектор, det В2 *0. Целью управления (ЦУ) является обеспечение ограниченности траекторий замкнутой системы и выполнение условия limlX^rJ-X^r^O, где ХЭ1 (0 - желаемое (эталонное) движение по части пере кия объекта управления.
666 _______ ________Непрерывные адаптивные системы. Часть У_ Для решения поставленной задачи вводится дополнительная ЦУ 2(Г) О приг^Г», где 2(f) = 2(0, X) задает уравнение настраиваемой поверхности сколь- жения; 0(г) - вектор настраиваемых параметров. Базовый алгоритм адаптивного управлении Первый этап синтеза. Поверхности разрыва выбираем а виде 2(0», Х) = 0.Х|+Х2 =0, (5.14) где 0. =0(§)-тх(и-т) матрица, 2(0», Х)е Rm. В идеальном скользящем режиме система описывается уравнениями -^1 =(Ац ~А120.)Х„ (5.15) 2 =0.Х1+Х2=О, Х1(0) = Х10. Желаемое поведение системы в скользящем режиме зададим эталонной моделью Хэ1 = А.Хэ1, Х„(О)«Хэ,.о, (5.16) где А. - гурвицева матрица с заданным расположением собственных чи- сел, ХЭ16 R™. Идеальные параметры 0* выбираем из условия А| । ~ А[2®* я А», так что 0. = А,+2(АН - А»), Af2 - псевдообратная матрица. Матрица 0. существует, так как объект управляем. Определением 0» заканчивается первый этап синтеза. Второй этап синтеза. Целью второго этапа является синтез алго- ритма адаптации. Так как Ау = Ау(£), заменим идеальные параметры 0» настраиваемыми параметрами 0(f). Синтез проведем методом функции Ляпунова. Рассмотрим квадратичную скалярную функцию вида V1(E,©) = |ETHE+itr[(0-®.)Tr“1(®-0.)], (5-17) где Е = Х,-ХЭ1, Н = Нт>0, Г = Гт>0. Определим производную от функции ^(Е, 0) в силу уравнений (5.15), (5.16) _ (Е, 0) = ЕТН А.Е + ЕТН(А|! - Aj20 - А.)Х| + tr^(0 - О» )Т Г" ‘0J = = ETHA.E+tr[(0-0.)T(-Aj2HEX?' ч-Г"1®)]. Выберем алгоритм управления в виде ® = ГА[2НЕХ[. (5.18)
paga 5. Алгоритмы систем с переменной структурой 667 с МаТРИВД Н = йТ>0- удовлетворяющей уравнению Ляпунова к ha.+aIh=-g, g=gt>®, (5Л9) получаем V,S-lpETHE, (52О) X (G) где Р = П(Ц) >0’ - соответственно минимальное и максимальное собственные числа матриц G и Н. Таким образом, все траектории системы (5.15), (5.18) ограничены. Да- м лее, учитывая конечность интеграла |Е(т)НЕ(т) dx, линейность системы о (5.15), (5.16), выполнение условий роста V,(E, 0)-»°° при М-»» в силу гурвицевости А., доказывается стандартным образом (см. например лемму П.1.1 [36]) ограниченность всех траекторий системы (5.15), (5.16), (127) и Е(Г) -> 0 при t —> о». Третий этап синтеза. Задача третьего этапа заключается в выборе разрывного управления, при котором ив многообразии 1=0 возникает и поддерживается скользящий режим. С этой целью на основе исходных уравнений системы вычислим производную по времени функции ЦО, X) t = R(X)+B2U, (5.21), где R(X) = (0 А| 1 + А21 +0)Х| +(0 А|2 + А22)Х2. Для синтеза разрывного управления выберем квадратичную форму V2(E) = |et(b2,)TB2,E (5-22) ля и вычислим ее производную V2(E) = |ет (в2 1 )Т B2‘S = Ет (в21 )Т BJ*R(X)+гт (B^f Выбирая разрывное управление в виде U(r) = -YsignB2’S, получаем к,=(в;,х)т(в;'е<А„х|+А|1х1)+в;,вх1* +В;'(А1|Х,+А1!Х!)|->|«!’1ф
66g ____________ Непрерывные адаптивные системы. ЧастьУ Для того чтобы при VS * О выполнялось V2 < о, достаточно потребо- ВаТЬ Y>Y = Yo{(YxJXj+YxJX2|)MHx1|Xj+YXJX2|+|0||xl|}, где|0||<Ув|ЕНХ1|'У®2|ГА>2Н11’ ИКИ’ Yx' S||A1111’ YX’ -||А12||> Yx, ММ’ К Ma22|| tf^S и введено обозначение Таким образом, получен следующий релейный алгоритм управления с настраиваемой поверхностью скольжения. U = -ysign В2*Е, £ = 0X^X2, О при Е * О, ГА^НЕХ?" при Е = 0, где Г = Гт>0, y = Y(O удовлетворяет условию (5.23), Е = Х1-Хз1. 0 = Замечания: 1. В алгоритм (5.18) входит неизвестная матрица Aj 2 « A12 (£), Е, е S. Для исключения А12 из алгоритма адаптации следует подобрать матрицу А12 = const, связанную с А12 зависимостью Ai2а?2(Е)=Р(0 , где р(0 = Р(£)т > 0 V£e S. При этом выполняется условие псевдоградиентиости: ’PT(E)VeVl(E,0)>O, где VeV(«) = AljHEXf, 'F(E) = AjjHEX/', и настройка коэффициентов матрицы 0 будет осуществляться в направлении псевдоградиентиости. В этом случае соответственно корректируется уравнение (5.23). <^те°М рассмо1Ренного алгоритма является возможность иа- оежимя п°веРхности разрыва лишь при возникновении скользящего пеяпп.,, Р°Ме того’ следУет заметить, что в реальном скользящем м . моменты аремени, при которых E(t) = 0, будут изолированы. Для преодолениГХа^ного™ адапт’,вногеУп₽явле«"« прерывной иастпойки5^ ого недостатка рассмотрим возможность не- ходкому %™2шию ПоЛРХН0СТИ скольжения. Для этого вернемся к ис- %0)4х^х форме <5ЛЗ> с учётом уравнения Уравнением п ‘ 2’ КОТОрое при “«полпенни условия 1 = 0 является и подставляя его ₽аЗР“Ва' Вычисляя из последнего уравнения Х2 системы в виде РВ°е системы (5.13), получаем описание
рмв* 5- Алгоритмы систем с переменной структурой *1 =(А11-А120)Х| + А12£, . Х2 = А2)Х| + А22Х2 + В2и, (5.24) Е = 0Xj + X2, Х1(О) = Х1О, Х2(0) = Х20. Желаемое поведение объекта по координатам Х| зададим уравнением эталонной модели ХЭ1=А.ХЭ1+ВЭ£. Хз1(О)=Хэ10, (5-25) где А» - гурвицева матрица. Введем вспомогательную цель управления ||Х|-Хэ)||—>0 при t—»оо, Е(т)=О при t>t„, (5.26) выполнение которой при ограниченном 0 обеспечивает достижение цели Х((т)—»О, Х2(t)—>0 при t-+<*>. Очевидно, что при известных параметрах ОУ цель управления (5.26) достигается, если существуют такие0 = ©.(£), B3 = B3.(£), что выпол- нены условия Аи(£)-А12(§)0, = А», Вэ. = A‘l2(!j) (5-27) и управление имеет вид U.e-Y^signBj'L, где у» (X) выбирается из условия V2 (Е) < 0. В условиях неизвестных параметров 3, считая 0(0. В,(0.0(0 на- страиваемыми переменными, проведем синтез алгоритма адаптивного управления, используя сепарабельную квадратичную форму У3(Е, 0, Вэ) = |ETHE + |tr||0-0.||r., +|tr||B3 -B,fr-. +/(S), гдеЕ = Х,-Хэ1 и введены обозначения: Цс-C.g., =(С-С*)ТГ-1(С-С.), /(Е)=|ет(в2‘)тв2,е. Вычислим У3(») вдоль траектории системы (5.24), (5.25) с учетом (5.27) ^=ЕтН{(Ан-А120)Х,+А12Е-А.Хэ1-ВэЕ}+ + tr {(0 - 0. )т Г\ *0} + tr{(B3 -Вэ. )ТГ2-‘ВЭ}+j(S) = = ЕТНА.Е + ЕтН{-А|2(0-0,)Х1 + (Вэ. -В3)Е}+ + tr{(0-0jTr[l0}+tr{(B3-B3.)Tr2,BJ}+j(S). Выбирая алгоритмы настройки в виде
670 Непрерывные адаптивные системы. Часть V 1'®=г|а1т2нех|г. [В, = Г2НЕЕт (5,28> и учитывая существование матрицы Н = Нт > О, удовлетворяющей урав- нению (5.19), а также равенство (5.20), получаем: V3 <-ipETHE + ET(B21)TBj‘i = = -lpETHE+(BiIE)TBJ1{(®AII +A2I +®)X, + (®A12 + A22)X2}+ +(b2’e)tu. Выбрав разрывное управление в форме (5.22), окончательно получаем: V3 S-lpETHE+|B2-'4|B2-,|-^(||AJ ,||-|XiJ+|[A12||.|X2|)+ +||a2I|-|xi|+||a22||.|x2|+||0H-|xi|}-y|b2-,4 Для того чтобы при VS * 0 функция V3 <0, достаточно потребовать чтобы у удовлетворяла условию (5.23). Далее стандартным способом доказывается ограниченность всех траек- торий системы (5.24), (5.28), (5.22) и достижение цели уравнения (5.25). Замечание 5.1. Можно отказаться от настройки параметров Вэ(г), ис- ключив из функции Уз(«) слагаемое 1гасе||Вэ-Вэ»||р_, и увеличив коэф- фициент усиления у релейного управления на величину |в2(А12-В.)тНе||. Более того, можно исключить из уравнения эталон- ной модели слагаемое A.S. Пример 5.2. Пусть объект управления описывается системой уравнений [х2=а21х + а22х + Ь!и, Х|(0) = 1,х2(0)°2, где av (i, j=1,2), b2 - неизвестные параметры ОУ, но известно, что sign (Ьг) > О. Желаемое поведение системы в соответствии с (5.25) зададим уравнением *i,=-3*i,+MW). М0)»2. где a(t)=0(t)x1(r) + x2(o. Алгоритм адаптивного управления с учетом (5.27), (5.28) н sign(h2)>0 имеет следую- щий вид: «(»)•—Y(»)»ign о(0. ё(О-бе(О*|(»Х £,(») = е(»)о(г). где e(0e*i(0-*i,(0. у(0=2-(|лс1|(|в|+2|е|+1)+|jt2|(2|0| + 3)). Результаты моделирования при начальных условиях: 9(0)=-0,5; Ьэ(0) = 0,1; JCi(O) = l; jr2(0) = 2;jrb(0) = 2 н параметрах объекта управления ав = 1;а12 = 2;а21 =1; «22 =3;/>2 = 1 ПР»1'
систем с переменной структурой 671 Ж ____________ Гл?$5-^453вметим, ЧТО при выбранном начальном условии на параметр плоскости н“ = -О-5 без контура адаптации система в «ояиичем режиме иеустойчиаа по ’ .1исения « С пИна«мЛ1Л' коорди 150 100 50 и(') -50 -100 -1» J5 ОЛ «Л W I U М 14» 14 0-2 04 Ов 0.1 1 U 1.4 1.в I I г Рис. 5.5» Результаты моделирования системы стабилимняи с базовым алгоритмом Задача слежения [22]. Распространим описанный выше метод синтеза систем с настраиваемой поверхностью скольжения на задачу слежения. Вновь рассмотрим линейный стационарный ОУ (120), приведенный к регулярной форме (5.13). Базовый алгоритм адаптивного управления Первый этап синтеза. Поверхности разрыва выберем в виде L(0.,D.,X) = 0.X1-D.G + X2 = O, (5.29) где 0, = О(£) _ mx(n-m) матрица, D, = D(£) - mxm матрица, GeR™ вектор.функция задающих воздействий. идеальном скользящем режиме система описывается уравнениями x1=(au-a120.)x1+a12d.g, 1 = 0. Желаемое м°Делью поведение системы в скользящем режиме зададим эталонной Хз1 = А,Х31 +B.G, ХЭ1(О)=Х°Э1, (5.31) ~ гурвицева матрица. Идеальные параметры О.,О. выбираем нз Где А, Условий
672 Непрерывные адаптивные системы. Част, ц. Ан - А|2®. = A., A)2D. = В., ~~ ~~~- так что 0. = А]+2 (А;, - A.), D. = А*2В.. Очевидно, что при выбранных идеальных параметрах, гурвицевости матрицы А, и ограниченности задающих воздействий (||G|| < CG < достигается цель управления Х( —> Хэ( при t —> °° и все траектории сис темы (5.30), (5.31) ограничены (||Х|| < «>). Второй этап синтеза. Синтез алгоритма адаптации проведем мето- дом функции Ляпунова, выбрав скалярную квадратичную форму в виде Ц (Е, 0, D) = 0,5ЕТНЕ + 0,5 trf (0 - 0. )т ГГ' (0 - 0.)] + +0,5tr((D-D.)Tn1(D-D.)], (5,32) где EeXj-X,,. Г, =!?>(), i = l,2; D = D(0, 0 = 0(0 - настраиваемые параметры. Вычислим производную V,(E,0) в силу уравнений (5.30), (5.31) Й (Е, 0, D) = ЕТНА.Е - ЕтНА)2 (0 - 0. )Х] + Ет НА12 (D - D. )G + + tr{(0 - О. )т Гр*0 + (D - D* )т Г2’Ь} = = ETHA.E+tr{ (0 - 0. )т (- A^HEXj +17 *0)} + +tr((D-D.)T(A^HEG/' + П‘Ь)). Выбирая алгоритм настройки параметров D и 0 в виде 0 = О -r2A(O-GT(r) О А(г) = А^НЕ(г), Ь = при Е = 0, при Е#0, при Е = О, при Е * О, (5.33) получаем Й (Е) = ЕТНА»Е S -рЕтНЕ, X (G) W Р = г®*2, и > 0, матрица Н = Нт > 0 удовлетворяет уравнению Ля- ^тах(Н) пунова НА. + а1н = -G, G=GT>0. Далее из ограниченности G(r) и гурвицевости матрицы А. стандарт- ным способом доказывается ограниченность траекторий системы (5.30), (5.31), (5.32) и достижение ЦУ Е(г) -» 0 при t -»«» .
£ лп^итмы систем с переменной струкгут^^ 1^^^7йэтаясинтеза. ВыберемРазрым^^ ---- иеАХ)=0 * * С «о» “ “ио“ —« »— -м. «Л ^дау” E(e’D’x): ЛР°" S(e,D,X) = S(X,C)+B1V, х G) = (0An + A|2+®)Xi+(0A12 + A22)X2-DG-i)G. ГАейсп0Льзу*ДЛ^^ Vz(X)-0,5E (В2 )ТВ2'Х, * "Гои““д,(уТ вйЧ V2(S) = ST(B21)TB21«(X,G)+ZT(B21)TU „ «убирая разрывное управление U - - у sign Bj’E, (5,35) получаем v2(E)=жх, G)(b2‘ )т b;’s-y|b;’e|. Для того чтобы У2 <-р|в2’х| при некотором значении р>0, доста- точно потребовать у > у = |r(X,G)t(B2’)t| . Последнее условие выполня- ется, например, если у > у=у0{(уХ1 W+Ух, М)Н+?х, N+Ух, 1хз1+ 36) +IaI(y0|Xi|+Yd|g|)+|d|g|), где у» ММ Vx, ММ Ух, ММ Ух, а|Аа1|, г!М |A|s|A2,HE|, ¥в>|г,|,т„к(гг|. Замечание 5.2. Для обеспечения ограниченности управления (см. (5.3w необходимо потребовать ограниченности вектор-функции задающих возде ^иий и ее производной (G(t) - ограниченная, гладкая векгор-фу®0®’*)- Наконец, первые два замечания остаются справедливыми и для задач*1 Цежения. ^°Днфнцнрованный алгоритм адаптивного управления нию си Синтеза модифицированного алгоритма вновь вернемся ^емы в форме (5.13) с учетом уравнения S(0,D,X) = 0Xl-DG+X2: «(Ah-a^+AuI+^dg, (53у: *2=A2lX1+A22X2+B2U> Iх = 0Х, ~ DG + Х2, Xj(O)=Х10, Х2(0)=Х2О' Ч*мое
674___________________ Непрерывные адаптивные системы, Чуп, у Желаемое поведение объекта по координатам X, зададим уравнением *э| = А.ХЭ| + B3£ + B.G. Хз1(0) = Х° , (5 38) где А. - гурвицева матрица, G(r) - гладкая, ограниченная вектор- функция. Введем вспомогательную ЦУ (5.26) при г-»°о, £(r)sO при tZt., выполнение которой при ограниченности 0(t), D(t), G(t) гарантирует за- данную динамику системы по переменным Х( и ограниченность всех тра- екторий адаптивной системы управления. Синтез алгоритма адаптивного управления проводится методом функ- ции Ляпунова на основе сепарабельной формы У3(Е,Е,®,В,В3) = Ц(Е,0,О)+У2(Е) + О,51г{(Вэ -В*)ТГ31(ВЭ -В*)}, где В*=А|Д). Вычисляя производную V3(E,E,0,D,B3) по времени в силу уравнений (5.37), (5.38) и выбирая алгоритм адаптивного управления в виде Ua-ysignBj'lXO. 0 = Г|Л(Г)Х.(ОТ, . ’ т (5.39) D = -F2A(t)G(t)T, В3=Г3НЕ(г)Цг)т, где Л(г) = А|Г2НЕ(Г), у - удовлетворяет условию (5.36), и учитывая, что матрица Н = Нг > 0 удовлетворяет в силу гурвицевости А» уравнению Ляпунова (5.19), получаем V3(E,E)<-p1ETHE-p2|B2‘s|, pj >0, р2 >0. Далее стандартным образом доказывается ограниченность всех траек- торий системы (5.37) - (5.39) и достижение ЦУ (5.26). Замечание S.3. Можно показать, что при переменной вектор-функции G(r) задающих воздействий в реальном скользящем режиме алгоритм (5.39) приобретает идентифицирующие свойства по настраиваемым пара- метрам, а именно 0(0 -> 0., D(0 D., В, (г) —> А12 при t —> <» . Замечания 3,4 для алгоритма управления (5.39) сохраняют свою силу. Заключение. Предлагаемая процедура синтеза, основанная на на- стройке поверхности скольжения, в отличие от ранее предложенных про- цедур синтеза задает желаемое поведение ОУ лишь по части переменных состояния, что позволяет в общем случае уменьшить общее количество настраиваемых параметров. К недостаткам полученных алгоритмов следу-
675 Глава 5. Алгоритмы систем с переменной структурой ет отнести некоторое увеличение релейного управления за счет состав- ей пропорциональной |е|, ке«х»;„мой си)ли1. щего режима при повороте плоскости скольжения Пример 5.3. Пусть объект управления описывается уравнением =ви*|+я12^, 1*2 =<ЗД + «22*2+й,И. где av (i,J = 1.2), Ь} - параметры ОУ (Ьг >0,аа >0). Синтез базового алгоритма Желаемое поведение системы в соответствии с (>.40)3^ уравнением *ьа-3^, + 3у(г), хь(0)=2, где y(») = sin(JW/3) - задающее воздействие. о 2 4 6 а Ю 12 14 It II 20 Рис. 5.6. Результаты моделирования свстемы слежения с настраиваемой поверхностью скольжения (базовый алгоритм, окончание) Алгоритм адаптивного управления в соответствии с (5.33), (5.35) с учётом знакоа 6j, а|2 имеет следующий вид: и(г) =-y(r)sign а(г), w-ift л»-/* в;? (Yl«|, |e|iS6, (-Y2<y- lopO, где a(i) = в(Г)*|(Г)+e(r)=x,(r)-xb(r), Y(n-3(|x1|+(|e|-*-H+i)+|x1|(2|e|+3)+H+«M). 44*
676 Непрерывные адаптивные системы. Част, у й = 6(Л) - положительная величина, введённая для обеспечения работоспособности алго- ритма при дискретизации с шагом Л. На рнс. 5.6 приведены результаты моделирования системы с базовым алгоритмом адаптив- ного управления при начальных условиях 8(0) = -0.5;d(0) = 0,l. параметрах объекта управле- ния ац=1;а,2=2; а21 =1;а22 =3; = 1, параметрах адаптера 6=0.01,6 = 0,01, у|=6 Рис. 5.7. Результаты моделирования системы слежения с настраиваемой поверхностью скольжения (модифицированный алгоритм, окончание) Синтез модифицированного алгоритма управления Желаемое поведение системы в соответствии с (S.38) зададим уравнением •
677 где р^вя 5, Алгоритмы систем с переменной структурой Х|,« -Зхь + Зу(т)+Ь,(/)о(кХ Х|э(0) а 2, где у(0ssin(»w^3) -задающеевоздействие. Модифицированный алгоритм адаптивного управления в соответствии с (5.39) и услови- ем, задачи имеет вид и(/) = -y(r)sign<XO, 0(') = Y,e(t)xt(t),<((O = -72e(f)y(r), b^y^joQ), 0(0 = OfO*i(n+x2(/)-rf(T)g(t), е(т)=х,(т)-хь(о. Иа рис. 5.7 приведены результаты моделиоован^. .„12!, явного управления при начальных условиях в(0)=Ч).5; управления «и=1-. «12 = 2; «2)=1; ^3. Ь2м, параметрах адаптера у, =12, у2=г, Уо = 6О. Заметим что при выбранном начальном условии на параметр плоскости скольжения 0(0) = -0.5 без контура адаптации система в скользящем режиме неустойчива по координа- там хрх2.
678 tlaCTb Непрерывные адаптивные систсМЫ- Лг—---- ГЛАВА 6 АДАПТИВНЫЕ СИСТЕМЫ БЕЗ ИЗМЕРЕНИЯ ПРОИЗВОДНЫХ ОТ ВЫХОДА Выше рассмотрены методы синтеза алгоритмов адаптивного управле- ния при полном измерении вектора состояния объекта управления. В тер- минах систем со скалярным входом и выходом это означает измеримость выхода объекта и его старших производных. На практике далеко не всегда подобное измерение физически осуществимо или требует использования достаточно дорогостоящих датчиков. Поэтому, начиная с 70-х годов XX века, большое число исследований посвящено вопросам синтеза адаптив- ных систем без измерения производных от выхода объекта. В классиче- ской теории управления задача синтеза регулятора при неполном измере- нии вектора состояния объекта, как правило, осуществляется на основе использования устройств асимптотической оценки (наблюдателей состоя- ния) или методом динамической компенсации. Однако эти подходы к син- тезу требуют полную информацию о структуре и параметрах объекта. При адаптивной постановке задача существенно усложняется из-за наличия дополнительного нелинейного контура адаптивной нвстройки. Это, в свою очередь, приводит к проблемам обеспечения устойчивости замкнутой сис- темы и реализуемости алгоритмов управления. 6.1. ПОСТАНОВКА ЗАДАЧИ СИНТЕЗА Задача состоит в управлении линейным стационарным объектом, за. данным моделью в форме пространства состояния: X®АХ+Ви, хв =LTX, Х(О) = Хо, <6-1) где Хе Я", ие Я1, х, е Я1 - состояние, вход и выход объект^ B(nxi) ~ матрицы неизвестных параметров. Предполагается выполнение следующих условий:
г „ява 6. Адаптивные системы без измерения производных от выхода 679 1) объект минимально фазовый (0(s) - гурвицевый многочлен, W (s) = LT (si - А)'1 В = ₽(s)/a(f); 2) известны степени многочленов a(s) и p(s) (dega(s)=n,degp(s)=m) и соответственно известна относительная степень v = n - m > Г, 3) измерению доступны только сигналы не/?1 и хв 6 /?'. Желаемое поведение системы задается эталонной моделью: ХМ=АИХМ+Вму, х.и=ЬтХм, Хм(0) = Хм0, (6.2) где Хм е Rn, у е /?’, хви е Л* - состояние, задающее воздействие и выход. Предполагается, что у(г) - ограниченная н кусочно-непрерывная функ- ция; измеряемыми сигналами являются хи (t) и у(г); Аи - гурвицева матрица. Требуется найти такой закон управления и (г), не содержащий опера- ций дифференцирования, чтобы при любых начальных условиях все сиг- налы в замкнутой системе были ограниченными функциями времени и до- полнительно выполнялось условие ИтеЛАвО, (6.3) /-*ов где et (/) = хв (/)- хвм (г) - ошибка слежения. На языке теории устойчивости такая постановка задачи соответствует требованию асимптотической устойчивости по части переменных. Для решения задачи синтеза и условий, при которых задача разрешима, нам понадобятся дополнительные математические выкладки, приведенные в следующем параграфе. 6.2. Обоснование разрешимости задачи синтеза В основе решения задачи синтеза лежит лемма Якубовича - Калмана [34, 36]. Нам понадобятся несколько определений й ряд специальных вер- сий этой леммы [24, 50]. Определение 6.1 [20, 24]. Дробно-рациональная функция W(s) ком- плексной переменной s-o+jto является положительно-вещественной, если: О W(.v) является вещественной для вещественных s; 2) Re W(s)>0 для всех (Т>0, и Re Иф)£0 для сг = О. Определение 6.2 [20,24]. Дробно-рациональная функция W(j) являет- ся положительно-вещественной, если: D W(s) является вещественной для вещественных s;
680 Непрерывные адаптивные системы. Часть V 2) IV(j) не имеет полюсов в области Re г > 0; 3) полюса W(j), лежащие на оси J(o, являются простыми, а соответст- вующие им вычеты неотрицательны; 4) для любых вещественных w, для которых jw не является полюсом функции W(j), имеет место неравенство Re W (j<o) 2 0. Определение 6.1 задает класс положительно-вещественных функций в терминах комплексной переменной s, а определение 2 — в частотной об- ласти. Определение 6.3 [20, 24, 34]. Дробно-рациональная функция 1У($) яв- ляется строго положительно-вещественной (СПФ), если ly(s-e) является положительно-вещественной при некотором Е > 0. Замечание 6.1. В частности, к классу положительно-вещественных функций (е = 0) относятся передаточные функции полных сопротивлений пассивных двухполюсников, т.е. систем, не содержащих источников энер- гии. К классу строго положительно-вещественных функций (Е > 0) отно- сятся передаточные функции пассивных двухполюсников с потерями. По- этому в литературе вместо терминов «положительно-вещественная» и «строго положительно-вещественная» иногда используются термины «пассивная» н «строго пассивная» функции. Замечание 6.2. Примером строгой положительно-вещественной пере- даточной функции является дробно-рациональная функция вида W(s) = , где a(j) - устойчивый многочлен п -ной степени с раз- личными вещественными корнями X,. (t = 0, л), a ₽(s) = i-l где ц,($) >0 и хотя бы одно * 0. Лемма 6.1 (Лифшиц). Даны: устойчивая матрица А н вектор В такие, что пара (А, В) полностью управляема; вещественный вектор L ; скаляры V и р 0 и положительно определенная матрица Р = Рт > 0. Тогда для существования вещественного вектора G и положительно-определенной матрицы Н = Нт > 0, удовлетворяющих уравнениям АТН + НА = -GGT -цР, Г- (6.4) hb-l=7vg, необходимо н достаточно, чтобы ц была достаточно мала, а передаточная функция W'(s) = |v + LT(rf-А)"1 В (6.5) была строго положительно-вещественной функцией.
Глава 6. Адаптивные системы без измерения производных от выхода 681 Лемма 6.2 (Мейер). Даны: устойчивая матрица А , вектор В, вещест- венный вектор L и вещественный скаляр лр > 0. Тогда для существования вещественного вектора G , матриц Н = Нт > 0, М=Мт>0, удовлетво- ряющих условиям ATH + HA=-GGT-M, _ (6.6) HB-L = a/vG (пара ( GT, А ) - полностью наблюдаема), необходимо и достаточно, что- бы передаточная функция W(s) = ^v+LT(sI-A)'lB (6.7) была строго положительно-вещественной функцией. Лемма 63 (Андерсон). Пусть W (s) = We + LT (si - А)4 В - квадратная матрица дробно-рациональных передаточных функций, такая что W„ - огра- ниченная матрица; W(s) не имеет полюсов в области Re s>0, а полюса, лежащие на оси j(O, являются простыми. Пусть {L, А, В, W„} - минималь- ная реализация матричной передаточной функции W(s). Тогда W(s) - мат- рица положительно-вещественных функций, если и только если существуют матрицы Н = Нт > 0, G н S, удовлетворяющие системе уравнений ATH + HA = -GGT, (6.8) HB = L-GS, (6.9) STS = We + WL (6.10) Если = О, то уравнения (6.9), (6.10) преобразуются к виду HB = L. (6.11) Приведенные леммы устанавливают, что положительная веществен- ность скалярной (или матричной) передаточной функции является необхо- димым и достаточным условием существования матрицы Н = Нт>0 и вектора (или матрицы) G , удовлетворяющих матричному и векторному уравнениям (или двум матричным уравнениям). В свою очередь, сущест- вование матрицы Н и вектора (матрицы) G, как показано ниже, исполь- зуются для доказательства устойчивости важного класса дифференциаль- ных уравнений.Сдедующая теорема устанавливает класс динамических моделей, для которых возможно построение устойчивых схем адаптивного управления и идентификации. Теорема 6.1 [24, 50]. Пусть динамическая система представима полно- стью управляемой и наблюдаемой тройкой |lt, А„ В.}, где А. - устой- чивая матрица, L, В. - векторы. Пусть даны симметричная положитель- 43 Зак. 108
Непрерывные адаптивные системы. Часть V но-определеняая матрица Г = Гт>0 и вектор-функция W(r), элемент которой являются ограниченными и кусочно-непрерывными фуЙКЦИями времени. Тогда положение равновесия (Е, Л)- (О, 0) следующей системы дифференциальных уравнений Ё = А.Е+В.АТ(f)W(r)’ =L Е(0- (6.12) A = -re,(0W(/), (6.13) где Е, А - векторы соответствующих размерностей, А (г) W(r)e Я1 , при любых ограниченных начальных условиях Е(0), А(0) является устойчи- вым по Ляпунову и, кроме того, е,(г)->0 и А(г)—>0 при *->«>, если передаточная функция W*(j) = L^(sI~ А.) В» является строго положи- тельно-вещественной. Более того, если компоненты вектора W(/) являют- ся гармоническими сигналами с различными частотами, то система (6.12), (6.13) асимптотически устойчивая. Доказательство. Рассмотрим следующую функцию Ляпунова V(E, А) = |[етНЕ+АтГ~'а], (6.14) где Н = Нт > 0. Ее производная в силу уравнений (6.12), (6.13) имеет вид Й(Е, А) = |ет(а.тН+НА.)Е+ЕтНВ.А^+ЛтГ"'л = . (6.15) = - Ет (AlH+НА. )Е+Ет (НВ. - L) ATW. Если W (s) - строго положительно-вещественная передаточная функ- ция, то согласно лемме 1 существует вектор G и матрицы Н = Нт > 0 и Р > 0« Удовлетворяющие соотношениям HA. + AlH = -GGT-pP, HB = L. Тогда выражение (6.15) можно записать в виде (6.16) F(E,A) = -|etQE<0, где Q = GGt+uP и , откуда следует ограниченность Е (г) и А (г), сущест- "₽««> »(>)-». при,-,» ,,ииюмга,ьио. t feJV'(,)^ = VM-V(0)<oo . (6.17) о
Й!!1Ьад.п, - —' Далее, иГ^^^^^темь, к ляз Довател ОГ*>ач,,чён'~~ ~—£1вдмерения производных от выхода,—- Тог» ’ РаЬ1,оМепм СТИ следует ограниченность V (О й< сяе ОВе леммы Барбалата [20] имеем CjIe^°BaTent = *“п~Кт<Ж»0. Тельно, j,, . '-*»2 аучаем 1 )~>0, в[(т)—»о и, учитывая соотношение (6.13), ДОКазателъство ГГРИ выполнении асимптотической устойчивости системы (6.12), (6.13) Ми ЧастОтными Д°ПОЛНителкного условия {wf (г)} - сигналы с различиы- Замечание 6 ^МП0Не1ггами< аналогично теореме 3.1. м°й, тотеоп " * ^СЛИ "а*53 (А., В.) не является полностью управляе- Следстви^А, ^*°ЖеТ быть доказана иа основе леммы Мейера [50]. Где . . е • Теорема остается справедливой, если W(f)=T(p)z(t), произвольная ограниченная кусочно-непрерывная функция вре- WCHMj п a dlfit ' 1 “Оператордифференцирования, T(s) -векторустойчивых пеРедаТОЧных функций. т ледствие 6.2. Дана полностью управляемая и наблюдаемая тройка ( . А,, В.}, где А.(пхя) - устойчивая матрица, L(mxn), В5яхл) -матрицы. Тогда система n(m + l) дифференциальных уравнений Ё = А.Е + B«A(r)W(r), Ё = LTE, (6.18) А (г) = -rEWT (г), А(тХЯ) - матрица, (6.19) устойчива, если Г = Гт>0, W.(s)=LT- положительно- вещественная матрица, = 0, W(f) - ограниченная вектор-функция. Более того, если В. - матрица полного ранга, а компоненты вектора W(r) - гармонические функции с разными частотами, то система (6.18) асим- птотически устойчивая при любых начальных условиях. Доказательство следствия 6.2 аналогично доказательству теоремы 6.1, но основывается иа использовании леммы Андерсона [50]. Замечание 6.4. Теорема 6.1 определяет класс динамических объектов, устойчивая адаптация настройки которых возможна без измерения произ- водных выходного сигнала. Система уравнений (6.12), (6.18) соответственно для случая «скаляр- ный вход - выход» и «векторный вход - выход» (размерности входа и вы- хода совпадают) представляет уравнение обобщенного настраиваемого объекта (ОНО), в состав которого, в зависимости от задачи, входят урав- 43*
—-------------------------Непрерывные адаптивные системы. Часть V нения: исходного объекта, эталонной модели, регулятора, наблюдателя со- стояния (фильтров состояния) и генераторов дополнительных сигналов (необходимость и роль последних будет описана ниже). Уравнения (6.13), (6.19) описывают алгоритм адаптации. При этом Л (г) = 0 (г) - 0. _ вектор (матрица) отклонений настраиваемых параметров от идеальных, которые предполагаются квазистационарными (0. (г)»0). Таким образом, А(г) = 0(г). Используя целевую функцию д(Е) = ^ЕТНЕ и уравнения состояния (6.12), (6.18), легко показать, что алгоритмы адапта- ции (6.13), (6.19) принадлежат классу ACT в дифференциальной форме. Од- нако, в отличие от рассмотренных выше приложений метода скоростного градиента, в данном случае измеримыми являются вход и выход объекта и полученные на их основе компоненты вектора W(r). Таким образом, рассмотренный в теореме 1 класс адаптивных систем предполагает следующий алгоритм (схему) синтеза: 1) приведение модели ошибки системы к виду (6.12), (6.18); 2) выбор алгоритма адаптации в форме (6.13), (6.19). Замечание 6.5. Наиболее существенными условиями теоремы 6.1 сле- дует считать требование строгой положительной вещественности переда- точной функции модели ошибки W» (s) и обеспечение ограниченности вектора W(r) (вектора регрессии). В зависимости от постановки задачи вектор Е(г) представляет собой рассогласование между состояниями объекта управления и наблюдателя или объекта и эталонной модели. Поскольку согласно теореме 6.1 динами- ческая система ошибки представлена тройкой |ьт, А., В.} с заданными свойствами, то возникает вопрос: как перейти от исходного описания объ- екта к форме (6.12), (6.18), т.е. выбрать матрицы А*, В*, и как сформиро- вать вектор W(0 в условиях, когда сигналы Е(г) и Д(/) не измеримы, а доступными являются лишь сигналы и(г), q(r) и Д(г) = 0(г). На прак- тике при переходе от минимальной реализации модели объекта управле- ния в форме (6.1) к модели ошибки, в общем случае, вместо необходимой формы описания (6.12) система приводится к виду Ё = AJE + Az, et =LTE , (6.20) где et - ошибка, z - некоторый доступный измерению сигнал. В связи с этим возникает дополнительная задача: как перейти от соот- ношения (6.20) к форме (6.12). Эта задача может быть решена путем вве- дения в систему (6.20) вектора дополнительных сигналов V(r). При этом система (6.20) преобразуется к виду
ё * ’ 1 С| 35 £J Ю ...... V(I). сушес™»»», возможные Фармы^^^Х’ то сигнале V(t) и соответствующие преДставл ^^Шльно- ^(/), при которых уравнения (б,21} и(6 J2) 0 Р«РесснИ с гоню зрения соотношения (<Вход (г} __ ЭКй«валСТггнымн едении 6.1. Так как, согласно теореме 61 *' С0ДеР*ится в men. ю Ляпунову, в рвмннкя таяток t!oi,n, >с™й™“'> эдовиедно, В «JTT*®01” W« „„торизмомадапзапниm д(,} ^^Н»Ч = Утверждение 6.1. Пусть г({) _ Й> времени, »₽. (lt, А.) - попноетыоХСт тор'функции 10ГдасУЩеспутвек- WW=T(,),(,). v(,)=V(iwj где T(s) - вектор передаточных функций, что системы (6.12), (6,21) экви- валентны с точки зрения соотношения вход ? -выход е( (ё,\ Доказательство. Определим ошибку e(t)»e( между выхо- дами систем (6.12), (6.21): E(f) = Lr(pI-A.)-1{Az+V-B.ATw}. Для доказательства утверждения необходимо получить вектор функции V(t) и W(0, при которых e(t)=O. Заметим, что при разрешимости уравнения Az+V-B.ATW=0 относительно вектора V решение задачи - тривиальное. Однако вепор- Функция V является функцией от вектора А=0~0», который неизвес- тен. Поэтому в формулировке утверждения 6.1 вектор V должен быть Функцией от измеримых сигналов W и А, т.е. V = V(A, W). Приравнивая ошибку е к нулю, получаем D(p){az + v-b.atw}=o, W где D(p) = LT (pl-A.)’1 •det(pI-A.) -вектор-строка многочленов one- ₽ ^Pa Дифференцирования p.
686 Непрерывные адаптивные системы. у Поскольку компоненты вектора D(p) зависят от формы представлв! систем (6.12), (6.21), то без потери общности результатов будем что системы представлены в канонической наблюдаемой форме A, =f-A }-Н LT=(1 0 ••• 0), ’ни, считать, (6.23) где А - вектор коэффициентов дифференциального уравнения. С учетом (6.23) В(р) = (₽”"’ Ря~г • ” Р 1). (6.24) уравнение (6.22) можно записать в виде II . , Л, , £рй-'(^Л^-Д/г) = £рй' (v(), (6.25) i=i <=| где 4), Д(, v,- - i -е элементы векторов В», А, V . Учитывая, что Дт W е R1, преобразуем уравнение (6.25) к виду ЛТ WZ>* - Д„г + £[(рй-'Дт) W*; + Лт (р''-‘к)ь; - ,=* П (6.26) -(р'-'Д,. )z - Д,. (р""г)] = £ Ра~‘ (v,). Обозначим Q, = ( 0 ••• 0 1 0 0 )Т,тогда 1-1 Л-1 (рй-'д/)г = (рй-/дт)р/г, Д,(р'-'2) = ATQ,(p''~'z). (6.27) Проводя группировку слагаемых при одинаковых степенях (р^АТ) в левой части уравнения (6.26), с учетом (6.27) получаем: АТ {*>-Qnz}+ £[(рй"/Дт ){fe‘W - Q, z}+ /=1 д (6.28) Будем искать компоненты вектора дополнительных сигналов V(r) в виде симметричной билинейной формы векторов Л и W, а именно в виде v,(0«AT(0R*W(»). (6.29) где R, - матрицы с постоянными коэффициентами. Тогда правую часть соотношения (6.28) можно записать в виде
р^вя^Адаптивные с."£1£мь!безвдмер л-I л-I |R„W = 687 (6.30) л-2 |R„W = + (pa дТ )Riw + (рдТ ){R1 (/w)+R„w]. Таким образом, уравнение (6.28) представимо в форме Л—I . » f А * л-| * 1 (рЯ~ А )h W -М+ ZдТ fa (p'”iw)-Qi(р--ij|+ я-2 + AT{6>-Q„Z} = (p"AT)R1W + X(p'-'A^R.+iW+ (6.31) Принимая во внимание, что компоненты вектора А - независимые пе- ременные, приравняем компоненты левой и правой частей уравнения (6.31) при одинаковых степенях (р'Дт ), i = 0,л. (рлДт): RjW = 0: (6.32) (ряЧАт),| = 2,л-2: R^W-tfW-фг, (6.33) (Мт): R^ + SR^fp^wl^^W-Qn:; (6.34) v ' <=i Ат : XK(^",W)”Q'(<,z)}+fe»W"Ql’za0, i=l 1 В уравнение (6.35) входят только вектор W(0, фуикии (6.35) z(t) И их производные, что позволяет получить искомый вектор Т(р) Действительно, уравнение (6.35) можно записать в виде л-2 . . « / , \ S«s’(p^w)"SQi(^1).
688 Непрерывные адаптивные системы. Часть у или и, следовательно, т(р)=01(р) - ‘Лр))Т’ (6.36) (6.37) рп~1 Без потери общности положим l\ = 1. При этом В*=(1 $ ... *„‘)Т. (6-38) Уравнения (6.32) - (6.34) позволяют получить матрицы R{,i>l,n. Этим уравнениям при hf = 1 удовлетворяют следующие матрицы: R1 — 0; 'о -b"„ Ч+. ........... ~ь« ° - О О Ч ................. -bii -ь'„ О -Ъ*п о о О ' о (6.39) »-m+l т-2 т = 2, 3,...,п. Таким образом, системы (6.12), (6.21) эквивалентны в смысле соотно- шений «вход - выход», если вектор В. имеет вид (6.38), компоненты век- тора регрессии W(/) связаны с входным сигналом z(r) соотношениями (6.36) (б, =1), а вектор-функция дополнительных сигналов V(f) выбнра* ется в форме = AtR2W AtR3W ... iTR„w)T, (6-40)
р Адаптивные системы без измерения производных от выхода 689 Де структура матриц R,, i = 2, п имеет вид (6.39).Утверждеиие доказано. Замечание 6.6. Дяя использования при синтезе теоремы 6.4, согласно ^ствию 6.1, необходимо, чтобы Т (s) представлял собой вектор устойчи- ВЬ1Х ПеРедаточных функций. Это требование легко удовлетворяется соответ- ъ^УКицим выбором коэффициентов b*, i = 2, л в соотношении (6.37). Замечание 6.7. Выбор вектор-функций V (г), W (г) и вектора В* неод- н°значен. Действительно, в основе доказательства утверждения 6.1 лежит УРввнение (6.22), в котором компоненты вектора DT (р) зависят от формы представления систем (6.12), (6.21). При использовании иной, отличной от конической наблюдаемой формы (6.23), получаются другие формы пред- ъявления V(r) = T(p)z, W(r)=w(i, V) и В..Более того, вместо (6.22) Двл синтеза V(r),W(r) и В, можно использовать уравнение W(p)D(p){Az + V-B.ATW}=0, (6.41) Где W(p) - передаточная функция, которая, согласно теореме 6.1, должна Удовлетворять условию: W(p)LT(pI-A«)'1B. - строго положительно- вещественная функция. Утверждение 6.2 [20, 50]. Пусть z(t) - произвольная ограниченная Функция времени. Реализация тройки |lt, А», В, j имеет вид: -X] Г' 0 Л, B.T=LT=(1 0 - 0), А. = где L = (l 1 ... QT _ (и-1)х1 вектор, A=diag{-A,2,...,-X„}, где \>0, А, для Vi,Je{l, 2,..., л}'. Векторы W(z) и V (г) удовлетворяют соотношениям: (6.42) w,=z; w. =—-—z, 1 = 2,3,...,л; (6.43) р + А] VT=(0 32iv2 S3w3 (б-44) где 8( - i -я компонента вектора А. Т0Гда системы (6.12), (6.21) эквивалентны с точки зрения соотношений «ВХОД-ВЫХОД». ^амечание 6.8. Утверждение 6.2 доказывается аналогично утвержде- темь^Гб^Г116 счет выбора специальной формы представления сис- ) Удается получить более простые выражения (6.43), (6.44) для
Непрерывные адаптивные системы. Часть у 690__________________________ векторов V и W по сравнению с соотношениями (6.36), (6.40). ПоэтОМу на практике чаще встречается использование утверадения 6.2. Замечание 6.10. Эквивалентность систем (6.12), (6.21) не означает 60=0, так как помимо вынужденных движений, вызванных входным воздействием z(t), присутствуют собственные движения, вызванные не- нулевыми начальными условиями. Тождество e(t)s0 достигается, если начальные условия согласованы, т.е. Е(т0) = Ё(/0), Хг(го) = О, где - начальные условия фильтров состояния, заданных вектором пе- редаточных функций 6.3. Схемы построения адаптивных наблюдателей состояния усмотрим линейный упрамеши, заданны» моданью «»«« - выход» в форме (6.1) Х = АХ+Ви, xB=LTX, Х(О) = Хо, где Xes-.«e»',«.e»', {ь’.АВ} «ншосгыо » наблюдаема. лбеспечиваю~ Задача состоит в построении адаптивного наблюдателя <. каЦиИ щего оценивание вектора состояния объекта управления параметров объекта (тройки {ьт, А, в}) при измерении только и(») и выходного ха (г) сигналов. g Ниже рассмотрены три модели (схемы) адаптивного иаблюд каждом случае синтез производится в три этапа: наблюДа* 1) выбор канонической формы представления модели ооъ теля; 2) приведение модели ошибки к форме (6.12) или (6.2 ), гаранти- 3) выбор алгоритма адаптации и сигналов обратной связи ( / > рующих устойчивость адаптивного наблюдателя. Схема 1 [20,50) „„„«„«ская форма Этап 1, В схеме используется наблюдаемая к представления модели объекта * ЛдШх+В«. ^ = LTX = xlt Х(0)»Хо.< I । о) • .—4. ч—» о6ь“л - единичная матрица, LT =(1 0 (6.45)
Ггт»яя 6. Адаптивные системы без измерения производных от выхода 691 Запишем модель (6.45) в форме (6.46) A* |’~l - устойчивая матрица. где А. Структуру адаптивного наблюдателя выберем в форме Ё = аЛ + (А»-А)х1+Ви + У1 + У2, х„=х1( Х(О)=Хо, где Aj^p В(лХ1) - векторы оцениваемых параметров, У, (г), V2(/) - до- полнительные сигналы. Этап 2. Введем вектор ошибки оценивания состояния объекта Е = Х-Х. (6.48) Тогда в силу уравнений состояния объекта (6.46) и наблюдателя (6.47) получаем следующее дифференциальное уравнение для ошибки: Ё = А*Е+А,х, +А2и + ¥, + У2, E(0) = Xo-Xo, (6.49) где А] = А-А, Л2 =В-В . Таким образом, получили модель ошибки в форме (6.21) для двух входных скалярных сигналов л, и и . В связи с этим в структуру наблюда- теля состояния (6.47) и соответственно в модель ошибки (6.49) введены два вектора дополнительных сигналов У, и У2. Этап 3. В соответствии с утверждением 6.1 модель ошибки (6.49) с позиции соотношения «вход - выход» эквивалентна представлению в форме (6.12), если (см. соотношения (6.36), (6.40)) вектор-функции допол- нительных сигналов выбираются в виде Vi-(о A^R2W, - Afaw.)1. V2=(o a}r2w2 - aJr„w2)t, а векторы регрессии формируются с помощью устойчивых фильтров со- стояния (i =1, я) Т ИЯ “* w.-fa, - -п.) т о""' В силу теоремы 6.1 система (6.49) - (6.51) с алгоритмом адаптации A»-A1»rJe1W„ Г|«Г? >0, Ё = А2 =-r2e,W2. Г2вГ2>0 (6.47) (6.50) (6.51) (6.52)
692 ______________Непрерывные адаптивные системы. Часть V устойчива по Ляпунову (все траектории ограничены, и Е -» О при /-><*>), если W. (j) = Lt(jI-A.) В. = —-—я_---------- строго положи- s +ats +... + ап тельио-вещественная функция. Более того, система асимптотически ус- тойчива(Е-*0, А, —>0, Д2 -*0 при /—>»), если и(г) содержитиеме- нее ml2 гармонических сигналов с различными частотами. Здесь т - ко- личество настраиваемых параметров. Схема 2 [20, 50). Этапы 1, 2. В схеме 2 минимальная объекта представляется в специальной канонической форме A t-" jx+Вм, xa=LTX = xI, Х(О)=Хо, где А, В - векторы неизвестных параметров, LT = 1 - 0Т - вект°Р- A = diag{-X2,-Л3 Х,( >0, Х( tkj для Vi.j'e {2, 3.л}. Перепишем модель (6.53) в виде X = А,Х + (А» - A)xt + Ви, хв = xt, реализация Х = (6.53) 0 - О), ”М» где (6.54) где А.® А. =(^4 0 0)т,А,>0> I л (6.55) X, для Vi = 2,л. При этом матрица А. является гурВи личными вещественными собственными числами; и выб ЧвВо® с раз- наблюдателя в форме (6.47), вновь приходим к моДеди стРУКтупу при представлении матрицы А. в виде (6.55). шибки (6.49) Этап 3. В соответствии с утверждением 6.2, модель вивалентна форме (6.12), если (см. соотношения (6 4т?ШИбки (6 40\ функции дополнительных сигналов выбираются в ВИде (6,44)) ве^*' V,=(0 612wI2 ••• 6I„wlB)T> Р V2=(O 522w22 ... 82яИ,2я)т> где Зн, 3». Ъ ' 1 ’ые компоненты соетве^ 5б> торы регрессии формируются с помощью фильтрОв СоГ"* 8е^орОй , -.Т . стОяННо ’ а BPir. ^=^11 •“ *Цл) • и11='*1, H'i, g-1 ₽+\'ll,/ss25;i W2=(m/21 •" ’ W21 *>2i =—1^. (6.57)
Глава 6. Адаптивные системы без измерения производных от выхода 693 Тогда в соответствии с теоремой 6.1 система (6.49), (6.56), (6.57) с ал- горитмом адаптации (6.52) устойчива по Ляпунову, если W. (s) = LT (Я - А. ) В. = —— - строго положительно-вещественная j + Aj функция (очевидно, что это условие выполнено в силу \ >0). Замкнутая система асимптотически устойчива, если входной сигнал и (г) содержит не менее т/2 разночастотных компонент. Структурная схема адаптивного наблюдателя, построенного по схемам 1,2, представлена на рис. 6.1. Рис. 6.1- Схема адаптивного наблюдателя (схема 1,2) Пример 6 1. Рассмотрим объект управления, представленный в специальной каноииче-. свой форме (6-53) , / ч / з <8 о 5 2, X, >° - неизвестные пара метры. • *)-М Х= n о) ( 1 сессии запишем в соответствии с (6.57) в форме Элементы векгорои р e s _Хи,„ + х„ н>12(0)=и&, ^(в)=и&’ - ,пвитм адаптации запишем в виде ГДеВ^отв<^т,,ииС(6'5 а^Г.т.’ПрА’Т.е.и'з.. i «v-eiH'h- ^=7г«1*а- в соответствии с (6.56) сформируем в виде '’•(° математического моделирования адаптивного наблю- ., „„наедены =1'*г “1,х« =1; “Иффициентах усиления На Р"с‘ 6 2 "РХрах °бъеГГЗ: “'2 г, «15,Ь = 1”* *“чаяы,ыхусло,"“х: алгоритма»"
694_____________________Непрерывные адаптивные системы. у Чв =Ь ’io =2. i|fl =2, Лгв = 3, 6)0 = 2, =4, 4о =0<5» ^и> = 1.3, и^°2 =q^ _ Вис. 6Л, Рпултты моделирования
fидл«ЛАдаПТИВНЫе системы 663 mMePem« производных от выхода 695 Схем» 3 (5°J;z1 • Вновь рассмотрим специальную каноническую форму объекта (6.53), комплексная передаточная функция которой имеет ВИД Ы \ WW.L’(H-A)-B.m. (65g) где А=(-Л Гл j’ ..“A.}: Р(г).а(,) - многочлены степени тип соответственно (т < п). Сформируем многочлен Y(s) = n(s+\) (6.59) и разделим на него числитель и знаменатель передаточной функции (6.58) W(s) = Р(д)/у(д) a(s)/y(s) (6.60) где в(, bj, i = 1, п связаны с параметрами объекта соотношениями ат=(-«. -а, -а, - Ч-,). (М1) вт=(ь. S, - V,). Таким образом, в соответствии с выражением (6.60) справедливо ра- венство ( i=2s + ^i (i=2i + A,i или J • X] (s) = а„ -X] ($)+атХ] (s)+bTX2 (s)+bn 'u(s)< s-X1(s) = A.X1(s)+L-x1(s), <6’62 s-X2(s) = A-X2(j)+L-u(s)> г«ат=(п-1...5я_1)>ьт=(й1...Ья_1),Г=(И... 1); гор-функции размерности (n-l)xl комплексной переменной s, эдеме которых задаются соотношениями Запишем уравнения состояния, соответствующие системе (6.62).
696 _____________Непрерывные адаптивные систр».. , (0 = «Л • *1 (О+атЖ1 (/)+bTX2 (t) + bn.u(t), X,(/) = AX1(O+L.x1(r), Х2(г) = ЛХ2(г)+Е-«(г), (6-6^ ^(0)=^. X|(O)=Xlo, X^oj-X*. Для того, чтобы системы (6.53), (6.63) были эквивалентны, необходим0 согласовать начальные условия. С этой целью определим решения систе** (6.53), (6,63) относительно х, (/) = xt (/). Для системы (6.53), принимая во внимание соотношение (6.61), поЛУ' чаем л, (r) = n„xj(r)+Ere“A'X(O)+jEre-A^axI (t)dt + , ° (6-64) +je-A^bu(x)dt+bnu(t), (x,(0) XT(0)) = XT(0). о Аналогично для системы (6.61) имеет место равенство xj (г) = а„х} (t)+(0)+ +17е-Л'Х2 (0) + +Jl7e'A','^ax1 (т)й?т+|е'л^'^Ьм(т)<Ут+^и(/), (6.65) о о X|(0) = xjo, Х,(О)-Х,в, Х2(0) = Х20. Сравнивая (6.64) и (6.65), получаем тождество, если выбрать начальные условия для системы (6.63) или (6.65) в виде х1 (0) = х,0, X, (0) = О, Х2 (0) = Хо, (6.66) где Хт(0) = (х1О Хт(0)) - вектор начальных условий исходной системы (6.53). Таким образом, (2л-1)-мерная система (6.63) с начальными условия- ми (6.66) является неминимальной реализацией исходной л -мерной сис- темы (6.53). Структурная схема неминимального представления объекта показана на рис. 6.3. В соответствии со структурой объекта (6.63) зададим уравнения на- блюдателя состояния в виде +йтХ| + bTX2 +b„u-ki -л,), X] >0, А _ А — — X] = Л Xj + L Xj, Х2 = Л Х2 + L и, (6.67) Я,(0)«0, Х,(0) = Х2(0) = 0. где А., - коэффициент стабилизирующей обратной связи.
Глава^АдаптивнЬ1е системыбавд^ nivs -------- . /Т\ ~ 1/s Н-л)' а РИС. 63. Структурная схема ^минимального предания объект. Этап 2. Введем обозначения: (МО) Е(0= Ё,(0 (М) МО-x^r), Л(')-х2(0 йп-«» (s-af (6.68) лТ Aj V4 (Б-b) . Из систем (6.63), (6.67) с учетом начальных условий (6.66) получаем ё\ — —Х|₽[ + 8]Х| +AfX, +82«+Л2Х2+ЬтЕ2 ; = 0; е2 = ле2 *, е,(0) = -х10, Ё2(0) = -Х2(0) = -Х(0), или в матричной форме E = A,E+B.(A?rW1+AlW2)) e)=LTt, •• 0)Т, где Ет ,т W2 = (6.69) (6.70) Ь1 А.= Л '0 Этап 3. Так как полученное УРавней^1рНН0 да теоремы — падает с выражением (6.12), то непосред параметров тойчивость системы (6.69) с законами идеиифи ошибки (6.69) по структуре сов- —- т₽лпемы 1 вытекает ус-
698 Непрерывные адаптивные систем», и — ----—------ ———-------------^SLHacixy v(i ^=^>0, д2=|Х bTf = Г2е^2, Г2=г1>0, <6‘71) поскольку IV.(s) = LT(«I-А.) В. = " строго положительно- вещественная функция. Идентифицирующие свойства алгоритма (6.71) проявляются при достаточно богатом частотном входном сигнале и (г). Структурная схема наблюдателя представлена на рис. 6.4. Замечание 6.11. При синтезе адаптивного наблюдателя по схеме 3 нет необходимости приводить исходное описание системы к неминимальному представлению (6.63), (6.65), так как в уравнение наблюдателя (6.67) (мо- дель ошибки (6.69)) и в алгоритм идентификации (6.71) входят лишь вход и(1) и выход Х| (1) объекта управления. Необходимо лишь знать, что ука- занное представление возможно. Более того, иет необходимости приведе- ния исходного описания объекта управления к канонической форме (6.53), так как передаточная функция объекта (6.58) не зависит от формы пред- ставления в пространстве состояний. Тем не менее указанный алгоритм перехода от системы (6.53) к модели (6.63), (6.65) необходим для интер- претации взаимосвязи идентифицируемых параметров и оценок состояния с исходным описанием системы (параметрами и вектором состояния). На- пример, при использовании отличной от (6.53) исходной модели объекта будет иная, чем (6.61), взаимосвязь параметров передаточной функции (6.60) и параметров матриц А и В. Также изменится связь между Х2 (0) и начальными условиями объекта (см. (6.66)). Замечание 6.12 [50]. Вместо пары матриц (Е1, л) в уравнении на- блюдателя можно использовать любую полностью наблюдаемую паРУ Пример 6.2. Рассмотрим объект управления примера 1. Представим его математическую модель в виде неминимальной реализации (6.63) i| = a2x, + 0,1, + Ь,х2 + Ь,и, . . _ + х„ ” ; ‘°’ xl(0)=ftIJ0)»*». Х<1 » AjXj + U, где = «р в, = а2>6, = 6, = bj. В соответствии с этой формой представления зададим наблюдатель состояния в виде i1»4li1 + ^1+^t3 + ftjB-ki(2|-X|), . , х1(0)я*1о- Г, - Х.,?, + х„ * (0) „ 0 % ж . ^2 в Х2Х2 и» где X, =2.
Рис. 6.4. Резулытяты мвяеляр»»««‘*
Непрерывные адаптивные системы. Ч^, у 700 Алгоритм адаптации описывается уравнениями «2 =“Wi- «2(0) = ва). *г =7|в|И. А (°)=Ао. «I = -Тй4 «I(0) = вю, А = Угел, (0) = *,0. На рнс. 6.4 приведены результаты математического моделирования адаптивного наблю- дателя при параметрах объекта: а, = 4, аг = б, b, = 1, Ьг = 1, Л2 = 1; коэффициентах усиления алгоритма адаптации: у, = 22, у2 = 12, yj = 1,3, у2 = 1,3 н начальных условиях: х|0 -1, Х|0 = 0. хю = 2, х|0 = 2, х10 =0, хт = 1, а10 — 3, =12, б10 = 2, Ьт = 3. Рис. 6.5. Структура наблюдателя (схема 3) 6.4. Непрямое адаптивное управление Описанные выше схемы построения адаптивных наблюдателей позво- ляют на основе идентифицируемых параметров и оценок состояния ре- шать задачи адаптивного управления. Рассмотрим одну нз возможных задач синтеза [50]. Пусть описание объекта задано с помощью передаточной функции x1(r) = W(p)«0). (6.72) где
глава 6. Адаптивные системы без измерения производных от выхода 701 1У(р) = Ш ' «(₽)’ а(р) = а(а,р) = £ап_,р' , «о =1, ₽(р)=0(Ь,р)=^)п_.р-, _________ ___ /=о а = {а,-, i = I."} и b = (Р,, i = 1. т} - множества неизвестных параметров объекта; объект минимально-фазовый, т.е. ₽(М) - устойчивый много- член для любого be аь, Sb - множество возможных значений коэффи- циентов числителя передаточной функции. Желаемое поведение системы зададим эталонной моделью вида Л1Э(0 = и'э(р)у(0> (6.73) где y(t) - задающее воздействие, W, («) = -М4 - устойчивая мини- мально-фазовая передаточная функция, a3(s)=a(a3,s), 0э(г)=0(Ьэ,т) - заданные множества параметров эталонной модели. Для выбора структуры основного контура адаптивного управления рас- смотрим задачу синтеза алгоритма управления («идеального» регулятора) в предположении полной априорной информации о параметрах объекта (множества а, b с известными элементами), обеспечивающего достиже- ние цели Е(г)->0 при (Е(т) = Х(т)-Хэ(т), X(t), Хэ(г) -векто- ры фазовых переменных объекта и эталонной модели). На рис. 6.6 представлена схема системы управления, в которой «иде- альный» регулятор представлен совокупностью регуляторов прямой и об- ратной связи. Зададим передаточные функции регуляторов прямой цепи и цепи об- ратной связи соответственно в виде и, М-Mil W (6.W) М~М "W Mri Рис. 6.6. Схем» управления с «идеальным» регулятором Передаточная функция замкнутой системы, связывающая задающее воздействие у и выход jq, имеет вид
702 Непрерывные адаптивные системы. Част. у Иэ W = 1 + jyn (р).Woy (р) РЛр) 0(р) Р(р) а(р) ~&3(р) s gjp) Р(/>) + Р(р) а(р) Р>(₽) Таким образом, передаточная функция системы с «идеальным» регуля- торой (6.74) эквивалентна передаточной функции эталонной модели и, в силу устойчивости и минимально-фазовости эталонной модели и мини- мально-фазовости объекта, все траектории системы ограничены, и дости- гается цель управления Е(/)—>0 при Г—>°° для любого ограниченного входного сигнала у(г) при произвольных ограниченных начальных усло- виях для объекта и эталонной модели. При адаптивной постановке задачи синтеза выберем структуру регуля- тора основного контура в виде (6.74), заменяя неизвестные параметры объекта управления настраиваемыми: w (p) = Mfl W (n)=ttj^~aW., (6.75) п(Р) &(р)' М Ь(р) где B(p)=p(b,p), fi(p)=a(a,p), а, b - множества оцениваемых пара- метров. ₽вд. 6.7. Схема адаптивного управления (ндентяфк оценивания еги Для идентификации параметров объекта выходу Ч (0 МО5КН° состояния по измеряемому входному сигналу «V построенИя адаптивного использовать одну из ранее рассмотренных схем
Глава 6. Адаптивные системы без измерения производных от выхода 703 наблюдателя. Следует заметить, что при относительной степени |Л = (л - m) > 1 многочленов знаменателя и числителя передаточной функ- ции объекта для реализации регулятора обратной связи (6.75) необходимо измерение не только выхода объекта xt (т), но и его производных вплоть до (ц-1)-го порядка, что противоречит условиям задачи. Поэтому целе- сообразно в качестве сигналов обратной связи использовать выход наблю- дателя состояния и, при необходимости, его производные. Схема адаптив- ного управления приведена на рис. 6.7. Пример 63. Рассмотрим минимально-фазовый объект управления 2-го порядка с переда- точной функцией w(p\=- Ар.+А , рг+О|Р+а2 где а = {(Х|,а2}, Ь = {Р(, Р2} - множества неизвестных параметров. Желаемое поведение объекта зададим эталонной моделью W,(p) = _₽1£±Ё_, р2+а?р+<4 ’ где Р’ >0, а] > 0, а множества а, = {а,, а)j, Ъ, 61] выбираются из условия желае- мого расположения нулей и полюсов. В соответствии с соотношениями (6.75) регуляторы прямой и обратной связи имеют пе- редаточные функции вида Адаптивный наблюдатель построим по схеме 1. Для этого представим модель объекта управления в наблюдаемой канонической форме (6.46) Х=('“1 ‘W4. *.=*!• (-<х2 0) ]б2 J Тогда в соответствии с (6.47), учитывая форму дополнительных сигналов (6.50), наблю- датель состояния описывается уравнениями состояния i-H I —0^2 О I I ' О aJr2w2 Р- J 0 . и+ *Т 1 Коэффициенты а', выбираются из условия устойчивости матрицы А. и 0) должны обеспечивать большее быстродействие наблюдателя по сравнению с динамикой эталон- ной модели. Векторы Д|,Д2 формируются в соответствии с алгоритмом идентификации (6.52) гдеГ( = г7>О,, = 1.2>е1=А_Х1
Рис. 6.8. Результаты моделирования Матрица R2 (см. 6.39) имеет вид
глава 6. Адаптивные системы без измерения производных от выхода 705 R2=f° Я 1° 1 ) где 1>2 > 0 >что обеспечивает строгую положительную вещественность функции W.(j)=Lr(H-A.)B, =-—. На рис. 6.8 приведены результаты математического моделирования системы адаптивного управления с наблюдателем при параметрах объекта управления и модели: а, =5. tXj =10, Р, = 1, 02 = 2, = 7, = 10, 0? = 1, 02 = 1; = 3; коэффициентах усиления алгоритма (36 0 (5,5 0 \ адаптации: Г( =1 д з f 2 =| о 0 45 I ** начвльнь1хУсловии; . &t(0)=7, &j(0)=8, ft(O)=2,02(O)=3, (ОА о) W. = ,W,= . О 2 О 6.5. Прямое адаптивное управление с явной эталонной моделью В отличие от рассмотренного выше идентификационного (непрямого) подхода к задаче синтеза алгоритмов адаптивного управления для объек- тов с одним входом и выходом, который основывался на построении адап- тивного наблюдателя состояния, обеспечивающего идентификацию пара- метров объекта и возможность построения алгоритма управления по оцен- кам состояния, при прямом подходе решаются следующие задачи [20,24]: 1) синтез регулятора, не использующего производных входного и выход- ного сигналов и обеспечивающего при известных параметрах объекта управления заданное размещение нулей и полюсов замкнутой системы, а при неизвестных параметрах - модель ошибки слежения, линейную по вектору параметрических рассогласований; 2) модификация модели ошибки, позволяющая использовать алгоритмы адаптации без изменения производных ошибки слежения и независя- щих от неизвестных параметров объекта. При синтезе адаптивной системы управления по-прежнему важным ос- тается вопрос об устойчивости замкнутой системы. В основу изложения методов решения поставленных задач синтеза положим обзор [20,24]. Постановка задачи. В связи со скалярным характером входа и выхода объекта, переформулируем исходную постановку задачи синтеза адаптив- ной системы (§1.2) в терминах передаточных функций. Пусть объект управления описывается передаточной функцией р"+а„,р’'+...+eq, 46 3»к. 108
706 Непрерывные адаптивные системы. 4att b V где = a,, j = 0,n-l, к - неизвестные параметры, р-_£ , , dt оператор дифференцирования. Предполагаются выполнимыми условия: 1) объект минимально фазовый (многочлен р($) - устойчивый); 2) известны степени многочленов deg0(p) = m, dega(p) = n и, следова- тельно, известна относительная степень ц = п -т; 3) йзвестен знак коэффициента к . Желаемое поведение объекта по выходу задается эталонной моделью xM^ = kM-WM\p)-y(t) = {Ы1Т) где WM (р) - устойчивая передаточная функция, y{t) - задающее воздей- ствие. Требуется синтезировать закон управления u(t), содержащий только измеряемые сигналы х(г), хм (г), у(0, но не их производные, обеспечи- вающий ограниченность всех траекторий замкнутой системы и выполне- ние дополнительной цели управления НтеДО-эО, (6.78) где е, (t) = x(f) - хм (/) - ошибка слежения. Таким образом, поставленная задача соответствует требованию обеспе- чения асимптотической устойчивости замкнутой системы по части пере- менных состояния. Подобно ранее рассмотренным методам синтеза адаптивных наблюда- телей, в основе решения поставленной задачи лежит теорема, требующая строгой положительной вещественности передаточной функции по ошиб- ке слежения е,(г). В связи с этим необходимо решить следующие задачи. Построить модель ошибки слежения и синтезировать алгоритм основ- ного контура управления таким образом, чтобы, с одной стороны, модель ошибки с учетом алгоритма основного контура была строго положитель- но-вещественной функцией, с другой стороны, алгоритм управления со- держал только измеряемые сигналы x(t), хм (г), у(г), но не их производ- ные. Наконец, требуется выбрать алгоритм адаптации в форме (6.13), при этом важно доказать ограниченность вектора регрессии W(r). Заметим, что теорема легко формулируется в терминах передаточной функции, по- этому нет необходимости перехода от моделей (6.76), (6.77) к форме про- странства состояний. Модель ошибки слежения. При построении адаптивных наблюдате- лей использовалась каноническая модель, являющаяся нелинейной фор-
Адаптивные системы без измерения производных от выхода 707 —^^едставления исходного объекта. Этот же приём распространяется на м°и матриваемую задачу построения модели ошибки. Каноническая форма РаСболее общего вида была получена Фойером и Морзем [44]. Её структу- НЯИ пределяется следующим утверждением. утверждение 6.3. Для любых трёх гурвицевых полиномов д(р) Ь(р) и Y(p) с единичными коэффициентами при старших степенях и удовлетворяющих условиям: 1) д(р),^(р) относительно неприводимы (не имеют одинаковых корней) и dega(p)-degb(P) = U = »-m; 2) b(p) является делителем полинома у(р); 3) degY(P) = ^~ существуют такие полиномы 5(р) = 8мР'''+8|-2Р1’2+- + 50, ф(р) = Ф/Р'+ФмРН +-+Ф0 степени (/-1) и I соответственно, что объект управления с передаточной функцией (1) может быть описан уравнением вида a(p)L Y(p) Y(P) a(p)L где o(r) - экспоненциально затухающая функция, порожденная ненуле- выми начальными условиями (в дальнейших выкладках ею пренебрегают). Замечание 6.13. Коэффициенты полиномов 5(р) и <р(р) зависят от параметров объекта и поэтому в рамках адаптивной постановки задачи считаются неизвестными. Замечание 6.14. При решении задачи синтеза нет необходимости при- ведения описания объекта к канонической форме (6.79). Важен лишь факт, что такое приведение возможно. Замечание 6.15. В дальнейшем полагаем I = п-1, что гарантирует ми- нимальное число настраиваемых параметров. Вычитая из канонической формы описания объекта модель эталонного процесса (6.77), получаем модель ошибки eM = x(t)-xu(t) = Y(P> у(Р) к b(p) J Введя обозначения для вектора регрессии W(r) = = к а(р) x(t)\ -~—-x(f)\ -y-x(/);... (Y(p) y(p) y(p) Y(p) y(p) n- v (6’80) 46*
708 Непрерывные адаптивные системы. Часть V и вектора неизвестных постоянных коэффициентов 0. = (50;8|,...Зя_2;<ряЧ; «р0 ФяЧу0); 1V (6.81) (Ф, ):•••;(Ф»-2 -Ф»-|Гя-2);т . Л J получаем модель ошибки в виде е, (/) = к -W. (/>)[«(Г)- WT (Г)0.], (6.82) Замечание 6.16. Для формирования вектора регрессии W(f) можно использовать «фильтры состояния» вида (6.67) V, =Л¥1+/и, ¥, (0) = 0, ¥2 = ЛУ2+й, У2(0) = 0, где V, ,V2eR", Л - сопровождающая матрица многочлена у(р), /т=(0 ... 0 1). При этом вектор регрессии имеет вид Замечание 6.17. Если выбраны многочлены а(р),Ь(р),у(р), то модель ошибки определена с точностью до неизвестного вектора 0.. Наиболее часто полиномы e(p),Z>(/>) выбираются в виде д(р) = ам(р), b(p) = (р), и, следовательно, И4(р) = WM (р) и G(p) = кы . Замечание6.18. Независимо от выбора многочленов а(р),Ь(р),у(р) модель ошибки слежения (6.82) обладает следующими важными свойствами: 1) относительная степень динамической модели ошибки слежения равна относительной степени модели объекта; 2) коэффициент усиления модели ошибки пропорционален коэффициенту к объекта управления и потому неизвестен. Выбор алгоритма основного контура управления. Выше подчерки- валось, что выбор модели ошибки и алгоритма управления неразрывно связан с выполнением условий теоремы 6.1, которая определяет класс мо- делей со строго положительно-вещественной передаточной функцией, ус- тойчивая адаптивная настройка которых возможна без измерения произ- водных ошибки слежения. Рассмотрим частный класс объектов управления, у которых относи- тельная степень полиномов передаточной функции ц = 1 (т.е. т = л -1). В этом случае W, (р) = -~у - строго положительно-вещественная функция. При этом, выбирая закон управления в форме
«(O-w’ioeo), ((UB) где •(,) -^«етраа^^^, слежения вида «.Ю-*ж.«[®(<)-в-]. «.«) «старая удовлетворяет осноеняд у1аи,ш<„ теоремы 6.1, , тато, тации выбирается в форме F алгоритм адап 0 = -rwT(Oel(x), 0(О) = 0о, Г = ГТ>О. (6.85) В общем случае (при ц>2) W(р) не является строго положительно- вещественной функцией, следовательно, условия теоремы 6.1 не выпол- няются, и алгоритм (6.85) не применим. Для того чтобы избежать исполь- зования производных сигнала (т), необходимо опять получить строго положительно-вещественную передаточную функцию, связанную с неко- торым измеримым модифицированным сигналом et (т). Этого удастся до- биться, если модифицировать закон управления (6.84). Впервые такая мо- дификация была предложена Р. Монополи в работе [47] и получила назва- ние «adaptive control with an augmented error signal”. В русскоязычной ли- тературе такая схема называется адаптивным управлением с расширенной ошибкой [24]. Схемы расширения сигнала ошибки. Рассмотрим два случая схемы расширения сигналов ошибки для двух случаев, когда коэффициент уси- ления к объекта управления (6.76) известен и не известен. Коэффициент к - известен. В этом случае расширенная ошибка с учетом модели ошибки слежения (6.85) имеет вид et (?) = e(/)+r|(t) = ИОД-(®(О-®.)Т • W(r)+T](r), (6.86) где т)(?) - дополнительный сигнал. Пусть Н(р) — некоторая устойчивая передаточная функция такая, что W.(p) Я(р) - строго положительно-вещественная передаточная функция. Выбор Я(р) будет конкретизирован ниже, исходя из требуемых свойств расширенной модели ошибки. Тогда, учитывая, что 0. вектор с посто- янными коэффициентами, н выбирая дополнительный сигнал Л(0 в вид Т|(Г) = к, получаем et(?) = к •И4(р)-Я(р)[н'1(р)(®(0-®.)Т -WW+zW]» (687) - Ъ1К(р)-И(р)[И-'(Р)0т(О«(»-в: Выбирая сжил т(0 , качестве выхода»»»»^» Z(r) = 01 -я-'(р)-ww-w-'^W-wtt, 45 Зак. юа
7{0 _____Непрерывные адаптивные системы. Часть V окончательно получаем: (I) = W. (р) Н(р)-Л (t)-V (t), где д(/) = 0(1)-в., ФТ(П = *-^Т(О. Wl(t) = ^''(P)-wl(l), i = T/2n. Таким образом, генератор дополнительного сигнала вида П(г) = к • W (р)- Н(р) z(t), z(t) = (el • Я'1 (р) - Я'* (р)0т(о) • W(z) (6.88) обеспечивает представление расширенной ошибки слежения в форме (6.87), Коэффициент^ - неизвестен. В этом случае заменим в генераторе дополнительного сигнала (6.88) неизвестный коэффициент к настрямпяе- мым параметром k(t). С учетом уравнений генератора ошибки r}(t) = W.(p)-H(p)k(t)-z(t), > z(O = [®rH-|(p)-H-|(p)®TW)W(O (6,89) вновь рассмотрим уравнение расширенной ошибки (6.87), которое в этом случае принимает вид е,(/) = ИС(р)Я(р)- [н-‘(р)-к eT(t) • W(r) - к ®I • Я’* (р) • W(r)+к z(t) + (*(г) - *)z(r)] = = W.(p)- Я(р)[(®(/)-®.)Т kT"W(t)+ (k(t) -*)z(Z)], или eI(O = W'.(p)H(p)AT(/)’P(O, (6.90) где Лт (г) = (дт (');(*(')-*)), Тт(г) = (*Тт(г);г(г)), W,(f) = H-'(p)wt(.t), i = ^2n. Таким образом, вновь пришли к структуре расширенной ошибки, по- добной (6.88). Поэтому в дальнейшем ограничимся рассмотрением случая, когда коэффициент к неизвестен. Конкретизируя выбор устойчивой передаточной функции Н(р), полу- чаются частные случаи обобщенной схемы (6.89), (6.90). Рассмотрим не- которые из них. Схема расширения Нарендры и Валавани. В этом случае Н(р) = L(p), где L(p) - полином степени Ц-1 такой, что W.(p) = W.(p)L(p) - строгая положительно-вещественная функция. При этом уравнение расширенной ошибки и генератор дополнительного сигнала приобретают вид A =l¥.(p)AT(r)Y(r), iKr)=W.(p)£(r)z(0, z(t) = [®T(t) 77-7 ~ 77-7 ®т(0 W). L(p) Цр) J (6.91)
Глава б.Адаптивные системы без измерения производных от выхода 71£ Схема расширения Фойера и Морза. В этом случае Н(р) = WAP) где W.(p) — строго положительно-вещественная передаточная функция такая, что Т(р) = н 1(р) = ^£1 _ устойчивая передаточная функция. W.(p) При этом уравнение ошибки и генератора дополнительного сигнала имеют вид (6.91), но z(/) = [eT(t)T(p)-r(p)eT(t)]W(O. (6.92) Схема расширения Нарендры и Лина. В этом случае H(p)=W. ‘(p) и, следовательно, «,(0 = Ат(()?((), П(0 = fc(f)z(t), (6.93) z(z) = [0тЖ(р)~ W.(p)0T(f)]W(n. В этом случае модель ошибки носит не динамический, а статический характер, что может рассматриваться как предельный случай модели со строго положительно-вещественной передаточной функцией. Алгоритмы адаптации. Во всех рассмотренных схемах расширения основной контур управления имел вид линейной обратной связи (6.84) «(f) = 0T(t)W(t), где вектор регрессии W(T) представляет собой совокупность выхода объ- екта, задающего воздействия, и выходов «фильтров состояния». Настройке подлежит вектор 0(?) и скаляр k(t). Синтез алгоритмов адаптации дол- жен осуществляться из условия устойчивости замкнутой системы. В рас- сматриваемом случае устойчивость гарантируется, если выполнены все условия теоремы 6.1. Условия теоремы 6.1 будут выполнены, если 'F(r) - ограниченная вектор-функция. В этом случае «,(»)-»О, А-»0, следова- тельно, z(r) —> 0, т)(г)-> 0 и e(t)-»O. Таким образом, все траектории замкнутой системы ограничены и достигается цель управления (6.78). Од- нако доказательство ограниченности Y(0 является нетривиальной зада- чей и на протяжении ряда лет не находила удовлетворительного решения, Не вдаваясь в детали доказательства устойчивости адаптивных схем с расширенной ошибкой слежения (с ними можно познакомиться по рабо- там [48, 49] или обратиться к обзору [24]), остановимся лишь на констата- ции следующих фактов: 1) при использовании динамической расширенной ошибки (6.90) асим- птотическая устойчивость по ошибке слежения е,(0 установлена для традиционных алгоритмов адаптации 45’
712 ______________Непрерывные адаптивные системы. Чаев. V ©=-гт (?) •«, (t), г=гт > о, £ =-¥?(/)£, (/), Y>o <б,94) и модифицированного дополнительного сигнала П0 = w* (Р)н(0тТ (')*(')] • (6.95) где дополнительная обратная связь е, (t)Vr (t)V(t) играет стабилизи- рующую роль; 2) при использовании статической модели ошибки (6.93) асимптотическая устойчивость по ошибке слежения e,(t) доказана при использовании модифицированных (нормализованных) алгоритмов адаптации видя *~~У1 + ’Ут(г)’У(г)’ Y>°‘ Пример 6.4. Рассмотрим объект управления, описываемый передаточной функцией 1У(р) = *-з-, x(t)=W(p)u(t'), р’+о^р’+сцр + Оо '' где к, a2, apO,, ₽|, 0, - неизвестные параметры. Желаемое поведение объекта по выходу зададим эталонной моделью с передаточной функцией ^W^Mp48p417P + 1O’ где ки = 1,6. Управление в соответствии с (6.83) имеет вид «(г)-е|(<)4а,(0+М04а,(0+М*)-*(0+в4(г)м|<1,(0+е3(/)Ц,,(0+вб(0*мУ(0= =w(oeT(«). где в(1) -вектор настраиваемых параметров, W(r) - вектор сенсоров; «*" = vj", < = -12v[° - 7v’" + у, v!" (0) = < = Л • v{” = vj”, vj*1 = -12v[2) - 7v<2' + u, v{” (0)=vj2> = 0. Будем использовать схему расширения ошибки Нарендры и Валаванн, т.е. ё, (г)=е(г)+п(г), «(г)=х(г) -хм (г), ПО)’»'- (p)z.(p)[*(r)z(»)-a,V (r)^(r)]. где Z.(p)=p + 1, ^(?)=Ч(»)+ w, (t), i = 1,6 н алгоритм адаптации в форме (6.94). На рис. 6.9 представлены результаты моделирования адаптивной системы при парамет- рах объекта управления: к = 1, а, = б, а, = 3, а, = 0, 0, = 1, 0О = 2; коэффициентах усиления алгоритма адаптации Г = 10 Лсд, у = 0,1 и начальных условиях х(0) = 4, хм(0) = 0.
Глава 6. Адаптивные системы без измерения производных от выхода 713 П(О) = х(О) = О, в(0) = (1 2 3 2 3 2),*(0>1>U(0)=0(=rg Общим недостатком схем адаптивного vnn^n.,,.. ошибкой является значительная сложность « расширенной - слабые робастные свойства. РобастныГсвойс^а^ СЛедсгвие огрублением алгоритмов адаптации путем ратных связей и зоны нечувствительности, подобио томуХ ^ рассмотрено в §4.2 для алгоритмов скоростного градир вХзТс ниченными возможностями практической реализации yXZ X адаптивного управления представляет интерес рассмотреХХХ тез адаптивных систем на основе упрощенной федуц4Х2)ХГ‘ Рис. 6.9. Результаты моделирования
714 Непрерывные адаптивные системы. Часть у „оч^рний Трудности решения практических за- Методы разделения дв* управления (АдСУ) зачастую дач анализа и синтеза ад“"™ ^^0» модели объекта управления: не- связаны со СЛ0ЖН0С™°Хгью высоким порядком. Методы декомпози- ZSX SSS- даой простых'решае- мых независимо. ииопи__ „ синтезе АдСУ может состоять в замене 2 установить условия осуществимости замены исходной модели упро- Soft моделью и оценкиточности получаемых результатов анализа и синтеза на основе упрощенной модели. Наибольшее применение находят метода, основанные на выделении «сильных» и отбрасывании «слабых» факторов, определяющих динамику системы. В качестве слабых выступают факторы, порождающие быстро затухающие, быстро колеблющиеся, случайные центрированные состав- ляющие процессов в системе. Упрощенная модель, получаемая отбрасы- ванием быстрых составляющих, описывает медленные процессы в систе- ме. Правомерность такого подхода к декомпозиции определяется возмож- ностью выделения разнотемповых движений в системе. Разнотемповость, а свою очередь, может порождаться как внутренними особенностями сис- темы (наличием малоинерционных звеньев), так и вводится искусственно - включением в систему звеньев с большими коэффициентами усиления, разрывными характеристиками и т.п. В обоих случаях можно говорить о выделении в фазовом пространстве системы некоторых множеств, так что при попадании в них траекторий системы последние удовлетворяют уп- рощенному описанию системы. Траектории системы быстро приближают- ся к выделенным множествам, а последующее медленное движение обес- печивает приемлемое свойство системы в целом. иияMCy Раделение Движений играет важную роль. Адапта- параметоов по условии медленного изменения настраиваемых возмушеиииым? ИИЮ С пеРсменными состояния объекта управления и (см- ™n0Te3y 0 ^стационарности). анализаАдСУПут динамика АлСу1 СТеМа разделения используется для У динамика АдСУ описывается уравнениями X = F(X,0,r), гдеХеД.вЛГ£^,)’Х(О) = Х»’в(°) = ®о. ^ет ОНО и настраив^^^р^^^^ £^д^еп”р^^асТРаиваеМ0Г° (6.96) (6.97)
715 ПрйГмад^- ~~——Истемы без измерения производных от выхода,—- построения УпрошеСИСТвМе возникает эффект разделения движений и Д®1 Полагая ь ic. « Нно® системы можно применить метод усреднения, подстапп (6‘97)е = 0>из TfX,©, А = 0,0 = const находим Х(0.г) и подставляем в (6.96): ' х »F(x(e. t), в. I). в-const, Х(в. о).х(о). УсредшиСбда,,^ ' 0 = Ф(©),0(О) = 0(О), (6.98) (6.99) где ¥(©) = liml [ч>(х(0, г), 0, t)dt, (6 *00) r-*“ Г о предполагая существование предела и независимость его от Х(0). /а Основанием применимости метода усреднения (замены (6.96), (6.97) на (6.98), (6.99)) являются теоремы Н.Н. Боголюбова. Эти теоремы утвер- ждают, что при достаточно малом е обеспечивается близость решений ис- ходной (6.96), (6.97) и редуцированной системы (6.99) на конечном интер- вале времени, если F(X(0, г), 0, t) и Y(X(0, t), 0, t) - гладкие, огра- ниченные вектор-функции в областях, содержащих решения системы (6.98), (6.99), предел (6.100) равномерен по 0 и имеет достаточно боль- шую скорость сходимости (порядка 1/Т). Если дополнительно выполняет- ся условие равномерной асимптотической сходимости системы (6.99), то решения близки на бесконечном промежутке времени. Метод усреднения распространим на различные классы систем, в том числе и стохастические. При этом правая часть (6.99) определяется из со- отношения Т (0) = lira М {Т (X (0, г), 0, t)}, а близость 0(f) и 0(г) имеет место в среднеквадратическом смысле. Другой способ упрощения системы основан на методе сингулярно воз- мущенных систем. В этом случае АдСУ представляется в форме eX = F(X, 0, г), (6.101) алгоритм адаптации О = ’Г(Х, 0, t). (6.102) А вырожденная система (при е = 0) приводится к виду 0 = F(X, 0, г), (6.103) 0 = ¥(Х, 0, г), (6.104) которая по сравнению с (6.101), (6.102) имеет пониженный порядок, что позволяет назвать систему (6.101), (6.102) сингулярно возмущенной по от- ношению к (6.103), (6.104).
716 ____________________Непрерывные адаптивные системы, Решая (6.103) относительно Х = Х(0, г) и подставляя результат (6.104), получаем уравнение редуцированной модели: 0 = v(x(®, г), 0, г), 0(0) = © (0). (6105). Условия близости 0(f) к 0(г) даются теоремой А.Н. Тихонова. Ос- новное условие состоит в том, что Х(О, О - устойчивое изолированное состояние равновесия «присоединенной» системы ^ = F(X,0,r), ат (6.106) где 0, t - фиксированы, т = t/e,. Приведенные подходы к разделению движений относятся к ассимпто- тике решений исходной системы и упрощенной системы (при е —> 0). В конкретных случаях £ всегда конечна и выбор метода разделения зависит в первую очередь от частоты изменения внешних воздействий. Если темп изменения внешних воздействий меньше темпа переходных процессов в ОНО, то быстрые движения успевают приблизиться к квазистатическим движениям Х(0, t) и можно использовать метод сингулярных возмуще- ний. В противном случае следует использовать метод уравнений. И в том и в другом случае требуется: а) устойчивость ОНО при V06 S; б) более иизкий темп адаптации по сравнению с темпом в ОНО. Вторая схема разделения. Вторая схема разделения относится к слу- чаю, когда быстрые и медленные процессы выделяются в движении ОНО. Вторая схема применяется, прежде всего, в задачах синтеза регулятора по упрощенной модели. В таких задачах усреднение по времени нежелатель- но, поскольку изменение внешних воздействий происходит в темпе основ- ных (медленных) процессов в объекте. Поэтому целесообразнее пользо- ваться методом сингулярных возмущений. В пользу такого выбора говорю и то обстоятельство, что формально процедура метода сингулярных воз- мущений применима к разомкнутым системам. При описании системы применительно к АдСУ будем считать для оп- ределенности, что алгоритм адаптации относится к классу алгоритме! . скоростного градиента АСГ (см. гл. 4). Пусть ОНО описывается уравне ниямн X, = F, (Х„ Хг, 0, /), (б. 107а eX2=F2(X„ Хг,0, t), (6.1076 где Х^Я", Х^Я”, 06 Я". Пусть ЦУ задана с помощью гладкой целевой функции д(Х, г), гд< X = со1(Х[, Х2) и имеетвид
Гла^б. AWwye ~~ 7t7 <?(Х, t) < Д, Vt > tk. ------- Процедура синтеза состоит в следующем {6Л08> Система (6.107) заменяется упрошенной строения которой полагается е = 0. Реду=.я?!ВДИрОванной)’ ®“ п°- Х-РГУ а .ДуЦИрованная модель имеет вид x,-F1(x1.e.t),x1=B(xl,e.t), ™1091 т Н(Х„ В, <) -!>«.»„yp„„ei,„, F1(x„x„e.,).1) (будем ЧТО оно существует и единственно); F(Xp0,r)=F(XpH(X1,0,r) Л Целевую функцию также следует редуцировать, положив" ’ ’ ?(X1,/) = 9(xi,H(X„0,r),t). Будем считать, «по q(Xt, Н(Х„ 0, г),,) не завискг от 0, так как в противном случае выбор 0 был бы тривиален: ®(f) = argmin^Xp Н(Хр 0, t), t). Это предположение выполнено, например, если q(Xt, Щ\, 0, t), t) не зависит от Х2 («слабая наблюдаемость быстрых движений»). АСГ для редуцированной модели имеет вид & = -rV9(a(Xl,Q,t), (6.110) где r = rT>O,co(Xl,0,r) = -^+(Vx?)TF(X1,0,O. dt Для выполнения условий теоремы 4.1 (метода скоростного градиента) требуется: \) q - непрерывно дифференцируемая функция, удовлетворяет условию 2) 3) роста; 30 = ®,.- со(Хр 0.,t)<-a-q (а>0); й)(Хр ®, г) выпукло по 0. При этом в системе (6.109), (6.110) достигаться ЦУ limf(Xt)=0. Однако, несмотря на выполнение ЦУ в редуцированной системе, в исход- ной сингулярно-возмущенной системе (6.107), (6.110) ЦУ-может нару- шаться вплоть до возникновения неустойчивости. Поэтому для применения описанного метода синтеза необходимо вы- полнение дополнительных условий. Доказано, что если быстрая подсистема (6.1076) экспоненциально ус- тойчива в целом, редуцированная модель (6.108) экспоненциально устой- чива по X, при некотором 0 = 0., правые части ОНО (6.107) (вектор- функции F, (Хр Н(Хр 0, t), t),F2 (Хр Н(ХР ®, /), г)), а также целевая функция q (X,, Н(Х,. 0, г), г) не зависят от времени, то алгоритм адапта-
7J8 ___________Непрерывные адаптивные CHCTe^4niM, щи (6.110) обеспечивает при достаточно малом 6 > 0 «абед^^^- (6.107) по Х„ Х2. Поясним смысл приведенных условий. Экспоненциальная устойчи вость подсистемы (6.1076) гарантирует монотонность и быстрое (при дХ' таточно малом е>0) стремление подсистемы к многообразию Х2=о~ Экспоненциальная устойчивость по X, при 0 = 0. редуцированной мо. дели (6.109) соответствует условию достижимости теоремы 4.1 метода скоростного градиента при р(^) = a-q(Xl, Н(Х,, 0, г), г) при а > 0. Не- зависимость от времени F^X,, Н(ХР 0, t), /), F2(XP Н(ХИ 0, t), t]t в частности, означает постоянство входных (внешних) возмущений. При на- рушении этого условия, например, при воздействии на систему сколь угодно малых адаптивных возмущений замкнутая система может терять устойчивость. Для ослабления этого условия алгоритм адаптации (6.110) регуляризуют введением отрицательной связи и зоны нечувствительности (см п. 4.2). При этом система (6.107) с регуляризованным алгоритмом (6.110) оказывается работоспособной (т.е. достигается ЦУ (6.108)) при Д = Д(|ф(г)|) при воздействии на подсистему (6.107а) ограниченных ад- дитивных возмущений Ф(г), если выполненные приведенные выше усло- вия и функция (X,, Х2, 0,:) локально липшицева по Х2, равномерна по *£0, функции F(Xp0, г), Н(Хр 0, t) локально липшицевы по Х„ ®, функции F(Xp 0, t), Н(Хр 0, t), Н(Хр 0, t) - локально огра- ничены: н(х,.б> A-fjy(xi’e> О az [f,(x„ H(X„ 0, t), 0):-FV.(»(X„ 0)] ~ производная в силу редуцированной модели, ZT = (Х*. 0Т), а целевая функция удовлетворяет условию а, -|х, - х; (г)| ^(Х, г)‘-° < а2 -Цх. - X? (г)||, где <*! > 0, а2 > 0,0 < о < 1 _ некоторые константы, X’ (г) - желаемая тра- ектория системы по X, (|xj | < Сх). Более подробно с условиями применимости разделения движений при синтезе алгоритмов адаптивного управления и оценками малости величи- ны Е м°жио познакомиться в монографии [36] (теоремы 5.1 — 5.4).
СПИСОК ЛИТЕРАТУРЫ Литература к части! 1. Анжело ГД. Линейные системы с переменными параметрами/Пеп и ред. Н.Т. Кузовкова. - М.: Машиностроение, 1974. - 288 с ’И 2. Бесекерский В.А., Попов ЕЛ. Теория систем автоматического пегим рования. - М.: Наука, 1975. - 768 с. 3. Бирюков В.Ф. Некоторые особенности проектирования систем авто- матического управления по приближенным исходным данным И Вестник МГТУ. Сер. Приборостроение. 1991. Ml. - С. 28-40. 4. Брайсон А., Хо Ю-ши. Прикладная теория оптимального управления / Под ред. А.М. Левтова. - М.: Изд-во Мир, 1972. - 544 с. 5. Ван-дер-Поль Б., Бреммер X. Операционное исчисление на основе двухстороннего преобразования Лапласа. - М.; Изд-во Иностранной литературы, 1952. - 508 с. 6. Галкин СВ. Методы оптимизации в инженерных задачах. - М.: МГТУ, 1991. 7. Гонтмахер ФВ. Теория матриц. - М.: Наука, 1988. 8. Дезоер Ч., Видьясагар М. Системы с обратной связью: вход-выходные соотношения. - М.: Наука, 1983. - 280 с. 9. Деч Г. Руководство к практическому применению преобразования Ла- пласа. - М.: Наука, 1965. - 288 с. 10. Квакернаак X., Сиван Р. Линейные оптимальные системы управления. -М.; Мир, 1977. 11. Колмогоров А.Н., Фомин СВ. Элементы теории функций и функцио- нального анализа. - М.: Наука, 1972. - 496 с. 12. Конструирование робастных систем управления с использование методов -оптимизации. -М.: ГосНИИ АС, 1991. 13. Коньков ВГ. Устойчивость управляемых систем. - М.: Изд-во МП У» 1990.-78 с. 14. Коньков ВТ., Киселев АЛ., Гладков ДВ. Связь алгебраического урав- нения Риккати с матрицей Гамильтона // Вестник МГТУ. 1996. №1- " С. 3-14. 15. КорнГ., Корн Т. Справочник по математике.-М.: Наука, 1970.-720C. 16. Кострикин А.И. Введение в алгебру. - М.: Наука, 1977. - 496 с.
720_______________ —------------------------------—_________ 17. Курдюков АЛ., Тимин ВЛ. Синтез робастной системы управдед^ режиме посадки самолета в условиях сдвига ветра. Известия дц СССР: Техническая кибернетика. 1993. №6. - С. 200-208. 18. КурошА.Г. Курс высшей алгебры. - М.: Наука, 1975. - 432 с. 19. Ларин BJS. Метода решения алгебраического уравнения Риккати. Из- вестия АН СССР: Техническая кибернетика. 1983. №2. 20. Математические основы теории автоматического регулирования: в 2-х томах / В.А. Иванов, В.С. Медведев, Б.К. Чемоданов, А.С. Ющен- ко. - М.: Высшая школа, 1977, Т.1.-518с. 21. Методы анализа, синтеза и оптимизации нестационарных систем ав- томатического управления / К.А. Пупков, Н.Д. Егупов, В.Г. Коньков, Л.Т. Милов, А.И. Трофимов. Под ред. Н.Д. Егупова. - М.: Изд-во МГТУ, 1999.-684 с. 22, Мороз АЛ. Курс теории систем. - М.: Высшая школа, 1987. — 380 с. 23. Первозванский АА. Курс теории автоматического управления. - М.: Наука, 1986. - 760 с. 24. Лозняк А.С. Основы робастного управления (Н“ -теория). - М.: МФТИ, 1991.-128 с. 25. Пугачев В.С. Лекции по функциональному анализу. - М.: Изд-во МАИ, 1996.-744 с. 26. Пупков КА. Проблемы теории и практики интеллектуальных систем. Доклад на I Международном симпозиуме «Интеллектуальные систе- мы». - М.: Изд-во МГТУ, 1994. - С. А1-А10. 27. Пупков КА., Коньков ВЛ Мировоззрение управленца. - М.: Биоин- форм, 1997. - 80 с. 28. Пупков КА„ Коньков ВЛ, Киселев АЛ. Задача построения оптималь- ного регулятора на основе «четыре-Риккати подхода» И Вестник „ СврМ ’Ч’ибоР°стРоеиие. 1998. №1. - С. 15-22. 30 Сед* У‘Функциональный анализ. - М.: Мир, 1986. - 302 с. ряков ГЛ., Смирнов АЛ. Проектирование линейных стационарных ногомерных систем на основе вход-выходных отображений. Метод iL') Т^?^ии। У1Фавления. (Обзор) // Техническая кибернетика. 1989. V. 3—16. ^енов Днссертация на соискание ученой степени доктора тех- нических наук. -М.-.НИИАС, 1996. To>X>^Wl<We &К°ньков ВЛ; Корневые методы анализа систем ав- 33 ™а™ческого Регулирования. - М.: МВТУ, 1986. - 60 с. ппОн^Н“К0в Коньков ВЛ, Суханов ВА., Шевяков О.В. Микро- 1°оа1Ые “‘гоматические системы регулирования. - М.: Высшая шмша, W1.-256 с, 34 Н** тиг. ^'к>иЯ У”Равления: феномен, достижения, перспективы, откры- X? меМ? 'А С> Позняк’г г- Серебряков, А.В. Семенов, Е.А. Фе- Досов. - М.; ГосНИИАС, ИПУ АН СССР, 1990.
36. 37. 38. 39. 40. 41. 42. gntfcpK литературы __________ ^~у^рман Э.Г. Метод корнёвопГ^Г""----------------- Bernstein D.S., Haddad W.M. LOG г 1989. - 65g c bound. A Riccati equation approach //°tS an -perform» c^tro! vol 34.№3spp.2934K89. ШTr»^s Doyle J.C. Feedback control theory. Francis BA. A course in 7Г -control theorv n information sciences, vol. 88). - New York- Snrh^V®*®* in co№q1 ^d Francis BA.. Doyle J.C., Tahnenba^AR^l ^' Ж New York. Macmillan Publishing Company,' 19% ^Control Т1,еогУ- ~ Khargonekar P.P., Rotea MA. Mixed H2/H” ₽ optimization approach // IEEE Transaction» ™ 4.» 'control: a convex №7, pp. 824^37,1991. lransacUons on Automatic Control, vol. 36, 43. Kucera V. A contribution on matrix quadratic equations // IEEE Transactions on automatic control, vol. 17, №3,1972. -pp 344-347 44. Robel G. On computing the infinity ёоттп’ // IEEE Transactions on automatic control, vol. 34, №8,1989. - PP. 882-883. 45. State-space solution to standart H“- and H2-control problems / J.C. Doyle, K. Glover, P.P. Khargonekar, B.A. Francis // IEEE Transactions on automatic control, vol. 34, №8,1989. - PP. 882-883. 46. Vidyasagar M. Control system synthesis: A Coprime Factorisation Ap- proach Cembridge. MA: MTTPress, 1985. - 436 p. 47. Vidyasagar M. Normalized сорите factorisations for non stricly proper system // TF.F.F Transactions on automatic control, 1988, vol. 33. - P. 300. Литература к части II 1. 2. 3. 4. 5. Анго А. Математика для электро-радиоинженеров, - М.: Наука, 1967. Борисов А.Н., Крумберг О.А., Федоров М.А. Принятие решений на ос- нове нечетких моделей. Примеры использования. - Рига: «Зинатне», 1990. Вальд А. Последовательный анализ. - М.: ГИФМЛ, 1960. Гаврилов А.Н., Пузикова Л.А., Пылькин А.А. Последовательная проце- дура принятия решений о состоянии канала связи на основе проверки нечетких гипотез. Изв. РАН. Техническая кибернетика. 1994. №2. - С. 106-113. Деменков Н.П., Мочалов И.А. Адаптивная система автоматической оп- тимизации с нечеткой последовательной процедурой проверки стати- стических гипотез. Вестник Российского университета дружбы наро- дов. Серия Кибернетика. 1999. №1. - С. 31-42.
8. 7Й__------НечеТКаЯ СИСТСМа аВТОМатичес*ой оп^ б. Д^«^^и7мГГУим.Н.Э.Баумана. мизации. ял Нечеткий логический регулятор в задаЧах 7. Умышленные АСУ и контроллеры. 1999. №2. - С, 30-35. управления. Пр®>™gg ил 0 поле3иости и границах применимости ДеМ^оп управления. Промышленные АСУ и контроллеры. 1999. ^'^ип' Мочалов И.А. Нечеткая логика в задаче фильтрации ’ Промышленные АСУ и контроллеры. 1М9. ТЬшпие лнягонетяческой переменной н его применение к принятию приближенных решений. - М.: Мир, 1976. КамкевичВ.В, Мочалов И.А. Совместная идентификация и ускорен- ная оптимизация инерционных объектов. Автоматика и телемеханика. 1984. №9.-С. 62-73. Кофман А. Введение в теорию нечетких множеств. - М.; Радио и связь, 1982. Красовский А.А. Справочник по теории автоматического управления. -М.: Наука, 1987. 14. Ли Р. Оптимальные оценки, определение характеристик и управление. 10. 11. 12. 13. - М.: Наука, 1966. 15. Прикладные нечеткие системы / Под ред. Тэрано Т., Асаи К., Сугено М. -М.: Мир, 1993. 16. Пупков КА. Интеллектуальные системы: проблемы теории и практи- ки. Изв. ВУЗов. Сер. Приборостроение. 1994. № 9-10. - С. 3-5. 17. Пупков КА. О некоторых новых задачах теории и техники интеллек- туальных систем. Вестник МГТУ им. Н.Э. Баумана. Серия Приборо- строение, 2000. № 1. - С. 3-10,38-43. 18. Элъясберг П.Е. Измерительная информация: сколько ее нужно? Как обрабатывать. - М.: Наука, 1983. 19. Fuzzy guide book. Информационные материалы фирмы «OMRON» Япония, Cat. № Р30-Е1 -28, printed in Japan 0694-5M. - Kim В., Bisku R.R. Evalution of fuzzy linear regression models by com- paring membershipfunctions. Fuzzy sets and systems, .1998, №100, PP-343-352. ’ 21. Rene J. Jager. Fuzzy logic in control. Ph.D. thesis, Delft University of Te- chology. The Netherlands. 1995. 22. The fuzzy logic standart IEC 1131-7,1997. Литература к части Ш Перспективы применения нейросетевых технологий в п аатоматического управления // Вестник МГТУ им. Н.Э. Бау- мана. Приборостроение. - 1998. -№1 -С 119-126
гиисоклитературы 2. з. 4. 5. Галушкин А.И. Соъ^^леты^^^~~~------_____ 723 ^5“™" • f°«™ « Опр™™. Горбань А.Н. Обучение нейронных сетей -160 с. еИ~М:СП «ParaGraph», 1990 Горбань А.Н., Россиев ДА. Нейронные сети и «ре.- Новосибирск; наука, Сиб. отделеште 19^ТНОМ КОмпь»- ГропД. Методы идентификации систем п™ 6 - 276 с’ -302 с. МПерсангл-М.; Мир, 1979. 6. Джейн А.К., Муиуддин КМ Введение в та // Открытые системы. -1997. - №4 - с нейРонные се- 7. Дэннис Дж., Шнабель Р. Численные' методьГбезусловной пти ции и решения нелинейных уравнений: Пер с англ M^mS - 8. Ивахненко А.Г., Юрачковский Ю.Г. Моделирование сложных систем по экспериментальным данным. - М.: Радио и связь, 1987^20 с 9. Дьюнг Л. Идентификация систем. Теория для пользователя: Пер с англ. - М.: Наука. Гл. ред. физ.-мат. лит., 1991. - 432 с. 10. Нейросетевые системы управления / В.А. Терехов, Д.В. Ефимов, И.Ю. Тюкин и др. - СПб: Изд-во С.-Петербургского университета 1999.-264 с. 11. Пупков К. А. Проблемы теории и практики интеллектуальных систем // Машиностроение, приборостроение, энергетика / Ред. кол.: А.Н. Ти- хонов, В.А. Садовничий, В.И. Сергеев и др. - М.: Изд-во МГУ, 1994. - 340 с. Пупков К.А., Капалин В.И., Ющенко А.С. Функциональные ряды в теории нелинейных систем. - М.: Наука, 1976. - 448 с. Реклейтис Г., Рейвиндран А., Рэгсдел К. Оптимизация в технике. В 2-х ки. Пер. с англ. - М.: Мир, 1986. - Кн.1. - 350 с. Реклейтис Г., Рейвиндран А., Рэгсдел К. Оптимизация в технике: В 2-х кн. Пер. с англ. - М.: Мир, 1986. - Кн.2. - 320 с. Сейдж Э.П, Мелса Д.Л. Идентификация систем управления. Пер. знавания речевых сигналов И Вестник боростроение. - 1998. -№1- - С. 93- • иоование: Пер с xLJLtoay Д. Прикладное нелинейное проплшмч»»»» англ. - М.: Мир, 1975. - 534 с. Аохитектура, программа- 18. ^Л.Д^^КПералне^е^.Арти^ рование, алгоритмы: Пер. с англ. •• ^^фикации. - М.: Наука, 19. Цыпкин Я.З. Информационная теория идентиф 1995. - 336 с. , nntimal brain damage / J. Gorodkin, 20. A quantitative study of Pru"in® J journal of Neural Systems. - 1993. - L.K. Hansen, C. Svarer et. al. // Int. Joun №4.-P. 159-169. 12. 13. 14. 15. 16. 17.
27. A new ЮЫ^ГйГе statistical ««iel identification // Autom. Control. -1974. - Vol. AC-19. - P. 716-723. . „ Albus J.S A new approach to manipulator control: the cerebellar model ar- ’ ticulation controller (CMAC) // Dyn. Sys., Measurements., Control. - 1975 -Vol.97.-P.220-227. 23 Alhoniemi E., Hollmen J., Simula O. Process monitoring and modelling using Ae self-organizing map. - Amsterdam: IOS Press, 1999. - 14 p. 8 24 Anderson J.A., Rosenfeld E. Neurucomputing: Foundations of Research. - Cambridge (MA): M.I.T. Press, 1988. - 488 p. 25 . Anscombe F.J., Tukey J.W. The examination and analysis of residuals // Technometrics. -1963. - Vol. 5. - P. 141-160. 26 Astrom K.J., Wittenmark B. Computer controlled systems - theory and de- sign. - Englewood Cliffs, New Jersey: Prentice-Hall, 1990. Barron A.R. Universal approximation bounds for superposition of a sig- moidal function // IEEE Transactions on Information Theory. - 1993. - Vol. 39.-P. 930-954. 28. Billings S.A., Zhu Q.M. Nonlinear model validation using correlation tests // Int. Journal of Control. - 1994. - Vol. 60, №6. - P. 466—470. 29. Carpenter GA, Grossberg S. A massively parallel architecture for self- organizing neural pattern recognition // Computer vision, Graphics and Im- age Processing. -1983. - Vol. 37. - P. 54-115. 30. Carpenter G.A., Grossberg S. Art 2: Self-organizing of stable category rec- ognition codes for analog output patterns // Applied Optics. - 1983. - Vol. 26.-P. 4919-4930. 31. Carpenter G.A., Grossberg S. Art 3: Hierarchical search: Chemical trans- mitters in self-organizing pattern recognition architectures // Neural Net- works: Proc. Int. Conf. - Wash., DC, 1990. - Vol. 2. - P. 30-33. 32. Chen S., Billings S.A. Neural networks for non-linear dynamic system modelling and identification // Int. J. Control. - 1992. - Vol. 56, №2. - P. 319-349. 33. Cybenco G. Approximation by superposition of a sigmoidal function // Math. Control Systems and Sygnals. - 1989. - №2. - P. 303-314. 34. DARPA Neural Network Study. - Fairfax (VA): AFCEA International Press, 1988.-580 p. 35. Fletcher R, Practical methods of optimization. - New York: Wiley, 1987. - 424 p. 36. Fukushima K. Cognitron: A self-organizing multilayered neural network // Biolog. Cybernetics. - 1975. - Vol. 20. - P. 121-136. 37. Fukushima K. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position // Biolog. Cybernetics. - 1980. - Vol. 36. - P. 193-202. 38. Genum S., Bienenstock E., Doursat R. Neural networks and the bias / vari- ance dilemma // Neural Computation. -1992. - Vol. 4. - P. 1-58.
41. 42. сдаСокли«Е»Ж---------------------______ (jifvsi Е, B°gSi° Representation ргорёгйёГпг 725 39’ Леогет1®^1еуа"1^^е1И'а1Соп1риадод._}^”®^^Ко^^^’ лп Grewal M.S., Andrews А.Р. Kalman filtering л 1-~P.465-46q gnglewood Cliffs (New Jersey): Prentiee-Haj1 19Лп8Ис1 Grossberg S. Adaptive Pettem Classification 7 240 ₽ parallel development and Coding of Neural n Universai Recontino Cybernetics. -1976. - Vol. 23. - P. 121-134 DetectWs 4 Biolov Grossberg S. Adaptive pattern classification ana • Feedback, expectation, offaction, and illUsi" “nl?ersaI «cotding n- 1976. - Vol. 23. - P. 187-202. ns /Z Blol°g. CybemeЙ П‘ Hagan M.T, Menhaj M.B. Training feedfo™^ quardt algorithm // IEEE Transactions on N? ‘JT0*8 with «>е Mar Vol.5, №6. - P. 989-993. °” Neural Networks. - l9^ Hassibi B., Stork D.G. Second order derivative f mal brain surgeon // Proceedings of the NIPS? °r "e^ork Pruning: opti- 1993.-P.164-172. He X., Asada H. A new method for identify™ els for nonlinear dynamic systems // Proc of XT" °f input'ouH mod- ence. - San Francisco, 1993. - P 67-83°C’ ° the Amer*can Control Confer- 46. Hebb D.O. The organization of behaviour- a N.-Y.: Wiley, 1949. - 436 p. ‘ A neuT°PsychoIogicai theory. - 43. 44. 45. 47 Hecht-Nielsen R. Kolmogorov’s mapping neural network existence theo- rem // IEEE Press. - 1987. - Vol. 3. - P. 11-13. 48. Hinton G.E., Sejnovski R.J. teaming and relearning in Bolzmann machines // Parallel Distributed Proc. - 1986. - Vol. 1. - P. 326-348. 49. Hinton G.E., Sejnovski R.J., Ackley D.H. Boltzmann machines. - Mellon: CMUPress, 1984.-268 p. 50. Hopfield J. J. Neural networks and physical systems with emergent collec- tive computational abilities II Proc. National Acad. Science. - 1982. - Vol. 79.-P. 2554-2558. 51. Hopfield J.J., Tank D.W. Neural computation of decisions in optimization problems // Biological Cybernetics. - 1985. - №2. - P. 141-152. 52. Hu M.J.C. Application of the Adeline system to weather forecasting. - Stanford: SUPress, 1964.-436 p. 53. Hunt K.J., Sbarbaro D. Neural Networks for nonlinear internal model con- trol H IEEE proceedings. - 1991. - Vol. 138, №5. - P. 431-439, 54. Kohonen T. Self-Organization and Associative Memory. - New-York: Springer-Verlag, 1988. - 620 p. 55. Kohonen T. Self-organized formation of topologically correct feature maps II Biolog. Cybernetics. - 1982. - Vol. 43. - P. 59-69. 56. Kosko B. Adaptive bidirectional associative memories II Appl. Optics. 1987.-Vol.26.-P.4947-4960. ino_ _ _ • Kosko B. Constructing an associative memory // Byte. - 19 - ePte ber. - P.137-144.
726 _______________________________________ 58, Kwakemaak H„ Sivan R. Linear optimal control systems. - New-York: Wiley Inc. - 436 p. 59. Larsen J., Hansen L.K. Generalization performance of regularized neural network models // Neural Networks for Signal Processing: Proc, of the IEEE Workshop IV. - Brussel (Belgium), 1994. - P. 42-51. 60. LeCun K, Kanterl. Eigenvalues of covariance matrices: application to neu- ral-network learning // Physical Review Letters. - 1991. - Vol. 66. - P. 2396-2399. 61. Levenberg K. A method for the solution of certain nonlinear problems in least squares //Quart. Appl. Math. - 1944. - №2. - P. 164-168. 62. Luky R.W. Automatic equalization for digital communications // Bell Syst. Tech. J. - 1965. - Vol. 44. - P. 547-578. 63. Luky R. W. Principles of Data Communication. - New-York: McGraw-Hill, 1968.-328 p. 64. Malsburg C. Self-Organising of Orientation Sensitive Sells in the Striate Cortex // Kibemetik. - 1973. - Vol. 14. - P. 85-100. 65. Marquardt D. An algorithm for least-squares estimation of nonlinear pa- rameters // SIAM J. Appl. Math. - 1963. - №11. - P. 164-168. 66. McCulloch W„ Pitts. W. A logical calculus of the ideas immanent in nervous activity // Bulletin of mathematical biophisics. - 1943. - Vol. 5. - P. 115-133. 67. Minsky M., Papert S. Perceptrons: An introduction to computational ge- ometry. - Cambridge (Massachusets): Adison - Wesly, 1969. - 262 p. 68. Nilsson N. Learning Machines. - New York: McGraw-Hill, 1965. - 418 p. 69. Parallel Distributed Processing / Eds. D.E. Rumelhart, J.I. McClelland. - Cambridge, MA: M.I.T. Press, 1986. - 688 p. 70. Parker D. Learning-Logic. - Stanford (CA): Stanford University, 1982. - 214 p. 71. Pederson M.W., Hansen LK. Recurrent networks: second order properties and pruning // Neural Information Processing Systems: Proc, of th 7-th Conference. - Vienna (Austria), 1994. - P. 673-680. 72. Peterson C. Determining dependency structures and estimating nonlinear regression errors without doing regression // International Journal of Mod- em Physics. - 1995. - Vol. 611. - P. 18—31. 73. Rosenblatt F. Principles of Neurodinamics: Perceptron and the Theory of Brain Mechanisams. - Washington DC: Spartan Books, 1962. - 480 p. 74. Rosenblatt F. Two theorems of statistical separability in the perceptron // Mechanization of Thought Processes Proceedings.: Proc, of Symposium held at the National Phisical Laboratory. - London, 1959. - P. 421-456. 75. Rumelhart D.E., Hinton G.E., Williams R.J. Learning internal representa- tion by error propagation // Parallel Distributed Processing. - 1986. _ Vol. 1, №8.-P. 318-362. 76. Sjoberg J., Ljung L Overtraining, regularization, and searching for the mini- mum in neural networks // Adaptive Systems in Control and Signal Processing; Preprint IFAC Symposium. - Grenoble (France), 1992. - P. 669-674.
Список литературы__________________________________________________727 77. Soderstrom Т., Stoica Р. System identification. - Englewood Cliffs, New Jersey: Prentice-Hall, 1989. - 440 p. 78. Sondhi M.M. An adaptive echo canceller // Bell Syst. Tech. J. - 1967. - Vol. 46.-P. 497-511. 79. Stark L., Okajima M., Whipple G.H. Computer Pattern Recognition Tech- niques: Electrografic Diagnosis // Commun. Ass. Comput. Mach.- 1962. - Vol. 5. - P. 527-532. 80. Steihbuch K., Piske V.A. Learning matrices and their applications II IEEE Trans. Electron. Comput. -1963. - Vol. EC-12, Dec. - P. 846-862. 81. Talbert L.R.A. Real-time adaptive speech recognition system. - Stanford: SUPress, 1963. - 562 p. 82. Werbos P. Beyond Regression: New Tools for prediction and Analysis in the Behavioral Sciences. - Cambridge (MA): Harvard University, 1974. - 212 p. 83. Widrow B. Adaptive inverse control // Automatic Control: Proc. 2d Int. Fed. Of Autumatic Control Workshop. - Lund (Sweden), 1986. - P. 1-5. 84. Widrow B. Adaptive noise cancelling: Principles and applications II Proc. IEEE. - 1975. - Vol. 63. - P. 1692-1716. 85. Widrow B. Networks of adaline neurons. - Washington DC: Spartan Books, 1962. - 244 p. 86. Widrow B. The original adaptive neural net broom - balancer II Proc. IEEE Inti. Symp. Circuits and Systems. - Phil. (PA), 1987. - P. 351-357. 87. Widrow B., Mantey P., Griffiths L Adaptive antenna systems //Proc. IEEE. - 1967. - Vol. 5. - P. 2143-2159. 88. Widrow B., Steams S. Adaptive Signal Processing. - Englewood Cliffs (NY): Prentice-Hall, 1985. - 396 p. Литература к части IV 1. Акоф Р., Сасиени М. Основы исследования операций: Пер. с англ. - М.: Мир, 1971. - 534 с. 2. Алексанров Е.А. Основы теории эвристических решений. - М.: Сов. радио, 1975.-254 с. 3. Аристотель. Сочинения: В 4 т. - М.: Мысль, 1976. Т. 1. -438 с. 4. Банди Б. Основы линейного программирования: Пер. с англ. - М.: Ра- дио и связь, 1989. - 176 с. 5. Бахвалов Н.С. Численные методы. - М.: Наука, 1987. - 598 с. 6. Беллман Р., Дрейфус С. Прикладные задачи динамического програм- мирования: Пер. с англ. - М.: Наука, 1965. - 458 с. 7. БиркгофГ. Теория решеток.-М.: Наука, 1984.-566С. 8. Блудов В. С. Определение оптиальной системы общих представителей двух разбиений конечного множества // Приборы и системы автома- тики: Республ. межведомств, сб. -1969. -Вып. 9. - С. 157-163.
728_________ _______________________________________ 9. Борисов В.И. Проблема векторной оптимизации // Исследов^Т^—- раций. - М.: Сов. радио. — С. 72—91. tle' 10. Букур И., Деляну А. Введение в теорию категорий и функторов; Пеп англ. - М.: Мир, 1972. - 260 с. •с 11. Венда В.Ф. Инженерная психология и синтез систем отображения ин- формации. - М.: Машиностроение, 1975. - 398 с. 12. ВентцельЕ.С. Исследование операций. - М.: Сов. радио, 1972. - 552 с 13. Вернадский В.И. Размышление натуралиста. Пространство и время в живой и неживой природе: Книга 1. - М.: Наука, 1975. — 176 с. 14. Витушкин А.Г. Оценка сложности задачи табулирования. - М.; фИз. матгиз, 1962. - 228 с. 15. Волгин Л.Н. Принцип согласованного оптимума. - М.: Сов рапип 1977.-144 с. 16. Вопросы анализа и процедуры принятия решений: Сб. статей: Пер. с англ. / Под ред. И.Ф. Шахнова. - М.: Мир, 1976. - 230 с. 17. Глушков В.М. О диалоговом методе решения оптимизационных задач //Кибернетика. - 1975. - №4. - С. 2-6. 18. Гордеев Э.Н. Задачи выбора и их решение // Компьютер и задачи вы- бора.-М,-С. 5-48. 19. Гери М., Джонсон Д. Вычислительные машины и труднорешаемые задачи: Пер. с англ. - М.: Мир, 1982. - 416 с. 20. Денисов А.А., Колесников Д.Н. Теория больших систем управления. - Л.: Энергоатомиздат, 1982. - 232 с. 21. Дмитриев А.Н, Заболоцкая М.Ф. Информационная оценка алгорит- мов управления по заданному множеству состояний объекта // Авто- матика и телемеханика. - 1975. - №5. - С. 182-184. 22. Дубров А.П., Пушкин В.Н. Парапсихология и современное естество- знание. - М.: Совместное советско-американское предприятие «Сова- минко», 1989. - 280 с. 23. Жамбю М. Иерархический кластер-анализ и соответствия. - М,: Фи- нансы и статистика, 1988. - 342 с. 24. Журавлёв Ю.И. Корректные алгебры над множеством некорректных (эвристических) алгоритмов И Кибернетика. - 1977. - №4. - С. 14-21. 25. Заде Л. Понятие лингвистической переменной и его применение к принятию решений: Пер. с англ. -М.: Мир, 1976. - 166 с. 26. Зверев В.Ю. Алгоритмическая база АСУП: Учебн. пособие. - М.: Ма- шиностроение, 1976. - 40 с. 27. Зверев В.Ю. Принцип сложности в иерархических структурах произ- водственного типа И Автоматическое управление и вычислительная техника. - 1978. - №12. - С. 169-194. 28. Кафаров В.В., Дорохов И.Н., Марков Е.П. Системный анализ процес- сов химической технологии. Применение метода нечётких множеств. - М.: Наука, 1986. - 360 с.
Список литературы_________________ 729 29. Кини Р, Райфа X. Принятие решений при многих критериях: предпоч- тение и замещение: Пер. с англ. - М.: Радио и связь, 1981. - 560 с. олмогоров А.Н. О некоторых асимптотических характеристиках вполне ограниченных метрических пространств // Доклады АН СССР. - 1975. - Т. 108, №3. - С. 385-388. Колмогоров А.Н. Три подхода к определению понятия «количество ин- 17 11 Проблемы передачи информации. - 1965. - №1. - С. 3-11. Финкельштейн Ю.Ю. Дискретное программирование. - М.: Наука, 1969.-368 с. 33. Кун Г. Венгерский метод решения задачи о назначении И Методы и алгоритмы решения транспортной задачи. - М.: Госстатиздат, 1963. - С. 36-52. 34. Лагранж Ж. Аналитическая механика. Изд. 2-е. - М. - Л.: Гостехиз- дат, 1950. - Т. 1. - С. 379-390. 35. Лазарев И.А. Композиционное проектрование сложных агрегативных систем. - М.: Радио и связь, 1986. - 312 с. 36. Ларичев О.И. Теория и методы принятия решений: Учебник. - М.: Ло- гос, 2000. - 296 с. 37. Липский В. Комбинаторика для программистов: Пер. с англ. - М.: Мир, 1988.-214 с. 38. Месарович М., Мако Д., Такахара И. Теория иерархических много- уровневых систем: Пер. с англ. - М.: Мир, 1973. - 344 с. 39. Месарович М., Такахара Я. Общая теория систем: математические ос- новы: Пер. с англ. - М.: Мир, 1978. - 312 с. 40. Моисеев НН Элементы теории оптимальных систем. - М.: Наука, 1975.-526 с. 41 Негойца К. Применение теории систем к проблемам управления: Пер. с англ.-М.: Мир, 1981.- 180 с. 42 Нечёткие множества в моделях управления и искусственного интел- 4 ST/ А.Н. Аверкин, И.З. Батыршин, А.Ф. Блишун и др. - М.: Наука, 43 ^Нмьсон Н Искусственный интеллект (методы поиска решений): Пер. с англ. - М.: МирJ97Зу бн пособие / Под ред. проф. К.А. Пупкова. 44 Основы кибернетики, у _ • _ М.: Высшая _ м.: наука, 1975. - 788 с. 45. Планк М. Избран г g f0 Методы быстрого распределения алго- дх Плотников В. н системах И Известия АН СССР. Техниче- ’ ритмов в вычислит 1974 №з С136_143 ская кибернетик • ge Bjo. Оптимизация оперативно-организа- 47 Плотников В.П., м . Машиностроение, 1980. - 254 с. ’ ционного угфавл _ g & Численные методы расчёта оптимальных g /7лшнн«к°в 5^’ лений: Учебн. пособие. - М.: МВТУ, 1980. - 54 с. 47 108
730-_____________________________________________________________ 49. Плотников В.Н., Зверев В.Ю. Задачи принятия решений и их приме- нение в иерархических распределённых системах уравнения: Учебн. пособие. - М.: Изд-во МГТУ, 1990. - 44 с. 50. Полак Л. С. Вариационные принципы механики // Вариационные принципы механики. - М.: Физматгиз, 1959. - С. 780-879. 51. Пономарёв Я.А. Психология творчества. - М.: Наука, 1975. - 304 с. 52. Пуанкаре А. Введение к книге «Электричество и оптика» // Вариаци- онные принципы механики. - М.: Физматгиз, 1959. - С. 773-777. 53. Растригин Л.А. Случайный поиск в задачах оптимизации многопара- метрических систем. - Рига: Зинатне, 1965. - 212 с. 54, Рейнфельд Н., Фогель У. Математическое пргораммирование. - М.: ИЛ, 1960. - 304 с. 55. Салуквадзе М.Е. Задачи векторной оптимизации в теории управления. - Тбилиси: Мецниереба, 1975. - 204 с. 56. Солодовников В.В. Синтез корректирующих устройств следящих сис- тем при типовых воздействиях // Автоматика и телемеханика. - 1951. -№2.-С. 352-388. 57. Солодовников В.В. Статистическая динамика линейных систем авто- матического управления. - М.: Физматгиз, 1960. - 656 с. 58. Солодовников В.В. Оптимизация иерархических систем управления. - М.: МВТУ, 1984.-40 с. 59. Солодовников В.В., Бирюков В.Ф., Тумаркин В.И. Принцип сложности в теории управления. - М.: Наука, 1978. - 342 с. 60. Солодовников В.В., Ленский В.А. Синтез систем управления мини- мальной сложности Л Изв. АН СССР. Техническая кибернетика. - 1966,-№2.-С. 11-18. 61. Солодовников В.В., Зверев В.Ю. Применение методов теории автома- тического управления и многокритериальной оптимизации для авто- матизации проектирования АСУ ТП: Учебн. пособие. - М.: Машино- строение, 1984.-48 с. 62. Солодовников В.В., Тумаркин В.И. Теория сложности и проектирова- ние систем управления. - М.: Наука, 1990. - 168 с. 63. ТраубД., Васильковский Г., Вожьяновский X. Информация, неопреде- лённость, сложность: Пер. с англ. - М.: Мир, 1988. - 184 с. 64. Фаронов В.В. Система автоматизированного моделирования и пара- метрической оптимизации СИАМ // Автоматизированное проектиро- вание иерархических распределённых систем управления. - М.: МГТУ, 1991.-С. 87-109. 65. Фейнман Р., Лейтон Р., Сэндс М. Фейнмановские лекции по физике: Пер. с англ. В 8 т. - М.: Мир, 1965. - Т.З. - 238 с. 66. Форд Л., Фулкерсон Д. Решение транспортной задачи // Методы и ал- горитмы решения транспортной задачи. - М.: Госстатиздат, 1963. - С. 61-72.
Список литературы 67. - ~~~ 68. 69. 70. 71. 72. 73. 74. 75. -----------*------------_____-------- 731 ЙХтайВ И₽5С^а СЛ0^Х СИСтем’ ~ М" Сов’ радао’ 1975‘ “ 200 с' ’ °^мев Моногароа И.Ф. Математические мег- * пределения ресурсов II Большие системы и управление. - JI.: ЛВИКА им. А.Ф, Можайского, 1969. - С. 78-100. Черноусько Ф.Л., Баначук Н.В. Вариационные методы механики и управления. - М.: Наука, 1973. - 238 с. Четвериков В.Н., Самсонов Н.К. Оценка объёма информации при ко- дировании дифференцируемых функций // Автоматическое управле- ние и вычислительная техника. - 1968. - № 9. - С. 129-139. Шаталов А.С. Отображение процессов управления в пространстве со- стояний. - М.: Энергоатомиздат, 1986. - 254 с. Шеннон К. Работы по теории информации и технической кибернети- ке: Пер. с англ. -М.: ИЛ, 1963. - С. 259-263. Шреденгер Э. Новые пути в физике. - М.: Наука, 1971. — 428 с. Эйнштейн А. Творческая автобиография //Успехи физических наук. - 1956. - Т. 59. Вып 1. - С. 71-105. Экспертные системы / Под ред. Р. Форсайта. - М.: Радио и связь, 1987.-224 с. 76. Юдин Д.Б. Задачи и методы стохастического программирования. - М.: Сов. радио, 1979. - 392 с. 77. Юдин Д.Б., Юдин А.Д. Математики измеряют сложность // Число и мысль. - 1985. - Вып. 8. - 192 с. 78. Яблонский С.В. Об алгоритмических трудностях синтеза минималь- ных схем И Проблемы кибернетики. - 1959. - №2. - С. 75-121. 79. Ярошевский М.Г. История психологии. - М.: Мысль, 1985. - 576 с. 80. Caianiello E.R. Calculus for Hierarchical Systems // Proc. 1st. International Congress on Pattern Recognition. - Washington, 1973. - P. 17-29. 81. Carpapoto G., Tofh P. Primal-dual algoritimus for the assigment problem / Discrete Appl. Math. - 1987. - №2. - P. 137-153. Литература к части V 1. 2. 3. 4. Александров А.Г. Оптимальные и адаптивные системы: Учеб, пособие для ВУЗов по спец. «Автоматика и упр. в техн, системах». - М.: Высш, шк., 1989. - 264 с. Андриевский Б.Р., Стоцкий А.А., Фрадков А.Л. Алгоритмы скоростого градиента в задачах управления и адаптации И Автоматика и телеме- ханика. - 1988. - №12. - С. 3-39. Борцов Ю.А., Юнгер Н.Б. Автоматические системы с разрывным управ- лением - Л.: Энегроатомиздат, Ленинградское отд-ние, 1986. - 168 с. Ван-дер-Поль Б. Нелинейная теория электрический колебаний. - М.: Связьиздат, 1935. 47*
732 _____________ 5. Воронов А.А. Введение в динамику сложных управляемых систем ~ М.: Наука, 1985.-352 с. 6. Воронов А.А., Рутковский В.Ю. Современное состояние и перспективы развития адаптивных систем // Вопросы кибернетики. Проблемы тео- рии и практики адаптивного управления. - М.: Научный совет по ки- бернетике АН СССР, 1985. - С. 5-48. 7. Деревицкий Д.П., Фрадков А.Л Прикладная теория дискретных адап- тивных систем управления. - М.: Наука, 1981. - 216 с. 8. Емельянов С.В. Применение нелинейных корректирующих устройств типа «ключ» для улучшения качества систем автоматического регули- рования второго порядка // Автоматика и телемеханика. - 1959. - №7. -С. 867-883. 9. Емельянов С.В. Способ получения сложных законов регулирования с использованием лишь сигнала ошибки или регулируемой координаты и ее первой производной // Автоматика и телемеханика. - 1975. - №10. -С. 874-875. 10. Земляков СД., Рутковский В.Ю., Павлов Б.В. Структурный синтез са- монастраивающейся системы управления // Автоматика и телемехани- ка. - 1969. - №8. - С. 53-63. 11. Земляков С.Д., Рутковский В.Ю. Синтез алгоритмов изменения пере- страиваемых коэффициентов в самонастраивающихся системах управ- ления с эталонной моделью // ДАН СССР. - 1967. - Т. 174, №1. - С. 47-49. 12. Климушев А.И., Красовский Н.Н. Равномерная асимптотическая устой- чивость системы дифференциальных уравнений с малыми параметра- ми при производных // Прикладная математика и механика. - 1961. - Т.25, №4. - С. 680-694. 13. Козлов Ю.М., Юсупов Р.М. Беспоисковые самонастраивающиеся сис- темы. - М.: Наука, 1969. - 456 с. 14. Красовский А.А. Оптимальные алгоритмы в задачах идентификации с адаптивной моделью // Автоматика и телемеханика. - 1976. - №12. - С. 75-82. 15. Красовский А.А., Буков В.Н, Шендрик В.С. Универсальные алгоритмы оптимального управления непрерывными процессами. - М.: Наука, 1977.-272 с. 16. Крылов Н.М., Боголюбов Н.Н. Введение в нелинейную механику. - К.: Изд-во АН УССР, 1937. 17. Люблинский Б.С., Фрадков А.Л. Адаптивная стабилизация нелинейных объектов с неявно заданной статической характеристикой // Автома- тика и телемеханика. - 1983. - №4. - С. 126-136. 18. Мееров М.В. Синтез структур систем автоматического регулирования высокой точности. - М.: Наука, 1967. - 424 с. 19. Метод векторных функций Ляпунова в теории устойчивости / Под ред. А.А. Воронова, В.М. Матросова. - М.: Наука, 1987. - 312 с.
Список литературы______________________________________ 733 20. Мирошник И.В., Никифоров В.О., Фрадков А.Л. Нелинейное и адап- тивное управление сложными динамическими системами. - СПб.'. Наука, 2000. - 548 с. 21. Моисеев Н.Н. Математические задачи системного анализа. - М.: Нау- ка, 1981.-488 с. 22. Мышляев Ю.И., Мышляева С.В. Синтез систем управления с настраи- ваемой плоскостью скольжения задача слежения, линейные объекты И Труды МГТУ им. Н.Э. Баумана. - 2000. - №577. - С. 129-133. 23. Мышляев Ю.И. Об одном подходе к синтезу систем с переменной структурой в условиях параметрической неопределенности // Труды МГТУ им. Н.Э. Баумана. - 1999. - №575. - С. 68-73. 24. Никифоров В.О., Фрадков АЛ. Схемы адаптивного управления с расши- ренной ошибкой // Автоматика и телемеханика. -1994. - №9. - С. 3-22. 25. Петров А.С., Рутковский В.Ю., Земляков С.Д. Адаптивное координат- но-параметрическое управление нестационарными объектами. - М.; Наука, 1980. - 234 с. 26. Петров Б.Н., Рутковский В.Ю., Крутова И.Н., Земляков С.Д. Принци- пы построения и проектирования самонастраивающихся систем управления. - М.: Машиностроение, 1972. -260 с. 27. Понтрягин Л.С., Радыгин Л.В. Асимптотическое поведение решений систем с малым параметром при высших производных // ДАН СССР. - 1960.-Т. 131, №2.-С. 255-258. 28. Попов А.М., Фрадков А.Л. Адаптивное управление сингулярно- возмущенными объектами // Труды XI Всесоюзного совещания по проблемам управления. - Ереван, 1983. - С. 166. 29. Самонастраивающиеся системы; Справочник / Под ред. П.Н. Чинаева. Киев, 1959.-528 с. 30. Справочник по теории автоматического управления / Под ред. А.А. Красовского. - М.: Наука, 1987. - 712 с. 31. Стоцкий А.А. Сигнально-параметрические алгоритмы адаптивного управления с неявной эталонной моделью // Микропроцессорные сис- темы автоматизации технологических процессов. Тез. Всесоюз. конф. — Новосибирск: НЭТИ, 1987. - С. 78-79. 32. Тихонов А.Н. Системы дифференциальных уравнений, содержащих малые параметры при производных // Математический сборник. - 1952. - Т.31, №3. - С. 575-585. 33. Топчеев Ю.И.. Потемкин В.Г., Иваненко В.Г. Системы стабилизации. - М.; Машиностроение, 1974.-248 с. 34. Уткин В.И. Скользящие режимы в задачах оптимизации и управления. - М.: Наука, 1981.-368 с. 35. Фомин В.Н., Фрадков А.Л., Якубович В.А. Адаптивное управление ди- намическими объектами. -М.: Наука, 1981. - 448с.
734________________________________________________ 36. Фрадков А.Л. Адаптивная стабилизация минимально-фазовых объек- тов с векторным входом без изменения производных от выхода // ДАН РАН. -1994. - Т. 337, №5 - С. 592-594. 37. Фрадков А.Л. Адаптивное управление в сложных системах. - М.: Нау- ка, 1990. - 292 с. 38. Фрадков А.Л. Алгоритмы скоростного градиента в задачах адаптации и управления нелинейными системами // Проблемы динамики неодно- родных систем . - М.: ВНИИСИ. 1985. - С. 46-58. 39. Фрадков А.Л. Интегро-дифференцирующие алгоритмы скоростного градиента // ДАН АН СССР. - Т. 288, №4 - С. 832-835. 40. Фрадков А.Л. Метод синтеза алгоритма стабилизации линейного много- связанного динамического объекта // Вопросы кибернетики. Адаптивные системы. - М. Научный совет по кибернетике АН СССР, 1976. — С. 82—85. 41. Фрадков А.Л. Разделение движений в адаптивных системах управле- ния // Вопросы кибернетики. Теория и практика адаптивного управле- ния. - М.: Научный совет по кибернетике АН СССР, 1985. - С. 71-82. 42. Фрадков А.Л. Синтез адаптивных систем управления нелинейными сингулярно-возмущенными объектами // Автоматика и телемеханика. -1987.-№6.-С. 100-110. 43. Фрадков А.Л. Схема скоростного градиента и ее применение в задачах адаптивного управления И Автоматика и телемеханика. - 1979. - №9. - С. 90-101. 44. Цыкунов А.М. Алгоритмы скоростного градиента для систем с запаз- дыванием //Автоматика и телемеханика. - 1987. - №3. - С. 97-106. 45. Feuer A., Morse A.S. Adaptive control of single-input, single-output linear sys- tems // IEEE Trans, on Automat. Control. - 1978. - Vol.23. №4. - P. 557-569. 46. Fradkov A.L, Stotsky A.A. Speed gradient adaptive algorithms for mechani- cal system // International journal of adaptive control and signal processing. - 1992. -Vol.6. - P. 211-220. 47. Landau T.D. Adaptive control system: the Model Reference approach. - N.Y. Marcel Decker, 1979. - P. 406. 48. Monopoli R.V. Model reference adaptive control with an augmented error sig- nal//IEEE Trans. on Automat. Control. -1974. - V.19. №5. - P. 474-484. 49. Morse A.S. Global stability of parameter-adaptive controller systems // IEEE Trans, on Automat. Control. - 1975. - V.25. №3. - P. 433-439. 50. Narendra K.S., Lin Y. -H., Valavani L.S. Stable adaptive controller design. Part II: proof of stability // IEEE Trans, on Automat. Control. - 1980. - V.25. №3.-P. 440-448. 51. Narendra K.S., Kudva P. Stable adaptive schemes for system identification and control - Part I, П И IEEE Trans. -1974. - V. SMC - 4, №6. - P. 542-560. 52. Narendra K.S., Valavani L.S. A comparison of Lyapunov’s and hypersta- bility approaches to adaptive control of continues systems // IEEE Trans Automat. Conff., 1980, AC -25, №2. - P. 243-247.
П££пметный указатель 735 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ А I Агрегирование...............349 аксиомы S-иормы..........325 - аксиомы Т-иормы...........319 - аксиомы нечеткого отрицания 328. Алгоритм - Евклида..................... 49 - обучения (настройки параметров) нейросети..............402,422 Арифметика иечеткая.........295 Аутор.......................135 Б База правил иечеткая............334 - непрерывная...................334 непротиворечивая...........334 полная.....................335 Быстродействие нечеткого контроллера.....................350 В Взаимно простая факторизация....51 Взаимно-простые факторы.........72 Внутренняя устойчивость.........62 Вывод (заключение) нечеткий.... 337,343 Высота нечеткого множества.....285 д Двухстороннее преобразование Лапласа.........................96 Дефазификация..................350 Дефазификации методы... 350,351,353 Дополнительная проблема минимизации....................220 Дополнительная стоимость.......219 Допустимый регулятор...........162 Дуальность взаимная............330 3 Законы нечеткие де Моргана.......330 И Идентификация..............390,402 - нечеткая параметрическая..303 - нечеткая структурная......306 Идентификации процедура.......409 Импликация иечеткая - Зтипа.....................339 - QLTHna....................341 - Ттипа.....................342 Иниор.........................132 Иииорио-ауториая факторизация..135 Интеллектуальные системы управления......................9 Интервал нечеткий..............288 Г Г ипотез проверка - статистическая..............525 последовательная..............376 иечеткая......................378 Грамианы управляемости, наблюдаемости.....................1 К Композиция отношений нечетких 343 Контроллер нечеткий..........355
736 -----------------— 1[ Л j Дшейные дробные преобразования ....27 Логика нечеткая.................. II м J Максимальное сингулярное значение матрицы................ Матрица Гамильтона.............. Метод - Гаусса-Ньютона.........426, - градиентный................. - Левенберга-Маркардта........ - Ньютона..................... Метод наименьших квадратов...... - нечеткий...................... Множество нечеткое - векторное..................... - выпуклое..................... - двумерное.................... - дискретное.................. - многомерное................. - непрерывное................... - одномерное.................... 432 422 427 424 374 380 311 288 282 278 282 278 274 Модель - нейросетевая.............398,421 - прогнозирующая..........422,458 - системы.....................446 Модельная структура............421 - нейросетевая................396 - NNARX.......................407 - NNARMAX.....................409 - NNSSIF......................409 Модификация лингвистическая.....315 изменением масштаба........316 - сдвигом....................316 - степенная...................315 МПФ системы (замкнутой)........197 Н Наихудшие возмущения............185 Нейросеть, нейронная сеть.......388 - персептронного типа...........392 Кохонена........................ многослойная................393 Нормализованная ВПФ..............71 О Оператор - Ганкеля......................94 - Лоренца......................... о ртогонального проектирования... 93 - Риккати.....................15Q - Теплица—.....................94 Операторы управляемости, наблюдаемости...................но Операция нечеткого «и».........318 - «или».......................325 «не»........................327 Обобщенные алгебраические уравнения Риккати задач оптимального управления и оптимальной фильтрации.........146 Оптимальная робастная фильтрация.. 142 Основание нечеткого множества..285 Отношение нечеткое.............343 Отображение нечеткое...........290 П Предложение нечеткое.............332 Представление векторное..........311 - матричное..............-....311 - парное......................310 - уровневое...................311 - функциональное..............310 - четкого числа...............278 Принадлежность множеству.......272 Принцип обобщения..............290 Проектирование.................343 Проблема Нехари.......................125 - построения оптимальной модели 131 - полной информации...........171 - полного управления..........173 - оценки выхода...............174 Произведение - алгебраическое..............322 - граничное...................323 - логическое..................321 - сильное.....................323 Пространства Харди..............27
ппедметныи указатель____________ [р Р || Разбиение нечеткое...........298 расширение цилиндрическое....343 регулятор нечеткий...........355 _ гибридный..................364 С Система автоматической оптимизации....................376 Система автоматической оптимизации нечеткая...........376 Свойства Фурье-оригиналов......100 Смешанное Н21Н“ -качество......212 Спектральное пространство относительно матрицы...........147 Спектральная сепарация..........93 Спектральная факторизация.......93 Спектральные подпространства относительно матрицы...........148 Стандартный объект.............162 Субоптимальное решение задачи //“-оптимального уравнения.... 145 Сумма алгебраическая............327 - граничная..................327 - логическая.................325 327 - сильная....................... Т - _________________737 Г у { Управление..................... 39Q - адаптивное......... .......3gg - нейросетевое................46Q - нечеткое....................272 - на основе инверсных моделей.462 на основе прямых моделей....457 - оптимальное.................472 Уровень нечеткого множества.....285 Уровень толерантности...........145 Условие недоступности прошлого взаимодействиям настоящего......101 Условия нечеткого предложения...333 I • I Фильтрация нечеткая.............374 Форма представления лингвистическая.................273 Функции чувствительности.........75 ч Четыре-Риккари подход к решению задачи построения оптимального регулятора.................... Число четкое.................. Ядро нечеткого множества 285 Тождество Басса ... Точки поперечные
СОДЕРЖАНИЕ ПРЕДИСЛОВИЕ.......................................................... ЧАСТЫ. .............................................................. Введение........................................................ СПИСОК ИСПОЛЬЗУЕМЫХ АББРЕВИАТУР И ОБОЗНАЧЕНИЙ 9 ГЛАВА 1. МАТЕМАТИЧЕСКИЕ ПРОСТРАНСТВА................................10 1.1 пространства над произвольными множествами................10 1.2. Пространства над множествами функций......................14 1.3. НЕКОТОРЫЕ СПЕЦИФИЧЕСКИЕ ПРИЁМЫ, ИСПОЛЬЗУЕМЫЕ В //“-ТЕОРИИ. О ПРЕДСТАВЛЕНИИ СИСТЕМ В Н “ -ТЕОРИИ.........................31 1.4. ФОРМЫ ПРЕДСТАВЛЕНИЯ СИСТЕМ.............................35 ГЛАВА 2. СИНТЕЗ ПРАКТИЧЕСКИ РАБОТОСПОСОБНЫХ ЛИНЕЙНЫХ СТАЦИОНАРНЫХ САР.................................................41 2.1. Свойства передаточных функций структурных элементов практически работоспособных линейных стационарных САР.......41 2.2. Взаимно простая факторизация передаточных функций......47 2.3. Вычисление компонент ДВПФ МПФ..........................51 2.4. Стабилизация объектов в Н “ -теории....................58 2.5. Параметризация стабилизирующих регуляторов.............67 2.6. Нормализованная взаимно простая факторизация (НВПФ)....68 ГЛАВА 3. КАЧЕСТВО СИСТЕМ В Н “ -ТЕОРИИ..........................73 3.1. Характеристики качества в я“-теории....................73 3.2. Оценка качества с помощью Це15||_......................74 3.3. Оценки с помощью функций чувствительности..............82 ГЛАВА 4. НЕКОТОРЫЕ ДОПОЛНИТЕЛЬНЫЕ СВЕДЕНИЯ ИЗ МАТЕМАТИЧЕСКИХ ОСНОВ Н “ -ТЕОРИИ...............................87 4.1. Оператор Лоренца и связанные с ним операторы...........87 4.2. Представление оператора Лоренца в области вещественной переменной...................................................93 4.3. Вычисление нормы оператора Ганкеля........................104 4.4. Физический смысл широко используемых норм и их вычисление.114 ГЛАВА 5. КЛАССИЧЕСКИЙ МЕТОД РЕШЕНИЯ ЗАДАЧИ ОПТИМАЛЬНОГО Н" -УПРАВЛЕНИЯ (ПОДХОД 1984 ГОДА)....................123 5.1. Проблема Нехари...........................................123 5.2. Проблема ПОМ (построения оптимальной модели) (ММР - MODEL MATCHING PROBLEM).........................129
Содержание 5.3. Задача оптимальнойТч^?^ 739 5.4. некоторые ДРУГИЕЗ ^изации УПРАВЛЕНИЯ 'ТЕ0РИИ ОПТИМАЛЬНОГО -.137 ГЛАВА 6. 6.1 связь алгебраического ур НИЯ (ПОдаод 1988 ГОДА> с МАТРИЦЕЙ ГАМИлмОнаУРАВНЕНИЯ РИККАТИ -139 -143 6.2. СВЯЗЬ РЕШЕНИЯ УРАВНЕНИЯ P^S.rAMHJ11,T0HA 145 6.3. МАТРИЧНОГО ПОЛИНОМА МАТРИЦЫ ГаМ^тп ХАРАКТЕРИС™ЕСКОГО СВЯЗЬ РЕШЕНИЯ УРАВНЕНИЯ Puvv T? HAnP" R = 0 6.4. П™1Н™А матрицы г\СмЕн“™с-Г0 ГЛАВА 7. «ДВА-РИККАТИ ПОДХОД» к ПРОБЛЕМАМ W'-ИЯ- -ОПТИМИЗАЦИИ 7.1. Постановка проблемы и ее освещение в данной работе . 159 7.2. Н1 -ОПТИМАЛЬНЫЙ РЕГУЛЯТОР 7.3. Н " -ОПТИМАЛЬНЫЙ РЕГУЛЯТОР 7.4. Специальные проблемы 7.5. О СТРУКТУРЕ и свойствах Н 2 -ОПТИМАЛЬНОГО РЕГУЛЯТОРА 174 7.6. О СТРУКТУРЕ И СВОЙСТВАХ Н ” -ОПТИМАЛЬНОГО РЕГУЛЯТОРА 179 7.7. Алгоритмы синтеза Я “и и2 -оптимальных регуляторов 187 ГЛАВА 8. ПРИМЕР ИСПОЛЬЗОВАНИЯ Я”-СУБОПТИМАЛЬНОГО РЕГУЛЯТОРА ДЛЯ МИНИМИЗАЦИИ ВЛИЯНИЯ ВЕТРОВОГО ВОЗМУЩЕНИЯ НА ПРОДОЛЬНОЕ ДВИЖЕНИЕ САМОЛЕТА R РГИСИМГ ПОРА/тки 191 8.1. 192 8.2. Погружение исходной задачи в рамки задачи 196 198 8.3. Результаты решения задач и -ин -оптимального синтеза ГЛАВА 9. ПРОБЛЕМА СМЕШАННОЙ Н IH -ОПТИМИЗАЦИИ 207 208 9.1. Формулировка смешанной и /Н проблемы 9.2. Проблема минимизации смешанного Н2 /Н “ -качества 216 9.3. 224 9.4. -..cuiauuvIO Я2/Я" -ПРОБЛЕМУ УПРАВЛЕНИЯ ПОДХОД ВЫПУКЛОЙ ОПТИМИЗАЦИИ К ПРОБЛЕМЕ СМЕШАННОГО 229 9.5. ЧРТ^Е-дакт ПОДХОД к ЗАДАЧЕ ПОСТРОЕНИЯ ОПТИМАЛЬНОГО 245 ГЛАВА 10. СИНТЕЗ ДИСКРЕТНЫХ РЕГУЛЯТОРОВ МЕТОДОМ 250 //“-ТЕОРИИ 251 10.1. СТАНДАРТНАЯ ЗАДАЧА Я”-ОПТИМИЗАЦИИ
740________________________________________.___________Содержание 10.2. Множество внутренне устойчивых регуляторов............. 10.3. Примеры сведения различных задач к задаче //“-оптимизации (ЗАДАЧА СЛЕЖЕНИЯ)............................................ 10.4. Внутренне-внешняя факторизация.......................... 10.5. Типы НЕОПРЕДЕЛЕННОСТЕЙ.................................. 10.6. Представление неопределенностей в виде дробно-линейных ПРЕОБРАЗОВАНИЙ...........................................257 10.7. Проблема робастной стабилизации.................... 258 10.8. Описание множества допустимых регуляторов...........259 10.9. Сведение стандартной задачи я “-оптимизации к задаче соответствия модели (ммр)................................259 10.10. Приведение задачи соответствия к задаче Нехарн.....260 10.11. РЕШЕНИЕ ЗАДАЧИ HEX АРИ ДЛЯ ДИСКРЕТНОГО СЛУЧАЯ......261 ЧАСТЬ II. НЕЧЕТКОЕ УПРАВЛЕНИЕ...................................271 ВВЕДЕНИЕ...................................................271 СПИСОК АББРЕВИАТУР.............................................273 ГЛАВА 1. НЕЧЕТКИЕ МНОЖЕСТВА...................................274 1.1. ПРИНАДЛЕЖНОСТЬ МНОЖЕСТВУ..............................274 1.2. СВОЙСТВА НЕЧЕТКИХ МНОЖЕСТВ............................286 1.3. Принцип обобщения. Нечеткая арифметика................290 1.4. ПРИКЛАДНЫЕ ЗАДАЧИ НЕЧЕТКОЙ ЛОГИКИ.....................298 1.5. ФОРМЫ ПРЕДСТАВЛЕНИЯ НЕЧЕТКИХ МНОЖЕСТВ И ИХ КОМПЬЮТЕРНАЯ РЕАЛИЗАЦИЯ...........................306 1,6. ЛИНГВИСТИЧЕСКИЕ МОДИФИКАЦИИ НЕЧЕТКИХ МНОЖЕСТВ.........309 ГЛАВА 2. НЕЧЕТКАЯ ЛОГИКА........................................313 2.1. Нечеткая операция «и»..................................313 2.2. Нечеткая операция «ИЛИ»................................319 2.3. Нечеткая операция «не».................................321 ГЛАВА 3. НЕЧЕТКИЕ ВЫВОДЫ.......................................325 3.1. Нечеткие предложения и нечеткая база правил............325 3.2. Нечеткая импликация....................................330 3.3. Композиция нечетких отношений..........................334 3.4. Агрегация локальных выводов и дефазификация............340 3.4. Нечеткие контроллеры...................................345 ГЛАВА 4. НЕЧЕТКИЕ СИСТЕМЫ РЕГУЛИРОВАНИЯ.........................350 4.1. НЕЧЕТКОЕ УПРАВЛЕНИЕ ПОДЪЕМНО-ТРАНСПОРТНЫМ МЕХАНИЗМОМ...350 4.2. ГИБРИДНЫЕ СИСТЕМЫ РЕГУЛИРОВАНИЯ........................354 4.3. Нечеткая логика в задаче фильтрации случайных возмущений.360 4.4. Нечеткая система автоматической оптимизации...........367 4.5. Адаптивная система автоматической оптимизации с нечеткой последовательной процедурой ПРОВЕРКИ СТАТИСТИЧЕСКИХ ГИПОТЕЗ...............................372 ЧАСТЬ Ш. НЕЙРОСЕТЕВЫЕ МЕТОДЫ УПРАВЛЕНИЯ И ИДЕНТИФИКАЦИИ ДИНАМИЧЕСКИХ СИСТЕМ.............................................................385 СПИСОК ИСПОЛЬЗУЕМЫХ АББРЕВИАТУР И ОБОЗНАЧЕНИЙ ...................385 ГЛАВА 1. ФУНКЦИОНАЛЬНЫЕ ОСОБЕННОСТИ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ..................................................387
Содержание 1.1. ОСНОВНЫЕ ЭТАПЫ РАЗВИТИЯ ТЕОРИИ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ................................................390 1.2. ОПРЕДЕЛЕНИЕ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ И ИХ КЛАССИФИКАЦИЯ...................................393 1.3. Структура технического нейрона......................394 1.4. Многослойные нейронные сети и их аппроксимирующие свойства.............................................396 1.5. Сравнительный анализ нейросетевых вычислительных структур и традиционного программного обеспечения.............399 ГЛАВА 2. РЕАЛИЗАЦИЯ ПРОЦЕДУРЫ ИДЕНТИФИКАЦИИ ДИНАМИЧЕСКИХ СИСТЕМ НА ОСНОВЕ НЕЙРОСЕТЕВЫХ МОДЕЛЬНЫХ СТРУКТУР........................................401 2.1. ОСНОВНЫЕ этапы процедуры идентификации..............401 2.2. Выбор модельной структуры...........................404 2.3. Планирование и проведение эксперимента..............412 2.4. Оптимизация параметров нейросетевой модели..........420 2.5. Принятие решения об адекватности модели.............447 2.6. Практические рекомендации по применению нейросетевых методов идентификации динамических систем............454 ГЛАВА 3. НЕЙРОСЕТЕВЫЕ СИСТЕМЫ УПРАВЛЕНИЯ .................... 457 3.1. Введение в нейросетевые методы синтеза систем автоматического управления............................... 457 3.2. Синтез нейросетевой системы управления на основе инверсной модели объекта............................................460 3.3. Система управления с прямой и инверсной моделями объекта.467 3.4. Оптимальное управление...................................469 ЧАСТЬ IV. ПРИНЯТИЕ РЕШЕНИЙ В СИСТЕМАХ УПРАВЛЕНИЯ......................................................472 ВВЕДЕНИЕ......................................................472 ГЛАВА 1. ЗАДАЧИ ПРИНЯТИЯ РЕШЕНИЙ В МНОГООБЪЕКТНЫХ РАСПРЕДЕЛЕННЫХ СИСТЕМАХ УПРАВЛЕНИЯ И ПРОБЛЕМА СЛОЖНОСТИ..........................................476 1.1. Основные особенности многообъектных распределенных систем управления, требования к алгоритмам управления, системам и процессам проектирования.......................476 1.2. Типовая функциональная схема многообъектной РАСПРЕДЕЛЕННОЙ СИСТЕМЫ УПРАВЛЕНИЯ И ФУНКЦИОНАЛЬНЫЕ ЗАДАЧИ...478 1.3. КЛАССИЧЕСКИЕ ЗАДАЧИ ПРИНЯТИЯ РЕШЕНИЙ.....................485 1.4. Качественная постановка задачи принятия оперативных РЕШЕНИЙ И ОБОСНОВАНИЕ НЕОБХОДИМОСТИ ФОРМАЛИЗАЦИИ ПОНЯТИЯ «сложность»..............................................492 1.5. Концепция наименьшего действия-сложности в классической И НОВОЙ ФИЗИКЕ И ЕЕ ВЛИЯНИЕ НА ФОРМАЛИЗМ ЗАДАЧ ПРИНЯТИЯ РЕШЕНИЙ....................................................... 1.6. Обзор математических теорий сложности..................499 ГЛАВА 2. ЗАДАЧИ ПРИНЯТИЯ РЕШЕНИЯ НА РАСШИРЕННЫХ МНОЖЕСТВАХ ПО СКАЛЯРНОМУ КРИТЕРИЮ................< 2.1. Постановка задач принятия решений на расширенных множествах АЛЬТЕРНАТИВ ПО скалярному КРИТЕРИЮ........ 2.2. ОБЩИЕ ПРОЦЕДУРЫ ПРИНЯТИЯ РЕШЕНИЙ НА РАСШИРЕННЫХ МНОЖЕСТВАХ И ГРАФЫ СТРУКТУР РЕШЕНИЙ..............
Содержание 742 — 2.3. ТРИ УРОВНЯ ОЦЕНКИ ДЕЙСТВИЯ-СЛОЖНОСТИ ДЛЯ ЗАДАЧ ПРИНЯ1ИЯ 523 2.4. SmA^K^ ПОСТАНОВКА ЗАДАЧ ПРИНЯТИЯОПЕРАТИВНЫХ 529 2.5. КОНЦЕПЦИЯДОМИНАНТНЫХ УСЛОВИЙ В ПРОБЛЕМЕ ПРИНЯТИЯ 531 ГЛАВА 3. МЕТОДЫ И АЛГОРИТМЫ РЕШЕНИЯ ЗАДАЧИ ВЫБОРА (НАЗНАЧЕНИЯ) В КЛАССИЧЕСКОЙ"0С3?тЕРНАТИВ И НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ ........535 3 1. Постановка задачи и сфера ее использования.................535 з 2 Точные методы решения классической задачи выбора...........537 3.3. МЕТОД решения задачи назначения с матрицами особого РОДА...541 3 4. Приближенные методы решения классической задачи выбора.....542 3.5. АЛГОРИТМЫ РЕШЕНИЯ классической задачи выбора НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ......................549 3.6. АЛГОРИТМЫ РЕШЕНИЯ ОБЪЕДИНЁННОЙ ЗАДАЧИ ВЫБОРА НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ......................552 ГЛАВА 4. ЗАДАЧИ ПРИНЯТИЯ РЕШЕНИЙ НА РАСШИРЕННЫХ МНОЖЕСТВАХ ПО ВЕКТОРНОМУ КРИТЕРИЮ..............560 4.1. СУЩНОСТЬ И УСЛОВИЯ ПОЯВЛЕНИЯ МНОГОКРИТЕРИАЛЬНЫХ ЗАДАЧ ПРИНЯТИЯ РЕШЕНИЙ...........................................560 4.2. ПАРЕТО-ОПТИМАЛЬНОСТЬ И ОБЗОР ОСНОВНЫХ ПОДХОДОВ К ПРОБЛЕМЕ СКАЛЯРИЗАЦИН ВЕКТОРНОГО КРИТЕРИЯ...........................563 4.3. ВЕКТОРНАЯ ОПТИМИЗАЦИЯ НА ОСНОВЕ ПРИНЦИПА СЛОЖНОСТИ....568 4.4. Задачи принятия решений по векторному критерию НА РАСШИРЕННЫХ МНОЖЕСТВАХ АЛЬТЕРНАТИВ......................573 4.5. Задачи принятия оперативных решений по векторному критерию..............................................575 4.6. Задача выбора с аддитивным и максиминным критериями...576 4.7. МНОГОКРИТЕРИАЛЬНАЯ задача выбора с аддитивными КРИТЕРИЯМИ..577 4.8. Интерактивная система CHOISE для проектирования АЛГОРИТМОВ ПРИНЯТИЯ РЕШЕНИЯ..................................581 ГЛАВА 5. УЧЕТ ФАКТОРОВ НЕОПРЕДЕННОСТИ В ЗАДАЧАХ ПРИНЯТИЯ ОПЕРАТИВНЫХ РЕШЕНИЙ.........................................582 5.1. Принятие оперативных решений в условиях неопределенности...582 5.2. Задачи принятия решений на нечетких множествах как задачи векторной оптимизации..................................... 586 5.3. Задача выбора с критерием эффективности и вероятности выход НА ОСНОВЕ РАСШИРЕННЫХ МНОЖЕСТВ...............................587 5.4. Задача выбора с нечеткими параметрами минимальной СЛОЖНОСТИ....................................................... g ГЛАВА 6. ЗАДАЧИ ГРУППИРОВАНИЯ ИНФОРМАЦИИ В МНОГООБЪЕКТНЫХ РАСПРЕДЕЛЕННЫХ СИСТЕМАХ УПРАВЛЕНИЯ И АЛГОРИТМЫ ИХ РЕШЕНИЯ................................590 6.1. Качественная постановка задачи группиров а ния информ а ции в многообъектных распределенных системах.....................590 6.2. решение ЗАДАЧИ группирования на основе кластерного анализа.591 .3. Метод и алгоритмы оперативного группирования информации для многообъектных распределенных систем управления.....592 6.4. ОСНОВНЫЕ ОСОБЕННОСТИ МЕТОДА.......................... 596 ЗАКЛЮЧЕНИЕ..................................................... спо
;^ТЬ V. НЕПРЕРЫВНЫЕ АДАПТИВНЫЕ СИСТЕМЫ..............................600 ВВЕДЕНИЕ....................>...................................... СПИСОК ИСПОЛЬЗУЕМЫХ АББРЕВИАТУР ..................................ад ГЛАВА 1. МЕТОДЫ АДАПТИВНОГО УПРАВЛЕНИЯ............................ад 1Л. ОПРЕДЕЛЕНИЕ И КЛАССИФИКАЦИЯ АДАПТИВНЫХ СИСТЕМ..... ад J.2. ПОСТАНОВКА ЗАДАЧИ СИНТЕЗА АДАПТИВНЫХ СИСТЕМ УПРАВЛЕНИЯ.. ГИПОТЕЗА О КВАЗИСТАЦИОНАРНОСТИ.................... ад L3. Методы синтеза адаптивных систем.-^L"^ZZ™"Z608 ГЛАВА 2. ПОИСКОВЫЕ АДАПТИВНЫЕ СИСТЕМЫ....................610 2,1. СИСТЕМЫ ЭКСТРЕМАЛЬНОГО РЕГУЛИРОВАНИЯ............610 2.2. Поисковые алгоритмы непрямого адаптивного управления С НАСТРАИВАЕМОЙ МОДЕЛЬЮ..........................611 ГЛАВА 3. СИНТЕЗ БЕСПОИСКОВЫХ АДАПТИВНЫХ СИСТЕМ МЕТОДОМ ФУНКЦИЙ ЛЯПУНОВА.........................618 3.1. Постановка задачи синтеза................................618 3.2. СИНТЕЗ ОСНОВНОГО контура УПРАВЛЕНИЯ.............619 3.3. Синтез контура адаптации........................621 3.4. Условия идентифицируемости......................622 ГЛАВА 4. СХЕМА СКОРОСТНОГО ГРАДИЕНТА.....................627 4.1. АЛГОРИТМЫ СКОРСТНОГО ГРАДИЕНТА И УСЛОВИЯ ИХ ПРИМЕНИМОСТИ.628 4.2. Робастность алгоритмов скоростного градиента.....635 4.3. АЛГОРИТМЫ СКОРОСТНОГО ГРАДИЕНТА В СИСТЕМАХ с явной ЭТАЛОННОЙ моделью...............................637 4.4. АЛГОРИТМЫ СКОРОСТНОГО ГРАДИЕНТА В СИСТЕМАХ С НЕЯВНОЙ ЭТАЛОННОЙ МОДЕЛЬЮ.......................................646 ГЛАВА 5. СИСТЕМЫ С ПЕРЕМЕННОЙ СТРУКТУРОЙ.........................658 5.1. СКОЛЬЗЯЩИЕ РЕЖИМЫ.......................................658 5.2. СИСТЕМЫ С НАСТРАИВАЕМОЙ ПОВЕРХНОСТЬЮ СКОЛЬЖЕНИЯ.........665 ГЛАВА 6. АДАПТИВНЫЕ СИСТЕМЫ БЕЗ ИЗМЕРЕНИЯ ПРОИЗВОДНЫХ ОТ ВЫХОДА..............................................678 6.1. Постановка задачи синтеза..............................678 6.2. Обоснование разрешимости задачи синтеза................679 6.3. СХЕМЫ построения адаптивных наблюдателей состояния..690 6.4. Непрямое адаптивное управление.........................700 6.5. Прямое адаптивное управление с явной эталонной моделью.705 6.6. Декомпозиция адаптивных систем на основе разделения движений..............................................714 СПИСОК ЛИТЕРАТУРЫ...........................................719 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ........................................735
Учебное издание Константин Александрович Пупков Николай Дмитриевич Егупов Александр Игоревич Гаврилов Владимир Юрьевич Зверев Виктор Григорьевич Коньков Лев Тихонович Милов Иван Александрович Мочалов Юрий Игоревич Мышляев Адольф Иванович Трофимов МЕТОДЫ РОБАСТНОГО, НЕЙРО-НЕЧЕТКОГО И АДАПТИВНОГО управления Редактор С.Н. Капранов Корректор К.Ю. Савинченко Компьютерная верстка К.Ю. Савинченко^ М.П. Трубачев Изд, лиц. №020523 от 25.04.97. Подписано в печать 15.08.2002. Формат 60x90 ^6 • Печ. л. 46,5. Усл. пен. л. 46,5. Уч.-нзд. л. 45,8 Бумага офсетная. Печать офсетная. Тираж 2000 экз. Заказ №108 Издательство МГТУ им. Н.Э. Баумана 107005, Москва, 2-я Бауманская, 5 Отпечатано с готового оригинал-макета в ГУП «Облиздат» 248640, г. Калуга, пл. Старый Торг, 5