Text
                    Н. БРАММЕР
Г. ЗИФФЛИНГ
Фильтр
Налмана - Бьюси
ДЕТЕРМИНИРОВАННОЕ
НАБЛЮДЕНИЕ
И СТОХАСТИЧЕСКАЯ
ФИЛЬТРАЦИЯ
Перевод с немецкого В Б КОЛМАНОВСКОГО
Под редакцией И Е КАЗАКОВА
МОСКВА «НАУКА»
ГЛАВНАЯ РЕДАКЦИЯ
ФИЗИКО МАТЕМАТИЧЕСКОЙ ЛИТЕРАТУРЫ
1982

Ш.Ш В Н7 УДК. «ш-по Karl Вгнттат/йетЪатА S-iffliug Kalman-Bucy-F lit er Determipiatische Beotachtu-ng fltochaatiache Filterung Methoien der Regelu-Tigateehnik. R.01d.enbourg Verlag Miincheji Wien Фильтр Калмана - Быоси. Браммер К., Зиффлинг Г. Пер. с Нем. - М.: Наука. Главная редакция физико-математической лите- ратуры. 1982. -000 с. Излагаются различные методы оценивания фазовых координат динамической системы по результатам наблюдений, что сущест- венно как для выяснения свойств системы, так и при построении управления. Рассмотрены вопросы оценивания при точных измере- ниях. Подробно изучены различные алгоритмы фильтрации, экстра- поляции и интерполяции и их взаимосвязь при различных предпо- ложениях о случайных возмущениях в уравнениях движения и на- блюдения. Исследованы двойственные задачи управления. Значи- тельное внимание уделено рассмотрению прикладных вопросов, возникающих при конкретной реализации алгоритмов фильтрации. В дополнении к книге изложены обобщения фильтра Калмана для систем с последействием, систем с распределенными параметрами, Нелинейных систем и систем с вырожденным шумом в канале измерений. Табл. 3, идл. 24, библ. 257. _ 1502000000 - 020 b 053(02)-82 149-82 Издательство 'Наука*. Главная редакция физико-математической литературы, 1982
ОГЛАВЛЕНИЕ ОТ РЕДАКТОРА РУССКОГО ПЕРЕВОДА...................................... 5 ПРЕДИСЛОВИЕ....................................................... 6 Глава 1 НАБЛЮДЕНИЕ ВЕКТОРА СОСТОЯНИЯ ........................................9 1.1. Введение................................................... 9 1.2. Постановка задачи наблюдения...............................11 1.3. Наблюдаемость и наблюдение в непрерывном времени...........21 1.4. Принцип двойственности................. ...................29 1.5. Управляемость систем с непрерывным временем................31 1.6^ Наблюдение с дискретным временем...........................34 1.7. Литература............................................... 46 Глава 2 ЛИНЕЙНАЯ ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ ....................................47 2.1. История теории фильтрации................................. 47 2.2. Метод минимизации среднеквадратичной ошибки................49 2.3. Оптимальный фильтр Калмана (дискретное время)..............58 2.3.1. Постановка задачи........................................58 2.3.2. Рекуррентное гауссовско-марковское оценивание.......... 60 2.3.3, Рекуррентное оценивание с минимальной среднеквадратичной ошибкой.........................................................64 2.3.4. Определение ОДк).........................................71 2.3.5. Наблюдаемая система с известными входными возмущениями и ненулевым математическим ожиданием начального положения , . 75 2,3.6. Предсказывание (экстраполяция)...........................80 2.3.7. Резюме и заключительные замечания .......................83 2.4. Фильтр Калмана — Б^юси (непрерывное время) ............ 86 2.4.1. Постановка заоачи....................................... 87 2.4.2. Матричное уравнение Винера-Хопфа.........................88 2.4.3. Решение в случае чистой фильтрации (T^t)............... 92 2.4.4. Нецентрированные начальные значения и измеряемые входные воздействия................................................... 98 2.4.5. Предсказывание (.ТуЪ')................................ 100 2.4.6. Заключительные замечания.............................. 101 2.5. Литература................................................102 3
Глава 3 ПРАКТИЧЕСКИ! Ш^БЛЕМЫ ПРИ СИНТЕЗИРОВАНИИ ФИЛЬТРА . . . 104 3.1. Дете,>мини|юаанноо регулирование с обратной связью, зависящей от фя'”,1'<|> о вектора .................................... 104 3.2. Сл< линк'» устройство в контуре регулирования и алгебраическая рн чк лимость..................................................108 3.3. Фиш ip в контуре регулирования и стохастическая разрешимость . .110 3.4. % м< 1ании о матричном дифференциальном уравнении Риккати . . . .116 З.б. Стационарные условия. Фильтр Винера.......................121 3.8. Формирующий фильтр векторного марковского процесса........129 3.7. Понижение порядка фильтра.................................132 3.8. Об исчислении Ито и нелинейной фильтрации . ..............138 3.8.1. Броуновский процесс.....................................138 3.8.2. Стохастическое интегрирование......................... 140 3,8.3. Стохастические дифференциальные уравнения ..............141 3.8.4. Стохастический дифференциал вдоль интегральной кривой...142 3.8.5. Уравнение Фоккера — Планка..............................144 3.8.6. Проблемы нелинейной фильтрации и уравнение Кушнера т Страто- новича.....................i...................................145 3.9. Литература.................................... .......... 148 П риложеиие НЕКОТОРЫЕ ОСНОВНЫЕ ЭЛЕМЕНТЫ МАТРИЧНОГО ИСЧИСЛЕНИЯ.................150 А.1. Понятие вектора и матрицы..................................150 А.2. Групповые операции.........................................153 А.З. Умножение матриц...........................................153 А.4. Линейные системы уравнений и обратная матрица..............156 А.4.1. Решение простой системы уравнений ....................156 А.4.2. Обратная матрица или (мультипликативная) инверсия.....157 А .4.3. Кратные системы уравнений, деление матриц, вычислительные затраты......................................................158 А.5. Проблема собственных значений............................ 160 А.5.1. Характеристическое уравнение..........................160 А.5.2. Теорема Кэли - Гамильтона.............................161 А.5.3. Алгоритм Сурье - Фадеева , ...........................163 А.5.4, Модальная матрица.....................................163 А.6. Квадратичные формы.........................................165 А.7. Нормы векторов............................................167 А.8. Интегрирование и дифференцирование по скалярному аргументу. . .168 А.9. Дифференцирование по векторному аргументу..................169 А.9.1. Градиент .............................................169 А.9.2. Матрица Гесса...................................... .170 А.9.3. Матрица Якоби.........................................171 А.10. Литература . ... ' ..........................172 ДОПОЛНЕНИЕ ПЕРЕВОДЧИКА. НЕКОТОРЫЕ ОБОБЩЕНИЯ ФИЛЬТРА КАЛМАНА - БЬЮСИ................................................173 Д.1. Фильтрация в системах с последействием....................173 Д.2, Фильтрация при вырожденной помехе в канале наблюдений.....179 Д.З. Фильтрация в системах с распределенными параметрами ...... 183 Д.4. Нелинейная фильтрация.....................................185 Д.5. Литература.............................................. 189 4
ОТ РЕДАКТОРА РУССКОГО ПЕРЕВОДА Теория линейных фильтров, предложенная Р. Калманом около 20 лет назад, получила широкое развитие и признание. В насто- ящее время она подробно излагается во всех монографиях, руковод- । тнах и учебниках по статистической теорий систем. Различными авто- рами предложено много новых подходов и доказательств при выводе уравнений фильтров, рассматриваются практические аспекты их реа- ли 1аниж. 11 налагаемая советскому читателю в переводе книга Карла Брам- м>’ра и Герхарда Зйффлинга содержит теорию линейных фильтров К лимана — Бьюси, но имеет ряд особенностей. Прежде всего в книге Мл уровне достаточной строгости дается физически ясная интерпре- тации теории линейной фильтрации Калмана — Бьюси и связь ее с классическим гауссовским методом наименьших квадратов (методом уIлишений). На этой основе дается сжатое изложение теории линей- )п ex фильтров Калмана-Бьюси. Значительное место в книге уделено рл< смотрению практических проблем, возникающих при расчете опти- млльныз фильтров. К ним относится проблема решения матричных уравнений РикКати для ковариационной матрицы ошибки фильтрации, понижение порядка многомерных линейных фильтров, асимптотичес- кие свойства линейных фильтров Калмана и их связь с фильтром I liniofia. Книга содержит большое число примеров, которые придают ей инженерную направленность. Она написана с большим методическим мт т ерством, что позволяет читателю с инженерной подготовкой и<и ледовательно освоить круг идей теории линейной фильтрации и математический аппарат, используемый в ней. Б переводе сохранены обозначения и терминология авторов. Книга будет полезна научным работникам, аспирантам, инжене- рам и студентам, использующим или изучающим теорию фильтрации в стохастических,системах. И. Казаков
1114 дисловиь Эволюция во времени некоторой динамической системы может быть вычислена, если задана математическая модель этой системы и, кроме того, известны входные воздействия и начальные условия. Знание фазового вектора имеете при этом фундаментальное значение как при определении изменения во времени заданной динамической системы, так и при построении управляющей функции, которая долж- на осуществлять целенаправленное влияние на поведение системы. Однако зачастую фазовый вектор недоступен измерению по тех- ническим причинам. В этих случаях он должен быть вычислен на основании результатов измерений выхода системы. Ввиду ошибок измерений это вычисление приводит, вообще говоря, не к точному, а лишь к приближенному значению - к так называемой оценке фа- зового вектора. Если упомянутая задача решается с помощью детерминированной процедуры (и, следовательно, случайные ошибки измерений не учи- тываются), то говорят о методе Наименьших квадратов или о детер- минированном наблюдении. Если же относительно ошибки измерения известны некоторые подробности, например, ее математическое ожи- дание и Дисперсия, то методами теории вероятностей можно полу- чить лучшее, или оптимальное, значение оценки. В этом случае ошибки наблюдения измерительного устройства, а также неизвест- ные входные воздействия (возмущения) интерпретируются как век- торные случайные процессы и говорят о задаче стохастической фильтрации. Задача линейной фильтрации, первоначально изученная Колмого- ровым и Винером в специальном случае, была позднее всесторонне исследована Кайманом и Быоси. Многочисленные приложения под- твердили успех их теории. Настоящая книга представляет собой введение в эту теорию, При этом изложение развивается постепен- но и по возможности элементарными средствами. В главе 1 для линейных систем с непрерывным и дискретным временем ставится и решается задача наблюдения. Попутно введе- ны понятия наблюдаемости» управляемости и двойственности. В ка- честве предварительного шага к фильтру Калмана изложен гауссов- ский метод наименьших квадратов. В главе 2, являющейся основной в книге, на основе метода наименьших квадратов и процедуры минимизации среднеквадратичной ошибки, приведены постановка задачи, предположения и решение 6
задачи фильтрации Калмана (для линейных систем с дискретным временем). Отсюда новым способом с помощью предельного пере- хода получен фильтр Калмана - Бьюси (для линейных систем с не- прерывным временем). Несмотря на ограниченный объем "книги, сде- лана попытка дать полное и точное представление об основных по- нятиях, выродах и результатах теории. Наряду с этим исследованы вопросы, связанные с построением математических моделей наблю- даемых систем и реализацией фильтров. Последняя глава посвящена рассмотрению избранных задач, при- мыкающих к теме книги: следящее устройство в контуре регулирова- ния, алгебраическая разделимость, фильтр Винера как специальный случай фильтра Калмана - Бьюси, понижение порядка фильтра. Завер- шают главу некоторые результаты, касающиеся исчисления Ито и нелинейной фильтрации. Углубленное понимание фильтра Калмана - Бьюси предполагает владение необходимыми сведениями из теории вероятностей и тео- рии случайных процессов. Новички в этих областях сталкиваются с двумя проблемами. С одной стороны, эмпирически они подготав- ливаются к значительным трудностям абстрактного характера, вы- текающим из перехода от обычного детерминированного способа рассмотрения к математическому описанию в форме стохастических понятий. С другой стороны, крайне трудоемким и требующим значи- тельного времени является выбор сведений из обширной литературы по теории вероятностей, необходимых для фильтра Калмана - Бьюси, Поскольку для него нужны вполне определенные разделы. Для решения обеих проблем Г. Зифф ли иг написал в этой же серии книгу "Стохастические основы фильтра Калмана - Бьюси (теория вероятностей и случайные процессы)". Она образует единое целое с настоящей книгой "Фильтр Калмана - Бьюси: детерминированное наблюдение и стохастическая фильтрация", написанной совместно с К. Браммером. В первой из упомянутых книг вначале дано краткое описание динамической системы посредством фазовых переменных. Затем гнев- ная часть книги вводит читателя элементарным способом в теорию вероятностей и теорию случайных процессов, причем никаких пред- варительных знаний из этих областей не предполагается. Далее показано как изменяются свойства случайного процесса при прохож- дении его через линейную систему и как эти измененные свойства могут быть вычислены. Содержание каждой из двух книг дополняет написанное К. Брам- мером приложение, посвященное Матричному исчислению. Первоначально весь материал должен был появиться в опном томе. Однако произведенное расчленение на два тома имеет следую- щие два преимущества; 1. Читатель, уже знакомый с основами теории вероятности, нуждается в покупке только второго тома. 2. В первой книге основы стохастики ИЗлЬжены столь подробно и в такой общности, что она может найти самостоятельное применение в качестве учебника. 7
О/'Нако для того, чтобы выявить общность основной концепции основания пля выбора основных понятий, и взаимосвязь содержаний об< нх книг, в них в качестве авторов названы оба Соавтора, а в на чишиях книг - общее словосочетание "Фильтр Калмана - Бьюси." LJ написании обеих книг принимали участие не только авторы. Поэтому мы хотели бы поблагодарить всех тех, кто помогал их созданию. Мы благодарны прежде всего терпению и снисходитель- ности издателя серии * Методы теории регулирования," Однако пер- вым мы должны поблагодарить проф. Фоллингера, Без его постоянной моральной поддержки и энергичной помощи замысел этой книги не мог бы быть реализован. Мы благодарим фрау Риту Белы, тщательно перепечатавшую сложную рукопись, фрау Ильзе Кобер, изготовившую рисунки, а также доктора Эриха Циглера за трудную работу по составлению предметного указателя. Мюнхен, октябрь 1974, Карлсруэ К. Браммер, Г. Зиффлинг
Глава 1 НАБЛЮДЕНИЕ ВЕКТОРА СОСТОЯНИЯ 1.1. Введение С давних времен естествоиспытатели и инженеры интересова- лись исследованием окружающего их физического или технического мира. При ,этом для понимания сущности некоторого процесса не- обходимо экспериментально определить лежащие в его основе зако- номерности с помощью исследования и наблюдения и представить их в форме математической модели. Существенным шагом в этом направлении, началом которого послужило открытие известного за- кона Ньютона, было введение динамических моделей. Цель построения модели состоит обычно в получении количест- венных выводов о поведении рассматриваемой системы, либо для описания процесса, оканчивающегося в настоящее время, либо для предсказания будущих событий и экспериментов. С течением времени математическая модель физического мира все более совершенствуется. Наряду с этим растут и требования к точности процедур измерения, оценивания и экстраполяции инте- ресующих исследователей величин. Так, например, в 1801 г. пер- вый открытый астероид Церера скрылся в солнечных лучах из поля зрения, причем исследователи успели пронаблюдать его дви- жение только на 1/40 части его орбиты; астрономы тщетно пытались определить его местоположение с другой стороны солн- ца. К.Ф. Гауссу, однако, удалось обнаружить траекторию Цере- ры с помощью установленного им в 1795 году метода наимень- ших квадратов столь точно, что астероид мог быть вновь об- наружен С1.13. Метод наименьших квадратов, приводящий в простейших специ- альных случаях к алгебраическому среднему, представляет собой классическую процедуру сглаживания случайных ошибок измерения (метод уравниваний). Уже в 1821 году Гаусс предложил рекуррентный вариант про- цедуры, позволяющий корректировать ранее вычисленную оценку с учетом вновь поступивших дополнительных измерений без необхо- димости повторять все предшествующие вычисления. В 1950 году Плакет С 1.3] вновь использовал эту идею и обобщил ее на случай нескольких одновременно производимых дополнительных измерений. В настоящей главе задача наблюдения формулируется в обычном для теории регулирования смысле. Она состоит в необходимости 9
оценки недоступного вектора состояния некоторой регулируемой системы на основе наблюдений ее выхода. Возмущения на входе системы в задаче наблюдения не учитываются. Ошибки наблюдения выхода при этом, правда, рассматриваются, но не конкретизируются. Таким образом, эта задача является предшественником и частным случаем задачи фильтрации. Изложение ведется в пространстве состояний, причем рассмотре- ны предложенные Калманом £1,4, 1.5] понятия управляемости, наблюдаемости и двойственности. Главным результатом этой главы являются структура законов наблюдения в различных формах, даюшиХ решение задачи наблюдения. При этом изучены случаи как непрерыв- ного, так и дискретного времени. Установлено, что оценка фазо- вого вектора может быть осуществлена посредством блочной обра- ботки совокупности измерений в рамках гауссовского метода наи- меньших квадратов и что матрица наблюдений Калмана эквивалент- на гауссовской нормальной матрице, соответствующей задаче. Законы наблюдения для непрерывного и дискретного времени имеют соответственно вид интеграла или суммы. Это позволяет подходящим образом преобразовать их к системе соответственно дифференциальных или разностных уравнений, в результате чего за- кон наблюдения сводится к рекуррентной обработке последователь- но получаемых результатов измерений. Интерес к этой форме наблю- дения и оценивания резко возрос в конце пятидесятых годов. С од- ной стороны, потребность в этом в то время возникла из-за разви- тия полетов в космосе. С другой стороны, появившиеся тем време- нем быстродействующие вычислительные машины давали возможность выполнять оценивание в реальном масштабе времени. В этой связи происходит перемена также и в интерпретации систем наблюдения и фильтрации. Они более не интерпретируются с точки зрения частотной характеристики или системы передачи инфор- мации, как это имело место во времена Винера, Беде и Шеннона, а представляют собой вычислительные алгоритмы для вычисления в реальном масштабе времени гауссовской и гауссовско-марковской оценки, оценки с минимальной дисперсией, условного математичес- кого ожидания или даже самого условного распределения. Рекуррентные законы наблюдения и фильтрации в виде дифферен- циальных или разностных уравнений могут быть непосредственно реализованы с помощью несложной вычислительной техники или вы- числительных программ. Они также справедливы и для зависящих от времени систем регулирования на конечном временном интервале наблюдения. Многочисленные применения методов наблюдения и филь- трации, особенно для определения траекторий подводных, воздуш- ных и космических кораблей, доказали практическое значение этой теории. Первое применение ее было описано в £1.6, 1.7] Задача фильтрации представляет собой обобщение задачи наблю- дения, рассматриваемой в настоящей главе в качестве предвари- тельной. При фильтрации учитываются как случайные возмущения, так и ошибки наблюдения, причем фильтр имеет ту же структуру, что и соответствующее следящее устройство. Разница между ними 10
состоит в том, что коэффициент усиления фильтра является опти- мальным относительно заданных статистических свойств случайных возмущений и ошибок измерений. В то же время коэффициент уси- ления следящего устройства может быть выбран и из иных сообра- жений. Мы вновь вернемся к задаче фильтрации в главе 2. 1.2, Постановка задачи наблюдения В технических задачах регулирования и, в особенности, при по- строении современной теории оптимального управления возникает не- обходимость в процедурах оценивания и фильтрации. Законы управ- ления, полученные в результате применения вариационного исчис- ления (Каратеодори £1,8]), динамического программирования (Беллман £1.9]) или принципа максимума (Понтрягин £1.1ОЗ), требуют, обычно, для своего применения знания всего вектора сос- тояния регулируемого объекта. Классического регулирования по принципу обратной связи, основанного лишь на знании выходных величин, более уже недостаточно. Напротив, возникает проблема - по результатам наблюдений выходных величин определить вектор состояния системы. Условимся говорить о задаче наблюдения, если возмущениями и ошибками измерений можно пренебречь. Возникающую в противном случае задачу будем именовать задачей фильтрации. В этом параг- рафе формулируется математическая постановка и приводится ис- следование задачи наблюдения. Постановка задачи наблюдения. Пусть имеется динамическая система вида Х(П-£11 а] ^lt) = C£i)x(t) (Нъ) Здесь 1-П-мерный неизвестный вектор состояния, -мерный известный вектор регулирующего воздействия и -вектор изме- ряемых точно выходных величин; А,В,С - заданные матрицы со- ответствующей размерности (рис. 1.1, верхняя часть). Требуется определить оценку для или для Х(Т). Замечание. В задаче наблюдения определение векторов X(/bq") и ®£t) в принципе эквивалентно. Действительно, если известен один из них, то другой может быть найден с помощью интегриро- вания уравнения (1.1а) либо в прямом, либо в обратном времени. Решение задачи наблюдения тривиально, если матрица состава измерений квадратная и невырожденная, так как в этом слу- чае, очевидно, Xti>C"llb)^(i) (12 s) Последняя ситуация имеет место, если например, можно разместить достаточное количество измерительных устройств для наблюдения 11
за всеми переменными состояния объекта, а систематическая и слу- чайная ошибки измерения пренебрежимы. Заметим, однако, что на практике каждое дополнительное измерительное устройство связано с новыми расходами. Поэтому в большинстве реальных ситуаций вообще невозможно получить квадратную невырожденную матрицу состава измерений. Таким образом, при наличии лишь небольшого числа выходных величин для построения оценки фазового вектора должны быть рассмотрены иные процедуры наблюдения. Неизвестное начальное ислпвие | Наблюдаемая система Ошибки измерения Недоступная область Следящее устройство Рис. 1.1. Наблюдаемая система и следящее' устройство в форме простых моделей. Одна из Них состоит в следующем. Продифференцируем выходную величину 'y(t’) такое число раз, чтобы стала невырожденной расши- ренная матрица состава измерений (!, образованная в результате комбинации матриц состава измерений исходного и продифференци- рованных уравнений наблюдения. Разъясним сказанное подробнее для системы Tl-ro порядка с постоянными коэффициентами и ска- лярным входом и выходом вида (1.3 а’) у It}- e'XliY (.1 И) Продифференцируем последовательно уравнение (1.3 ъ) по t и за- 12
меним производную X в Соответствии с (1.3 а). Получим - = с’х, у-c'i - с'Ах + e'Ju, у - с'Ах+еЧй - б'Аах + t'A^u+t4u, Т1-.........QIU)’) L«0 Замечание. Аналогичные преобразования могут быть приме- нены и к системам общего вида (1.1). При этом надлежит исполы- зовать правило дифференцирования произведения и предположить до- статочную дифференцируемость матриц А,В,С. В результате, наряду с членами, приведенными выше, появятся еще слагаемые, завися- щие от производных матриц А,В,С (соотношения (1.25). Будем рассматривать вектор-строки, фигурирующие в системе уравнений (1.3) в качестве сомножителей в скалярных произве- дениях с вектром X, как строки матрицы размером П >71. Перенесем далее все известные величины в одну часть. Получим с' с'А -y(t) С'АПЧ (n-i) , .tt-2-ь. (И if (i)- E t'A i U 0) 1=0 а) Если в левой части этого соотношения матрица при Xlt) — невы- рожденная, то уравнение (1.3 d) можно разрешить относительно X(.t). В противном случае точное вычисление X в принципе невоз- можно, что будет доказано далее в разделе о наблюдаемости. Там же будет установлено, что в этом случае невозможно получить и дополнительные линейно независимые уравнения для X за счет вычисления дальнейших производных, т.е. за счет присоединения к матрице при X строк вида с'А**, (/А**^,... (теорема Гамиль- тона - Кэли). С теоретической точки эргения в отношении изложенного метода могут быть высказаны некоторые замечания. Прежде всего, для систем более высокого порядка (П ^3) указанный метод практически едва ли применим, ибо при последовательном дифференцировании да- же совершенно незначительные измерительные ошибки могут стать недопустимо большими. Значок □ перед номером формулы означает, что данный номер относится к группе формул, перед вёрюой из которых стоит значок . (Прим, ред.) 13
Далее, в случае разрывности управления или его производных процедура последовательного дифференцирования становится непри- менимой. Наконец, свой вклад внесут также и входные возмущения, кото- рые до сих пор не принимались во внимание. Производные этих возмущений входят в правую часть уравнения (1.3 а), подобно производным U. Упомянутые производные 'возмущений еще более ухудшат результат, поскольку они недоступны точному учету. В качестве следующего способа решения задачи наблюдения исследуем применимость модели регулируемого объекта. Как из- вестно общее решение уравнения (1.1 а) имеет вид t X(t)-*(t.i0)® ВЩ UCt)(t t . (М) Здесь Ф(1,Ф0)- переходная матрица, соответствующая А(Е)Е1.2О]. Решение (1.4) состоит из аддитивно входящих свободного и вы- нужденного членов. Если система достаточно устойчива, то свободный член Ф(Ф,Ф^) быстро затухает. т.е. в этом случае фазовый вектор определяется лишь вынужденным решением, равным t j$(t,t)Bcnu(T) dt. t о Эта часть решения может быть получена, например, с помощью мо- дели объекта, имеющего нулевые начальные условия и то же самое значение регулирующего воздействия, что и у исходной системы. Со- образно сказанному, следящее устройство описывается соотношениям ми (рис. 1.1 ) »(М-0. Здесь оценка вектора 4(f).Очевидно, что выходная величина 'ULt'i никак не была использована. Преимущество изложенной процедуры наблюдения состоит в том, что не возникают вопросы об ошибках измерений и дифференцируе- мости (предполагается лишь интегрируемость!). Ее недостатком является то, что поведение во времени ошибки измерения, равной (Д-6) определяется только динамикой наблюдаемой системы и совершенно не зависит от результатов измерений. Последнее утверждение легко следует из уравнения для ошибки измерения, которое получается в результате вычитания соотношения (1.5) и (1.1а) и имеет вид А ~ Л ~ At 14
Названный недостаток может быть устранен, если дополнить модель уравнением выхода уСМ-бШХСЬ'). U7) Сравним теперь оценку выхода с фактически измеренной выходной величиной ^(1) и используем их разность для улучшения опенки Х(_Й- Тогда следящее устройство принимает вид (рис. 1.2) Л (i)- A(t) X(i>B(i)U Ш+К (t)-C СПX (i)}, U-В) *десь К СЛЛ - подлежащая определению матрица усиления размером П»ГП. Для исследования поведения ошибки оценивания вновь образуем (иэность уравнений (1.1а) и (1.8). С учетом (1.1&) имеем “ « (t)-А (Н X 1Й-к СП{С U)X(t)~ С W® (})], (До V „ у. 9) — « (4)«{А (й- К СП С (t)} X li). Cl * A /v Замечание. Уравнения для X и X имеют, очевидно, одну и ту жо динамическую матрицу, равную А-КС. Следящее устройство PNC. 1.2. Наблюдаемая система и следящее устройство в виде мо- далм с обратной связью. 15
Определим теперь динамику наблюдающего устройства за счет выбора матрицы усиления Kit) так, чтобы ошибка наблюдения x(.t) достаточно быстро затухала. Естественно стремление выбрать JC возможно большим. При «этом, однако, необходимо добиться компро- мисса между получающимся усилением и имеющейся чувствитель- ностью к шуму (шириной полосы!) наблюдающего устройства. Та- ким образом, конкретный вид наблюдающего устройства сводится к выбору матрицы К. К сожалению, далеко не тривиально выбрать для объекта И-го порядка с ТП выходами все П*1Т1 коэффициентов усиления k. наблюдающего устройства сразу при всех t ааже Неоптимальным образом. Впрочем, для простых систем указанный выбор может быть иногда осуществлен с помощью моделирования на аналоговых вычислительных машинах. Однако ясно, что для рас- смотрения иных ситуаций необходимы регулярные алгоритмы синтеза K(t). Используя материал последующих глав, уже здесь можно сказать, что следящее устройство вида (1.8) имеет ту же структуру, что и фильтр Калмана — Бьюси. Процедуру определения этого фильтра мож- но приспособить и при синтезе K(t). При этом, конечно, необходимо знать статистические свойства возмущений и ошибок измерений. Элементарный алгоритм, обходящийся без последнего предположения, приведен в параграфе 1.3. Кроме того, для однородных по времени объектов существует несколько специальных алгоритмов. Два из них будут здесь кратко описаны. Пусть дан однородный по времени объект fl-го порядка со ска- лярным выходом. Запишем уравнения состояния системы и выхода в нормальном для задач наблюдения виде. Тогда последний столбец матрицы А состоит из умноженных на -1 коэффициентов характерис- тического уравнения 11.201. Остальные элементы матрицы А и вектора О’ равны либо нулю, либо единице. Таким образом, имее'м ’О 1 alt) «lt)+BulD, -«t. Vit)» Г о П-1 1 ] act). Наблюдающее устройство имеет в рассматриваемом случае также вид (1.8), где матрицы А,В,С заменены в соответствии с нор- мальней формой уравнений состояния и наблюдения. Матрица усиле- ния К имеет размер nxi.T.e. представляет собой И-мерный вектор- столбец. Значит, динамическая матрица A-КС в дифференциальном 16
уравнении (1.9) для ошибки наблюдения равняется Ввиду специфики матриц А и С в данном случае варьируется лишь последний столбец матрицы А, т.е. дифференциальное уравне- ние ошибки по-прежнему имеет нормальный для задач наблюдения вид. В последнем столбце теперь стоят отрицательные числа, име- нуемые коэффициентами характеристического уравнения для ® или для X. Нетрудно далее задать определенное характеристическое уравнение или желаемые полюса (собственные значения) для наблю- дающего устройства (или для дифференциального уравнения ошибки), а затем вычислить коэффициенты |гсиления к*, >^пс помощью обычной процедуры сравнения коэффициентов (подобная двойствен- ность справедлива и в отношении управляющих объектов, имеющих нормальную в теории регулирования форму [1.111). Пример 1.1. Самолет, сохраняющий текущее положение доста- точно точно (например, с помощью наземных систем навигации или устройства ТА CAN), нуждается, кроме того, в данных о ско- рости полета над Землей. Желая избежать установок для измере- ния скорости (радар, основанный на эффекте Допплера, устройство, использующее свойство инерции), необходимо оценить скорость с помощью наблюдающего устройства. Рассмотрим движение точки на прямой. Обозначим через скорость, а через - координату точки. Запишем уравнения объекта в нормальном для задач наблю- дения виде г [0 ‘1 Подобным же образом производится измерение ускорения и. Наблюдающее устройство должно иметь полюсы при 5=-{± I, т.е. его характеристическое уравнение имеет вид аа+2б+2=0. Сравне- ние коэффициентов приводит к соотношениям 0~k =-2, 0-к -=-2. Таким образом, к^= 2.Следовательно, наблюдающее устройство 17
имеет вид Рисунок 1.3 показывает соответствующую аналоговую схему. Кро- ме упомянутых измерителей в ней требуется два интегратора и один усилитель в цепи обратной связи. Оценка состояния системы с помощью ее точной математической модели представляется чрезвычайно заманчивой. При этом, однако, возникает вопрос, не будут ли слишком велики издержки, связанные с технической реализацией. Действительно ли необходимо, например, для системы четвертого порядка с тремя выходами реализовать наблюдающее устройство в виде четырех дифференциальных уравне- ний, если для чисто алгебраического определения X нехватает все- го лишь одного линейно независимого уравнения? Общее утвержде- ние на этот счет гласит: для определения" вектора состояния вполне наблюдаемой системы ft-го порядка с Щ линейно независимыми вы- ходами достаточно иметь наблюдающее устройство порядка Ц-т. Следуя работе Ц1.12], рассмотрим объект вида (1.1) с постоян- ными коэффициентами. Используя матрицу состава измерений С, имеющую ранг ТП, введем в рассмотрение некоторую матрицу с по- стоянными элементами Б размером (n-tn')«*п,строки которой долж- ны быть линейно независимы друг относительно друга и относитель- но строк матрицы С. Обозначим через 2 вектор, полученный в ре- Переносное движение Измеритель самолета координаты Рис. 1.3. Аналоговая схема построения оценки скорости, основан- ная на наблюдении координаты. 18
®(t)- (140) эультате преобразования вектора состояния X(f) с помощью матри- цы D. Имеем _a(t)J LD- Расширенная матрица, образованная матрицами С и D будет квад- ратной и невырожденной. Поэтому задача наблюдения может быть решена посредством обращения введенной расширенной матрицы, если только удалось построить такую оценку а вектора 2, что ошибка E-g-a стремится к нулю. Для этого предположим, что из- менение оценки описывается соотношением Ал л Для исследования поведения во времени ошибки 2 запишем соответ- ствуюшее дифференциальное уравнение: ot л# . Л . л _ . (L а . ТГ Z (Ь)- — (а-2 >D — 2 Ct). At At At (4.11) Заменим здесь производные X и Az/lt в соответствии с дифферен- циальными уравнениями (1.1а) и (1.11). Получим в (й- DAx- Fe + (DB- G) и - . Подставляя сюда Z-Dx-г и у* СX, заключаем, что -7Т Z (t)=F 5 (DA- Г В - Н С) х (t)+ (DB-Cr)u(i). ibv Отсюда вытекает, что ошибка 7L стремится к нулю независимо от X и И, если матрицы в уравнении (1.11) выбраны следующим обра- зом: Г асимптотически устойчива (т.е. собственные значения мат- рицы F имеют отрицательные действительные части), G-DB, (112') матрица Н определяется уравнением DA-FD=HC. В результате получаем, что Значит, z(t)= eap(Ft)z(O), (113) 19
или 2(t)= Da(t)- eacp(Ft) £ (0). Функция может быть использована в качестве аппроксима- ции Ztt) в уравнении (1.10). Тенерь построение наблюдающего устройства сводится, по-существу, к решению уравнения (1.13) при дополнительных ограничениях об устойчивости матрицы F и взаимной независимости строк матриц В и С. Указанное решение существует, если матрицы А и F имеют различные собственные значения (подробности см. в [1.121). Пример 1.2. С помощью изложенного метода порядок наблю- дающего устройства в примере 1.1К равный 2, может быть сделан равным 1. Положим D = [OL^ tf/] и возьмем F=vl,H—i. При этих пред- положениях и тех же значениях А и Ci что и в примере 1.1, полу- чаем, что уравнение (1,13) принимает вид [МИДАМ0 ч- Решение этого уравнения, очевидно, равняется D"[~l Q. Далее, вви- ду (1.12) имеем Й=-£. Таким образом, в соответствии с (1.11), (1.10) наблюдающее устройство описывается соотношениями ^U)--W)-u(t)+y(t), Рис. 1.4 показывает соответствующую аналоговую схему. Отметим, что в ней требуется лишь один интегратор. Выше в этом параграфе кратко рассмотрена постановка задач наблюдения. Изложение в известной мере носило элементарный ха- рактер, Тем не менее уже здесь были затронуты некоторые важные понятия, проблемы, их взаимосвязь и методы решения, которые да- Ускорение Переносное движение самолета Измеренная координата у=х2 Рис. 1,4. Аналоговая схема следящего устройства Луенбергера. 20
лее постоянно встречаются в более обшей форме. Изложение каса- лось только случая непрерывного времени. Исследование задач на- блюдения с дискретным временем осуществляется совершенно ана- логично и подробно проведено в параграфе 1.6. 1.3. Наблюдаемость и наблюдение в непрерывном времени Понятия наблюдаемости и управляемости являются основополага- ющими в современной теории систем. Именно этими свойствами необходимо обладать системе в том случае, когда ее состояние должно быть успешно управляемо или наблюдаемо. Потребность в ( оответствующих критериях возникла в особенности при рассмотре- нии объектов с несколькими регулирующими воздействиями и изме- рениями, поскольку исследование вырожденных систем несравненно руднее, чем традиционных объектов с одним входом и выходом. Понятие "управляемость" возникло, по-существу, в вариационном Мс'ШСлепИИ И было в дальнейшем использовано в теории опти- мального управления. Понятие "наблюдаемость" связано с одной < пениальной нормальной матрицей в гауссовском методе наимень- ших квадратов и было Прежде всего использовано в теории опти- мальной фильтрации. Введение в науку обоих понятий, изучение и формализация их с учетом технических требований управления, а i/шже доказательство их дуальности проведено Калманом в работах I 1.4, 1.53. Обсудим прежде всего проблему наблюдаемости в связи с изло- женным в предыдущем параграфе. Задача наблюдения состоит в оценке состояния X(f) динамической системы (1.1) на основе изме- рений выходной величины и входной Utt). Из общего решения (1 .4 ) уравнения (1.1а), как уже отмечалось, вытекает, что вход- или величина U If) создает вынужденную часть решения, которая аддитивно прибавляется к свободной части решения, порожденной начальным условием Xtip). Следовательно, влияние utf) на X (i) можно оценить совершенно независимо. Собственно задача наблю- шчия состоит в определении оставшейся свободной части решения Соответствующая свободная часть в ^(.f) получается при вы- читании из измеренной выходной величины вынужденной части реше- нии X(f), умноженной на C(.f). Предположим далее, что измеряемая величина IjQt) уже преобра— и>ваиа описанным способом и рассмотрим лишь однородную систе- му fl-го порядка: а) i(t>A(f)®(f), x(t0)=? C(i)x.(f). U-A1! V) Матрицы А и С заданы для всех t^. Выходной сигнал y(t) Является ТП-мерным и известным в интервале наблюдения 21
Определение 1.1. (1) Некоторое состояние X (ip системы (1.14) называется на- блюдаемым на интервале если его можно однозначно опре- делить по результатам измерений “у(ф) на интервале . (ii) В том случае, когда каждое состояние в указанном смысле наблюдаемо, система (1.14) называется вполне наблюдаемой на интервале £ t (ill) Если для каждого (^существует такое, что (11) выпол- няется, то система (1.14) Называется вполне наблюдаемой всюду. В действительности при моделировании системы актуальны лишь свойства (11) и (111),т.е. полная (вполне) наблюдаемость. Таким образом, представляют интерес эффективные критерии полной наблю- даемости, равно как и практичные законы наблюдения. Приводимые ниже рассуждения могут показаться на первый взгляд несколько формальными. Позднее, однако, им будет толкование посредством их взаимосвязи с методом ратов (параграф 1.6). Начнем с того, что сконструируем первый закон Решение однородного дифференциального уравнения (1.14а) с пере- ходной матрицей Ф(1,Ъ) имеет вид X(t. )“$((:.,t)x(t) для t 4t4t.. 4>' 1, и x Разрешая его относительно ЗС(1) и подставляя в (1.14Ъ), полу- чаем дано наглядное наименьших- квад- наблюдения. U15") Домножим обе части на Ф’С’: Ф'(Л, t£) С’(t) (Ь)-Ф' (t,tp C’(t) С It) Ф(1, tp ® itp. Заменим здесь t на t и проинтегрируем по t в пределах от до t. В правой части постоянный вектор ОС (t.") можно вынести 1 1 из-под знака интеграла; оставшийся интеграл для краткости обозна- чим через М- .1 ФГ1Т,1Рd’l/K'jC(Т)Ф(Г,1,) tLv. 1 1 MW. Тогда справедливо соотношение U 46) (117} [ tp C'iny CtU-P-M (tptp я (tp. % Левую часть этого равенства можно, очевидно, выразить через взвешенный интеграл от измеряемой величины у. Для определения Ф(Ьр уравнение (1.17) должно быть разрешено тшбо непосредст- 22
венно через обратную матрицу, либо с помощью алгоритма Гаусса или Холецкого С1.13]. Единственнре решение для Просуществует тогда и только тогда, когда матрица Mliptg) невырождена. Замечания. (1) Определенная выражением (1.16) матрица М называется матрицей наблюдаемости (первого типа). Это симметричная квадрат- ная матрица порядка п. (11) Домножим обе части уравнения (1.17) на вектор Далее вынесем этот вектор в левой части из-под знака интеграла. Тогда, используя (1.15) в транспонированном виде, получаем окон- чательно следующее выражение для энергии измеряемого сигнала: (1 -18) (in) Поскольку левая часть этого уравнения, равная интегралу от суммы квадратов, никогда не может стать отрицательной, то М всегда неотрицательно определена, т.е. для всех ®, (iv) Ниже для соотношений (1.16) и (1.17) будут выведены более удобные для использования дифференциальные уравнения. Теорема. 1.1. Для полной наблюдаемости системы (1.14) на Интервале необходимо и достаточно, чтобы матрица наблю- даемости М (Л4,Ъ0), определяемая соотношением (1.16), была невы— рождена *). Доказательство. Достаточность была уже установлена выше как следствие закона наблюдения (1.17). Необходимость будет доказана от противного. Если вырождается, то найдется по крайней мере один вектор Я 1^)¥0 такой, что MU4,t0)x(t4>0. Для этого OCltp обращается в нуль правая часть уравнения (1.18). Отсюда, с учетом левой части (1.18) следует, что во всем интервале в силу своей непрерывности. Однако, такой же выходной сигнал возникает также и при ®(Ь)яО. Таким образом, при наблюдении по крайней мере два разных состояния оказыва- ются неразличимыми. Следствие 1.1 а. Система является вполне наблюдаемой всюду тогда и только тогда, когда для каждого t найдется t <t такое, i 0 1 что невырождена. Если для некоторого является положительно оп- ределенной, то положительно определена также и при *) Симметричная, неотрицательно определенная матрица, будучи невырожденной, является положительно определенной, все ее собственные значения положительны. 23
всех t > t ввиду неотрицательной определенности интеграла в (1.16), Пусть состояние Х(Л±)однородной системы известно точно, хотя бы для одного какого-либо момента времени Тогда его можно вычислить и для остальных моментов времени i, больших или мень- ших tp с помощью интегрирования однородного дифференциального уравнения или умножения на переходную матрицу. Это положение, однако, имеет главным образом теоретическую ценность, так как на практике наблюдаемые системы не будут абсолютно свободными от возмущений или от влияния неизвестных входных сигналов. Закон наблюдения (1.17) заключается в интегрировании измеряе- мой величины ^(.t). В параграфе 1.2 было уже показано, что зада- ча наблюдения - по крайней мере в теоретическом отношении - мо- жет быть решена также путем повторного дифференцирования выход- ного сигнала. Воспользуемся здесь вновь указанным образом дейст- вий, так как при этом получается существенно более простой крите- рий полной наблюдаемости для инвариантных по времени систем. Итак, пусть система (1.14) имеет постоянные параметры А и С. Положим 1^t) = ^t)=Ci(t) -CAaeit), ^lt)= CAxW = CA2x(t), (n-i) _ n~l у (t)« = CA X(i). □ (.1,19) Покажем, что можно отказаться от дальнейшего дифференцирования. Действительно, согласно теореме Кэли - Гамильтона (равенство А.41) каждая квадратная матрица tl-ro порядка удовлетворяет свое- му характеристическому уравнению. Поэтому матрицу А можно представить в виде линейной комбинации предшествующих степеней: А =—cGnI—«G А--•. ~ oG 1 A (i,20) (Здесь oG^- коэффициенты характеристического уравнения). Умножая уравнение (1.20) на С слева, получим САП=-<40С-Л1СА--.-оСп_1САП~4 (1.21) откуда, умножая наХ0>) справа, заключаем, что С помощью повторного умножения (1.21) справа на Д и соот- ветствующих подстановок уравнения (1.20) в последние слагаемые можно записать матрицы СА , С А ,... также в виде линейной комбинации матриц С,СА»..., САП . Соответственно также и проиэ- (П+1) (И* 21 . „,(.11) _ Л водные Ц ,14 подобно представляют собой линей- ные комбинации ty, Таким образом производные 71-го порядка и выше не вносят ничего нового. 24
C_- I Ir Л ““ до CA в виде матрицы M размера П т х п : 11.22) Тогда система уравнений (1.19) примет вид MX(t). (1.23) Это закон наблюдения в виде системы fl-тп линейных уравнений с П неизвестными переменными состояния. Искомое состояние Х(1) можно однозначно отсюда определить тогда и только тогда, когда матрица коэффициентов М имеет ранг П, т.е. имеет fl линейно не- аднисимых строк. _ Определяемая уравнением (1.22) матрица М называется матри- цей наблюдаемости (второго рода). Построение ее значительно про- ще, чем матрицы наблюдаемости первого рода в уравнении (1.16), гак как здесь не нужна переходная матрица и нет необходимости н интегрировании. Достаточно С или САЛ смотря по обстоятельст- вам, умножить справа на А. В противоположность М матрица М. но симметрична и щи fl>l также не будет квадратной. Теорема 1.2. Для полной наблюдаемости системы (1.14) с неза- висящими от времени коэффициентами А и С необходимо и достаточно, чтобы матрица наблюдаемости М,определяемая соотношением (1.22), имела ранг п (п равняется порядку системы или матрицы А). Доказательство. Достаточность этого условия была уже у< )ановлена при помощи закона наблюдения (1.23). Необходимость иновь докажем от противного. Если ранг М меньше то для произ- вольного t. найдется по крайней мере одно ®(i,)?t0 такое, что Для такого XCt^) обращается в нуль Ц и все производ- ные в момент времени Следовательно, 1^(1)в 0. Но подобный выходной сигнал возникает и при X(t)*0. Таким образом, для каж- дого момента времени существуют по крайней мере два неодинаког- ных состояния, которые неразличимы по наблюдению 1^. Критерий 1.2 сравнительно прост в обращении. Именно поэтому >п рекомендуется как раз для-инвариантных по времени систем, наблюдаемость которых надлежит проверять перед созданием следя- щего устройства (или- фильтра). 25
Интервал наблюдения [t0, 1q] играет для инвариантных по вре- мени объектов не слишком большую роль. Дело в том, что у этих систем все события зависят лишь от разности по времени, так что начало интервала всегда можно положить равным нулю. Следующее предложение, кроме того, утверждает, что длине интервала может стать как угодно малой (ввиду закона наблюдения (1.23) это и не удивительно). Теорема 1.3. Для полной наблюдаемости системы (1.14) с не- зависящими от времени коэффициентами А и б необходимо и доста- точно, чтобы матрица наблюдаемости М(6,0)из равенства (1.16) бы- ла невырожденной для произвольного £ > 0. Доказательство достаточности. Если М(б,0) невырож- дена, то ввиду инвариантности по времени наблюдаемых систем, также невырождена для каждого Поэтому согласно следствию 1.1а система является полностью наблюдаемой. Дока- зательство необходимости проводится с помощью £ 1.16] или £2.12] (в двойственном случае см. также L1.5]). Вернемся теперь снова к однородным системам, с зависящими от времени коэффициентами. Повторное дифференцирование измеряе- мой величины ^(t'), которое для систем с постоянными коэффициен- тами порождает очень простую матрицу наблюдаемости второго рода, можно также проводить и для систем с зависящими от времени параметрами, поскольку матрицы А и С довольно часто являются дифференцируемыми. При этом запись может быть несколько сокра- щена, если ввести в рассмотрение оператор (1.24) Матрица, на которую действует этот оператор, должна быть умноже- на слева на А и, кроме того, один раз продифференцирована по t, после чего оба результата необходимо сложить. Так, например, у It)=с (t) » (t)+ С (i) a (t> [ с (t) А (t)+ С ti)] х (t )= L { C (t)} a (i). Обобщение матрицы наблюдаемости второго рода для систем с переменными по времени коэффициентами имеет, таким образом, вид*) C(t) M(t):- (4.25) 26
В рассматриваемом случае для полной наблюдаемости достаточно, чтобы МСМ имела ранг П. Подробности, связанные с необходимостью см. в Q1.14, 1.15, 2.121. В связи с теорией фильтрации установленный вначале общий за- кон наблюдения (1.16), (1.17) значительно интереснее. Правда, в указанной там форме он еще не является удобным для практики, поскольку предписывает использование сложного двойного интеграла. Поэтому далее выведена эквивалентная система дифференциальных уравнений, существенно более пригодная для численных расчетов. Соответствующие построения состоят из четырех главных этапов. (i) В уравнении (1.16) постоянный конечный момент времени ф заменим на переменное время t и продифференцируем обе час- ти по ф. При этом следует принять во внимание, что подынтеграль- ное выражение само зависит от ф. Чтобы быстрейшим образом справиться с этими затруднениями умножим обе части указанного выражения на Фг(ф, Фд) слева и наф(ф, ф^) справа. Эти множите- ли можно внести под знак интеграла, так как они не зависят от Т. Таким образом, имеем Ф ( Ф’СМ0) С\г) С(t)Ф(М0) to. V При дифференцировании этого уравнения по ф воспользуемся длр левой части правилом дифференцирования произведения и следующим свойством переходной матрицы: ЙФ(ф,Фд)/о1Ф = А(Ф)Ф(Ф,Ф0). Полу- чим а «4t,t0)[A'(i)M(t,t0)+ — M(t,t0)+ M(t,t0) А(Ф)}Ф(Ф,ФО) = =ФЧ*Д)С’(ф)С(ф)Ф(М0). Так как переходная матрица всегда не вырождена, то выражение в фигурных скобках следует положить равным С*С. После переста- новки членов получим желаемое дифференциальное уравнение для М*. ^М(Ф,Ф0)=-А’(Ф)М(ФЛ0)-М(Ф,Фо)А(1)+СЧйСа). Начальное значение М(Ф0,Ф0) согласно уравнению (1.16) равно 0. Это линейное дифференциально-матричное уравнение для матрицы наблюдаемости первого рода, эквивалентное интегральному равенст- ву (1.16). Оно обладает тем преимуществом, что нет более необ- ходимости в определении переходной матрицы. (ii) В уравнении (1.17) также заменим Ф^ на переменное Ф. Перед дифференцированием по ф умножим из тех же соображений, что и выше, обе части слева на Ф’(ф Ф )’. i ’О Ф'(Ф,Ф0)М(Ф,Ф0)5е(ф> фЧмо)Мм0тмо> Cl.26) % 27
Вычислим производную этого соотношения по t. С помощью тех же рассуждений, что и выше, обозначая произведение Мое; = й, получим Таким образом, закон наблюдения (1.17) эквивалентен дифферен- циальному уравнению для вектора Z(t):-M(t,i0)®Vt) (1.28а') с начальным условием Zttg)“0. Поскольку матрица М Ct, tg) как решение дифференциального уравнения (1.26) не вырождена, то имеет место полная наблюдаемость. Тогда вектор 5С(1) согласно (1.28а) однозначно определяется выражением (1 2ВЪ) (ill) При продолжении процесса наблюдения матрица М и далее остается невырожденной. Ввиду выражения (1.28Ъ) было бы очень удобно получить не- посредственно дифференциальное уравнение для М- . С этой целью рассмотрим произведение Продифференцируем это уравнение по t с соблюдением правила дифференцирования произведения. Используем далее дифференциаль- ное уравнение (1.26) для М и умножим справа на И"1. Получим 37 МЛW= A (i) M-1(t, tn)+ tj A’(t)- dt ’ о ’О О c'tt) C(b)M-i(t,t0). ц.т Это нелинейное дифференциально-матричное уравнение типа Риккати относительно ). Оно заменяет линейное дифференциальное уравнение (1.26) для M(t,t0) в тех случаях, когда имеет место полная наблюдаемость. Начальное условие для (1.29) получается посредством обращения конечного условия для (1.26). (iv) В тех случаях, когда матрица М не вырождается, дифферен- циальное уравнение (1.27) можно так преобразовать, чтобы оно доставляло значение не Z(t\ а самого ®(t). Далее, чтобы подчерк- нуть, что речь идет в принципе только об оценивании X(t) (отличие будет несущественным, если при таком рассмотрении возмущениями и шумами в измерениях можно пренебречь), введем обозначение fc(t'). Применение правила дифференцирования произведения в левой части (1.27) и объединение членов с ®(f) дает Л л ГЛ * - А'(1Ш ® (t)+ C'lttylt). 28
Производную от М в фигурных скобках заменим в соответствии с уравнением (1.26). Оставшиеся члены снова объединяем и умно- жаем слева на М-1 '• ® (i)-A(i)® (t)+(t)}. Cl-SOI Начальное условие задается с помощью решения (1.28Ъ). Этот закон наблюдения имеет уже привычную форму модели объекта с обратной связью в виде взвешенной разности между выходными сигналами объекта и модели (ср. с уравнением (1.8)). Матрица уси- ления обратной связи имеет при этом вид Кт:-мЛм0)С'1*). С4.34) Теперь для определения К (Л) не требуются специальные процедуры. Вычисление матрицы усиления сводится, в основном, к интегри- рованию линейного дифференциального уравнения (1.26), далее - к нахождению обратной матрицы для ДО и затем - к интегрированию матричного дифференциального уравнения Риккати (1.29). .Для по- строения оценки состояния следует решить уравнение (1.27), (1.28Ъ) и (1.30) (в указанной последовательности). Если уже на первом этапе окажется, что требуется построить оценку Ж в то вре- мя как М вырождается, то можно в уравнение (1.28Ъ) вместо истинной обратной матрицы подставить псевдообратную в смысле Пенроуза [1.17] (см. также Е1.18], С1.5], С2.27], C2.29J). Позднее будет показано, что в этом чисто детерминированном случае мы уже довольно близко подошли к фильтру Калмана - Бьюси. Именно поэтому рассмотрение указанной задачи проведено здесь столь подробно. 1.4. Принцип двойственности Наблюдение и фильтрация с одной стороны И управление и регу- лирование с другой стороны находятся друг с другом в некоторой замечательной взаимосвязи. Это выражается, например, в зеркаль- ной отображаемостя нормальных форм задач наблюдения и регулиро- вания (см. C1.20J). В этой связи следует также упомянуть сопря- женную систему, которая в теории дифференциальных уравнений и оптимального'управления равно, как и в аналоговой вычислительной технике используется с давних пор (С1.18], Е1.19]). Впервые, однако, в полном объеме упомянутая взаимосвязь была выяснена в 1960 г. Кайманом и сформулирована им как принцип двойствен- ности £1.4, 1.5, 2.10, 2.11]. Причиной этого послужила зеркаль- ная отображаемость установленных им уравнений линейного опти- мального наблюдения или фильтрации относительно уже ранее извест- ных уравнений линейного оптимального управления. В общих чертах принцип двойственности можно изложить следую- щим образом. Пусть Исходная система (уравнение (1.1.)) имеет 29
вид ® (t)= A (i) ® (i)+U(t ) и C-t), 1/ Ci)- 6(i)fc(i). Тогда двойственная система получается посредством следующих преобразований: (1) Обращение времени (11) Перестановка входной и выходной матриц 11. 32) (ДИ) Транспонирование матриц А4 В и С. Пусть переменные £, 9 и соответствуют фазовому состоянию, входному и выходному сигналам двойственной системы. Последняя, согласно (1.32) имеет нормальный вид, в котором тройка матриц А, 2 X С заменена соответственно на А* С’и В*; - •? Ct )= A'(i) $ (i> б ЧШ(Ь), u(t)« B'(t)5(t). (1.33e) (1.33 Ъ) Наблюдение и фильтрация исходной системы (1.1) соответствуют управлению и регулированию двойственной системы и наоборот. Эта двойственность имеет большое значение как в теоретичес- ком, так и в практическом отношении: понятия, определения, кри- терии и прежние теоремы при помощи принципа двойственности мо- гут быть непосредственно 'переведены' с языка наблюдения на язык управления и наоборот. Кроме того, в ряде случаев двойст- венность оказывает существенную помощь в необходимых доказа- тельствах. Тем самым, развитие теории наблюдения и фильтрации, которые моложе, чем теория оптимального регулирования, значи- тельно ускоряется. Практическое значение принципа двойственности состоит, в частности, в том, что одинаковые вычислительные прог- раммы могут использоваться при синтезе как оптимальных фильт- ров так и оптимальных регуляторов (в особенности программа для матричных уравнений Риккати). Аналогичным образом может быть получена и нереходная матри- ца двойственной системы. Сопряженная система (1.33а) имеет переходную матрицу Чг, определяемую формулой Л , —44t,t0)--A'(tmt,tfly lit и ’ (1.3*<) Перенесем здесь все члены в левую часть и умножим слева на транспонированную переходную матрицу Ф’ исходной системы (1.1а). Получим A'itmt, tow, 30
Проинтегрируем теперь по t, (Обращение правила дифференцирования произведения). В результате имеем Ф'(М0)Ф(М o)"I. U-35) Постоянная интегрирования в правой части должна быть равна единичной матрице I, потому что как Ф' так и Ф при t"t0 равны I. Из (1.35) следует, что переходная матрица сопряженной сис- темы в самом деле является двойственной по отношению к переход- ной матрице первоначальной системы, т.е. Т(МО)“*Ч%,Й. Ц-Й8) Из.(1.35) вытекает далее, что скалярное произведение фазовых состояний двух двойственных систем постоянно во времени: ®’(t) ? (i> «Ч*^ 5Ц,). (1.37) Далее -мы будем еше не раз возвращаться к принципу двойст- венности. Особенно интенсивно это делается в следующем парагра- фе. 1.5. Управляемость систем с непрерывным временем Хотя проблема наблюдаемости имеет непосредственное и цент- ральное значение в каждой задаче наблюдения и фильтрации, управ- ляемость также имеет к этому определенное отношение. Для этого имеются две причины. С другой стороны, задачи управления, благо- даря принципу двойственности, можно быстро и без особого труда свести к задачам наблюдения. С другой, предположение о полной управляемости требуется как предпосылка в определенных выводах теории фильтрации. Наконец, специалисты по управлению в конечном счете заинтере- сованы в создании замкнутого контура, иными словами, связи на- блюдения и управления с регулированием. Свойства полной наблю- даемости и полной управляемости объектов необходимо рассматри- вать совместно для того, чтобы задача регулирования была коррект- но поставлена и принципиально разрешима. Приведем здесь без доказательств важнейшие понятия и критерии. Двойственные доказательства и дальнейшие выводы читатель может почерпнуть из указанной литературы (или в данном случае как упражнение для самостоятельного исследования). Пусть в процессе управления нет выходного сигнала 'у., однако присутствует регулирующее воздействие "U. Тогда рассмотрим не- однородную систему Ц-го порядка без уравнения для выхода: ®(t)-A(t)X(i)+B(t)u(t). (1.38) Матрицы А и В заданы для всех t < Входной сигнал UCt) является, как и ранее, р -мерным. Начальное состояние ®И0) пред- полагается известным, а желаемое конечное состояние о> - за- 31
данным. Задача управления состоит в том, чтобы в интервале управ- ления [t0,t43 выбрать управляющее воздействие таким обрйзом, чтобы начальное состояние системы перевести в конечное. Определение 1.2. ('!') Состояние системы (1.38) называется управляемым в интервале 143,если в интервале существует управ- ляющая функция -и (ф),такая, что ^(t^O. (11) Система (1.38) называется вполне управляемой в интервале тогда и только тогда, когда каждое состояние ЭВ(t0")яв- ляется в этом смысле управляемым. (iii) Система (1.38) называется просто вполне управляемой тогда и только тогда, когда для каждого tQ найдется t4, такое, что (11) выполняется. В этом определении конечное состояние, как и Обычно, полагает- ся равным нулю. Это относится ко всем задачам управления и в случае полной управляемости не ограничивает общности рассужде- ний. Так как переход из ®(tQ) в определяется общим реше- нием системы (1.38), то t В(т)иДт) о1т, (1.39) или £ X IV V Полная управляемость означает, что это уравнение при «(1^=0 и каждом произвольном имеет некоторое решение относитель- но UCV). Так как Ф невырождена, то такое решение должно сущест- вовать для каждого произвольного В'“-(^.Поскольку Z можно выбрать произвольно, то должно существовать также реше- ние и при Х+®(tj) с x(t4)#0. Таким образом, если система вполне управляема, то ее можно посредством подходящего выбора U перевести из произвольной точки в пространстве состояний в любую другую точку. Далее ради простоты постоянно полагается Х(14)«0. Умножение оставшихся членов уравнения (1.40) слева на t*’(i0,lJ) и вынесе- ние соответствующего множителя из-под знака интеграла непосред- ственно дает: Ф(*0,т)В(г)и(г:){1т=-аа0). (1.А1) ч Сравним это соотношение с двойственным уравнением (1.17). Со- ставим для уравнения (1.16) двойственное выражение и образуем 32
симметрическую матрицу управляемости (первого рода): ^(1^)-.= Фио,г)В(т)В'(г)Ф'(10л)о1г. (1.42) Ч Если матрица V/ не вырождена, то решение задачи управления, оче- видно, доставляет управляющая функция (.1.43) В этом легко удостовериться посредством подстановки указанного закона управления в уравнение (1.41) с использованием (1.42). Умножая уравнение (1.41) с обеих сторон на) (1.43), получим "энергию" управления (1.43): слева и упрощая левую часть с помощью транспонированного уравне- ния 4 tt’miilt) to=a4t0^\t1,to’)x(.t1). (1.44) % Это выражение двойственно энергии измерений (1.18). Теорема 1.4, Для полной управляемости системы (1.38) в интер» вале необходимо и достаточно, чтобы матрица управляемос- ти )f определяемая отношением (1.42), была невырожденной. Доказательство достаточности быдо уже получено выше. В от- ношении необходимости существенным является соображение двойст- венности как в теореме 1.1 и работах [1.51, [1.161, [1.181. Для не зависящих от времени систем матрица управляемости второ- го рода имеет вид (ср. соотношение (1.22)) А2В, , А^В]. (1.45) Теорема 1.5. Для полной управляемости системы (1.38) с постоянными коэффициентами А и В необходимо и достаточно, что- бы матрица управляемости, определяемая соотношением (1.45), име- ла ранг П (п. - порядок системы или матрицы А). Для доказательства см. [1.51, [1.161, [1.181. Альтернативой по отношению к этому критерию может быть про- верка невырожденности матрицы W(£-,0). Величина £. интервала управления при этом может быть выбрана произвольно малой, На практике, однако, при £-»0 энергия управления согласно соотноше- нию (1.44) стремится к бесконечности так как lrm W(fe,0)“0. е-*0 В параграфе 1.3 выведено для матрицы наблюдаемости первого рода, а также для ей обратной эквивалентное дифференциально-мат- ричное уравнение. Соответствующие дифференциальные уравнения для матрицы управляемости получаются, если проделать прежние шаги в двойственной форме. Далее поступим следующим образом. (А) В уравнении (1.42) заменим начальный момент времени tQ на переменную t. Затем следует продифференцировать обе чарти по 33
t. Чтобы подынтегральное выражение вновь сделать независимым от t, обе части уравнения умножим,-как и ранее, слева на и справа на ф( При дифференцировании теперь появляется производ- ная переходной матрицы по ее второму аргументу. Последнюю мож- но вычислить следующим образом. Имеем Дифференцируем здесь обе части по t: Л Окончательно имеем (1*6) At 1 1 Результат дифференцирования модифицированного уравнения (1.42) таким образом, равен Ct । tTW(i.,t>A(i)W(t.,t)+W(t Ш'(П-В(Ш). U 47) Краевое условие известно в этом случае лишь в конце интервала: WCtpt4)“0. Следовательно, линейное дифференциально-матричное уравнение (1.47) нужно интегрировать в обратном времени. (ii) Закон управления (1.43) можно записать как закон регу- лирования с обратной связью, зависящий от текущего состояния, если t и tQ заменить на переменное время t: Utt)—B\t)V£(t1,t)^t). (U8) (iii) Для необходимой при этом матрицы W посредством дифференцирования произведения WW ^=1 по t и подстановки в (1.47) получим нелинейное дифференциально-матричное уравнение типа Риккати: (Ли • • -w"i(i1,t)B(t)B,(t)V“l(t1,t). (1.49) Это дифференциальное уравнение является двойственным по отноше- нию к дифференциальному уравнению (1.29) для наблюдения. Подроб- ности см. в параграфе 3.1. 1.6. Наблюдение с дискретным временем Наблюдение в дискретном времени означает, что выходной сиг- нал рассматриваемой системы измеряется уже не непрерывно, а лишь в дискретные моменты времени. Моменты наблюдений не обязательно равноотстоят друг от друга. Далее будет показано, 34
что задача наблюдения в дискретном времени имеет много общего со случаем непрерывного времени. Для наглядности далее способ обозначений выбирается так, чтобы соответствующие друг другу величины в дискретном и непрерывном времени имели бы одинако- вое написание. Опасность перепутать- эти обозначения возникает при этом только тогда, когда модели с непрерывным и дискретным временем рассматриваются совместно, В таких случаях будем обо- значать одну из групп величин чертой сверху. В данном параграфе, в котором непрерывные величины играют второстепенную роль, бу- дем их в сомнительных случаях отмечать чертой сверху. Отметим, что случай дискретного времени как в задаче наблю- дения, так и далее в задаче фильтрации, оказывается математичес- ки более простым, поскольку производные заменяются теперь на разности, а интегралы - на суммы. Формулировку задачи наблюдения в дискретном времени начнем с построения дискретной модели наблюдаемой системы. В качестве типичного примера выберем объект, который первоначально был задан в непрерывном времени. Рассмотрим, таким образом систему ®(t)’A(t)K(i)+B(t)U(i), (150Э) ^(i>C(t)»W- (1 50 Ъ) Состояние как и ранее, 11-мерное, регулирующее воздейст- вие tl(i) - снова ^-мерный вектор. Чтобы наблюдаемый сигнал, имеющий Ш компонент, сделать дискретным, его надо измерять в некоторые необязательно равноотстоящие друг от друга моменты времени Связь между значениями фазового, состояния а системы в два следующих друг за другом’ момента времени вытекает из формулы для общего решения дифференциального уравнения (1.50а) (Ф- переходная матрица для й): Ц.50с) К+1 I* к к Связь между измеряемыми значениями вектора наблюдений и состоя ни ем системы имеет согласно (1.50"Ь) вид (1 5DdL) Обычно, введение регулирующего воздействия в рассматриваемую систему может быть осуществлено двумя способами (рис. 1.5). Регулирующее воздействие может быть импульсным u(t)= й (V)(F(t--t,- At) К к или кусочно-постоянным для t <’fck+£* 35
Ul(th величина ,, . импульса=u-L (tk) Uifch ^/r+2 t Рис. 1,5. Импульсное и кусочно постоянное управление. Первый метод используется, например, при коррекции траектории движущегося объекта, второй - для регулирования сканирующего устройства при наличии задержки. В целях упрощения обозначений примем следующее: ti) Моменты времени будут всюду нумероваться целыми числами к. (ii) Таким образом, имеем ®(t^= Ot(k'), ^(t^)3^ (k), Cii^eClk) и fc(tM,tkW(k+l,k). (1.51a,Ъ) (ill) Положим Ф(кт1,кУ.-А(Ю. 11.52'5 Из свойств переходной матрицы следует, что* А (к-) всегда невы- рождена. (IV) При импульсных регулирующих воздействиях используются свойства (^-функций, находящейся в подынтегральном выражении в уравнении (1.50); результат оказывается равным B(k)U(k): (1.5А) (v) При кусочно постоянном регулирующем воздействии можно вынести U(t>U(к) из-под знака интеграла в (1.50) и положить Ч+1 j Ф(*к 1,t')BW(t'P>B(kl ч Замечание. Только что определенные матрицы А(к) и В(к) не равны A(t0 и соответственно . Точно также _в случае импульсных регулирующих воздействий U(к) не равно U(tk\ Для остальных величин не возникает опасности разночтений.V В соответствии с (1.50с) и (1.50а), из соотношений (1.51) - (1.54) вытекает дискретный вариант непрерывной модели объекта (1.50 а.Ъ): ®(к+1> А(к)® (к> В(к) и(Ю, ^(к)«С(к)®(к). (1.55 *) (1.55 Ъ) 36
Состояние X в дальнейшем, как и ранее, предполагается fl-мер- ным, вектор управления U-состоящим из р компонент и измеряе- мый вектор -мерным. Соотношение 4>(t ’Ч ) X "0 л К ”0 позволяет, принимая во внимание (1.51Ъ) и (1.52), записать уравнение в конечных разностях для переходной матрицы дискрет- ной системы (1.55а): «Чк-1, к0)=А(к)Ф(М0), Ф(%, (1.55 с) Общее решение векторного разностного уравнения (1.55а) имеет вид К-1 ®(ky=5>(k,k )®(k0)+£Z Ф(к,я+1.)В(да)-и (1.55<Ь 0 '° »e=k„ к0<к. Доказательство этого может быть получено индуктивно посредством рекуррентного применения уравнения (1.55а) или дедуктивно с по- мощью подстановки (1.55idJ. в обе части (1,55а), Пример 1.3. Измерение положения самолета, которое в при- мере 1.1 проводилось непрерывно, теперь выполняется в дискрет- ные моменты времени, расположенные через одну секунду. Исходя из непрерывной модели объекта ®= А®(£)+-8и(1)в примере 1.1, нужно состарить дискретную по времени схему наблюдения. Переходная матрица этой однородной системы 2 ------------ 4- Г1 01 ГО 01 , ± . + 1 • (t -t Y Lo 1J Ll oj 4 k+1 kJ -"2 Здесь А и степени более высокого порядка обращаются в нуль. При 4с для всех к (одинаковые интервалы наблюдения) получается также и в дискретном случае постоянная матрица А: Ч _1 А= 01 1J' Согласно (1.54) вычисляем новую матрицу усиления: 01 ГГ 1 о г At = Модель дискретного по времени измерения положения имеет, таким 37
образом, вид "^(k+l) _ 1 (к+1) ' 1 \(к)1 Г L »21к) + 0,5 Ulk), о 1 |(к)«[Ь 1]х(к). При этом; по-прежнему х^ - скорость и - координата (не- достаток состоит в том, что ускорение между двумя моментами измерений считается постоянным). Кроме того, заметим, что дис- кретизированная модель, в противопЬложность первоначальной, те- перь не имеет нормальный для задач наблюдения вид. Обратимся к проблеме наблюдения дискретной системы (1.55). Последовательность векторов измерений “у(к) задана при всех к в интервале £k0, k^l. Требуется найти состояние X в последний момент времени kv Ввиду принципа суперпозиции, следствием ко- торого является выражение общего решения уравнения (1.55 А), можно влияние известной последовательности управлений u(k0), на ®(к\а потому и на ^(к), отдельно вычислить и вычесть из измеряемых величин. Достаточно, таким образом, снова рассматривать только однородную систему x(k+l)-A(k)x(k), ъ т (к "1= г V (к)-С(к) х(к). 0 * (1.56Ъ) Здесь значения измерений *^(к0), t| (kQ+1),. .^(kj) заданы, а ищет- ся Зб(к4). Мы исключаем векторы Xlk^) и т.д., выражая их через искомое состояние Х(.кр с помощью формулы для общего решения однородного уравнения ®(кА)=Ф(к1,к)х(к) или aeCkWtk.kpxUcp. Отсюда получим С(к0)х(к0>С(к0)Ф(к0, к/)®^), (к0+1)- С (к +1) х (к0+С (%+4)Ф (к0+1, кр х (кр, (к4)= С (кр» (kt> С (крФ (кркрх (IQ. ’ Объединим векторы измерений в один вектор g. В правой части образуем соответствующую матрицу D: etk^ik^) “ е(коч)ФСк+1,к1) . (4.57) ЗВ
При помощи этих определений запишем вышеуказанную систему уравнений в виде одного матричного уравнения (1.58) Вектор 2 является ( к 1<0+1 ^-мерным. Далее показано, что это значение, большее или равное П, является порядком системы, причем как Z , так и D известны. Если размерность Z точно равна П, то (1.58) представляет собой систему П линейных алгебраичес- ких уравнений с П. неизвестными переменными состояния W’ Если кроме того, D — невырожденная, то систему уравнений можно, как обычно, однозначно разрешить относительно X(kj). Если же накопится более, чем П скалярных измерений, то лише- ние уравнения можно будет, разумеется, просто опустить. Однако обычно так не делают. Напротив, сохраняют все однажды получен- ные значения измерений. Вследствие этого, можно учесть до сих пор пренебрегаемые ошибки измерений и повысить точность опреде- ления Я. Ошибки измерений являются также причиной того, что система (1.58) может быть несовместной, т.е. не существует никакого зна- чения X, для которого бы все уравнения в точ!1рсти выполнялись. Приходится поэтому довольствоваться оценкой X вектора X, которая наилучшим образом удовлетворяет системе (f.58). Старейший спо—-> соб решения этой задачи есть классический метод уравниваний Гаусс; (1801), называемый иначе методом наименьших квадратов. Далее этот метод рассмотрен несколько более подробно. Метод наименьших квадратов. Пусть дана линейная алгебраиче- ская система уравнений, в которой число уравнений превосходит число неизвестных. Система уравнений имеет вид При этом X - fl-мерный неизвестный вектор, a Z- известный число- вой 't-мерный вектор (вектор измерений), причем 4>П.Матрица D размера Х*П состоит из известных элементов. Для сглаживания содержащихся в Z неточностей оценка X вектора X должна опреде- ляться таким образом, чтобы вектор ошибок z-.=z-Dx (1-БО) стал по возможности "наименьшим". В качестве меры для величины S'выбирается евклидова норма ||2 ||а (см. приложение А, уравнение (А.54). Ее квадрат есть сумма квадратов ошибок 1|z1|2=Z'z = Z*<-z2+...+ Z*. U.61) Это выражение должно достигать минимума. Условие этого таково, что все частные производные выражения (1.61) обращаются в нуль» 39
Иначе говоря, градиент функции (1.61) по Л должен равняться нулю: he'ShO’, ох X (а'к-22'В®,+ За4 Первый член в круглых скобках не зависит от X, второй - ли- нейная и третий - квадратичная форма от X. Применяя соответству- ющие правила для построения градиентов (см. Приложение, пара- граф А.9), получим -2tfD+2®'D'D»0. Отсюда посредством транспонирования возникает'система уравнений П-го порядка относительно X: DrZ’-D'Dx. (1.61'’) Можно легко заметить, что этот результат получается из перво- начальной системы уравнений (1.59), если только ее умножить слева на Ц' (преобразование Гаусса). Матрица D'D называется гауссовской нормальной матрицей L1.131. Она всегда симметрична и неотрицательно определена. Если она является положительно опре- деленной (невырожденной),лто уравнение (1.61^) можно разрешить относительно неизвестной gt одним из прежних методов, например, с помощью алгоритма Гаусса или Холецкого [1.132. Подробное обсуждение основ метода наименьших квадратов при- водится в следующей главе. Теперь мы применим формулу выравнивания (1.61 ) накопленных наблюдений рассматриваемого дискретного объекта. Для этого надле- жит в уравнении (1.58) заменить зе (к,) на Х(к.) и умножить это £ 1 уравнение слева на В* (к. .kJ). Записывая это подробным образом, X7 и получим (ср. с (1.57)): Ф'С%,к1')СЧк(>'),...,Фг(к1,к1') СЧкр " W = “I ГС(к0)Ф(к0,кр- = Ф’Ск0,к1)еЧк0),...,ФЧкрк1')СЧк1') : Л . ч. х(кД 1 J L Ч.Б2) Нормальная матрица D'^, D (к^.кр) в правой части (1.62) может быть, очевидно, записана в форме следующей суммы, обозна- 40
(1 63) (1 64) чаемой через 1Ч(к,,кп): к/ 0 M(k,,kn): = SZ $Чя,к )£!'(я)С(з£)Ф(и,к ). 1 и к= kQ 1 1 Это - матрица наблюдаемости (первого рода) в дискретном време- ни. Сравнение с (1.63) показывает полную аналогию со случаем непрерывного времени. Уравнение для оценки (1.62) принимает вид к1 Л 22^ Ф'(эе, kp С(.w)= М (kv kQ)at (. кр. Этот закон наблюдения •в точности соответствует соотношению (1.17). Оценку ОС (кр можно однозначно определить тогда и только тогда, когда матрица наблюдаемости M(k^,kQ') не вырождена. Благодаря аналогии между непрерывным и дискретным случаем справедливы в совершенно эквивалентной форме практически все прежние соображения, в особенности определение наблюдаемости и соответствующие этому критерии. Поэтому ряд результатов мож- но получить весьма просто и без излишних повторений. Матрица наблюдаемости второго рода для дискретной однородной системы вытекает из уравнений (1.57) и (1.58), если там поло- жить kQ=0, k1“H-'l и X(k )=ФКкрко')х(О').Подробнее имеем Матрица наблюдаемости второго рода определяется соотношением М:- СА (1.65") _САпЧ_ Система вида (1,56) с постоянными коэффициентами А и (J являет- ся вполне, наблюдаемой тогда и только тогда, когда М имеет ранг И. Ранг М не может возрасти при добавлении последующих подмат- Т1+1 риц вида С А , С А и т.н. Это вытекает, как и в параграфе 1.3, из теоремы Кэли - Гамильтона. Одно заслуживающее внимание различие между дискретным по времени и непрерывным случаями состоит в продолжительности на- блюдения, минимально необходимого для определения X. При непре- рывном времени соответствующий интервал наблюдения 41
может быть сделан сколь угодно малым. Это бывает, например, всегда тогда, когда рассматриваемая система имеет постоянные коэффициенты и является вполне наблюдаемой (см. теорему 1.3). По сравнению с этим в дискретном времени для определения значе- ний 3& необходимо проведение от одного до TL измерений, даже в предположении, что пара А и С вполне наблюдаема. Единственное измерение достаточно, если С - квадратная и невырожденная; П из- мерений необходимы тогда, когда наблюдаемая система имеет толь- ко единственный выходной сигнал. Вернемся теперь к общему закону наблюдения (1,64) и выяс- ним, можно ли, подобно тому, как это делалось в непрерывном времени, описать его эквивалентной системой разностных уравне- ний. Такой рекуррентный вариант закона наблюдения был бы особен- но удобным при длительных измерениях. Предположим, что к момен- ту времени к оценка ОС (к') уже вычислена и в следующий момент измерений вектор (к+1) доставляет Tl новых наблюдений. Если бы для построения оценки каждый раз заново использова- лись уравнения (1.63) и (1.64), то это было бы сопряжено со значительными вычислительными трудностями, тем большими в слу- чае, когда постоянно производятся новые измерения. К счастью, существует такое рекуррентное решение, которое позволяет с по- мощью незначительных изменений использовать прежние оценки. Первоначально это решение было получено Гауссом еще в 1821 году’С1.2]. Оно справедливо, если имеется одно единственное до- полнительное наблюдение (^-скаляр). В 1950 году Плакетт C1.3J обобщил метод на случай ТП дополнительных наблюдений, производи- мых одновременно ('у-Ш-мерный вектор). Для того, чтобы в рассматриваемом случае получить желаемый рекуррентный закон наблюдения, преобразуем уравнения (1.63) и (1,64) так же, как это было сделано для непрерывного времени в параграфе 1.3. Подобный способ с обобщенным методом наимень- ших квадратов будет изучен в следующей главе. Необходимые шаги состоят в следующем: (д’) В уравнении (1.63) конечный момент времени заменим на переменное время к+1. Тогда, записывая еще отдельно последнее слагаемое, получаем к , М(к+М EZ Ф/(л,к+1)(У(и)С(х)Ф(я,к+4>+СЧк+1)С(Л*1'). ° je-kfl В оставшейся сумме заменим матрицу Ф(»е, к+1) наф(*,к)Ф(к,к+1'), после чего вынесем справа за знак суммы выражение Ф(к,к+1)® • A-i(k). С матрицей Ф*(эд* к+1) слева в оставшейся сумме поступаем подобным же образом в транспонированной форме: М(к+1,кя')-А~1(к)' П Ф'(эе»б'(Ае)С(.эе)Ф(9е,к)А-\к)4(;,(к+1)С(к+1) о ае-к0 Остающаяся в этом соотношении сумма равна Следова- 42
(4.66) тельно, < М(к+1,к0)= А~ (k)rM(k,k0)A~ (к)+ C'(k+i)С(ktl). Это - матричное разностное уравнение для матрицы наблюдаемости М с начальным условием М(к0,к0)-С'(к0)С(к0). Уравнение 11.66) есть дискретный аналог линейного матричного дифференциального уравнейия (1.26). (11) В уравнении (1.64) заменим к4, как и выше, через к и отделим последнее слагаемое. Из остальной суммы, как и раньше, вынесем слева A-i(k’). Получим к * А Ф'(зе,к)С'(зе)^(л)+С’(к+£)1|(к+1)-М(к+1, к0)х(к+1). Оставшаяся теперь в этом соотношении сумма равна прежнему про- изведению М(к,к0')«.(к). Поэтому имеем М(к+1, к0)х (к+1)=А-1 (к)' м (к, к0) ® (k)+C'(k+4)-i;| (k+i). (1 -67) Это - разностное уравнение относительно М®, которое соответст- вует д.- ференциальному уравнению (1.27), имеет начальное усло- вие М (кр, к0) ОС(к0)= (J’(кр)^ (к0). Если матрица М не вырождена, то уравнение (1.67) может’быть разрешено относительно ®. (ill) В примыкающем интервале ищутся уравнения в конечных разностях для самого Ж и требуемой обратной матрицы М~ . С этой целью введем в качестве вспомогательной величины экстрапо- лированную оценку Ж* соотношением »*(t+i):-A(k)x(k). (II) Заменим X(к) в (1.67) на А (к)х*(к+1) и применим уравне- ние (1.66). Имеем М(кИ,к0)®(к+1>{М(к+1,к0')- 'С Чк+1)С (к+1)} Ж* (к+1> С'(к+1)-у (к+1). -£ Умножим это соотношение слева на М (к+1, к0), объединим соот- ветствующие слагаемые. В результате получим желаемый резуль- тат: 1 £(к+1У=Х*(к+1)+М (к+1, к0)СЧк+1){'У (к+1)- - С (к+1) ®*(к+1)}. ал) Это уравнение образует вместе с уравнением (1.1) закон наблю- дения в рекуррентной форме (ср.дифференциальное уравнение (1.30)). Оно имеет известный вид уравнения модели объекта с обратной связью, равной разности взвешенных выходных воздействий (рис. 1.6). Матрица усиления обратной связи, очевидно, равняется К(к*1У..мАы,к0)СЧк+1). (1.68) 43
Рис. 1.6, Наблюдаемая система и следящее устройство в дискретном времени (обведенная пунктиром об- ласть недоступна). п звеньев единичного Она является единственной все еще не определенной величиной в рекуррентном алгоритме наблюдения и рассматривается в следую- щем и последнем пунктах. (iv) Используя уравнение (1.66) вновь введем вспомогатель- ную величину Р*, практическое значение которой будет изучено в следующей главе: P*(.kH):=A(.k'iM“1(k,k0)A\k), (1.ПГ) Умножим теперь обе части (1.66) на Р*(к+1) справа. Далее, преобразуем средний член в правой части с учетом равенства (iju); М(к+1, kQ)P*(k+l>In+ С'(к+1)С (к+1) Р*(к+1). Обе части последнего соотношения умножим слева на М (к+1, К ): Р*(к+1)»М Vk+l^+MAk+l^C’Ck+nf (к+1)Р*(к+1). (1°б9^ Наконец, умножая справа ^на С(к*^ и разрешая полученное соот- ношение относительно М и” К, имеем К(кЧ>Р*(к+1)СЧк+1){С(к+1)Р*(Ь1)С'(к+1)+1} . Ц.5) Это и есть выражение для искомой матрицы усиления наблюдае- мого устройства. Если еще член N в уравнении (1.69) заме- нить на К, то М'1 можно определить формулой М“1(к+1,к0)=Р*(к+1)-К(к+1)С(к+1)Р*(к+1). (1.5) -1 Тем самым рекуррентная процедура вычисления матрицы М установлена. Если матрица М.-1(к,кр) для некоторого момента к задана, То для следующего момента измерений матрица Р вычис- ляется с помощью уравнения (1.IJ1). Поэтому все матрицы в правой 44
части формулы (1.5) известны. Значит, матрица К для следующе- го момента измерений также может быть определена. Обратная матрица в фигурных скобках в (l.!*) имеет порядок Пт., где щ- число одновременно производимых измерений . Использование этой обратной матрицы при НК п, проще, чем непосредственное обра- щение матрицы М, имеющей размер Н. В последнем случае новая обратная матрица от М получается просто из уравнения (1.7). Раз- ностная система уравнений (l.S, IV , у) для М соответствует матричному дифференциальному уравнению Риккати (1.29) в непре- рывном времени. Уравнения (1.1) и (1.И) определяют наблюдаю- щее устройство. Выводы. Алгоритм рекуррентного гауссовского оценивания дис- кретной по времени однородной системы ®(k+l)“A(k’)®(k), l^(k)»C(k)xlk) состоит в следующем. (1) Наблюдающее устройство описывается соотношениями x*(k+l)«A(k)x(k), (1.70а) X(k)»x4k)+K(io{^(k)-C(k)«*(.k)}. (1.70 ъ) (11) Матрица усиления и матрица, обратная ж матрице наблюда- емости, имеют вид Ak+l>A(k)M-1(k,k0)A4k), (1.71а) К (к)= Р*(к) СЧк){С(к)Р*(к)С'(к)+1] (1.71 ъ) мЛк,к0)=Р*(к)-К(к)б(к)Р*(к). (1.71с) (ill) Начальные условия. Наблюдения начинаются в момент времени кр после проведения первого измерения ^(к^). Если мат- рица М(к,к0) вырождена, то вычисления должны быть проделаны в соответствии с уравнениями (1.66) и £1.67) и приведенными к ним начальными условиями; а не в соответствии с уравнениями (1.70), (1.71) настоящего заключения. Если же матрица М(к, кп) не вырождена, то надлежит вычислить обратную матрицу М"4(к,ко) и взять ее в качестве начального условия для уравнения (1.71а). Вычисляемая одновременно оценка X (к) образует начальное условие для уравнения (1.70а). Входные воздействия наблюдаемой системы. Как из- вестные, так и неизвестные стохастические входные воздействия будут рассмотрены лишь в следующей главе. Пример вычислений приведен в параграфе 2.3. 45
Г.7. Литература 1.1, (tub C.F. Theory of the motion of the heavenly bodies moving about the sun in conic sections, 1809.-New York: Naehdruck Dover Publications, 1963. 1.2. Gaub C.F. Theoria combinationis observationum errorihus minimis obno- xiae, 1*621.- Gesammelte Werke,DcL.A. &bit ingen, 1873. 1.3. Pl a e kett R.L. Gome theorems in least squares.- Biometrika, v.S7, ( 4950), p. 1A9-157. 1.4. Капм&н P.E. Об обшей теории систем управления. - Труды I конгресса ИФАК, т. 2. М.: Изд-во АН СССР, 1961, с. 521-547. 1.5. Kaltnati R.E. Contributions to the theory of optimal control.- Bull. S-oc. Math. Mexicans, I960, p. 102-119. 1.6. Smith II. L., ich nri d t 6.F., Melee L. A. Application of statistical filter theory to the optimal estimation of position and velocity on-board a circumlunar vehicle.-NASA Tech.Bep.,№2-135,1962. 1.7. Бэтти н P. Наведение в космосе. - M.: Машиностроение, 1066. 1.8. Cara the о dory С.t. Variationsrechnung und partielle Differential* gleichuingen erster Ordnung.- Leipzig*. Teubner, 1935. 1.9. Белпиаи P., Дрейфус С. Прикладные задачи динамического программи- рования. - М.: Наука, 1965. 1.10. Понт рягин Л.С., Болтянский В.Г., Гамкрелидзе Р.В., Мищен- ко Е.«Ф. Математическая теория оптимальных процессов. - М.: Физмат- гиз, 1_961. 1.11. Morg an В.З. Sensitivity analysis and synthesis of multivariab- le systems.— IEEE Trans, on Autom-Control. v-AC-H (1966), p. 506-512. 1.12. L пен b er g er D. &. Observers for multivariable systems.- IEEE Trans., on Auiom. Control, v. AC-li (.1966), p. 190-199, 1.13. Zur rniihl R. Matrizeri. Berlin*. Springer, 196A. 1.14. S i 1 v e г та an L.M. Transformation of time-variable systems to canonical (phase-variable) form.- IEEE Trans, on Autom. Control, v. AC-11 (1966), p. 300-305. 1.15. Silverman L.M. Representation and realization of time- 1.16. Атаню M., Фалб’П. Оптимальное управление. M.: Машиностроение, 1968. 1.17. Рептоее R. A generalised inverse for -matrices.-Proc. Camb- ridge Phil. Soc., V.51 (1955), p. ЙО6-*НЗ. 1.18. Zadeh L.A. und De soar C.A. Linear system theory.-New York: McGr*aw-Hill, 1963. 1.19. Лэниснг Д.Х., Бэттин Р.Г. Случайные процессы в задачах автоматичес- кого □травления. - М.: ИЛ, 1958. 1.20. В г а та та е г К. und ft iff ling ft. Gtochastische Grundlagen des Kalman-Buoy-Filters.-Munchen; Oldenbourg, 1975.
Глава 2 ЛИНЕЙНАЯ ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ В предыдущей главе задача наблюдения была поставлена и реше- на в детерминированной постановке. В настоящей главе рассматри- вается задача оценивания фазового вектора линейной системы на основании наблюдения ее выхода с учетом случайных возмущений и ошибок измерений. При Этом известное состояние системы представ- ляет собой либо векторную случайную переменную, либо векторный случайный процесс с непрерывным или дискретным временем. Задача наблюдения, сформулированная в стохастических терминах, именуется задачей фильтрации. Таким образом, эта глава является обобщением первой гаавы от детерминированных условий наблюдения к стохасти- ческим. Математическое исследование задачи фильтрации осуществляется на основе теории вероятностей и теории случайных процессов, введе- ние в которые имеется в книге 'Стохастические основы фильтра Калмана - Бьюси'С 1.201. 2.1. История теории фильтрации Начало современной теории фильтрации датируется 1940 годом, когда независимо друг от друга появились процедуры Колмогорова t2.ll и Винера Q2.23 (Работа Винера была связана С измерением траекторий полета с помощью радара и опубликована лишь в 1945 году). Колмогоров и Винер рассматривали стационарные процессы, бесконечный интервал наблюдения и фильтр, не зависящий от време- ни. В качестве критерия качества была взята среднеквадратичная ошибка. Искомой была весовая функция или весовчя последователь- ность фильтра, делающая значение критерия как можно меньшим. В случае непрерывного времени необходимым и достаточным усло- вием оптимальности весовой функции является ставшее известным интегральнуе уравнение Винера — Хопфа. Аналогом для дискретного времени является соответствующее уравнение в виде суммы для оптимальной весовой последовательности. Мы рассмотрим оба эти уравнения в обобщенной форме. Винер привел также изящный метод решения интегрального уравнения Винера - Хопфа. Он состоит в том, чтобы преобразовать уравнение в частотной области и опреде- лить фильтр с помощью частотной характеристики посредством спе- 47
остального разложения встречающихся спектральных плотностей. Раз- ложение спектральной плотности некоторого случайного процесса в произведение двух зеркально симметричных сомножителей соответ- ствует конструкции частотной характеристики упомянутой системы передачи информации, порождающей рассматриваемый процесс из бе- лого шума. Это толкование было дано в 1950 году Боде и Шен- ноном на основе решения Винера. И поныне эта так называемая концепция формирующего фильтра имеет центральное значение в тео- рии фильтрации. Уже давно делались попытки снять ограничительные предположе- ния теории Колмогорова - Винера, чтобы расширить область ее применения. В 1952 году Бутон обобщил исходное интегральное уравнение Винера - Хопфа на случай нестационарных процессов и фильтров, зависящих от времени [2.42. При этом, однако, решение проблемы было иолучнно лишь в математическом смысле, ибо- с технической точки зрения результат выглядел незавершенным. Дейст- вительно, в противоположность винеровскйй процедуре, здесь не бьфо практического метода ни для исследования интегрального уравнения, ни для реализации зависящей от времени весовой функции*). Примерно в 1955 году Фо ллин и другие рассмотрели задачу фильтрации при конечном времени наблюдения. Они обнаружили, что параметр соответствующего фильтра даже для стационарных процес- сов зависит от времени и установили определяющее дифференциаль- ное уравнение. Далее было показано, что решение этой системы дифференциальных уравнений при t -*<» совпадает со значением па- раметра в фильтре Винера. Бьюси показал позднее t2.5-2.7J, что параметр фильтра может быть вычислен с помощью дифференциаль- ных уравнений также и для нестационарных процессов. Подобное исследование для дискретного времени было выполнено Сверлингом [2.8J в 1958 году. Калман связал сформулированную им в прост- ранстве состояний теорию наблюдения линейных систем с понятием ортогональной проекции случайных векторов [2.91 и опубликовал в 1960 году рекуррентный алгоритм в форме системы разностных уравнений для фильтра и его коэффициента усиления t2.10J. Этот результат, справедливый для нестационарных векторных процессов с дискретным временем, зависящих от времени фильтров и произ- вольной длительности интервала наблюдения ввиду его общности и математической элегантности будет ниже рассмотрен. Совместно с Бьюси в 1961 году Калман получил соответствующий результат для непрерывного времени [2.111. При этом задача фильтрации *) Решение этого уравнения было предложено В.С. Пугачевым (Пугачев В.С, Интегральные канонические представления случайных функций и их приложение к определению оптималь- ных линейных систем. - Автоматика и телемеханика, т. 18, № 1, 1957) на основе применения интегральных каноничес- ких представлений. Им же проведено детальное исследование этих уравнений. (Прим, ред). 48
сформулирована в пространстве состояний, установлен зависящий от времени матричный вариант интегрального уравнения Винера - Хоп- фа, который далее преобразован в эквивалентную систему дифферен- циальных уравнений. Начиная с этой пионерской работы, появились многочисленные публикации, в том или ином виде посвященные развитию процедуры фильтрации Калмана - Бьюси. Поразительно к тому же множество различных способов вывода уравнений, определяющих решение, С течением времени были обнаружены различные связи с другими процедурами оценивания, например, с байесовским оцениванием, ме- тодом максимума правдоподобия, а также с методом минимальной среднеквадратичной ошибки и методом наименьших квадратов (см. например, учебники Е2.12, 2.13] и в особенности Е2.14]). Здесь мы следуем простейшему пути и рассматриваем задачу фильтрации как обобщение гауссовского метода наименьших квадра- тов Е 2.2]. Гауссовская оценка была усовершенствована уже в начале этого столетия посредством введения весового множителя для достиже- ния лучшей оценки, по результатам измерений с различными диспер- сиями Ошибок (гауссовско-марковская оценка). Исходя из этой элементарной и классической процедуры с помощью рекуррентного метода Плакетта Г1.3] алгоритм фильтрации Калмана может быть получен в несколько этапов. Впрочем, при этом предполагается, что число измерений больше числа неизвестных, поскольку гаус- совско-марковское оценивание можно начать лишь тогда, когда произведено достаточное число наблюдений, С этим недостатком мы уже встречались в первой главе при рекуррентном наблюдении. Его однако можно устранить, если имеется определенная априор- ная статистическая информация о начальном состоянии. В этом слу- чае оценивание возможно уже после первого момента наблюдений. Но длц этого необходимо дальнейшее обобщение процедуры минималь- ной среднеквадратичной ошибки. Начнем поэтому с введения и обсуж- дения этой процедуры, исследовав с ее помощью вначале случай дискретного времени, а затем перейдем к непрерывному времени. 2.2. Метод минимизации среднеквадратичной ошибки Пусть дана линейная система t алгебраических* уравнении с п, неизвестными. Число уравнений может быть больше, меньше или равно числу неизвестных. Каждое уравнение содержит аддитивные ошибки измерений. В векторно-матричной форме система уравнений имеет вид Z=Da+s. С2 40 Здесь X - вектор П искомых Неизвестных, а 2 - вектор X заданных измерений. Матрица D размером Чхп известна. Компоненты 't-мерного вектора S представляют собой неизвестные ошибки изме- 49
рений. Неизвестные величины Я! и S интерпретируются как случай- ные переменные, которые можно описаить с помощью определенных статистических параметров. Искомый вектор х есть случайный вектор с нулевым математическим ожиданием и матрицей ковариации Р: Ех»0, Ехх’=Р, (22 а,Ъ) Аналогично, неизвестная ошибка измерений <3 имеет нулевое мате- матическое ожидание и матрицу ковариации $: Eft-О, Eftb’-S. (2.2 сД) Кроме того, векторы 6 и X некоррелированы: Ехь'=0. (2.2.6) Предположим еще, что число уравнений больше числа неизвест- ных и изложим кратко метод наименьших квадратов (метод уравниваний). Уравнение (1.61) Для гауссовской оценки имеет вид S-QD'D)’^'». (2.s) Эта оценка, очевидно, есть линейная функция результатов измере- ний Z . Подстановка в (2.3) уравнения (2,1) устанавливает связь опенки % с истинным значением X и ошибкой намерений 6: ®=®+(D’D)-1lis. (2Л) Вычислим математическое ожидание от обеих частей этого выраже- ния. С учетом того, что Еа—О, последнее слагаемое обращается в нуль. В результате получаем, что Ех-Ех. Таким образом, гауссовская оценка является несмещенной (имеет истинное математическое ожидание). Ошибка оценивания определяет- ся как разность между оценкой и истинным .значением: л» л х.-х-х. Непосредственно из уравнения (2.4) вытекает, что х— (D’D^Ds. (2.6) Очевидно, что математическое ожидание ошибки оценивания равняет- ся нулю. Матрица ковариации ошибки ввиду (2.2Д) дается выраже- нием (Д.Ч) что имеет место ногда, (дисперсии Еь? = 1) и Пусть S является единичной матрицей, когда все 'ошибки наблюдения нормированы . . f некоррелированы (при j + к ковариации Ев. S^-О). Тогда уравнение (2.7) упрощается и принимает вид Елое'=(Л'П) 1 (2.8) В специальном случае S—I можно придать новое толкование в урав- нении (1.63) матрице наблюдаемости М> которая равняется норм 50
мальной Матрице D’D. Именно, обратная матрица М-^ равняется матрице ковариации ошибки гауссовской оценки. ~ Рассмотрим ^теперь след матрицы ковариации вектора X: S™»Ea®,= JC Ех?= (2.9«) I' = Е Ц ®2= Ех’х. rd 11 (2.9 Ь) В правой части уравнения (2.9 а) стоит сумма дисперсий ошибок. Как показывает равенство (2.9 Ъ), она равняется математическому ожиданию квадрата евклидовой нормы вектора X. Поставим теперь вопрос, будет ли гауссовская оценка, минимизирующая квадрат нор- мы ||fc-Dx|L, доставлять также наименьшее возможное значение выражению кн-Ч- Иными словами, будет ли справедливо требо- вание о том, что наименьшая сумма квадратов 2>г должна равнять- ся минимальной сумме дисперсий Ех?? В общем случае ответ отри- цателен, поскольку, как будет показано далее, оценка с минималь- ной среднеквадратичной ошибкой имеет другую форму, нежели гаус- совская. Вернемся опять к исходной постановке задачи, которая опреде- ляется уравнениями (2.1) и (2,2). Вновь допустим, что Т> может быть больше, меньше или равно П. Будем искать опенку £ вектора X, обладающую следующими свойствами: (!) линейнойсть, (it) несмещенность, (lit) минимальная дисперсия ошибки оценивания х^. Предположение о линейности приводит к следующему выражению для X’. X = J+&2. (2.10) Здесь вещественные И-мерный вектор ф и весовая матрица & размером 1г *4 подлежат определению. Требование несмещенности означает, что должно быть справедливо равенство Е® = 0+ £гЕг» Ех. Отсюда вытекает, что должно равняться нулю, ибо как 2, так и X ^имеют нулевые математические ожидания. Поэтому выражение тля X приобретает более простую форму 2 = &2. (2.11) Матрица (1 определяется требованием о том, что дисперсия ошибки оценивания X^~Xl должна быть минимальной. В соот- ветствии с уравнением (2.11) каждая компонента оценки зави- сит от X лишь посредством l-й строки, матрицы (г, которая обозна- чается через Таким образом, X^=gl'Z. Упомянутое требование о минимальности дисперсии означает, что Ех*->Ы.ъ для ...п. I/ й* 51
Отсюда следует, что Ех?= Е (.Ок-«.рг«E(x-^'8)a=»E[®2-2a^*’z+'(^af]« •»Еа®-2Е(®^')^+^Е(.88,)|1. (2.42) Таким образом, дисперсия l-й ошибки оценивания дается суммой, в которой первое слагаемое не зависит от ф, а второе и третье представляют собой линейную и квадратичную формы от (•}*'- вектор-столбец). Необходимое условие экстремума выражения (2.12) состоит в том, чтобы все частные производные по элемен- там обращались в нуль. Иными словами, градиент относитель- но должен равняться нулю, т.е. 3^гЕл?*°- Применим правило вычисления градиента (см. Приложение А.9 уравнение (А.61)) к правой части уравнения (2.12). Получим -2Ех.г'+2^ Ezz'-O. или Ea-^-^Ezz'-O. ttAS) Это условие, каждый член которого есть Ч -мерная строка, справед- ливо для всех 1=1,...,1г. Запишем его в компактной форме, распо- ложив отдельные строки при 1=1,2.,...,1г друг за другом; Ехъ'-& Ezz'-O. С21А) Соотношение (2.14) представляет собой систему линейных алгебраических уравнений относительно искомой весовой мат- рицы Сг. Необходимое условие его справедливости состоит в том, чтобы дисперсия каждой отдельной ошибки измерения Ех? принимала экстремальное значение. Достаточным условием минимума является положительная определенность матрицы, образованной вторыми про- изводными функции Еав? относительно Иными словами, матрица Гесса относительно ‘'должна быть при всех 1 положительно опре- делена; J2 с„а ------Е (ЮГ положительно определена. Искомая матрица Гесса получается в результате повторного вы- числения частных производных левой части соотношения (2.13) относительно (см. также Приложение, параграф А.9, уравнение (А.62)). Следовательно, указанное выше условие переходит в сле- дующее: Ezz' положительно определена. (.2.15) 52
Последнее условие достаточно для того, чтобы найденные с по- мощью (2.14) экстремальные значения дисперсии действительно были бы минимальными. Таким Образом, требование (2.15) явля- ется необходимым и достаточным условием того, чтобы уравнение (2.14) относительно (г имело единственное решение. Уравнение (2.14) можно рассматривать как аналог уравнения Винера - Хопфа при дискретных наблюдениях (ср. уравнение (2.81Ъ), Его можно записать в еще более краткой форме. Объединяя в (2.14) математические ожидания и вынося ф' за скобку, получаем £(*-&-а)тМ. Учитывая, что X- Qx=X~X= X, имеем Ехг'аО. (2.16) Последний результат представляется очень интересным. Он озна- чает, что ковариация результатов нбблюдений и ошибок оценивания должна обращаться в нуль. Говорят также, что ортогональны относительно Zj,. Последнее эквивалентно некоррелированности Ж и Zf поскольку математические ожидания ф и 2 равны нулю. Умножая (2.16) на ft’ справа, получаем Etex’ss 0. Следовательно, ошибка оценивания должна быть некоррелирована не только с результатами измерений, но и с самим значением оцени- ваемой величины. Преобразуем с учетом указанных взаимосвязей матрицу ковариации ошибки оценивания Ехх'»Ел(х~£)’чЕгх'з (2.17а) «= E(X-Q-fc)x'= ЕХХГ~ llE^x'. (2.17 Ъ) Минимально возможная сумма дисперсий определяется следом при- веденного выражения для матрицы ковариации ошибки. Для окончательного определения оптимальной матрицы ft в урав- нении (2.14) надлежит вычислить фигурирующую в нем матрицу ковариации. Принимая во внимание соотношения (2.2Ъ), (2.2d.) и (2.2 е), получаем Ехъ'=Е [x(x'D’+s')]= PD', (2.18а) Е 22'= E[(Dx+S) (x'D'-S)]- JJPB* S. (2.18 Ъ) Поэтому уравнение (2.14) можно записать в виде ft(DPD'+S)-PD' (243} В круглых скобках здесь стоит матрица размером *t*t. Если число наблюдений % меньше числа неизвестных X-, то из системы уравнений (2.19) можно определить ft, В этом случае имеем &-PDr(l)M)+syl (2.20) Подстановка (2.20) в (2.11) дает первую форму линейной несме- щенной оценки с минимальной среднеквадратичной ошибкой ®wPD’(DPD»+S)‘4. (2.21) 53
В сипу (2.2) и (2.18а) матрица ковариации соответствующей ошибки оценивания дается ввиду (2.171») выражением Етх'^Р-йГР. (2.22) Подставляя сюда (2.20) получаем EoEat'ep-Pi/CDPD'+sy^DP. (2.23) След этого выражения равняется наименьшему возможному значе- нию суммы дисперсий ошибок. Интересный специальный случай построенной выше оцечки полу- чается при следующих предположениях: (1) Рж1, т.е. неизвестные величины нормированы и взаим- но независимы; (11) 6*0, т.е. наблюдения проводятся точно (без ошибок); (in) D имеет ранг %. Тогда уравнение (2.21) принимает вид (2.2J,) Эта оценка является зеркальным отображением оценки, даваемой гауссовским методом наименьших квадратов. Матрица ковариации ошибки оценивания в соответствии с уравнением (2.23) теперь равняется Exx'-I-D'CDD')"1!». (2.2S) Обратимся вновь к уравнению (2.19). Если число наблюдений превосходит число неизвестных, т.е. *1>П,,то существует еще и вто- рая форма, более удобная при вычислении Сг. Установим вначале два заслуживающих внимания свойства симметрии. В уравнении (2.22) два первых члена симметричны. Значит, последний член так- же должен быть симметричным, т.е. &ПР=РВ'й’. С2-2В) Умножая (2.19) слева на получаем лапрв'+ Dfta»npDr. Первый член здесь симметричен ввиду (2.26), а симметрия послед- него очевидна. Следовательно, средний член также должен быть симметричным, т.е. D&S=Stt'D’. (2.27) Для того, чтобы уравнение (2.19) можно было привести к же- лаемой второй форме, должно быть сделано предположение о невырож- денности матриц Р и S. Выполним умножение в левой части (2.19) и используем в первой сумме свойство симметрии (2.26), Получим PD’G'B,T&S = PDf. Преобразовывая здесь в первой сумме сомножитель D' в соот** ветствии с уравнением (2.27), заключаем, что PDrS"1EGS + GS=PD'. 54
-4 Умножая обе части этого соотношения на Р слева и S справа, приходим к желаемому результату: (2.28) Круглая скобка в (2.28) представляет собой матрицу размера Пить. Полученное решение эквивалентно уравнению (2.19). Однако оно существенно проще для вычислений, если 71 «Ч и матрица & - диагональная. Используя матрицу ft, определенную из уравнения (2.28), получаем вторую форму линейной несмещенной оценки с минимальной среднеквадратичной ошибкой: При этом матрица ковариации ошибки, как следует из уравнения (2.22) принимает вид Е{фХ'} » [I-ftD] Р = e [l->(DrS"4D+P"1)"1DfS“1D]P« = (В,8'4Б+Р"1)"1[(Л'Г1Л+Р-1)-Б'3~1в]Р, Е{хх'} - (D,£’‘lD+P"l)“i. □ (й.ъо) Один из наиболее известных частных случаев оценки (2.29) возникает тогда, когда выполнены следующие предположения: (1) Р-»оо, соответственно Р’"4=0. Это означает, что дисперсии всех неизвестных X- неограничено возрастают. Иными словами, не существует никакой априорной информации о величинах X.", (ii) ранг матрицы D равен Тц т.е. должно существовать по край- ней мере 71 линейно независимых измерений. При этих предположениях получается гауссовско-марковская оцен- ка Х-СОЧ^ЛУ^Г1*. Соответствующая матрица ковариации ошибки измерений с учетом (2.30) равняется ^232) На главной диагонали этой матрицы находятся наименьшие значе- ния дисперсий, которые можно вычислить, используя априорную ин- формацию. Если, сверх сделанных предположений, окажется, что матрица S - единичная, то получается гауссовская оценка, задаваемая со- отношениями (2.3) и (2.8). Таким образом, требование о том, чтобы наименьшая сумма величин дисперсий Ех\ выполнено только 4 S нормированы и некоррелированы ной статистической информации о неизвестных X равнялась минимальной сумме тогда, когда ошибки наблюдений и не существует никакой априор— 55
Как уже выше было показано, гауссовско-марковская оценка представляет собой обобщение метода наименьших квадратов. При по- мощи некоторых эвристических соображений гауссовско—марковскую формулу можно получить более простым путем. С этой целью исполь- зуем классическое решение метода наименьших квадратов и предпо- ложим, что S - известная диагональная матрица с различными эле- ментами на главной диагонали. Это означает, что ошибки наблю- дений взаимно независимы, а их дисперсии сильно отличаются друг от друга. Представляется, видимо, понятным, что полезно вначале все наблюдения рассмотреть с позиции их одинаковой добротности, прежде чем использовать гауссовскую формулу наименьших квадра- тов. С этой целью разделим каждое уравнение наблюдений на квадра- тичный корень из дисперсии соответствующей ошибки измерений. Указанную процедуру можно представить как умножение слева урав- „-4/2 нения (2.1) на матрицу о . Последняя матрица диагональна с элементами на главной диагонали равными 1 /т/би < Итак, преобра- зуем уравнение (2.1) следующим образом: ’* S’i/az=3“l/a(Dx<-s). .-4/2 Отсюда видно, что преобразованная ошибка измерений & s имеет единичную ковариационную матрицу I. Сделаем теперь дальнейшее обобщение, предположив, чтоб есть произвольная положительно определенная матрица, т.е. что ошибки измерений коррелированы между собой. Заметим, однако, что исход- ное уравнение Z=3)0t+S можно преобразовать таким образом, чтобы устранить указанную корреляцию. Для этого разложим мысленно матрицу S на матрицу V, состоящую из ее собственных векторов и жорданову нормальную форму Т(см. уравнение (А,46) в Прило- жении) S»VJV-i.Поскольку й - действительная симметричная мат- рица, то жорданова нормальная форма, как известно, - диагональная. В рассматриваемом случае, сверх Того, матрица S положительно оп- ределена, так что все элементы на главной диагонали матрицы J поло- жительны. Квадратный корень из J обозначим через J4'*. Далее, матрица V - ортогональная, поскольку она состоит из собственных век- торов действительной симметричной матрицы,т.е. VrV"I. -i t Значит, V «V . Таким образом, имеем v j1/a тi/a V Это представление матрицы & можно интерпретировать как извле- чение квадратного корня в матричном виде. Умножим теперь слева обе части уравнения наблюдений (2.1) на матрицу, обратную к "кор- ню" из S. Получим (v//a')’tB-(v/'S’i(Dx+S). (2 33) Матрица ковариации преобразованной ошибки наблюдений равняется J' д/2 у'1 Е {ss'} V-ifг1/2 * Г1/а v"4{v JV-1} VJ-i/2 = I. 56
Итак, желаемое достигнуто: ошибка наблюдения преобразованно- го уравнения измерений (2.33) нормирована и некоррепирована. Применим теперь формулу (2.3) наименьших квадратов, причем зна- чения ги D заменим в соответствии с (2.33). Получим х « • T‘i/aV’4Dy • J~i/2 V'£z = = (DTV JV-i Ъпг [VJV4]-1 z, & = z. I (оследпее выражение есть в точности гауссовско-марковская оценка, даваемая уравнением (2.31). Гауссовско-марковская оценка может быть получена и другим нзрйстическим способом, по существу, однако, идентичным рас- смотренному выше. Этот способ состоит в использовании метода . Вместо наименьших квадратов с весовой матрицей, равной fi \ вира. । спи я ||Е-Вж||2 теперь надлежит минимизировать функцию |Мх||2_ £ В (2.34) произведем перемножение, вычислим градиент и прирав- няем его нулю. Тогда подобно методу наименьших квадратов в II 1.6 получим без труда гауссовско-марковское решение (2.31). Замечание. Подобно гауссовскому решению зеркально симмет- ричное решение может быть получено чисто детерминированным образом. Рассмотрим лишь случай, когда число линейно независи- мых уравнений системы 2 = Lx меньше числа неизвестных, т.е. 1<П. В этом случае существует бесконечно много решений для X. < реди них надлежит выбрать такое (именуемое оценкой). которое имеет наименьшую евклидову норму. Таким образом, требуется минимизировать выражение ХГХ при дополнительном условии 2-Вх = -0. Наиболее просто эта задача решается с помощью метода мно- жителей Лагранжа (здесь % - вектор размерности X ): х’хч- 2 Л* min X л Дифференцируя по X, полагая равными нулю частные производные и т-ранспонируя, получаем л । Х'ЕЛ. Отсюда следует, что в®=вб'л = 2. Из последнего уравнения выразим Л через Z и подставим в пре- дыдущее. Имеем x-jAdd')"1*- Последний результат совпадает с оценкой, даваемой уравнением (2.24). 57
2.3. Оптимальный фильтр Калмана (дискретное время) Задача фильтрации в дискретном времени с помощью результа- тов предыдущего параграфа может быть решена без особых труд- ностей. Вначале приводится постановка задачи в ее обычном виде. Далее посредством несколько эвристических, хотя и элементарных соображений показано, что алгоритм фильтрации Калмана соответст- вует процедуре гауссовско-марковского рекуррентного оценивания. Наконец, этот алгоритм выведен вторым строгим способом в виде рекуррентной оценки с минимальной среднеквадратичной ошибкой. Указанный второй способ рассуждений, кроме того, более общий. Он охватывает также и первый момент измерений, когда общее число наблюдений еще меньше числа фазовых переменных ('t<n\ 2.3.1. Постановка задачи Как и в параграфе 1.6, посвященном детерминированной задаче наблюдения, рассмотрим здесь линейную систему с дискретным временем. Предположим, что влияние известных входных воздейст- вий уже исключено*). Однако должны быть учтены как случайные возмущения входного воздействия, так и случайные ошибки при из- мерениях выхода. Математическая модель рассматриваемой наблю- даемой системы имеет вид (см. также верхнюю часть рисунка 2.1) Ж.к+1')=А(.ЮЯ!(к)+ v(k), k%kQ, (г as а) if(k)=C(k')®(k')+w(k'). (2 as у) Недоступный непосредственному наблюдению фазовый вектор Х(к') имеет размерность П,. Предположим, что его начальное значение ОС (к^ есть случайный вектор с нулевым математическим ожиданием *) и заданной ковариационной матрицей Р(к0). Эта ковариационная мат- рица в общем случае определяется слудуюшим образом : Е (ос ( k0> Е ос (к^) (kQy Е® ( к0))'= Р (кр. (2.ад а') Измеряемый вектор ^(к) имеет размерность Ж. Параметры систе- мы А (к) и С (к) представляют собой известные матриДы соответст- вующей размерности. Вектор возмущений И(к) размерности tl и ошибка измерений 'Ц)-(к) размерности tn представляют собой вектор- ные случайные процессы типа белого шума **) с дискретным време- нем. Симметричные, неотрицательно определенные матрицы ковариа- ции этих процессов заданы: Ev(k)-0, Ev(k)v'(«)=a(k)(f , (2.36 Ъ) К rv En>(k>0, Ew(k')w'(ae')=R(k)(t . (2.гбс) К flv *) Это предположение далее будет снято. **)Это предположение может быть снято. 58
Рис 2.1. Наблюдаемая систе- ма и фильтр Калмана в дис- кретном времени (обведенная пунктиром область недоступна). п jtewsf) \-п единичного ’ О/ - запаздывания П Здесь (£ - символ Кронекера, т.е. (Г «1 пои к = ЭС и (f «О кэе км км при к*Э€. Предполагается, что начальное состояние, ошибка изме- рений и вектор возмущений взаимно некоррелированы: EocfJQv’tk) sO, (.2.36 «Г) EaUQw’ (k) =0, (г.зб'е) Ev(k)V’eO*) (.2.364') Требуется построить линейную несмещенную оценку ®(к) на основе имеющейся последовательности результатов измерений (кд\^.(к0+1)г.. Эту оценку вновь обозначим через Я(к).Как и выше, ошибку оценивания определим как разность ОС и ®: ®(ky.-fc(ie)-X(k). (.2.37) В случае несмещенной оценки матрица ковариации определяется со- отношением Р(к):-Е£(.к)Я’(.к). (.2.38) Замечание. В методе минимальной среднеквадратичной ошибки предполагалось, что рассматриваемые случайные величины имеют нулевые математические ожидания. Соответственно этому здесь вна- чале полагается математическое ожидание начального состояния модели (2.35а) равным нулю. Аналогично последовательность воз- мущений Vlk^), V(.k0+l),... центрирована около нуля, так что для всех моментов наблюдений последовательность «(%•*!), а(к0+2),„. *)Это предположение может быть снято. 59
имеет нулевое математическое ожидание. Далее, ввиду (2.35Ъ) и того, что все имеют нулевые математические ожидания, заклю- чаем, что математическое ожидание последовательности <1|(кд'), также равняется нулю. Иными словами, сделанное выше предположение состоит в том, что математическое ожидание случай- ных процессов 'U'(k'), (Л) и 1|(к) равняется нулю для всех к, В отношении шумов и(.к) и 'U>(.k') сделанное предположение всюду в дальнейшем считается выполненным. В то же время предположение о равенстве нулю математических ожиданий величин ®(к) и 1|1к) далее в параграфе 2.3.5 будет снято. 2,3.2. Рекуррентное гауссовско-марковское оценивание; Рассматривается изложенная выше постановка задачи. Дополни- тельно предполагается, что не имеется никакой априорной информа- ции о начальном состоянии системы (.РС.к^')-*’*’) и что матрица ко- вариации ошибки наблюдения Р(к') не вырождена. Вначале, начиная с момента времени к^, производятся измерения до тех пор, пока суммарное число отдельных наблюдений не станет большим П. После атого можно впервые построить оценку. Соответствующая процедура в явном виде здесь не излагается, однако схема рассуждений будет приведена. Подобно уравнению (1.57) из параграфа 1.6 все уже произведенные наблюдения запи- сываются вместе в виде одной системы уравнений, все встречаю- щиеся переменные состояния выражаются через исходный фазовый вектор ЯС (к). При этом следует также принять во внимание выраже- ние, порождаемое возмущениями V(QC). Действуя описанным способом, получаем ту же матрицу D, что и в параграфе 1.6. Новой является матрица ковариации S, которую можно выразить через матрицы О.(к) и где k^W^k.C помощью построенных таким образом а матриц Е и можно получить первую оценку ОС (к), используя гаус- совско-марковскую формулу (2.31). Аналогичным образом вычисля- ются и исходные значения Р(к) в соответствии с уравнением (2.32] При проведении дальнейших наблюдений в каждый последующий момент добавляется новый набор результатов измерений Однако, как и в параграфе 1.6, желательно избежать повторения на каждом интервале только что описанной весьма трудоемкой вычислительной процедуры. Более того, новое значение оценки Л и матрицы кова- риации £ должны быть получены из старых с помощью относитель- но простых модификаций. Для построения искомого рекуррентного решения предположим, что величины ® и Р в момент времени к известны. Проэкстра- полируем вначале ЯС в соответствии с уравнением (2.35а). При этом неизвестные, имеющие нулевые математические ожидания, воз- мущения V(.k) остаются неучтенными. Имеем ®*(.k+l>A(k')®(k). (2.1) Это первое из пяти уравнений алгоритма фильтрации, которое вре- 60
менно занумеровано римской цифрой (ср. также (1.70а)). Проэкст- раполированное значение X*(.k+i) в некотором смысле представляет собой резюме имеющихся знаний об интересующем нас векторе ®.(к+Г|. Для выяснения связи между этими двумя величинами, заменим х(к) в уравнении (2.1) через «(.кУкСк) и подставим вместо А(« соответствующее выражение из уравнения (2.35а). По- лучим ®*(к+1> ж А (к) £ (к W(jq. В правой части здесь стоит искомый вектор Х(к+1), сложенный с «ошибками* А® и V. Обозначим матрицу ковариации этих ошибок через Р*(кН). Ясно, что она равняется р\к+1>Е(А(к)х(к)+1г(к))(хЧк)Аг(кН v'(k)). Ввиду формулы (2.35а) фазовый вектор ®(к) зависит только от и величин (кф)...t>(k -1). На основании (2.36Ъ) и (2.36d) величины ЗС(к) и V(k) очевидно, некоррелированы. Оценка % (к*) является функцией <y(k0’),«-»^(k) в потому дависит только отХСк^-.-Х^^и последовательности ’ W(к0'),..., .Обе эти последовательности некоррелированы с V(k). Поэтому ковариация между и 1),(к') в приведенном выше уравнении для Р*(,к+4) равняется нулю. Следовательно, p\k+i)=A(k)PU') А\к)+ Ctlk). Это второе уравнение рекуррентного алгоритма фильтрации (ср. также (1.71а)). Матрицу P*(k+i^ можно интерпретировать как мат- рицу ковариации разности tE(.k+i)-®*(k+l'), или как матрицу ковариации ошибок экстраполяции. Приведенное выше уравнение для Х*(к+1) можно интерпретиро- вать как первое, в котором учтена совокупность ранее полученных результатов наблюдений, для определения вектора X(k+i"). Дополни- тельные измерения в момент времени к+1 поступают в соответст- вии с уравнением наблюдений (2.35Ъ). Оба эти множества измере- ний можно представить в виде одной системы: Х*(к+1) | (к+ 1) 1 Ъп м Г-А(к)®(к)-Ш') С(ьп или 2-Dx(k+l)+a. Фигурирующие здесь величины Z,D,S- определяются с помощью непосредственного сравнения. Матрица ковариации верхней части вектора S бьша ранее обозначена через Р*(к+1) и уже вычислена. Матрица же ковариации оставшейся части 'U>(k+4') равняется R {к+1\ Ковариация между V(k+O и Х(к’), а также между <W(k+ll) и V(k) 61
равняется нулю. Таким образом, имеем сг ,1 а ГЛкЧ) О E{ss}-S-^ о Mk+1)J- Теперь гауссовско-марковская оценка для ®(k+l") получается в результате использования соответствующей модификации уравнений (2.31) и (2.32). Именно, X(k+l)-P(kTl)-D'S4b, ГД6л. 4 4 P(k+1)= (П'Г DY . Здесь С4к+6] P*-i(k+i) О О АкН)_ = [р*4(.к+1) С'СкНЯгЛк+п], D'S4D~ [p*“\k+D СЧк+П1?“1(кИ)_ 1 euH)J’ D'S~4= [р*~4(к+П С'(кЧ)йЛкН?| X*(k+1) Подстановка последнего выражения для D’S 1 в уравнение для оценки дает ®(k+l>P(k+i'){p1‘4(k+lH*(.k+l>C,(k+i)R4(kvi')y( k+1)}. (2Л9 а) Используя далее формулу для D’S *D, получим Р“Чк+1')=Р*’Чк+1')+СЧк+1)Г1(к+1)С(ктП. (2Л9Ъ) Поскольку аргументы в двух последних промежуточных соотношениях одинаковы и равны кН, их можно формально заменить на к,причем к теперь уже представляет собой номер следующего наблюдения. Множитель перед (k+i) в уравнении (2.39а) является матрицей усиления К (ср. (1.68)), равной K(k):=P(M4k)R"W (АЛО) Умножим уравнение (2.39Ъ) слева на Р. Тогда промежуточный результат можно записать в виде ®(к>Р(к)Р*Ак)л*(к)+К(к)у(к), 1-Р(к)Р*Лк>ВДС(/). а? ^*4 Последнее из этих двух уравнений разрешим относительно РР 62
и подставим полученное в первое уравнение. Получим (ср. (1.70b)) X (к) = <Ь*(к)+ К ( к)^(к)- С ( к) Х*( к)}. (.2. S') Умножая далее предыдущее уравнение на Р* справа, заключаем (ср. (1.71с)), что Р*(к>Р(к)+К(к)С(к)Р*(к). (.2.>у) Наконец, умножим это уравнение справа на С’ и припишем К первому слагаемому в правой части множитель R'1]?. Разрешая полученное уравнение относительно К, получаем с учетом формулы (2".4О), что (ср. (1.71Ъ)) К(к)=Р*(к) С’(к){С(к)P*(k)C'(k)+R(k)}“ . (2.у) Тем самым поставленная цель достигнута. Искрмый рекуррент- ный алгоритм состоит из уравнений (2.1) и (2.Ш) для фильтра и уравнений (2.П), (2.1у), (2.у) для матриц ковариации оценок х* и ОЬ, а также для матрицы усиления К фильтра. Полученный резуль- тат идентичен алгоритму фильтрации Калмана. Выводы. Алгоритм рекуррентной гауссовско-марковской фильтра- ции системы с дискретным временем, находящейся под действием случайных возмущений X(k+4)=A(k)®(k)+v(k), у(k)«C(k)a(k)+'to’(к), состоит б следующем: - фильтр (рис. 2.1) Х*(кЧ>А(к)ф(к), (2.На) ъ lk>x*(k)+K(k){ip)- С(к)х*(к)}; (2-М.Ъ) - матрицы ковариации ошибки и матрицы усиления P*(k+A)a A(k)₽(k)Ar(k)+GL(k), (2.42а) K(k)«P*(k)C'(k){C(k)P*(k)C*(k’)fR(k)}~i, (глаъ) ? (k)=P*(k)- K(k)C(k)P*(k\ (2.42 с) Начальные условия определяются следующим образом. В началь- ный момент времени к0 производится первое наблюдение 1|(к0). Необходимо, однако, иметь столько моментов наблюдений, чтобы суммарное число измерений ^(W) было не меньше размерности П фазового вектора. После этого одновременно строится первая оцен- ка ЭС.(к) и определяется значение матрицы ковариации ?(к) в со- ответствии с гауссовско-марковским алгоритмом (2.31), (2.32). Эти выражения и образуют начальные условия для рекуррентных формул (2.41а) и (2.42Ъ). Априорные сведения о начальном состоянии: равенство нулю ма- тематического ожидания E®(kn)« О и бесконечная дисперсия р’Ч%)-о. 0 63
Сравнение установленного результата с уравнениями (1.70) и (1.71) показывает, что рекуррентная гауссовско-марковская фильт- рация представляет собой обобщение рекуррентной процедуры гаус- совских наблюдений для случая Cl(k)=O, R(k)=I на случай произ- вольных зависящих от времени матриц GL и R. Собственно уравнения наблюдений и фильтрации в обоих случаях совпадают (см. также рис. 1.6 и рис. 2.1). В то же время матрица усиления К имеет, вообще говоря, различные значения в задачах наблюдения и фильт- рации. Численная реализация алгоритма фильтрации с учетом соотноше- ний (2.41а), (2.42а), (2.42Ъ), (2.41Ъ),(2.42с) состоит из следу- ющих этапов. На первых двух этапах имеющаяся оценка и ее матри- ца ковариации экстраполируются на следующий интервал. На третьем шаге вычисляется оптимальная матрица усиления К и проэкстраполи- рованная оценка улучшается с использованием новых результатов наблюдений 1^.. На последнем шаге определяется матрица ковариации новой модифицированной оценки. Отметим, что уравнения (2.42) для матрицы ковариации совер- шенно не зависит от фактически реализовавшихся значений наблюде- ния у и оценки X. Значит, поскольку матрицы А, С, R и GL предпо- лагаются известными, эта часть алгоритма может быть рассчитана заранее до уравнений фильтрации (2.41) и в особенности перед эксплуатацией фильтра. По существу, эта часть алгоритма представ- ляет собой не Что иное, как определение синтеза оптимального фильтра. При этом элементы главной диагонали матрицы Р (к) ука- зывают на степень добротности фильтра. Вычисленная последователь- ность матриц усиления К(Ь) после начала эксплуатации фильтра сохраняется вплоть до их использования в момент к. В случае ста- ционарных наблюдений, т.е. при постоянных параметрах А,С, GL и R значения к обычно колеблются конечное число раз (от 5 до 20) около некоторых постоянных величин, так что сохранять следует их пределы. Стационарное решение для К соответствует фильтру Винера - Колмогорова. Примеры приведены ниже. 2.3.3. Рекуррентное оценивание с минимальной среднеквадра- тичной ошибкой. В предыдущем параграфе алгоритм фильтрации по Калману был получен как рекуррентный вариант соответствующей гауссовско-марковской процедуры оценивания. Методически такой способ рассмотрения Проще. Од-нако он обладает тем недостатком, что первая оценка и дальнейшая рекуррентная процедура могут быть начаты только тогда, когда в совокупности имеется не менее Н отдельных наблюдений Напротив, метод минимальной среднеквадратичной ошибки позво- ляет сразу после проведения первого наблюдений ^(к^ построить оценку вектора Х(кд). Впрочем, при этом предполагается, что мат- рица ковариации вектора Х(к0\в противоположность изложенному выше, конечна и известна. Иными словами, должна существовать соответствующая априорная информация о начальном положении сис- темы. 64
Ниже вначале определяется оценка Ж (kg) с минимальной диспер- сией. Для всех дальнейших моментов измерений опять использована рекуррентная процедура. С ее помощью имеющаяся оценка улучшает- ся с учетом новых измерений таким образом, чтобы модифицирован- ная оценка по-прежнему обладала минимально возможной среднеквад- ратичной ошибкой. Оказывается, что упомянутая рекуррентная проце- дура в точности та же, что и выше. Основное отличие состоит в изменении начальных условий и в смещении вперед начальной точки. С математической точки зрения метод минимальной среднеквад- ратичной ошибки имеет еще два преимущества: (.1') Более не требуется невырожденности матрицы ковариации ошибки наблюдения. Матрица вообще не входит в алгоритм фильтрации (2.41), (2,42). (.11) Оптимальность экстраполяции (2.1) может быть строго доказана. В первый момент наблюдений получается следующее измерение lj(k0)“C(.ko)®(k^-w (IQ, причем Ex(k(J')®,(k0')=P(k). Сравним эти соотношения с уравнениями (2.1) и (2.2Ъ) и подста- вим соответствующие величины в формулу (2.21) для линейной не- смещенной оценки с минимальной среднеквадратичной ошибкой. Не- посредственно получаем x(k0)=K(k0)i|(lQ. tew а) Здесь £ K(Q=P(k0U49[Clk0)PlQC4k0)+R(k0M' . (2 Wb) Из уравнения (2.22) вытекает, что PlQ’PtkokKCk^Clk^Pd^Q (2 43с’) Это начальное решение может быть непосредственно использовано в уравнениях фильтрации (2.41b), (2.42Ъ) и (2.42с), если только в них положить Ж*(ко')ж0 и Р*(к0')“Р(.к0'). Решение для всех последующих моментов наблюдений получается путем перехода от к к k+i.C этой целью обратимся вновь к прос- тейшему матричному уравнению Винера - Хопфа с дискретным вре- менем. Справедливость указанного уравнения является необходимым и достаточным условием того, чтобы оценка имела минимальную среднеквадратичную ошибку. Ниже оно используется в форме урав- нения (2.16). Кроме того, для дальнейшего изложения необходимо уравнение (2.17а). Для удобства ссылок приведем здесь оба упо- мянутых уравнения еще раз: Е®ж'=0 (2 44 а) ЕХХ'^ЕХХ'. (2.44Ъ) Предположим, что наблюдения уже про- изведены и использованы при построении оценки 36 (к). Эта оценка оптимальна в смысле максимума среднеквадратичной ошибки. Послед- 65
нее означает, что выполнена соответствующая форма условия (2.44а), т.е. E[x(.k)-x(k)][if (kQ\ ^4^+4)... ^'(к)]=0. (.2 <t5a) Подчеркнем, что это уравнение уже удовлетворено. Определим теперь прежде всего оптимальную оценку экстраполя- ции Я* (к+1). Для этого надлежит использовать следующую форму условия (2.44а): Е [® (k+i)- ®*(k+l)] [If (k0\ if (k0+l)... -у'(k)]~0. (2.45 ъ) После проведения нового измерения у (k+i) может быть построена следующая оценка ®(k+i). При этом условие (2.44а) принимает вид E[®(k+i)-Z(k+i)][f(k0),if (k+i)...yf(k): у'(к+1)]=0. (2Л5с) Для того, чтобы удовлетворить условию (2.45Ъ), сравним его прежде всего с (2.45а). Оба уравнения различаются лишь первым сомнсркителем. Это отличие становится еще меньшим, если член ®(к+1) в (2.45Ъ) заменить на A(k)x(k)+V(k). При этом, поскольку v(k) некоррелировано с у(к0)...у(к) (-см. п. 2.3.2), его можно не учитывать. Оставшееся выражение имеет вид Е[А(к)х(к)-®*(к+1)][^(ко),^(к+1)...^(к)]=0. Последнее требование, очевидно, справедливо при Х*(.к+1)= А(к) Х(к). (2.1) Вынося затем А (к) в предшествующей формуле из - под знака мате- матического ожидания, приходам к соотношению, справедливость которого вытекает из предположения (2.45а). Ошибка экстраполяции равняется x(k+l)-5t*(k+l> A(k)x(k)+iy(k)-A(k)x(k)=A(k)z(k)+v(k). (2.46) Матрица ковариации ошибки экстраполяции дается равенством P*(k+i):-E£oB(k+i)-®*(ki-l)][x(k+4)-®*(.k+i)]“ = E[A(k.)z(k)+ v(k)][3?(k)A,(k)+vr(.k)]. Однако, как установлено выше, возмущения v(k) некоррелированы с ошибкой оценивания 5, (к). Поэтому Р*(к+1)=А(Л)Р(к)А'(к)+0Щ). (2.S) Тем самым экстраполяция осуществлена. Обратимся теперь к условию (2.45с), которое позволяет найти подходящее выражение для оценки Х(к+4). Принимая во внимание гауссовско-марковский алгоритм решения задачи наблюдения, будем 66
искать оценку в виде X (k+l)=QC*(kti)*K(k+l)(^(k+l)-C(k+l)x*(k+l)'). С2.0П Заменим здесь 1| на (T'E+'W. Тогда для новой ошибки оценивания получается выражение ® (k+i)-х (k+l> Cl-К (k+1) С (k+ГУ] [х (Ь1)- х* (k+1)]- -K(k+l)tr(,bl). (£.47) Подставим это выражение в уравнение (2,45с). Далее, рассмотрим в нем вначале первую часть математического ожидания, содержа- щую прежние значения Ц и расположенную слева от штрихованной части в (2.45с). Новая ошибка измерений ttflk+l) некоррелирова- на со старыми наблюдениями от ^(0 до t|(k). Произведение двух выражений в квадратных скобках в (2.47), коррелированное с совокупностью наблюдений от 1|(к0) до -Ц(к), имеет ввиду (2.45Ъ) нулевое математическое ожидание. Значит, выражение (2.щ) удовлетворяет той части требования (2.4), ко- торая находится слева от штриховой линии. Оставшаяся часть тре- бования (2.45 с) позволяет определить недостающую матрицу уси- ления К. На основании (2.47) должно быть справедливо равенство Е[(1-К(к+4)С(кИ))(®(к+1)-Х*(к+1))- -K(kH)iHktl)](x4k+l)Cr(k+i)W,(k+4)')=0. (2.4%) Величины Х(к+4) и ®*(k+i) не коррелированы с йГ(к+Г). Осталь- ные же математические ожидания можно представить в более прос- том виде. Для этого воспользуемся уравнением (2.44Ъ) относитель- но Х*(к+1), с учетом которого ковариация между Ж(k+l)-X*(k+l) и Х(к+1} может быть заменена на Р*(к+1). В результате имеем (I-K(k+l)C(k+4))P*(k*l)C,(k+l)-K(k+4.')R(k+l)»0. (2.49) Разрешая это выражение относительно К, получаем К(к+1>Р*(к+А)С\к+4)(C(k+4')P*(k+l)C'(k+l')+R(к+1))'1. (2.£) Определим, наконец, матрицу Р(к+4). Для этого умножим спра- ва обе части уравнения (2.47) на ®г(к+1) и вычислим математи- ческое ожидание. Исцользуя еще (2.44Ъ) заключаем, что P(k+4)=(I-K(k+i)C(kH))P*(k+l)')P*(k+l). C2.TV') Тем самым, второй общий и строгий вывод алгоритма фильтрации Калмана завершен. Объединим результаты (2.Т ) - (2.V) вместе в виде следующей теоремы. Теорема 2.1 (фильтр Калмана). Пусть дана стохастическая систе- ма с дискретным временем x(k4)-A(k)x(k)+v(k), Ex(ko)=0. 67
Последовательность наблюдений определяется соотноше- нием t| (к)= С (к)х(к)+^( к"). Априорная информация дается формулами (2.36а) - (2.36{). Тогда линейная несмещенная оценка с минимальной среднеквадратичной ошиб- кой дается следующим рекуррентным алгоритмом: (i) Фильтр (рис. 2.1): X*(M>A(k)»(k), ®*(ко)=О, (2.50 а) x(k>x*(k)+K(k){^(k)-C(k)x*(k^i}. (2.50 ъ> (ii) Матрица ковариации ошибки измерений и матрица усиления P*(k+l)=A(k)P(k) А'(к)+ GL(k\ (2.51 а) К(к)=Р*(к)С'(к){С(к)Р*(к)С'(к>А(к)} , (2.51 ъ) Р(к)= Р*(к)-К(к)С(к)Р*(к). (2.51 с) (ill) Начальные условия: р*(к0)=Р(к0). (2.52) Здесь Р( к^ - матрица ковариации начального вектора Х(к0). Она выражает соответствующую априорную информацию,- Сравнивая гауссовско-марковскую оценку (2.41) и (2.42) с линейной несме- щенной оценкой с минимальной среднеквадратичной ошибкой заклю- чаем, что последняя есть обобщение случая p(k)=<w на случай произвольного конечного значения матрицы P(kQ°. Расчет фильтров первого и второго порядка может быть осущест- влен вручную лучше всего с помощью настольной вычислительной машины. Для фильтров более высокого порядка необходимо уже использовать числовые программ. Наибольшие затраты возникают при вычислении матрицы К в соответствии с уравнением (2.51Ъ). При этом в каждом интервале должна быть решена относительно К' система уравнений (алгоритм Холецкого С1.133) [СР*С' + К]К^СР*. К счастью, матрица в квадратных скобках здесь - квадратная раз- мером tn,т.е. в некоторых случаях - просто скаляр. Матрицы К' и СР* имеют П столбцов с Ш элементами в каждом. Вычислен- ная матрица К умножается справа на построенную ранее матрицу СР*Полученная в результате симметричная матрица КСР вы- читается из Р*, что- дает матрицу Р. Отметим, что симметрию матрицы К СР* легко усмотреть, если умножить справа обе части (2.51Ъ) на С (к) Р^к"). Кроме того, не рекомендуется в правой части уравнения (2.51с) выносить матрицу Р* за скобки, поскольку умножение 1~КС на Р* труднее, чем умножение К на СР*. 68
При обширном численном счете необходимо осуществлять конт- роль. Наряду с обычным контролем, связанным, например, с сум- марным числом строк или столбцов [1.133 в рассматриваемом случае существует два простых дополнительных или альтернативных способа контроля: (D проверка симметрии матриц Р* и Р; (ii) контроль с помощью следующего соотношения ?(k)C'(k>KCk)R(W. 12.53) Справедливость этого соотношения немедленно следует из проме- жуточного результата (2.49), в котором надлежит к+1 заменить на к и член (...")?* упростить, используя (2.51с). Пример 2.1. Пусть ошибка некоторого измерительного устрой- ства состоит из постоянной во времени систематической части (сноса) и некоррелированной по времени стохастической части (бе- лого' шума). С целью калибровки выход измерительного устройства наблюдается в моменты времени 1, 2, 3, ... при отсутствии полез- ного сигнала. Будем интерпретировать систематическую ошибку как фазовый вектор X, а случайную ошибку - как измерительный шум W. Таким образом, модель наблюдаемой системы имеет вид (рис. 2.2) JC(k+l)e K(k), k»4,2,3,... ^(k) = OcCkHw-(k). Параметры А и С в этой модели, очевидно, равны единице. Посколь- ку V отсутствует, то 0,-0. Пусть дисперсия белого шума “НЛ постоянна и равна 2, так что R»A. Относительно систематической ошибки известно, что ее дис- персия равна 3. Положим также Р(к0)=9. Теперь для оценки сис- тематической ошибки может быть использован фильтр Калмана. Уравнение д(2.50) имеет в рассматриваемом примере простой вид ®*(k+£)=06(k'). Следовательно, фильтр списывается соотношением (рис. 2.2) Х(к>Х(к-П+К(к)(у(к>-х(к-1)), £ Ю)а0. Последовательность коэффициентов усиления К(к),а также диспер- сий ошибок оценивания ®(к) определяется из системы уравнений (2.51), принимающей здесь вид Р*(к+1')=Р(к), Р*(1) = 3, К (к)= Р*(к)/[Р\к)+А1, Р(к'> = [1-К(к)]Р*(к'). В этом простом случае можно получить разностное уравнение непосредственно для матрицы К. Из приведенного выше уравнения вытекает, что К(к+1)»Р*(к+1){р*(к*1)+к} -Р(к){Р(к)+ к] . 69
Белый I шит । ш(к) I Систематическая I । Калибровочное ошибка Г измерение oc(k)- const I| y(k)f k*t,2,3— Измерительное устройство, । подлежащее калибровке . x(k) x(k-t) Коэффициент усиления Звено единичного запазаыбания^^ _______ Оценка систематической ошибка Фильтр К(*)~ 1,0 - 0,5- ~д~ 7 2 3 4 5 б 7 к Рис. 2.2. Калибровка измерительного устройства с помощью фильт- ра Калмана. В верхней части - измерительное устройство и фильтр, в нижней - последовательность коэффициентов усиления. Однако ввиду уравнения (2.53) имеем Р1к")~4К(к). Значит, Klk-^KWCKCIO+I)"1. Округленные численные результаты приведены в табл. 2.1, а также на рис. 2.2 и 2.3. Разностное уравнение для К позволяет заключить, что равновесное решение может получиться лишь при к->о°.Если K(k+O = K(k)sK, то K-KlKtl)'1. Отсюда выте- кает, что К(оо') = 0, и кроме того, P*<°°>=(.f*+A)K=0, Р(оо>0. Если наблюдения проводятся достаточно долго, то систематичес- кая ошибка может быть определена точно. Уже после проведения пяти измерений ее дисперсия уменьшается от 3 до V0,73 =» 0,85. Конкретное поведение последовательности а(Ю зависит от последо- вательности реализаций Для ее моделирования надлежит полу- чить случайное значение для ОС, которое далее комбинируется с по- следовательностью некоррелированных величин "W(k), производимых соответствующим генератором случайных чисел. Белый шум желае- мой вариации, равной 4, можно также получить вручную, подбрасы- 70
вая монету. При этом орел соответствует значению *Ш'=2, а решка 'bJ,;=-2. Значение случайной переменной ОС равняется 3. Указанным образом получается приведенная в правой части табл. 2.1 последо- вательность значений для tty, U и X (см. также рис. 2.3). Таблина 2.1 Результаты применения алгоритма фильтрации (2.50), (2.51) в примере 2.1 к 1 р* к f 1 ъг Ч Л X 1 9,00 0,69 2,78 -2 1 0,69 2 2,78 0,41 1,64 -2 1 0,82 3 1,64 0,29 1,16 +2 5 2,03 4 1,16 0,225 0,90 +2 5 2,71 5 0,90 0,18 0,73 -2 1 2,40 ОС 0 0 0 Рис. 2.3. Последовательности результатов измерений, оценки и дисперсии ошибки оценивания при калибровке измерительного уст- ройства (рис. 2.2). 2.3.4. Определение Q.(к). При исследовании систем с непрерыв- ным временем динамическая матрица и матрица усиления имеют различные значения для непрерывных и дискретных моделей (см. параграф 1.6). То же самое, как показано ниже, справедливо и в отношении матрицы ковариации белых шумов на входе системы. 71
Пусть исходная система имеет вид i(t>A(t)®(i)+V(t), е (T(t-t). te.s*o Положения системы в два последовательных момента наблюдения описываются соотношением 4+1 или х(к+1")= A(k)x(k)+v(k'). В дополнение к уравнениям (1.51г) - (1.54) параграфа 1.6 имеем в рассматриваемом случае к+1 1г(к)-.« I фн tWtxte. J к+4 4 Искомая матрица ковариации равняется 4+1 4+1 = | Ф(Лк j E{vct)v40)}«»4t ,е)о1®Лг. ч +i ч (2.5S) Отметим, что произведение двух одноквадратных интегралов типа (2.55) записано в виде двукратного интеграла, причем математическое ожидание вычислено под знаком интеграла. Если К^‘Э8,то t и <5 при- надлежит двум различным интервалам, Т.е. ввиду (2.54) математичес- кое ожидание.обращается в нуль. При к = ЭС, используя свойства дельта- функции, заключаем, что к 1 к+4 • а(к> Ф(1 it, „лНх. (2-56^ к+Г к+1 Ч Пример 2.2. Самолет совершает поступательное движение из заданной известной точно начальной позиции под действием неиз- вестных возмущений ускорения. В течение полета каждую секунду измеряется координата с ошибкой. Требуется построить оптималь- ную оценку координаты и скорости. В качестве фазовых переменных выберем координату 56^ и ско- рость Х2. Возмущения ускорения представляют собой гауссовский белый шум с непрерывным временем. Таким образом, дифференпиаль- 72
ные уравнения наблюдаемой системы имеют вид d Г®/ it ®а "о ЯГаЛ Г°’ о о 1 V, Переходная матрица этой системы уже была определена в парагра- фе 1.6. Поскольку Аг=0? то Ф(Й=ЬА(Й- 1 1. и Ч 1 .0 1. Матрица ковариации ft. определяется из уравнения (2.56) при сле- дующих значениях: t, =0, t. =4, Q.(t>rOU-[O 1], * • k+1 L1J u J а-[фИ-р[о1[о 4г-[tX Y1 • J L1J Ll/2 1 J 0 Будем считать, что ошибка наблюдения координаты WLk) пред- ставляет собой нормированный гауссовский белый шум с дискретным временем. Тем самым, модель наблюдаемого процесса с дискретным временем полностью определена. Она дается соотношениями Oi(k+U = [Ч 11 X(k)+U(k'), &(к)= _ 0 1J ’0,333 0,5 0,5" 1_ ^(к>[1 О]х(к) + Шк), R(k>l. В начальный момент времени ошибка в знании координаты и ско- рости равна нулю, т.е. Р(0)я0. Фильтр Калмана - Бьюси для этой задачи имеет форму (рис. 2.4) а*(Ы>Р1 , ®(к\ |_0 1J х*(0)=0, x(k>x*(k)+ k(k)fy(k-)-®*(k)}. Оба коэффициента усиления и к^ определяются с помощью алго- ритма (2.51) при начальном условии Р*(0) = 0. Аналогично в начальный момент времени также к (О') и Р(0) равно нулю. Резуль- таты вычислений при к , меняющемся от 1 до 7, приведены в табл. 73
I Неизвестное | ускорение Скорость | o(tj хг(1) Шумы измерении Координата I х,М I - Т*1сек | Упрощённая динамическая модель, измерительное । устройство, сканер I Наблюдаемая система О 1 2 3 Ч 5 6 7К О 1 2 3 4 д 6 7k Рис. 2.4. Калмановская фильтрация координаты и скорости (при- мер 2.2). 2.2. (Дисперсии ошибок оценивания координаты и скорости приведе- ны на рис. 2.6). Контрольное уравнение (2.53) утверждает что в рассматриваемом случае должно быть Последнее означает, что первый столбец матрицы Р постоянно сов- падает с к. — /V В седьмом интервале матрица ковариации Р не изменяется отно- сительно предшествующего значения. Поскольку А и Q, пЬстоянны во времени, то Р*(8)=Р*(7). Ввиду независимости от времени матриц С и R не изменяется также и К, т.е. JC (8) = К(7). Поэто- му окончательно для Р получается прежнее значение 5(8) = Р(7). Последнее значение решения системы уравнений (2.51) далее постоянно повторяется, т.е. оно является стационарным. В рассмат- риваемом примере замечательно то, что стационарное состояние устанавливается уже через семь моментов наблюдения. Дисперсии стационарных значений ошибки координаты и скорости равны соот- ветственно sx=^K7'> = 0'87’ s^v”"1’015- 74
Таблица 2.2 Результаты применения алгоритма (2,51) а примере 2.2 к Р* к Р 0 0 0 0 0 0 0 0 0 0 0 1 0,333 0,500 0,250 0,250 0,375 0,500 1,000 0,375 0,375 0,812 2 2,145 1,687 0,682 0,682 0,536 1,687 1,812 0,536 0,536 0,908 3 2,995 1,944 0,750 0,750 0,485 1,944 1,908 0,485 0,485 0,964 4 3,017 1,949 0,751 0,751 0,485 1,949 1,964 0,485 0,485 1,019 5 3,073 2,004 0,755 0,755 0,493 2,004 2,019 0,493 0,493 1,031 6 3,105 2,024 0,756 0,756 0,493 2,024 2,031 0,493 0,493 1,031 7 3,106 2,024 0,756 0,756 0,4 93 2,024 2,031 0,493 0,493 1,031 2.3.5. Наблюдаемая система с известными входными возмущениями и ненулевым математическим ожиданием начального положения. До сих пор предполагалось, что случайные процессы {’T(k')} и {1|(кУ} для всех К имеют нулевые математические ожидания (см. постановку задачи и непосредственно следующее за ней замечание в п. 2.3.1). Как только принимается, что математическое ожидание Е® ( кр отлично от нуля, тотчас утрачивает силу предположение о равенстве нулю математичес- кого ожидания рассматриваемого процесса. Аналогичное обстоятельство имеет место и тогда, когда кроме стохастических возмущений V (к) на наблюдаемую систему действуют еще и известные входные воздействия 14.(10. В этом случае как фазовый вектор ®(к),так и измеряемый вектор 1|(к1 содержат известную детерминированную составляющую Соответ- ственно должна быть модифицирована и оценка ® (ЬЛ. Сформулированная только что проблема наблюдения описывается следующей расширенной моделью: oe(k+i)= A (k)»(k’)+B(k)'U(k')+ v( k), k%-kQ, ^(k')=CLk')a>(k')+w(k). Предполагается, что либо задан сам начальный вектор, либо задано его математическое ожидание Еж(к0')= Здесь принимает произвольное конечное значение. Последователь- 75
ность p-мерных входных воздействий U (к0\ ,tt(k) из- вестна точно. Остальные предположения в точности те же, что и в постановке задачи 2.3.1. Искомой по-прежнему является линей- ная несмещенная оценка для X (к) с минимальной среднеквадратичной ошибкой. В главе 1 было установлено, что влияние известных величин на состояние системы ОС (к) и измерение 1^(к) ввиду линейности наблю- даемой системы можно вычислить отдельно от влияния остальных величин. Естественно, что это "вычисление' можно провести для соответствующей детерминированной модели. Обозначая индексом О фазовый вектор и выход этой модели, получаем (2 58) xo(k+4)=A(k)xo(k)+B(k)u(k), х0(Л0)=5, (2 59а) -y0(.k)«Clk)x0(k). (2 5?ъ) В процессе фильтрации для оценки неизвестной центрированной случайной величины ®1(,k)'.« X(.k)-®0(k) надлежит всюду (к) заменить на центрированную (т.е. имеющую нулевое математическое ожидание) величину ^ЧЮ-^Дк). После это- го к центрированной оценке Х^(.к) вновь надлежит прибавить извест- ную величину ОС0(к). Покажем теперь, что эти кажущиеся сложными манипуляции можно осуществить за счет простой модификации уравнений фильтрации. Для этого образуем уравнение (2,50Ъ) для центрированных перемен- ных и В первый момент наблюдений при 0С*(ко)=0 имеем Прибавляя к обеим частям этого равенства ОС (к ), получаем оцен- ку для Х(к0) ° к0> VQ* «о lko> к MW"с (V ««М- Сравнение с уравнением (2.50Ъ) показывает, что лишь ос*(к ) О' следует изменить: Для следующих моментов наблюдений возьмем уравнение (2.5ОЪ) в точке к + 1 и исключим величину Х*(к+4) с помощью уравнения (2.50а). Получим Х1(к+1)=А(к)х1(к)+К(ктп{'у(.к+1)-^0(к+1)-С(к+1)А(к)х1(к)}. (2 59) Складывая уравнения(2.57а) л л и (2.59) и полагая 76
заключаем, что £(k+l>A(k)£(k')+B(k')U(kH д + К(k+D{lj (к+Г)-С(к+1')Х0(кт-!) - С (k+i')A(k)x1(k)}. Заменим здесь величину в фигурных скобках в соответствии с пра- вой частью уравнения (2.57а). Объединяя далее члены с ОС^ и получаем, что X(k+£,)«tA<k')x(k)+B(klu(k')]+ +K(k+D^(k+D-C (k+l)[A(k)x (k)+B(k)u(k\J}. Еще одно сравнение с (2.50Ъ) показывает, что форма уравне- ния и, в частности, матрица усиления К сохраняются, й проэкстра— полированная оценка переходит в следующую: х*(к+4)= А(к)Х (Ю+ В(к)и(к). Последний результат является весьма наглядным. Теперь мы в сос- тоянии сформулировать следующую теорему (см. также рис. 2,5). Теорема 2.2. (i) Пусть дана система х(к+1НA(k)«(k)+B(k)u(k)+ix(k’j, Ех(к0)=^. (2 боа} Последовательность йаблюдений ^(к) определяется соотноше- нием (к> С(к)х(к)+-иу(к). (геоъ') Рис. 2.5. Наблюдаемая система с измеряемым входным воздейст- вием (например, регулирующим воздействием) и фильтр Калмана (обведенная пунктиром область - недоступна). 77
Пусть далее последовательность входных величин задана и априорная информация удовлетворяет предположениям (2.36а)- (2.36 4). Тогда алгоритм линейного несмещенного оценивания с ми- нимальной среднеквадратичной ошибкой вектора ОС (к) имеет вид ®*(kH)-A(k)«(kHB(k)v(k), х*(ко>^, (,2 61а) х (к)= я*(к)+К (k){i|(ky-C(k) х*(к)}. U нм (11) Матрица усиления К (к) определяется уравнением (2.51) с на- чальным условием (2.52). л Доказательство. Линейность'оценки ОС (к) очевидна. Для доказательства несмещенности рассмотрим ошибку экстраполиро- ванной и текущей оценки. Вычитая из уравнения (2.60а) уравне- ние (2.61а), получаем ®(k+l)-x*(k+l)»A(k)®(k)+V(k). (2 62) Начальное условие имеет вид л(к0)-а\к0>Му-15. 1*бз) Используя уравнения (2.61Ъ) и (2.60Ъ), получаем х (к> ® (к)- ое, (к )= л U)- х*(к) - К (к){С (к) ос (к)+и(кК (к)х*(к)}, г (2 х (к)={l- К (к) с (к)] {х (к)- ®*(к)} - К (к) w(k). Вычисляя математическое ожидание в уравнениях (2.63), (2.64), (2.62) и переходя от к к к+1 заключаем, что ошибка оценивания fc(k)-<)t*(k) и величина ®,(к) при всех к имеют нулевое математи- ческое ожидание независимо of значений и 11. Кроме того, оцен- ка - несмещенная. Матрица ковариации разности ®(k+t)-®*(k+l)c учетом (2.62) равняется P*(k+1)= A(k)P(k)A'(k)+a,(k). (г 65) Ее начальное значение, полученное с помощью уравнения (2.63), есть Р(к0), а дальнейшее изменение происходит в соответствии с уравнением (2.51а). Для матрицы ковариации величины ®(к) на основании уравнения (2.64) имеем выражения P(k)={l-K(k)C(k)} P*(k){l-C4k)K/(k)} + K(k)-R(k)K'(k)> Р(к)= P*(k)-K(k)C(k)P*(k)-P*(k)C'(k)Kr(k)+ + К(к){С(к)Р*(к)С'(к>^1к)} К'(к). (2.6Б) Если матрица К (к) вычислена в соответствии с уравнением (2.51Ъ), то обе последние суммы исчезают, а остаток ввиду уравнения (2.51с) дает минимальное значение среднеквадратичной ошибки. Замечание: Уравнения (2.65) и (2.66) для матрицы ковариа- ции ошибки оценивания справедливы независимо от конкретных зна- 78
чений К (к). Следовательно, они могут быть использованы при пост- роении более простых по сравнению -с оптимальными субоптимальных фильтров. Пример 2.3. В примере 2.2 (калмановская фильтрация коорди- наты и скорости) для всех к, начиная с к=1, коэффициенты усиле- ния фильтра и к2 для простоты изложения постоянны и положе- ны равными округленным стационарным значением в конце: к-Г°’751 “ Lo,5O_J' При к=0 оптимальные значения обоих коэффициентов усиления долж- ны быть равны нулю (открытый контур). Работа этого субоптималь- ного фильтра может быть исследована с помощью уравнений (2.65) и (2.66). Численные результаты приведены в таблице 2.3. Диспер- сии ошибок оценивания координаты и скорости приведены на рис, 2,6 для удобства сравнения совместно с их оптимальными Таблица 2.3 Дисперсии при субоптимальной фильтрации (пример 2.3) к м, р* Р 0 0 0 0 0 0 0 0 0 1 0,333 0,500 0,583 0,458 0,500 1,000 0,458 0,833 2 2,665 1,791 0,727 0,491 1,791 1,833 0,491 0,960 3 3,002 1,951 0,751 0,485 1,951 1,960 0,485 1,008 Рис. 2.6. Дисперсии ошибок оценивания координаты и скоростное Сплошная линия - оптимальное значение (пример 2.2), штриховая линия - субоптимальное значение (пример 2.3). 79
значениями. Видно, что, как и должно быть, оптимальное значение дисперсии всюду меньше, чем субоптимальное. При этом отличие существенно лишь на первом интервале и исчезает через несколько моментов наблюдения почти полностью. 2.3.6. Предсказывание (экстраполяция). Обратимся вновь к пер- воначальной постановке задачи из п. 2.3.1. В частности, пусть начальное условие X (k 1 имеет нулевое математическое ожидание, а входное воздействие U (к)отсутствует, т.е. математическое ожи- дание процессов и 1|(к) равно нулю. Искомой теперь являет- ся линейная несмещенная оценка с минимальной дисперсией бу- дущего состояния фазового вектора х(К),где К >к. Эта оценка должна быть построена на основании результатов измерений величин 1|(к0)...1| (к) (к - текущее время). Обозначим эту оценку через ®(К| к).Отметим, что она должна удовлетворять дискретному уравне- нию (2.14) Винера - Хопфа, которое было использовано в парагра- фе 2,3,3 в виде условия (2.16). Указанное условие для рассматри- ваемой здесь задачи экстраполяции записывается в форме Е{[>(к)-ж (К | k)] [^'(k^, tpk„+ 1У- Ю]} - О- U.67) Если в некоторый момент наблюдений экстраполированная оценка уже определена с помощью уравнения (2.4.5Ъ), то справедливо тож- дество ай(к+Цк)»®*(к+1). Теперь с помощью'Подобного же образа действий целесообразно выразить значения оценки экстраполяции ₽ последующие моменты времени через уже полученное значение Ж*(к+1). С этой целью выразим вектор Ж (К+1) через Ж (к+1) и последовательность входных воздействий и(к+Г),. ..,Ц(К~Г) при помощи формулы общего решения (1.554). Имеем К-1 ж(К)=Ф(К, k+l)x(k+l)+ZL Ф(К,эе+4)цlie). (2.68) зе»к+1 Результаты наблюдений 1|(к0'|... Ц (к) в уравнении (2.67) зависят лишь от ®(k0\V(k0\..V(.k-4) и Ъ1(ко).,. Поэтому эти наблюде- ния некоррелированы с величинами V(.k+1)...V(K-1)под знаком суммы в формуле (2.68). Значит, при подстановке равенства (2.68) в условие (2.67) математическое ожидание суммы обращается в нуль. Само условие при этом переходит в следующее: Е{[Ф(К, к+1) X (к+D- ж (К I к)] ty4k0), у( к0+1)... у (к)]} -0. Последнее требование, очевидно, справедливо при X (К (к)=Ф(К, к+1)Х*1к+1). Действительно, в упомянутом требовании можно матрицу ФСК, к+1) вынести из-под знака математического ожидания, а оставшееся вы- 80
ражение тождественно с ранее установленным соотношением (2.45Ъ). Таким образом, решение задачи экстраполяции осуществляется путем простого обобщения решения задачи фильтрации. Суммируем сказанное в виде теоремы. Теорема 2.3. Пусть дана стохастическая система с дискретным временем fc(k+l>A(k)x(k)+u-(k), Ех(.ко>0. Последовательность наблюдений определяется формулой 1|(к)=С(к)я(к)+'1й(к'). Имеющаяся априорная информация дается формулами (2.36 а} - (2.36$'). Тогда линейная несмещенная оценка с минимальной средне- квадратичной ошибкой будущего состояния системы х(К), K>k опре- деляется выражением Х(К|кУ=Ф(К.кИ)ф*(к+1'). Здесь Ф - переходная матрица, соответствующая А (к), а Ж*(к+1) вычисляется в соответствии с рекуррентным алгоритмом теоремы 2.1. Отметим, что аналогично теореме 2.2 могут быть учтены нену- левые внешние возмущения и начальные условия с ненулевыми ма- тематическими ожиданиями. Правда при этом для оптимальной эк- страполяции настоящее и будущие значения возмущений U(k'), и(к+Г).--U(K~i) должны быть либо известны, либо равняться нулю. В этой связи экстраполяция на один единственный интервал являет- ся особенно интересной и поучительной. Для нее сверх прошлых значений возмущений необходимо знать лишь их текущие значения u(k.\ причем они могут рассматриваться как заданные. Соответст- вующий результат в явном виде уже содержится в теореме 2.2. Подставляя уравнение (2.61Ъ) в уравнение (2.61а), запишем его в еще более элегантной форме: Ж*(к+1)= AXk)[x*(k)+K(k){i|(k)-C(k)x*(k)}]+B(k)u(k). Используем обозначения жЧк)-.= х(к|к-1), К*(ку = А(к)К(к). (г.то) Тогда предшествующее уравнение принимает вид х (кИ | к > А (К)х (к J к~ 1У В (к)и(к> + К*(к'){'у(к)-С(к')«(к|к-1)}. (2.71) Этот результат очень часто цитируется. Он представляет собой полную аналогию как с моделью наблюдаемой системы, так и с фильтром с непрерывным временем (см. рис. 2.7 и ср. с парагра- фом 2.4 и рис. 2.8). Матрица 1С(к\а вместе с нею и новый коэф- фициент усиления К*(к) по-прежнему определяются уравнением 81
Рис. 2.7. Предсказание на один интервал a(k | К* (Юз «А(к)К1к) (ср. с рис. 2.5). Рис. 2.8. Наблюдаемая система с непрерывным временем и фильтр Калмана - Бьюси (обведенная пунктиром область недоступна). 82
(2.51Ъ). Подставим матрицу К(.к) из уравнения (2.51Ъ) в уравне- ние (2,51с). Далее, полученный результат подставим в уравнение (2.51а). Тогда непосредственно получим разностное уравнение для матрицы ковариации Р*(к) ошибки X ( к | к-4.) Р*(к+4)яА(к)Р*(к) ДЧк)-А(к) Р*(.к)С'(.к){С(к)Р*(к)С'(к)+ + R(k)}“1C(k)P*(k)A'(k>Q(k), Р*(Л0)=Р(кД (2.72) Это уравнение есть дискретный аналог известного матричного диф- ференциального уравнения типа Риккати в задаче фильтрации с не- прерывным временем. 2.3,7. Резюме и заключительные замечания. Фильтр Калмана и алгоритм экстраполяции с дискретным временем последовательно построены в зависимости от имеющейся априорной статистической информации. (1) Исходным был параграф 1.6, где была рассмотрена задача наблюдения. Ее решение представляло собой частный случай гаус- совского метода наименьших квадратов. Позднее было показано, что подстановка задачи в §1.6 соответствует случаю, когда априор- ная статистическая информация полностью отсутствует. Отметим также, что математическое ожидание начального состояния фазового вектора равно нулю, а дисперсия - бесконечности. Входные возму- щения наблюдаемой системы пренебрежимы. Совокупность ошибок наблюдений выхода предполагается центрированной, нормированной и взаимно некоррелированной. Математическая запись этих условий имеет вид E{xtk0)}=0, P"\ko)»0, QlsO, R(k)s4. (ii") Следующим этапом была гауссовско-марковская процедура, причем, по-прежнему, никаких предположений о начальном состоянии не делалось. Используемая статистическая информация о входных возмущениях и ошибках измерений состоит теперь в том, что они представляют собой взаимно независимые случайные процессы с заданными матрицами ковариации: Ех(,к0)= 0, Р-1,(ко) = 0; матри- цы fl.(к) и R(k) должны быть надлежащим образом заданы. (iii) В процедуре минимальной среднеквадратичной ошибки до- полнительно разрешается использовать информацию о начальном со- стоянии системы X(kg),заданную соответствующей матрицей кова- риации: Ех(ко)=0; матрицы P(kQ), й.(к) и R(k) должны быть надлежащим образом заданы. (iv) Наконец, упомянутая только что процедура может быть обобщена для систем с ненулевым математическим ожиданием на- чального условия и известными входными возмущениями: Ex tk0\ а также u(ko),u(ko+l),...,u(k-l)- произвольны. (v') Кроме того, рекуррентная фильтрация с минимальной сред- неквадратичной ошибкой дополнена формулой экстраполяции. 83
Тем самым, задача калмановской фильтрации в своей основной форме решена. Оставшиеся вопросы сводятся к следующему: а) Наличие корреляции между возмущениями и ошиб- ками измерений: Алгоритм фильтрации без особых трудностей обобщается и на этот случай. При этом, однако, в соответствующем уравнении Винера - Хопфа появляются некоторые дополнительные члены (см. например, £2.14, 2.16]). ъ) Цветные возмущения и шумы в наблюдениях. Этот случай происходит тогда, когда имеется формирующий фильтр в виде векторного разностного уравнения, которое в свою очередь возбуж- дается белым шумом. Модель этого формирующего фильтра дополня- ет исходную модель наблюдений системы. При этом исходный фазо- вый вектор должен быть дополнен фазовыми переменными формирую—, щего фильтра и соответствующим образом расширены матрицы А, С и CL. Вопросы синтеза формирующего фильтра из некоторой задан- ной ковариационной функции с матричными значениями рассмотрены в. параграфе 3.6. с") Систематические возмущения и ошибки наблюде- ния. Эту ситуацию можно свести к случаю цветных возмущений с помощью введения дополнительных фазовых переменных. Теперь, однако, переменные постоянны во времени, т.е. их возбуждения тождественно равны нулю. Значит, формирующий фильтр в рассмат- риваемом случае имеет вид + ^•')= (М, Матрицы А и С должны быть соответствующим образом расширены, а матрица Q.- дополнена нулями. Априорная информация о среднем значении и дисперсии Систематической ошибки может быть учтена и описана обычным образом, т.е. Ех^к^?^ и Е Я^1Ь (,к0). Пример, связанный с этой проблемой, был уже выше рассмотрен (пример 2.1 - калибровка измерительного устройства). В этом месте, к сожалению, необходимо заметить, что расши- рение фазового вектора (.state-vector-augmentation)в случае цвет- ных шумов и систематических ошибок нередко-представляет одну из главных вычислительных трудностей в задаче фильтрации. В качестве примера предположим, что измеряются координата и скорость само- лета, причем оба измерения содержат систематическую и цветную ошибки. Кроме того, самолет содержит неизвестные цветные возму- щения ускорения. Тогда расширенная модель этой задачи наблюдения состоит из следующих фазовых переменных: координата^ исходные фазовые переменные, Х2~ скорость J - цветное ускорение, Xj,- цветная ошибка измерения координаты, Хд- цветная ошибка измерения скорости, 0Ь6- систематическая ошибка измерения координаты (смещение), Х?- систематическая ошибка измерения скорости Таким образом, порядок системы возрос здесь от 2 до 7. При этом 84
цветной шум описывался простейшей моделью, а именно - формирую- щим фильтром первого порядка. (1)Сингулярность матрицы 1?. Матрица ковариации ошибки измерения будет сингулярной, если один или несколько ее столбцов (соответственно строк) обращаются в нуль или линейно зависимы. В первом случае измерения производятся точно, т.е. 1^=0. Во втором случае некоторые элементы 2 вполне коррелированы. Рассмотрим в качестве примера, трехмерное уравнение наблю- дений Здесь С1, - строки матрицы С и dU - заданный коэффициент. В рас- сматриваемом случае имеем Ранг матрицы Р в этом примере равен единице. Из вполне коррели- рованных наблюдений можно с помощью линейной комбинации обра- зовать наблюдения, производимые точно. В рассматриваемом приме- ре величины и вполне коррелированы. Соответствующая линей- ная комбинация их представляет собой разность и Действи- тельно, Если теперь в этом примере использовать наблюдения и уа,причем соответствующим образом изменить вторую строку мат- рицы С, то в результате получим два точных наблюдения и одно существенное - с помехой. На основании уравнения (2.51Ъ) алгоритм фильтрации по Кал- ману будет справедлив и в случае сингулярной матрицы,если только сумма Т?+СР*С’не вырождена. При этом, однако, порядок фильтра Калмана все еще слишком высок. Как и в наблюдателе Луенбергера его можно уменьшить на число точно производимых измерений. (Соответствующие работы по различным аспектам для систем с непрерывным временем опубликованы в [2,17, 2.18] и для систем <: дискретным временем в [2.19 - 2.21], см. также [2.14]). В параграфе 3.7 мы вновь вернемся к этому вопросу. е)Сглаживание (интерполяция, smoothing). Постановка этой .задачи состоит в оценивании предшествующих значений фазового вектора системы на основе наблюдений до текущего момента време- ни, т.е. в построении опенки ® (К| к) при К< к.Сглаживание сущест- венно сложнее экстраполяции, хотя в принципе может быть осушест— 85
вл ено методом, аналогичным чистой фильтрации. При этом в соот- ветствующем уравнении Винера - Хопфа необходимо учесть сущест- венно большее число члене®. Относящиеся сюда результаты имеются например, в работах [2.22, 2.23]; см. также [2.14]. 2.4. Фильтр Калмана - Быоси (непрерывное время) С математической точки зрения фильтрация и экстраполяция в непрерывном времени есть более трудная задача по сравнению с задачей фильтрации в дискретном времени. Именно по этой причи- не последняя задача была рассмотрена раньше. Формулировка и решение дискретной задачи фильтрации могло быть осуществлено элементарными понятиями теории вероятностей и чисто алгебраи- ческими методами. При этом с теоретической точки зрения вектор- ный случайный процесс с дискретным временем можно интерпрети- ровать просто как многомерную случайную величину, размерность которой равняется размерности векторного процесса, умноженной на число рассматриваемых моментов времени. Столь же простым является рассмотрение стохастических разностных уравнений и ис- следование зависимости матрицы ковариации от времени. Белый шум с дискретным временем также не создает никаких проблем. При переходе к непрерывному времени разностные уравнения и суммы должны быть заменены на дифференциальные уравнения и интегралы. Исследование случайных процессов с непрерывным вре- менем 'Существенно сложнее, поскольку число рассматриваемых мо- ментов времени становится бесконечным. Особенно деликатным ста- новится рассмотрение стохастических дифференциальных уравнений. Их строгая математическая трактовка осуществляется на основе исчисления Ито [2.9, 2.12 - 2.14]. Белый шум с непрерывным временем является чистой идеализацией. В математическом и физи- ческих смыслах существует лишь его интеграл, именуемый про- цессом броуновского движения или винеровским процессом. Таким образом, для математически строгой постановки и реше- ния задачи фильтрации с непрерывным временем должны быть ис- пользованы стохастические дифференциалы Ито и процесс броунов- ского движения. Однако, эти понятия знакомы лишь небольшой час- ти читателей настоящей книги. Сверх того, в линейном случае, со- ставляющем основу изложения, их легко избежать, если только при- нять определенные меры предосторожности. По этой причине в даль- нейшем мы придерживаемся общепринятого способа записи в виде обыкновенных дифференциальных уравнений и белых шумов. Также как и при изучении задачи наблюдения в главе 1 будет показано, что проблема фильтрации с непрерывным временем Имеет много общего со случаем дискретного времени. Указанная аналогия будет здесь также четко выражена с помощью подходящего способа обозначений. В частности, по-прежнему будут использованы одни и те же символы для соответствующих матриц модели наблюдений системы и алгоритма фильтрации. Если где-либо соотношения для 86
непрерывного и дискретного времени встречаются вместе, то во избежание опасности смешения одна из групп символов сопровожда- ется чертой сверху, 2,4,1. Постановка задачи. По аналогии с дискретным случаем вначале рассмотрена постановка задачи, в которой влияние извест- ных начальных возмущений уже исключено*). По-прежнему, учиты- ваются стохастические возмущения на входе и случайные ошибки измерений на выходе. Таким образом, модель наблюдаемой систе- мы имеет вид (см, также рисунок 2.8, верхнюю часть при ВимО) 1|(i)=C(t)®(t) + Ht). (2.73 S') (2.73 Ъ) Подлежащий оценке фазовый вектор ®(t) имеет размерность П. Его начальное значение Х(Ь0) есть случайный вектор с нулевым математическим ожиданием •*) и заданной матрицей ковариации (г.,-,.. Размерность измеряемого вектора Ц равна та.Элементы й., (!) и • ьк С- ь(!) матриц А и с - известные непрерывные функции времени!. ‘'Входные возмущения V(!) размерности tl и ошибки измерений 11Х(!) размерности щ представляют собой векторные белые ^^слу- чайные процессы с заданными матрицами ковариации e{v(!)}sO, E{tt(i)v'(t)}= С1(П(1(!-!), (2.74 Ъ) E{to(l)}*0, . E{v(i)w'(t)}-Rlt)*(t-t). (2»4c) Здесь At t) - дельта-функция Дирака. Матрицы Ct и R - симмет- ричны и их элементы - непрерывные функции времени !. Матрица Q, неотрицательно определена; напротив, R должна быть положитель- но определена (регулярна)***).Начальное положение, входные возму- щения и ошибки измерений взаимно не коррелированы Е{х(t0) V* (!)}®0, (2.74 ей Е {v(tW’(!)}wO. (2.74 е) (2.74 4) Искомой является линейная несмещенная оценка вектора Х(1),по- строенная на основе результатов измерений 1j('t:),!0<i;<t. Эта оценка обозначается через Ошибка оценивания, как и обычно, *)Ниже это предположение будет снято. **)Ниже это предположение будет снято. ***)Это предположение может быть снято ^2.14, 2.17, 2.1 £j. 87
определяется формулой 5ь(1у.-ад-®(Л). (.2.75) Матрица ковариации ошибки в случае несмещенной оценки равняется ₽(tY.-E®(i)»’(i). (2.76) Оценка должна быть оптимальной в том смысле, что компоненты ошибки оценивания должны иметь минимальную дисперсию. Это условие эквивалентно требованию spur P(t)-> win. 2,4,2. Матричное уравнение Винера - Хопфа. Для искомой линей- ной несмещенной оценки с минимальной среднеквадратичной ошибкой ниже получено необходимое и достаточное условие. В параграфе 2.2 для дискретного времени эта оценка имела форму fie (см. уравне- ние (2.11)). С помощью подходящего преобразования весовой матрицы fi и произведенных наблюдений 2 оценку можно записать в эквивалент- ной форме в виде суммы к &(К,зе)у(ае). В непрерывном времени оценка состояния ®(Т) построенная на основе наблюдений до момента времени Ф, может быть представлена в соответствующей форме t X(T|t)= T,t*i0. *0 Здесь [^,13 “ интервал наблюдения. Если T<t, то имеем задачу сглаживания, при T“t - чистая фильтрация, если же T>t, то полу- чаем задачу экстраполяции. Весовая матрица С(Т.Т:) имеет раз- мер П»т, действительна, непрерывна, а в остальном произвольна. Выражение (2.77), очевидно, линейно. В качестве следующего шага установим несмещенность. С этой целью надлежит доказать, что математическое ожидание процесса 7L(t), определяемого диффе- ренциальном уравнением (2.73) при E®(to)B0, E.4y(t)=0, рав- няется пулю для всех Поскольку, сверх, того, Ew(t)«0, то процесс ^(t) с учетом (2.73Ъ) также имеет нулевое математичес- кое ожидание, т.е. при всех Хб будет &1^(Т)=0. Аналогичным образом, обращается в нуль и математическое ожидание интеграла в уравнении (2.77). Значит, Ex (Т Е®(Т). Таким образом, оценка действительно является несмещенной. Отметим, что соотношение (2.77) имеет по существу, ту же форму, что и закон наблюдения (1.17), в.котором весовая функция дается формулой иг.??) 83
В изучаемом случае, как и ранее, постановка задачи лишь тогда осмысленна, когда исследуемая система в рассматриваемом интер- вале вполне наблюдаема. Для получения условия, определяющего оптимальное значение весовой функции & (Т,!;), используем метод, который, возможно, некоторым читателям знаком из теории фильт- рации Винера (см. Е2.2], приложение Левинсона). Представим ве- совую функцию в виде суммы двух слагаемых fi(T,t)=G0(T,'D')+a.&1(T,t\ (2 78) Здесь - искомая оптимальная функция, в то время как X и непре- рывная матрица Сг£ принимают произвольные действительные значе- ния. Подобным же образом представим и оценку в виде суммы двух слагаемых А Л ли где и Х£ строятся по и Сц в Соответствии с (2.77), Ошиб- ка оценивания, тем самым, допускает представление х (тjt) •. = х(TV x (T|t)= x (TV »0(Г11V Л.Х£(T11V -®О№УЦ(Т|Ф), где положено x0(T|t): = ®(tVx0(T|-b). Критерий качества теперь можно записать в форме (аргументы Т и ф опущены) Е[х'х} = Е{(%0-Лх1У(2о'Х®1')}= = Е { Xj - 2 Л Е { xj Xj + д,2 Е { х[ xj. (2.79) Поскольку Crg в уравнении (2.78) должно иметь оптимальное зна- чение, то критерий качества (2.79) должен достигнуть своего экстремального значения в точке Я=0 сразу для всех (»• Значит, (2 80 а) или . t spur E{xq Х^}- spur Е |х0 у (Г) GJ (Т, t) atl = Ф «spur| Е{х0У(Т)]й’(ТлШ-1). % (280Ъ) 89
Однако, по определению следа как суммы, его можно внести под знак интеграла. Поэтому в рассмотрении нуждаются лишь элементы на главной диагонали подынтегрального выражения "j Для построения 1-го элемента на главной диагонали надлежит l-ю стро- ку математического ожидания в (2.80Ъ) перемножить с l-м столб- цом матрицы или с l-й строкой матрицы получаем t G . Указанным образом 1 (2 80 Это условие должно быть выполнено для всех причем может быть выбрано совершенно произвольно. Если, например, эле- менты (1^ выбраны так, что то в (2.80с) под знаком интеграла остается сумма квадратов не- прерывных функций. Поэтому при i-t^O интеграл всегда положите- лен. Это означает, что рассматриваемые функции на всем интерва- ле интегрирования равны нулю. Таким образом, условие (2.80с) только тогда выполнено при всех Ир когда все элементы матема- тического ожидания на всем интервале интегрирования тождествен- но равны нулю, т.е. Ео£0(Т [2 81а’) Этот результат является точным эквивалентом уравнении (2.16) и, как и там, имеет центральное значение. Он означает, что опти- мальная ошибка оценивания должна быть некоррели^ована с наблюде- ниями (условие ортогональности). Полагая и выражая ® с помощью (2.77) получаем, что Г f Е-! d0(T,o')^(e') dej q,['V')J=O1 (.2 84V) % > &0IT,6')e{^(6')1J,(^} dCT-0, 0 *)Если имеет составляющую’ в виде белого шума, как, напри- мер, в уравнении (2.73в), то выражение Eu(0')'Ur(T’) содер- жит дельта-функцию, а именно Я(Э)(1\б-‘С’) (см. уравнение (2.74с)). Поэтому при вычислении математического ожида- ния EaLll’CT^B (2.81а) и (2.80с) встретятся интеграл ви- 90 °
Уравнение (2.81 Ъ) представляет собой обобщение хорошо извест- ного интегрального уравнения Винера - Хопфа Е2.23 в теории ска- лярной, стационарной фильтрации при -ос на случай векторной фильтрации нестационарных процессов при конечном интервале наблю- уравнения (2.81а) и (2.81Ъ) пения. Как только что было установлено, представляют собой две эквивалентные формы необходимого условия для линейной несмещенной оценки с минимальной среднеквадратичной ошибкой. Достаточность этих условий обосновывается следующим образом. Если (2.81а) справедливо, то (2.80Ъ) также выполнено. Двигаясь в обратном направлении до (2.80а), замечаем, что пред- последняя сумма в уравнении (2.79) равняется нулю. Последняя же сумма всюду неотрицательна. Значит, минимальное значение критерия достигается при & = 0. Отсюда следует, что должна быть оптимальной. Требование (2.81а) соответствует уравнению (2.16) при дискрет- ных наблюдениях. Продолжая аналогию, умножим соотношение (2.81а) на йд(Т,Ъ') справа и проинтегрируем not в пределах от tp до 1, Получим Е{«0(т|»)у (т,г) dr-о. % Отсюда с помощью очевидных преобразований заключаем, что t Е {®О(Т1Л1 ^Г,ги*}=°» или на основании (2.77) Е{хо(т|ъ)®'(T]t)}xO. (2 82) Таким образом, оптимальная ошибка оценивания не коррелирова- на с оптимальной оценкой. С учетом этого соотношения матрицу ковариации оптимальной ошибки оценивания можно преобразовать к t'ltUo. Этот интеграл равен 1 при t <T<t и скач- да j (^(б- % ком изменяется до 1/2 при и Т=,Ь. Ввиду отмеченной разрывности ковариации EXqIJ’CC) в граничных точках интер- вала наблюдения справедливость условий (2.81а), (2.81Ъ) предполагается лишь в открытом интервале. 91
виду -E{S0(T(t')st4n}. Последнее уравнение будет в дальнейшем в различных местах использовано. 2.4.3. Решение в случае чистой фильтрации (Т»^. В класси- ческом случае фильтрации стационарных процессов интегральное уравнение Винера - Хопфа решается с помощью преобразования в частотной области. Встречающиеся при этом спектральные плотнос- ти должны быть определенным образом факторизованы и заново объединены. В результате определяется частотная характеристика фильтра, т.е. преобразование Фурье искомой весовой функции 2,24 - 2.26J. Однако для нестационарных процессов и конечного интервала наблюдения эта процедура невозможна. Вместо нее по аналогии с рекуррентным решением для дискретного времени будет установлена система дифференциальных уравнений, определяющая фильтр, его коэффициент усиления и матрицу ковариации ошибки. В будущем для упрощения записи индекс 0 у оптимальных зна- чений опускается, а также приняты следующие обозначения: 3 начальной точке tg на основании (2.77) для оптимальной оценки, очевидно, будет хад=°- Соответствующая ошибка оценивания поэтому просто равняется Х^ф"). Значит, начальное значение матрицы ковариации ошибки оце- нивания определяется формулой При рекуррентном способе оценивания исходят из того, что оцен- ка с минимальной среднеквадратичной ошибкой для момента времени t уже построена и требуется определить новое значение оценки в момент времени i+CLt. Поскольку прежнее значение оценки SC, (.t’) должно быть оптимальным, то для него выполнено уравнение Вине- ра -Хопфа, т.е. ввиду (2,81а), справедливо соотношение для %<*<*• (2-8^»') Как и в случае дискретного времени, в качестве промежуточно- го результата необходимо получить проэкстрапопированное значение оценки на интервал времени (tt. В силу (2.81а) должно быть спра- ведливо равенство Е [x(t+ Ai |t) СОДЪ) Новая опенка удовлетворяет условию Винера - Хопфа в следующей 92
форме: Ex(t+at^'W’O, t <t<t+At. C2.8^c) В условиях (2,84a) и (2,84Ъ) аргумент t пробегает оба раза значения только до t. Теперь для того, чтобы удовлетворить послед- нему условию найдем подходящее выражение для 5C(t+(lt).C этой цепью рассмотрим прежде всего само состояние X(t+•(£{). Для него на основании дифференциального уравнения (2.73а) справедливо представление di $(i+ai)=[l+A(t)di]oe(i) + ] v(e)0lG. Сг.85а) fc Входящее сюда возмущение ^(сО не коррелировано с УСО ПРИ Поэтому вклад интеграла от V(6) в математическое ожи- дание в (2.84Ъ) равняется нулю. В результате экстраполированное значение оценки может быть выписано следующим образом: Ж (t + At |t> [I+-А(i) di] X (t). (2.85 Ъ) Ошибка экстраполированной указанным способом оценки получает>- ся в результате вычитания уравнения (2.85Ь) из уравнения (2.85а): t + Al X(i+0ti |t>[l + A(t)dt]x(t')+ J (2.85c') t Если подставить это соотношение в левую часть (2.84Ъ), опустить интеграл от v(e) и вынести матрицу I+Aoti из-под знака математи- ческого ожидания, то получим левую часть формулы (2.84а). По- скольку она уже равняется нулю, то приведенное выше значение для действительно найдено правильно. Матрица ковариации экстраполированной оценки по аналогии со случаем дискретного вре- мени обозначается через Р* т.е. P*(t+ dt It) - Ex(t+ olt It)»' (t+ flit It). Используя уравнение (2.85c) заключаем, что p*(t+at |t)» e{([i+a (t) at] ад+ i+clt t+d.t + ( tf(G)ds)(®\t)[l+A,(t)iii]+1 v'(A)da)}. t t Возмущения V на интервале £t,t+(tt) по-прежнему не коррели- 93
рованы ни с X(i), ни с (t), ни с OB (t). Следовательно, корреляция между 11(0) и "U(i) с одной стороны и &(t) с другой стороны тож- дественно равна нулю. Значит, остается p\t+at]t)₽[i+Mt)(H] E{x(i)x'(t)}[I+A'(t)rti] + t+dt + « t t+rtt I e{-U4<5) v'w} d<5 dsu t Математическое ожидание в первом слагаемом представляет собой матрицу ковариации PCt) предыдущей ошибки оценивания. Математическое ожидание под знаком двойного интеграла ввиду (2.74Ъ) равняется Й,(е)(Г(6“Л). Интегрируя по <5 с учетом соответс'Ь- вующих свойств дельта-функции, получаем, что i+di t+ltt t+dt j j <L(6)(F(5-%)ClS АЛ= j Ш) |1Л»01(1) Hi+ 0Cott)2. t t t Отсюда вытекает, что приведенное выше уравнение для Р* пере- ходит в следующее: P*Ct+dt |t)=P(t)+A(t)P(t) nt + P(t)A'(t)(ti + Cl(l)At+O(elt)a. (2.86') Этот результат соответствует уравнению (2.51а) в дискретном времени. Л л После того как оптимальные значения оценок 'K.(t) и ®(t+ At|t) ^установлены, в качестве следующего этапа определим новую оценку X(t+At). По аналогии со случаем дискретного времени будем искать выражение, удовлетворяющее условию (2.84), в виде ®(t+dt)=%(t+rtt|t)+K(t){'y(i)-C(t)&(t)} dt. (а 8?> Соответствующая ошибка -оценивания определяется из этого уравне- ния, если умножить его на -1 и к обеим частям прибавить X(t+ pit). В результате имеем х (t + Ai)= X (t + At 1t)- К (t){ij (t)- c Ct)»(t)} Dlt. Отсюда и из (2.73Ъ) вытекает, что t+«.t x(t+At)»5c(i+-rtt|t)-K(t)C(t)®(t)Dlt- j K(1)V(1) АЛ. (2.88) t Это выражение должно удовлетворять уравнению (2.84с). Исследуем вначале это условие только на предыдущем интервале. На основании соотношений (2.84Ъ) и (2.84а) ни x(t + (ti]t), ни <jt(t) не коррелированы с предыдущими наблюдениями. Ковариация ЕтиЧЛ)^-^) также обращается в нуль для рассматриваемых значе- 94
ний J, и t. На предыдущем интервале (t0, Ф) условие (2.84 с) уже выполнено. На оставшемся интервале (t, t * At) запишем его в виде Ex(t+-rtt)y4t+rt'b')=0, o<to<to, или, используя (2.73), получаем е{®(1+сН") [»'(*-• d,t;)C\t+ Ату w-’(t+ to)]}=o. Раскроем здесь скобки, причем в первом слагаемом оставим Ot(t + +• Щ") без изменения, а во втором - заменим это выражение в соответствии с уравнением (2.88). В результате имеем е{& (t + at) ж'(t+to)} С 'С t+ to) + t+At *E|[»Ct+to|i)-K(t)C(t)^(i)to- KUMx)ax]Ht+to)}ML t Во втором математическом ожидании равняется нулю корреляция ве- личины vrtt + to)c величинами ®(t+Ai|i') и 0С(1). Следовательно, остаток из-за (2.74с) можно представить в виде t + At -j KWE^VWV^t+oh;)} 0lJL= t Wt =- KwRix,)tf(x-t-at)=-K(t+ лгад+йло. t При проведении последнего преобразования были использованы соот- ветствующие свойства дельта-функции. Таким образом, предыдущее условие переходит в следующее: E{5c(t+itt')»'(t+ctT)}c'(t+to)-k(t+aT)R(i+At>o. Отметим, что приращение At лежит в пределах от нуля до At. Матрицы С, К и R, так же как и величина Е®®’, являются непре- рывными функциями времени. Поэтому последнее условие должно быть справедливо и при Olt, Й/С-► 0. Указанным способом получаем, что E3c(tU4t)C4t)-K^)R(t>0. Математическое ожидание здесь в силу (2.83) равняется Ex(t)®’(t). Значит, окончательно имеем P(t)C'(t}=K(t)R(t). (2 89) Это условие служит для определения оптимального значения матрицы усиления K(t). Поскольку R(-t) предполагаемся невырожденной, то уравнение (2.89) при известной матрице Pit} можно разрешить относительно K(t). 95
При найденной таким образом матрице K(t) выражение (2.87) для новой оценки удовлетворяет уравнению Винера - Хопфа (2.84с) и, следовательно, является оптимальным. При этом для неизвестной пока матрицы Р получается некоторое дифференциальное уравнение. Из уравнений (2.83) и (2.88) вытекает, что р (t+it )= Е (t+OLt) X' ( t + ttf)} = t+lt »E{[x(t+Ht|t)-KtoCto^to(it- K(&)w(AUa]jt'(t+(U)}. t Ковариация интеграла с величиной x’(i*(lli) равняется нулю. Далее, в среднем члене выразим xr(t+eLi) в соответствии с (2.85а). Применяя, наконец, (2.83) окончательно получаем P(i+ (Li)=P*(t + ctt | t)- К toC (t)P(t)oLt+0 (CL if. Теперь заменим здесь P* согласно уравнению (2.86), a K(i) - согласно (2.89). В результате получим известное матричное диф- ференциальное уравнение тина Риккати P^flLtyP(.i)+[A(i)P(i)+P(i)A’(i)*a(.t)- -?(i) С'(1)ЙЧ(t) С (t) P(t)l 0Li+ OUtif. (.2.90'1 Для оценки xto в результате подстановки равенства (2.85Ъ) в уравнение (2.87) получается следующее дифференциальное урав- нение: x(t+ Л to+[A (i)x (i)+ К to to- c to в (i)}] Dt-t. (2.91) Тем самым цель достигнута. Решение задачи фильтрации образуют уравнения (2.91), (2.90) и (2,89) с априори заданными началь- ными условиями. Суммируем сказанное в виде теоремы. Теорема 2.4 (фильтр Калмана - Бьюси). М Пусть состояние х (1) стохастической системы с непрерывным временем и процесс наблюдения 4 Т 4 t описываются со- отношениями xto=Atoxto+v(t), E{x(to)}=0, ijto=Ctoaeto+wto. Пусть далее априорная информация определяется уравнениями (2.74а) - (2.74f). Тогда линейная несмещенная оценка с минималь- ной среднекваплатинной ошибкой описывается уравнением ^;Xto=AtoX(iVK(t){^to-C(i)Xto}, X(io)«0. (2.92) Cv * (ii'J Матрица усиления дается формулой Kto«P(i)C’toir\t). (й-ЭЗ) 96
Матрица ковариации ошибки оценивания описывается матричным дифференциальным уравнением типа Риккати: ~ а аЧы-pw с'(*мГ1(« с (t) р a. (t \ P(t0>P(t0V Блок-схема фильтра представлена на нижней части рис, 2.8 при Ви-0. Она имеет привычную форму модели объекта с взвешенной обратной связью, равной разности выходных величин объекта и модели. Сравнение с детерминированным следящим устройством (см. па- раграф 1.3, уравнения (1.29) - (1.31)) показывает, что следящее устройство представляет собой частный случай фильтра при ш-о, шм. Если матрицы А, 0,0- и R постоянны во времени и t0-*~ °»,то на- блюдаемый процесс будет стационарным, а соответствующая поста»* новка задачи фильтрации совпадает с винеровской. Матрица усиления фильтра Винера определяется соответствующим стационарным реше- нием дифференциального уравнения Риккати. Подробности приведены в параграфе 3.5. Пример 2.4 (фильтр Винера первого порядка). Пусть наблюдае- мый сигнал 1^(1) представляет собой сумму полезного сигнала Ot(i), возмущенного белым шумом tiHt) (см. рис. 2.9). Спектпальные плотности I и V равны 2 S’ —2’ XX 1+ <0* v*w Искомыми являются уравнения соответствующего фильтра Калмана - - Бьюси и численные значения стационарного коэффициента усиления (фильтр Винера). Прежде всего надлежит представить модель наблюдаемого процес- са фазовых переменных. Для этого разложим спектральную плотность qe на два комплексно сопряженных сомножителя: S ((О’)»—1/Я------ 1-|Q Устойчивый первый сомножитель представляет собой частотную ха- рактеристику подходящего формирующего фильтра. Соответствующее ему дифференциальное уравнение, в котором X(t) возбуждается ги- потетическим белым шумом Vlt), имеет вид о ®+® = V, где & (,W>V2 «2. V V Следовательно, искомая модель Наблюдаемого процесса дается соотношениями «(*)-• а СИ+1ЦМ, где E{v(l)v(t5}*2^(,t-?t\ ^(t)« Х(Л)+ где )}«1(Г'(Л-1'). 97
Очевидно, что А = -1, С = 1. 2 и R= 1. Искомое уравне- ние фильтра Калмана - Быоси немедленно вытекает теперь на тео- ремы 2.4. Сам фильтр имеет вид X (Л)*" X (t)+ k (t) ( (t)~ Л (t)). Коэффициент усиления дается формулой k(i)=p(t). Здесь |) является решением следующего скалярного дифференциаль- ного уравнения Риккати: p(t)—2p(t)-^(t)+2. Стационарное решение дифференциального уравнения Риккати опреде- ляется условием б «О, т.е. ра + 2р-2-0. Это квадратное уравнение имеет следующие корни,: Будучи дисперсией, р не может быть отрицательным. Следова- тельно, в качестве стационарного решения дифференциального урав- нения Риккати Надлежит ваять положительное значение корня р(°°)= *-£+У?’«0,73. Коэффициент усиления фильтра Винера к (оо')™0,73 (см. рис. 2.9). Фильтр Винера с помощью преобразования его дифференциального уравнения можно описать также частотней характеристикой. Именно Xljw) с 0,73 Ytjw) ’ Предельная частота (перепад - ЗдБ) равняется = 1,73. 2.4.4. Нецентрированные начальные значения и измеряемые вход- ные воздействия. Указанный А заголовке случай для дискретного времени уже был подробно разобран в параграфе 2.3.5. Приведен- ные там рассуждения могут быть без труда обобщены Сформули- руем поэтому сейчас следующую теорему. Теорема 2.5, Cl) Пусть состояния ОС <Л) системы и результаты наблюдений u ft) от сываются соотношениями i(t)-A(t)X(t)TB(t)U(t)+V(i), (.2 95») ^(1)=С(*0»(1)+ШО. (2.95 Ъ) Предполагаются заданными входные воздействия и и апри- орная информация в соответствии с уравнениями (2.74а)- (2.74f). '1огда линейная несмещенная оценка состояния X(i) с минимальной 98
Фильтр Калмана-Бьюси = фильтр Винера vM J \y(t) НаЗлюдаемый процесс. Фильтр Винера Рис. 2.9. Наблюдаемый процесс и фильтр Винера. Слева - частное представление, справа - представление в пространстве фазовых пере- J менных. среднеквадратичной ошибкой определяется уравнением (2.9В') («^Матрица усиления К(Й определяется уравнением (2.93). Mai рипа ковариации ошибки оценивания удовлетворяет матричному диф- ференциальному уравнению Риккати (2.94). Доказательство. В соответствии с (2.96) оценка, очевидно, линейна по Для доказательства несмещенности образуем раз- ность дифференциальных уравнений (2.95а) и (2.96) и построим, используя еше (2.95Ъ), дифференциальное уравнение для ошибки оценивания: ^®Ct)»{A(i)-K(i)ett))x(t)+v(t)-K(t)w(t), Начальное условие Х(Лд^,а также возмущения V и V имеют нулевые математические ожидания. Следовательно, математическое ожидание Ел(Ф) равняется нулю для всех независимо от зна- чений и U(i). Последнее означает, что оценка 3b(t) является не- смещенной. Матрица ковариации начального значения ошибки оценивания в уравнении (2.97) равняется ?(%> Е [х t ] [ж (t^- ?] М (%). Л/ Дальнейшее изменение со временем матрицы P(t) должно удовлет- 99
X(t ) уже был сделан ворять тому же матричному дифференциальному уравнению Риккати, что и в случае U.(t)aO, ^«0. Значит, ввиду равенства начальных условий P(t0) в обоих случаях матрица Pit) для всех t также име- ет одинаковые значения. Поэтому дисперсии X ft), стоящие на глав- ной диагонали матрицы ?(i\ будут минимальными на основании тео- ремы 2.5, Учет в фильтре известных входных воздействий U(t) и заданного значения математического ожидания величины на рис. 2.8. Поскольку матричное дифференциальное уравнение Риккати лишь в немногих тривиальных случаях имеет аналитическое решение, то обычно оно должно быть решено с помощью численных процедур. Поэтому без больших вычислительных мйшин даже примеры едва ли могут быть просчитаны. Напротив, в случае дискретного времени по крайней мере примеры от первого и в некоторых случаях до третьего порядка могут быть исследованы с помощью логарифмичес- кой линейки или настольной вычислительной машины. Мы вновь крат- ко обсудим вопрос о численном интегрировании дифференциального уравнения Риккати в последней главе. 2.4.5. Предсказание (Т>У). Искомой теперь является оценка X СгТёТ будущих состояний 9t(T) на основе наблюдений функции проведенных до текущего момента времени t. Эта оценка также должна удовлетворять некоторому уравнению Винера - Хопфа. По- скольку, однако, оно справедливо лишь для центрированных случай- ных переменных, то здесь вновь предположим прежде всего, что ма- тематическое ожидание начального состояния Х^д) и входные воз- действия равны нулю. В дальнейшем будем исходить из уравнения Винера - Хопфа в форме (2.81а). При незначительных модификациях его можно записать в виде Будущее состояние системы Х(Т) можно выразить через текущее X (!) с помощью формулы для общего решения дифференциального уравнения Х^Ах + 'О”. Имеем Т X(T)=$(T,t)X(i)+j$(T,<5)V(O)d6. (2.99) t Подставим это выражение в условие (2.98). При этом ковариация интеграла с равняется нулю, поскольку будущие значения возмущений V(0) некоррелированы с прошлыми значениями наблюде- ний. Оставшееся равняется е [ф (т, х ею- х (т | *)] у (*)=о, t0< t < t. Последнему условию можно удовлетворить при x(T|f)«$>(.T,t’)x(.t'), где X (i) - значение оптимального фильтра, построенное с помощью 100
теоремы 2.4, Вынесем Ф(Т,1) из-под знака математического ожи- дания. Оставшаяся часть математического ожидания, имеющая вид Е Е х (Л) ij'ct), тождественно равна нулю для всех V в интервале (tg,t). Используя теперь теорему 2.4, убеждаемся в справедливости следующего утверждения. Теорема 2.6. Пусть состояние стохастической системы и процесс наблюдения ^1Т), описываются соотношениями £(V)= A(t)®(t)+v(t>, Е (ЬД} = О, ^(t)= C(t)0t(t)t1»>(t). Пусть далее априорная информация удовлетворяет уравнениям (2.74а) - (2.74 f). Тогда линейная несмещенная оценка с минимальной средне- квахратичной ошибкой будущего состояния Ж(Т) при T>t дается формулой X (Т |t)»D(T,i')®(i). (2.4.00') Здесь Ф(ТД) - переходная матрица, соответствующая Д (i), a ®(0- оценка текущего состояния ЗС (i), установленная в теоре- ме 2.4. Учет влияния нецентрированных начальных условий ^X(t0') и из- вестшэ!х входных возмущений U(*C), 41 на вид X(f) (а сле- довательно, и на ) осуществлен в теореме 2.5. При интерполяции ( T<‘t, сглаживание, smoothing ) применение уравнения Винера — Хопфа существенно сложнее, поскольку корре- ляция интеграла в уравнении (2.99) с измерениями не обращается в нуль. Соответственно усложняется и результат С2.14, 2.22, 2.233. 2.4.6. Заключительные замечания. Исходя из двух отправных пунктов, именно, следящего устройства с непрерывным временем и фильтра с дискретным временем, построен фильтр Калмана - Быоси с помощью предельного перехода но времени аналогично фильтру Калмана. При этом необходимо было наложить обычное ограничение ла регулярность матрицы Я(Ь). Его смысл состоит в том, что все компоненты измеряемого вектора содержат белые шумы. Для сис- тем с дискретным временем это ограничение не необходимо. Его можно снять также и для систем с непрерывным временем. При этом порядок фильтра понижается на число компонент измеряемого вектора, не содержащих’белых шумов С2.14, 2.17, 2.18 3. Опре- деленная трудность для систем с непрерывным временем связана с корректной интерпретацией белого шума. Отмеченная проблематика выражается, в частности в том, что соответствующая матрица кова? риации содержит дельта-функцию. Используя подходящие меры пре- досторожности, связанные в особенности с рассмотрением дельта- функции лдшь под знаком интеграла и применением ее свойств, мож- 101
но устранить щекотливые моменты. С более строгих позиций исчис- ления Ито в параграфе 3.8 кратко изложены возможные обобщения. Вопросы, связанные с рассмотрением коррелированных возмущен ний и шумов в наблюдении, цветных шумов и систематических оши- бок, исследованы в п. 2.3.7. Сформулированные там замечания для дискретного времени сохраняют силу л в непрерывном времени. 2.3. Литература 2.1. Колмогоров А.Н. Интерполирование и экстраполирование стационарных случайных последовательностей, - Иэв, АН СССР, серия матем,; 1941, т.5, № 1. 2.2. Wiener N. Extrapolation, interpolation and smoothing of etatio- nary time series.- New Уотк: Wiley, 49A9. 2.3. Bode H.W., Shannon C.E. A simplified derivation of linear least square smoothing and prediction thsory.-Proc. IRE 1950,v.38, p. №- 929. 2.4. Booton R.C. An optimisation theory for time-varying linear systems with nonstationary statistical inputs.-Proc. IRE, V. Au (Двба), £.977-984. 2.5. Fol lib I.W. nnd CarltonA.fi. Recent developments in fixed and adaptive filtering.-AfiARDograph, Nr. 21,1956. 2.6 Han&on J.E. Borne notes on the application of the*calculus of variations to smoothing for finite time.— Internal Memorandum Nr. BBD- 396, Johns Hopkins University, Applied Physics Lab., 1957. 2.7. Bucy R.C. Optimum finite time filters for a special net,-stationary class of inputs.-Internal Report Nr. BBD-600, Jons Hopkins University, Applied. Physics Lad., 4969. 2 .’8. Averting ₽. First-order error propagation in a stage-wise smoothing procedure for satellite observations.- J. Astronautics! Sciences.4959. v. 6, p.A6-5tt. ’ 2.©. Дуб Дж. Л. Вероятные процессы. - М.: ИЛ, 1956. 2,10. Kalman R.E. A naw approach to linear filtering and prediction problems.-Trans. A&ME series D, J. Basic Engg., v.82 (.49601, p. 35-95. 2.11. Калман P.E., Бьюси P.C. Новые результаты в линейной фильтрации и теории предсказания. - 'Техническая механика, 83, сер. Д, 1 , 1961. 2.12. Bucy R.S., Joseph Р.В. Filtering lor stochastic processes,with applications to guidance.-New York: Wiley-Interscience, 4968. 2.13. J-a aw inski- A.H. Stochastic processes and littering theory.-New Fork: Academic Frees, 1970. 2.14. Сейдж Э., Мелса Дж. Теория оценивания и ее применение в связи и управлении. - М.: Связь, 1976. 2.15. Brammer К. Gaubsch е Ausgleieharechnung und Kalman-Filterung- Regelunestaehnik und Proseh-Datenvararbeitung, Bd. 49 (.4974), 6.015- ill. 2.16. Brammer K. Optimale Fllterwng und Vorhersage instationarer stoehasiischar Fol gen.-Nachrichientechn. Fachberichte Bd. 33 (1967), В. 403- 410. 2.17. Btyson A.E., Johansen D. E. Linear filtering tor time-varying systems using measurements containing coloured noise .-IEEE Trans, on Autom. Control, v. AC-10 (.1965), 8.9-10. 2.18. Bucy R.8. Optimal filtering for correlated noise.-J.Math.Analy- sis and Appl., v.2D (.49(7), Nr. 4 (Oktoher). 102
Filtevung und Vorhersage reter 2ert. — Reg elungsteeh 2,19. Кт ysoa А.Е., Henrikson L,J. Estimation using sampled - data containing, sequentially Correlated noise. - Harvard Univ., hiv. Engg., Appl. Phys., Techn. Kep. 533, Cambridge, Mass, 7u.nl 1967. ,!,2O.Bt9 “me т K. Lover order optimal linear filtering of nonstatio- nary rauitm sequences. - IEEE Trans, on Autom. Control, v. AC-13 (1966) S. 196 - 199. 2.21. В r a m m e т K. lur optimalen linearen itisiationar ver ‘LufallspTOZ.eaae in disk nik, Bd. 16 (1966), fi. 105-110. 2.22, йа^пе D.Q.. A solution of the smoothing problem tor linear dynamic eyetem! Automatics, v. A (1086), £.73 - 92. 2.23. Me dit ch I.S- Orthogonal projection and discrete optimal linear smoot- hing.- SIAM j. on Control, v. 5 (1967), S. 7A-80. 2.24. Laning J.H., Batt in R.H. Random processes in automatic control.- NewYork: Mefiraw- Hill, 1956. J.25.D a v e n p о r t W.B., RootW.L. An introduction to the theory of random signals and noise,- Mew York: McGraw-Hill, 1956. 2.26. S c h 1 i tt H. Systemtheorie fur regellose Vorgange.- Berlin: Springer, I960. 2,27. К a 1 та a n R.E. New methods and results in linear prediction and filtering theory.—Proc. 1st (1980) Synvp. on engg appl. of random function theory and probability, J. L. Bogdanov u. T.Kozin (Herausg.). New York: John Wiley, 1963. 2,~2fe. dito-Anhang 1 in К a 1 m a n R.E., Englar T.S., Bucyl.8. Funda- mental study of adaptive control systems.-Tech. Rep. Mr ЛЙЛ-ТА-61-2? Bd.T, Flight Control Lab., Aeronaut. Byst. Div., AFSC, WPAFB, Daytopj'&hio, April 196a. 2.29. K a 1 m а п U.K., Englar T. 6. A user's manual for the automatic synthe- sis program (A4P~t).- Tech.Hep. NASA-CR- 975, Ames Research Center, Moffet Field, Cal., 1965. 2.30. S о г b ь s,0 -г, h.W. Kalman filtering techniques.- In: C.T. Leondes (Herausg.) Advances in control systems, vol.3. New York: Academic Press. 1966. 2.31. L e on d e a C.T. (Herausg.}Theory and applications of Kalman- Filtering.- A&ARDograph Nr. Ib9, Pebr. 1970.
Глава 3 ПРАКТИЧЕСКИЕ ПРОБЛЕМЫ ПРИ СИНТЕЗИРОВАНИИ ФИЛЬТРА В качестве дополнений ниже приведены некоторые замечания, связанные с практическим синтезом и применением следящих уст- ройств и фильтров. В первых трех параграфах обсуждается вопрос о введении следящих устройств и фильтров в замкнутые контуры регулирования. Далее изучено матричное уравнение Риккати, а так- же его стационарное решение. Дано краткое введение в задачи син— теза моделей формирующих фильтров. В заключение приведены неко- торые сведения о синтезе фильтров при измерениях, частично сво- бодных от возмущений, а также для нелинейных процессов. 3,1. Детерминированное регулирование с обратной связью, зависящей рт фазового вектора В связи с понятием управляемости (параграф 1.5) рассмотрим здесь регулируемый объект n-го порядка с непрерывным временем и с измеряемым точно фазовым вектором при отсутствии входных возмущений (рис. 3.1): X(t)= A(-t)3C(t)+B(t)U(t), <3>.l) Матрица А размером n»n и матрица В размером тг*р заданы. Регулирующее воздействие U(t) размерности р должно быть выбрано таким образом, чтобы привести состояние X(t) в некотором смысле как можно ближе к нулю. В этой связи величину as(t) мож- но интерпретировать как рассогласование, или отклонение, системы от некоторого рабочего состояния или расчетной траектории. Во многих задачах управления соответствующий закон регулиро- вания является линейным, представимым в виде обратной связи, за- висящей от фазовых координат. Таким образом, он имеет вид (рис. 3.1) 1i(t>-L(t)a(i). (3.-2) Соответствующий пример дает закон регулирования (1.48) из па- раграфа 1.5, в котором коэффициент усиления L обратной связи равен L(t)=B4t)W~1(t1,b). Здесь матрица представляет собой решение матричного диффе- ренциального уравнения Риккати, проинтегрированного В обратном времени. Эта форма закона регулирования справедлива лишь в пер- 104
Требуемое x=0 г >'ltL X zft0) < Я । rl u * Г а Aft) x(t) Регулируемый объект^ Рис. 3.1. Линейное регулирование с обратной связью, зависящей от состояния системы. вой части интервала где матрица не вырожде- на. Для t закон регулирования должен быть взят в виде (1.43) при t =t . При этом W (t, > вычисляется при интегри- и v X* ровании в обратном времени линейного матричного дифференциаль- ного уравнения (1.47). Построенное таким образом управление обладает тем преимуществом, что отвечающее ему состояние 31 в момент времени в точности равняется нулю. Напротив, недостат- ком этого управления является то, что в последней части интервала ®ьшо использовано лишь программное управление. Поэтому обычно принято линейную задачу оптимального управле- ния формулировать следующим образом. Требуется определить управ- ление U.('К') линейной системой (3.1) таким образом, чтобы мини- мизировать квадратичный критерий качества | о,(.т')®(я+ uf(,tn Ren utt)} dt. Здесь симметричные матрицы P, ft,,R заданы, причем P и ft неотрица- тельно определены, a R — должна быть положительно определенной. В остальном выбор этих трех матриц произволен. С помощью вариационного исчисления С 1.8], динамического про- граммирования [1.9] или принципа максимума [1.10] можно пока- зать, что оптимальное управление в общем случае по-прежнему имеет форму (3.2). Однако для матрицы усиления получается теперь другое выражение. Именно L(t)-R"l(t)B’(i)P(t). 'Л1*) Здесь Р есть решение следующего матричного дифференциального уравнения Риккати, которое надлежит интегрировать в обратном 105
времени: -^Plt>A4t)P(i)+PU)Ab)- -PWB(t)5"4t)B4t)P(i)+Q.U); U.5> Р(^)=Р^. Минимальное значение критерия качества (3.3), которое получается при использовании оптимального закона управления (3.4), (3.5), равняется [1.16] Сравнивая решение (3.4), (3.5) с ранее приведенным законом регулирования (1.47) - (1.49), заключаем, что справедливы сле- дующие выводы. (1Л Требование о том, чтобы X в конце интервала регулирова- ния в точности равнялось нулю, соответствует в критерии качества (3.3) ‘значению 7(1^, равному P(tp=°°. Изменение состояния Х(йв процессе регулирования в пара- графе 1.5 вообще не учитывалось. В этом случае в критерии качест- ва (3.3) следует положить 0-(Л)®0, (lit) В параграфе 1.5 затраты на управление для всех компо- нент U (+) независимо от t были одинаковы. Это обстоятельство можно отразить ь критерии (3.3), положив R(t)=I, (.iv) Если теперь при выбранных данных рассмотреть вместе уравнения (1.49) и (3.5), то убеждаемся в том, что )=?(!). Продолжая далее рассуждать по аналогии, вновь приходим к проб- леме дуальности. Относящаяся сюда гипотеза состоит в том, что линейно оптимальное управление может быть двойственным закону фильтрации Калмана - Бьюси. Справедливость этого действительно подтверждается путем сравнения уравнений (2.93) и (2.94) с уравнениями (3.4) и (3.5).При этом оказываются справедливыми следующие соотношения*) двойственности С2.111: Фильтрация Управление К А Г= и Р а • р С' И в R R А /Ч А' GL £ ^0 =с t -t *)3нак ш означает соответствие. (Прим, перев.) 106
Эти соотношения двойственности предполагают далеко идущие прак- тические выводы, поскольку оптимальный фильтр и оптимальное управление, очевидно, могут быть реализованы с помощью одной и той же вычислительной программы. Обратим, однако, внимание на одно отличие. В задаче фильтра- ции дифференциальное уравнение Риккати интегрируется во времени от начала интервала наблюдения, т.е. от точки вперед. Значит, коэффициент усиления фильтра К в текущий момент времени t опре- деляется прошлыми значениями параметров (А,С, Q. и R") наблю- даемого процесса. В противоположность этому в задаче управления дифференциальное уравнение Риккати интегрируется по времени от конца интервала управления, т.е. от точки назад. Это означает, что коэффициент усиления управления L в текущий момент времени "Ь зависит от будущих значений параметров системы (А и В), а также от весовых матриц в критерии качества ((X и К ). С точки зрения адаптивных систем это теоретическое отличие имеет фундаментальные практические следствия. Как известно, адаптивные системы автоматически отслеживают изменение парамет- ров наблюдаемого процесса или регулируемой системы. Для этого вначале надлежит оценить параметры, меняющиеся неизвестным об- разом. Указанное оценивание, по существу, представляет собой зада- чу фильтрации, хотя в большинстве случаев и нелинейную (см., на- пример, параграф 3.8 \ Естественно, что это оценивание (соответ- ственно фильтрация) могут быть произведены только на основе уже реализовавшихся значений наблюдений. После этого в адаптивном фильтре дифференциальное уравнение Риккати (2.94) интегрируется в реальном времени с использованием оцененных значений парамет- ров. Поэтому независимо от вопроса о затратах на вычисления опти- мальный адаптивный фильтр может быть в принципе реализован. Иначе обстоит дело с оптимальным адаптивным управлением. Здесь для интегрирования дифференциального уравнения Риккати не- обходимо построить оценку будущих значений параметров системы, причем эти значения априори должны считаться неизвестными. При этом можно довольствоваться лишь предсказанием (экстраполяцией) неизвестных параметров системы, в основу чего положен определен- ный закон вариации будущих значений параметров. Вернемся теперь к общему линейному управлению с обратной связью, зависящей от фазового вектора системы, т.е. к закону управления вида (3.2). Исследуем дифференциальное уравнение замкнутого контура регулирования. Оно получается при цодстжовке соотношения (3.2) в дифференциальное уравнение (3.1) регулируе- мого объекта. Объединяя соответствующие слагаемые, получаем са.7) Таким образом, динамика замкнутого контура регулирования опре- деляется матрицей A~BL, а в случае постоянных параметров - так- же и совокупностью собственных значений матрицы A-BL. Если матрица А имеет обычную для теории регулирования форму или по- 107
добна ей, то линейный регулятор Ldc, соответствующий обратной связи, определяемой всеми фазовыми координатами, имеет характер пропорционально-дифференциального регулятора с дифференциальными звеньями порядка Tl-i.Тогда П—1 производных от Х± либо непоср*" ственно равны ..., Х^, либо выражаются через фазовые перемен ные с помощью какого-либо преобразования такого типа. 3.2. Следящее устройство в контуре регулирования и алгебраическая разделимость Как известно, идеальный в смысле предшествующего параграфа случай, когда все фазовые переменные, необходимые для управления, измеряются точно, осуществляется весьма редко. Если только fh, выходных переменных доступно наблюдению, то дифференциальное уравнение системы (3.1) должно быть дополнено уравнением изме- рений ^(i)-C(t)xlt), (3.8) причем здесь ранг матрицы С меньше П. Исходный фазовый вектор теперь должен быть оценен. Как уже известно из глав 1 и 2, это можно осуществить с помощью следящего устройства вида ~ ® (i) =» A (i) X (i) + В (t) U (t)+К (Ф)(1| (t)~ С ф X (t)). (3-9) Для того чтобы получить соответствующее дифференциальное уравне- ние для ошибки слежения 3s(i)= X(t)~ xCt), вычтем уравнение на- блюдений (3.9) из уравнения состояния (3.1). Получим Л — Х(й=A(t)sc (i)- K(t) (ytn- C (t) ® (tn • Cv P Используя уравнение (3.8) и объединяя члены Q ft(t), заключаем, что (t . rr (t)= (A (i)- К (t) C CD) x Ci), £(to)^0. t$10) Последний результат соответствует уравнению (2.97) для ошиб- ки фильтрации, в котором v(i) и WCD положены равными нулю. В транспонированном виде дифференциальное уравнение (3.10) являет- ся дуальным уравнению (3.7) замкнутого контура регулирования. Таким образом, следящее устройство представляет собой контур регулирования, за счет выбора которого ошибка наблюдения стре- мится к нулю. Если дифференциальное уравнение (3.10) асимптоти- чески устойчиво, то ошибка наблюдения для каждого начального условия стремится к нулю и, вообще говоря, тем быстрее, чем больше К. 108
Для закона наблюдения (1.30) матрица усиления имеет вид K(i)«=M-1(t,t0)C4tY В настоящем параграфе, однако, K(t) может также принимать и другие значения. Следящее устройство (3.9) включается теперь между измеряемой величиной и входом регулятора (рис. 3.2). Регулятор также вмес- то самого состояния зависит от его оценки: U(t)=-L(i)a(i). (3-11) Теперь нас интересует динамика замкнутого контура, порядок которого, очевидно, равен 2П. В качестве фазовых переменных вы- берем фазовый вектор ОС. Lt) системы и ошибку наблюдения ®(t). При этОм относительно матрицы усиления L(t) регулятора необходи- мы те же небольшие предположения, что и относительно К (t). Замк- нутый контур образуют уравнения (3.10), (3.11) и (3.1). Комби- нация двух последних дает x(t)=A(t)«>(t)-B(t)L(t)(o6(t)- ®(t)Y Таким образом, контур, состоящий из объекта, следящего устройства и регулятора, имеет Вид А Г®(*)1 ГЛ(ЬН(Ш) At _ о B(Wt) “1 pt(t) A(t)-K(t)C(i) X(t) &.13) Рис. 3.2. Следящее устройство в контуре регулирования. 109
Рис. 3.3. Алгебраическая разделимость наблюдения и управления. Замечательно то, что в- левом нижнем углу стоит нулевая матрица. Это является следствием разъединения динамических свойств про- цессов наблюдения и управления. Указанное разъединение называется алгебраической раздели- мостью. Она всегда имеет место независимо от значений матриц К и L, если только система представима в виде (3.1), следящее устройстЬо - в виде (3.9) и регулятор - в виде (3.11). Особенно очевидным это утверждение делается при рассмотрении рис. 3.3, соответствующего дифференциальному уравнению (3.13), эквива- лентного рис. 3.2. Именно исходя из начального значения ж (t0’), развивается ошибка наблюдения, происходящая без влияния процес- са регулирования и без усилителя регулятора. Динамика процесса регулирования в свою очередь, совершенно не зависит от следящего устройства и его коэффициента усиления^ Процесс регулирования определяется только ошибкой оценивания Если следящее устройство устроено таким образом, что 0t(t)-*0 для какого-либо Ф^.то процесс регулирования, начиная с tp разви- вается вполне автономно. В таком случае собственные колебания следящего устройства вообще более не проявляются в контуре регу- лирования. На рис. 3.2 следящее устройство, включая матрицу Ctt), с помощью соотношения Х(Ф)== Ж (Ф), начиная с динамически сглаживается. Это полное "'исчезновение* следящего устройства происходит, впрочем, лишь в случае точного знания матриц систе- мы А,В и С, а также при отсутствии возмущений и ошибок изме- рений. В следующем параграфе проведен учет стохастических воз- мущений. 3.3. Фильтр в контуре регулирования и стохастическая разделимость Стохастическая постановка задачи возникает тогда, когда имеет место по крайней мере одно из следующих трех обстоятешчетв: СО начальное состояние системы представляет собой случайный вектор; 110
tii") в ход-системы содержит случайное возмущение V; (.№.) выход системы содержит ошибки измерений Ъ)-. В случае линейной системы с дискретным временем стохастичес- кая задача управления формулируется обычно следующим образом. Пусть дана система k+i> A(k)ac (k)+ B(k)u(k)+ v(k), (Ъ ^M«C(ky».(k)+W(k), k0«k«kr (5.4.4 ъ) Математическое ожидание и матрица ковариации начального состоя- ния ® (kg") считаются известными. Параметры А ,В и (J также как и матрицы ковариации CL и R белых шумов 1) и V заданы для всех Хв интервале £k0,k^]. Искомым является закон регулирования вида (3.14с) для всех к<Х< при котором условное математическое ожидание ZZ. [«'(x'iCLl.x)® «k+f +u(*~C R (x-£)u(x-l)>| y(k0\..., 14 (k)J C3.14 d) достигает своего минимального значения. Замечани я. (i) Закон управлений (3.14с) должен быть сформулирован таким образом, чтобы искомая последовательность их в текущий момент (к) и будущие моменты (ЭОк') зависела только от текущего и про- шлых значений наблюдений (рис. 3.4). Наибольший интерес при реализобавшпся Искомое L— ~ — . — —hLwIhAm w. JLhJLh.^^ кокд+1 k-1k k+" k^lkfX Еще доступное влиянию Рис. 3.4. Задача стохастического управления с дискретным временем. Измеренное Неизвестное k0k0+1 k-1 k k+t kfiktx koko+f k-t k k+1 kf/кзс 111
этом представляет текущее значение управления 11(к). Последнее значение наблюдений, на котором оно основано, равняется 11 (к). В соответствии с уравнениями (3,14Ъ) и (3.14а) имеем ij (к)=СI к) { А ( к-1) ое ( к-1)+ ВI к-1) и ( к-1)+v( к-1)} + иг (к). Здесь 11 (к-1) уже вычислено и, следовательно, известно. (ii) Сумма в уравнении (3.14А) состоит из квадратичных чле- нов. При этом оценивается лишь последовательность значений ®(к+1) ...,*Х(к ) без текущего значения Х(к), поскольку на послед- нее нельзя влиять с помощью выбора 11 (к). В критерии качества существенна лишь последовательность управлений в моменты време- ни k,..., к^-1.Поскольку конечное значение Х(к4) не зависит от управления Щк^), то последнее можно положить равным нулю. (Непоследовательность ОС (к+D» >..,Х(к4) кроме 11(16) зависит так- же от Поэтому сумма в уравнении (3.14 а) при заданных. (к^,.,. ...,1^lk) также представляет собой случайную величину. Значение эт>>й величины определяется случайной последовательностью V(k),....,v(kri). Значит, было бы не особенно целесообразно использовать назван- ную сумму непосредственно в качестве критерия, ибо ее зна- чение случайным образом меняется от эксперимента к эксперименту. Более желательно•использовать среднее значение. Усреднение может быть проведено при условии, что известна последовательность ^(кД... ...»Оставшееся математическое ожидание вычисляется относительно распределения начального условия ЗС(к ) и процессов v(ae) И 'W-(M). (iv) Если предположить, что начальное состояние Х(к^) и воз- мущение V неуправляемой системы (3.14а) представляют собой гауссовские случайные величины, то последовательность Л (и)» kgOt^ к^ ввиду линейности системы будет векторным гауссов- ским процессом. Пусть далее возмущение* V в линейном уравнении (3.14Ъ) изме- рений также имеет нормальное распределение. Тогда последователь- ность наблюдений к^ есть гауссовский процесс. Гаус- совское свойство остается в силе и для регулируемых систем (и(зе)/0), поскольку закон регулирования (3.14 с) является линей- ным. Можно показать С 2.92, что в случае гауссовских величин линейная оценка с минимальной среднеквадратичной ошибкой ("опти- мальная в широком смысле") равняется условному математическому ожиданию искомой величины, вычисленному при условии данных наблюдений "оптимальная оценка в строгом смысле". В гауссов- ском случае из результатов п. 2.3.6 вытекает для оценки формула х(«| k)= E{x(H)ji|(k0), у (%+!),...,-у (к)}. (3.15) Используя эти замечания, мы в состоянии дать эвристическое объяснение принципу разделимости. Рассмотрим подробнее первую квадратичную форму в критерии (3.14 А). Представим функцию ЭВ (It) в виде суммы оценки экстраполяции X (ЭВ [ к),основанной на резуль- татах наблюдений l|(kft),...,^(k),H соответствующей ошибки экстра- 112
полиции. В обозначениях п. 2.3.6 имеем Л(Х)=Х(.х|к)+Х(«|кУ След овательно, й(Я)Х(Х> ={х' («IЮ+ xf(x[k)j GL (X'ljxuelk)* н Ш| к')}» = хЧн I к) ci W х («| к) + «4*1 к') б, («')»(«] к ) + 2 £'(х | кШ#)® 1эе|к). Поскольку Q,,'&“Spur(/bd,')1 то последнее слагаемое можно также записать в виде 2 spur (QL(X)5t(X | k) Xf(ttI k)). Условное математическое ожидание этого выражения, необходимое для (3.L4 4.), равняется кулю при всех ОС,так как Е(а (.эе | Ю (.ое | к.У)=О. Теперь критерии качества (3.14 4) можно представить в виде двух частей: — А _ I _Jt*k+l I Первая часть здесь вновь представляет собой то выражение, ко- торое долкцо быть минимизировано за счет оптимального, выбора последовательности управлений U(k),... ^(k^l). Согласно пп. 2.3.5 и 2.3.6 величина XUt|к") зависит от указанных значений U(k\.. .,.'И(Х“£')(ср. теоремы 2.2 и 2.3). В противоположность этому вто- рая часть минимизируется путем оптимального способа оценивания вектора Таким образом, стохастическая задача управления линейной сис- темой с квадратичным критерием качества, линейным законом управ- ления и гауссовскими возмущениями и ошибками измерений оказыва- ется разделенной на две задачи. Именно: а) задача детерминированного оптимального управления; Ъ) задача стохастической оптимальной фильтрации. При этом фильтр и управление построены совершенно отдельно друг от друга. Результирующий замкнутый контур из объекта, фильт- ра и регулятора, в который вместо фазового вектора ОС подставляет- ся его оптимальная оценка X, и представляет собой искомую опти- мальную систему в смысле критерия качества (3.14d). Теорема разделения для случая дискретного времени была опубли- кована Джозефом и Ту в 1961 году С3.1, 3.23. Почти сразу же принцип разделения был применен также и к системам с непрерывным 113
временем [3.3]. Однако, его строгое доказательство было дана Бьюси лишь в 1968 году в [2.12]. Для линейных систем е непрерывным временем формулировка за- дачи управления звучит следующим образом. Пусть дана система ® (i)= A (i) X (Л)+в Ci) и (i)+ V(t), (3.1 G а) 1|(i)eC(b)T(i)+W(i), (3.16 Ъ) Здесь случайный вектор ®(tn) имеет нормальное распределение с математическим ожиданием £, a V(t) и ^(t) векторные гауссов- ские белые процессы. Искомым является лилейный закон управления вида t0<6r<ib t tj, (M6c) при котором квадратичный критерий качества J(tpt> (tp+ Ч +j LAr) i(t)»(totu\t)R(t)u(i:)] Ат |ij (go; (зле a) t достигаем минимального значения. Замечание. Постановка задачи в значительной мере аналогич- на случаю дискретного времени. Новым является лишь член с P(t^) в выражение (3.16 а). Он специально введен для того, чтобы иметь возможность оценить результат действия управления в конце интер- вала с соответствующим весом. В случае дискретного времени это оценивание осуществляется с помощью матрицы Cl(k^) в крите- рии качества (3.14 4). Если в непрерывном времени желательно пренебречь членом P(t|), то необходимо снабдить матрицу J(t) дельта-функцией при Установленное с помощью принципа разделения решение в непре- рывном времени стохастической задачи управления состоит в сле- дующем; а) использование детерминированного оптимального закона управ- лейия (3.11), (3.4), (3.5); Ь) использование стохастического оптимального закона фильтра- ции (2.96), (2.93), (2.94). Результирующая система регулирования представлена на рис.'3.5. Стохастическая разделимость имеет центральное значение при оптимальном синтезе линейных стохастически возмущенных контуров регулирования. Этот класс задач в значительной мере исследован путем сведения их к детерминированному линейному управлению и стохастической линейной фильтрации, причем для обоих последних вопросов имеется развитая теория. Принцип разделимости до сих пор был доказан лишь для линей- ных систем. Вряд ли можно предположить, что он в своей строгой форме вообще справедлив для нелинейных систем. Однако при синте- 114
Рис. 3.5. Линейная оптимальная стохастическая система уловле- ния. зе нелинейных стохастических систем управления весьма редко остается какой-либо иной выбор, кроме как принять справедливость принципа разделения. При этом нелинейная фильтрация и нелинейное управление вновь осуществляются раздельно, а затем опять объеди- няются. Правда, с математической точки зрения этот способ пред- ставляется не особенно удовлетворительным, хотя и практичным. Конечно, никаких гарантий абсолютной оптимальности в этом случае уже не существует. Исследуем теперь с точки зрения алгебраической разделимости линейный контур регулирования, сконструированный оптимальным образом с использованием стохастического принципа разделения. Замкнутый контур образует уравнение (2.97) для 06 (t), уравнения (3.11) с и (3.16а). Подставляя (3.11) в (3.16f получаем A(i)X(t)-B(i) L(t){W-5b(t)}+ V(t), (3.£7) X(t) = {A(t)-K(t)C(t)} ®(t)* V(t)-K(.i)W(H (2.87) Единым образом эти дифференциальные уравнения можно записать в виде х") _ A-BL _xj - о (МБ) 115
Здесь также оказывается, что динамика ошибки х(1) полностью не- зависима от динамики состояния системы X (t), ибо ни X ни L не оказывают влияния на х(П. С другой стороны, собственная эволю- ция X определяется матрицами А,В и L, в то время как члены BLX и D интерпретируются лишь в качестве внешних возмущений. Следовательно, алгебраический принцип разделения здесь также имеет место. 3.4. Замечания о матричном дифференциальном уравнении Риккати л Свойства фильтра Калмана - Бьюси и процесса X[t) в значитель- ной мере определяются решением Pfct) матричного дифференциального уравнения Риккати (2.94), Кроме того, Р(ф) является единственным неизвестным фактором в коэффициенте усиления фильтра К (t) и тем самым единственным свободным параметром в уравнении фильтрации (2.92). Далее, элементы главной диагонали матрицы P(t) представ- ляют собой дисперсии ошибок оценивания, которые имеют решающее значение для качества фильтрации. Кроме того, в случае гауссовских процессов, выход фильтра ^Кал- ма на - Бьюси есть условное математическое ожидание ®(t), a Р(1) представляет собой условную матрицу ковариации X(t) при условии данных результатов наблюдений t|(t), Однако, заданием математического ожидания и матрицы ковариации гауссовское рас- пределение полностью определяется.Аналогичным образом, задание Xlt) и P(t) для гауссовского процесса полностью эквивалентно за- данию fl-мерного условного распределения вектора X(t)l След ователь- но, все представляющие интерес условные средние функции от X (t) можно вычислить с помощью обычного интегрирования. Матричное дифференциальное уравнение Риккати в задаче фильт- рации имеет вид fl. л» Л* » /V — Plt)*A(t)PCt)+P(i)A'lD-P (t)С'(i)P 4t)(!(i)PQl)+ d(t), ft* (3.19) P(t0>P(t0), t0«t. Смысл матриц A,C,P, Q, и R разъяснен в параграфе 2.4,1. Мат- ричное дифференциальное уравнение Риккати образует систему 1т5 связанных дифференциальных уравнений^первого порядка для НЛП, ~ (Ц. Выражение PC'R’^CP приводит к членам вида 2 р.^Рк|» соответственно р^. Поэтому система дифференциальных уравнений является нелинейной. Поскольку Р - симметричная мат- рица, то число действительно различных элементов сводится к (Па+П')/2.Однако это - все еще значительная величина во многих практических задачах, в которых значение 11 находится около 10. Таким образом ясно, что основная трудность при сиитезирова— 116 элементов р
нии фильтра, наряду с созданием математической модели наблюдае- мого процесса, связана с решением матричного дифференциального уравнения Риккати. Из предположений п. 2.4.1 о матрицах Р, Q, и R и требования непрерывности матриц A(i\ C(t\ GL(t) и R(t) not вытекает су- ществование единственнаго решения дифференциального уравнения Риккати (3.19), такого, что матрица всюду неотрицательно определена. Критерии устойчивости также обсуждались в соответст- вующей литературе (см., например, С2.123). Как правило, дифференциальное уравнение Риккати должно быть решено численно. При этом вследствие ошибок округления легко возникают две проблемы: л, ID потеря симметрии матрицы Р; (ii) нарушение неотрицательной определенности матрицы Р. ~ Для того, чтобы избежать (i\ сохраняются все ft1 элементов Р, причем на каждом интервале интегрирования (соответственно, интервале вычислений) матрица Р симметризуется посредством вы- числения среднеарифметического величин р и р... Для устранения 4 г/1 проблемы (ii"), которая прежде всего встречается у слабоуправляе- мых процессов (матрица CL мала и (или) неотрицательно определе- на), предлагается искусственно увеличить элементы О,. Естественный и простой обычный способ решения дифференциаль- ного уравнения Риккати состоит в непосредственном интегрировании с помощью одной из соответствующих численных процедур. Вместе с тем нередко используется метод аналитического или численного решения дифференциального уравнения Риккати , вытека- ющий из следующих рассуждений. Общий вид сопряженной системы некоторого дифференциального уравнения X = F(t)® дается дифферен- циальным уравнением см. параграф 1.4, уравнение (1.33а)). Возьмем теперь однородное дифференциальное уравнение ошибки фильтрации (2.97) и заменим матрицу K(t)ee оптимальным значе- нием в соответствии с соотношением (2.93) (все временные аргу- менты равны t и опущены). Имеем Для этой системы сопряженная имеет вид (3.20): З-Ц-А'+С'ТГ^Ч (S.20) Далее, умножая дифференциальное уравнение Риккати справа на получаем ??=(AP+PA'-PCrR*1CP+a^. u.21) Умножая уравнение (3.20) на Р слева и складывая с (3.21), заключаем, что (5.2 а) 117
(3.23) Привлекательным является то обстоятельство, что здесь отсут- ствует нелинейный член из дифференциального уравнения Риккати. Положим P(i)?(t):»i?(t). Тогда дифференциальные уравнения (3.20) и (3.22) представимы в виде линейной гамильтоновой системы порядка 2п _rt г dt I 1j_ 5 5 _ И- (3.2М GL(b) A(t) Этот промежуточный результат позволяет свести интегрирование неоднородного (2.^0) нелинейного дифференциального уравнения Рик- кати к решению линейной однородной системы. Очевидно, что систе- му (3.24) можно последовательно?! раз интегрировать, причем на k-м шаге в качестве начального условия для 2; берется к-й столбец единичной матрицы, а для 1?(tj) на основании (ЗЛ£3) берет- ся к-й столбец матрицы ?(t0)eP(t0). Построенные для к=1,2, ,11 пары решений ?k(i\ V*) объединим в виде системы * X(t) ,= ^(i) Y(i) при - I РС%)_ ’ YCtJ’ В силу определения (3.23) справедлива зависимость P(i)^ 0-)“ «^(t) или в замкнутой форме Plt)X(i)=Y(t). Разрешая ее относительно Р, получаем Р(Ь)=У(ЙХ“1(-Ь\ ^-г5> Систему решений X(i),Y(V) можно также выразить через пере- ходную матрицу гамильтоновой системы. Обозначим через И (f) матрицу размером 2ть*21гв уравнении (3.24), т.е. r-A'(t) mrWw" HW:=L nit) A(t) _ (S.26) (3 27) Переходная матрица размером 2n*2n,соответствующая Н(1), определяется соотношениями ^•e(M0)- hcwm,), v-iSn. Представим матрицу в виде четырех подматриц 0^(t размером ТИП. Тогда общее решение гамильтоновой системы (3.24) 118
дается формулой >фПГеи(М0) э1а(М0Я Г?(%Я vwJ Lwl Значит, используя приведенное выше начальное условие, можно для системы решений записать выражение еи(\у]Г1 Y(«J Lesl(t,tol WWJ L4>J’ подстановка которого в уравнение (3.25) приводит к следующей изящной формуле для решения матричного дифференциального урав- нения Риккати (3.19): (328) Можно показать С2.123, что вторая фигурная скобка в (3.28) для всех и всех неотрицательно определенных матриц 5 (Фо) явля- ется невырожденной. Поэтому это решение существует для любой задачи фильтрации. Результат (3.28) имеет большое практическое значение, особен- но для не зависящих от времёни систем, т.е. для стационарных про- цессов (’матрицы А, С, £1 и R - постоянные во времени). В этом случае матрица й также постоянна, а переходная матрица 8 будет функцией только разности ДЪ ее аргументов. Для произвольного зна- чения At сколь угодно точно матрицу 8 можно вычислить, исполь- зуя известную экспоненциальную формулу 0(Д-Ь)-ен'й1=1+Н-Д1 + ...+ Ик^7^+... 1.зг9) к! С помощью формулы (3.28) можно, Наконец, получить соответст- вующее выражение для Р4 и притом без интегрирования. Указанным способом можно вычислить матрицу ? по шагам от начальной точки к следующей (здесь также нужно не забывать сим- метризовать!). Эта йроцедура использована в автоматической программе синтезирования Калмана и Энглера Е 2.293 для дифферен- циальных уравнений Риккати до 15-го порядка. Уравнение (3.29) имеет при этом порядок 30'* 30. Для упрощения рассмотрения гамильтоновой системы, введем в рассмотрение матрицу / порядка 2п*2.П ГО I") T=-L-i J- вда Здесь Г -единичная матрица П-го порядка. Матрицу J можно рас- сматривать как обобщение мнимой единицы I на 2п-мерный случай, поскольку, очевидно, что J2a“I2n- (331) 119
С помощью прямого перемножения легко доказать, что Это уравнение умножим слева на б'ЦДц) и справа на 9(ФЛ0). Используя еще уравнение (3.27). получаем, что Л d Отсюда вытекает равенство W V * w Следовательно, произведение в квадратных скобках здесь постоян- но по времени. Поскольку при t«tg оно, очевидно, равняется J, то для всех t будет Матрица В размером 2п*2п обладающая тем свойством, что D'JI-J, называется симплектической. Таким образом, переходная матрица соответствующая гамильтоновой матрице H(i\ при всех t является симплектической. Это свойство имеет и практическое значение.. Действительно, умножим обе части равенства (3.33) слева на J. С учетом (3.31) получим TerJe=--I„ , Умножая далее справа на имеем •til 1 Этот результат позволяет весьма просто осуществить обращение заданной численно переходной матрицы гамильтоновой системы. Сделаем в заключение одно замечание о полюсах гамильтоновой системы g постоянными коэффициентами. В относящейся сюда лите- ратуре хорошо известно, что характеристическое уравнение для мат- рицы Н можно разложить следующим образом: bls') h, (.-а). (ЗЛ5) При этом h. (s') представляет собой полином П-й степени от 5, все корни которого имеют неположительные действительные части (см., например,Е2.12], с. 105). Коэффициенты полинома h.(s>— дейст- вительные числа. Поэтому его комплексные корни будут сопряжен- ными. Корни полинома равняются корням полинома К(&\умноженным на -1. Следовательно, собственные значения (полюса) гамильтоно- вой системы И расположены на плоскости 5 всегда парами, сим- метричными относительно мнимой оси. Значит, исключая особый случай, когда все полюса расположены точно на мнимой оси, га- мильтонова система всегда имеет как затухающие, так и возраста- ющие собственные колебания. 120
3.5. Стационарные условия. Фильтр Винера В этом параграфе рассмотрим проблему фильтрации с точки зрения стационарных процессов. Монель наблюдаемого процесса имеет вид i Ю- А® Ю* ЕЛ tto>O, (гм а) С л (t>* v (М. (зль ъ) З^есь все параметры, т.е. матрицы А и б, а также коэффициенты 0,и R - постоянные функции времени. На основании теоремы 2.4 соответствующий фильтр Калмана - Бьюси дается соотношениями Я (t) - A»(i>K (t) {l| (i>- С X (t)}, Х(%>0» (3.37 а} гДе ~ 1 К(1Н(ДО’1Г. (3.37V) Здесь матрица Pit) определяется следующим дифференциальным уравнением Риккати с постоянными коэффициентами ?(t>AP(t>Plt)A'-?tbW’R’lC?W*a, P(t0)=P(t0\ (3.37с) Из уравнений (3.37) видно, что коэффициенту усиления фильтра K(t) до тех пор изменяется со временем, пока P(t) остается перемен- ной. Фильтр с постоянными коэффициентами можно лишь тогда на- строить, когда соответствующее дифференциальное уравнение Рикка- ти колеблется около положения равновесия. Впрочем исключение ~ составляет тот незначительный случай, когда начальное условие с самого начала порождает стационарное решение дифференциального уравнения Риккати. Существенным с точки зрения установления процесса колебаний матрицы является асимптотическое поведение матричного диф- ференциального уравнения Риккати (3.37с). Из предположений о том, что модель наблюдаемого процесса вполне управляема относи- тельно матрицы (X и вполне наблюдаема относительно матрицы R следует сходимость всех траекторий дифференциального уравнения Риккати к одному и тому же предельному значению Р (2.123. При этом начальное состояние P(t0^ не имеет никакого влияния на вели- чину стационарного решения. Поэтому его можно определить, выби- рая в качестве начального условия P(to)=0 и интегрируя, диффе- ренциальное уравнение Риккати до тех пор, пока матрица P(i) не перестанет изменяться. Замечания. 11) В модели (3.36а) относящаяся к V "матрица интенсивности' является единичной. Полная управляемость относительно 0> может быть, например, установлена с помощью разложения Q, на матрицу V, состоящую из ее собственных векторов, и жорданову нормальную форму N (см. уравнение (2.33)) с последующим применением к транспонированной матрице интенсивностей VN1^ критерия управ- ляемости (1.45). Поскольку матрица V всегда невырождена, то 121
полная управляемость относительно в силу теоремы 1.5 всег- да имеет место, если только матрицы N и 0. - невырождены. (ill Для стационарного решения Р будет tLP/oli=O. Поэтому это решение удовлетворяет чисто алгебраическому уравнению О'АР+РА'-РСЪ'Чр+а,. (Ш) О Эта система П> связанных нелинейных уравнений, конечно, непри- годна для вычисления матрицы Р, тем более, что почти невозмож- но среди множества встречающихся его корней Выделить тот, кото- рый обладает свойством неотрицательной определенности. Во всяком случае, однако, уравнение (3.38) межет служить для проверки ре- шения 5, Найденного каким-либо другим способом. Ниже приведен более удобный алгебраический метод, сводящий построение единственного неотрицательно-определенного решения для Р к исследованию системы линейных уравнений. Этот метод был предложен Ротом и Бассом С 3.41 независимо друг-от друга. Исходным при этом является характеристическое уравнение (3.35) гамильтоновой системы (3.26), которое в рассматриваемом случае не зависит от времени. Во входящем, туда полиноме h(6) заменим переменную Лапласа S на матрицу М Получим [-Р или hl-H) ((з.ъз-ьз L г J (Доказательство этого интересного соотношения приведено в С 3,41 или Г 2.121, с 105.) Характеристическое уравнение матрицы Н за- частую можно установить на цифровых вычислительных машинах, например, с помощью алгоритма Сурье - Фадеева (см. Приложение, п. А.5.3). При факторизации для определения функций h.&'J и h(*S) также существуют удобные вычислительные^ процедуры. Наконец, решение уравнений (3.39а) или (3.39Ъ) может быть осуществлено с помощью гауссовского алгоритма. Отметим, что каждая из двух систем (3.39) доставляет 2пг уравнений для Т15 элементов матри- цы Р. Поэтому половина из 'них является линейно зависимой, и ею можно пренебречь (см. уравнение (3.45) в следующем примере). Пример 3.1. Рассмотрим стохастический вариант задачи наблю- дения из примера 1.1. Непрерывные наблюдения *Ц (i) представляют собой координату самолета, на которую наложен белый шум ЪХ (I) (здесь также учитывается лишь геометрическая размерность). Ско- рость наблюдению недоступна. Ускорение U(t) может быть грубо измерено. Ошибка измерения ускорения моделируется белым шумом Постановка задачи состоит в построении стационарного фильт- ра Калмана - Быоси, доставляющего оптимальную оценку координаты и скорости. Как и в примере 1.1, обозначим координату через Х^, а скорость - через Х^. Тогда модель наблюдаемого процесса имеет 122
вид (ЗЛО s') (ЗЛОЪ) Предполагается, что дисперсия равна кг*, возмущение 1fg=O, дисперсия V равна 4=0,5. Исследуем прежде всеЬо процесс с точки зрения управляемости и наблюдаемости. Матрица управляе- мости (1.45) относительно V записывается в виде w-[b лв]-[10 Эта матрица, очевидно, не вырождена. Матрица наблюдаемости М равняется О 11 1 ог Она также не вырождена. Поскольку и % - положительные числа, то управляемость и наблюдаемость относительна! Ц, и *L также имеет место. Следовательно, у соответствующего дифференциального урав- нения Риккати существует единственное стационарное решение Р. Для вычисления ? образуем гамильтонову матрицу вида (3.26). Имеем ‘О -1 О О' О 0 0 2 2 0 0 0 , 0 0 { 0_ (ЬЛГ) Характеристическое уравнение для матрицы Н дается соотношением -2 _ 0 0-1 5 J U.42) Факториэируя, получаем &+ Ч = (5е-г2 Ь) ( &2 - 2(S* 1-1)(Ь~1+1) (6+ 4+ ЬХ&" I" 0. 123
Первый и третий сомножители здесь представляют собой функ- цию h (Ь), равную h(,sy-2+2s+sft. (З.чз) Соответствующий матричный полином определяется формулой 2I+2H + H8. Поскольку 'О о о о О -2 Л о О -2 “ 2 О О 0 * О 0. -2 0-2“ а 2 ц -2 2 0 0 2 2_ (Л Ц) Справедливость проведенных до сих пор вычислений может быть проверена с помощью теоремы Кэли - Гамильтона (Приложение, п. А. 5.2), согласно которой ввиду (3.42) должно быть II » 0 (задача для упражнения). _ Из уравнения (3.39а) вытекает, что матрица Р, умноженная на верхнюю половину матрицы h. (Н), равняется единичной матрице I, умноженной на нижнюю половину матрицы МН), т.е. Последнее соотношение представляет собой систему восьми уравне- ний для четырех элементов матрицы Р. Нам необходима лишь та часть (3.45), которая расположена слева от пунктирной линии. Транспонируя ее, получаем систему линейных уравнений в стандарт- ной форме Г2 °Ь-Р 21 L-г г] L-г о_Г Решение этой системы следующее: (МЬ) Проверка с помощью уравнения (3.38) подтверждает этот результат (задача для упражнения!). 124
Квадратичная форма Ж1 Р ® а 2 X* + 2 ****** tX4* *2^а положительна для всех Х#0 и равна нулю при Iе0. Следовательно, матрица Р положительно определена. Дисперсия ошибки оценивания скорости есть Дисперсия ошибки оценивания координа- ты равняется Теперь конкретизация фильтра Калмана - Бьюси не представляет труда. Ясно, что K-PC'R"£=^]. Значит, в силу уравнения (3.37Ъ) л ГО О'] л Г 21 г а ч 11 L Форма последнего соотношения выбрана лишь из педагогических соображений. С точки зрения Технической реализации его можно за- писать в более простой форме: Х = (А~К C)X+KlJ. Именно *U»[J ЕгЬ1П (М7Ъ) Тем самым, поставленная задача синтеза решена. Характеристичес- кий полином фильтра вй+2&+2 имеет корни Значит, фильтр асимптотически устойчив. Изложенная процедура синтезирования фильтра с помощью урав* нения (3.39) приводит к фильтру, оптимальному для стационарных состояний наблюдаемого процесса. Отметим также, что эта процеду- ра представляет собой новый, чисто алгебраический метод построе- ния фильтра Винера. В некоторых ситуациях желательно проведение оптимальных на- блюдений процессов возникновения и установления колебаний. Для этого должна быть построена зависящая от времени матрица усиле- ния К (Р), основанная на установившихся колебаниях матрицы Р(ф\ Разумеется, как уже выше упоминалось, траектория P(t) может быть определена посредством численного решения дифференциального уравнения Риккати (3.37с). Однако для систем невысокого порядка она может быть установлена с помощью преобразования Лапласа. Из уравнения (3.28) при 1^=0 вытекает, что Pin»{e44Ct)+e22(t)P(0)}{611(i)+ ew(t)P (о^у1. (М8) (Л49) Преобразование Лапласа переходной матрицы 0(b), соответствующее Н, как известно, равняется d.et (sI_H) (Л.50) 125
Для характеристического полинома матрицы Н размера 2П»2п спра- ведливо выражение (см. Приложение А. 5.1): det(8l-H)’Sen+9L2w_^S П ^ + ...+ Л^б+etjj. (.1.54.) Сопряженная матрица на основании уравнения (А. 42Ъ) представи- ма в виде adKsI-H>C2n_/n'itC2n^s2n'z+...TCiS+C0. (33^ Коэффициенты и здесь вычисляются с помощью алгоритма Сурье - Фадеева (посредством замены А на И и tl на 2п в урав- нениях (А. 43а) и (А. 43Ъ)). Основная работа теперь связана с поэлементным обратным преобразованием уравнения (3.50) во вре- менной области и применением формулы для решения (3.43). Пример 3.2. В примере 2.4 фильтр первого порядка уже был построен. Здесь рассмотрим аналогичный процесс, интересующий нас, однако, с точки зрения оптимальной фильтрации процесса воз- никновения колебаний при tK0. Модель наблюдаемого скалярного процесса дается соотношениями i(t)==-x(i')+‘U-(t)i ^(.t)=X(i)+V(t). При этом С1Ж2,К»1 и t*0 (см. рис. 3,6). Начальное состоя- ние в точности равняется нулю, т.е. Р(0)=0. Соответствующая гамильтонова матрица (3.26) имеет форму Г-А' СгКч<1_Г1 4 4 Нз|_ a A J L2 -1J- Оптимальный фильтр Рис. 3.6. Фильтр Калмана - Быоси для скалярного процесса в при- мере 3,2. 126
Соответствующая Н переходная матрица (?(i) размером 2x2 опреде- ляется формулами em-i. (э.взч Ее преобразование Лапласа дается выражением U.5A) Коэффициенты и <<д, а также и Сд вычисляются с помощью алгоритма (А. 43) при 71=2, Начальные условия имеют вид: CfL, к-Г. <<t=-ери»(CJV)3-бритН-0, Cg-C^+^l-H, к-2'. Л0--|врит(СвН')« •- - spur НК Spur 0 5 j--з, C^-CgH+AjI-HMl-O. Последнее уравнение служит для проверки правильности резуль- татов. Эти результаты позволяют переписать уравнение (3.54) следующим образом*. (.3.55) Полюса О (V) равняются В^-т/5 вание дает и Sa“VS. Обратное преобразо- U.CS) А» Очевидно, что 0\О)а1. Из (3.48) при P(0)sP(0) = 0 вытека- ет, что P(t> W5 -О е'1^ * ♦ WT+Г) 4 127
Постоянная времени затухающей частя равняется Т«1/У^*0,578. Если t^T, то как в числителе, так и в знаменателе преобладаю- щей будет возрастающая часть. Поэтому *** — 2 —— Р(~>Р=-=— = VJ-1-0,73. V5+ 1 Этот результат согласуется с решением, установленным в примере 2.4. Искомый фильтр Калмана - Быоси имеет вид Л -«(й+К (t) (1| (t)- Л (£У) Коэффициент усиления равняется P(t)C,R"\ Следовательно, K(t)»P<t). На рис. 3.6 представлен фильтр вместе с графиком зависимости K(i) от времени. Процесс установления коэффициента усиления закан- чивается через три единицы времени, после чего наступает ситуация, описываемая фильтром Винера. Подробности, связанные со стационар- ным состоянием, приведены в примере 2.4. Выше было показано, что фильтр Винера является частным слу- чаем фильтра Калмана - Быоси для стационарных процессов после затухания начального процесса. Впрочем, в теории фильтрации Ви- нера существует ограничение: имеется только один скалярный наблю- даемый процесс ^(t) и V(t) содержит самое большее два элемента. Один из них - полезный сигнал, и, возможно, имеется еще и вто- рой элемент - цветной шум. Если последний действительно имеется, то в фильтре Винера может быть также учтен и белый шум Irflt), что невозможно в фильтре Калмана и Быоси, поскольку в нем долж- на быть положительной величина Ew2(t)- Впрочем, эта кажущаяся большей общность процедуры винеровской фильтрации сказывается в необходимости реализации в фильтре дифференциальных членов, что не представляется практичным. Брайсон и Йогансен £2.17] рассмот- рели в рамках теории Калмана - Бьюси этот случай, в котором мат- рица R неотрицательно определена и получили решение, также час- тично содержащее дифференциальные члены. (По этому вопросу см. также работу Быоси £2.183 и параграф 3.7). Кроме того, в процедуре винеровской фильтра щ. и следует сделать предположение, что сам наблюдаемый процесс должен быть устой- чивым, т.е. все собственные значения матрицы Я могут иметь лишь отрицательные действительные части. Для построения не зависящего от времени фильтра Калмана - Бьюси это предположение не являет- ся необходимым. При сделанных в начале этого параграфа предполо- жениях фильтр Калмана - Бьюси всегда реализуем и асимптотически устойчив (т.е. все полюса фильтра лежат в левой 8-полуплоскости, см. пример 3.1). Выводы этого параграфа справедливы также и в случае дискрет- ного времени. В принципе исследование проблемы синтеза в дискрет- ном времени (система сканирования) проще, чем соответствующей 128
задачи с непрерывным временем, поскольку вместо дифференциальных уравнений и интегралов используются разностные уравнения и сум- мы. Иными словами, здесь с самого начала встречаются только чисто алгебраические операции. При любых обстоятельствах стацио- нарный фильтр Калмана может быть рассчитан с помощью алгорит- ма (2.51) из теоремы 2.1, а для систем небольшого порядка (ПЛ5) даже с помощью логарифмической линейки Или настольной вычислительной машины (см. пример 2.2). Там же приведено ста- ционарное решение уравнения Риккати с дискретным временем при к=>В (ср. таблицу 2.2 и рис. 2.4). 3.6. Формирующий фильтр векторного марковского процесса До сих пор постоянно предполагалось, что математическая мо- дель наблюдаемого процесса уже задана в стандартном виде X “ с матрицей ковариации QL. Во многих практических задачах это вполне реалистично. В частности, если наблюдаемая система представляет собой стохастически возмущенный объект регулирова- ния с сосредоточенными параметрами, то можно считать, что его модель либо известна, либо может быть легко установлена. Это положение является почти всегда исходным, например, при рассмот- рении самолета или летательного аппарата. Однако может случиться, что известны только статистические характеристики процесса X. Кроме того, при синтезировании фильт- ра не меньшее практическое значение имеет рассмотрение ситуаций, когда возмущения и ошибки измерений содержат цветные компонен- ты. В обоих случаях до начала собственно фильтрации надлежит построить формирующий фильтр либо для X, либо для тех частей расширенного вектора X, которые представляют собой цветной шум (ср. замечание (Ъ) в п. 2.3.7). Ввиду ограниченности объема настоящей книги мы рассмотрим лишь марковские процессы с дискретным временем с нулевым ма- тематическим ожиданием и заданной матрицей ковариации. Если, сверх того, процесс - гауссовский, то указанным образом он пол- ностью определен. Итак, пусть имеется процесс Г®(к), к^^ , причем X представ- ляет или весь фазовый вектор искомой модели или часть его, соот- ветствующую цветному шуму. Пусть также задана последовательность матриц ковариации вектора ®(к) (Л2) X'(kj), kfl« к^£ к^. (.3.68) Поскольку очевидно* что то достаточно рас- смотреть всевозможные пары аргументов вида к. < к . __ * 2 Сделаем следующие предположения: (1) для всех к матрица Р(к,к) конечна и симметрична; lit) Р(к, к) положительно определена (невырождена); 129
(ill) для всех к « к- < к • » в P(ks, кг) Р-1 (кг, ка) Р( кг, kJ- Р (ку kJ. <3. 69 ) Эти предположения необходимы и достаточны для того, чтобы процесс Л (к) был невырожденным марковским процессом в широком смысле. Последнее означает, что для любых к < к < ... < к спра- ведливо соотношение 1 а п E{a(kn)|®(kj,o&(kg),. •.«(kn_1)}-E{«(kft)|»(k^j}. (370) В С3.51 это утверждение сформулировано и доказано для скалярных процессов (глава 5, теорема 8.1). Для векторных процессов его можно обосновать посредством следующих рассуждений. Условие (3.70), очевидно, имеет место, если модель процесса имеет вид aj(iM)«A(k)ae(k)+ u(k), kQ<k. (з.70а) Здесь V(k)- белый шум, некоррелированный с Ot[kj. Ковариация V(k) равняется Ev(k)v'(«)e^lk)i)'|cM. (3.70 Ъ) Переходная матрица, соответствующая А(к), есть Ф(к,9()> В параг- рафе 1.6 уже была установлена справедливость следующих соотно- шений (см. уравнение (1.55)): Ф(к+£,kJ-A(kJ$(k2,kJ, fc^.kj-l, k^k2, (3.71) ФО^к^-ФСк^-ФСк^» kj*k2<kr (3.72) к4-1 Шй)=ф(к2,kjx (kJ* £2 ФО^Л+АХ*). V кй (173) Последнее из этих уравнений подставим в определение (3.68). Ввиду отсутствия корреляции все члены вида E'V(^c)»4kJ под зна- ком суммы обращаются в нуль. Оставшееся дает Р (k2, kj« Е Ф (к2, к J я (kJ т' (kJ. Следовательно, МД)-»(кД)Р(кД), koskjf к2. (3.7Ц) Умножение справа на матрицу, обратную к Р(к^, kJ, приводит к равенству Шг, kj-P(k2,kJP’i(k1,kj. (3,75) Подставляя (3.75) в уравнение (3,72), получаем Р(к3, к )P‘i(k к )Р(к кJP^tk к )-Р(к к.)Р"4(к ,к *). (3.76) 130
(3.71) при к = к = к рав- 2 4. Умножая( наконец, справа на Plk^k^"), приходим к условию (3.69). Предположим теперь, что условие (3.69) задано и, исходя из этого, определим искомые матрицы А (к*) и 0,(к) модели Ot(k'). Поскольку матрица Р(к.к') должна быть положительно определена, то уравнение (3.76), а следовательно, и (3.75) также справедли- вы. Последнее при кг=к+1 и к^=к принимает вид Ф(к+1,к')=Р(к+1,к') P^l.kjk'). Левая часть здесь с учетом уравнения няется А (к). Поэтому также АЦ^РЦс+^НР'Чк, Ю. Для получения недостающей еще матрицы CL(k) рассмотрим матрицу Р(k+if к+1). Подставляя уравнение (3.70а) в уравнение (3.68), получаем Р(кт1, k+l)=E{[A(k'ix(k)+ v(k^[®'WA’(k>v4k)] Поскольку величины ОС (к) и '1У(к’)-некоррелированные, то математи- ческое ожидание их произведения обращается в нуль. Оставшееся равняется P(k+1, к+Е {а (к)х (к)»'( к) А' (к)+ V (.к) V' (к)], или Р(к+4, к+1>А(к)Р(к,к)А'(к)+СЦк) Са 78) Но матрица Р задана, а А (к) уже определена формулой (3.77), т.е. матрица Q,(k) - единственная неизвестная в уравнении ч3.78), из которого ее можно легко найти. Резюмируя, можно сказать, что при сделанных предположениях последовательность А (к) может быть определена с помощью форму- лы (3.77), после чего соответствующая последовательность (11к^ находится из равенства (3.78). Тём самым искомый формирующий фильтр (3.70) полностью определен. Этот формирующий фильтр представляет собой абсолютную динами^ вескую систему, обладающую свойством синтезировать из белого шума ЧУ (к) такой марковский процесс Я. (к), который имеет заданные статистические свойства. В случае непрерывного времени построение формирующего фильтра совершенно аналогично (см. литературу). Однако с практической точки зрения проблема возникает не столь- ко при использовании уравнений (3.77) и (3.78), сколько при тех- ническом определении последовательности ковариаций P(k21kt')> Рассмотренный здесь синтез формирующего фильтра в пространст- ве состояний эквивалентен факторизации спектральной плотности в классической теории. 131
3.7. Понижение порядка фильтра Как уже неоднократно отмечалось,особая ситуация возникает тогда, когда один или несколько элементов измеряемого вектора свободны от воздействия белого шума. Указанные элементы таким образом, либо вообще не содержат белого шума, либо содер- жат цветной шум, образованный формирующим фильтром. По-сущест- ву, эквивалентным является случай, когда элементы 'ЦУ- линейно * и зависимы друг от друга. При этом оба случая сказываются в том, что матрица ковариации ошибки наблюдения более не является стро- го положительней определенной, а, напротив, будет вырожденной (ср. с замечанием (&) в п. 2.3.7). Если время непрерывно, то обратная матрица ввиду соотно- шений (3.37) непосредственно входит как в (дифференциальное уравне- ние Риккати, так и в качестве сомножителя в коэффициент усиления K(t). Поэтому для наблюдений, не содержащих белых шумов, фильтр Калмана - Бьюси в его первоначальной форме уже неприменим. Выше также упоминалось, что Йогансен £2.173 и Бьюси L2.181 исследовали этот случай с помощью модифицированной процедуры. При этом основная идея решения состояла в том, чтобы наблюдения, не содержащие шумов или содержащие только цветные шумы, диф- ференцировать до тех пор, пока не останется только белый шум. Последний, естественно, порожден компонентами ТУ, так что матрица Q, и новая матрица R* связаны друг с другом. Кроме того, в резуль- тирующем алгоритме фильтрации возникают дополнительные члены, что, впрочем, не представляет сколько-нибудь существенной проблемы. Трудности, ставящие процедуру под сомнение во многих практи- ческих задачах, связаны преимущественно с ее технической реализа- цией. Правда, в некоторых практических случаях последнее дифферен- цирование, которое привело бы к белому шуму, может быть приме- нено к сигналу, расположенному не до интегратора фильтра, а после него. Так, например, измерения вида <iA 'di 4 jf th n с цветными шумами первого порядка X.(t)=A-a- на практике совершенно не нуждаются в дифференцировании. Если, однако, измерения являются выходом фильтра белее высокого поряд- ка, возмущаемого белым шумом, то оставшиеся дифференциальные члены должны быть технически реализованы. Мы более не будем изучать случай непрерывного времени, а об- ратимся лучше к более простому случаю дискретндго времени (см., также L3.25J). Рассмотрим систему ft,-го порядка с р измерениями, не содержащими белого шума: МЮ& (k)+V(k), (3.79а1) ^(H=C(k)«(k\ (3.79 ЪЗ ^*(k> с*(k)®(к)+ W*(kY (3.79 О') 132
Здесь -р-мерный вектор, а 1|* и W"*- векторы размерности (т-р). Матрица f(k) размера Tlxр должна для всех к иметь ранг р, т.е. р ее строк линейно независимы (в противном случае излишние строки этой матрицы исключены заранее). У матрицы ковариации R(_k) все элементы равны нулю за исключением правого нижнего угла размером (п-р)х(п-р) . Остальные величины имеют тот же смысл, что и в п. 2.3.1, Измерения й(к) представляют собой точные наблюдения опреде- ленной линейной комбинации фазовых переменных ф^(к). В то же время остальные измерения есть либо искомая величина (полезный сигнал), либо цветной шум. Предположим, что в случае цветного шума соответствующий формирующий фильтр уже включен в уравне- ние (3.79а). Если бы было р=П,, то уравнение (3.79Ъ) можно было бы разрешить относительно ТДк). Поскольку р всегда меньше Н, обозначим через ® вектор, состоящий из(П,-р) первых компонент вектора X, подлежащих оценке. Далее рассмотрим соотношение '«СкУ] ГГ Иаш 1 /1ч juoHc d Ы Здесь матрица В есть верхняя часть объединенной—матрицы в (3.80), состоящая из ее (tl- р) строк. Матрицы б^(к) и Cg(k) определяются в силу (3.80) как под_матрииы, состоящие из (И-р),соответственно р, столбцов матрицы (*(к) размером Но матрица С имеет ранг р. Поэтому всегда можно так ввести матрицу чтобы она была невырождена (например, с помощью изменения значений индексов фазовых переменных). Предполагается, что эта структура справедлива при всех к .Обратная матрица к объе- диненной матрице в уравнении (3.80) легко вычисляется. Следо- вательно, х(к)= ^П-р О "1 i(kf (3.81а) или ot(k)=M(k)»(k)-»-N(k) ij(k). (М1Ъ) Здесь матрицы И и N определяются посредством сравнения уравне- ний (3,81а) и (3.81Ъ). Однако величины M,N ий известны. Зна- чит, требуется оценить лишь вектор X, Имеем x(k)=M(k) £(k)+N(k)^(k). (3.82) Отсюда вытекает, что 5t(k)= M(k) Й (k). (3.8Ь) Оценка (3,82) - оптимальная, ибо ошибка оценивания (3.83) удовлетворяет уравнению Винера - Хопфа в формуле (2.16). Комби- 133
нируя оба уравнения (3.79Ъ) и (3.79с), легко убедиться в справед- ливости следующих формул: _ij*(k)J , ю(ку.= _tt*(kj’ С(к):= ‘ С(к) ’ _ ечю. (3.85) Теперь можно записать 1(к)=Вх(к) ^(k)=C(,k)x(k)+w(k). (3.86) (3 87) На основании теоремы 2.1 и уравнений (2.50а), (2.50Ъ) фильтр Калмана имее? вид Ф*(к+1>А (к)»(к), »*(,кр>8, (3 88) ®(к)«Х*(к)+К(к){‘у(к)-С(к)Х*(к)|. (3.89) Этот фильтр имеет еще порядок М. Однако с помощью приводимых далее преобразований порядок его можно понизить доП-р.Для то- го, чтобы исключить 1Х-мерный вектор фильтрации X*,объединим члены с ф* в уравнении (3.89) и умножим слева обе части на мат- рицу В. Получим B«(k)-B[l-K(k)C(k)}3C*(k)+BK(k)^(k). (з.«о) В левой части здесь ввиду (3.86) стоит оценка ®(к). Правую же часть можно упростить, используя следующие обозначения: ж*0Ф= ®*(k), (5Я1) K(k): = BK(k). Тогда соотношение (3.90) переходит в новое уравнение фильтрации (З.ЭЗЪ). Другое уравнение фильтрации, получающееся при замене к на к+1 в формуле (3.91) и подстановке ее в (3.88), дается выра- жением (k+i)C(k+n} A(k)x(k). Используя еще уравнение (3.8"2\ получаем окончательно уравнение фильтрации (3.93а). Объединяя полученные результаты, заключаем, B*(k+l)*[B-’K(k+£)C(k+i)}A(k){M(k)*(k)tN(k)^lk)}, (393а) х-к*(к)+ К(к)1|(к), z*(k#)=O. (Шъ) Уравнения (3,93) образуют новый фильтр порядка Ц-р. Пере- множая матрицы в уравнении (3.93а), образуем следующие матрицы 134
размером (ti-p) ж (n-j>) и tn соответственно: Р(к):-{в-К(кНЖк+4.)}А(ЮМ(к), (Ь.вАа') & (к):- {В-К (кН)С (к+1)} Л (к) [N (к),0]. (ЬЛк Ъ) У матрицы 6(Ю отличны от нуля только первые р столбцов. Теперь уравнение (З.ЭЗ*^ можно записать в форме a*(.k*4')=F<k'>®<ky*- &(кЦ(к). (5-9МО Вектор И*(к) размерности П-р является новым вектором состояния фильтра (рис. 3.7). Последнее становится особенно ясным, если со- отношение (3.93Ъ) подставить в (3.94с). В результате получим я*(кЧ>Г(к)я*(к)т{Р(к)КСк)т&(к)}^(к). (3.9U) Матрица Р( к) определяет динамику фильтра. Фазовые переменные X наблюдаемого процесса совсем п-р+Г ’ п - не входят в фильтр. В их число часто входят и фазовые переменные, принадлежащие цветному шуму, все равно не представляющие инте- реса. Во всяком случае оценка полного фазового вектора всегда мо- жет быть осуществлена с помощью уравнения (3.32). Приведенный выше алгоритм фильтрации иным способом впервые установлен в [3.6], а также опубликован в [2.201 и [2.213. Един* ственной,gnie неизвестной матрицей в фильтре,является коэффициент усиления К, равный, на основании уравнения (3.92), верхней части матрицы усиления К(кЛ в фильтре Калмана. Это вытекает из фор- мул (2.51) для дискретного уравнения Риккати. Поскольку они до- ставляют и численную программу, удобно их использовать без изме- нений. Однако для ручного вычисления имеет смысл несколько уп- ростить алгоритм решения уравнения Риккати. Для этого сначала введем матрицу ковариации ошибки оценивания £ 6(kY.= Ex(k)x'(k). (5.35) А* Поскольку в виду (3.86) получаем Л «В®, то, очевидно, МЮ-ВЕ^ЦОйЧк^В’-ВйюВ'. (3.96) Итак, 3(к) равняется подматрице в левом верхнем углу матрицы P(kY Напротив, из (3.83) вытекает, что ?(Ю»М(к)8(к]МЧк). (Ь.97) Уравнения (3.96) и (3.97) подставим в алгоритм Калмана (2.51). Рис. 3,7. Фильтр (и - р)—го по- рядка с р измерениями, не со- держащими белого шума. 13S
Принимая еще во внимание (3.92), непосредственно получим Р*(кт1)=А(к)М(к)Ш)МЧк)АЧк)+0.(к), Р* к р, (3 98 а) К(к)=ВР*(к) C'(k)^C(k)P*(k)C,(k)+R(k)}-i, (3.98 Ъ) S(k)={B-K(k)Clk)j Р*(к)В*. (3.98с) Этот модифицированный алгоритм установлен в (3.6), а также в £2.201 и С 2.211'9. Неиспользуемые здесь элементы матриц К (к) и 5(к) из алгоритма Калмана исключаются, так что необходимы соответствующие небольшие вычисления. Особенно невелики они в случае постоянной матрицы С, ибо тогда матрицы Мий также по- стоянны и соответствующие вычисления необходимо проделать лишь один раз. Дифференциальное уравнение (3.98а) имеет порядок п. Как указа- но в Е3.63 его можно подобно Х*(к+{) исключить из фильтра с по- мощью приводимой ниже процедуры. Для простоты изложения примем, что матрицы А, СЛ CL и R постоянны, так как- исключение в этом случае осуществляется особенно просто. Заменим теперь к на кт 1 в уравнениях (3.98Ъ) и (3,98с) и подставим в (3.98а). Получим K(k+1)«{BAMS (к) (САМ)'-»-В(1С'}{САМЗ(к)(САМУтСаС'+Ку1, (5.100 а) S(k+i)«BAMS(k)(BAMУ + ^QB,-K(k+i){CAИ&(k)(BЙM)'+Caв,}. (5.100 Ъ) Начальное условие Й(к^) следует из (3.97Ъ) и (3,98с). На первый взгляд этот алгоритм представляется сложным, однако с вы- числительной точки зрения он существенно экономичнее, чем исход- ный алгоритм Кйлмана или система (3.98). Это связано с тем, что теперь алгоритм (3.100) имеет порядок п-р, а необходимые коэф- фициенты ВАМ, САМ, BQ.B’, ВИ.С' и СМ1 определяются сравнительно просто и на основании предположения (3.99) остаются постоянными. Особенно тривиальным является умножение слева некоторо’й матрицы на В, так как оно просто сводится к выделению первых П-р строк этой матрицы. Пример 3.3 С3.61. В моменты времени k=O, 1, 2,... на- блюдается процесс второго порядка. Скалярные измерения состоят из фазовой переменной и цветного шума первого порядка, некоррелированного с сигналом. Модель системы, включающая фор- *)Если обратные матрицы в уравнениях (3.98) не существуют, то используются псевдообратные- (см., например, £ 1.17, 1.18]). 136
мирующий фильтр, имеет вид ‘0,7 0 о ’ л(к+1) а 0,4 0,3 0 ®(k)+v(k), - 0 0 0,1. "1 2 0 " ft(k)- 2 4 0 ♦ ,0 0 0,6. Искомым является соответствующий оптимальный фильтр. Порядок его равен 3-1=2. Вычисляя вначале матрицы М и N в соответ- ствии с (3.80) и (3.81а), получаем Отсюда вытекает следующее выражение для обратной матрицы: и. о : оп о 1 : о .0-1:1. Фильтр определяется уравнениями (3.93), соответственно (3.94), с приведенными выше значениями А, В , С . N и N. Недостающая матрица К (к) вычисляется с помощью алгоритма (3.100). Началь- ные значения К(0) и 8(0) равняются нулю в силу (3.98Ъ) и (3.98с), ибо Р*(0)=0 = Р(0). Далее имеем Г0,7 0 1 _Л ВАМ'1о,- «,з]’ CkM=t0’1’ °’Ч вас'-[2], сне'-*,». Тем самым алгоритм (3.100) реализован. Последовательно вычис- ляя, получаем 8(0)= О, К(0)=0, 0,i6G .0,332 0,187 .0,351 0,332“ 0,6 64 J’ 0,351"| 0,68J' К(3) = ro,wi Lo, 843 J 137
УМе при к«3 алгоритм достигает своего равновесного состояния. Соответствующие 'временные постоянные' алгоритма обусловлены наибольшими значениями 0,, поскольку в системе (3.100) Члены с GL являются преобладающими. Фильтр (3.93) в равновесном со- стоянии дается соотношениями г*(к+1)= 0,529 .0,063 -0,0861а , Г-0,0431 (3.101а) а Г0.4271 В форме (3.941) и (3.93Ъ) фильтр представим в виде ъ*(кЧ)- Г0,529 |_0,063 -0,086‘ 0,131 а ж ГО,4271 Х(к>3 Собственные значения фильтра равны А.^-0,511 и Яа«0,150. По модулю они меньше единицы. Значит, фильтр асимптотически устойчив. 3.8. Об исчислении Ито и нелинейной фильтрации При рассмотрении нелинейных дифференциальных уравнений со случайными возмущениями представляется обязательной замена бе- лого шума винеровскнм процессом и использование исчисления Ито, что является плодотворным в нелинейной теории. В противном слу- чае можно легко придти к ошибочным выводам, вытекающим из осо- бых свойств белого шума. Поэтому, прежде чем перейти к формулу*» ровке задачи нелинейной фильтрации, изучим процесс броуновского движения, а также стохастическое дифференцирование и интегрирова- ние. Исследуем вначале скалярный случай, а затем обобщим его на П-мерный. Значительная часть материала этой главы содержится в учебном пособии Е 3.103. 3,8,1. Броуновский процесс. Броуновский случайный процесс пред- ставляет собой математическую идеализацию реального броуновского движения. Он.подробно изучается в работах по теории случайных процессе», (см. например, Дуб £3.5} или Крикеберг L3.71). Соответ- ствующие экспериментальные наблюдения впервые были сделаны Брау- ном в 1826 году. Теоретические исследования были начаты в 1900 году Башелье и возобновлены Эйнштейном и Смолуховским в 1906 году. Первое строгое исследование процесса принадлежит Винеру 13.81, отсюда и происходит обычно применяемое название винеровскнй процесс. Дальнейшее развитие теории связано с Лёви С3.9). 138
Новым направлением исследований явилось изучение не общих свойств процесса, а специфических свойств его выборочных траекто- рий (см. по этому поводу весьма абстрактную книгу Ито и Макки- на Е 3.111). В рамках данной книги процесс броуновского движения интересу- ет нас с .одной стороны как случайное возмущение на входе наблю- даемой системы и, с другой стороны, как модель ошибок измерений. Определение. Процесс броуновского движения - это случайный процесс tg"< 00) с непрерывным временем, удовлетворяющий следующим условиям: (1) если tn«t <t то приращения 0 12 ti’ W-MV’ 15» > 14)...........л взаимно независимы (процесс с независимыми приращениями); di) Ji(t) принимает лишь вещественные значения; dll') приращения процесса для любых двух фиксированных момен- тов времени и t распределены нормально с нулевым математи- ческим ожиданием Е(р (3.1021 К с дисперсией Е (Ji (t^-Jb (\)f " б21V \|. (3.403) Здесь 6 - некоторый постоянный положительный параметр. Замечания. Уравнения (3.102) и (3.103) часто описывают на языке бесконечно малых приращений, именно Ed А-0 и E(d£) *. = 6adt- Распределение вероятностей приращений JI (t.j'J-ji часто зависит не от самих моментов времени и t2, а лишь от их раз- ности, т.е. приращения стационарны (в широком смысле). Если 6»1, то процесс броуновского движения называется стандартным. Обыч- но полагает jb(tol»0. Последнее не ограничивает общности, посколь- ку любую реализацию броуновского процесса Jl*(t)c ^*(1^)# О можно представить в виде суммы jb(i)+jl*(te),nie Jb(t):= jb*(t)- Указанным образом получаем, что равняется нулю, а приращения процесса jj*(t) совпадают с приращениями процесса JJ(tX, Свойства, (а) Независимость приращений означает (правило Байеса), что условная плотность вероятностей будущих приращений относительно заданных прошлых приращений равна бузусловной плотности вероят- ностей; (ъ) броуновский процесс обладает марковским свойством; (с) реализации броуновского процесса непрерывны (Винер); (1) для почти всех моментов времени эти реализации недиффе- ренцируемы (Винер); 139
( е) на каждом конечном интервале времени реализации имеют неограниченную вариацию (Леви). Последние три утверждения справедливы с вероятностью 1. Их доказательство, дальнейшие свойства и болёе подробнее изложение имеется, например, в Г3.51 или L3.7). Замечание. 'Производная* по времени от броуновского движе- ния в теории связи и управлении обычно называется гауссовским белым шумом. Теорема Винера (dj выражает в теоретико-вероят- ностном смысле тот известный факт, что белый шум может быть только чисто умозрительным процессом. 3,8.2. Стохастическое интегрирование. В следующем параграфе исследуются дифференциальные уравнения, возмущаемые броуновским процессом, представимые в форме d,x(tW(a,4d.i+i>(®,4 d,p(i), (5 104 где f(X,t) и ^(х,!)- обычные скалярные функции аргументов Хи t.3ro дифференциальное уравнение понимается в смысле соответст- вующего интегрального тождества, получающегося при интегрирова- нии обеих частей его в пределах от t=(X до имеющего вид j i (*ЛШ+ |v(»,t)ip(t). (5.105) d а Здесь первый интеграл есть обычный интеграл Римана, способ вычисле- ния и свойства которого известны. В то же время второй интеграл на первый взгляд лишен смысла. В самом деле, он не является обыкновен- ным интегралом, ибо производная OtjUll/llt не существует и не являет- ся интегралом Стильтъеса, так как р (t) имеет неограниченную вариа- цию. В действительности же это есть стохастический интеграл. Эле- ментарное событие W порождает на интервале ЕО.,%] пару реализаций функций р(ф,ш) и Ж (1,(0). Поэтому в свою очередь, сам интеграл также будет случайной переменной, зависящей от w. V(wY.= j v(X(t-, w),t) dp (t; w), (5.Ю6) a. Стохастические интегралы этого типа впервые были определены и изучены Ито в Г3.12] (см. также Дуб (3.55, с. 436). В даль- нейшем стохастические интегралы Ито V(W) и W'(w') от функций 1T(X,t) и соответственно 'W(Xj't) будем связывать с одним и тем же броуновским процессом jl(t). Без ограничения общности ниже предполагается, что процесс р (t) стандартный,, т.е. E(d<p)2 = Clt. Свойства. (а) интеграл от V((j) для любого й) однозначно определен; (ъ) ftV(cu)+d.W(w)= [cv+ rtw-] rtplt), о. 140
где С и it - постоянные; (с) EV=0; ! (d.) EVW- EvvOLt. (ЗЛО'?') Доказательства можно найти в цитированной выше литературе. Особенно важны свойства (С) и (Of). В частности, из (Л) при V—V-l вытекает интересное следствие: - " -2 Это следствие означает, что дисперсия приращения ])(£")-Ji ((Г) стан- дартного броуновского процесса пропорциональна величине интерва- ла времени %-(1. Среднее квадратичное отклонение при этом, очевид- но, пропорционально т/^-СС • 3.8,3. Стохастические дифференциальные уравгения. В теории нелинейной фильтрации математическую модель наблюдаемого слу- чайного сигнала обычно представляют в форме дифференциального уравнения, правая часть которого состоит из двух аддитивных чле- нов. Первый из них - обычный, а второй возникает из-за броуновско- го движения. Поскольку основные понятия введены выше для скаляр- ного случая, в этом параграфе ограничимся также дифференциальным уравнением первого порядка вида OL®(t) = f + %<‘Ь- (3.409) Это уравнение именуется стохастическим дифференциальным урав- нением диффузионного типа. При этом (J3(t), есть стандартный броуновский процесс, т.е. процесс, принимающий вещественные значе- ния, с независимыми и нормально распределенными приращениями с математическим ожиданием E(1J4=O и дисперсией Е(Otjl)2 = CLi. Ин- тенсивность шума определяется функцией 1Х. Начальное условие Ж (Ь^) либо детерминировано, либо является случайной величиной, не зави- сящей от приращений Ji(i^-JS (4^"). Уравнение (3.109) представляет собой строгую форму записи в отличие от общепринятой (X,t)+ V(X,t) JHt), где произведено формальное деление на di и ji(t) есть гауссовский белый шум. Пусть Подобно обыкновенному дифференциальному уравнению стохастическое дифференциальное уравнение (3.109) мож- но истолковать следующим образом. Решение, проходящее через на- чальную точку t(J,X(t()'), есть некоторая реализация, удовлетворяющая 141
уравнению t ► » x(t)-x(to)« 1(х(г))г)йт+ v(x(.t),T)4^(t). % *0 (3.110) Здесь второй интеграл есть стохастический интеграл вида (3.106). Можно показать, что при некоторых предположениях (см. £3.5}, с. 277) решение уравнения (3.110) существует и с вероятностью 1 единственно. Это решение X(t), представляет собой случайный процесс, обладающий следующими свойствами. Свойства. (а) реализации X(t) с вероятностью 1 непрерывны; (Ъ) £x2(t)tti <00; (с) если то x(t)-x(to) не зависит от совокуп- ности приращений Jb(T)“Ji(t)J (d.) множество всех реализаций образует марковский процесс; ( й) структура этого процесса в малом определяется прирашенцй (1|Ь(1)и соотношениями гауссовостью E{x(t+h)-x(b)|x(i)=?}-| i(^,t)dT-bO(h,3//2), <3.1113) i t+h E{[x(t+h,)-x(t)]2|x(b)-’$}=j 0lT+O(h,Z). (3.111Ъ) 3/2 Заметим, что ошибка в (3.111а) имеет порядок h . Этот факт является неожиданным и нетривиальным. Если = 0, то условная плотность распределения вероятностей величины Й.Х (t) при заданном ®(Я«? также будет гауссовской. Она определяется с помощью ус- ловного математического ожидания и дисперсии согласно формулам (3.111) и имеет вид 1 -(й®-10ht) At)2 3,8.4. Стохастический дифференциал вдоль интегральной кривой. В ряде случаев необходимо определить полный дифференциал Йф неко- торой функции ф(Х»Й, где X(t)-решение стохастического дифферен- циального уравнения вида (3.109). (Так, например, при вычислении среднеквадратичного значения Х(ф) как функции времени предваритель- на
но вычисляют дифференциал от flt8(t), т.е. вычисляют Лх2.) Эта про- цедура хорошо известна для детерминированных дифференциальных уравнений. Именно, если дано, что то имеет место следующая формула для полного дифференциала функ- ции ф вдоль решения itW. Она) 0t 0® Однако в случае стохастических дифференциальных уравнений формула (3.112) приводит к неверным результатам! В правую часть должно быть добавлено дополнительное слагаемое при (Н. Убе- диться в этом можно с помощью следующих рассуждений. Пусть дано, что и * («л v Здесь приращения броуновского процесса распределены нормаль- но со средним значением ноль и дисперсией dt- Для определения искомого дифференциала Аф разложим функцию ф в ряд Тейлора в окрестности точки ®(t),t: Н+~Дх+у (Дт)а-г0(Ьа)+О(Д®)3+... 1 Di ОТ 2 0® Дф=Ф t+H)-ip(X(t),t'), Теперь в выражении для дифференциала имеет смысл сохранять лишь те члены, условное математическое ожидание которых относительно Х(Ф) имеет по h, порядок не ниже первого. Из уравнений (3.111) видно, что S/2. IX Ь+ 0 th?). При этом более высокие степени Дх не содержат членов, линейных по К. Переходя к пределу при h>«dt-*O, окончательно получаем J Эф Эф u 1 Э2ф 2 + dx(t)+— Clt. (З.Ш) Поскольку член с Л®("Ь) опять содержит (tJi (t), то равенство (3.113) по-прежнему понимается как стохастическое дифференциальное урав- нение. Новое последнее слагаемое в уравнении (3.113) появляется в результате того, что вместо члена (Дх)2 в разложении Тейлора 143
для Ц1р подставлено соответствующее условное среднее. Строгое доказательство полученной здесь эвристическим способом формулы (3.13) принадлежит Ито. Приведенные выше рассуждения можно легко обобщить для вы- числения дифференциалвв скалярных функций векторного аргумента где ® - решение многомерного стохастического дифференциаль- ного уравнения Uati)’f(XjW+V(a,t') ЙДЬ). С5.НА) Здесь X - вектор размерности tl, компоненты Ji. вектора Ji размер- ности Тп представляют собой взаимно независимые нормированные броуновские процессы, т.е. Ejljb=O и вектор-функция 1 имеет размерность 1г; наконец, размерность матрицы есть ttxtn.. При этом первая и вторая частные производные скалярной функции по X будут соответственно вектором и матрицей Гесса (см. Прило- жение, пп. А. 9.1 и А. 9.2). Введем операцию двоеточия между матрицей А размером tlx щ и матрицей 2 размером tn*n следующей формулой: A:B:»&pur (АВ> 2Z(AB).. (М15) 1=1 ЬЬ Применяя вновь формальное разложение в рад Тейлора, получим Для получения правильного условного среднего от ((if, рассмот- рим условное математическое ожидание последнего слагаемого при заданном X Существенный вклад при этом вносит лишь часть этого слагаемого, равная ~ (д2ф/Ззеа): (Vd-jb Лр^При вычислении условного математического ожидания функции Згф/0Х2 и V рассмат- риваются как постоянные, а условное математическое ожидание ве- личины Йр 01^ равняется Ifti. Точную формулировку дает следующая теорема. Теорема Ито 13.131. Пусть функция дважды непрерывно дифференцируема по каждому X. и один раз непрерывно дифференциру- ема по t . Пусть далее Х(1)есть единственное решение стохастичес- кого дифференциального уравнения Ито’(3.114). Тогда 3,8.5. Ураьнение Фоккера - Планка. Пусть дано векторное сто- хастическое дифференциальное уравнение (3.114). Предположим, что Т1-мерная вектор-функция f дифференцируема один раз, а матри- ца V размером - два раза по всем компонентам Я.-^. Условная плотность вероятности вектора при заданном Я(Т),Т£ t удов- 144
летворяет уравнению |2, (Mi?) v L f Здесь - t-я компонента вектора а [jj, - элемент мат- рицы a(^,t>V(^,t)V,(15,t). Уравнение (3.117) называют многомерным уравнением Фоккера — Планка или прямым диффузионным уравнением Колмогорова! Для скалярного случая это уравнение было впервые предложено Фоккером и Планком в работах по теории диффузии и позднее строго обосновано Колмогоровым £3.114] (на- ряду Q обратным уравнением Колмогорова). Феллер доказал теорему существования и единственности решения этого уравнения Е 3.151. Доказательство Колмогорова было позднее обобщено для fl -мерного случая (см., в .частности, £3.161 или £3.173). Дифференциальное уравнение Фоккера - Планка - Колмогорова является первым этапом при решении задач нелинейной фильтрации. 3.8.6. Проблемы нелинййной фильтрации и уравнение Кушнера - Стратоновича. Рассмотрим вновь векторное стохастическое дифферен- циальное уравнение диффузионного типа (t> * (x,t) Л t+ V(X,t) AjS (t), Фазовый вектор x(t) недоступен непосредственному наблюденйю. Од- нако наблюдается другой вектор 2.(1), состоящий из части, завися- щей от Х(Ф), и части Wdy, порожденной Лг(1)= K(a,t) Ai+VWArd), ttet. (3,118.) ошибками измерений. Именно (3.143) Здесь X и 1- tl-мерные векторы, а & и ТП.. Векторы возмущений Ji и Г состоят стандартных броуновских процессов, т.е. h - векторы размерности из взаимно независимых Возможная зависимость и корреляция компонент jb и между собой отражены в матрицах V и W. Для простоты изложения сделаем еще несущественное предполо- жение о взаимной независимости процессов Ji и т.е. Е Сделаем далее два существенных предположения: (а) матрица W не зависит от Ж', (ъ) матрица W имеет ранг тл,т.е. число случайных возмущений не меньше числа измерений Z. , Пусть матрица ковариации ошибки наблюдений есть симметричная положительно определенная матрица 1? размером tn, х ТП V(t)W'(t):»R(i). Предположение (а) приводит к значительному упрощению теории. Нарушение предположения (ъ) делает задачу фильтрации вырожден- ной. 145
Имеет смысл определить условную плотность вероятностей величины при заданном значении 2 всей 1 10,i]' реализации Z(T) на интервале Поставленную задачу ре- шает следующая теорема. Теорема (Кушнер[3.18]).Пусть процессы x(t) ] ряют соответственно уравнениям (3.118) и (3.119) WWZ»K, Тогда и Z(t) удовлетво— J при VV*«Ct и ьч h. '2 h-л J U.120) Здесь h - условное математическое ожидание h, при заданном а Замечания. (i) Средней строка в формуле (3.120) представляет уравнение Фоккера - Планка для р, что видно из сравнения с (3.117). Эта часть уравнения (3.120) описывает эволюцию условной плотности р при отсутствии полезных измррений, т.е. при Последняя строка в (3.120) отражает улучшение плотности ft за счет проведе- ния наблюдений Z(V). Их влияние в задачах фильтрации практическо- го плана выражается в концентрации плотности в окрестности факти- ческого значения В идеальном случае плотность р полностью была бы сосредоточена в точке X(i),ее среднее значение равнялось бы ®(Ь), а дисперсия - нулю (сингулярная плотность). Противополож- ная ситуация возникает тогда, когда во всех наблюдениях постоян- но присутствует шум у, (ii) В последней строке уравнения (3.120) в выражении для присутствует броуновский процесс Поэтому в противо- положность уравнению Фоккера - Плннка соотношение (3.120) есть стохастическое дифференциальное уравнение. По этой причине^ нельзя разделить это уравнение на (ti для получения производной Зр/З^- (iii'J Приведенный способ решения задач нелинейной фильтрации был впервые предложен Стрнтоновичем £3.19’]. Однако его версия уравнения (3.120) содержала неточность, связанную с видом глав- ного члена, вызванную своеобразием броуновского процесса. Кушнер £3.18] исправил эту неточность, однако доказательство Кушнера, найденное им без использования теории Ито, было весьма формаль- ным в отношении стохастического дифференцирования. Бьюси £3,20] доказал результат Кушнера другим более строгим путем. Вначале он установил некоторое замкнутое выражение для функции р и вывел из него дифференцированием формулу (3.120). (tv') Связанное с именами Стратоновича, .Кушнера и Бьюси сто- хастическое дифференциальное уравнение в частных производных 146
(3.120) для условной плотности вероятности ®(t) при условии за- данных измерений полностью решает задачу нелинейной фильтрации. Однако для практических целей эТо уравнение не осо- бенно подходит. Поэтому Кушнер L 3.183 предложил заменить его системой обыкновенных дифференциальных уравнений для условного среднего и условных центральных моментов процесса В точном виде эта система имеет бесконечный порядок, однако,. ее можно с хорокшм приближением 'обрезать* с помощью вторых условных цент- ральных моментов (матрицы ковариации), если ошибка фильтрации tC (i) - J мала. Для скалярного случая эТо установил Бьюси в работе Г3.20). Затем Басс, Норум и Шварц исследовали эту задачу для общего П-мерного случая. Их результат представляет собой связанную сис- тему стохастических дифференциальных уравнений, для условного ма- тематического ожидания £ и условной матрицы ковариации. В силу [3.21] имеем ~7 хДt): WK' Ц/* С * 1 P(i)= М'Х(Х, ) Р - t (X, (3.122) Здесь f - матрица Якоби, a f - Л-мерный вектор, состоящий из матриц Тесса элементов f (см. Приложение, пп. А. 9.2 или А. 9.3) Выражение £^:Р или р представляет собой след произведения соответственно матрицы £. * илий,. на Р. Начальные условия ixx rljttx имеют вид ’ 5b(l0)=Ex(t0), 5(t0)=P(t0\ (3.124) где P(t0) - матрица ковариации начального состояния (см. уравне- ние (3.74а)). Выражения со следами следуют из членов второго порядка ряда Тэйлора и показывают значение формулы Ито (3.116) для нелинейной фильтрации. Подчеркнем, что уравнение (3.122) уже не является независимым от у. Для линейных систем при £ЯА®, haC® и CL, не зависящем от ®, естественно получаются фильтр Калмана - Бьюси и дифференци- альное уравнение Риккати. Одним из авторов этой книги теория нелинейной фильтрации при- менялась для идентификации объектов регулирования в реальном вре- 147
мени [3.17, 3.223. Для этой же цели использовался и адаптивный фильтр [3.231. Практический пример нелинейной фильтрации сигналов радиолока- ционной станции, осуществляющей поиск летающего объекта, имеется в главе 8 работы С3.241. 3.9. Литература 3.1. Joseph P.D. Optimum design of linear multivariate digital control systems.-Diss. Purdue Dniversity, August 1961. 3.2. Jeieph J.I.,Tou J.T. On linear control theory.-AIEE Trans. on A ppi. and Ind., pi. I, v. SO (.loci'), p. 493-496. 3.3. K-alman R.E., Eng lai* T. S., lucy U.S. Fundamental study tt adaptive control systems.-Tech. Rep. Nr AAD-TR-61-27, v.T. Flight Cont- rol Lab., Aeronaut. Sy st. Div., APSC, WPAFB. Dayton, Ohio /April 1962. 3.4, Bas* R.W. Machine solution of high order matrix Rice at i equations.- Tech. Rep- Douglas Aircraft, Missiles and Space Systems Div., Santa Monica, 1967. 3.5. Дуб Дж.Вероятностные процессы. - М.: ИЛ, 1956. 3.6. Brammer К. Lower order linear filtering and prediction of nonsta- tionary random sequences.*-Tech. Rep. No. SR! 67-ьйОЗ, OAR, Prank J. Seiler Research Lab., Colorado Springs, Feb. 1967. 3.7. К r 1 eke Ъ e r g K. Wabrscheinlicbkeitstheorie.- Stuttgart1. Teubner, 1963. 3.8. Wiener N. Differential space.-J.Math. Phys. Inst. Tech., v. 2,19513, p. 191-174. 3.9. Леви П. Стохастические процессы и броуновское движение. - М.: Наука, 1972. 3.10. Arnold!. Stochastischc Dilfereniialgeleichungen.- Mfenchen*, Wien: R. Ordenbourgh, 1973. 3.11. Ито К., Маккин Г. Диффузионные процессы и их траектории. - М.: Мир, Л.968. 3.12. Ito К. Stochastic integral.-Proc. Imp- Acad. Tokyo, V. 20, 1944, p-519-5au. 3.13. 11 o K. .On stochastic processes.-Lecture Notes, Bombay: Tata Institute for Fundamental Research, 1961. 3.14. Колмогоров A.H. Об аналитических методах в теории вероятностей. - УМН, вып. 5, 1938, с. 5-41. 3.15. Ре Пет W. Zur Tbeorie der stochastischen Proaesse (Existen-buna Eindeutigkeitssatney-Math. Ann.,Ba. 113,4916, S. 113-100. 3.16. Гнеденко Б.В. Курс теории вероятностей. - М.: Фиэматгиэ, 1961. 3.17. Brammer К. Psramctererkennung geregpltev Streeken dureh nicht- lineare Filterung.—Dissertation TH Darmstadt, April 1969. 3.18. Kuehn er H. J. Oh the differential equations satisfied hy conditio- nal probability densities of Markov processes, with applications.— T. SIAM Control, Sen. A, v. 2, 1964, p. 406-119. 3,19. Стратонович Р.Л. Условные марковские Процессы и их применение в теории оптимального управления. - М.: Изд-во МГУ, 1966. 3.20. Bucy R.5. Nonlinear filtering theory.-IEEE Trans-on Autom.Control v. AC-10, 4965, ?.496. 148
3.21. Ba&s R.W., N о ruaV.D.jScliw a rt a L. Dptiwal nrutUHannel nonlinear filtering.-I. Math. Analysis anA Appl., v.lt, 1966,p.l5t-16«i. 3.22. Brammer K. fichBizung von Parametem und, Buataiidtvariahlaa lintarer Regelairttken durch nlchilinenre Filterung.-Regelungstedmik und Prozeb-Daienverarheitung, It, Jahrgang (1970*), &. 255-261. 3.23. Branntr K. Input-adaptive Kalman-Buey-Filtering.— IEEE Trant, on Antoni. Control, v. AC-15 (.1570), p. 157-158. 3.24. Brammer K. u.a. Optimierung von Zielauehkopf-und Fhigkbrperre- gulung.-Techn. Berieht, Homie* Ayoteai, Tnmenataaft, ТВ Nr. 5^0/270/72 CTexVjund 5Myi71/72 IBilAer}, Tull 1572. 3.25. Leon dee C.T., Novak L.M. Reduted-orAer observer* lor linear diacreietim avstema.-IEEE Trent, on Aui'om. Control, v. AC-14 U474Y p. «12-46.
Приложение НЕКОТОРЫЙ ОСНОВНЫЕ элементы МАТРИЧНОГО ИСЧИСЛЕНИЯ В данной книге так же, как и во многих других, посвященных тео- рии оптимального управления, широко применяется матричное исчис- ление. Поэтому ниже приводятся важнейшие основные положения это- го исчисления. А.1. Понятие вектора и матрицы Понятие вектора, в сущности, является очень общим. Его в ши- роком смысле можно определить следующим образом: элементы не- которого пространства суть векторы в векторном пространстве тог- да и только тогда, когда все они удовлетворяют следующим восьми условии ям: (Ц Сложение: - имеет место коммутативный закон: - имеет место ассоциативный закон: V V+va •» <а.2) - существует единственный нуль-вектор 0, такай, что V+0я(А.З) - для каждого вектора существует единственный обратный (от- носительно операции сложения) вектор - V, такой, что V+(-V>0. (А.М (ii) Умножение на скаляр (су. - имеет место ассоциативный закон: СА,5>1 - имеет место дистрибутивный закон относительно скаляров (Vc2^ = civ + c4v’ (А. 6} - имеет место дистрибутивный закон по отношению к векторам с (А,7> - умножение на 1 оставляет вектор V неизменным: l'V=V. 150
Примерами векторов в этом общем смысле являются направленные физические величины (силы, моменты, скорости и т.д.), множество всех непрерывных функций в определенном интервале, а также мат- рицы. Любая tH*Tl -матрица, т.е. матрица размера Тпхп,есть множест- во из ШП чисел, которые расположены в прямоугольной таблице из Тп, строк и П столбцов. Элементы строк или столбцов имеют сход- ное обозначение. Многомерные матрицы обозначаются заглавными буквами. Имеем таким образом 41 А 12 А. In А; = 41 -«W- (А .9) 4п2 ”• Действительные или комплексные числа А^ называются элемен- тами матрицы А. Первый индекс элемента указывает номер строки, в которой этот элемент стоит, а второй - номер столбца. Выражение 'вектор" в этой книге - кроме вышеупомяиутого оп- ределения - употребляется также в несколько ином смысле. Именно вектор - это матрица первого порядка. Векторы в этом смысле обозначаются маленькими буквами. Если возникает необходимость различать вектор-столбец (т.е. матрицу размером tnxi или Щ-мерный вектор, обозначаемый, напри- мер, через 1) и вектор-строку (т.е. матрицу размером 4*fn), то используется символ "штрих", например, Просто "вектор" здесь всегда понимается как вектор-столбец. Каждый столбец вышеуказан- ной матрицы А есть вектор (-столбец). Иногда k-й столбец, обра- зованный элементами А,. , Q, ....обозначается также через А,. , Ik’ ik’ wk к Строка с номером L матрицы А является вектор-строкой следующе- го вида: А''=[0ь., А п *]. (Наличие индекса L сверху должно при этом напоминать о штрихе у вектор-строки). Матрица, которая имеет одно и то же число строк и столбцов, называется квадратной. Ее элементы А..» А.-,..., А называются ---------------------- 41 22 fill главными элементами и образуют главную диагональ. След квадрат- ной матрицы есть сумма ее главных элементов: п spur а-.» Да... i«i (А. 10) Диагональная матрица — это квадратная матрица, у которой все эле менты вне главной диагонали равны нулю. Если у диагональной мат- рицы все главные элементы равны между собой, ее называют ска- лярной матрицей. Единичная матрица I - это диагональная, матрица у которой все главные элементы равны 1. 151
Матрица любого размера, у которой все элементы без исключения равны нулю, есть нуль—матрица (обозначение О). Две tn» tv матрицы равны друг другу тогда и только тогда, когда каждый элемент одной матрицы совпадает с соответствующим по рас- положению элементом другой матрицы. Транспонированной по отношению к любой tlixn-матрице А называ- ется ТИТп-матрица Д’, которая получается из А посредством замены ее строк столбцами ('перевертыванием"). Квадратная матрица, кото- рая Совпадает со своей транспонированной, называется симметричной. Если же А»-А', то говорят о кососимметрической матрице; ее главные элементы всегда равны нулю. Комплексная матрица есть матрица с комплексными элементами. Люёая комплексная матрица С переходит в свою сопряженную транс- понированную (J* если ее "перевернуть" и все элементы заменить комплексно сопряженными им значениями. Сопряженное транспониро- вание для комплексных матриц и векторов часто оказывается более полезным, чем обычное транспонирование. В действительном случае обе процедуры совпадают. Определитель квадратной матрицы образуется обычным образом из ее элементов ЕА.1, А.2]. Именно *11 *12 " in det А:= • й 2n *nl *П2 ft nn (А. И) Квадратная матрица называется невырожденной, если ее опреде- литель не равен нулю. Если опред елитель~об ра ща етс я в ноль, мат- рица называется вырожденной. Векторы называются линейно зависимыми, если найдется, по крайней мере, одно С, yt такое, что к * В противном случае векторы называются линейно независимыми (см. параграф А.2). Совокупность векторов, среди которых находит- ся нулевой вектор, является, следовательно, всегда линейно зависи- мей. Число линейно независимых столбцов или строк матрицы назы- вается ее рангом. Компактный способ изображения для матриц приносит экономию в записи и выигрыш в наглядности. При эт.ом возникает много ана- логий, очевидных из обозначений, со скалярным случаем. Основное же преимущество состоит в том, что вычислительные операции для матриц допускают простую интерпретацию за счет того, что сложные матричные выражения преобразуются весьма элементарным образом. Вследствие этого существенно облегчается переход к многомерным системам. 152
A.2. Основные операции Основные операции матричного исчисления суть сложение двух матриц и умножение матрицы на скаляр. Обе операции определяются таким образом, что восемь условий (А.1 - А.8) для векторов со- блюдаются в прежнем смысле. Для векторов в узком смысле, т.е. матриц, состоящих либо из одной строки, либо из одного столбца, указанные требования естественно выполняются. Сложение матриц вводится только для матриц одинаковых разме- ров. Сумма двух ТпхН —матриц есть снова ftlxtl -матрица, которая образуется посредством попарного сложения элементов с одинаковыми индексами слагаемых матриц. Иначе говоря, А+В=С означает (1^+ для всех Ц к- Сложение матриц, очевидно, является коммутативным и ассоциатив- ным (ср. (А.1) и (А.2)). При сложении произвольной матрицы и нуль-матрицы всегда имеем А+ОвА, (ср. (А.З)). Умножение матрицы на скаляр определено для матриц любого вида и выполняется таким образом, что каждый элемент матрицы умножается на данное число. Говоря точнее: СА = В означает, что СО,..®!? . для всех t,k. ьк |Л 1 Здесь имеет место, очевидно, ассоциативный закон (А.5), н также дистрибутивный закон для скаляров и матриц (А.6), соответственно (А.7). Умножение на 1 не может изменить матрицу (ср. (А.8)). Естественно выполняется также и коммутативный закон: СА=Аб. Обратная относительно сложения матрица - А определяется как произведение (-1)‘А. Таким образом, всегда А+('А)=0. Наконец, разность двух матриц определяется следующим образом: А-В: = А+(-В). Замечание. Множество всех тпхп-матриц образует векторное пространство в прежнем смысле. А.З. Умножение матриц Умножение матриц является основным понятием матричного ис- числения. Эта операция определяется только для взаимосвязанных матриц, т.е. для таких, у которых число столбцов левого сомножи- теля совпадает с числом строк правого сомножителя. Произведение какой-либо rnxn-матрицы А на Пхр-матрицу В есть тпхр-матрица С, элементы которой образуются таким образом, что при одно- временном пробегании t-й строки А и к-го столбца В соответствую- щие элементы попарно перемножаются и затем полученные произве- дения складываются. Иными словами произведение АВ = С означает, что п К ь= С,г для всех t, к. (А. 12) ^=1 Ч о 153
Для вычислений вручную лучше всего подходит схема Фалька, представленная на рис. А.1 ЕА.1, А.ЗЗ. При умножении справа пот лучаюшаяся матрица просто продолжается направо вверх, а при по- следующем умножении слева - продолжается вниз и налево. Каждый элемент употребляется при этом для записи только один раз. При умножении матриц нужно тщательно различать умножение слева и умножение справа, так как коммутативный закон здесь,' вообще говоря, не. имеет места. Это понимается таким образом, что,даже если сомножители взаимно согласованы,можно Легко при- вести подходящие примеры, показывающие отсутствие коммутатив- ности. Когда произведение в виде исключения все же коммутативно, оба множителя называют перестановочными. В качестве примера заметим, что диагональные матрицы одного порядка всегда переста- новочны, так же как и множители А и ЛК Умножение матриц - ассоциативно, т.е. (АВ>А(В(П. (A.U) Умножение слева и справа дистрибутивно: (A+B)C=Ad+BC, С(А+ВУ=СА+СВ. (А.1П) Каждое из этих свойств можно доказать путем сравнения друг с другом элементов, образованных предписанным способом и зани- мающих одинаковое положение в обеих частях равенства. При умножении произвольной матрицы на единичную матрицу под- ходящего размера первая не изменяется, т.е. 1А*А, А1»А. (АЛ5) Произведение матриц также, как и всякое обычное произведение, обращается в нуль, если один из сомножителей есть нуль. Однако 154
бывает, что АВ* **)=0,хотя А#0 и В^О. (А.46) Это случается тогда, когда каждая строка матрицы А ортогональна*) всем столбцам матрицы В**). Примеры применения указанных правил вычисления (доказательство предоставляется читателю в качестве самостоятель- (Ъ) Нередко полезно следующее разложение левой части выше- указанной системы: Ал »(1^+ лгхг+ ...♦ (А- Здесь £t> ~ t-й столбец А. Соответствующим образом можно записать произведение 2'А как линейную комбинацию строк (с) Скалярное произведение двух Ц -мерных векторов Я! и по определению равно Х'^. Очевидно, что здесь оба сомножителя перестановочны. Два вектора называются ортогональными, если их скалярное произведение равно нулю. (а> Диадическое произведение двух векторов X и определяется как Диада всегда имеет ранг 1, След диады векторов одинако- вой размерности равен их скалярному произведению Spur (X1j')=X'^. (А.1А) (е) Векторное произведение трехмерных векторов можно записать как произведение кососимметрической матрицы и вектор—столбца: СА.20) *)См. определение скалярного произведения. **)Если, однако, А - квадратная и невырожденная, то из следует В=0 (см. (А.34) и (А.35) при Ya 0 ). Если же В - квадратная и невырожденная, то Д=0. 155
(f) Матрица, транспонированная по отношению к произведению матриц, равна произведению транспонированных матриц в Обратном порядке: (АВ)'=В'А'. (А.21) Это правило, которое можно легко вывести из определений, приме- няется очень часто. Для комплексных матриц при этом имеет место соотношение (АВ)*=В*А*. (g) Определитель произведения двух матриц размера ПХП равен произведению определителей сомножителей: det (АВ)3 det A-det В. (А.22Л (Не совсем простое в общем случае доказательство этого факта см., например, в СА.4].) Произведение квадратных матриц тогда и только тогда не вырождено, когда все сомножители не вырождены. А.4 . Линейные системы уравнений и обратная матрица А.4 .1. Решение простой системы уравнений. Пусть имеется ли- нейная система уравнений ft-го .порядка вида Аф=1$. (а.23) Пусть при этом элементы матрицы А размера 71«П известны и ина невырожденная. Вектор X — П-мерный и образован из неизвестных величин Компоненты fl-мерного вектора *и имеют заданные значения. Далее приводится несколько методов разрешения такой системы относительно неизвестных. Алгоритм Гаусса есть численный метод, При котором система уравнений (А.23) посредством постепенного исключения неизвестных от до приводится к треугольному виду. Это позволяет, двигаясь назад, легко найти значения неиз- вестных ®л,...,®^СА.2, А.З]. При измененном методе, именуемом алгоритмом Гаусса - Жордана, исключение и разрешение проводятся в несколько ином порядке [А.7]. При симметричной матрице пред- лагается алгоритм Холецкого [ А. 3}. Правило Крамера, мало погодное для численных методов, играет однако значительную роль для общих теоретических исследований [А.З]. В Векторно-матричной форме оно гласит “•и - 41 Ч, 4, - (АЗД При этом суть определители 71-го порядка, кото- рые образованы путем замены к-го столбца матрицы А на 1^. Из 156
вида уравнения (A.24) легко усматривается, что невырожденность А необходима и достаточна для разрешимости системы уравнений (А.23). Правило Крамера переходит в другую форму, если определитель Dk разложить по к-му столбцу. Для этого используем понятие алгебраического дополнения. Алгебраическое дополнение Ак элементу (1^ матрицы размера “Пип образуется следующим образом: вычеркивается L-я строка и k-й столбец матрицы А, вычисляется оставшийся определитель (TV-l^-ro порядка и сам он умножается на число Согласно положению о разложении определителей ЕА.1, А.З, А.4] для справедливо следующее уравнение (А.24): VM^kV-^nkV 1Л-25’ Величины А^, A2k,..., Ank являются алгебраическими дополнениями не только к-го столбца матрицы А, но и одновременно к-го столбца Подставим теперь выражение (А.25) для к^!,...,?! в решение, полученное по правилу Крамера (А.24). Имеем t M1-,AuV-+Andn' или ^.26) Этот вариант правила Крамера отличается от (А.24) тем, что подлежащие расчету определители больше не зависят от 1^. Поэтому он удобнее при постоянном А и переменном 1|. А, 4.2. Обратная матрица или (мультипликативная) инверсия В соотвётствии с правилом (А.26) обратная матрица является еще предметом, подлежащим определению. Нумеруя элементы в соответ- ствии с прежней схемой, выпишем матрицу алгебраических дополне- ний из (А. 26) в транспонированной форме. Положим А. А А -1 1 12 • in А : = — А„ ••• А„ diet А 21 22 2п А , А ... А _ nl П2 пп (A.2V) 157
При ЭТОМ ’XKR0HA)i,k- Обратная матрица существует тогда и только тогда, когда мат- рица А - квадратная и невырожденная. Из указанного определения вытекает решение системы уравнений (А. 23), полученное с помощьк правила Крамера, в следующей компактной форме: ®ЯЛ"£1|. (А. 28") Обратная матрица обладает следующими свойствами. (i) Произведение невырожденной матрицы размера Пхп на ее обратную есть единичная матрица Н-го порядка, т.е, ЛА"1-!, (А.29) Доказательство без труда проводится посредством применения опре- делений (А. 12) и (А. 27), а также теоремы разложения для опре- делителей (задание для упражнений). В противоположность этому некоторые авторы рассматривают указанное свойство как уравнение, определяющее и доказывают отсюда (А. 27). (ii.) Матрица, обратная для произведения квадратных невырожден- ных матриц, равна произведению обратных матриц-сомножителей в противоположном порядке: (AB)“1=B’iA"i. (А.31) -i. Доказательство. Имеем В (А А)В=1. Умножая здесь обе части на (АВ)“\ получим (А. 31). Доказательство для более чем двух сомножителей тривиально. Это свойство так же, как и правило (А1. 21) для транспонирова- ния произведения, чрезвычайно полезно. (iii) Матрица, обратная к транспонированной, равна транспони- рованной обратной: (АТ1=(А~1)'. (А.32) Доказательство. Имеем I’= уГ^’так что 1»А,(А"’1У. Умно- жение слева на (А’дает (А. 32). (iv) Определитель обратной матрицы равен 1, деленной на опре- делитель первоначальной матрицы: dei(A“1)»(deiA)"i. (А.33) Доказательство. Имеем l-d.etl= det (A lA)= det (A-1)-det А. При невырожденной конечной матрице А в правой части (А. 33) стоит конечное, отличное от нуля, значение. Отсюда, если посмотреть на левую часть, следует, что А-1 также невырождена. А,4.3. Кратные системы уравнений, деление матриц, вычислитель- ные трудности. Пусть дана система уравнений И-го порядка вида А®’^га система при невырожденной постоянной матрице А 158
должна решаться tn раз относительно ОЬ^, причем находящийся спра- ва вектор 1^ принимает каждый раз новое значение. С помощью правил умножения матриц можно таким образом охватить tn отдель- ных систем (рис. А.2). Находящиеся справа векторы ^4.’V2’”",'4lTl записываются как столбцы одной тит-матрицы У, а из соответствую- щих неизвестных векторов составляется тит-матрица X. Таким образом возникает следующая кратная система уравнений: АХ-У. (A3i<) Решение этой системы уравнений относительно X можно формаль- ным образом выполнить путем умножения обеих ее частей слева, на A-i с последующим применением к левой части свойства (А. 30). В результате Х=А"Ч. (A.S5) Таким образом, переход от формулы (А. 34) к формуле (А. 35) заключается в делении на матрицу А . Матричное деление возможно только для- квадратных невырожденных матриц. Подчеркнем, что должно быть различие между делением слева и делением справа. Во избежание двусмысленностей ниже матричное деление понимается как деление слева. В соответствии с этим умножение на обратную матрицу выполняется справа. Вместе с тем в конкретных вычислениях такой способ действий удобен тогда, когда матрица уже известна или была ранее оп- ределена каким-либо способом. При этом для вычисления матрицы А-1 в случае полностью заполненой несимметричной матрицы А необходимо выполнить п? умножений Г А.31. Для вычисления произведения матрицы К" 1 на У требуется 71 m умножений как видно из схемы Фалька. Таким образом, й совокуп- ности для формального решения уравнения (А. 34) в соответствии с (А. 35) требуется провести порядка Ti^+Tl?'m. умножений. Сравни- вая это с методом Гаусса, применяемым для многомерных систем вида (А. 34) получаем, что для решения уравнения (А. 34) доста- точно лишь ('nV,S)+tiatn-(Tt/31 умножений С А. 31. Последнее число при любых?п иП, меньше приведенного выше. Так, например, при 11 = 10 и ТП = 5 для решения уравнения (А. 34) по методу (А. 35) требуется 1500 умножений, в то время как по методу Гаусса необ- ходимо лишь 830 умножений, т.е. чуть больше половины. Рис. А.2. АХ =У, тп.—крат- ная система уравнений п-го порядка. 159
Затраты при обращении матрицы. Для определения обрат- ной матрицы tl-ro порядка в определяющем уравнении (А. 27) ис- пользуется П? определителей (п-1')-го порядка. По сравнению с этим числом дальнейшие П. умножений для получения определителя Аий? делений на det А при П»1 не представляют существен- ной трудности. Для получения одного определителя (1г~1)-го поряд- ка оценка по методу Гаусса при треугольном разложении дает око- ло (1г~1)1/^ умножений С A.3J. Для построения обратной матрицы в соответствии с (А. 27) требуется около 1гг(П-1)5/5~П,5/3 • умно- жений. Для сравнения укажем, что определение обратной матрицы с по- мощью соотношения (А.29) по методу Гаусса использует только Ti? ум- ножений [А.3]. Например, при П = 10 поучается при первом способе 24300 умножений, а при втором способе лишь 1000 умножении. Для численной оценки матричных выражений высоких порядков необходимо провести оптимизацию различных альтернативных спосо- бов. В качестве примера рассмотрим цепочку произведений АВ с, в которой все сомножители tl-ro порядка. При расположении вида (АВ)с для полностью заполненных матриц число необходимых умно- жений оценивается числом пЛ+п2, а при расположении в последова- тельность А (Вс) это число оценивается величиной 2па. А,5. Проблема собственных значений Проблема собственных значений возникает в теории автомати- ческого регулирования, например, при вычислении собственных ко- лебаний и полюсов динамических систем, а также в процессе диаго- нализации матриц. Задача о собственных значениях формулируется следующим образом. Пусть дана система линейных уравнений вида (А.36) где А - известная матрица размера 1гхп. Требуется определить такое скалярное комплексное число 5, при котором существует не- тривиальное решение системы уравнений (А. 36) относительно V. Определенные указанным образом числа s. называются собственными числами матрицы А, а соответствующие им решения называются собственными векторами. Согласно уравнению (А. 36) они обладают следующим характерным свойством. Собственный вектор матрицы А в fl-мерном пространстве при отображении осуществляемом матрицей А,может лишь удлиняться или укорачиваться (для действительных S), изменять направление на противоположное (для S<0), оставаясь, однако, все время на одной и той же прямой. А. 5.1. Характеристическое уравнение. Для решения задачи о собственных значениях объединим обе части уравнения (А. 36). По- лучим следующую однородную систему уравнений: (sI-A)v»O. (А,37) Эта система имеет нетривиальное решение (115*0) только тогда, 160
когда матрица ее коэффициентов вырождена. Для этого число 3 должно удовлетворять соотношению det (sI-A'jaO. (ft.34а) Последнее соотношение в более подробной записи имеет вцд &~°Ч1 “А 2i cj S? Г - 1 со “й1п - -Ли = 0. (А.ъаъ) -А ' ~А П2 S-A hn В случае диагональной матрицы А определитель в уравнении (А. зАа} легко вычисляется dei UI-AU (s- Au) Сб-й-га') • • -(6- « 0. Собственные значения при этом равны диагональным элементам В обшем случае в результате вычисления упомянуто- ** TvTV го определителя получаем уравнение n-го порядка 3n+du_1sn'1+ K,tS + ^«0. (A.38e) Коэффициенты цС представляют собой функции элементов й,... Напри- ь мер, K,fl = deH-A), (АЛ 9) «Сп-1= spur (-А). (АЛО) Первое из этих соотношений вытекает из (A. 38Ъ) и {А. 38е) при 3=0. Второе соотношение получается при последовательном разло- жении левой части (А. 38Ъ) по элементам главной диагонали. Ос- тальные коэффициенты оС имеют менее простую форму. Равенство (А. 38с) называется характеристическим уравнением матрицы А. Это наименование относится к любой из эквивалентных формулиро- вок (А. 38Ъ) или (А. 38с). Величины 6^ должны удовлетворять уравнению (А. 38а). Поэтому собственные значения матрицы А сов- падают с И корнями характеристического уравнения. Эти корни могут быть простыми или кратными, действительными или комплексными. Для действительной матрицы А коэффициенты также действитель- ны. При этом комплексные корни являются попарно сопряженными. Действительные симметричные матрицы могут иметь только дейст- вительные собственные значения ЕА.7]. Коэффициент равен произведению всех корней уравнения (А. 38с). Отсюда и из (А. 39) вытекает, что .- Sn= det (~A). Отсюда следует, что среди собственных значений только тогда со- держится нуль, когда матрица А - вырожденная. А.5.2. Теорема Кэли - Гамильтона. Известная и полезная тео- рема, указанная в заголовке, формулируется следующим образом. Каждая матрица А размером удовлетворяет своему характе— ристическому уравнению? ...* %1-0. 161
Доказательство. Согласно (А. 27) имеем (sI-A)"1’--------adj (sI-A). (АЛ2а) iet (Sl-A) J Здесь элементы матрицы adj (si-А) равняются алгебраическим до- полнениям матрицы, транспонированной к матрице (si-А). Послед- ние с точностью до множителя (-1)1'*'* представляют собой миноры (П—Г)-го порядка матрицы з1~А,т.е, являются полиномами макси- мум (П-1)-го порядка. Отсюда следует, что adj(sI-A)-C , sn-i + C sn“2 +...+ C,s + Сп. (А.Агъ) Здесь С- _ квадратные 11-мерные матрицы, конкретные значения ко- торых не представляют интереса в рассматриваемом случае. Умно- жая обе части уравнения (А. 42а) справа на (sI-A)det(^I-A), по- лучаем LdLet(sI-A)= aij<8l-A)‘(6l~A'). Отсюда, сопоставляя характеристический полином (левую часть фор- мулы (А. 38с) и соотношение (А. 42Ъ), заключаем, что I(8пч-^ + ... + <cn.y‘-X-Z'2+--4**W«i-io. Сравнение коэффициентов при одинаковых степенях 3 показывает, что &П- 1 = 6 8 • 1 41-1.’ а1'”1* Л .I—IL ,А+6 , пЧ H-i п-2? »•' kj’-............-CjA+C,, D V “V- Умножим здесь справа первую строку на вторую - на An~^ и так далее, наконец, предпоследнюю строку - на А и сложим полу- ченное. В результате в правой части этой суммы все члены попар- но уничтожаются, а слева будет стоять матричный полином, совпа- дающий с левой частью формулы (А. 41), Тем самым равенство (А. 41) доказано. В качестве следствия из теоремы Кэли - Гамильтона заключаем, что каждую (даже отрицательную) степень матрицы А можно пред- ставить в виде линейной комбинации ее степеней от А® до Ап-4 Например, матрицу Ап+^ можно получить, если умножить уравнение (А. 41) на А, далее разрешить его-относительно АЛ+^ и затем заменить с помощью (А. 41) на линейную комбинацию мень- ших степеней. Если &0= d.Bt(-A")¥0, то выражение для А-^ полу- чается путем умножения уравнения (А. 41) на А”1, и деления полу- ченного на oGjj. 162
A, 5,3. Алгоритм Сурье - Фадеева. Для любой квадратной мат- рицы А размером Пяти коэффициент характеристического поли- нома (А. 38с) и коэффициент матрицы adjCsI-A) в уравнении (А. 42Ъ) удовлетворяют при к=1,...,П следующим соотношениям: (АЛЗи) tCn-kAY 1А-'*ЗЪ) Доказательство. Рекуррентная формула (А. 43я) вытекает непосредственно из приведенной выше системы уравнений (А. 42 с). При k«n выражение (А. 431») может служить для проведения чис- ленного контроля. Доказательство формулы (А. 43Ъ) следует из соотношений (справедливость которых установлена, например в [А. 103) А — det(si-Д')® spur а<4 (&I-A). (A. Ла В левой части здесь стоит производная по 3 характеристическо- го многочлена; правая же часть преобразуется в соответствии с (А. 42Ъ). Приравнивая коэффициенты при степенях получаем (n-k)-«Gn_k=spur Cn_k_4, k=0,..., П-1. Отсюда вытекает (А. 43Ъ) с помощью подстановки (А. 43а). Формулы (А. 43а) и (А. 43Ъ) представляют собой простой спо- соб вычисления выражений det (si“АЗ и adj(sI~A') ЕА.8, А.01., Кром- ме того, соотношение (А. 42а) дает обратную матрицу (fil~A )~\ соответствующую преобразованию Лапласа переходной матрицы диф- ференциального уравнения X=Ax(,t'). А.5.4. Модальная матрица. После вычисления собственных зна- чений как корней характеристического уравнения, подставим их последовательно в уравнение (А. 37). Получим (sJ-AW^O, 1=4,2,-. (ААБ) Собственный вектор V-t, являющийся решением этой вырожденной системы уравнений, определен неоднозначно. Если ранг матрицы. В.1~А равен 1г-4,то выражение (А. 45) для соответствующего S. ь I. состоит из H-i линейно независимых скалярных уравнений. При этом произвольное решение ТХ^, можно представить в виде линейной комбинации других решений, стесненных каким-либо дополнительным требованием, например, нормированных условием U'V;*!. и Если А и а - вещественные, то и собственный вектор - ве- щественный. В противном случае вектор - комплексный. Приве- дем еще следующее интересное утверждение, доказательство кото- рого имеется, например, в ЕА.З, A.4J: 163
ранг матрицы только один имеется не ID для каждого простого собственного значения S- V (3^1-Д') равен TV-1. Поэтому при этом 8^ существует линейно независимый собственный вектор. (ii) Для любого р—кратного собственного значения более р линейно независимых собственных векторов. (iii") Собственные векторы, соответствующие различным собст- венным значениям, линейно независимы. Из утверждений (!') и (iii’) вытекает, что квадратная матрица размером tl*Tl с простыми собственными значениями имеет в точ- ности Tb линейно независимых собственных векторов. При кратных собственных значениях соотношение между их чис- лом и числом собственных векторов является более сложным (см. например, [А.ЗЗ). Кратные или комплексные собственные значения (полюсы) нередко встречаются в технике автоматического регулиро- вания. Иногда бывает, что число собственных векторов меньше И. или эти векторы - комплексные. Вследствие этих неудобств имеются различные мнения об использовании метода собственных значений. Итак, пусть некоторая квадратная матрица А размером Tixn. име- ет tl линейно независимых собственных векторов. Это бывает, на- пример, тогда, когда матрица А - симметричная или когда все ее собственные значения - простые. В этом случае матрица А может быть преобразована к диагональному виду. При этом собственные вектора образуют невырожденную модальную матрицу V v-.Чл ... vnj. Взятое IX раз уравнение (А. 36) при П различных собственных зна- чениях 5. может быть записано в замкнутом виде САц А^ ... AvJ-tVi SV 5Л1. или A-V«V*J. Здесь Т - жорданова нормальная форма матрицы А. В уравнении (А. 46а) через J обозначена диагональная матри- ца, диагональные элементы которой совпадают с собственными зна- чениями, т,е. X о •• (АЛ6 а') О (АЛ6Ъ) S. Поскольку V - невырожденная матрица, обе части формулы (А, 46 а) можно умножить на V~\ Искомое преобразование имеет вид V~lAV=J чАЛбс'} Умножая последнее соотношение слева на V и справа на V"\ получаем обратное преобразование AxVJV”1, QA.mc а) 164
Для действительной симметричной матрицы ее модальная матрица ортонормальна, т.е. ее столбцы нормированы (1='V'/'U-) и ортого- нальны (v.V0 для (см. £А.71). Более компактно сказан- ное записывается в форме V'V^I. (А.Абе) Отсюда следует, что V’W'. Обращение модальной матрицы в этом специальном случае полу- чается простым ее транспонированием. Собственные значения нормальной формы J в (А. 46Ъ) и (А. 46с) совпадают с собственными значениями матрицы А, Отме- тим, что при отображении, осуществляемом модальной матрицей, собственные значения не изменяются. Аналогичное заключение спра- ведливо и при соответствующем преобразовании с произвольной не- вырожденной квадратней матрицей Т размером ТИП (преобразова- ние подобия). Пусть В=Т"1АТ. (А. 47) Фигурирующие здесь квадратные матрицы А «В размером П. хтг называются взаимно подобными. Поскольку def (T~^)dbt (Т)»1, то det(sI-B)-det (Bl-T-iAT)« det (Т-\в1-А)Т> = det (T-t)det (&I-A) detT- det (si-A). Таким образом, подобные матрицы имеют одинаковые характеристи- ческие уравнения и, следовательно, равные собственные значения. А.6, Квадратичные формы Билинейной формой, образованной вектором ® в и вектором "4е относительно матрицы (L размером n«tn. называется число равное | := Последнее соотношение можно интерпретировать как скалярное про- изведение либо двух П,-мерных векторов X и либо двух Й1-мер- ных векторов Q/®, и 1^. Если- 3t=lj, a CL- квадратная матрица размером 1г»П,то получа- ем квадратичную форму вида + kW кг W •••' кХ • lA-'el 165
Здесь все смешанные произведения встречаются дважды. Пусть fl- симметричная матрица, причем Q.=AfA. Тогда естественно интер- претировать квадратичную форму как скалярное произведение преоб- разованного вектора на себя, т.е. (АлУ(Ах') • х'Л* А а - х’й®. (АЛЗ) Значение квадратичной формы (А. 48) не изменяется, если каждый элемент заменить на арифметическое среднее элементов и ([...Поэтому произвольную матрицу й «в форме (А, 48) можно кр считать симметричной. Действительная квадратичная форма или со- ответствующая ей матрица называются положительно определенными, если Л'И®>0 ДЛЯ всех (.А. 50 s') и Х'йХв0 только дпя®в0. (,А.50Ъ) Если JtrCLx>0 для всех ®, то матрица CL называется положитель- но полуопределенной (неотрицательноопределенной). Аналогично неравенству (А. 50а) , если Х/б,®<0, то матрица С1 называется отрицательно определенной. Пусть, например, А - диагональная матри- ца. Тогда соотношение (А. 48) переходит в следующее: ил» В этом случае форма тогда и только тогда полржительно опреде- лена, когда все главные элементы (собственные значения матри- цы А) - положительны. Если й=А'А, то ([«= at/ArАх = (A Последнее выражение предатавляет собой сумму квадратов и потому неотрицательно определено. При этом форма лишь тогда положительно определена, когда матрица А невырождена, т.е. для всех Любая действительная симметричная матрица имеет диаго- нальную жорданову нормальную форму и ортогональные собственные вектора (см. (А. 46Ъ) и (А. 46 с) ^Подстановка (А. 46£) в (А. 463.) дает Q.=VJVA Следовательно, = СА.52) где Если матрица V невырождена, то вектор отличен от нуля для всех Таким образом, квадратичная форма (А. 52) тогда и только ?огда положительно определена, когда все главные элементы матрицы J (т.е. все собственные значения матрицы Q-) положительны. Второй критерий положительней определенности, формулируемый в терминах, отличных от собственных значений, звучит следующим образом. Любая действительная симметричная матрица Q. размером Tixtl соответствующей квадратичной формы тогда и только тогда 166
положительно определена, когда все главные диагональные определи- тели*) матрицы Q. положительны ЕА.21. Матрицей автокорреляции некоторого fl-мерного случайного век- тора % называется математическое ожидание диады ZZ*. Матрица автокорреляции Е(,2Ъ''} есть действительная и симметричная матри- ца. Для любого детерминированного вектора X имеем x'E(ZZ’)®« Е («’ZZ,36')ssE(3t,,2)'a^0. Следовательно, матрица автокорреляции является неотрицательно определенной. А ,7. Нормы векторов Норму вектора можно рассматривать, как обобщение понятия мо- дуля числа. Векторная норма применяется для сравнения длин век- торов, определения расстояния между двумя векторами, в неравенст- вах, оценках, критериях качества и т.д. Определение. Норма действительного или комплексного вектора X есть действительное число, обозначаемое символом |]®|| и облада- ющее следующими свойствами: (i") положительная определенность: Ц-Х||>0 Для всех х*0, || X|| = 0 только при хя0; (ii) ||ВХ|1я1сЬ 11x11 для любых чисел С и векторов X; (.iii) неравенство треугольника: ||Х+1|||« || х Ц+- ||^ Ц. При этом через |С|, как и обычно, обозначается модуль числа С. Нормы могут задаваться различными специальными способами. Раз- личие между ними осуществляется с помощью индекса. Примеры. Простейшие нормы для fl-мерных векторов имеют вид (i) IIа11£: = IXj+IXjf.1(A.53) Ui) IIXlla-.=(lXt|2 + lx/ + ...+ I®nl2)i/2- (A.5^ Для комплексных векторов имеем 11x11^= (,Х*Х)^2. Для действитель- ных векторов формула (А. 54) представляет собой корень квадрат- ный из обычного скалярного произведения II хПа= (х'х')* 1/2 = (х*+..,+ х* у/2. Если - координаты вектора X в некоторой декартовой системе координат в трехмерном пространстве, то последняя норма *)(,-й главный диагональный определитель матрицы й равен опреде- лителю матрицы порядка о *1, стоящей на пересечении первых I строк и столбцов матрицы О*. 467
есть эвклидова длина вектора (теорема Пифагора). Аналогично мож- но сказать, что ||х||а в пространстве большой размерности также будет эвклидовой длиной. Приведем вид других норм: (ill’) || ® || „= ицм |, (A. 55) (iv) ||ф|| = СА.56) В формуле (А, 56) вектор Ф и матрица 12-действительные. Кроме того, Q, - симметричная, положительная определенная матрйца (см. (А. 50)). Норма (А. 56) есть обобщенная эвклидова длина. Если GL=A*A, где А - невырожденная матрица, то Aa&llg. А.8. Интегрирование и дифференцирование по скалярному аргументу. Ниже определяется интеграл и производная матрицы по скалярно- му аргументу. Векторы естественно рассматриваются как матрицы, состоящие из одного столбца. Независимую скалярную переменную обозначим через Ф, причем это необязательно время. Интеграл jА(ф)ЙФ от некоторой матрицы А(Ф) размером fnxn по ф есть матрица размером 1Ц х п,состоящая из интегралов от эле- ментов исходной матрицы. Иными словами, равенство । В- A(t) Iti означает, что для всех I, к (А.57) Приведенное определение относится как к неопределенным, так и к определенным интегралам, как к простым, так и к кратным. Примеры. (i) Преобразование Лапласа Л,-мерного вектора <E(i) дается формулой |ф(Г)}-= x(t)e’6tdl:- I о ®Дф)е“вЧф о оо (А. 58 а) о (ii) Пусть дан случайный П -мерный вектор Ф. Совместная плотность вероятностей компонент вектора Л равня- ется £ а плотность вероятностей отдельной компоненты ®^ есть 168
f. Тогда математическое ожидание вектора X равняется Ч-Фо +<» ... J - QQ -«О "too + 00 -•0 -O0 4«0 +« I -J Vt»‘V-‘4 _^oo —oo J VJ’M "•0 4>« J - “W (А.5П) Производная (LA (t)/di некоторой' матрицы А размером tnxn no t есть матрица того же размера, состоящая из производных от элементов исходной матрицы. Иными словами, равенство d В--гг№) (Lt означает, что для любых I, к D A V Производная по времени иногда обозначается также точкой над матрицей. Напомним, что штрихом ранее обозначался знак транспо- нирования. Для обозначения же производной штрих использоваться не будет. Правило вычисления производных от произведения матриц гласит, что £ [A (t)B(t)]» А (t)B (й+А (t)B (t). (А. 60) VVV Доказательство основано на использовании правила дифференциро- вания элементов w поведения матриц A(t)‘B(t) (см. (А, 12)). А.9. Дифференцирование по векторному аргументу В этом разделе вначале рассмотрены скалярные, а затем векто]>- ные функции, зависящие от TL независимых переменных ОС Набор переменных будем понимать как вектор Ф. Ниже испопьзу» ются частные производные по ф. . А.9.1. Градиент. Градиентом fll/Bx скалярной функции £ IX) по п- мерному вектору X называется П-мерный вектор, состоящий из пер- 169
вых частных производных функции 1 по 2 . т.е. к 91 91 И''Щ’ 9® ’ 9х J’ 12 П (.А.61") 91 Г 9? Иногда градиент будет рассматриваться также как вектор-столбец. Примеры. (1) градиент линейной фо ..мы ( Q, -постоянная) равен /-(А'Я)=А'. (А. 62) (ii) градиент квадратичной формы ( Q, - постоянная симметричная матрица (см. (А. 48)) дается равенством ^(х'Я*)»2х'С1. (А.63). А.9.2. Матрица Гесса. Матрицей Гесса О21/0Ха скалярной функ- ции £(X) от векторного аргумента X называется квадратная мат- рица размером 1г КП,состоящая из вторых частных производных функ- ции Цх) по К., т.е. 0®2 Э4 34 “ Мп 04 34 94 34 (A-.6V) Зхл 2 1 Ч* Чч 34 34 34 - 71 4 Зхх Н 2 Матрица Гесса симметрична. Ее t-я строка равняется производной градиента по Д. (см. (А. 61)). Матрица Гесса от линейной формы равняется нулю. Для вычисления матрицы Гесса от квадратичной формы продифференцируем обе части формулы (А. 63) по Х^.С уче- том соотношения Х'Ё1»Х1(|,1+Х2^а+,..+ Хп^1г получаем 0а Г7(®'а®>2а, (а.65) 0Хг Градиент и матрица Гесса особенно важны при разложении по фор- муле Тейлора скалярной функции векторного аргумента. Именно, t . И 1 04 х=а •(®-&)+... (Л.6Б) X=Q, Здесь второе слагаемое в правой части есть скалярное произведение градиента на разность X-Q.1,третье слагаемое - квадратичная форма 170
вектора Я-Q, с матрицей Гесса. Если функция £ в точке Л имеет экстремапьное значение, то градиент обращается в нуль. Указанное значение будет минимальным, если квадратичная форма положитель- но определена и максимальным, если квадратичная форма отрицатель- но определена, А.9.3, Матрица Якоби-. Матрицей Якоби 8£/3® некоторой П-мер- ной функции f (at"), зависящей от ft-мерного вектора Ж, называется матрица размером tn« TV, состоящая из первых частный производных компонент f. относительно L переменных 9 Ч к- Г ’А 8г, А. ч 0f 0® 0£2 - 03^ 8% 0L -HL 0т2 Ч 0®п fem 9*n J (А.С7) В качестве l-й строки матрица Якоби имеет градиент функции относительно вектора ОС. Определитель квадратной матрицы Якоби называется функциональным определителем. Матрица 'Якоби исполь- зуется при разложении по формуле Тейлора векторной функции век- торного аргумента. Именно, (Д.С8) Матрицы Якоби возникают также при построении градиента слож- ной функции, так как fa gf * Эд ‘ Справедливость этой формулы устанавливается с помощью правила дифференцирования сложной скалярной функции, примененного к про- извольному элементу 0^/0®^. Последние соотношения показывают значительную аналогию, существующую между скалярным и вектор- ным случаем при подходящем выборе векторно-матричных обозначе- ний. 171
А.1О. Литература A.l. 2 u r «ii h 1 R. Praktiache Matehamk fiir tagenieure until Phy aiker.- Berlin*. Springer, 4965. A.2. Dietrich Ь. and Stahl H. Matrixen uni. Setermiaanten uni ihre Anweni&un ung in Technik uni Okonoxaie,- Leipzig: VEB Facheuehveriag A.3, ^uV'mh'hl B. Matrixen.-Berlin: Springer, 19ВЧ. A.4. Гантмахер Ф.Р. Теория матриц. - М.: Гостехиадат, 1953. А.5. Bellmen R. Introduction io Matrix Analytic.-New York: MeGraw- Hill, i960. A.6. Btiweitij B. Matrix Calculuft.-New York: Inter«tience,49S9. A.7. Hildebrand. 7. Methode o£ Applied Maihematicft.-New York: Prentice-Hall, 4952. A.8. Souriaix I. M.-C.R. Acad. Sei. Pari», v. 217 (.191B), p.lOiO-WU, A.9. Фаддеев Д.К., Фаддеева B.H. Вычислительные методы линейной алгеб- ры. - М.: Фиаматгиэ, 1963. А.9. Fai&eeva V.N. Computational Meth о is oi Linear Algebra,- Nev. York: Dover Puhi., 4959, A.1O. Zacleh UA., Dee о er LA. Lineal* iyatem Theory,-New York: McGraw-Hill, ШЬ.
Дополнение переводчика w-u НЕКОТОРЫЕ ОБОБЩЕНИЯ ФИЛЬТРА КАЛМАНА - БЬЮСИ В настоящем дополнении изложены некоторые обобщения фильтра Калмана - Бьюси для систем с последействием, систем с рапреде— ленными параметрами (описываемых уравнениями в частных произ- водных), нелинейных систем и систем с вырожденным шумом в ка- нале наблюдения. Список литературы не претендует на полноту. В него включены лишь некоторые работы, бтносящиеся к тематике книги или настоящего дополнения, а также монографии и обзоры, в основном, последних лет, в которых приведена дальнейшая библио- графия. Д.1. Фильтрация в системах с последействием ЕД. 38, Д. 41- П. 46, Д. 98. Д. 107, Д. 124, Д. 131, Д. 144, Д. 170). Д.1.1. Построение оптимального фильтра для стохастических сис- тем с запаздыванием основано на принципе двойственности между управлением и наблюдением С Д.41 - Д.46]. Сформулируем соответ- ствующие результаты в случае, когда имеется одно запаздывание в уравнениях движения и наблюдения. В основе их доказательства лежит соответствующий вариант принципа двойственности между управлением и наблюдением в системах с запаздыванием. Обсужде- нию указанного принципа посвящена также статья ЕД. 107]. Пусть, наблюдаемый вектор Ot(i)s'Rn есть решение системы сто- хастических дифференциальных уравнений Ито itb)=A(t)x(t)+B(i)x(t-h,t)+s1(t)?(.i), t^-О, (Д.1.Г) т, 31О) = ®0, Х(Т)=°, г<0- Доступный наблюдению вектор удовлетворяет соотношению (д.1.2) где hj^-0 - Две заданные постоянные, a и lj0 — гаус- совские белые шумы. Пусть далее Т>0 - произвольный фиксиро- ванный момент времени. Обозначим через тп (Т) и BIT) соответст- венно условные математическое ожидание и ковариационную матрицу величины Х(Т) при условии, что измерен вектор При этом т(Т) есть наилучшая в среднеквадратическом смысле оценка Х(Т), а ЦТ) представляет собой матрицу ковариации вели- чины Х(Т)-тп/(Т). 173
Приведем выражения для 1Л(Т) и Д(Т). Предполагается, что коэф- фициенты уравнений (Д.1.1), (Д.1.2) удовлетворяют следующим огра- ничениям. Матрицы Л?В, fl, вр 6^ имеют кусочно-непрерывные эле- менты, причем Ы0^)=6"г(Л) (З^СЬРО ПРИ в06* ts[0,T], а B(t) - кусочно-непрерывно дифференцируема. Случайная величина имеет гауссовское распределение с нулевым математическим ожиданием и невырожденной корреляционной матрицей Dq и не зависит от взаим- но независимых гауссовских белых шумов ^^.Оптимальная оцен- ка Тп(Т) зависит от соотношения чисел Т и h,p. Рассмотрим отдель- но '2 - оба случая. Д.1.2. Случай h.g. В этом случае решение задачи фильтра- ции дается равенствами т(Т) = 0. 04Т4Ь.г, Ь(Т>Р(Т). Здесь детерминированная матрица P(t) является решением краевой задачи (OstsT, р$0') P(t> А (,-Ь)Р (tv Р(t) О' 0 )+04*,О')+N£(t), 4,1ЧЛ - eait.r) эсцфля „ А(ъ) a. (t,THR(t,o,t)—эг-' —St =0, ЭППЛ.Р') л -li +—=°- Неизвестные квадратные матрицы Р,Q.,R в (Д.1.3) размером ПхП удовлетворяют граничным условиям P(O)=Do, еК.0,Г>Р(О,Т,р') = 0, BU+bt)P(i)-£l'(t,-^==0. 2itt+Kpa(V)"Wrbp^W4M,-bj=0- ° (дл'о Здесь штрих - знак транспонирования. Д.1.3. Случай Т>к2.Для формулировки результата введем ряд вспомогательных конструкций. Рассмотрим П векторов 1=4,2.,. ,п, определяемых следующим образом. Все л, (1^=0 V ' при t>T. Вектор Л. (Т) имеет l-ю компоненту, равную единице, а L все прочие компоненты вектора о^СГ) равны нулю. На отрезке 0<t<T вектор ct (Т') определяется как решение системы урав- й k o^(t)=-A4t)<C(V)-:B4Uhfl *рО+ Ь^+ <Д.4.5) 174
(л.и) В уравнении (Д.1.5) функции В(Ф) и Q(i) вне отрезка Е0,ТЗ пола- гаются равными нулю. Функция Untile равняется нулю при Ф,не принадлежащих отрезку [Кг,ТЗ , а для tefh^T]дается формулой U (i)»N"4i)(t-K2)+ о т] ^ит. Матрицы 4’4'4 УД°влетворяют уравнениям el У*- + А (Т~ Ь,- S)P OHP (s)A' (Т- h, - s V its г « а * +аг(б, О V 04 (S, 0)~ P2(S) \ (S3 Р2 (Sl+N^T - h2- s)=о -0«a«T-ba, а (т- в) а а (s,t)+r2 is, о, ю+)- ~р21вув1(б>аа, (ьл>о, j>«o, / $ 0 "0 \ \0& ” 0Т “ fy/К2^,г’ Ч Р>°> B€CS)» ст- S3 Л’Чт -s) g (Т- s), n€"Mh Nrsi6/- □ (Д.1.7-) вид йг1т-Ка,т>Яа(т-Ьг,г,Р>0* Граничные условия для этой системы уравнений имеют B(T-h,2+K1-s)P!,(s)-GLj(S,-h,1)=O, p«0, 2B (T-h, + И,£- 6) aa(a.r'l-Rg(8, -n~R'a t,~\w.n a.1.8) Ввиду равенства U^(t') = 0 для "t>T решение системы (Д.1.5) легко определить на отрезке fT~h.^,T3« Обозначим это решение через (t), T-hgSt «Т. Алгоритм построения оптимальной оценки тп (Т) при Т > состо- ит теперь из следующих этапов: 1) найти решение 1^,0.^, крае- 175
вой задачи (Д.1.7), (Д.1.8); 2) вычислить векторы otjJT) при с помощью (Д.1.5); 3) подставить функцию U. даваемую 2 V" формулой (Д.1.6), в уравнение (Д.1.5) и определить решение этого уравнения с начальным условием А, (js) = Л. (s'), S»T~h, , найденным на предыдущем шаге; 4) подставить траекторию в (Д.1.6) и определить функцию времени U-(t)', 5) определить оптимальную оценку щ (Т) формулой Т tn. (Т)-| u' (T)^t)0lt. СДЛ.9') О Для построения элементов Л. .(Т) матрицы ковариации D(T) опре- делим матрицы P£(t), ^(t.T), (t, Г, J>), 04 t 4 “Ь0, размером Tlxtic помощью системы уравнений 1 P£(t)= A(T+t-hp Р^Й+P^t) A4T+t-h,2)+ +a1(t,o)+a,1^o)+N1(T+t-K2\ 0111 (t.f') ИйДФ.Т) —isr---------Ч2—°, 4X1 Pt от oiuu) 0Ф irp 3p Граничные условия для системы уравнений (Д.1.10) имеют вид di(0,t') = R1(l0,t;,p)=O, -\>о. о(д4м) tt..(T)= <C'(T) 0 + 1 (ArHtft. lT-h, y и*/ " w •• 176
0 0 \л >! (Т-ly-ю R2 (0,г, /Ж (Т-кг-р) if if * V о + Jb'(T-^ (Т-Ь^-г) 1г + ♦ j ?' (T-h^-г) Q-j(O,x> *»/. (T-KjV -Ч О о * J J X (т~ (А *. f’ Мт‘ Ч-р'М, 4-V*. -ч -ч Таким образом, алгоритм вычислений матрицы ковариации D(T) состоит из следующих шагов: 1) найти матрицы из краевой задачи (Д.1.7), (Д.1.8); 2) найти решение из краевой задачи (Д.1,10), (Д.1.11); 3) определить вектор eL (t)e ft. (t), при Т-К^Ф^Т с помощью соотношений (Д.1.5); 4) по формулам (Д.1.12) вычислить элементы Д,—(Т) матрицы ковариации ЦТ). Существенным элементом приведенного алгоритма оптимальной фильтрации является построение решения краевых задач вида (Д.1.7), (Д.1.8). Вопросы существования и единственности решений этих краевых задач исследовались в СД.45, Д.46]. Способ построения приближенного решения краевой задачи (Д.1.7), (Д.1.8) и получе- ние оценок погрешности предложен в [Д.42, Д.45], а некоторые случаи точней интегрируемости установлены в ЕД.41]. Алгоритм решения задач оптимальной фильтрации, экстраполяции и интерполя- ции для случая нескольких запаздываний в уравнениях движения и наблюдения приведен в [Д.46]. Фильтрация в нелинейных системах с запаздыванием исследовалась в [Д.17О]. Д.1.4. В ряде случаев установленные формулы оптимальной фильт- рации можно существенно упростить. Пусть, например, запаздывание имеется только в наблюдениях, т.е. уравнения (Д.1.1), (Д.1.2) имеют вид i(t)=A(t)X(t)+^(t), t>0, ч (Й- р) ® (t-UVcp'» (Я. Здесь lit) - заданная непрерывная функция. Тогда оптимальный фильтр описывается следующими уравнениями [ Д.38], вытекающими 177 (Д.1.13)
из общих соотношений, приведенных выше: m (Ф)=И (t)«' (t- h,,t)g'(t) N”1 Ci) fyct)- J C№Ct~ h,t) tn (t) + + ^) j ^[t“K,s)-fcC&)Hs]+A(t)mCt)+'l[t), tn(0)»0, t-h, i(t>A(t)DCt)+D(i)A'Ct)- -d ct)2'ct- h,t) a' it) N“\t) ct-к, t) bet), в co) =»ив. Здесь а(Ф18) - фундаментальная матрица решений обыкновенного уравнения (Д.1.13) при ^(Ф)=0, тке. (h(t,S)|(lt = A(i)S(t,S), 2(S,S)=I, где I - единичная матрица. Покажем далее, что при 1хг=0 и В(Ф)®0 в уравнениях (Д.1.1) (Д.1,2) из результатов пункта Д.1.3 вытекают уравнения фильтра Калмана - Бьюси. Действительно, вектор tn. (Т) определяется соот- ношением (Д. 1.9), в котором функция U.(T) дается в силу (Д.1.6) формулой U.(t>N^Ct) | (t) ?2(T-t) Ct). (Л.1.4Л) При этом уравнение для вектора «1^(ф) с учетом (Д.1.5) имеет вид Pa(t)=PalT-b). (д.1.15) Обозначим через U (Ф) матрицу, i-й столбец которой есть U- (ф), а через яС-матрицу, l-й столбец которой образован вектором X. • ь В силу (Д.1.14), (Д.1.15) имеем u(i)(ф) । СФ) РаСФ) «С СФ), (д.1.«) ЛСП«1. СД.М7) Из (Д.1.9) и (Д.1.1-6) следует, что Т ш(Т)= ] (ФШ. (д.1.48) О Кроме того, как показано в [Д.981 Dlt)»P2Ct). (Д.1.«) Отсюда,из (Д.1.17), (Д.1.18) вытекает, что вектор оптимальной 178
оценки ТП, удовлетворяет уравнению (2.96). При этом правая часть равенства (Д.1.18) представляет собой формулу Коши общего решения этого уравнения с нулевым начальным условием. Аналогично, используя (Д.1.19), можно показать, что матрица ковариации Д описывается матричным дифференциальным уравнением типа Риккати (2.94) (подробности см. в ЕД.98Д). Д.2. Фильтрация при вырожденной помехе в канале наблюдений Существенным предположением, использованным при обосновании фильтра Калмана - Бьюси, является предположение о невырожденнос- ти матрицы ковариации шума в уравнениях наблюдения. Однако в ря- де случаев это предположение не выполняется. Вопросу об оптималь- ном оценивании вектора состояния системы при вырожденном возму- щении в измерениях посвящено значительное число работ (см., на- пример, СД.7, Д.9, Д.19, Д.21, Д.35, Д.40, Д.59, Д.61, Д.64, Д.75, Д.83, Д.85, Д.87, Д.98, Д.120, Д.145, Д.1463, где при- ведена дальнейшая библиография). При этом возможны различные подходы, связанные либо с регуляризацией матрицы ковариации на- блюдений СД.61, Д.64, Д.75, Д.851,либо с дифференцированием компонент выходного сигнала ГД.35, Д.491. Д.2.1. В ряде случаев существует такое преобразование фазового вектора системы, при котором часть компонент преобразованного вектора оценивается точно, а для оценки оставшихся компонент мо- жет быть применен обь!чный фильтр Калмана - Бьюси. Пусть, на- пример, наблюдаемый вектор удовлетворяет уравнению ®(t)=ftxCt')+{(t), 5t(O)=Xo, t?>0. (Д.2-4Л Здесь А - заданная постоянная матрица, 4 (t)-заданная непрерыв- ная функция, гауссовский вектор Xq имеет математическое ожида- ние 1П и матрицу ковариации 1) . Уравнения наблюдения имеют вид i|(.t)«aa(t)+er^(t), t>0. (д.2.2) Здесь ^(if) eRtn> “ гауссовский белый шум, заданная постоянная матрица Q, имеет размер ЩхП,заданная матрица ® имеет размер mxTrv, вектор наблюдений Обозначим через Rl6) ранг матрицы 6. Положим R(6) = 4. Здесь целое число TlVJ. Приведем матрицу G с помощью элементарных преобразований строк к ступенчатому виду. Невырож- денную действительную матрицу, соответствующую этим элементар- ным преобразованиям, обозначим через оС^. Тогда /СЛ (д.2.3) Здесь матрица размером Ч<Пг имеет ранг 1,а 0 - матрица раз- мером ((т-ч)хт.), состоящая из нулей. Обозначим, далее, через 179
Q,t и Q,^ матрицы размером Ххп и ((tn,-X)xTi), представляющие собой соответственно первые X и последние fll -X строк матрицы оС CL. Пусть далее 1 г 1Д.2Л) где и 0<2 матрицы размером Ч*Т1 и (Ш-Х^хЦ. соответственно, представляющие собой первые X и последние tn-Х строк матрицы dC^QL, Пусть К (, Q.J,) матрица размером 1'1х(т-х’)1г>равная а.г.5) Определим векторы и соотношениями U-г-^ tA,a,7) Если R(К (01^)= n, то все координаты вектора восстанав- ливаются абсолютно точно по значениям (Д.2.7) вектора 1]гЦ). Рассмотрим второй случай, когда ранг матрицы К(0-1') равен п^тп. Обозначим через Л какую-либо невырожденную матрицу, первые столбцов которой совпадают с какими-либо линейно независимыми столбцами матрицы К (0>г),а остальные тг-n^ столбцов Л выбраны произвольно с тем лишь условием, что ранг R(A) = n. Тогда можно показать, что Х'Л »-*'= Й - °* У (ДЛ.8-) Здесь матрицы Ь4,Ва,Ва имеют размеры соответственно П^хп^, ((.П- п£")* П4, (П-П^х^-пДматрипа имеет размер Tl4; через 0^ обозначена нулевая матрица размером П^х (п-, а через 0а - нулевая матрица размером (тп-Х')х При этом ранг мат- рицы bjq.; ... (в'}п* а;] равен В силу (Д.2.6) * (Д.2.8) вектор ХГХ удовлетворяет уравнениям i= Х'х *В2+(Д.2.9) 1|Г0.аЛ СД.2.1О') tso
Представим вектор г в виде ^г~), Где и Z.elL . Из (Д.2.8) - (Д.2.10) вытекает, что ®аш ^а» V^AW» Ц.2Л2) где матрицы О.& и состоят соответственно из первых и по- следних П-п^ столбцов матрицы вектор при- чем ‘LelC . Из полноты ранга матрицы L следует, что значение 21(0') вос- станавливается точно по измерению ^(0), а для значений t*0 функция определяется как решение уравнения * Кроме того, вектор не несет никакой информации о т.е. вся информация о Za(t) заключена в Х|1(Б), 0<S<t. Обозначим через tn£(t) наилучшую в среднеквадратическом смыс- ле оценку по результатам наблюдений (6), 0<й<ф. Мат- рицу ковариации условного распределения B&(i) при условии, что измерен вектор l^i(S) на отрезке 0<6<t, обозначим через Поскольку теперь матрица 6.G* имеет полный ранг *1, то дця оценки ъ X ZU(V) по 0$6<t может быть применен фильтр Калмана - - -Бьюси. Значит, на основании (Д,2.11>, (Д.2.12) и фильтра Кай- мака - Бьюси имеем Ч ад Г1 [i|tw-x6 w]♦ mt(0)«0, (xra0xl, v- а;адг4 av Здесь через обозначена матрица, элементы которой стоят на пересечении последних п-т^ строк и столбцов матрицы Л*В^А. Обозначим через D^(t) матрицу размером 11.xП,У которой пер- вые строк и столбцов нулевые; а в правом нижнем углу стоит матрица D^(i). Имеем т<Л>Г4' (Y Btb)- j 181
Сформулируем теперь для системы (Д.2.1), (Д;£.2) алгоритм фильтрации U Д.40]. Он состоят из следующих этапов: 1) матпицы ЗиЛ, элементарными преобразованиями приводятся к виду (Д.2.3), (Д.2.4) и определяется ранг матрицы (Д.2.5); 2) если ранг К(К(О.гУ)«П, то ®(i) восстанавливается точно с помощью проце- дуры, описанной в СД.49]; 3) если R(K(Q, ))<п» то наилучшая в среднеквадратическом смысле оценка задается формулами (Д.2.13) - )• (Д.2.15), причем tt(t) определяется точно по Д.2.2. Изложим метод регуляризации при построении квазиопти- мального фильтра Калмана - Бьюси в задаче фильтрации с вырож- денной матрицей в ковариации шума в измерениях. Сущность мето- да состоит в том, что вначале матрица S регуляризуется путем добавления к ней величины бХ, где I - единичная матрица, £ - малый параметр. Далее записываются обычные уравнения фильтра Калмана - Бьюси, в качестве аргумента в которые вводятся ис- ходные измерения СД?61, Д.75]. Пусть, например, уравнения дви- жения имеют вид i(t)=a0(t)+Ctl(t)®(t>V^?1W+^tt)Mt^ Уравнения наблюдения записываются в виде A0(t)+At(t) ®(Ь)+ В (i) ?8(t). (Д.2.17) Вектор X(i)eBn, вектор чеРез обозначены ^зави- симые белые шумы. Пусть вектор tn (t) представляет собой оптималь- ную в среднеквадратичном смысле оценку вектора ®(i) По наблюде- ниям ^(8), 0<ь^"Ь. Соответствующую матрицу ковариации обозна- чим через B(t). Уравнения квазиоптимального фильтра, описывающие матрицу D£(t) и вектор fne(t), имеют вид 1Ц(4) \(t)4[(t)+ -[^(ь) swiAt) a; (t)][B(t)B'it)+е*i]"1 в\оьв0> tn£(i> tb0(t)+^(1)ше(ф)+ [-6atb)B'(W(t) А* (фЭДшМ^ЛГ** xtyW- A0(t)-A1tt)m£(t)], m£(0 )• m0. В работе [Д.611 установлено, что при любой матрице справед- ливы соотношения р Мшв(Я-М®(*)» lim £'*° M[®.(t)“tnb(t)la^D (t); о(дд.и) 182
В случае дискретных уравнений движения (Д.2.16) и наблюде- ния (Д.2.17) утверждения, аналогичные (Д.2.18), установлены в статье СД.85]. Д,3. Фильтрация в системах с распределенными параметрами СД.15, Д.64, Д.75, Д.84, Д.1ОЗ, Д.105, Д.108, ДД11, Д.117, Д.119, Д.127, Д.139, Д.152, Д.154, Д.164, ДЛ69]. Постановка различных задач оценивания в системах с распреде- ленными параметрами зависит от вида уравнений в частных произ- водных, описывающих эволюцию системы и процесс наблюдения. Кроме того, постановки этих задач определяются типом рассматри- ваемой краевой задачи, видом случайных возмущений, а также спо- собом проведения наблюдений (результаты измерений могут посту- пать либо от дискретно расположенных датчиков, либо от датчиков, непрерывно распределенных по границе рассматриваемой области или пространства). В ряде работ (см., например, С Д.75, Д.ЮЗ, Д.105, Д.111, Д.117, Д.119, Д.1641 и приведенную там библиографию) развиты приближенные способы фильтрации, основан- ные на использовании фильтра Калмана - Быоси. Эти способы осно- ваны либо на аппроксимации исходных уравнений в частных произ- водных системой обыкновенных дифференциальных или разностных уравнений, либо на разложении исходного процесса по подходящему ортонормированнрыу базису. При построении оптимального фильтра используются принцип двойственности между управлением и наблю- дением, а также прямые вероятностные методы. Д.3,1. Рассмотрим линейную систему, описываемую в области ])cR с границей Г уравнением 1» D 0<t4T, 4 * • D(A1'n В уравнении (Д.3.1) через <£(Л) обозначен скалярный стандартный винеровский процесс, остальные коэффипиенты в (Д.3.1 )-заданные детерминированные функции, L - равномерно эллиптический опера- тор. Случайная гауссовская величина И(£,0) при каждом ЛейбГ имеет ограниченную дисперсию. В каждый момент времени i наблю- дается вектор Z(t), равный i t Г Г г Ш)=> J HlM'iulx.ticLx + j BCHOlwCt). (Д.3.2) ОБ О 183
Здесь Н.(Ж,t) и BIT) - заданные детерминированные функции, стан- дартный винеровский пропесс не зависит от процесса и случайных величин U(X,0). Обозначим через tn (®,i) наилучшую в среднеквадратическом смыс- ле оценку функции %(Х,Ъ) по результатам наблюдений (Д.3.2) и вйе* дем в рассмотрение функцию Тt) с помощью соотношения Доказывается [Д.1271, что при выполнении некоторых предположе- ний оптимальная оценка удовлетворяет стохастическому диф- ференциальному уравнению Ито j k Cti + D j(M) [ J H D D Функция удовлетворяет детерминированному интегро- дифференпиальному уравнению + j k Р (t, i|, t) d/и (1|, t )- о - Hlt.WM,*)**] [ j в Граничные и начальные условия для функций ГгЦЖ.Ф') и определяются соответствующими условиями для исходных величин (см. С Д.127]). Д.3.2. Аналогичным образом формулируется решение задачи фильтрации и для иных ситуаций, описываемых линейными стохасти- ческими системами с распределенными параметрами. Так, например, в С Д.127] построен оптимальный фильтр для линейного уравнения в частных производных с краевыми условиями второго рода. Изме- рению доступно лишь положение системы в граничных точках облас- ти. В работе [Д.1ОЗ] построен оптимальный фильтр и изучена за- дача об оптимизации процесса наблюдения для систем вида (Д.3.1) с измерениями, проводимыми лишь в дискретные моменты времени и только в дискретных точках пространства. Близкие к этому во- просы обсуждаются вСД.108, Д.169]. 184
Вопрос об оптимальной фильтрации в системах с распределенными параметрами при вырожденном шуме в наблюдениях исследован в [Д.64, Д.105], а при шуме, представляющем собой выход линейного фильтра первого порядка,- в [Д.164]. Условия существования, единственности и свойства случайных процессов, описываемых стохастическими уравнениями в частных производных изучаются в [Д.13-Д.15, Д.52, Д.149, Д.150, Д.165]. Д.4. Нелинейная фищ>трация Различным вопросам нелинейной фильтраций посвящено большое число работ. Обзор некоторых из них и библиографический список имеется, например, в [2.12-2.14, 2.30, 2.31, 3.17-3.21, Д.4, Д.5, Д.7, Д.10, Д.16-Д.18, Д.ЗО, Д.31, Д.48-Д.52, Д.57, Д.60, Д.63, Д.72, Д.74-Д.78, Д.82, Д.83, Д.86, Д.91-Д.93, Д.96, ДДОО, Д.104, Д.106, Д.109, Д.112-Д.114, Д.116, Д.118, Д.121, Д.122, Д.126, Д.129, Д.133-Д.138, Д.140, Д.141, Д.147, Д.151, Д.153, Д.155, Д.157, Д.159, Д.160-Д.163, Д.167]. Д.4.1 В работе [Д.63] построен оптимальный фильтр (а также решена задача оптимальной в среднеквадратическом смысле экстра- поляции и интерполяции) для условно—гауссовских процессов. Урав- нения движения и наблюдения в этом случай линейны по фазовым координатам X (t), однако, могут быть нелинейны по наблюдениям ^(t). Предположим, что уравнения для вектора имеют вид t»0; Ylt-i-9'),-t«9^0. □(ДАЛ') Вектор X(0) - гауссовский с математическим ожиданием 1ТЬц и матрицей ковариации В^. Уравнения наблюдения, определяющие вектор измерений имеют вид В уравнениях (Д.4.1), (Д.4.2) через (t) обозначены независи- мые гауссовские белые шумы, через и - функ- ционалы, при каждом t зависящие от отрезка вектора измерений Обозначим через тп.(Ъ) оптимальную в среднеквадратическом смысле оценку вектора 5t(t) по результатам наблюдений ^а через D(i) - соответствующую условную матрицу ковариации. Тогда при некоторых предположениях уравнения для m(t) и В (i) эаписыва- 185
ются в виде »№)Л; (t, |р]<“ Ц да- да], t>0, <u(O)«mo, .3«i D(O>Do. Здесь положено & , а X. Лч + И{ Л». Из этих уравнений при соответствующих предположениях вытекают уравнения фильтра Калмана - Бьюси. Д.4.2. Оптимальный фильтр для нелинейной системы (3.118), (3.119) определяется стохастическими дифференциальными уравне- ниями (3.121), (3.122), построение решения которых в общем случае затруднительно. В ряде работ (например, t 2.12-2.14, 3.21, Д.75, Д.831) приведены приближенные способы решения уравнений (3.121), (3.122). Эти способы основаны на разложении нелиней- ных функций в уравнениях (3.118), (3.119) в ряды Тэйлора. Коли- чество членов, удерживаемых в этих разложениях, определяет поря- док усеченного фильтра. Проведены исследования, в которых срав- ниваются различные приближенные и численные алгоритмы нелиней- ной фильтрации. В работе С Д.511 построение оптимального в среднеквадратичном смысле нелинейного фильтра сведено к решению линейного стохастик веского дифференциального уравнения в частных производных. Именно, пусть движение системы Х(1)еИпи процесс наблюдения за ним <^(t)€l2fn описываются уравнениями i(i)’ Ь(i,®(i),^(t))+1(t,®(t), ^(t))^(t), UO, | ГО MM ’ (t, x y>), 9 (t>)) ? fc), где ^(t) - гауссовский белый шум. По результатам наблюдений за вектором ^(б), 0 4 в < t требу- ется построить наилучшую в среднеквадратичном смысле опенку ве- личины 1 (® (ЛУ), где f - заданная функция. Обозначим эту оценку через Tri,£(i>. Тогда при некоторых предположениях в СД.51] уста- 186
новлено, что R tl 1 Здесь функция удовлетворяет уравнению [тг*Вда1,« »4t IW)] it <- +[((э(5')"1Л lptlXVDj(G(5')-l/26 Vi|ttxn](6e')4/l (ty W, i?oW«P(ioe(ia)/il®. В последнем уравнении - матрица вторых производных, - вектор первых производных, все коэффициенты берутся при значениях аргументов t,я, у (Л) и ?(•) - вероятность события, заключенного в скобках. Д.4.3. Приведенными выше не исчерпываются те направления, в которых ведутся исследования, связанные с различными проблема- ми оценивания фазовых координат динамических систем. В ряде ра- бот ЕД.8, Д.36, Д.49, Д.53, Д.683 рассмотрены задачи фильтра- ции, в которых относительно, неопределенных возмущений в уравнение ях движения и наблюдения предполагаются заданными лишь допусти- мые области их измерений. Пусть, например, уравнения движения системы Х(Л)вИп и процесс наблюдения y(i)eR^ удовлетворяют ли- нейным уравнениям t>o, Здесь А,С,&, Р - заданные матрицы. Относительно возмущений V и в уравнениях движения и наблюдения предполагается задан- ным интегральное квадратичное ограничение вида t j (_1Г' Ев) R (6) V (S) + $ Ч&) H U) (8)) (t & 4 JW2 (t), 0 где R и И - Положительно определенные матрицы, yu(t)> 0 - за- данная функция, которая при всех I удовлетворяет неравенству JW. Задача фильтрации состоит теперь в построении минимакс- ной (гарантированной) оценки tn, (t) вектора X (i) по результатам измерений вектора t| (8) на отрезке 0 < S 4 t. Установлено, что минимаксная оценка fn(t) описывается уравне- ниями [Д.53], по форме подобными уравнениям стохастического 187
фильтра Калмана - Бьюси: tn = Am+Р (Ин [у- йт], Р • АР+ РА'+СЯ^С-Р&'Н&Р. Здесь все функции берутся в момент времени t. В ЕД.533 рассмотрен также вопрос об ошибке оценивания в сис- теме (Д.4,3) и о минимаксной фильтрации в системах с запаздыва- нием. Минимаксное оценивание для систем с распределенными пара- метрами научалось в [Д.54]. В ряде работ, например, [Д.4, Д.8, Д.23, Д.363 рассмотрена задача оптимальней фильтрации, в которой одна часть неопределен- ных факторов интерпретируется как случайные процессы, а относи- тельно другой предполагаются заданными лишь области возможных значений. В [Д.293 построены оптимальные фильтры для систем, которые описываются различными дифференциальными уравнениями на различ- ных интервалах случайной длительности. В[ Д.223 изучены уравнения оптимальной нелинейной фильтрации для случая, когда ненаблюдаемым является марковский процесс О If) с конечным или счетным множеством состояний, а наблюдае- мый процесс 1|(i) описывается стохастическим дифференциальным уравнением где [t)~ гауссовский белый шум. Рассмотрению задач фильтра- ции по скачкообразным наблюдениям посвящены работы [Д.12, Д.1О23. В [Д.21 исследована задача позиционного наблюдения и минимаксной фильтрации для дифференциальных уравнений, содержа- щих запаздывание как в канале наблюдения, так и в уравнениях движения системы при условии, что неизвестное начальное положе- ние системы и неопределенные помехи подчиняются совместному интегральному квадратичному ограничению. В работах [ Д.20, Д.37, Д.39, Д.981 рассмотрена задача фильт- рации по совокупности непрерывных и дискретных наблюдений. Упо- мянем, наконец, исследования, посвященные приближенной фильтра- ции при негауссовских возмущениях, а также использованию мето- дов теории информации в задачах оптимального оценивания [Д.1633. 188
Д.5. Литература Д.1. Алберт А. Регрессия, псевдоинверсия и рекуррентное оценивание. - М.: Наука, 1977.-224 с. Д.2. Ананьев Б.И., Пищулина И.Я. Минимаксная квадратичная фильтрация для систем с запаздыванием. - В кн.: Дифференциальные системы управле- ния. Тр. Ин-та математики я механики УНЦ АН СССР, Свердловск, 1979 Д.З. Андреев Н.И. Теория статистически оптимальных систем управления, - М.: Наука, 1980. Д.4. А оки М. Оптимизация стохастических систем. - М.: Наука, 1971. Д.5. Бард Й. Нелинейное оценивание параметров. - М,; Статистика, 1979. Д.6. Богуславский ИЛ. Методы навигации и управления по неполной статис- тической информации. - М.: Машиностроение, 1970. Д.7. Брайсон А., Хо Ю-Ши. Прикладная теория оптимального управления. - М.: Мир, 1972. Д.8. Бублик Б.Н., Кириченко Н.Ф., Наконечный А.Г. Минимаксные оцен- ки и регуляторы в динамических системах, -'ИК АН УССР, 1978.-48 с. Д.9. Бутов АД. Оптимальная линейная фильтрация при вырождении шума в наблюдениях. - Автоматика 1г телемеханика, № 11,1980. Д.10. Ветров Л.Г. О линеаризации стохастических дифференциальных уравнений оптимальной нелинейной фильтрации, - Теория вероятностей и ее примене- ние, т. 25, № 2, 1980, с. 399-407. Д.11, Габасов Р., Кириллова Ф. Качественная теория оптимальных пронес*- сов, - М.: Наука, 1971. Д.12, Га ль чу к Л.И. Фильтрация марковских процессов со скачками. - Успехи матем. наук, № 25, 1970, с. 237-238. Д.13. Гихмад И.И. Грацичвая задача для стохастическою уравнения параболи- ческого типа, - Укр. матем. журн., т. 31, № 5, 1979, с. 483-489. Д.14. Гихман И.И. О первой начально-краевой задаче для стохастического ги- перболического уравнения. - Теория случайных процессов. Киев: Наукова думка, № 8, 1980, с. 20-31. Д.15. Глонтн О.А. Об одном представлении оптимальной оценки фильтрации марковских процессов, управляемых стохастическими интегро-дифференци- альными уравнениями с частными производными. - Теория вероятностей ‘и ее применения, т. 23, № 4, 1978, с. 856-861. Д.16. Городецкий А.Я. Текущее количество информации для непрерывной оцен- ки в задачах нелинейной фильтрации (гауссовское приближение). - Автома- тика и телемеханика, № 11, 1979. Д.17. Григелионис Б. О стохастических уравнениях нелинейной фильтрации случайных процессов. - Литовск. Матем, сб., т. 12, № 4, 1974, с. 37-5] Д.18. Григ-елионис Б.И. О редуцированных стохастических уравнениях нелиней- ной фильтрашги случайных процессов. - Литовск. матем. сб., т. 16, № 3, 1976, с. 51-63. Д.19. Гулько Ф.Б., Новосельцева ЖД. Решение нестационарных задач филы рации и упреждения при произвольной помехе методами моделирования. - Автоматика и телемеханика, № 10, 1966, с. 153-168, Д.20. Демин Н.С. Оценивание и классификация случайных процессов по совокуп- ности непрерывных я дискретных наблюдений. - Изв. АН СССР. Техн, ки- бернетика, № 1, 1979, с. 153-160. Д.21. Диденко В.П., Ди три цкий О.Е. Фильтрация и регуляризация. - Киев: Биша Школа, 1977.-52 с. Д.22. Ершов АД., Липцер Р.Ш. Робастный фильтр Калмана в дискретном вре- мени. - Автоматика и телемеханика, № 3, 1978, с. 60-69. 189
23. Жандаров А.М. Идентификация и фильтрация измерений состояния стохас- тических систем. - М.: Науца, 1979.—112 с, 24. Закс Л. Статистическое оценивание. - М.: Статистика, 1976.-598 с. 25. Ибрагимов И.И., Хасьминский Р.З. Асимптотическая теория оценива- ния. - М.: Наука, 1979.-527 с. 26. Казаков И.Е. Статистические методы проектирования систем управления. - М.: Машиностроение, 1963. 27. Казаков И.Е., Статистическая теория систем управления в пространстве состояний. - М,: Наука, 1975. 28. Казаков И.Е. Оценивание и идентификация в системах со случайной струк- турой. - Автоматика и телемеханика, № 12, 1979. 29. Казаков И.Е., Артемьев В.М. Оптимизация динамических систем слу- чайней структуры. - М.: Наука, 1980. 30. Калачев М.Г., Никонов В.Г. Применение методов нелинейной фильтрации в задачах оценивания фазовых координат динамических объектов. - Авто- матика и телемеханика, № 12, 1979, 31. Капылов А.К. О нелинейной фильтрации случайных процессов при дискрет- но поступающих данных. - Problem» of Control and InfOTmetion theory, v.8, №1, 1979, p. 39-54. 32. Катковник В.Я. Линейные оценки и стохастические задачи оптимизации. — М.: Наука, 1976, 33. Кац И.Я., Куржанский А.Б. О двойственности статистических задач оп- тимального управления и наблюдения, - Автоматика и телемеханика, 1971, № 3. 34. Кац И.Я., Куржанский А.Б. К задачам оптимального наблюдения. - ПММ, т. 37, № 5, 1973. 35. Квакернаак X., Сиван Р. Линейные оптимальные системы управления. - М.: Мир, 1977. 36. Кириченко Н.Ф., Наконечный А.Г., Навродский В.А. Минимаксные рекуррентные оценки параметров динамических систем. - ДАН УССР, № 11, 1978, с. 1021-1026. 37. К иду л П.И, О непрерывно-дискретной фильтрации марковских процессов диффузионного типа. - Автоматика и телемеханика, № М, 1970, с. 29-37. 38. Колмановский В.Б. Об оптимизации процесса наблюдения при запазды- вании информации. - ПММ, т. 35, № 2, 1971. 39. Колмановский В.Б. Оптимальное управление линейными системами при непрерывных и дискретных наблюдениях. - Прикладная механика, т. 9, № 6, 1973. 10. Колманоцский В.Б. О выборе законов наблюдения при произвольной по- мехе. - Иэв. АН СССР. Техн, кибернетика, № 4, 1973. 11. Колмановский В.Б, Точные формулы в задаче управления некоторыми системами с последействием. - ПММ, т. 37, № 2, 1973. 12. Колмановский В.Б. Об аппроксимации линейных управляемых систем с последействием, - Проблемы управления и теории информации, т. 3, № 1, 1974. 13. Колмановский В.Б. О фильтрации некоторых стохастических процессов с последействием. - Автоматика и телемеханика, N» 1, 1974. 14. Колмановский В.Б. Оптимальное управление некоторыми стохастическими системами с запаздывающим аргументом. - Труды R Всесоюзной конфе- ренции по теории и приложениям дифференциальных уравнений с отклоняющим- ся аргументом. Киев: Наукова думка, 1977. 15. Колмановский В.Б., Майзенберг Т.Л. Оптимальное управление сто- хастическими системами с последействием. - Автоматика и телемеханика, № 1, 1973. 190
Д.46. Колмановский В.Б., Майэенберг Т.П. Оптимальные оценки состояни: системы и некоторые задачи управления системами с последействием. - ПММ, т. 41, N> 3, 1977. Д.47, Красовский А.А, Фазовое пространство и статистическая теория динами ческих систем. - М.: Наука, 1974. Д.48, Красовский А.А. Достаточное условие точного оценивания нелинейного процесса. - Автоматика и телемеханика, № 4, 1980. Д.49. Красовский Н.Н. Теория управления движением. - М.: Наука, 1968. Д.50, Крылов Н.В. О совпадении 6-алгебр в задаче фильтрации диффузионных процессов.-Теория вероятн. и ее применит. 24,выл.4, 1979,с. 771-780. Д.51. Крылов Н.В., Розовский Б.Л. Об условных распределениях диффузион- ных процессов. - Изв. АН СССР. Сер. матем., т. 42, № 2, 1978, с. 356-378. Д.52. Крыпов~Н.В., Розовский Б.Л. Об эволюционных стохастических урав- нениях. - В кн.: Итоги науки и техники, т. 14. М.: ВИНИТИ, 1979, с. 71-146. Д.53. Куржанский А.Б. Управление и наблюдение в условиях неопределеннос- ти. - М.: Наука, 1977. Д.54. Куржанский А.Б., Осипов Ю.С. Управление и оценивание параметров в системах с распределенными параметрами. - Труды yj конгресса ИФАК Бостон, 1973. Д.55. Кутоянц Ю.А. Оценивание параметров случайных процессов. - Ереван: Изд-во АН Арм. ССР, 1980. Д.56. Ларин В.Б., Науменко К.И., Сунцев В.Н. Синтез оптимальных линей- ных систем с обратной связью. - Киев: Наукова думка, 1973. Д.57. Леондес К.Т. (ред.). Фильтрация и стохастическое управление в дина- мических системах. -М,; Мир, 1980. - 407 с, Д.58. Ли Р. Оптимальные оценки, определение характеристик и управление. - М.: Наука, 1966. Д.59. Лившиц Н.А., Виноградов В.Н., Голубев ГА, Линейная фильтрация при особенной матрице ковариаций шума в наблюдениях. - Техн, кибернети ка, № 3, 1969, с. 127-135. Д.60. Лившиц И.А., Олевская Е.А., Абрамович В.И. Статистическая тео* рия оценивания. - Л.: Наука, 1976.—188 с. Д.61. Липцер Р.111. Уравнения почти оптимального фильтра Калмана при особен- ной матрице ковариаций шума в наблюдениях. - Автоматика и тепемехани* ка, № 1, 1974, с. 35-41. Д.62. Липпер Р.Ш. Гауссовские мартингалы и обобщение фильтра Калмана - Быоси. - Теория вероятностей и ее применения, т. 20, № 2, 1975, с.. 292-308. Д.63. Липцер Р.Ш., Ширяев А.Н. Статистика случайных процессе® (нелиней- ная фильтрация и смежные вопросы). - М.: Наука, 1973. Д.64. Ляшко И.И., Диденко В.П., Цитрицкий О.Е. Фильтрация шумов. - Киев: Наукова думка, 1979,-232 с. Д.65. Маргулис Л.Г., Розовский Б.Л. Фундаментальные решения стохасти- ческих уравнений в частных производных, и фильтрация диффузионных про- цессов. - Успехи матем. наук, т. 33, № 2, 1978.-е. 197. Д.66. Медич Дж. Статистически оптимальные линейные оценки и управление. - М.: Энергия, 1973. Д.67, Моррис В, Наука об управлении. Бейесовский подход. - М.: Мир, 1971. Д.68. Наконечный А.Г. Минимаксная оценка состояний линейных стохастичес- ких систем. - Теория-вероятн. и ее применен., вып. 2, 1978. Д.69. Невельсон М.Б., Хасьминский Р.З. Стохастическая аппроксимация и рекуррентное оценивание. - М.: Наука, 1972. 191
О. Овчаренко В.Н. Субоптимальный фильтр для оценивания состояния непре- рывной линейной системы по дискретным наблюдениям. - Автоматика и те- лемеханика, № 8, 1980. 1. Олдрич Г.Т., Крэбилл У.Б. Применение калмановской фильтрации к ра« дислокационному сопровождению самолетов и ракет. - Ракетн. техн, и кос- монавтика, т. 11, № 7, 1973, с. 46-53. 2. Острей К.Ю. Введение в стохастическую теорию управления. - М.: Мир, 1973. 3. Пар а ев Ю.И. Введение в статистическую динамику процессов управления и фильтрации. - М.: Советское радио, 1976. 4, Попков Ю.С., Киселев О.Н., Петров Н.П., Шмульян Б.Л. Идентифи- кация и оптимизация нелинейных стохастических систем. - М.: Энергия, 1976. 5. Прохоров М.Б., Саульев В.К. Метод оптимальной фильтрации Калма- на - Бьюси и его обобщения. - В кн.: Математический анализ (Итоги науки и техники). М.: ВИНИТИ АН СССР, т. 14, 1977, с. 167-207. 6. Пугачев В.С, Теория Случайных функций и ее применение к задачам ав- томатического управления. - М.: Физматгиз, 1962. 7. Пугачев В.С. Статистические методы в технической кибернетике. - М.: Советское радио, 1971,-191 с. 8, Пугачев В.С. Оценивание переменных параметров в стохастических сис- темах, описываемых дифференциальными уравнениями. - ДАН СССР, т. 241, Nt 5, 1978, С. 1031-1034. 9. Райфа Г., Шлейфер Р. Прикладная теория статистических решений. - М.: Статистика, 1 977, О. Рао С.Р. Линейные статистические методы и их приложение. - М.: Наука, 1968. 1. Ривкин С.С. Метод оптимальной фильтрации Калмана и его применение в инерциальных навигационных системах. - Л,: Судостроение, ч. 1 (1973), ч. 2 (1974). 2. Розовский Б.Л., Ширяев А.Н, О бесконечных системах стохастических дифференциальных уравнений, возникающих в теории оптимальной нелиней- ной фильтрации. - Теория вероятн. и ее применения, т. 17, № 2, 1972, с. 228-237. 3. Ройтенберг Я.Н. Автоматическое управление. - М.: Наука, 1978. 4, С а кава И. Оптимальная фильтрация в линейных системах с распределен- ными параметрами. - Экспресс-информация. Системы автоматического управления, N» 39, 1972, с. 40-53. 5. Серебровский А.П. О регуляризации дискретного фильтра Калмана. - Автоматика и телемеханика, Nt 3, 1975, с, 70-74. 6. Силуянова И.Д. Оценивание состояния и параметров Нелинейных систем при помехе в наблюдениях, отличной от белого шума. - Автоматика и те- лемеханика, Nt 10, 1980. 7. Симкин М.Н. О рекуррентной фильтрации при взаимно-коррелированных шумах объекта и измерителя. - Автоматика и телемеханика, № 1, 1980. 8. Скороход А.В.Вероятность вокруг нас,-Киев:Наукова думка, 1980.—161 с. 9, Скороход А.В., Ибрамхалилов И.Ш. Состоятельные оценки парамет- ров случайных процессов. - Киев: Наукова думка, 1980,-190 с. О. Солодов А.В. Методы теории систем в задаче непрерывной линейной фильтрации. - М,: Наука, 1976. 1. Стратонович Р.Л. Условные марковские процессы и их применение к теории оптимального управления. - М.: МГУ, 1966. 2. Тихонов В.И„ Кульман П.К. Нелинейная фильтрация и квазикогерент- ный прием сигналов. - М.: Советское радио, 1975, 192
Д.93. Фуджисаки М., Каллианпур Г., Кунита X. Стохастические дифферент пиальиые уравнения в задачах нелинейной фильтрации. - Математика (сб. лерев. иностр, статей), т. 12, JS 2, 1973, с. 108-128. Д.94. Хаджиев Д.Н. Об оценивании случайных процессов по наблюдениям за точечным процессом. - УМН, т. 31, № 2, 1976, с. 235—236. Д.95. Хазен Э.М. Методы оптимальных статистических решений и задачи опти- мального управления. - М.: Советское радио, 1968. Д.96. Хомякова Л.Ш. К задаче фильтрации в нелинейных системах управления. Автоматика и телемеханика, № 1, 1979. Д.97, Пыпкин Я.З. Адаптация и обучение в автоматических системах. - М.: Наука, 1966. Д.98, Черноусько Ф.Л., Колмановский В.Б. Оптимальное управление при случайных возмущениях. - М.: Наука, 1978. Д.99. Эйкхофф П. Основы идентификации систем управления. - М.: Мир, 1975 683 с. Д.100. Эльясберг П.Е. Определение движения по результатам измерений. - М.: Наука, 1976. Д.1О1. Юдин А.Б. Математические методы управления в условиях неполной ин- формации: задачи и методы стохастического программирования. - М.: Советское радио, 1974. Д.102, Яшин А.И. Условно-гауссовское оценивание характеристик динамических систем по скачкообразным наблюдениям. - Автоматика и телемеханика, № 5, 1980, с. 38-47. Д.ЮЗ. Aidarous 4.Х, 6evsrs M.R.. Installs МЛ. Optimal sensors allocation strategies 1о» в class О* stochastic distributsd systems.— Ini. Г Control, v. 22, №2, 19?*, p- 4 97-2 it. Д.104. Alengrin &. La theorie du Hitrage non linrfaire at од applications au traitemeni du signal st i 1’identiiication an automatique. - Univ. Paul Sabatier de Toulouse, V. 1, 197*t,-it7p. Д.105. Ben s о u s s a n A. Pilferage optimal des systems lineairss.- Paris; bunod, 4971. Д.106, Bucy U.S., Herr it M.J., Miller h.S. Hybrid Synthesis o> the optimal discrete nonlinear filter.- Atochasfeics, у. lt49?9tp.ieo-fiii. Д.107. Chan W.L. Variational dualities in the linear regulator and estimation problems. with and without time delay.- ,T. inst. maths, applies. №49, 4976, p. 297-fii,?. Д.108. Chen H.W., Bn infold H. J. Optimal loertiu measurements,- Int. J. Control, V. 24, N’t, 49r<6, p. lOiu-iOiA. Д.109. Clark C.M., Howland l.K. Д Tsomeht derived stochas- tic estimation and control algorithm tor bounded-noise systems,- Int. I. Control, v.47, №6, 1973, Д.110, Curtain Й. У. Estimation theory tor abstract evolution equa- tions excited by general white noise processes.-SIAN X Coni, and Optim., v. U, № 6, 1978, p. iiti-UU. Д.111. Cu rt ain H.F., Ichihawa A.. Optimal location of sensors lor filtering of distributed systems.- Leek notes eontr. inform Sei., №4, 1979, p.298-295. Д.112. Bavin M.H.A. On a multiplicative functional transforma- tion arising tn nonlinear filtering theory.-Zeltschrilt fur Vahrscheinlichheits-iheorie, Bd. ЗД, He£t, 2, 1980, g.ifiS-ieo. Д.113. Dominique M. Heqularlte de loi* condiiionnelles en th^orie du Jiltrage non lineaire.-C.r. Acad, sei., Ah 990, №8, A387,1980 Д.114. Jupaiv., Ivanov V. Bibliography OB stochastic approxima- tion,- Aplikace Matemat iky, v. 2, №22, 497?, p. 13Ц-4А8. 193
5. Fuller A.T. Approximate analysis si stochastic relay control Systems. - Int. T. Control, v-31, № G, p. 4474-4490, 4980. 6, Gelb A., Kasper J.F., N a s h K.A., Brice Ch. F„ S u t - herlani A.A. Applied optimal estimation.- Cambridge, Massa- chusetts; London, England; The M.I.T. Press, 4974. 7. Cooison R.E., Polis M.P. (Eds'). Identification of parame- ters in distributed, systems.- ASMS monograph, 1974. 8. hlinT. Grossisement d’une filtration et application.-Leet, notes in math., №724, 4979, p.574-609. 9. IFAC symposium On distributed parameter systems.-Banff Canada, 1971. 0. KailathT. A view of three decades of linear filtering theory.-IEEE Trans. Inform.Theory, 1974, №20, p. 146-484. 1. KailsikT. Lectures on linear least-squares estimation.- Wien; New York: Springer, 1976. !2. Kallianput ft*. Stochastic filtering theory.- New York: Springer. 1980.-316 p. 6 23. Katsuo Y. Reduced-order Kalman filtering with incomplete observability.-T. Guidance and Contr., v. 3, K’S, 1980, p. 280—282. 4, Ko-m or n ik *J. Optimal control under discrete observation of continuous stochastic systems With time delay.-Kybernetica, V. 44, №2, 4978, p. 402-109. !5. Ku Se г a V. A review of the matrix Riccati equation.— Kybernetika, V.9, №1, 4973. 6. Ku nit a H. Asymptotic behavior of the nonlinear filtering errors of Markov processes.- J.Multivar. Anal., v. 1,N*4, 4971, n. 365-393. !7 Kushner H.T. Filtering lor linear distributed parameter systems.- Siam T. Of Control, v.8, №3, 4970, p.346-360. IS. Kushner H.J. Introduction to stochastic control thepry.- New York: Nolt, Rinehart, Winston, <871. 29. Kushner H.J. A robust discrete state approximation to the optimal nonlinear filter for a diffusion.— Stochastics, 4979, v.3, N’2, p.75-83. 30. KwakernaakH., Sivan R. The maximally achievable accuracy of linear optimal regulators and linear optimal fil- ters.- IEEE Trans. Automat. Contr., v.17, №1, 4972, p.70-86. 31. Kwong R.H. A Stability theory for the linear-quadratic - Gaussian problem for systems with delay in the state, control apd observations.- Siam J. Control and Optimin., v.48, №1, 4980, p. 49-75. 32. Lancaster Rodman L. Existence and uniqueness theo- rems for the algebraic Riccati equations.- Tnt. J. Control, v. 32, №2, 4980, p. 285-309. 33. Larson K.J., Shubert B. Probabilistic models in engineering sciences.-New York; Wiley, 1979. 34. L aw son C.L., Hanson R. J. Solving linear least squares problems.-* Englewood Cliffs, N.J.; Prentice-Hall, 4974. 35. Lecture notes in. control and information sciences (.ed. h.V. Ba- lakriahnan and M. Thoma), v.G, №7, 1978. Optimisation teehniques.- Berli-n*. Springer, 4978. 36. Lecture notes in control and information sciences (ed. A.V. Ra- lahrishnan and M. Thoma), v. <6, 1979. Stochastic control theory and stochastic differential systems.- Berlin: Springer, 4979. 194
Д.137. Leoniss C.T. led*». Control and dynamic systems.-NewYork: Academic Press v. 12, 4996. Д.138. Levie ux F. Kecuraive nonlinear filtering’, a solution of the mathematical problem and applications.-Preprints of IFAfi aymp. on stochastic control, Budapest, 1974, p. 175-482. Д.139. Ma 1 a nd r ahis C. Filtrage des systemes paraboli^ues sto- ChastiQues.-Toulou.se, 4977.-167 p. Д.140. May ъеск P.4. Stochastic models, estimation and control.- New York: Acad.. Press, A979.-*i23p. Д.141. Me Gerty T.P. atochastic systems and Stale estimation.-NewYor Wiley, 4994.- 401 p. Д.142. Nelle font D.J., 4 a r g e n t R.W. H. Opiimel measurement poli- cies for control purposes.-Inf. J. Control, v.26, №4, 1977, p- 595-602 д.143. Меует P. A. dur un problems de filtration.-Leet. Notes Math. №32i, 1973, p. B23-247. д.144. Hitter 4.K., Wist er R.V. Filtering for linear stochastic hereditary differential systems. Control theory, numerical method: computer systems modelling.--Lecture notes in economics and mathe matical system».— Berlin: Springer, 1975. Д.145. Miyamoto 7., Takeda H. Optimal filter for coloured measure- ment noise.- Techuol. Repts-Tohoku Univ., v.Si, №1, 4976, рЛЗ-404 Д.146. Moy lan P.J. A note on Kalman-Bucy filters with aero measure- mente noise.-IEEE Trams. Automat. Control, v. 19, 1974, p-263-264. Д. 147 Nani N.E. Estimation theory and application .-New York*. Wiley, 19f Д.148. Nguyen Van Thu. Prfedxetion problems.-Warszawa: Panstv wyd-wo nauk., 1980.-72p, Д.149. Pardoux E. Equations aux derivees partielles stoehastiqnes non lineaires monotones.-Paris, 1975, pl-236. Д.150. Par deux E. Stochastic partial differential equations and filte ring of diffusion processes.- Stochastics, 4979, v. 3, №2, p.l27-46S Д.151. Pa г к u S H. Optimal filtering.— New York: Springer, 4974. Д.152. Ray W.H. Distributed parameter state estimation algorithms and applications. A survey. - IFAC Congress, Boston- Cambridge,49 Д.153. Puhe A., W edin P. A. Algorithms for separable nonlinear least squares problems.-Й1 AM Review, v,g2, N’3, 1980. p. 318-337. Д.154. S a w a r a g i Y., 4 о e d a T., 0 m a t u 6. Modeling, estimation and their applications lor distributed parameter systems.- Berlin *. Springer, 1978.- 269 p. Д.155. Schmidt Ct.T. <edy Practical aspects of Kalman filtering implementation.1- London: AGARB-L4-62, 4976. Д.156. Schuppen J.H, The stochastic filtering problem for point pro- cesses.- Amsterdam, <980.-22p. Д.157. Scwartu M., Shaw L. Signal processing: discrete spectral analysis, detection, estimation--New York: McGraw-Hill, <975. Д.158. Segall A, Recursive estimation from discrete-time point pro- cesses.-IEEE Trans. Inform*. Theory IT-22, N*4, 4376, p. 422-431. Д.159. Segall A., Davis M., К ails th T. Nonlinear filtering wit counting observations.-IEEE Trans. Inform. Theory, IT-21, №2,49 p. 1*43-449. Д.16О. Stre n son H.W. Least-Squares estimation*, from Gauss to Kalmi i IEEE Spectrum, 1970, p.63-68, Д.161. Sorens on H.W. On the devclop-ment of practical nonlinear li1 < In: Estimation theory (el. Lainiotis B.l».).-New York: American t vier, 1974. Д.162. Tayior F.J. On the compulation of Kalman gains.- Сотри», and El Eng., №2, 1975, p- Ю5-115. 195
..163. Tom it a 7., Omitu S. An application of the information theory to filtering problems.- Information Sciences, №11, 1976, p. 13-87. 1.164. Ct.b. On optimum distributed-parameter filtering,an! fixed-interval smoothing tor colored, noise.- IEEE Tt»m. on Autom. Control, v. AC-W, X» 4, «72, p. 448-468. ..165. ViotM. Solutions fatbits d’equations aux-derivees-partlaiies ei0chasii4u.es non lineaires.-Faris, 1976, p.l -262. 1.166. Wasbbum U.U., Ken del J.M. Multistage estimation of dyna- mical and weakly coupled States in continuous-time linear systems.-IEEE Trans. Automat. Control, v. 86, N*l, i960, p. 71-78. 1.167. Weiss I*., Wo llow tin J. Maximum probability estimators ana. related. topic's.- Berlin: Springer, 1974.-iOS p. 1.166. 7 о n e a’a w a K. Reduced-or dor Kalman filtering with incomplete observability.- j, guidance and Control, v.3,N*3, «10, p, 280-282. 1,169. luT.K., Aeinfeld T.N. Observability and optimal measurement lokation in linear distributed parameter system.-Int. I. Control, v. 18, №4, 1973, p-785-799. 1.170. 7u T.K., A ein I eld J.H., “Ray W.H. Filtering in nonlinear time delay systems.- IEEE Trans. Autom. Control, v. 19, N’4,1974,p-324-883. 1.171. And era on B-D.O., Moore J."B. Optimal filtering.-Englewood Cliff», If. J.: ‘Prentice-Hall, 1979.
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Алгоритм Гаусса 23, 40, 156 - Гаусса — Жордана 156 - Сурье - Фадеева 122, 163 - Холецкого 23. 40, 68, 156 Баейса правило 139 Вектор 150 - Гесса 144 - собственный 160 - фазовый 6 Величина случайная центрирован-' ная 76 Взаимосвязанность матриц 153 Винера процедура 47 - фильтр 120 - - первого порядка 97 Винерй - Хопфа уравнение интег- ральное 47 - - — матричное 88 Воздействие входное 45 - — измеряемое 98 Возмущение систематическое 84 - цветное 84 Вырожденность матриц 152 Гамильтона - Кэли теорема 13, 124, 161 Гаусса алгоритм 23, 40, 156 Гаусса — Жордана алгоритм 156 Гаусса метод уравниваний 39, 50 - преобразование 40 Гесса вектор 144 - матрица 52, 144, 170 Градиент 169 Движение броуновское 86 Двойственность 6, 29 Диагональ главная 151 Дисперсия ошибок оценивания 79 Дифференциал стохастический вдоль интегральной кривой 142 - - Ито 86 Дифференцирование по векторному аргументу 169 Дифференцирование по скалярному аргументу 168 Дополнение алгебраическое 157 Зависимость линейная 152 Задача наблюдения 11 - фильтрации 11, 47 Затраты при обращении матрицы 160 Значение Начальное нецентрирован- ное 98 - собственное 160 Инверсия 157 Интегрирование матриц По скаляр- ному аргументу 168 - стохастическое 140 Интерполяция 85 Исчисление Ито 86, 138 - матричное 150 Ито дифференциал стохастический 86 - исчисление 86, 138 - теорема 144 Калибровка измерительного устрой- ства 70 Калмана фильтр 67 - — оптимальный 58 Колмогорова процедура 47 - уравнение диффузионное прямое 145 Концепция формирующего фильтра 48 Корреляция между возмущениями и ошибками измерений 84 Коэффициент характеристического уравнения 17 Крамера правило 156 Кронекера символ 59 Кушнера — Стратоновича уравнение 145 Лапласа преобразование 125, 168 Матрица автокорреляции 167 - Гесса 52, 144, 170 - диагональная 151 197
Матрица единичная 151 - квадратная 151 - ко вариации ошибки 50 - комплексная 152 - кососимметрическая 152 - модальная 163 - наблюдаемости 23, 25 - неотрицательно определенная (по- ложительно попуопределенная) 166 - нормальная гауссовская 40 - обратная 156 - отрицательно определенная 166 - положительно определенная 166 - симметричная 152 ч симплектическая 120 - транспонированная 152 - Якоби 171 Метод минимизации среднеквадра- тичной ошибки 49 - множителей Лагранжа 57 - наименьших квадратов 6, 9, 39, 50 - уравниваний Гаусса 39, 50 Минимизация среднеквадратичной ошибки 49 Наблюдаемость 6 - в непрерывном времени 21 - полная 22 Наблюдение вектора состояния 9 - в непрерывном времени 21 - детерминированное 6 - с дискретным временем 34 Норма вектора 167 Нуль-вектор 150 Нуль-матрица 152 Обобщение уравнения Винера - Хоп- фа 91 - фильтра Калмана - Бьюси 173 Операции над матрицами 153 Определитель 152 - диагональный главный 167 - функциональный 171 Ортогональность 53 Оценив .ние груссовско-марьовское рекуррентное 60 - рекуррентное с мииима 1ьной сред- некьидратичной ошибкой 64 Оценка 57 - гарантированная (минимаксная) 187 — гауссовская 35 198 Оценка Гауссовско-марковская 49, 55 - фазового вектора 6 Ошибка оценивания 50 Переменная случайная 50 Пифагора теорема 168 Плотность сингулярная 146 — спектральная 48 Подобие матриц взаимное 165 Полюс гамильтоновой системы 120 Понижение порядка фильтра 132 Постановка задачи наблюдения 11 Правило Байеса 139 - Крамера 156 Предсказывание 80 Преобразование Гаусса 40 - Лапласа 125, 163 Принцип двойственности 29 - разделимости 112 Процедура Винера 47 - Колмогорова 47 Процесс броуновский 138 - броуновского движения стандарт- ный 139 - винеровсиий 86, 138 - скалярный 126 Разделимость алгебраическая 108 — стохастическая 110 Ранг матрицы 152 Регулирование детерминированное 104 - линейное 104 Регуляризация 182 Рикхати уравнение матричное 116 Сглаживание 85, 88 Символ Кронекера 59 Сингулярность матрицы 85 Синтезирование фильтра 104 Система вполне наблюдаемая 22 - - - всюду 22 - - управляемая 32 - - - в интервале 32 - линейная с непрерывным време- нем 114 - наблюдаемая 75 - уравнений кратная 158 - - линейная 156 След квадратной матрицы 151 Соотношения двойственности 106 Состояние наблюдаемое 22 - управляемое в интервале 32 Стационарность 121
Сурье - Фадеева алгоритм 122, 163 Схема аналоговая следящего уст- ройства Луенбергера 20 - Фалька 154 Теорема Ито 144 - Пифагора 168 Управление адаптивное 107 - импульсное 36 - кусочно-постоянное 36 - стохастическое с дискретным вре- менем 111 Управляемость 6, 104 - систем с непрерывным временем 31 Уравнение Винера - Хопфа интег- ральное 47 -----матричное 88 - дифференциальное стохастическое 141 -----диффузионного типа 141 — Колмогорова диффузионное прямое 145 - Кушнера — Стратоновича 145 - Риккати матричное 116 - Фоккера - Планка 144 - характеристическое 160 Устройство следящее 108 Фалька схема 154 Фильтр адаптивный 107 — в контуре регулирования 110 Фильтр Винера 120 - - первого порядка 97 - Калмана 67 --оптимальный 58 - формирующий 129 Фильтрация в системах с после- действием 173 - - - - распределенными пара- метрами 183 - линейная 6 - нелинейная 138, 145, 185 - оптимальная линейная 47 - при вырожденной помехе 179 - стохастическая 6 - чистая 92 Фоккера - Планка уравнение 144 Форма билинейная 165 - жорданова нормальная 56, 164 - квадратичная 165 - положительно определенная 166 Холецкого алгоритм 23, 40, 68, 156 Число собственное 160 Шум белый гауссовский 140 - цветной 84 Экстраполяция 80, 88 Элемент матрицы 151 -главный 151 Якоби матрица 171
Карп Браммер, Герхард Зиффлинг ФИЛЬТР КАЛМАНА - БЬЮСИ М,, 1982 г., 200 стр. с илл. Редактор Д.С. Фурманов Технический редактор Н.В, Семенчинская Корректор Т. В. Обод ИБ № 11737 Подписано к печати 14.01.82, Формат 60x90 ^/16. Бумага типографская Печать офсетная. Усл.печ. п« 12,5 Уч.-изд. п. 13,59. Тираж 5800 эко. Тип. зак. 22 Цена 1р. 60 к. Издательство 'Наука* Главная редакция физико-математической литературы, Москва, В-71, Ленинский проспект, 15 4-я типография издательства 'Наука' 630077, Новосибирск, 77, ул. Станиславского, 25