/
Author: СтудИзба Тихонов В.И. Харисов В.Н.
Tags: общая радиотехника радиотехника статистика математический анализ математическая статистика
ISBN: 5-256-01701-2
Year: 2004
Text
УЧЕБНОЕ ПОСОБИЕ ДЛЯ ВУЗОВ
СТАТИСТИЧЕСКИМ
АНАЛИЗ И СИНТЕЗ
РАДИОТЕХНИЧЕСКИХ УСТРОЙСТВ И СИСТЕМ
|||№1 11№1!1ЕШ
РАДИО и СВЯЗЬ МЯО ГОРЯЧАЯ ЛИНИЯ - ТЕЛЕКОМ
К
УД|Го21.37+621.391.'519.216
|.|,К wwi ~ "
I 46
/’сцен и-нты: кафедра радиотехнических систем Московского энергетического
института, доктор техн, наук, проф. И.Н. Амиантов
Тихонов В. И., Харисов В. Н.
Г 46 Статистический анализ и синтез радиотехнических устройств и
систем: Учеб, пособие для вузов. - М.: Радио и связь, 2004. - 608 с.: ил.
ISBN 5-256-01701-2.
Приводятся необходимые сведения из теории вероятностей и на их
основе рассматриваются статистические методы анализа линейных систем и
нелинейных радиотехнических устройств. На единой базе теории
фильтрации экономно и единообразно изложены современные методы
синтеза аналоговых и цифровых радиотехнических систем различного
назначения, включая и адаптивные. Методика применения теоретических
результатов к решению практических задач проиллюстрирована
содержательными примерами.
Для студентов радиотехнических специальностей вузов, полезна
инженерам и аспирантам.
ББК 32.841
Учебное издание
Тихонов Василий Иванович
Харисов Владимир Назарович
СТАТИСТИЧЕСКИЙ АНАЛИЗ И СИНТЕЗ РАДИОТЕХНИЧЕСКИХ
УСТРОЙСТВ И СИСТЕМ
Учебное пособие
Редактор Т.М. Любимова
Корректор А.К. Акименкова
Обложка В.Г. Ситникова
Подписано в печать 15.11.2003. Формат 60x90/16. Бумага офс. Гарнитура Таймс.
Уел. печ. л. 37,24. Тираж 3000 экз. Изд. № 24424. Зак № 2247.
Oiiiciaiiiiio в ООО ПФ «Полиграфист», 160001. г. Вологда, ул. Челюскинцев. 3.
Качесии» нсчаш coo ruci с i нус г качеству предоставленных издательством диапозитивов.
ISBN 5-256-01701-2 © Тихонов В. И., Харисов В. Н., 2004
© Оформление издательства
«Горячая линия-Телеком», 2004
с у/ГХ
ПРЕДИСЛОВИЕ К 1-му ИЗДАНИЮ
В настоящее время изучению студентами вузов вероятностно-
статистических методов вполне оправданно отводится сравнительно много
времени как в самостоятельных общетеоретических, так и в специальных
учебных дисциплинах. Учебное пособие предназначено для студентов ра-
диотехнических специальностей вузов. Его цель — дать знания по совре-
менным вероятностно-статистическим методам анализа и синтеза аналого-
вых и цифровых радиоустройств и систем различного назначения, а также
привить практические навыки по разработке оптимальных алгоритмов
функционирования систем в условиях наличия помех и исследованию ка-
чества их работы моделированием на ЭВМ.
Книга состоит из двух разделов «Анализ устройств и систем» (гл.
1...5) и «Синтез систем» (гл. 6... 13). Каждый из них можно изучать само-
стоятельно, за исключением гл. 3 «Марковские случайные процессы», ма-
териал которой используется в обоих разделах.
В первом разделе основными являются гл. 3...5. Чтобы исключить
необходимость частого обращения к другим книгам, в гл. 1 и 2 приведены
необходимые сведения по случайным величинам и процессам. Во втором
разделе центральными являются гл. 7... 10.
Учебное пособие отличается от других аналогичных изданий, как по
содержанию, так и по методике изложения материала. В частности, широ-
ко использована теория марковских процессов и применен единый стати-
стический подход к решению разнообразных задач синтеза, базирующийся
на байесовской методологии и теории фильтрации случайных процессов.
Такой подход позволяет единообразно и экономно синтезировать аналого-
вые и дискретные системы различного назначения. Некоторые результаты,
включенные в книгу, являются новыми и оригинальными.
При написании пособия был учтен многолетний опыт преподава-
ния данной учебной дисциплины в Военно-воздушной инженерной акаде-
мии им. проф. Н.Е. Жуковского для аспирантов и инженеров.
Хотя в книге приведено много содержательных примеров, иллю-
стрирующих методику применения теоретических результатов, однако для
закрепления практических навыков самостоятельного решения конкретных
задач и самоконтроля рекомендуется учебное пособие: Горяйнов В.Т., Жу-
равлев А.Г., Тихонов В.И. Статистическая радиотехника. Примеры и зада-
чи (М.: Сов. радио, 1980)
В книге нумерация рисунков ведется по главам, а формул и при-
меров - по главам и параграфам: первая цифра указывает номер главы,
вторая - номер параграфа и третья - номер формулы или примера в пара-
«размножением» частных теорий и подходов, приводящих
к тому, что даже в рамках одной относительно узкой
тематики (например, оптимальный прием сигналов) специалисты
с трудом понимают друг друга. Думается, что продуктивнее
и проще освоить один основополагающий аппарат и методологию
исследования, чем несколько более простых, но частных методов.
Совершенствование элементной базы расширяет возможности
практической реализации оптимальных алгоритмов, следующих
из теории фильтрации. В связи с этим возможен переход от
квазиоптимальных алгоритмов к непосредственному моделирова-
нию уравнений оптимальной фильтрации и получению точных
результатов. Однако для нелинейных задач к настоящему времени
известно мало точных результатов и потребуется некоторое
время для их накопления.
Во многих практических ситуациях полные статистические
характеристики сигналов и помех, необходимые для решения
типовой задачи синтеза, неизвестны. Например, в настоящее
время для многих каналов распространения радиоволн отсут-
ствуют достоверные экспериментальные данные, что не позволяет
создавать модели сигналов на выходе таких каналов.
При неточных априорных сведениях о параметрах принима-
емого сигнала и помехах практически важным становится анализ
чувствительности алгоритмов к отклонениям параметров от
принятых при расчетах, а также разработка методов синтеза,
обеспечивающих малую чувствительность алгоритмов к парамет-
рам задачи (робастные методы).
В некоторых случаях предварительное определение статисти-
ческих характеристик сигналов и помех затруднено или невоз-
можно (например, при наличии преднамеренных помех). Неоп-
ределенность в априорных сведениях, возникающая в подобных
ситуациях, должна устраняться адаптивными методами. В послед-
ней главе книги эти методы сведены к обычным задачам
оптимального приема с большим числом оцениваемых парамет-
ров, что приводит к нежелательному усложнению системы.
Однако расширение возможностей практической реализации сни-
мает жесткие ограничения в этом отношении и обеспечивает
материально современную тенденцию развития и внедрения
методов адаптивного приема в практические системы.
8
Глава 1. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Приведем кратко основные определения и результаты, относящиеся
к одной или нескольким случайным величинам (сл. в.), которые
потребуются в дальнейшем. Подробное доказательство приводи-
мых результатов можно найти в прекрасном учебнике
Б. В. Гнеденко [1]ив многочисленных учебных пособиях по теории
вероятностей. Попутно будет рассмотрено несколько самостоятель-
ных примеров, представляющих интерес для приложений.
1.1. СЛУЧАЙНАЯ ВЕЛИЧИНА
1. Методы описания. Случайной величиной называется величина,
которая в результате опыта принимает то или иное значение, какое
именно — зависит от привходящих обстоятельств и заранее предска-
зано быть не может. Для задания сл. в. нужно указать, во-первых, ее
возможные значения и, во-вторых, установить в той или иной форме
зависимости между вероятностями этих возможных значений.
В зависимости от возможных значений сл. в. можно разделить
на дискретные (принимают только конечное или счетное множест-
во значений), непрерывные (принимают непрерывное множество
значений в некотором интервале) и дискретно-непрерывные, или
смешанные (принимают как отдельные дискретные значения, так
и непрерывное множество значений).
Для задания вероятностей возможных значений в теории
вероятностей применяют функции распределения вероятностей,
плотности вероятности (п. в.) и характеристические функции.
Приведем их определения.
Функция распределения вероятности F(x) сл. в. есть веро-
ятность того, что сл. в. принимает значение, меньшее чем
произвольное вещественное число х:
F(x) = P{L<x}. (1.1.1)
Любая функция распределения является неотрицательной неубы-
вающей, непрерывной слева и удовлетворяющей условиям
9
F(-oo) = 0, F(+oo)=l.
Справедливо и обратное утверждение: каждая функция, удовлет-
воряющая перечисленным условиям, может рассматриваться как
функция распределения некоторой сл. в. Зная функцию распределе-
ния, можно найти вероятность того, что сл. в. будет заключена
в полуинтервале Е, х2:
Р{хг ^^^x2}=F(x2)-F(x1).
Преимущество задания сл. в. с помощью функции распределе-
ния вероятностей состоит в однообразном математическом описа-
нии дискретных, непрерывных и смешанных сл. в. Однако функция
распределения дает описание сл. в. в мало наглядной, интеграль-
ной форме. Кроме "ого, хотя каждая сл. в. однозначно определяет
свою функцию распределения, однако существует много сл. в.,
имеющих одну и ту же функцию распределения. Например, если
сл. в. Е, принимает два значения — 1 и 1 с одинаковой вероят-
ностью 1/2, то отличная от нее сл.в. т| = Е,3 будет иметь ту
же функцию распределения, что и Е,.
Для полного и однозначного определения дискретной сл. в.
Е, , принимающей значения хк, /с=1, п, необходимо указать закон
распределения вероятностей, т. е. вероятности отдельных воз-
можных значений
рк = Р{^хк}. (1.1.2)
п
Очевидно, что рк^0 и £рк=1-
1
Приведем два конкретных закона распределения: биномиаль-
ный и пуассоновский. Первый из них возникает в часто
встречающейся задаче повторения в неизменных условиях одного
и того же опыта с двумя возможными исходами: «успех»
и «неудача». Пусть опыт повторяется п раз и в каждом из
них успех наступает с вероятностью р, а неудача — с вероятностью
q—\—p. Число успехов в п испытаниях есть дискретная сл.в.,
принимающая значения 0, 1, 2, ..., п. Вероятность р„(к) того,
что при п испытаниях успех наступит в к опытах, определяется
формулой Бернулли
ptt{k\=Ckpkq^k\ С^-^, к=О^г. (1.1.3)
Вероятность р„(к) равна коэффициенту при хк в разложении
бинома (q+px)n по степеням х. Поэтому совокупность вероят-
ностей называют биномиальным законом распределения вероят-
ностей.
Закон Пуассона имеет вид
p(fc) = (^/fc!)exp(-^). (1.1.4)
10
Он является предельным случаем биномиального закона (3),
когда при п -> оо произведение пр = 1 остается конечным. В ряде
практически важных задач (например, при рассмотрении случай-
ных потоков — пример 3.3.3) закон Пуассона выступает не как
асимптотическое, а как точное решение.
Для непрерывной сл. в. аналогом закона распределения яв-
ляется п.в. р\х), представляющая собой неотрицательную фун-
кцию, удовлетворяющую условию
p(x) = dF(x)/dx, F(x} = f p(y)dy. (1.1.5)
— оо
Плотность вероятности должна также удовлетворять следующим
условиям:
1) неотрицательна р (х) > 0;
□О
2) нормирована к единице J p(x)t/x=l;
— оо
3) вероятность попадания непрерывной сл. в. в полуинтервал
[xj, х2) равна интегралу от п.в. в этих пределах
P{xi ^^<x2} = f(x2)-F(x1)=f p(x)dx. (1.1.6)
Размерность п. в. обратна размерности сл. в.
Характер функций распределения и законов распределения (п. в.)
дискретной, непрерывной и смешанной сл.в. показан на рис. 1.1.
Известно много функций, удовлетворяющих перечисленным
выше условиям, которые можно рассматривать как п. в. сл. в.
[2]. Весьма разнообразный характер п.в. р(х) дает четырех-
параметрическое семейство кривых Пирсона, задаваемое диф-
ференциальным уравнением
а.) б) в)
Рис. 1.1. Характер функций распределения и законов распределения (п. в.) дискрет-
ной (а), непрерывной (б) и смешанной (в) сл. в.
11
c/.v + b i -V 4- b2 x
(1-1.7)
где а и ht — постоянные параметры распределения. В зависимости
от значений этих параметров в качестве решения дифференци-
ального уравнения получается 12 типов кривых.
Приведем здесь три примера п. в.: равномерную (прямоуголь-
ную), Коши и нормальную. Они определяются соответственно
выражениями
р(х)~ —а^х^Ь; р(х)=-—,— h > 0, — оо<х<оо;
f V / А . xr’ ’ Г ' f irh2_L y_y \2’
(1.1.8)
р(х) = N(х; т, D) = ехр
(х—/и)2
— со < х < оо. (1.1.9)
Нормальная п. в. определяется двумя параметрами: т — матема-
тическим ожиданием (м. о.) и D — дисперсией.
Непрерывная сл. в. описываемая нормальной п. в., называ-
ется гауссовской. Гауссовские сл. в. часто встречаются та практике
и играют особую роль сами по себе и в силу центральной
предельной теоремы теории вероятностей, физический смысл
которой сводится к следующему: п. в. суммы равномерно малых
(т. е. играющих примерно одинаковую роль) слагаемых при
неограниченном увеличении их числа сколь угодно близко
приближается к нормальной независимо от того, какие законы
распределения (и. в.) имеют эти слагаемые. Кроме того, из
гауссовских сл.в. с помощью надлежащих преобразований могут
быть сформированы сл.в. с другими п. в. (см. пример 1.1.1).
Функция распределения гауссовской сл. в. имеет вид
F(x) = Щу, т, О)с1у = Ф
(1.1.10)
где
(1.1.11)
— интеграл вероятности. Он и его первые производные подробно
табулированы. Графики нормальной п. в. (9) и функции рас-
пределения (10) приведены на рис. 1.2. Для гауссовской сл.в.
формула (6) принимает вид
Р{х1 ^^х2} = Г(х2)-Г(х1) = Ф -Ф . (1.1.12)
12
Вместо закона распределения
(п. в.) для описания сл. в. (часто
с целью упрощения некоторых
вычислений) используют харак-
теристическую функцию. Она
представляет собой м. о. сл. в.
exp(j9^) или, что то же самое,
преобразование Фурье от закона
распределения (п. в.)
Ф (j9) = M{exp(j9£,)} =
=J ехр( j9x}p{x)dx. (1.1.13)
— со
При этом по формуле обращения
имеем
Рис. 1.2. Нормальная п. в. и функция
распределения
д (х)=-
' V > 2л
exp (— j 9 х) Ф (j 9) d9.
(1.1.14)
— со
Характеристическая функция вещественной сл. в. непрерывна
по 9 и обладает свойствами
|Ф (j9)| ^Ф(0)=1, Ф (—j9) = Ф* (j 9),
где звездочкой обозначена комплексно-сопряженная функция. Для
гауссовской сл. в.
Ф (j 9) = ехр(jm9—Z>92/2). (1.1.15)
Итак, для полного описания сл. в. можно равноправно ис-
пользовать функции распределения вероятностей, законы рас-
пределения (п. в.) и характеристические функции.
2. Числовые характеристики. В некоторых задачах можно
ограничиться рассмотрением более простых, но менее полных
характеристик сл. в. В качестве таких характеристик обычно
используют моменты и кумулянты. Приведем их определение.
Под математическим ожиданием (м.о.) функции ф(^) сл.в.
с п. в. д(х) понимают интеграл
00
М{ф(^)} = f <p(x)p(x)tZx.
— 00
(1.1.16)
Здесь и в дальнейшем символ М {•} обозначает операцию
м. о. над величиной, указанной в фигурных скобках. Сама
операция м. о. по существу есть осреднение рассматриваемой
величины с соответствующей п. в. В частности, при ф (£,) = £,
и ф (£,) = (£, — т)2 имеем
13
оо
ти = М{Ц= J xp(x)dx, (1.1.17)
— оо
co
Z) = M{(^—/и)2}= f (x—m)zp(x)dx. (1.1.18)
Величину m называют математическим ожиданием сл. в. Е,,
a D — дисперсией сл.в.
Перечислим основные свойства м. о.: 1) м. о. т имеет раз-
мерность самой сл.в. Е,; 2) м.о. неслучайной величины равно
этой величине; 3) м. о. сл. в. Е,, имеющей симметричную п. в.
относительно прямой х = а, равно т = а\ 4) неслучайную величину
можно выносить за знак м. о.
Дисперсия характеризует степень концентрации п.в. р(х)
в окрестности м. о. и имеет следующие свойства: 1) дисперсия
имеет размерность квадрата сл. в.; 2) она неотрицательна: D > О,
причем Z> = 0 тогда, и только тогда, когда Е, = с = const; 3) неслучай-
ную величину можно выносить за знак дисперсии, возведя ее
в квадрат: Dci = c2D^ 4) прибавление постоянной величины к сл.в.
не изменяет дисперсии последней: Dc+^ = D^; 5) дисперсия харак-
теризует меру рассеяния (разброса) значений сл.в. относительно
м. о., что следует из неравенства П. Л. Чебышева
^е} «СП/е2, (1.1.19)
где е>0 — произвольное положительное число.
Из формулы (17) следует, что если интерпретировать р(х) как
плотность массы, распределенной вдоль оси х, то м. о. т есть
абсцисса центра этой массы. Иначе говоря, м. о. характеризует
расположение «центра» закона распределения р(х). Можно ввести
еще две характеристики такого рода, а именно медиану хе и моду
хт. Медиана есть такое значение хе, которое делит площадь под п. в.
пополам, т. е. медиана есть любой корень уравнения F(xe) = 0,5. Она
может быть неоднозначно определенной. Если существует интервал
(а, Р), на котором F(x) = 0,5, то любая точка этого интервала может
быть медианой. Иногда рассматривают квантили. Квантиль
порядка р есть корень уравнения F(E,p)=p, где р — некоторое данное
число, 0<р<1. Медиана есть квантиль порядка 1/2: хе = Е,1/2.
Мода является третьей характеристикой расположения «центра»
закона распределения. Модой непрерывной сл. в. называется любая
точка хт максимума п. в. Если п. в. имеет один максимум, то она
называется унимодальной. При наличии двух или более максимумов
п. в. называется бимодальной или мультимодальной. Если для
дискретной сл. в. возможные значения х; расположены в порядке
возрастания, то точка xv называется модой, если pv > pv. t и pv > pv+ j.
Соотношения между м. о. т, медианой хе и модой хт
показаны на рис. 1.3. М.о. «чувствительно» к «хвостам» закона
распределения (п. в.), медиана менее чувствительна к ним, а на
14
Р(х).\
О Хтхет хт т хг. т хехт х
Рис, 1.3. Различные соотношения между м. о. т. медианой хе и модой хт
моду крайние значения вообще не влияют. Для унимодального
и симметричного закона распределения все три показателя
совпадают. В случае асимметричных и мультимодальных распре-
делений они не совпадают. П. в. имеют положительную (отрица-
тельную) асимметрию, если мода предшествует медиане (следует
за медианой). При этом большая часть распределения находится
справа (слева), а более крутой спад—слева (справа) от моды.
Применим формулу (16) к частному случаю степенной функции
ф = (£, —c)v, где c = const, v = 0, 1, 2, ... Получающиеся при этом числа
называют моментами v-го порядка сл. в. относительно постоян-
ной с. При с = 0 моменты называют начальными и обозначают mv,
а при с = т моменты называют центральными и обозначают pv:
mv = M{£/} = [ xv p(x)dx, mQ—\, тг=т, (1.1.20)
00
pv = M{(^—m)v}= J (x — m)v p(x)dx. (1.1.21)
Кроме этих моментов рассматривают также абсолютные началь-
ные и центральные моменты
со
M{|£,|v}= f \x\vp(x)dx,
М{|^—m|v}= j |x—m\vp(x)dx.
— co
(1.1.22)
(1.1.23)
Для дискретных сл.в. в формулах (20)...(23) вместо интегралов
будут соответствующие суммы.
Пользуясь формулой бинома Ньютона и свойствами м. о.,
начальные моменты можно выразить через центральные и на-
оборот. В частности,
ц0=1, pi1=0, ii2 = D = m2 — m2, ц3 = т3 — Зтт2 + 2т2,
li4 = m4. — 4m3m + 6m2m2 — 3m4.
Для гауссовской сл.в.
( 1 • 3 • 5...(v—1)Z)V'2 при v четном, ,, ,
u=5n v (1.1.24)
v 1 0 при v нечетном, v
15
тп0=1,т1~т, m2 = D+m2, m}=3mD+m3,
m4 = 3D2 + 6m2D + m4. ’ (1.1.25)
Возвратимся к формулам (17) и (18) и покажем особую роль
м. о. и дисперсии. Пусть нужно получить такую оценку Е, сл. в.
Е, которая минимизирует средний квадрат ошибки:
Smin = м{((;-с,)2} = f (x-ty2p(x)dx.
— GO
Приравняв производную по Е, нулю, находим
А
£>=т = f xp(x)dx, E2in = Z>.
Следовательно, м. о. является наилучшей оценкой сл. в. по
критерию минимума среднего квадрата ошибки, причем мини-
мальное значение этой ошибки равно дисперсии.
3, Восстановление плотности вероятности по моментам. До сих
пор говорилось о вычислении моментов (если они существуют)
по известному закону распределения (п. в.). Можно указать п. в.,
для которых моменты не существуют (например, п. в. Коши (8)
не имеет моменты порядка v 2). Однако часто возникает
обратная задача (проблема моментов): нельзя ли по известным
моментам однозначно восстановить п. в. Во многих случаях
ответ на данный вопрос является в принципе положительным.
Пусть mv, v=l, 2, ..., есть моменты некоторой функции
распределения, каждый из которых конечен. Предположим, что
ряд 2yHv.9v/v! абсолютно сходится при некотором .9 > 0. Тогда
F(x') есть единственная функция распределения, обладающая
моментами mv, v=l, 2, ...
Допустим, что моменты существуют и однозначно определяют
закон распределения (п. в.). Укажем конкретный путь получения
закона распределения (п. в.).
Заметим, что моменты mv можно определить не только
формулой (20), включающей интегрирование п. в., но и более
легким путем — дифференцированием характеристической функ-
ции. Разлагая экспоненту в выражении (13) в ряд Маклорена
и беря затем м. о. от каждого слагаемого, получаем
Г К V ’£*
ф(]»)=м Е 5 Щ)' ->+ Е V(W. (1.1.26)
(. v = 0 ’ J v= 1
где
Если интересующие нас моменты существуют, то формула
(27) дает простой способ их вычисления путем дифференцирования
16
характеристической функции. При указанном выше условии
справедливо и обратное, а именно: по моментам с той или
иной точностью можно восстановить характеристическую функ-
цию. Зная ее, находим п.в. по формуле (14).
Часто более результативным оказывается несколько другой
путь определения характеристической функции, базирующийся на
разложении в ряд Маклорена не самой характеристической
функции, а ее логарифма:
Правая часть этого выражения представляет собой многочлен
относительно j9. Совершая перестановки слагаемых в этом
многочлене, его можно представить в виде следующего ряда:
1пФ()Э)= I (1.1.28)
v= 1 '•
или
Ф (j 9) = exp
= exp(jm9-|p32) f (j,9)v, (1.1.29)
Z v = 3 V!
где
у _j-y tfvln<P(j9)
(1.1.30)
Коэффициенты xv называются кумулянтами v-го порядка.
Очевидно, что кумулянт xv есть полином от моментов т1, ...
..., mv и, наоборот, момент mv есть полином от кумулянтов
xt, ..., xv. Приравнивая коэффициенты при одинаковых степенях
j 9, получаем
х1=т, v.2 = m2 — m?- = p2=D,
x3 = m3 —3m2m + 2m3 = p3, (1.1.31)
х4 = т4 — 3m 2 — 4m3m +11т2т2 — 6т4 = ц4 — 3 р2 •
Первый кумулянт х4 совпадает с м. о. т, второй х2— с дисперсией
D. Не останавливаясь на других кумулянтах более высокого
порядка, укажем, что отношения
Т1=Х3Х2~3/2 = Из/И2/2, Y2 = X4X“22=(g4/ll2)-3 (1.1.32)
называют соответственно коэффициентами асимметрии и эксцесса.
Они характеризуют наиболее существенные отклонения харак-
17
Рис. 1.4. Соотношения между различными характеристиками
теристической функции (29) от нормальной характеристической
функции (15), причем Yi—-асимметрию, а у2—сглаженность и. в.
относительно м. о.
Отметим, что кумулянты не совпадают с центральными
моментами. Как видно из (31), расхождение между ними
начинается с х4.
Итак, моменты однозначно выражаются через кумулянты.
При определенных условиях по моментам или кумулянтам можно
восстановить характеристическую функцию и, следовательно, п. в.
Поэтому как моменты, так и кумулянты можно использовать
для описания сл. в. Соотношения между различными харак-
теристиками сл.в. наглядно показаны на рис. 1.4.
Изложенный общий путь определения п. в. по моментам
(кумулянтам) является довольно сложным и трудоемким; он
предполагает знание высших моментов (кумулянтов). Его не
следует рассматривать как единственно возможный. Есть и другие
подходы. Например, можно ориентироваться на семейство кривых
Пирсона (7). При этом для определения входящих в него четырех
параметров нужно знать лишь первые четыре момента. Укажем
еще один часто применяемый метод—аппроксимацию п. в. с по-
мощью полиномов Эрмита.
Во многих практических задачах приходится иметь дело
с п. в. />! (х), не очень сильно отличающимися по виду от
нормальной п. в. (9). Характерные особенности таких функций
р, (х) состоят в следующем: 1) они являются унимодальными;
18
2) по обе стороны от вершины имеют ветви, достаточно быстро
приближающиеся к нулю при возрастании абсолютного значения
аргумента. Такие п. в. можно представить в виде ряда
Л(х)=ЖЕ L^h(x^-\ v = (1.1.33)
л = 0 7 X /
где р(х)— нормальная п. в. с нулевым м. о.; Н„(х) — полиномы
Эрмита:
Я„ (х)==( — l)"exp(x?72)(Z"[exp( —х2/2)]/б/л'и, Но = 1,
п=\, 2, 3, ... (1.1.34)
Так как полиномы Эрмита ортогональны с весом ехр( —х2/2), то
оо
/ Х'2\ /--
( -у I dx=n\5mny/2 л
и! у 2л, т = п,
О т^п.
Поэтому коэффициенты Ьп, называемые квазимоментами, опре-
деляются формулой
6 =ст‘
х — т \ , rr / — т
---- dx = $M < Н„ -—
(1.1.35)
Плотности вероятности (33) соответствует характеристическая
функция
1 w I А
®i(j^) = exp jm3+2 (а!))2 £ ^(_j9)«.
_ _| п = О
Разложив экспоненту в ряд Тейлора, выполнив умножение и сравнив
результат с рядом (26), составленным из моментов, можно убедиться,
что моменты линейно выражаются через квазимоменты и наоборот.
Практически функцию рг (х) нужно знать с некоторой конечной
точностью. Поэтому можно взять конечную сумму членов ряда,
причем число слагаемых N будет зависеть от требуемой точности
и от выбора величин т и ст2 = Р. В большинстве практических
случаев наилучшее приближение при заданном N будет тогда,
когда т и D выбраны равными м. о. т и дисперсии D сл. в.
с, и разложение ведется по полиномам Нп ------ .
Если т и D выбраны таким образом, то 60 = 1, Ь1 = 0, Ь2 = 0.
В этом можно убедиться, воспользовавшись формулой (35)
и выражениями для первых четырех полиномов Эрмита
Я0(х)=1, Ях(х) = х, Я2(х) = х2-1,
H3(x) = x3-3x, Я4(х) = х4-6х2-3.
19
Если в (33) ограничиться конечным числом членов ряда, то
получим ряд Эджворта
(1.1.36)
Здесь первый член соответствует нормальной п.в. Следовательно,
для нормальной и. в. все квазимоменты при п 3 равны нулю
(/>,, = 0). Первые два коэффициента ряда у1=/)3/сг3 и у2 = ^4/сг4,
характеризующие наиболее существенные отклонения рассмат-
риваемой п.в. Pi (х) от нормальной р(х), называются коэффици-
ентами асимметрии и эксцесса соответственно:
__ _ Нз ____ Z3 _ ^4 __ Ш ____о __ И4
(1.1.37)
Как указывает само название, коэффициент асимметрии яв-
ляется количественной характеристикой асимметрии п. в. от-
носительно м. о. Коэффициент эксцесса характеризует сглажен-
ность кривой около м. о.
На практике при аппроксимации п. в., не очень сильно
отличающихся от нормальной, часто ограничиваются учетом
только коэффициентов асимметрии и эксцесса. При этом
/h(x)^(x)
(1.1.38)
Для применения такой аппроксимации нужно тем или иным
способом определить м. о. т, дисперсию D = <y2, третий и чет-
вертый моменты сл. в. ф
Следует иметь в виду, что при такой аппроксимации может
незначительно нарушаться свойство положительной определен-
ности для п.в.: при больших значениях |х| аппроксимирующая
кривая может принимать отрицательные значения. Это является
следствием приближенного характера формулы (38).
Заметим, что сл. в. с разными законами распределения (п. в.)
могут иметь одинаковые м. о., дисперсии и другие характеристики
(например, равномерная (8) и нормальная (9) п. в. при
a = m~3Djm и b = m + 3D/т имеют совпадающие м. о. и дис-
персии). В связи с этим иногда в качестве числовой харак-
теристики сл. в. указывают энтропию. Энтропия дискретной
и непрерывной сл. в. определяется соответственно формулами
#(£)=-Л > Н(^)= - J p(x)log/2(x)t/x, (1.1.39)
k=l -оо
где логарифм можно брать при любом основании. Содержание
этого понятия и его продуктивное использование раскрываются
в теории информации.
20
4. Преобразование сл.в. Пусть сл.в. Е, с известной п.в. pjy:}
подвергается преобразованию n=g(E,), где g(x)— однозначная
детерминированная функция, и нужно найти моменты и п. в.
/\(yj преобразованной сл.в. т| [2].
Воспользовавшись формулой (16), находим начальные и цен-
тральные моменты
M{r|v} = M{gv(Q}= J gv(x)p^(x)dx, отл = М{т|}, (1.1.40)
M{(B-wn)v} = M{[g(Q-/nJv}= J [g(x)-mn]vpjx)t/x. (1.1.41)
— co
При вычислении п.в. рц(у) учтем, что сл.в. 2, и г, связаны
однозначной детерминированной зависимостью. Поэтому из того
факта, что полученное значение сл. в. Е, заключено в интервале
[х, х + г/х], достоверно следует, что величина т| будет находиться
в интервале [у, y+dy], где y=g(x), dy = g' (x)dx (рис. 1.5, а).
Отсюда следует, что вероятности этих двух событий равны,
т. е. должно выполняться свойство инвариантности дифференци-
ала вероятности:
Pn(y)dy=pi(x)dx (1.1.42)
или
P^y)=Pdx)\dx/dy\=Pdh(y))\ld(yK (1.1.43)
где х = /г(у). Заметим, что при dx>Q дифференциал dy>0, когда
функция g(x) возрастающая, и dy<0, когда функция g(x)
убывающая. Поскольку вероятность и п. в. не могут быть
отрицательными, то в формулы (42) и (43) нужно подставлять
модули.
Более сложным является случай, когда обратная функция
Е, = /г(р) неоднозначна, т. е. одному значению у соответствует
” имеются две ветви обратной
несколько значении
0 %
а)
Рис. 1.5. Взаимно однозначное (о)
двузначное (б) преобразования
и
21
функции /jj (у) И Л2(у) (рис. 1.5,6). В данном случае выполнение
неравенства
у < л < у + dy (1.1.44)
обеспечивается двумя несовместными возможностями
«С Е, < Л'! 4-J.V! или х2 +dx2 < Е, < х2. (1.1.45)
Поэтому вероятность выполнения неравенства (44) должна ра-
вняться сумме вероятностей выполнения каждого из неравенств
(45):
/% (у) dy = р Jx,) dx j + р Jx2) | dx 21.
Выразив в правой части х через у, окончательно получим
Рц (у)=Рd11 i (-v)) ।Л i (। +Pdh2 (.У)) Ih 2 (>’)I• (1.1.46)
Если имеется большее число ветвей обратной функции, то
в правой части формулы (46) следует брать сумму по всем
ветвям. С учетом этого формула (46) будет давать правило
преобразования п. в. при функциональных преобразованиях не-
прерывных и дискретных сл. в. Отметим что при неоднозначном
или вырожденном преобразовании y=g(x) нарушается однознач-
ное соответствие между п.в. сл.в. Е, и q: по известной п. в.
рп(у) нельзя однозначно определить п. в. р^(х).
Пример 1.1.1. Преобразование п. в. в заданную. Непрерывная сл. в. Е, имеет
в интервале [а. /?] равномерную п. в. р^(х). Найти преобразование y = g(x),
трансформирующее эту и. в. в заданную рп(у).
На основании (42) имеем
^(т)4т = б7л-/(/7-а)
ИЛИ
x=c+(b-a) j pn(u)du = c+(b-a)F4(y),
— со
где Л, (у)-функция распределения сл. в. ту с — константа. Так как для любой
функции распределения выполняются равенства Ел(— оо) = 0. Еп(оо)= 1, то с —а. При
этом возможные значения Е, будут заключены в интервале [а, /?]. Следовательно,
Т„(у) = (.г-«)/(6-а) и y=g(x) = F-^~^ (1.1.47)
где F~1 (у)—функция, обратная Fq(y).
Нетрудно убедиться, что с помощью преобразования
y = c + (6-fl)Fj(%) (1.1.48)
непрерывная сл. в. с заданной функцией распределения F(x} преобразуется
в сл. в. равномерно распределенную в интервале [п, />].
Следовательно, всякая непрерывная и. в. в принципе может
быть преобразована в любую другую.
22
Пример 1.1.2. П. в. гармонического колебания с равномерно распределенной
случайной фазой. Рассмотрим ансамбль синусоидальных колебаний, имеющих
одинаковую амплитуду Ао и частоту соо, но случайные начальные фазы
.ф)=я(ф) = Л0ып(о>0/ + ф), Ло>0. (1.1.49)
Предполагая известной п. в. дф(ф) для ф, нужно найти п. в. ps(x) для сл. в.
5 в некоторый фиксированный момент времени /.
Особенность данного примера состоит в том, что при |,s(/)|<J0 уравнение
л-=Л0 sin(o)oZ + <p) относительно <р имеет бесконечное число решений
<p„ = arcsin(A-/Л,,) — a>ot, п=.... —1, 0, 1,... Так как £'(<р„) = Л0 cos(co0r+ ф„) =
= ±(-4 о — s2)112, то по формуле типа (46) получим
ps(x)=(Al-x2)~112 Y />ф(ф„), |х|<Л0.
и = — ОС
При |s|>Ао уравнение не имеет решений и поэтому ps(x) = 0.
Рассмотрим частный случай, когда случайная начальная фаза распределена
равномерно в интервале [ — л, л]:
рф(ф)=1/2л, |ф|Ся.
В данном случае уравнение в интервале [ — л, л] имеет только два решения,
причем для каждого из них рф(ф)=1/2л. Поэтому
рЛПНлЛохЛ-(х/Ао)2 ] |х-|<
Пример 1.1.3. Кусочно-линейные
преобразования. В качестве частного
примера кусочно-линейного преобра-
зования рассмотрим ограничитель,
имеющий характеристику (рис. 1.6)
{— b при — Ь.
при —р<£,<а,
а при Е,>а.
(1.1.51)
На интервале [ — Ь, а] данное пре-
образование является линейным:
v = .S'.v. Поэтому в этом интервале
-Ь<у<а.
т. е. п. в. для г] по виду совпадает
с п. в. для Е,. Вероятности того, что
г) < — b или т]>а, равны нулю. Все
значения х, для которых Е,>а, преоб-
разуются ограничителем в одно значе-
ние у=а. Аналогично все значения
х $ — b преобразуются в значение
у=—Ь. Следовательно, вероятности
Рис. 1.6. Преобразование плотности ве-
роятности ограничителем
23
Рис. 1.7. Квантование непре-
рывной сл. в.
Рис. 1.8. Алгоритм вычитания
со - р
P> = f Р;(а'Ь/л'- Р2= I Pi(x)dx
а - со .
преобразуются для р в дельта-функции, расположенные соответственно в точках
г = а и у= — Ь. П. в. сл.в. на выходе ограничителя имеет вид
Pn(p)=pJpl'V)/.v + Pi8(p-«)+p250' + Z»),
(1.1.52)
и равна нулю при у<— b и у>а.
Если на вход ограничителя воздействует непрерывная сл. в. (например,
нормальная - рис. 1.6), то на выходе ограничителя в общем случае получится
смешанная сл. в. Т], которая принимает непрерывное значение в интервале (—Ь, а)
и два дискретных значения y——h, а, соответственно с вероятностями р2 и р,.
Очевидно, что для идеального несмещенного ограничителя, имеющего
характеристику
{— b при Е, < О,
О при £ = 0,
а при ^>0,
выходная величина Г| является дискретной с п. в.
/'ч Ь’)=Р16 (г - а)+Р2 8 (>’ + ь),
где вероятности р} и р2 определяются предыдущими выражениями, в которых
нужно положить а = Р = 0.
Пусть сл. в. Е, подвергается квантованию, причем нелинейная характеристика
квантующего устройства имеет лестничный вид (рис. 1.7):
11=g(^) = nA, пД^<(л+1)Д, (1.1.53)
где п —целое число и Д — постоянный шаг квантования.
В результате квантования получится дискретная сл. в. г), принимающая
значения у = иД с вероятностями
Р{П=/гД}=Р{/гД^^<(и+1)Д} = ^((п+1)Д)-^(«Д), (1.1.54)
где 7^(х)—функция распределения сл. в.
24
Функция распределения имеет вид лестницы, высота ступенек в точках
нА определяется последним выражением, а соответствующая п. в. представляет
собой последовательность эквидистантных дельта-функций.
1.2. МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ
ВЕЛИЧИН НА ЭВМ
Приведем справочные сведения по алгоритмам моделирования
некоторых непрерывных и дискретных сл. в.1. При отборе ал-
горитмов отдавалось предпочтение их простоте.
Моделированием сл. в. называют процесс получения на ЭВМ
последовательности ее выборочных значений. Сл. в. обычно
моделируют с помощью преобразований одного или нескольких
независимых значений сл. в., равномерно распределенных в ин-
тервале (0; 1). Обозначим независимые сл. в., равномерно рас-
пределенные в (0; 1), через а с различными индексами: at,
a2, ..., оц, ... В системе математического обеспечения практически
любой ЭВМ имеется стандартная подпрограмма моделирования
a—«датчик» реализации псевдослучайной величины с равномер-
ным распределением на интервале (0; 1).
Стандартным методом моделирования непрерывной сл. в.
Е, с функцией распределения F(x), когда существует обратная
к ней F-1(x), является использование алгоритма вида (1.1.47):
= (1.2.1)
Этот алгоритм можно использовать в тех случаях, когда
существует аналитическое выражение для F"1^) либо в мате-
матическом обеспечении имеется стандартная процедура, вычис-
ляющая эту функцию.
Для дискретной сл. в. Е, с законом распределения рк = Р {L, = xk},
к = 0, 1, 2, ..., универсальный алгоритм реализует «метод вычита-
ния» (рис. 1.8). Реализация этого алгоритма предполагает наличие
в памяти ЭВМ всего набора чисел рк, А' = 0, 1, 2, ...
Ниже приведены алгоритмы моделирования наиболее рас-
пространенных непрерывных и дискретных распределений.
Нормальное распределение
р(х)=--(2л) 1/2 ехр( — х2/2), хе(—оо, оо). (1.2.2)
Алгоритм А1. _______
0. Зарезервирована константа с = 2л. 1. 7? = ^/ —21П0Н. 2. ср = са2.
3. Ul=7?cos(p, U2 = 7?sin(p.
Алгоритм А2.
1. VI =2^-1, У2 = 2а7 —1. 2. х = (VI)2 + (V2)2. 3. Если 1, вер-
нуться к п. 1. 4. R = ^/ — (21n.y)/s. 5. U1=V17?, U2 = V2F.
1 Ермаков С. М., Михайлов Г. А. Статистическое моделирование. М.: Наука,
1982.- 296 с.
25
Оба алгоритма реализуют «метод полярных координат».
Чаще всего алгоритм А2 более эффективен.
Для моделирования нормального распределения с парамет-
рами т и о = у/15 преобразуем [7;: 0)=т + о0';,
Логнормальное распределение
I \ 1 ( Г1п(х//и)]2] „ А А .
р(х)=-----=ехр<— -—-—т>0, сг>0. (1.2.3)
ха^/Зл I 2а J
Алгоритм В1.
1. х = и (используя А2). 2. И=техр(сгх).
Здесь и — стандартное нормальное число.
Экспоненциальное распределение
р(х) = Аехр(— Хх), А>0, х>0. (1.2.4)
Алгоритм С1.
1. Е,= —(In а)/А.
Алгоритм С2.
1. Получить а2, «з- 2. 5 = 1п(а1а2). 3. V\ = — a3s, Е2 = (а3 —l)s.
Алгоритм СЗ.
1. Получить Mj, а2, «з, а5. 2. Отсортировать
(а4, а5)->(а4, а'5), причем (Х5ХХ4. 3. $= — In (а, 7.2а3). 4. х,=7.4,
х2 = а'5 — «4, х3 = 1—а'5. 5. Vl=xp, V2 — x2s, V3 = x3s.
Эффективность этих трех алгоритмов зависит от соотношения
трудоемкости операции In (•) и получения а; она может быть
определена экспериментально для каждой ЭВМ.
Равномерное распределение
р(х)— 1 /(Ь — а), хе(а, Ь).
Алгоритм D1.
1. = « + (/? — а)а.
Распределение хи-квадрат
p(x) = x<v-2)/2 ехр( —x2/2)/(2v/2r(v/2)), х^О,
(1.2.5)
(1.2.6)
где v — положительное целое «число степеней свободы».
Алгоритм Е1.
Для четных v: 1. Сгенерировать а0, ..., оц,/2-1 •
Для нечетных v: 1. Сгенерировать а0,
= — 21п( а;| + п2, где и—нормально распределенное число.
\ 1 = 0 /
(v/2 - 1 \
П а< )•
av/2-1- 2. V=
Гамма-распределение
р(х)-(х/Ь)с~1 ехр( — х/Ь)/ЬГ(с), х^О,
(1-2.7)
26
где b — параметр масштаба (Л»>0); с — параметр формы (с>0).
Алгоритм F1.
0. Константа е>0 (малое машиннозависимое число, для кото-
рого обязательно 1,0 — £< 1,0). 1. v = [cj (целая часть), с1=с — v,
VI = 0, V2 = 0. 2. Если с1<£, то перейти к п.8; если 1 — с 1 <е,
то v = v +1 и перейти к п.8. 3. Получить av+1, av + 2. 4. 51 = a*/+‘],
= a*(!V'cl). 5. .v = .vl+5?. 6. Если S]>1, то перейти к п.З.
(V \
П / '
Ю. V = /7(V1 + V2).
Бета-распределение
p(x) = xv~ 1 (1 —x)p l /B(v, ц), хе[0, 1], v>0, ц>0, (1.2.8)
1
где В (у, p) = f tv' (1 — l dt — бета-функция,
о
Алгоритм G1.
1. С помощью алгоритма F1 получить VI с параметрами Л=1,
c = v. 2. С помощью F1 получить V2 с параметрами Ь=\, с = ц.
3. ₽ = VI /(V1+V2).
Алгоритм G2.
1. Получить 7.,, а2. 2. 51=a}/v, 52 = а2/р- 3. 5 = ^1+л2, если .?>1,
перейти к п.1. 4. р = .?1/5.
Распределение Вейбулла
р(х) = (схс~1 /6с)ехр[-(х/6)с], с>0, (?>0, х>0. (1.2.9)
Алгоритм НЕ
1. w 1 =b(-In а)1/с.
Распределение Накагами
Л2”" ' exp( -^'x2j, х>0, (1.2.10)
где т — параметр формы; ст — параметр масштаба.
Алгоритм Q1.
1. С помощью алгоритма F1 получить V с параметрами с = т,
b=\. 1. W=o^V/m.
Распределение Райса
р(х) = ^ехр(-^±^70(^, х>0, (1.2.11)
где а—параметр «нецентральное™» (а>0); ст — параметр мас-
штаба.
Алгоритм R1.
1. Используя А2, получить Ul, U2. 2. Л = (а + сти1 )2 + (ctU2)2.
27
Треугольное распределение (Симпсона)
Г 4 (х-«)/(/? —а)2, хе(а, (а + 6)/2),
р(х) = < 4(Ь — л-)/(Л — а)2, хе((<7 + 6)/2, Л), (1.2.12)
I 0 , хф\а, Ь).
Алгоритм S1.
1. Получить ocj, а2. 2. z\ =a/2 + a1(b — a)/2, z2 = a/2 + a2{b~a')/2.
3. s = zl + z2.
Распределение Бернулли
Р {Д = к}=кр + (1 —k)q, fc = 0,l; q=1—p. (1.2.13)
Алгоритм XI.
1. Получить а. 2. Если п<р, то £,= 1; иначе £, = 0.
Биномиальное распределение
P^ = k} = Cl)tpliqn~li, к = 0, 1, 2,..., п. (1.2.14)
Алгоритм Y1.
1. К=а, k = Q, Pl =qn. 2. V = V —Pl. 3. Если V<0, перейти к п.6.
4. Pl =Р1 (zz — к)р/(к +1)</. 5. к —к + 1, перейти к п.2. 6. Е, = к.
Алгоритм Y2.
1. 5 = 0, к=1. 2. Получить а.к. 3. Если ак<р, то 5 = 5+1.
4. к — к +1. 5. Если к + п, перейти к п.2. 6. ^ = 5.
Алгоритм Y3 (для малых р).
1. к=0. L = 0. 2. Получить ак. 3. £ = £ + (1п оц/1пд+1), А- = Х+1.
4. Если L + n, перейти к п.2. 5. £, = А'—1.
Дискретное равномерное распределение
P{i=k}=1 fn, к=1,2,...,п. (1.2.15)
Алгоритм Z1.
1. Получить а. 2. ^ = [1+ап].
Распределение Пуассона
p{^ = £} = (V/X!)exp(-X), /< = 0, 1, ... (1.2.16)
Алгоритм VI (для малых X).
1. р = ехр( —X), к= — 1, 5 = 0. 2. к —к+1, s = sak. 3. Если s>p,
перейти к и. 2. 4. £, = £.
Алгоритм V2 (приближенный для Х»П.
1. Получить U, используя А2. 2. £ = [67Дк + X].
1.3. МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
1. Методы описания. Пусть многомерная сл. в. или сл. вектор
имеет составляющие или проекции £,2, Каждая из
скалярных величин (проекций) i=1,n, может принадлежать
28
к одной из трех ранее указанных групп: дискретной, непрерывной
или непрерывно-дискретной. Для описания вектора Е, нужно
указать область возможных значений, принимаемых вектором,
и в той или иной форме задать вероятности этих значений.
Для этого используют обобщения тех характеристик, которые
приведены в § 1.1 для скалярной сл. в.
Универсальной характеристикой, пригодной для описания
векторной сл. в. любого типа, является функция распределения
вероятностей
F„(x) = F„(x15 х2, ..., x„)=F{^1<x1, £,2<х2, ..., £„<х„} =
= f ... J р„(щ, ..., u„)dui ...dun. (1.3.1)
Перечислим основные функции распределения сл. вектора:
1. Функция распределения F„(x)->0, когда хотя бы одна
координата вектора х стремится к — оо, и F„(x)->1, когда все
координаты вектора х стремятся к +оо.
2. Функция распределения F„(x) является неубывающей и не-
прерывной слева функцией по каждой из координат вектора х.
3. F„(x1; ..., X,-!, СО, Х; + 1, ..., Xn^F,,-!^!, ..., X.-J, х,+ 1, ..., х„).
Плотностью вероятности рл(х)=р„(х1, х2, ..., х„) случайного
вектора } или совместной п.в. сл. в. Е,15 ^2, ..., ^„
называют предел отношения вероятности попадания случайной
точки в бесконечно малый многомерный параллелепипед со
сторонами Ax15 Ах2. ..., Ах„ к объему этого параллелепипеда
при стягивании его в точку (х15 х2, ..., х„):
P„(x)=pn(x!, ...,
х„)= lim
Р(х1^1«Гл-1+Лх1,
х« + Ах,, ]
A.Vi Ал,... Дл„
_а"г„(л-1,...,х„)^ ’ (132)
СХх...СХ„
Плотности вероятностей должны удовлетворять следующим че-
тырем условиям:
1) условию неотрицательности
p„(xt, х2, ..., х„)>0; (1.3.3)
2) условию нормировки
00 оо
J ... J р„(х15 х2, ..., x„)tZx1</x2...t/xn = l; (1.3.4)
— 00 — ОС
3) условию симметрии — функции р„(х1; ..., х„) должны быть
симметричны относительно любых перестановок аргументов х;,
так как вероятность совместного осуществления п неравенств
х^^сх^Дх,-, г = 1,и, не зависит от того, в каком порядке
перечислять эти неравенства;
29
4) условию согласованности при любом т<п
ОГ: ОС)
— OO — co
.... x„)dxm+1 ...dxn. (1.3.5)
Последнее соотношение показывает, что из л-мерной п. в. всегда
можно получить любую п. в. меньшей мерности путем интег-
рирования первой по «лишним» аргументам.
Из перечисленных свойств п. в. непосредственно следуют
указанные выше свойства функций распределения, если восполь-
зоваться соотношением
ГДлу,..., х„)= f ... f p„{x't, ..., х'„ }dx\ ...dx'„. (1.3.6)
Вероятность попадания сл. вектора в область S определяется
формулой
P{t,eS} = $pn(x)dx (1.3.7)
S
или в координатной форме
P{(^i, £,n)eS} = (... Jpn(xt, ..., x„)dx! ...dx„. (1.3.8)
s
Укажем, что совокупность комплексных сл. в.
= S,i-l-jri!, ..., ^„ = L,+jr|n считается вероятностно определенной,
если известна совместная функция распределения или совместная
п. в. 2п действительных сл. в. £,15 ..., т|:, - Вл-
Характеристическая функция сл. вектора ^ = {^15 ..., £,„} по
аналогии с (1.1.13) определяется формулой
Фи 09) = Фи (A, ...,j9J = M{expj(M1 + ... + 3,^)} =
= f ••• f exp[j(91x1-H.. + »nx„)]pr,(x1, ..., x„)dxi ...dx„, (1.3.9)
где Э1; ..., 3„ — вещественные переменные.
Характеристическая функция Ф„0Э) симметрична и непрерыв-
на, |Ф„()Э)|^1, Ф„(0)=1,
Ф,„()Э1, ..., )9т) = Фл()Э1, ..., j3m, 0, ..., 0), т<п. (1.3.10)
Последнее соотношение показывает, что из характеристической
функции Ф„ всегда можно получить характеристическую функцию
Фш меньшей мерности (т<«), положив равными нулю «лишние»
аргументы Э;. В этом заключается одно из преимуществ опе-
рирования характеристическими функциями. Если ..., —
независимые сл. в., то их совместная характеристическая функция,
30
как следует из (9), равна произведению характеристических
функций отдельных величин:
ф„(А,...Д»„)=ПММ- (1.3.11)
к — 1
Наоборот, если совместная характеристическая функция величин
£,!, выражается формулой (11), то сл. в. независимы.
Это утверждение следует из формулы, выражающей п. в. через
характеристическую функцию:
Pnix^ •••> Х„) F„(х], ..., хп)
' ’ ОХ\...ОХп ' ’
00
(1.3.12)
ехр[—j(31x1 + ... +Э„хл)]Фл()91, ...JS,,)^! ...d§n.
Здесь интеграл (если он сходится не абсолютно) понимается
в смысле главного значения Коши.
При решении многих задач приходится оперировать услов-
ными функциями распределения и условными п. в. Условной
функцией распределения Fii(x\B)=F(x\B} сл. в. £, относительно
события В называется условная вероятность выполнения неравен-
ства '^<х при условии осуществления события В'.
F(x\B) = P{^<x\B} = P{^<x, В}/р(В), (1.3.13)
где {^<х, В}— по существу произведение двух событий {£,<х]
и В. Условная функция распределения удовлетворяет всем
перечисленным ранее условиям, которым удовлетворяет безуслов-
ная функция распределения.
Если £, — непрерывная сл. в., то условная п. в. определяется
формулой
р (х | В) == lim Р t A-Y 1^1. (1.3.14)
' ' dx дг_»о
По переменной х она удовлетворяет всем условиям, налагаемым
на п. в.
Для совместной п. в. двух сл. в. £, и г] (скалярных или
векторных) справедлива формула умножения п. в.:
У )=Рц(х)р(у । '^ = х)=Рл (у)р(х I П (1.3.15)
Если сл. в. £, и т| независимы, то
Р^(х, у)=Р^х)Рп(у)- (1.3.16)
Эта формула выражает необходимое и достаточное условие
независимости двух сл. в.
31
Приведем сведения о многомерных условных функциях рас-
пределения и условных п. в. Обозначим через
/?(ад, .... л\|л\ + 1, ..., х„) условную п. в. сл. в. Е,!, .... при задан-
ных значениях сл.в. А =лд+1, -х„. Согласно теореме
умножения вероятностей справедливо соотношение
Р (Xj > I Ь ‘"1 Ап )
Рл(А1, •••? ХА, Аи)/Рп~к(хк + 1 ? %п ) (1.3.17)
Соответствующая условная функция распределения
F(%!, ..., хк | хк +!...., х„) получается интегрированием (17) по
первым к переменным в пределах от —оо до ад, ..., хк.
Например, если
Р (А ((Аз, ад )=р3 (ад , ад , х3 )/р2 (ад , х3),
то
^(лд | АД, А'з)= j /73 (w, АД , АД ) i/u/p2 (х2 , Х3 ).
— со
На основании формулы (17) можем написать
р(хп|хп-1, ..., АД )=pn(xt, ..., Xn)/p„-i(Xi, ..., Х„_ ! ).
Повторно и последовательно применяя это равенство, получаем
/?„(ад, ..., х„)=р(хп|х„-1, ..., X! ).../?(х2|Х1 )р(лд). (1.3.18)
Укажем два правила исключения «лишних» аргументов из
условной п. в. Назовем аргументы, стоящие в условной п. в.
слева от вертикальной черты, «левыми», а справа — «правыми».
1. Чтобы из условной п. в. исключить какие-либо «левые
лишние» аргументы, нужно проинтегрировать в бесконечных
пределах условную п. в. по этим лишним переменным. Например,
p(ai|x3)= J p(xi, x2|x3)Jx2.
2. Для исключения «правых лишних» аргументов нужно
исходную условную п. в. домножить на условную п. в. этих
«лишних» аргументов при фиксированных остальных «правых»
аргументах и полученный результат проинтегрировать в бес-
конечных пределах по исключаемым «правым» переменным.
Например, при исключении двух «правых» аргументов
х2 и ад можно написать
p(xi|x4)= f f р(ад |х2, х3, Х4)р(х2, x3|x4)r/x2r/x3.
Эти правила следуют из сформулированного ранее правила (5)
исключения «лишних» аргументов в многомерных п. в. и формул
(17) и (18).
32
На основании второго правила получаем формулу
/>(ад|х3) = f p(xi |л-2, лд)/Дад |x3)</x2, (1.3.19)
которая широко используется в теории марковских процессов.
Сформулированные выше правила справедливы также и для
дискретных сл. в. При этом, если оперировать законами рас-
пределения, то нужно заменить п. в. соответствующими вероят-
ностями, а интегралы—суммами.
Например, если дискретные сл. в. £,2 и £3 принимают
соответственно значения х;, yj, zk, то аналогом формулы (19)
будет соотношение
Р {= х,. 3 = гк} = X Р {= х, | ^2 = у,,
j
^ = zk}P{i,2=y^3=zk}. (1.3.20)
Случайные величины ..., Е,п называются взаимно независи-
мыми, если события <Xj }, ..., {£,„<х„} независимы при любых
ад,..., х„. Пусть Г(ад) и р (х;) ---соответственно функция рас-
пределения и п.в.1 сл.в. /=1,л. Для взаимно независимых
сл. в. справедливы формулы
F„(xt, x„) = F(x1)...F(x„),
(1.3.21)
pn(xt, ..., xn)=p(xi)...p(xn).
Если сл. в. £,!, ..., — взаимно независимы, то они и попарно
независимы. Действительно, интегрируя равенство р3 (ад , х2, х3 ) =
-р(хд )р(х2)р(х3) по х3, получаем р2(хк, х2)=р(х1)р(х2). Однако
обратное утверждение неверно, т. е. попарно независимые сл. в.
нс обязательно являются независимыми в совокупности. Напри-
мер, при выполнении равенств р2 (хд, х2 )=р(хг )р(х2 ),
/СИД, х3)=р(лд) »(х3) и р2(х2, х3)=р(х2)р(х3) возможно, что
IP (-<1 , Х2 , Х3 ) =£р (АД )р (х2 )р (х3 ).
Часто бывает полезно разбить заданные сл. в. на независимые
группы. Сл. в. £,1, ..., '^к не зависят от £,к+1, ..., если р„(ад , ..., хк,
А к F 1 1 • • •> Х„ j рк (х J , ..., Хк j рп — к (аД + 1 , ..., Х„ ).
Отсюда (интегрированием по «лишним» переменным) следует,
что любая подгруппа из величин (Д, ..., ^к не зависит от любой
подгруппы из величин ^+i, ..., Например, 1Д не зависит от
Используя приведенный результат, определим взаимную не-
зависимость комплексных сл.в. 1Д = 1Д +jpi, ...Д„ = ф|+)р„. Ком-
1 В данной записи функции F(x;) и p(xt) — в общем случае при разных .у,-
разные функции, а не одни и те же функции с измененными аргументами.
Такая система записи будет применяться и в дальнейшем.
33
2 -2247
плексные сл. в. £15 С,„ называются взаимно независимыми, если
группы (^i, Pi), .... Г|„) независимы, т. е. если для совместной
п. в. сл. в. выполняется равенство
p2«(xi, У!, х„, у„)=р2 (л-1, У!) .../>2(лй, >’„) (1.3.22)
2. Числовые характеристики. Приведенные в § 1.1 определе-
ния моментов и кумулянтов можно обобщить на совокуп-
ность нескольких сл. в. A %2, ..., описываемых функциями
распределения (1), п. в. (2) или характеристическими функциями
(9). Совместные начальные моменты mVi, niV]V,, ..., otV1V2,..v„ сл. в.
I,!, ^2, ..., определяются как м. о. соответствующих про-
изведений:
тv =М g?} = f х\'рг (*! )dxY,
1 (1.3.23)
mVjv? = М {Vi1 G2} = П x i1 x22P2 (*i , x2) dxi dx2,
'«viv2...vn = M{^i1^22-^?} = f-Ja-i* ...X^'p^Xt ...x„)dxl ...dxn,
где Vi (l^i^n)— неотрицательные целые числа.
Момент mv v ...v , относящийся к n различным сл.в.
£,2, > ^,п, называется п-мерным начальным моментом
(vi + v2 +... + v„)-ro порядка. Так, mv ---одномерный момент
Vj-ro порядка; mv v —двумерный момент (vj+v2)-ro поряд-
ка и т. д. 1
Вместо начальных моментов можно рассматривать централь-
ные моменты, которые определяются формулой
Bv1v2...v,=M{(^]-^1)V>...(^-^(|)V"}= • (1 324)
= J... f (At-т^ )V1... (х„-т^)v«p„(х 1, ..., x„)dXi ...dx„,
т^ = М{^}.
Аналогично формуле (1.1.26) совместные моменты можно
определить как коэффициенты разложения в кратный степенной
ряд совместной характеристической функции (9):
ф„0»1,...,А)=м(1+) £ ^Л+ir Е иЛЛ+
L ц=1 H,v=l
+^j3 Z UAWi+-.J=i+j f MAA+
H,v,x=l J ц=1
+lj2 Ё MU}u4j3 t м{^Л}9М+...=
H,V=1 H.V,J.= 1
= E (13-25)
V. ...v =0 V1 • 2‘ ”• v«-
34
где
n4v2...v,=(-j)v‘+Vz+-+v" х
(1.3.26)
_ 3, =8, = ... = 9 =0
1 2 n
Аналогично многомерным моментам можно ввести многомер-
ные кумулянты xv v v . Они определяются путем разложения
в кратный степенней ряд не самой характеристической функции
(9), а ее логарифма:
°- X
1пФ,0»„ jS.)= У ^ii-(jS1p(jS2)=...
V,, .... V =0 !• 2' V"-
где
V2...,=(-Fv"'+’x
--^1пФ„(А, ..., A)
L_ 1 2 n
(1.3.27)
(1.3.28)
= Э =0
А=Э2
Между многомерными моментами и кумулянтами существуют
связи, подобные (1.1.31).
Основываясь на условных п. в. (17), можно ввести условные
моменты и кумулянты. Они определяются формулами, аналогич-
ными (1.1.20), (1.1.21), (24) и (28), только теперь в них нужно
подставлять условные п. в. (17) и условные характеристические
функции. Естественно, что условные моменты и кумулянты будут
зависеть от тех условий («правых» переменных), которые входят
в соответствующие условные п. в. и условные характеристические
функции.
В дальнейшем будут использоваться условное м. о. и условная
дисперсия для одной сл. в. при фиксированных остальных. Они
определяются соответственно формулами
м Alx,,-!, ..., %! }= f х„^(х„|хя-1, ..., Xt)dx„, (1.3.29)
Dfclx,.,, ..., xt } = M{|A-M Alx,,-!, ..., x1}]2} =
= f [x„-M Alx,,-!, ..., Xi }]2p(x„|x„_1, ..., xl)dx„. (1.3.30)
~ GO
Поскольку многомерные моменты и кумулянты определяются
как коэффициенты разложения в степенной ряд соответствующих
характеристических функций или их логарифмов, то, как и в од-
номерном случае, первые коэффициенты разложений во многих
случаях оказываются наиболее важными и существенными.
35
Покажем особую роль низших моментов на примере двух
сл. в. Пусть требуется найти наилучшую оценку (или предсказан-
ное значение) |2 Для сл. в. с,2 в виде некоторой функции £,2 = g(£,i)
от сл. в. причем в качестве критерия оптимальности оценки
примем минимум среднего квадрата ошибки
£min = M{(S,2—|2)2} =
= f f [x2-g(xi)]2p2(x1,x2)dx1dx2. (1.3.31)
— 00—00
Докажем, что наилучшей оценкой является условное м. о.
£,2 при фиксированном значении :
|2 = g^i=A-i) = M{^2|^=x1}. (1.3.32)
Подставив в (31) совместную п. в. /?2(х1, х2)=/>(х2|х1)/>(х1),
имеем
M{[£2-g(£i )]2} = f f [x2-g(x1)]2p(x2\xi)dx2dxl.
— 00 ~GC
Чтобы минимизировать двойной интеграл (подынтегральное вы-
ражение неотрицательно), достаточно минимизировать при каж-
дом х1 внутренний интеграл
J [х2 ~~g(xt)] 2у? (х2 | X!) z/x2.
— оо
Для любого фиксированного значения хц функция g(xy) является
постоянной величиной.
Написанный интеграл имеет минимальное значение, когда
g(*l) = J Х2^(Л2|Х1)Л2 = М{^2|Л'1 }.
Это равенство должно выполняться при любом возможном
значении х15 что и доказывает формулу (32). Кривая
g(xt ) = М{£,2 |л'!} называется кривой регрессии £,2 на £i-
Отметим, что из метода доказательства непосредственно
следует более общий результат: минимум среднего квадрата
ошибки
^in = M{[^-g(^, ..., (1.3.33)
при фиксированных значениях =х1, ..., = x„~i имеет
место при
i„=g(^i, хп_1) = М{^„|^1=х1, ..., ^П_1 = х„_1}. (1.3.34)
Фактическое вычисление оценки М {£,21 } по совместной
п. в. р2(х15 х2) во многих практических случаях оказывается
36
весьма сложным, и поэтому часто ограничиваются отысканием
линейных оценок для Е,2 в виде линейной функции
Ъ = = а + (1.3.35)
Естественно, что при этом ошибка во многих случаях может
оказаться больше, чем при нелинейной оценке.
Итак, найдем коэффициенты а и Ь, при которых средний
квадрат ошибки
в2 = М {(^2 —^2)2 } = М {[^2 —(а + А^ )]2} (1.3.36)
минимален. Дифференцируя это выражение по а и h и приравнивая
нулю результаты, имеем
3e2/3a= — 21VI {^2 }+ 2a + 2Z?M {^ } =0,
де2/8Ь = — 2М {^2 } + 2аМ } + 26М {^2 } = 0.
Решая эти два уравнения относительно а и Ь, получаем
^== М —AZ7, )(^2 — AZ72 )}/Z?i j/Z>i ,
я = /и2-/и1М{(^1 — Wi )(^2 — ) }/Z>! =т2 — л??! Иц/Z»!.
Здесь
Pu=M{(^1-m1)(^2-m2)} =
= If (*i ~mi )(х2-"’2)/’г(^1, x2)dxtdx2 (1.3.37)
— смешанный центральный момент второго порядка; его часто
называют корреляционным моментом.
Из (35) получаем выражение для линейной оценки
^2 = ^2 + (И11/01)(^1-/н1), (1.3.38)
а из (36) находим минимальное значение ошибки
Emin=(l - r2)D2, (1.3.39)
где
r = ]ill/y/DlD2 (1.3.40)
— нормированный корреляционный момент, часто называемый
коэффициентом корреляции.
Допустим, что сл. в. приняла некоторое конкретное значение
Xi. Тогда согласно (38) линейная оценка (или предсказуемое
значение) х2 для значения сл. в. Е,2 дается формулой
х2 = ш2 + Дц(х1-ш1 )/Dl. (1.3.41)
Зависимость х2 от X! представляет собой прямую линию (рис. 1.9),
проходящую через точку (ffli,m2) с наклоном, равным pn/Oj.
37
Рис. 1.9. Линия среднеквадратичес-
кой регрессии
Эта прямая называется линией сре-
днеквадратической регрессии ^2 на
Следовательно, корреляционный
момент определяет наклон линии
среднеквадратической регрессии.
В дальнейшем особую роль бу-
дут играть моменты /и1=М{£)]}
И И11 =М{(^! — Л71! )(^2 —^2)} ИЛИ
Zn11=M{^1^2} = p11+m1m2. В от-
личие от корреляционного момента
Рл начальный момент называется ковариационным моментом.
Раздел теории, посвященный изучению лишь тех свойств сл. в.,
которые определяются этими характеристиками, называется кор-
реляционной теорией.
Две сл. в. и Е,2 называются некоррелированными или линейно
независимыми, если для них цп=0, т. е.
(1.3.42)
В противном случае величины называются коррелированными.
Сл. в. £,! и £2 называются ортогональными, если
ши=М{^2} = 0, (1.3.43)
и независимыми, если выполняется равенство (16), т. е.
рДхд, г2)=рч(л1)^2(х2). (1.3.44)
Между этими условиями существуют связи. Наиболее жестким
и ограничительным является условие независимости (44). Незави-
симость предполагает выполнение равенства (44) для каждого
ад и х2, в то время как некоррелированность представляет собой
только интегральное свойство и. в. р2(х1, х2). Путем подстановки
выражения (44) в правую часть (37) нетрудно убедиться, что для
независимых сл.в. цп=0. Следовательно, независимые сл.в.
всегда не коррелированны (линейно-независимы). Однако обратное
утверждение в общем случае неверно, т. е. некоррелированные
сл. в. могут быть зависимыми. Это утверждение основано на том,
что из равенства цп = 0 вовсе не следует, что для подынтегрально-
го выражения в (37) должно выполняться условие (44). Здесь
исключение составляют совместно гауссовские сл. в. (с. 40).
Для некоррелированных сл. в. наклон линии регрессии (41)
равен нулю и £,2 = М{^2). Следовательно, если сл.в. не кор-
релированье то линейная оценка (или предсказанное значение)
£2 равно м. о. самой сл. в. £,2 и совсем не зависит от другой
сл. в. £,]. При этом дисперсию ошибки линейной оценки £,2 нельзя
уменьшить, вычитая из нее какую-либо линейную функцию 1Д.
Приведенные определения (42)...(44) распространяются на
несколько сл. в. £,t, Е,2, ..., причем они могут быть вещест-
38
венными и комплексными. Говорят, что сл.в. некор-
релированны, если корреляционные моменты между любыми
двумя из них равны нулю, т. е. если
М{с;^} = М{^,.]М{^}, /#/, (1.3.45)
где звездочка обозначает комплексно-сопряженную величину.
1.4. ГАУССОВСКИЕ СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
Ввиду того, что гауссовские сл. в. весьма часто встречаются
на практике и играют особую роль, рассмотрим их отдельно.
Непрерывная сл. в. 5, называется гауссовской, если ее п. в. является
нормальной, т. е. дается формулой (1.1.9). Этой п. в. соответствуют
функция распределения (1.1.10) и характеристическая функция (1.1.15).
Для нормальной и. в. (1.1.9) справедливы следующие соотношения:
dnM{g^)}idD = 2-nM{d2ng(^ld^n}, (1.4.1)
М{^^)} = М(ЦМ{д^)'+7)М;^(^/^}, (1.4.2)
где D — дисперсия сл. в.; g(E,) — произвольная функция;
M{g(^)} = J g(x)p(x)dx. (1.4.3)
— а:
Полагая g(£,) = £,v, эти формулы позволяют сравнительно
просто находить последовательно все более высокие моменты
nzv = M{^v} гауссовской сл. в. В частности, с их помощью легко
проверить выражения для моментов (1.1.25).
По определению две сл. в. и £,2 называются совместно
гауссовскими, если их совместная и. в. имеет вид (С>0)
/?2(х1 ’ Х?.) = С exp [—(axi + bx^xz + cxl + dx^ +ех2)], (1-4.4)
где квадратичная форма в показателе для любых ад и х2 является
положительно полуопределенной: ах2 + Ьх{ х2 + сх2 4- dxr + ех2 0.
Выражая совместную п. в. через ранее введенные количест-
венные характеристики, получаем
Pi (xi, х2) = 1 /(2л ) х
PL J
I
=-------X
2ТГСТ! ст2 ^/1 — г2
X ехоГ ~а2(х1~'и1)2 + 2',а1<72(л1~П71)(А'2-»ц)-<7?(х-2-№2)2~1 Л 4 5)
39
Соответственно совместная характеристическая функция
Ф2 (j&l > j^2 ) = j j CXp [j(3,.Yi+32-Х'з)]/22(л'1 , -V2 )с/Л'! c/.V2 =
= exp j (/7?! 3i + w232)—-(.Dj 3j + 2pij3i32 + B232) —
= exp j(wzi3! +/77232 )—^(<у?3? + 2го1о23132 + о232) . (1.4.6)
Здесь отдельные параметры (всего их пять), как нетрудно
проверить, имеют следующий смысл: mY и т2 — м. о. сл. в.
^i и £,2 соответственно; O^of и О2 = сг2—их дисперсии;
г — коэффициент корреляции, т. е.
т, = М^г}, о? = М {(£,-т,)2 }, г = щ j/di о2 =
= М((г|1-»71)(^-ш2)}/су1о2, 7=1, 2. (1.4.7)
С помощью дифференцирования выражения (6) нетрудно
проверить, что для характеристической функции имеет место
равенство
а-ФгОЭ,, )32)/аг', = (-1)п(сУ1СУ29132)''Ф2(]31,)32). (1.4.8)
Рассмотрим на примере двух сл. в. характерные свойства
совместно гауссовских сл. в.
1. Если сл. в. Е,1 и с,2 некоррелированны, г. е. г = 0, то из
формулы (5) следует, что их совместная п. в. равна произведению
п. в. каждой из величин: р2 (ад, х2)=р(х1 )р(х2). Но такие ве-
личины по определению (1.3.44) называются независимыми.
Следовательно, если две совместно гауссовские сл. в. некор-
релированы, то они и независимы, т. е. некоррелированность
двух совместно гауссовских сл. в. тождественна их независи-
мости.
2. Две коррелированные (зависимые) совместно гауссовские
сл. в. и £,2 всегда можно привести к двум некоррелированным
(независимым) гауссовским сл. в. r|i и Г|2 с помощью линейного
преобразования [2 ]
pi = (£,! — /И]) cos а + (S,2 — m2) sin а,
(1.4.9)
т]2== -(^i-Wi)sina + (^2-w2)cos а,
где угол а определяется из условия М [т] г т]2} = 0 и равен
tg2a = 2ro-1o'2/(o-f — сг2) при
(1.4.10)
а = л/4 при СУ1 = <Т2-
Вид преобразования (9) объясняется следующими соображе-
ниями. Из формулы (5) следует, что нормальная п. в. имеет
40
постоянное значение на так на-
зываемых эллипсах постоянной
плотности (рис. 1.10):
<Ti щаг2
Центр этого эллипса находится
в точке (т1,т2)', в этой точке
п. в. максимальна и равна
Р2(т^т2)= _
= (2тШ! <Т2 у/Т-~Г2 )~1.
Рис. 1.10. Эллипс постоянной вероят-
ности
Оси симметрии эллипса составляют с координатными осями
(xi, х2) два угла, определяемые уравнением (10) и различающиеся
на л/2. Для независимых сл. в. (г = 0) оси симметрии эллипса
параллельны координатным осям. Отсюда ясно, что для сведения
зависимых сл. в. 1Д и £,2 к независимым гц и г|2 нужно перенести
начало координат новой системы в точку (т\, т2) и совместить
оси с главными осями эллипса постоянной плотности. Это
и осуществляет преобразование (9).
3. Одно из важнейших и определяющих свойств совместно
гауссовских сл. в. состоит в том, что при линейных преобразова-
ниях их получаются также совместно гауссовские сл. в. (см.
пример 1.5.1).
4. Если две сл. в. являются совместно гауссовскими, то каждая
из величин будет также гауссовской. Обратное утверждение в общем
случае неверно (оно верно только для независимых сл. в.) [2].
5. Для совместно гауссовских сл. в. условная п. в. одной из них
при фиксированном значении другой является нормальной. Дейст-
вительно, воспользовавшись формулами (5) и (1.1.9), получим
р(х2|^1=х,)=д2(х1, х2)/р£ (xt) =---т=== х
сг2 ^/2п(1 —г2)
х ехр
г2)
х2 — т2 —
(1.4.11)
1
2аД1
Видно, что условная п. в. является нормальной с м. о.
и дисперсией, равными соответственно
м ib I =Xi} =т2 + г(о2/о1 )(х,-mi),
£>^, = <^(1-г2). (1.4.12)
Условное м. о. £,2 при данном зависит от хд, а условная
дисперсия (t, не зависит от xt.
41
6. С учетом результата (1.3.32) формула (12) позволяет сделать
принципиально важный вывод: для совместно гауссовских сл. в.
оптимальной оценкой одной из сл. в. через другую (по критерию
минимума среднего квадрата ошибки) является линейная оценка:
^2=g(^i=A'i ) = М [^2|Е,1=х1 }=/и2 + г(о2/сТ1 )(Л'1-/И1). (1.4.13)
При этом минимальное значение среднего квадрата ошибки
дается формулой (1.3.39):
£^п = (1-г2)су1 = (1-г2)Р2. (1.4.14)
Нормальную условную п. в. (11) можно записать в следующем виде:
р (х21 ад ) = (2те2 jn)"1/2 exp [- (,v2 - ^2)2/2s2 in ].
При анализе функциональных преобразований совместно га-
уссовских сл. в. часто оказывается полезным разложение Мелера
двумерной нормальной и. в. (5) в ряд по ортогональным
полиномам Эрмита:
х У -Н„( Нd^--—\rn, (1.4.15)
„ = о"! \ / \ ^ /
где Я„(л') — полиномы Эрмита (1.1.34).
Простота оперирования таким разложением объясняется тем,
что в правой части выражения (15) переменные
лд и х2 «расщеплены», т. е. входят в качестве отдельных
сомножителей.
Почти все приведенные выше результаты обобщаются на
несколько совместно гауссовских сл. в. Случайные величины
Е,2, называются совместно гауссовскими, если их совместные
п. в. являются нормальными. Эти п. в. записываются наиболее
компактно в матричной форме.
Обозначим м. о. сл. в. через тц, дисперсию через
и корреляционный момент между сл. в. и S,v через
^Mv = M{(^-/Hj(^v-/nv)} = rMVV/57oJ, p,v=l,n, (1.4.16)
rflv— коэффициент корреляции. Ясно, что Rw — Dit и /?(lv = /?vp.
Определим векторы-столбцы и корреляционную матрицу:
х = ’*1’ х2 , П1 т2 , R = Кц ^12 Rm R-21 R-22 ••• R-2n , (1.4.17)
а также 42 |R | = det R т„ — оп ределит -^nn _ ель корреляционн ой матрицы.
Совместная нормальная п. в. сл. в. ^15 Е,2, , U имеет вид
pn(x) = [(2n)n/2|R|1/2]-1 ехр[-(х — m)TR-1 (х — ш)/2], (1.4.18)
и соответственно характеристическая функция
O„(j9) = exp(jmT9 — 9TR9/2). (1.4.19)
Здесь R ~1 — матрица, обратная R, символ т обозначает транс-
понированную матрицу и 9Т = [Э15 Э2, ..., Э„] — вектор-строка.
Так как = т. е. элементы корреляционной матрицы
R, расположенные симметрично относительно главной диагонали,
равны друг другу, то корреляционная матрица является сим-
метрической. Поэтому п. в. (18) и характеристическая функция
(19) определяются п(п + 1)/2 + и параметрами.
Применив формулу (1.3.26) к совместно гауссовским сл. в.
с характеристической функцией (19), можно вычислить многомерные
моменты. В частности, для четырехмерного момента 4-го порядка
четырех сл. в. t,2, £,4 получится следующее выражение:
мри ги ги и=м{ги U+мри U+
+мри ги}мри и+мриимрьи-
— 2т1т2т3т4, (1.4.20)
где /и,-= М {£,-}, i =1,4.
Приведем общее выражение /с-мерной условной нормальной
п. в.
pk(Xl, х2, ..., xk|xk + 1, ..., хл)=а(Х1|Х2)= х |1/2х
х ехр { — (Xi — mXi|Xi)TRXi1|Xi(X1 — mXi|Xi)/2}, (1.4.21)
где R — корреляционная матрица вектора-столбца Х = [ХП Х2]т:
Rn : R12 RxjXj—Rii— Ri2R221Rzi;
_R2i ; R22_ mx1ix2 = mi + R12R221 (Х2 — m2);
(1.4.22)
Ru, R22— корреляционные матрицы векторов Xj и Х2 соот-
ветственно; R12, R21—матрицы взаимной корреляции между
векторами Xt и Х2; ш1=М{Х1}и m2 = M{X2} — векторы-
столбцы м. о. векторов Xj и Х2.
Поскольку условное м. о. тх |Х выражается линейно через
вектор Х2, то согласно результату1 типа (1.3.34) можно заключить,
что оптимальная (по критерию минимума среднего квадрата
ошибки) оценка гауссовского случайного вектора Xj при фик-
сированном гауссовском векторе Х2 является линейной.
Укажем еще один результат — при перемножении двух нор-
мальных п.в. ^(m^Ri) и .V2(in2, R2) получается также нор-
мальная п. в.
43
7V(m. R) = (mi, Ri) W2(m2, R2),
где
m = R[R1’1m1+R2‘1m2]; R-1 = Ri-1 + R2-1.
(1.4.23)
(1.4.24)
1.5. ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ
ВЕЛИЧИН. ПРИМЕРЫ
Обобщим формулы (1.1.46), (1.1.40), полученные для одной
скалярной сл. в., на случай двух и большего числа сл. в. Пусть
две вещественные непрерывные сл. в. и Е,2 с известной п. в.
р^ (х15х2) подвергаются преобразованию
Bi=gi^i^2), 132=5-2(^1^2), (1-5.1)
где gj(-) и g2( ) — заданные детерминированные функции. Требу-
ется получить совместную п.в. п (уг,у2) Для сл.в. г)! и Г|2.
Запишем сначала выражение ^ля функции распределения.
Обозначим через sy область на плоскости х2, х2, определенную
двумя неравенствами
gl (л'1, Х2 ) <у 1 , g2 (л'1 , Л-2 ) <у2 .
События {т]1<У1. г|2<у2} и {(Е,!, £,2)елу] являются эквивалент-
ными в том смысле, что осуществление одного из них влечет
обязательное осуществление другого и наоборот. Поэтому веро-
ятность этих событий
Л1]П2(Г1, i'2) = J'J'^i^(a1, x2)tZx, dx2. (1.5.2)
s
Отметим, что область sy может оказаться многосвязной и поэтому
фактическое вычисление интеграла (2) в общем случае будет не
простым.
Получим формулу для п.в. рц n (yi, у 2 ) Определим малень-
кую область Asy на плоскости xl,2 х2 неравенствами
gl<gl(A'i, А2)<У1+</}'1, 3’2^g2(Xi, X2)<y2+dy2.
Из такого определения элементарной области Asy следует, что
два события {^1 ^111 <J’i+^1, Уг И2<Уг + } и' {(^, £2)е Asy}
являются тождественными и вероятности их одинаковы:
^,4,(3’!’ 3’г)й(У1 ^З^П^чМ*!’ xi)dxtdx2- (1.5.3)
As
у
Предположим, что система из двух уравнений
gl(xi, *2 ) = >'!, g2(xj, Х2)=3’2
может быть разрешена относительно х,, х2 и при этом получены
две пары решений (х)1*, х^1*), (х(2), х2’):
44
Рис. 1.11. Случай двузначных обратных функций
x(ii=h^(yl, у2), хЧ^^Цуг, у2), 1=1,2. (1.5.4)
Рассмотрим две прямоугольные системы координат: xt,
х2 и j’i, у2 (рис. 1.11). При выбранных значениях
У! и у2 элементарной прямоугольной площадке dyr dy2 на
плоскости уьг2 будут соответствовать две разные площадки
в виде параллелограммов; они определяются двумя решениями
(4). Известно, что площадь ьго параллелограмма равна
dy 1 dy21J2 (x^, x^) I, /=1,2,
где J2(x{i\ x^) — якобиан преобразования переменных. Поэтому
интеграл справа в (3) равен
2
x2)dx1dx2 = dy1dy2 Е , x4})\J2(x^, x'^jT1.
Asy i - 1
Подставив это выражение в (3), имеем
2
Рч1П2(з’1, Уг)= Е Р^ЛХЛ x^)\J2(x^, хф)| \
>=1
где в правой части нужно выразить хф, х^}, 1=1,2, через
У1 и у2 согласно (4). При этом целесообразно сразу восполь-
зоваться известным соотношением
jli,)=lM2(x(1i),X(2i)).
Окончательная формула примет вид
2
Р^2 = Е Уг\ f>2(yi’ /г’)!, (1.5.5)
i= 1
где
Jz(y4\ уЧ^-ЛхЛ х^ду^уг. (1.5.6)
Выше предполагалось, что обратные функции (4) двузначны.
Если обратные функции однозначны, то в правой части (5)
должен быть только один член. Если же имеется т обратных
функций, то в правой части (5) будет сумма т слагаемых.
45
Приведем обобщение формулы (5) на многомерный случай.
Пусть известна совместная п-мерная и. в. рк(хг, х„) сл. в.
..., и нужно найти и. в. рц ( у15 ..., уп) для сл. в.
ni=gi(^f. Q -> nn = gn(^o U’ О-5-7)
где функции gk, к=1,п, кусочно-непрерывные. Если существуют
однозначные обратные функции
Пп)> ^, = МПо пД (1-5.8)
то интересующая нас п. в. определяется формулой
РцО'!’ J’2’ Уп) = Р{, (Х1’ Л2’ Xn) I Л|(А1’ Х2, Л’п) I =
=Р^,1ЛУъ ’ Уп), -•> Ь„(У1, -> л))1 Л(>’1, л)|, (1-5.9)
где Jn — якобиан преобразования переменных:
(1.5.10)
В тех случаях, когда обратные функции неоднозначны, следует
в правой части (9) взять сумму по каждой из подобластей.
Различные моменты преобразованных сл. в. гр, ..., р2 можно
вычислить без предварительного определения из совместной п. в.,
а пользуясь формулой
M{npn^...pnv»} = f...fg'p(.r1, ..., x„)...g^(x., ..., хи)х
х pt(х,, х„)dxrdx2...dxn. (1.5.11)
В дальнейшем преимущественно будут рассматриваться раз-
личные характеристики двух сл. в. Приведем дополнительные
сведения для этого случая.
Иногда бывает нужно найти п. в. одной функции двух сл. в.
Ъ1 и
n=^,U (1-5.12)
Введем вспомогательную случайную переменную
Г|2 = ^2 (или Г|2 = ^). (1.5.13)
Рассматривая совместно преобразования (12) и (13) как частный
случай общего преобразования (1), сначала по формуле (9)
находим совместную п. в. рц „ (jp, у2) для сл. в. р и р2, а затем
интегрированием по у2 получаем п. в. для гр
46
л(1')= f Р^2(у. ьЖ
— X
И
Если обратная функция Xj =/?( г, x2) = /i( г, j>2) однозначна, то
Р^2(у, v2) £2(Л(.’’’ .’’г)- J’z) I Уг^У I
Последняя формула позволяет найти пл. в. суммы, разности,
произведения и частного двух сл. в.:
v2)</x2, т| = ^±£2, (1.5.15)
Pn(>’)= J = (1.5.16)
рЛу)= f Р^2(УХ2> -b)l-v2 I dx2- n=^- . (1.5.17)
Для независимых сл. в. c,j и 't2 с п. в. р^ (х2) и pt (х2) в этих
формулах нужно положить 1
Xii^Py U1 )л,(л-2). (1.5.18)
Отыскание п. в. (закона распределения) суммы независимых
сл. в. по- известным п. в. (законам распределения) слагаемых
называется композицией п. в. (законов распределения). Формула
(15) с учетом (18) показывает, что композиция двух п. в.
представляет собой интеграл свертки. При определении п. в.
суммы не двух, а большего числа независимых сл. в. фактическое
вычисление последовательных интегралов свертки может оказать-
ся кропотливым и трудоемким делом. В подобных случаях
проще оперировать характеристическими функциями.
Рассмотрим линейную сумму п независимых сл. в.
г;п = ^1+а2^2 + ... + а,Лл, (1.5.19)
где а15 а2, ..., ап — постоянные коэффициенты. Характеристическая
функция этой суммы по определению
O(n(j9) = M{exp(j9^)}=Oti(jfll9)...O5n(jn„9)- (1-5.20)
В частности, при а1=а2 = ... = ап отсюда получим
Фс„()0) = Ф^()Э)...Ф6п()Э), (1.5.21)
а при выполнении дополнительного равенства Ф2 ()Э) = ... = Ф,- (j9) =
= Ф1()Э)
Ф<„09) = Ф"1()9). (1.5.22)
47
П. в. для С„ можно затем вычислить по формуле (1.1.14).
Таким образом, характеристическая функция линейной суммы
независимых сл. в. равна произведению характеристических фун-
кций отдельных слагаемых. При вычислении и. в. суммы несколь-
ких независимых сл. в. целесообразно сначала по формулам
(20)...(22) найти характеристическую функцию суммы, а затем
из обратного преобразования Фурье (1.1.14) получить п. в.
С использованием формулы (И) нетрудно доказать следующие
свойства м. о. и дисперсии суммы и произведения сл. в. [1 ].
1. М. о. суммы конечного числа сл. в. равно сумме их м. о.:
М^+(2 + ... + У = М{Ц + М^} + ...+М{и. (1.5.23)
2. М. о. произведения независимых сл. в. равно произведению
их м. о.:
(1.5.24)
3. Дисперсия суммы конечного числа независимых сл. в. равна
сумме их дисперсий:
D^1 + ... + ^HD{£1} + ... + D{^}- (1.5.25)
Этот результат остается также в силе, когда каждая из сл. в.
..., £„ не зависит от суммы предыдущих или когда сл. в.
..., попарно независимы.
Много конкретных результатов по нелинейным преобразовани-
ям сл. в. приведено в [2]. Рассмотрим здесь несколько примеров.
Пример 1.5.1. Линейное преобразование двух сл.в. Пусть
Hi =а^,+/Д,, T]2 = c^1 + rZE,2. (1.5.26)
где а. Ь, с, <7—постоянные коэффициенты. Если определитель системы, состав-
ленный из этих коэффициентов отличен от нуля (преобразование невырожденное),
то система из двух линейных алгебраических уравнений
У] = a.xs + />.х2, у2 = сх । + dx2
имеет однозначное решение
лт = с?!.1’1 +/>]у2, x2 = clyi + dty2,
где коэффициенты а}, bx. dY выражаются через a. b. с, d,. В данном случае
якобиан преобразования переменных равен
Д(хг х2) = сДу1, Tzj/cCv!, x2)=ad-bc^0.
Поэтому формула (5) примет вид
y2)^[ad-hci-' Pi^(aii\+hiy2' СЛ'1 + dYy2). (1.5.27)
Воспользовавшись этой формулой, нетрудно убедиться, что если сл. в.
и Е,2 являются совместно гауссовскими, т. е. имеют нормальную п. в. (1.4.5).
то преобразованные величины т|, и т]2 будут также совместно гауссовскими.
Этот результат распространяется на несколько совместно гауссовских сл. в.: при
48
линейных невырожденных преобразованиях совместно гауссовских сл. в. получа-
ются также совместно гауссовские сл. в.
Пример 1.5.2. Суммирование двух величин по модулю. Пусть суммируются
по модулю / две независимые непрерывные сл. в. и 1у2, одна из которых
имеет постоянную п. в. в интервале [0. /], а другая - произвольную. Докажем,
что п.в. такой суммы Г| = £ + с, 2 будет постоянной в интервале [0, /].
Пусть plsi(xi)=\// при лдер),/], a -произвольная непрерывная п.в.
Поскольку и £,2 — независимые сл. в., то их совместная п. в. равна произведению
p(xt, -лф.рфлу)р^(х2)=р^(х2)11, луе[0, /].
Обозначим сумму по модулю / через у = [лу +л'2](. Поскольку лу = Г г--лу],. то
совместная п. в. для р и t,2 равна
р(г. х2)=р(!1(х2]11, уе[0. /].
Отсюда по условию согласованности получаем равномерную п. в. для гр
^(j’)= I р(у- х2)(1х2=--. уе[0, /].
Пример 1.5.3. Плотности вероятностей огибающей и фазы вектора с гауссовскими
проекциями. Пусть сл. в. ф и с,2 совместно гауссовские с .м. о. mt п /?у.
дисперсиями Dt и D2 и коэффициентом корреляции г. Рассмотрим нелинейное
преобразование
5=хДТ+И>0. 0 = arctg(^2/E,1). lei^Tt. (1.5.28)
и найдем п.в. для новых сл.в. В и 6. причем сл.в. В мо»но назвать
огибающей, а 0—фазой случайного вектора В с проекциями и с2. Такая
задача встречается в теории распространения радиоволн при описании амп-
литудных и фазовых флюктуаций принимаемых радиосигналов [7 ].
Перейдем к новым переменным по формулам вида (1.4.9)
t)j =^1cosa + ^2sina, r]2 = £12cosa—E,j sin a
и выберем угол a из условия некоррелированности r| t и ц,. а именно
tg 7 = 2г Д/Д/Д /У, Д ' при DY^=D2 и а = л/4 при /),=/),. Тогда сл.в. ц,
и т]2 будут совместно гауссовскими и независимыми:
„ I 1 Г (Т2-'”2)2
Р^г{у^ Зг) 2тт(£> 1 Г>'2)1/2 ехр|_ 2D\ 2D2
Здесь
т\ =М {т]1 } = Wj cosa + m2 sin a; m'2 = M {rj2] =m2 cosa — sin a;
D\ =D {л i} cos2a + D2 sin2a + r(Dt D2)v2 sin2a;
D'2 = D {r]2} = D2cos2a + D1 sin2a — r(£>1£>2)1'2 sin?.a.
Перейдем в п. в. к полярным координатам В и ф согласно равенствам
ту-йсозф, т]2 = В sinф, т. е.
5=(П1+Т2)1/2>0, ф=0-а=аг^(т]2/т)1).
49
Якобиан преобразования переменных J2(B, ф) = й( г1. у2)/д(В, ^) = В и по формуле
(5) получим
р,(я. (1.3.29)
* 2л (D '(Di)1/2 2D\ 2D'-, _ k
Отсюда путем интегрирования по «лишнему» аргументу можно найти ин-
тересующие нас п. в. Различным значениям пяти параметров будут соответ-
ствовать разные п.в. Укажем здесь два частных случая. Полагая т(=ти2=0,
Dt — D, — D, г = 0 (т. е. =m) = 0, D\=D'2~D, а = л/4), получаем для огибающей
п. в. Рэлея, а для фазы—равномерную:
р(В)=~ехР|^|-^ 5>0, р(0) = 1 19|^л. (1.5.30)
Если /и2#0, Dl=D1=D, т = 0 (т. е. т\ =%/2(z«i +т2)12,
m'2 = ,j2(m2 — т^/2, D\ = D'2 — D, а = л/4), то придем к п.в. Райса:
, В ( В2 + т2\ (тВ\ , .
Р(В) = ~ ехр (--2/? ) /о Ш = Н + ^)1М- (1.5.31)
П. в. для фазы имеет вид
, . 1 ( т2\ /И( cosO-Ни, sinf)
р(0) = —expl -----------------
271 \ 2П/ V2nD
/т, cos0 + т, sin О'
ф --------
V -J В>
m2(mt cosO f ш2 sinO)
х exp
ID
Пример 1.5.4. Функция распределения и п. в. наибольшей (наименьшей) из
двух сл.в. Пусть сл.в. ^( и с,2 имеют функцию распределения -<2)
и п.в. Рс,е,(л'(, л-2). Найдем функцию распределения и п.в. сл.в.:
п —тах(^(. .^2), (1.5.32)
(1.5.33)
Наибольшая из двух сл. в. и с,2 будет меньше у, если каждая из
величин
меньше у (рис. 1.12, а):
Рис. 1.12. Области благоприятствующих значений
50
У У
= 4,t2(T,y) = I I P4,42(xi> x2)dxtdx2. (1.5.34)
— 00 — 00
Продифференцировав это выражение по у, получаем формулу для п. в.
Рп(т) = f Pi,i2(y, x2)dx2+ f Pt,i2(xt,y)dxt. (1.5.35)
- 00 “00
Для независимых сл. в. Ij, и формулы (34) и (35) принимают вид
Л1(у) = 4.(>')Л2(4 Рп(т)=Р4,(у)Л2(>')+Р52(у)Л1(4 (1.5.36)
Для функции распределения наименьшей из двух сл. в. (33), исходя из ее
смысла (рис. 1.12, б), можем написать
Fc(2) = P{^<2} = PUi<2' xi <x2} + P{^2<Z, х2^х1} =
= f dXil Pi^i, x2)dx2+ f dx2 f Pilit(xu x2)dxt =
— 00 X. — 00 X2
= f <^i( f - f jPili2(xl,x2)dx2+ f dx2( f - f }р^2(х2, x2)dx,=
= F^) + F^)-Fiii2(z.z), (1-5.37)
так как
4,t2(2> 2) = f I P^Xi, X2)dxtdx2 =
- 00 - 00
= f dxx f Р^2(х2, x2)dx2+ f dx2 f pili2(xt, x2)dxt.
— 00 — 00 — 00 — 00
Дифференцируя (37) no z, находим п. в.
P<(2)= f /4,t2(2. x2)dx2+f ptlt2(x„ z)dx.. (1.5.38)
z z
Если сл. в. E,, и независимы, то формулы (37) и (38) примут вид
Л (2)=Л. (*)+Л2 (2) ~Л, (2) Л2 (4 (1-5.39)
(1.5.40)
Полученными формулами можно воспользоваться для расчета надежности
систем, содержащих элементы с зависимыми отказами [2].
Пример 1.5.5. Плотность вероятности наибольшей (наименьшей) из нескольких
независимых сл. в. Требуется получить п. в. наибольшей
т] = тах(^,, ...Д,) (1.5.41)
и наименьшей
Omin(^, ..., Ц (1.5.42)
из п независимых непрерывных сл.в. ..., с п.в. ..., р4>(х„).
51
Для функции распределения сл. в. г] имеем
В результате дифференцирования по у получаем п. в.
" " Pl (}’)
,,5-т
Для функции распределения сл. в. L, можем написать
F^z)=р {<; < г} = I - Р {> 2} = I - Р {; > X, i = М} =
=1-п D-адн-
f- 1
Путем дифференцирования по z находим п. в.
/’J-’)=fl[l-^U)]ZT~L- (1-5.44)
1-1 1-Т £,(-)
В частном случае, когда все п независимых сл. в. (;и ... Е,„ имеют одинаковую
п. в. р(х) (функцию распределения F(x)), предыдущие формулы упрощаются:
ададл адад.адад (1.5.45)
^(г)=1-[1-адгг ад=ад[i-ад"-. 0.5.46)
Пример 1.5.6. Характеристики порядковых статистик ’. Пусть п независимых
сл. в. ...имеют одинаковую п. в. р^(х)=-р(х) и функцию распределения
F(x). Расположим (упорядочим) сл. в. в порядке возрастания значений (вариаци-
онный ряд) Е,(1) s: £(2) ^... ^(п). Сл.в. г=1,п, называется г'-й порядковой
статистикой. Если неупорядоченные сл. в. независимы и одинаково рас-
пределены, то величины E,(i) зависимы из-за неравенств между ними. Заметим,
что сл. в. можно интерпретировать как конкретные исходы и опытов над
сл. в. Е, (выборка объема п).
Рассмотрим некоторые характеристики порядковых статистик. Очевидно, что
полученные выше формулы (45) и (46) дают функции распределения и п. в.
соответственно сл. в. £(,и и Е,()). Получим п. в. r-й порядковой статистики (сл. в.
£,(,), isgrsgn).
Событие х<^(г)<х + Дх может быть реализовано следующим образом: g,^.v
для г — 1 из величины х < Е,,. <х + Дх для одной из величин и £,->х + Дх
для остальных п — г величин Е,;. Вероятность такого исхода равна
Г -1 (х) [F (х + Дх) - F(x)] [ 1 - F (х+Ах)]" ’г.
Число способов, которыми и наблюдений можно разбить на три такие
группы, равно
1 Дэйвид Г. Порядковые статистики: Пер. с'англ./Под ред. В. В. Петрова.—
М.: Наука, 1979. 335 с.
52
и! 1
(r—1)! 1!(и—г)! В(г, п~r+ 1)’
где В(х, у) = Г(х)Г(у)/Г(х+у)—бета-функция; Г(х)—гамма-функция.
Поэтому при малом Дх получим
Р{х<^г)<х+Дх} = [В(г, n-r+ I)]'1 F’'' (х)р(х) Дх х
х [1 -В(х + Дх)]"^4-О(Дх2),
где <Э(Дх2) означает член порядка (Дх)2 и включает в себя вероятность тех
реализаций события х<^(и<х+Дх, при которых более чем одно попадает
в интервал (х, х + Дх). Поделив обе части этого равенства на Дх-+0, придем
к формуле
рг(х)=[В(г, + I)]-1 1 (х) [1 — ^(х)]"-’>(х). (1.5.47)
Отсюда при г=п следует формула (45), а при r = 1—формула (46).
Получим совместную п. в. prs(x, у) для порядковых статистик <;(г) и £(s).
1 jgг<5п. Заметим, что составное событие х<^(г)<х+Дх, у<E,(s)< у + Ду ре-
ализуется (с точностью до членов, имеющих более высокий порядок малости)
следующим путем: (г— 1) из всех наблюдений меньше х, одно попадает в интервал
(х, х+Дх); (г—г— 1) наблюдений меньше у, одно попадает в интервал (у, г + Ду),
для остальных (n—s) наблюдений (;,->>’ +Ду. Отсюда для х^у следует, что
prs(x, у)=и! [(г—l)!(s—г— !)’(/? —.sj!] 1 F'~'(x)p(x) [F(y)-F(x)]'‘r~1 x
xp(y)[l-F(y)]"'s, s>r, y>x. (1.5.48)
Формулы (47) и (48) позволяют найти п. в. для медианы и размаха
вариационного ряда Л„ = ^(л) — Е,|1(. Если и—нечетное число: п = 2к + 1, то медиана
равна среднему члену ^(ц+1| вариационного ряда. Положив в (47) л = 2А-+1,
г = к+1, получим
рк+1 (х)=п! (к! к!) *1 Fk (х) [1 -F(x)]‘ р(х). (1.5.49)
Когда п — четное число: н — 2к, медиана определяется как арифметическое среднее
членов и g(t + i) вариационного £яда ^=(^(Ц)+^(» + л)/2. Если в формуле (48)
положить п — 2к, r=k, s = k+\ и затем перейти к новой переменной г=(х+у)/2,
то для п. в. медианы получим выражение
2-п’
Р^ = {к-\)\(к^Ту. f Е1 -F(2z-*)?' р(х) p(2z—x)dx. (1.5.50)
При r=l, х=п из (48) следует совместная п. в. для крайних членов
вариационного ряда (наименьшего с,(1) и наибольшего ^(л|)
Pin(x, y) = n(n-l)[F(y)-F(x)]"~2p(x)p(y). (1.5.51)
Отсюда путем интегрирования находим функцию распределения размаха
Fx(^) = P {Л<М= Л pi„(x, y)dxdy= f dx f Pi„(x,y)dy.
0 < у -- X < x - XI X
Неопределенный интеграл от р1л(х, у) по dy равен
53
Если подставить пределы интегрирования л и ,v + X. то получим
.( .г) dv — ii [А(л- + >,)-/'! и Г~ ’ р(.V).
Л
Следовательно,
FA(M = « i [F(.\4A)-F(.Y)y-1p(.Y)rf.Y. (15.52)
Соответственно для п. в. размаха получим формулу
рл(Х) = н(н- 1) J р’(л- + ?v)-F(.v)]"'2p(.v)p(.r+X)</.r. (1.5.53)
Глава 2. СЛУЧАЙНЫЕ ПРОЦЕССЫ
2.1. ОБЩИЕ ОПРЕДЕЛЕНИЯ
Случайный процесс (сл. пр.) характеризуется тем, что какая-либо
физическая величина (например, ток, напряжение, напряженность
поля и др.) изменяется во времени, причем это изменение
управляется вероятностными законами. Конкретный вид сл. пр.
(т. е. его фактическая запись в виде фотографии или осциллограм-
мы) в определенном опыте называется реализацией случайного
процесса. В качестве синонимов употребляются также термины
траектория случайного процесса и выборочная функция.
Для формального обозначения зависимости сл. пр. (наблюда-
емой величины) от аргументов применяются случайные функции.
Будем обозначать случайные функции буквами греческого ал-
фавита с указанием в скобках аргумента. Случайной функцией
Ц;) называется такая функция, которая при любом фиксирован-
ном значении аргумента является сл. в. Это означает, что при
неизменных условиях опыта значения / = const, в реализациях,
полученных для нескольких полностью идентичных систем, будут
сл. в. В этом состоит существенное отличие случайной функции
от детерминированной, значение которой однозначно определяется
значениями аргументов. Очевидно, что если физические причины
случайного характера, порождающие случайный процесс, отсут-
ствуют полностью, что в действительности никогда не имеет
места, то случайная функция переходит в детерминированную.
При записи случайной функции обычно указывается область ее
задания, т. е. область возможного изменения аргумента.
54
Случайная функция может зависеть не от одного, а оз
нескольких аргументов (например, скорость ветра зависит от
времени и пространственных координат). Случайные процессы
такого характера принято называть случайными полями. В за-
висимости от того, какая случайная функция рассматривается,
различают скалярные и векторные случайные поля.
Можно ввести следующую классификацию: 1) скалярный
случайный npoiiecc £,(/)— случайный процесс, область значений
которого есть множество в пространстве действительных чисел;
2) векторный случайный процесс ^(/)— случайный процесс, область
значений которого есть множество в соответствующем координат-
ном пространстве; 3) скалярное случайное ноле £(г, /)--случайный
процесс, область значений которого есть множество из действи-
тельных чисел в соответствующем координатном пространстве;
4) векторное случайное поле ^(г, t)—случайный процесс, представи-
мый в виде компонент, являющихся скалярными полями.
Случайные процессы и соответствующие им случайные функ-
ции можно классифицировать по разным признакам; 1) по
характеру реализаций x(t), т. е. в зависимости от возможных
значений, принимаемых случайной функцией £,(/) и аргументом *;
2) по виду отдельных вероятностных характеристик., используемых
для описания сл. пр. Приведем классификацию но первому-
признаку (классификация по второму признаку будет дана ниже).
В зависимости от того, непрерывное или дискретное множест-
во значений принимают !;(/) и ее параметр, можно различать
следующие основные виды сл. пр.
1. Дискретная случайная последовательность (дискретный про-
цесс с дискретным временем) —сл. пр., у которого область значений
и область определения — дискретные множества. В данном случае
время t пробегает дискретный ряд значений t0,1г,..., ..., iM, a cjf. в.
x,= ^(zf) может принимать лишь дискретное множество значений л0„
лд, ..., хк, ..., хк. Множества значений {/,} и {.хА.} могут быть
конечными или бесконечными; в последнем случае Л£-+оо, К-+сс.
Процессы такого вида непосредственно встречаются на практике
(случайное подбрасывание монеты, радиотелеграфия, радиолокация
и др.), а также могут быть получены квантованием по уровню и по
времени непрерывно изменяющихся процессов с непрерывным
временем. Такое квантование часто применяется при машинной
обработке различной информации.
2. Случайная последовательность (непрерывнозначный процесс
с дискретным временем) — сл. пр., у которого область значений’—
непрерывное множество, а область определения—дискретное.
Такой процесс отличается от процесса первого вида лишь тем,
что теперь случайная величина ^(?,), z = l, 2, ..., М, может
принимать бесконечное число значений. В качестве примера
можно указать временные выборки из непрерывного случайного
процесса.
55
3. Дискретный случайный процесс (дискретный процесс с не-
прерывным временем) — сл. пр., у которого область значений —
дискретное, а область определения — непрерывное множество.
В этом случае с. (/) может принимать дискретные значения хк,
/с = 1, 2 К, а время 1— континуум значений: /е(0, Г), где
Т—длина временного интервала, на котором задан процесс !;(?).
Примерами могут служить показания счетчика числа случайно
появляющихся частиц, результат квантования непрерывного слу-
чайного процесса только по уровню и др.
4. Непрерывнсзначный случайный процесс — сл. пр., область
значений и область определения которого — непрерывные мно-
жества. В данном случае ^(/) принимает значения из некоторого
непрерывного пространства и аргумент t изменяется также
непрерывно, причем реализации процесса могут иметь разрывы
первого рода. Если подобные скачки отсутствуют, то такой
процесс называется непрерывным.
Процесс называется комплексным, если он принимает комп-
лексные значения.
Непрерывнозначный процесс Точечный процесс
Рис. 2.1. Основные виды случайных процессов
56
5. Случайный точечный процесс (поток) представляет собой
последовательность точек, расположенных случайным образом,
например, на оси времени. Такие точки могут соответствовать
различным событиям (например, моментам времени наступления
отказов в какой-либо системе или аппаратуре, временам поступ-
ления требований или заявок на обслуживание и др.). Характер
временных реализаций перечисленных процессов показан на
рис. 2.1.
Помимо пяти указанных видов возможны разнообразные, более
сложные, смешанные виды случайных процессов. Например, при
рассмотрении радиосигналов с разными видами комбинированной
модуляции часто приходится встречаться со сл. пр. вида
^(/) = Л’(/, А2(/)), гДе F—детерминированная функция первого
аргумента t и параметров АД/) и h2(t), представляющих собой сл.
пр. Если один из параметров, допустим АД/), является дискретным
сл. пр., а другой A2(z)— непрерывнозначным сл. пр., то результиру-
ющий процесс £,(/) можно назвать случайным процессом (сигналом)
смешанного вида. В том частном случае, когда ^(/) = F(z, Аь А2), 1’. е.
параметры Aj и А2 не зависят от времени, а являются сл. в., процесс
ЦД называется квазидетерминированным. В общем случае это
процесс, реализации которого описываются функциями времени
заданного вида F(t, А15 А2, , А„), содержащими один или несколько
случайных параметров А = {А15 А2, ..., АД, не зависящих от времени.
Классификация случайных полей является более разнообразной
в зависимости от разных комбинаций характера областей значе-
ний, принимаемых как компонентами самого поля так
и компонентами вектора г и времени /.
2.2. ОПИСАНИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ
И ПОЛЕЙ
Так как сл. пр. ^(/) или скалярное случайное поле £,(х, у) при
фиксированных значениях аргументов представляют собой сл. в.,
то для их описания (задания) применяются те же вероятностные
характеристики, что и для сл. в., а именно: плотности вероятности
(законы распределения), функции распределения вероятностей,
характеристические функции, моментные и корреляционные (к/му-
лянтные) функции. Напомним их определения и основные свойства.
Для значений сл. пр. £;(/) в любые возможные моменты
времени /ь t2, ..., t„ из области определения процесса /7-мерная
функция распределения вероятностей определяется выражением'
F„(xi, х2, ..., xn; Zj, t2, ..., /п) = Р{^(г1)<х1, ^(/2)<х2, ....
1 Функция распределения вероятностей зависит от tlt 12, •••, t„ как от
параметров. В записи это отражено тем, что основной аргумент х, отделен от
параметра ц точкой с запятой.
57
(2.2.1)
При этом на функции F„( ) налагаются следующие условия:
1) они неотрицательные и неубывающие функции аргументов
х,. х2.......х„, причем
.... -оо; Zt, ..., Z„) = 0, /д(~л. ..., ж; Zn ..., Z„)=l;
(2.2.2)
2) удовлетворяют условию симметрии: для любой перестанов-
ки i2, .... 1п чисел 1, 2, .... п выполняется равенство
Fjx,-,. х,2, .... х;„; Л-,, ti2. х2, .... х„; t2, ....
(2.2.3)
3) удовлетворяют условию согласованности: при т<п и лю-
бых Zm + 1, t„, + 2. z„ имеет место равенство
2*п (*И ' -^2- • ••. -^3». “ЬСО, ..., -|-ОО, Z2, Z2, .... Zm, .... ZfI)
^„(Ль .... хт, f।, .... Zfn).
(2.2.4)
Производная от функции распределения вероятностей
Pn(Fl' ^'2-’ "ч ^1’ ^2’ Z,,) - - - 2\,(Х1, Х2, Хл, Zj, Z2, •••
сх1сх2...сх„
.... Z„) (2.2.5)
определяет «-мерную плотность вероятности. Ее также можно
определить соотношением
p„(xt, .... х„; Z1; .... t„)dxY ... </x„ = P{xj <^(r1)<x1 + t7x1, ...
x-n<^(z„)=$x„ + 4/x„}. (2.2.6)
Функция распределения вероятностей находится интегрирова-
нием плотности вероятности:
Х„ Хх
ZfJ) J ... J pn. .... un, Zj, ..., t„)dur ...dun.
(2.2.7)
В частности, одномерные п. в. и функция распределения
связаны соотношениями
j9i(x; t) = ~Fl(x; z), Fr (x; z)= f pi(w; t)du. (2.2.8)
Плотности вероятности случайного процесса должны удов-
летворять следующим четырем условиям:
1) условию неотрицательности
..... хп; zr, .... zn)>0; (2.2.9)
58
2) условию нормировки
J ... f p„(xr, ..., Л'„; г J....................................................... t„)dx1 ...dx„= 1;
(2.2.10)
3) условию симметрии — функции рп(х^ .... х„; Ц. .... 7„)
должны быть симметричны относительно любых перестановок
аргументов лу, как в (3);
4) условию согласованности: при любом т<п
Д- йп) J f Рп 1’
•Vpp Хт 4- । ,
.... xn\dxm^ ...dx„. (2.2.11)
Последнее соотношение показывает, что из «-мерной п. в.
всегда можно получить любую п. в. меньшей мерности путем
интегрирования первой по «лишним» аргументам. Поэтому можно
сказать, что сл. пр. в общем случае описывается и-мерной п. в.
(функцией распределения), и тем детальнее, чем больше п. Два
случайных процесса, у которых все конечномерные функции
распределения совпадают, называются эквивалентными.
Описание случайных процессов с помощью п. в. является
физически более наглядным, чем с помощью функций рас-
пределения. Однако математическое оперирование функциями
распределения позволяет однообразно охватить разные виды сл.
пр. (дискретных, непрерывных и др.).
Отметим, что изучение сл. пр. не сводится полностью
к изучению совокупности сл. в., а имеет некоторые принципиаль-
ные особенности. Хотя интегрированием /7-мерной и. в. сл. пр. по
«лишним» аргументам всегда можно найти все другие п. в.
меньшей кратности т<п, однако само наибольшее значение н для
случайного процесса ничем не ограничено. По-видимому, исчерпы-
вающим было бы описание случайного процесса одной п. в.
максимального порядка, если бы она существовала. При непре-
рывном изменении параметра t такого конечного максимального
порядка в общем случае не существует. Здесь можно указать два
частных, но очень важных и наиболее изученных класса случайных
процессов, для которых //-мерные плотности вероятности р„ при
пРЗ выражаются через двумерные плотности вероятности р2'. это
гауссовские (§ 2.6) и марковские (§ 3.1) процессы.
Для совместного вероятностного описания двух или несколь-
ких сл. пр. (например, на входе и выходе системы) вводят
совместные функции распределения и плотности вероятности.
Так, для двух процессов и г|(г) их определяют с помощью
следующих соотношений:
Рл + т(*^1? •••’ -Д? У1, •••’ Д’ Д’ Н’ бп)
= Р{£(д)<%1, ^(д)<х„, n(z'i)<j’i, Ц(2.2.12)
59
У11 Ут-> •••> 6п •••> ... dxndy^ ...
tZy,n = PU'i<^(r1)^A-1 + fifx'i, ..., x„<t,(t„)^x„+dx„, (2.2.13)
Ti<n(*'i)Oi+<fyi, ym<r{(t'm)^ym + dy,„},
где п, т— целые неотрицательные числа.
Два сл. пр. и т| (t ) называются независимылш, ес-
ли совокупность значений первого процесса !;(д), ..., !;(/„)
не зависит от совокупности значений второго процесса г|(Д),
..., т|(4) при любых Д, ..., tn, t\, ..., t'm. Необходимое и доста-
точное условие независимости процессов состоит в том, что
совместная п. в. (13) распадается на произведение п. в. каждого
из процессов:
Рп + т(Х1> •••> Хп., У j, ..., Ут? t 1» I т)
(2.2.14)
=pn(xb ..., х„; А, ..., ..., ут; t\, t'm).
Определения функций распределения и плотностей вероят-
ностей распространяются и на случайные поля. Пусть, например,
имеется ансамбль реализаций случайного поля ^(х, у), полученный
для момента времени t. Так как в фиксированной точке
пространства с координатами (xt, значение функции для
разных реализаций есть сл. в., то можно ввести одномерную
функцию распределения случайного поля
Л(^; У1)=р{Ц*1, У1)<^1}-
(2.2.15)
Если необходимо знать поведение и взаимосвязь значений поля
в двух точках пространства (хь jj) и (х2, у2), то вводится
двумерная функция распределения
Л(^1, ^2; Х1; у1У х2, J2) = P{^(xi, y1)<t,1, £(х2, y2)<t,2}.
(2.2.16)
Аналогично определяются «-мерные функции распределения.
Если в формулах (15), (16) функции Ft имеют частные
производные по то можно определить соответствующие
плотности вероятности
Р1(^1) = ЗЛ(^; у^/дЪ, (2.2.17)
Т2(^1, ^) = d2F2(^, £2; хь Ь, х2, у2)/д^д^2. (2.2.18)
Для случайных процессов и полей можно ввести условные
плотности вероятности. Так, случайное значение процесса
при известном значении его в другой момент времени ^(12) = х2
описывается условной п. в.
p(xt; Zi|x2; z2)=p2(X1, х2; tlt t2)lPi{x2, t2), (2.2.19)
60
где
Pi(x2; ?2) = f /М*!’ х2’ h, t2)dx1. (2.2.20)
Условная п. в. р(х2; | х2, /2) содержит больше (по крайней мере
не меньше) сведений о чем безусловная п.в. /^(ху; Zx).
Насколько именно увеличилась информация о в результате
того, что стало известным значение i,{t2} = x2, зависит от конкретных
условий. В некоторых случаях информации о вообще не
прибавляется, каким бы ни оказалось значение х2. Это значит, что
р(хр, Zi|x2; t2)=p(xi', G), (2.2.21)
при этом
p2(xi, х2; ti, ?2)=р(х1; ?i)pi(x2; t2)- (2.2.22)
Эта формула выражает необходимое и достаточное условие
независимости значений сл. пр. ^(/) в два момента времени
?! и t2. Для физически реальных процессов, наблюдаемых
в системах с конечной памятью, равенства (21) и (22) выполняются
в пределе при |z2 — Zj-^oo почти всегда.
В другом противоположном крайнем случае, когда разность
(z2 — /1)-»0, физически очевидно, что для непрерывнозначных
процессов lim/?(%!; |х2; г2) = 8(х1 — х2) и, следовательно,
<2^*1
p2(xi, х2; ?!, /2)=/ъ(х2; /2)8(х1-х2), (2.2.23)
где 8(х)— дельта-функция. Между этими двумя крайними случа-
ями возможно большое число промежуточных случаев.
Формулы (19) ... (23) можно обобщить на различные мно-
гомерные условные п. в., которые по «левым» переменным
должны удовлетворять обычным четырем условиям.
В некоторых задачах вместо п. в. предпочтительнее опериро-
вать характеристическими функциями, представляющими собой
преобразование Фурье от плотностей вероятностей:
ФИ0Э1, ..., j9„; Z15 ..., /n) = M{exp(j91^1 + ...+j9„^n)} =
(2.2.24)
оо оо
= f f expfj^xj-i- ... +Эпхи)]р„(хъ ..., х„; /ь...
— 00 — СО
tn}dxi... dxn.
Из обратного преобразования Фурье по характеристической
функции находим п. в.
- оо — оо
..., j9„; ...,... dS„.
Рп(Хг, ...,
хФДА,
exp[-j(3ixi+ ... 4-Э„х„)] х
(2.2.25)
61
Применительно к одномерному случаю формулы (24) и (25)
принимают вид
Ф103; 0= f exp(j9x)p(x; t)dx,
(2.2.26)
со
exp(-j3x)O1(j9; t)d&.
Таким образом, между функцией распределения, плотностью
вероятности и характеристической функцией существуют одно-
значные связи.
В качестве характеристик случайных процессов и полей, более
простых, чем п. в., можно использовать моментные и корреляци-
онные (кумулянтные) функции. При этом различают начальные
и центральные моментные функции. Под начальными моментными
функциями сл. пр. заданного на некотором интервале,
принимают функции mv (/), mv V2(H, t2\ ..., ^v1v2...v„(/1, t2, ...
..., /„), симметричные относительно всех своих аргументов,
являющиеся математическими ожиданиями соответствующих про-
изведений:
AHv1(/) = M{^v>(/)} = fx',ip1(x; t)dx,
™v,v20i’ r2) = M{^v>(z1)^v2(z2)} = JJxv11X22p2(x1, x2; t^dx^x^
(2.2.27)
t2, /n) = M{^V>(Z1)^v2(/2)...^v"(r„)} =
= J... J X 1‘x 22 ... x>p„(x!, ..., x„; ..., t„)dxY ... dx„,
где — неотрицательные целые числа. Момент
/HV1v2...Vri(^i, t2, ..., z„), зависящий от п несовпадающих аргументов
t2, t„, называется п-мерным моментом (vi + v2 + ... +v„)-ao
порядка.
Вместо начальных моментов можно рассматривать централь-
ные моменты, которые определяются формулой
HvlV2...v„(n, t2, r„) = M{[£(Zi)-w1(r1)]v* ... [^(/n)-m1(/n)]v-} =
=4-Hxi-'M?i)]Vl • •• [*„-«л On)]v" x
X P„(xi, xn; h, ; tnjdxt ... dx„. (2.2.28)
Если соответствующие моментные функции существуют, то
их можно определить путем разложения характеристической
функции в ряд Маклорена. Разлагая экспоненту в правой части
(24) в ряд Маклорена и беря затем математическое ожидание
от каждого члена, получаем
62
Ф„0»!, ..., j3„; h, .... /,,) = M{l+j £ £Д,+
И=1
+ Д2 ^h£v1%&v + "-} =
P,V=1 ,
= l+j £ Wi(/M)3M+;j2 Z тц(^ Л.)ЭД+ ...,
p=l M,v=l
где
> j^nJ tl, > 1п) I = S2 = ...=S„ = O =jWl (?Д
viZp
(2.2.29)
(2.2.30)
——:-----------on(j9i,
ЭЭ?ЭЭ^...е)Э;" u
. j&ni h,..., £„)[ S[ =э2
= э„ = о-
=G)V1+V2+-+v''^V1V2...v„0n tn).
Применительно к одномерному случаю формулы (29) и (30)
принимают соответственно вид
<МЭ; Z)=l+ £ t) 18 = 0 4vmv{t). (2.2.31)
н V; Ох?
V= 1
Если интересующие нас моменты существуют, то формула
(30) дает простой способ вычисления их путем дифференцирования
характеристической функции. При указанном условии справедливо
и обратное, а именно по моментам можно восстановить харак-
теристическую функцию согласно (29).
Перейдем к определению корреляционных (кумулянтных) фун-
кций. Корреляционные функции Ri(t), T?2(?i,
подобно кумулянтам, определяются с помощью разложения в ряд
Маклорена не самой характеристической функции, а ее логарифма.
Для многомерного случая формула, аналогичная (1.1.29),
имеет вид
п
ФЯ0Э1, ..., j9„; 4, ..., ?„) = exp[j £ 2?i(^)9M +
к=1
•2 n -3 л
+J- Z Z Zv, П)3ИЭА+...].(2.2.32)
|i,v= 1 ' |i,v.X= 1
Из (32) получаем
jJR1(/) = dlnO1(j9; t)/dS\^0, j27?2(/,7) = d2Ol(j9, /)/ЙЭ2|9=0,
?2) = £*21ПФ2(j^i> j&21 tx, ?2)/ЭЭ1<)Э2 13[ = э2 = о- (2.2.33)
Чтобы получить выражение моментных функций через кор-
реляционные и наоборот, нужно каждый из экспоненциальных
63
сомножителей в (32) разложить в ряд Маклорена, перемножить
эти ряды, сгруппировать члены и затем сравнить результат
с формулой (29). Не приводя здесь громоздких формальных
разложений, запишем окончательные формулы, устанавливающие
однозначную связь моментных и корреляционных функций:
(/) = Ri (z), /Иц(ч, t2) = Л2(Н, t2) + R1 (/i) R, (z2),
i (H, h) = 1, h, H) + [-^i 2з) +
+ 7?i (Z2) (?i, /з)+7?1 (t2)R2(ti, Z2)] + ^i (h) Hi (h) (Н),--
(2.2.34)
Разрешая последовательно уравнения (34) относительно кор-
реляционных функций, можно получить выражения корреляцион-
ных функций через моментные.
Итак, моментные функции однозначно выражаются через
корреляционные. При определенных условиях по моментным или
корреляционным (кумулянтным) функциям можно восстановить
характеристическую функцию и, следовательно, п. в. (см. рис. 1.4).
Поэтому моментные функции так же, как и корреляционные,
могут быть использованы для описания случайных процессов.
Поскольку моментные и корреляционные функции определя-
ются как коэффициенты разложения в ряд Маклорена харак-
теристической функции или ее логарифма, то естественно, что
первые коэффициенты соответствующих разложений являются
наиболее важными и существенными. В дальнейшем особую
роль будут играть м. о. сл. пр.
«?(/)= (7) = М{£(/)} = J xpi(x;/)zZx, (2.2.35)
а также начальный момент /пц(н, /2), называемый ковариационной
функцией сл. пр.,
г2) = Н211(Н, M {сф/фсЦ/г)} =
ОС УГ.>
= J J x'!X2p2(xi, х2; ?!, t2}dx,dx2 (2.2.36)
и центральный момент |1ц (И,/2) = Т?2(н,/2), называемый кор-
реляционной функцией сл. пр.,
n) = Pn(z1, Z2) = M{^(z1)-mJz1)][^(z2)-z?2j/2)]} =
= J f [x1-mjz1)][x2-mi;(z2)]p2(x1, x2; t2)dxxdx2.
(2.2.37)
Из (36) и (37) следует связь между ковариационной и кор-
реляционной функциями сл. пр.:
2г) —22) + m^(h)(2.2.38)
64
Раздел теории, посвященный изучению лишь тех свойств сл.
пр., которые определяются этими характеристиками, называется
корреляционной теорией. Корреляционная теория дает полное
описание одного очень важного класса случайных процессов —
гауссовских (§ 2.6).
Отправляясь от совместных и условных п. в. типа (13) и (19),
можно ввести совместные и условные моментные и корреляционные
функции. Они определяются формулами, аналогичными (27), (28)
и (32), только теперь нужно оперировать соответственно со-
вместными и условными п. в. и условными характеристическими
функциями.
2.3. КЛАССИФИКАЦИЯ ПРОЦЕССОВ
И ПОЛЕЙ
Основываясь на введенных характеристиках сл. пр., можно
провести их классификацию.
1. Нестационарные и стационарные процессы и поля. Важным
классом сл. пр. являются стационарные сл. пр. Случайный
процесс ^(z) называется стационарным в узком, смысле, если все
конечномерные функции распределения вероятностей любого
порядка инвариантны относительно сдвига по времени1, т. е.
при любых п и t0 справедливо равенство
Сп(х'), ..., Z| Zq, ..., tn Zq) Fn(xr, ..., X„, Zj, ..., tn). (z.,3.1)
Это означает, что два процесса ^(z) и £(z — z0) имеют одинаковые
вероятностные характеристики при любом Zo. Случайные процес-
сы, не удовлетворяющие этому условию, называются нестаци-
онарными в узком смысле. Разумеется, что аналогичное равенство
должно выполняться для п. в.
Pnfai, ? ti to> ..., tn Zo) ..., x„, Zj, ..., Zn), (2.3.2)
а также для характеристических, моментных и корреляционных
функций.
Стационарный в узком смысле сл. пр., в отличие от
нестационарного, ведет себя однородно (однообразно) во времени.
Стационарные сл. пр. аналогично установившимся детермини-
рованным процессам получаются в установившемся режиме
работы системы при неизменных внешних условиях. Стационар-
ные процессы являются частным случаем более широкого класса
нестационарных процессов (рис. 2.2). Примером последнего может
быть любой сл. пр. в переходном режиме работы системы
(например, сл. пр. на выходе инерционной системы в начальный
' В литературе такие случайные процессы часто называют также стационар-
ными в строгом смысле.
65
3—2247
Рис. 2.2. Иллюстрация соотношения меж-
ду различными видами случайных про-
цессов
период при воздействии на
вход системы даже стационар-
ного случайного сигнала).
В некоторых простых случаях
нестационарный процесс мож-
но преобразовать в стационар-
ный. Например, нестационар-
ные процессы n (t) — Е, (?) +/(?)
или т) (?) =/(?)£ (?) +/i (?), где
^ (?) — стационарный процесс,
/'(?) и /1(?) — некоторые детер-
минированные функции, очевидным образом сводятся к стаци-
онарному процессу £,(?). Однако если нестационарный процесс
т](?) задан выражением типа
т](?) = {Л(?, т)^(т)й?т,
о
где А (?, т)—некоторая детерминированная функция, то сведение
нестационарного процесса к стационарному в общем случае
невозможно.
Понятие стационарности в узком смысле обобщается на два
и несколько сл. пр. Два сл. пр ^(?) и т|(?) называются совместно
стационарно связанными в узком смысле, если их совместные
функции распределения вероятностей любого порядка инвариан-
тны относительно сдвига по времени:
F„ + т(ЛT ’ • • ’ Хп ’ У1 ’ ’ ’’ Ут 1 П ’ ’ ’ ’ Ci > "ч ^и) —
~ } Хп\ уV т', Н ~ ^0’Ci ~ 1 ~~ ^0’ • • Д т ~ ^0 )•
(2.3.3)
Отметим, что если каждый из процессов <;(?) и т](?) сам по
себе стационарный, то отсюда вовсе не следует, что они будут
стационарно связанными в узком смысле.
Из определения стационарности (2), в частности, следует
?1)=^(х; ?i-?i)=^i(x); (2.3.4)
Р2{Х1’Х2> G’G)=/,2(-H> Х2’ Н Н’^2 G) ==/,г(Л-1’ Х2’ ^)’ И'
Таким образом, для стационарного в узком смысле сл. пр.
п -мерная плотность вероятности, п -мерные моменты и кор-
реляционные функции зависят не от п, а от (и—1) моментов
времени, так как один из выбранных моментов времени можно
всегда принять за начало отсчета времени (например, положить
?1=0).
Из первой формулы (4) видно, что одномерная п. в. стаци-
онарного в узком смысле сл. пр. вообще не зависит от времени.
Поэтому одномерная п. в. и одномерные моменты не учитывают
временных характеристик стационарного процесса: процесс, про-
66
i екающий в v раз быстрее или медленнее, будет иметь одну
и ту же одномерную п. в.
Математическое ожидание (среднее значение) стационарного
в узком смысле случайного процесса не зависит от времени:
J xp2(x)dx. (2.3.5)
Ковариационная t2) и корреляционная t2) функции
зависят лишь от разности аргументов T — t2 — tr, причем
/?5(t) = M{[^(/)-mJ [^(Г +t)-/hJ} =
00 GG
= f j (%j — m^{x2—m^p2(xi, x2,r)dxldx2 — (2.3.6)
= M{^(r)^(r + т)}-т1 = К^т)-т2.
Дисперсия стационарного процесса
P1=at2 = M{[l;(r)-mi]2|-.R1(0)= (2 3 7)
= f (х — m^2p1(x')dx — М{с,2(/)] — т j
постоянна и равна значению корреляционной функции при
пулевом значении аргумента.
При решении некоторых практических задач (в рамках
корреляционной теории) многомерные п. в. не рассматривают,
а оперируют только м. о. и ковариационной (корреляционной)
функцией. В связи с этим введено понятие стационарности
в широком смысле.
Случайный процесс ^(7) с конечной дисперсией называется
стационарным в широком смысле, если его м. о. и ковариационная
функция инвариантны относительно сдвига по времени, т. е.
м. о. постоянно (не зависит от времени), а ковариационная
функция зависит только от разности аргументов t2 —
const, /2) = — Г1). (2.3.8)
На основании формул (5) и (6) заключаем, что сл. пр.,
стационарные в узком смысле, всегда стационарны и в широком
смысле. Однако обратное утверждение в общем случае неверно.
Два стационарных сл. пр. <;(/) ит|(() называются стационарно
связанными в широком смысле, если их взаимная ковариационная
функция инвариантна относительно сдвига по времени:
?2) = М{^(д)т)(д)}=М{^(?1-/1)т1(?2-g)} =
= JQt), т = г2-Г1. (2.3.9)
Отметим, что если каждый из процессов и т](г) явля-
ется стационарным в широком смысле, то это вовсе не озна-
67
чает, что они являются стационарно связанными в широком
смысле.
Помимо указанных двух основных определений стационар-
ности встречаются и другие понятия стационарности.
Случайный процесс ^(/) называется стационарным порядка
к, если равенство (1) или (2) выполняется не для любых и,
а только для п ^к. Ясно, что если (2) справедливо при п=к,
то в силу условия согласованности (1.2.11) оно будет также
выполняться и при п к.
Случайный процесс ^(Г) называется асимптотически стаци-
онарным в узком смысле, если существует предел
lim p„(xt, ...,хп; + t0,..., +
'о"''
Случайный процесс <;(/) называется стационарным в узком
смысле на конечном интервале, если равенство (2) выполняется
для всех временных точек этого интервала.
Процесс ^(г) называется периодически стационарным или
циклостационарным в узком, смысле с периодом Т, если равенство
(2) выполняется только при ta — mT, m = i, 2, ... Это означает,
что случайные величины ^(г), ^(г + Г), ..., £,(/ +тТ) имеют одина-
ковые плотности вероятности. Можно сформулировать аналогич-
ные определения стационарности в широком смысле.
Приведенные определения распространяются на случайные
поля. Однородность случайного поля является аналогом стаци-
онарности сл. пр. Случайное поле г; (г) называется однородным,
если его плотности вероятности любого порядка не меняются
при произвольном сдвиге начала координат, т. е.
г1,...,гй)=^„(^1,...Дп; rj-ro,...,^-^). (2.3.10)
Физически однородность поля указывает на то, что в любой
точке пространства г поле ведет себя «в среднем» одинаково.
Если равенство (10) не выполняется, то поле является не-
однородным.
В более общем случае поле определено как функция координат
пространства г и времени t, т. е. ^(г, ?). Если учитывать
временную зависимость, то к полю применимо понятие стаци-
онарности, относящееся к сл. пр. Случайное поле называется
стационарным (во времени) в узком смысле, если его плотности
вероятности не меняются при изменении начала отсчета времени.
Поместив начало отсчета в точки Fj и для одномерных
и двумерных плотностей вероятностей однородных и стационар-
ных полей можем написать
р^ъ п; п-п; ,П]П
Р2(^1Л2; Г1,г2; =Р2^1,^ Лг; т),
где Аг=г2—rt; т=г2 —G-
68
Случайное поле называется однородным в широком смысле,
если его м. о. не зависит от координат пространства, а простран-
ственная ковариационная функция ^(г15 г2) является функцией
только разности аргументов, т. е.
^(r1,r2) = ^(r2-r1) = ^(Ar). (2.3.12)
Стационарность случайного поля в широком смысле предполагает
постоянство м. о. поля во времени и зависимость временной
ковариационной (корреляционной) функции только от разности
т = ?2-г1.
Аргументом корреляционной (ковариационной) функции одно-
родного случайного поля является разность координат простран-
ства Аг, что дает основание называть /?^(Аг) пространственной
корреляционной функцией. Вектор Аг имеет те же проекции, что и г.
Поэтому корреляционная функция скалярного поля является
функцией нескольких переменных. В этом состоит существенное
отличие случайного поля от случайного процесса, где корреляци-
онная функция зависит только от одного аргумента t.
Если имеется однородное поле вида ^(х, ^), то его корреляци-
онная функция зависит от двух переменных ЛДАх, Лу), для
трехмерного поля ^(х, у, z)— от трех переменных (Ах, Ay, Az).
2. Эргодические и неэргодические стационарные процессы. До
сих пор характеристики сл. пр. и полей (п. в., моментные функции
и др.) были определены через соответствующие статистические
средние значения, т. е. средние значения большего числа реа-
лизаций в ансамбле идентичных систем. Оказывается, что для
некоторых стационарных сл. пр. указанные характеристики можно
получить путем осреднения соответствующих величин по одной
реализации достаточно большой длительности.
Например, представляется естественным за оценку м. о. try
стационарного процесса ^(/) принять величину
Т
т= lim - к(г)Л, (2.3.13)
т— «>rj
о
а в качестве оценок дисперсии D. и корреляционной функции
/?^(т) взять соответственно величины
т
D = lim (Г) —2dt, (2.3.14)
Г— J
О
А(т) = liml |Л(/+т)-
Т— 00 7 .
О
(2.3.15)
69
На практике временной интервал осреднения Т берут конечным,
но по возможности большим.
Такая возможность физически может быть оправдана тем,
что стационарный сл. пр. протекает однородно во времени.
Поэтому одна реализация достаточно большой продолжитель-
ности может содержать все сведения о свойствах случайного
процесса. Это можно также пояснить иначе. Представим себе
мысленно, что длинная реализация стационарного процесса
разбита на «куски» примерно одинаковой длительности. Для
ряда стационарных процессов каждый из таких «кусков» можно
рассматривать в качестве «полномочного представителя» отрезка
реализации на выходе отдельного члена статистического ансамбля
одинаковых систем. Стационарные сл. пр., для которых это
справедливо, называются эргодическими или говорят, что стаци-
онарный процесс обладает эргодическим свойством (рис. 2.2).
Стационарный процесс <;(/) называется эргодическим в строгом
смысле, если с вероятностью единицы все его вероятностные
характеристики могут быть получены по одной реализации
процесса. Имея в виду, что различные характеристики эргоди-
ческого процесса обычно определяются путем осреднения по
времени, можно сказать, что стационарный сл. пр. !Цг) явля-
ется эргодическим, если результаты осреднения по времени
совпадают с соответствующими результатами осреднения по
ансамблю, т. е. с м. о.
Практически часто интересуются не всеми, а только отдель-
ными характеристиками процесса (в частности, м. о., корреляци-
онной функцией и одномерной функцией распределения или
п. в.). Ясно, что процесс может быть эргодическим относительно
одной характеристики (параметра) и не эргодическим относитель-
но других. В связи с этим можно ввести понятие эргодичности
относительно отдельных характеристик процесса [2].
Отметим, что каждый из перечисленных частных видов сл. пр.
в свою очередь можно дополнительно классифицировать в за-
висимости от формы частных характеристик, описывающих
рассматриваемый процесс. Например, за основу классификации
можно принять вид п. в. (нормальные и ненормальные), характер
корреляционных функций (широкополосные и узкополосные про-
цессы) и т. д. Такая классификация будет приведена позже, при
рассмотрении частных видов случайных процессов.
2.4. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ
При решении многих практических задач часто оперируют
м. о. и корреляционной или ковариационной функцией сл. пр.
Их определения для действительного случайного процесса даются
формулами (2.2.35)...(2.2.38). Для комплексного сл. пр.
?(/) = i;1(r)+j^2(/) аналогичные формулы имеют следующий вид:
70
w5(z) = M{^t(z)+j^2(z)}=M{^1(z)}+jM{^2(z)} =
='?4i(z)+M2(0’ (2.4.1)
Rj^ Z^M^zJ-wJzJ] |V(z2)-m^)]}- (2-4.2)
A’Jg, Z2) = M{^(Z1)e(z2)} = ^(z1, С) + "Ч(сН0г), (2.4.3)
где звездочкой отмечены комплексно-сопряженные функции. Оче-
видно, что соответствующие определения и результаты для
вещественного процесса получаются отсюда автоматически, если
положить мнимую часть соответствующих сл. в. равной нулю.
Из последней формулы видно, что ковариационная функция
отличается от корреляционной наличием детерминированного
слагаемого m^t Если м. о. процесса mL(t) = 0, то ковариа-
ционная и корреляционная функции совпадают.
Значения сл. пр. ^(Z) в два момента времени tl и t2 называются
некоррелированными, если R^(tv, Z2) = 0, т. е.
7Q(Zi, Z2) = mjz1)w^(z2). (2.4.4)
Рассматриваемые два значения называются ортогональными, если
K^tr, Z2) = 0. (2.4.5)
Пусть имеется два не обязательно вещественных случайных
процесса ^(Z) и r|(Z) с корреляционными функциями R^{tv, Z2)
и Rq(tl, t2) или ковариационными функциями K^tr, Z2) и K(tr, Z2)
соответственно. В дополнение к ним теперь можно рассматривать
две взаимные корреляционные или ковариационные функции
^) = M{[^(z1)-mJz1)][rt*(z2)-m;(z2)]},
R^h, = м{[<)-^(Zj] [^(z2)-m^2)]}, ( J
или
Z^M^zJn*^)}, K^tl, Z^MMzJ^)}. (2.4.7)
Следовательно, корреляционные свойства между отсчетными
значениями сл. пр. ^(Z) и т)(Z) в два различных момента времени
задаются корреляционной или ковариационной матрицей:
(2.4.8)
В общем случае, если нужно задавать корреляции (ковариации)
для двух процессов в п моментов времени или ддя совокупности
п разных процессов в два момента времени, то потребуется
корреляционная (ковариационная) матрица размером п х п.
Два сл. пр. £(Z) и t](z) называются некоррелированными, если
взаимная корреляционная функция для двух произвольных момен-
тов времени равна нулю:
71
^n0i’Z2) = O; = (2.4.9)
Процессы !Цг) и ц (г) называются ортогональными, если ковари-
ационная функция равна нулю:
' М^2)=°- <2-4-10)
В ряде случаев оказывается целесообразным вместо R^tt, t2)
или t-,) рассматривать соответственно нормированную кор-
реляционную" функцию г.(/1; Г2) или нормированную взаимную
корреляционную функцию t2):
t2) = R,(ti, (2.4.11)
h)= ^е,п01’ (2.4.12)
Эти функции количественно характеризуют степень линейной
зависимости между соответствующими значениями одного или
двух процессов.
Перечислим основные свойства корреляционных функций. При
этом будут использованы обозначения
г2)==^«(г1- ^2)==^е(Н> ?г)- (2.4.13)
Все свойства взаимной корреляционной функции Л5п(Н, г2) Рас‘
пространяются на корреляционную функцию t2).
1. Корреляционная функция обладает так называемым эр-
митовым свойством
?2) = ^nU?2’ Z1)’ ?2) = ^*ie(?2’ ?i)- (2.4.14)
В справедливости этих равенств можно убедиться на основании
определения взаимной корреляционной функции (6). Отсюда
следует, что корреляционная функция вещественного сл. пр. £,(/)
является симметричной относительно своих аргументов:
t2) = R^(t2, tl). (2.4.15)
2. Для корреляционной функции справедливо неравенство
Коши — Шварца
I t2) I2 М{I |2}м{I ц(/2) I2}=рд?1)рп(г2),
|г^(п, г2)1<1- (2-4.16)
Пусть м. о. процессов £(г) и т](?) равны нулю и X — вещественная
переменная. Тогда из очевидного неравенства
г2)пЫ12}^0
имеем
+ /2)г)(;2)] /2)т)*02)]} =
= М{|^(/1)|2 + Х[^п(?1,Т2)^*(?1)т1(г2) + Л^(н, 72R(/1)t|*(z2)] +
+ А,2|T?^(Z15 t2 I21 T)(/2)I2} = M{| |2} + 2Х| R^tl, r2)|2 +
+ V|^n(/1^2)|2M{|n(r2)|2}^0.
72
Этот квадратный многочлен неотрицателен для любого X.
Поэтому дискриминант такого квадратного уравнения не может
быть положительным, откуда и следуют неравенства (16).
3. Равенства
1-^Еп(г1’ | дД/j- Э.) I — 1
(2.4.17)
имеют место тогда и только тогда, когда существуют такие
постоянные числа а ^0 и Л, что значения сл. пр. фД и ф12)
с вероятностью единица связаны линейной зависимостью
П(г2) = аф1) + Й. (2.4.18)
Для доказательства этого факта воспользуемся выражением
для нормированной взаимной корреляционной функции (12):
(2.4.19)
где ф) и г)(г) -нормированные сл. в.:
1(0= [Л(')~п(0 = [п(0-%(0]/Ч/аМ (2.4.20)
Если выполняется условие (18), то
г. (/ о \-M|M(i)-'Mfi)flfe*('i)-"4i'i))Lа _f
11 2 ( ч/оДб) J |fli ( '!’ а <0.
Предположим теперь, что 1^ (fj, ?2)|= 1. Пусть, например,
процессы ф) и т)(/) вещественные и (it, l2)= 1. Тогда
М{Ш-Ж)В = 2[1-г.,Д, /2)] = 0.
Но дисперсия равна нулю тогда, и только тогда, когда с веро-
ятностью ^единица рассматриваемая величина является постоян-
ной, т. е. |(/1) —f|(?2) = С = const. Отсюда следует, что т|(?2) и ^(7,)
должны быть связаны линейной зависимостью. Аналогично, если
дл(П, G)= — 1> то l(G) + Л (И) = С =const и, следовательно, остает-
ся справедливым тот же результат.
4. Всякая корреляционная функция R^{tx, t2) обладает фундамен-
тальным свойством неотрицательной определенности в следующем
смысле. Пусть tn -- любое конечное число точек и ~х,...,2п—
произвольные комплексные числа. Тогда эрмитова форма
Z R^, ФФ=м{ I =
i,k=l i,fc=l
= M{|f ^(ф,.|2}^0
i= 1
(2.4.21)
всегда вещественна и положительна. Здесь было принято, что
м. о. процесса ф) равно нулю.
Из (21) при п=1, z=l имеем
А(н) = ^(г1, г1)=М{|^(г1)|2}^0.
(2.4.22)
73
Кроме того, из (21) следует частный результат формулы (14).
а именно
ЛД/j, r2)=«f(/2, (2.4.23)
5. Приведенное свойство неотрицательной определенности яв-
ляется характеристическим свойством класса всех корреляционных
функций. Это означает, что если какая-нибудь функция R^t^ t2)
обладает этим свойством, то в принципе можно найти сл. пр.,
для которого она будет корреляционной функцией.
Конкретизируем свойства корреляционных функций примените-
льно к вещественным ст ационарным в широком смысле сл. пр. £(z).
Напомним, что для стационарного в широком смысле сл. пр.
£(Г) согласно (2.3.8) справедливы следующие соотношения:
/772 = М {£,(?)]= const, 7)i. = <T? = M{[c,(/) — mj2} = const, (2.4.24)
Rt (г) = Djу (г) = M {[t; (Г) - /и. ] [1; (1 + т)-т J}. (2.4.25)
г/(т) = М{^(?)|(г + т)}, (2.4.26)
где тильдой сверху обозначены нормированные величины (20).
1. Абсолютное значение корреляционной функции при любом
т не может превышать ее значения при г —0, г. е.
|ед^, |г£(т)|<1. (2.4.27)
Этот результат следует из (16), а также из очевидного неравенства,
что м. о. положительной функции не может быть отрицательным:
M![5('+T)+?w]2;~2[i+r,(T)]»o.
2. Корреляционная функция вещественного стационарного
процесса 5, (г) является четной функцией своего аргумента:
= rJT) = ^(-T). (2.4.28)
Этот результат следует из (23), а также из того факта, что
значение корреляционной функции стационарного процесса не
зависит от выбора начала отсчета времени.
Отметим, что взаимная корреляционная функция двух со-
вместно стационарных в широком смысле вещественных сл. пр.
^(/) и т) (/) является вещественной и не обладает свойством
симметрии: если с, и г) поменять местами, то
RM = Rnd~T\ ^п(т) = /пИ-4 (2.4.29)
3. Если корреляционная функция непрерывна при т = 0, то
она непрерывна при всех других значениях г. Доказательство
этого свойства базируется на неравенстве Коши — Шварца вида (16):
[М^ЧМ^М^ ^(1). ^ = £(/ + 4 (2.4.30)
Ради упрощения записей будем оперировать нормированными
величинами и применим неравенство (30) к м. о. М {(^т+А —
74
|М{(^+„-^}|<[м{ил-^)2}м{?2}]1/2-
Раскрывая левую и правую части этого неравенства, имеем
|rjT + A)-rjT)|^V/2[l-rj/?)]1/2.
Если нормированная корреляционная функция г^(т) непрерывна
в точке т = 0, то существует такое 3>0, что |1—г^(А)|<е0 при
|Л|<3, где so>0 — сколь угодно малое число. При этом
|г5(т + Л) —гДт) ]^^y/2s0 = s при |Л| <3 для любого значения т, что
и есть требуемый результат.
4. Для многих практически интересных стационарных сл. пр.
выполняется равенство
lim 7?Jt) = 0. (2.4.31)
Т—*00
Физически этот результат объясняется тем, что устойчиво ра-
ботающие системы обычно имеют конечное время затухания
(конечное время «памяти»). Поэтому для сл. пр., наблюдаемых
в стационарно и устойчиво работающих системах, последующее
значение процесса оказывается практически независимым и некор-
релированным с предыдущим значением, если они разделены
достаточно большим интервалом времени.
5. Преобразование Фурье от корреляционной функции есть
неотрицательная функция [см. (2.5.13)]
f 7?Дт)ехр( — ]сот)б?00. (2.4.32)
— 00
Этим свойством можно воспользоваться для решения вопроса
о том, может ли какая-либо функция Я(т), удовлетворяющая
предыдущим условиям, представлять корреляционную функцию
стационарного в широком смысле сл. пр.
Таким образом, корреляционная функция стационарного слу-
чайного процесса является четной функцией аргумента т, имеет
максимум, равный дисперсии !к, при т = 0, непрерывна при всех
г, если только непрерывна при т = 0, и, как правило, убывает
до нуля при т->оо.
В большинстве радиотехнических задач встречаются нор-
мированные корреляционные функции двух типов: в виде мо-
нотонно убывающих функций аргумента т и в виде осциллиру-
ющих затухающих функций (рис. 2.3). Будем обозначать нор-
мированную корреляционную функцию первого типа через
7'Дт) = рДт). Одним из примеров нормированной корреляционной
функции первого типа может служить функциящДт) = ехр( —ат2),
где а — постоянная положительная величина, а примером второго
типа гДт) = рДт)со8со0т, где 7<<mn.
В инженерной практике вместо точного аналитического
задания вида нормированной корреляционной функции часто
75
Рис. 2.3. Нормированные корреляционные функции стационарных процессов
ограничиваются указанием лишь интервала тк, который дает
ориентировочное представление о том, на каком интервале
времени в среднем имеет место заметная коррелированность
между значениями сл. пр., существенная для решаемой задачи.
Аналогично тому как оценивается длительность импульса,
интервал корреляции можно определить по-разному. Так, можно
условиться для коэффициентов корреляции обоих типов под
интервалом корреляции тк понимать величину
СО СО
= z f IpJt)|<7t= f |pj-c)|<fc. (2.4.33)
— oo 0
Геометрически тк равно основанию прямоугольника с высотой
(0) = 1, имеющего ту же площадь, что и площадь, заключенная
между кривой 1Ре,(т)| при т>0 и осью абсцисс.
Пример 2.4.1. Корреляционная функция периодического процесса. Рассмотрим
сначала случайный гармонический сигнал
^(() = 5-(() = ЛоСО8 (со0/+ ф),
(2.4.34)
у которого амплитуда /10 и частота ю0 постоянны, а начальная фаза ф случайна
и равномерно распределена в интервале [ — л, л], т. е. имеет плотность вероятности
р(ф) = 1 /2л при |ф|^тг. Несколько реализаций случайного сигнала .?(() изображены
на рис. 2.4.
Математическое ожидание сигнала s(r) равно нулю. Находим корреляционную
функцию
2 л
А,(т) = М{.?(ф(? + т)} =— J со8(ю0/-|-ф)со8(<1)0/ + а>т+ф)<:/ф = -—cosw0T. (2.4.35)
271 _п 2
В данном случае корреляционная функция оказывается периодической и имеет тот же
период 7’о = 2я/соо, что и исходный сигнал. В отличие от часто встречающихся
стационарных случайных процессов, для которых выполняется условие (31), в данном
случае корреляционная функция при т-»оо нс стремится к нулю. Этот факт можно
использовать для обнаружения и выделения достаточно длинного, но слабого сигнала
л(() на фоне интенсивной помехи, представляющей собой случайный процесс [2].
76
Предположим теперь, что име-
ется случайный сигнал
Ф) = Е Амп(оМ+фД
4“ 1
(2.4.36)
в котором случайны лишь началь- Рис- 2.4. Три реализации случайного сигнала
ныс фазы <рц, причем ф„ и ф,„ при кут независимы и равномерно распределены
в интервале шириной 2л. Повторив вычисления, найдем, что корреляционная
функция сигнала дается выражением
1 "
= Э Е я 4 COS Ml т.
‘4=1
(2.4.37)
Если <лк = к<л0, то сигнал (36) является периодически стационарным в широком
смысле с периодом 7/, — 2л/ы„.
Пример 2.4.2. Ковариационная функция случайного составного (манипулирован-
ного сигнала). Получим ковариационную функцию составного (случайно мани-
пулированного) сигнала (рис. 2.5)
П (?) = (1/2) [1 + к ((Ж, (?) + (1/2) [1-Х(Г)](7). (2.4.38)
Здесь £,,(7) и ^2(?)-ие зависящие от Х(?) совместно стационарные в широком
смысле сл. пр. с ковариационными функциями Kt (т), К2 (т) и взаимной ковари-
ационной функцией А12(т); k(t)- «переключающий» стационарный случайный
двоичный сигнал с нулевым м. о. и корреляционной функцией R, (т), принимающий
лишь два значения +1 и —1. При этом ц (() = !;, (t) при Х(/)=1 и r)(r) = £,2(z)
при Х(?)= — 1, т. е. сл. пр. г](?) представляет собой случайный манипулированный
двоичный сигнал, состоящий из последовательности случайно чередующихся двух
«элементарных» сигналов ц, (?) и ^2(г).
На основании независимости Х(?о) от £,,(?,) и Е,2(/2) получим
А,(т) = М{П(?)т1(? + г)}=(1/4)[1 + Ях(т)] [А, (т) +А2 (т)]+ (1/2) [1 - Ах(т)] А12(т).
(2.4.39)
Если элементарные сигналы ортогональны (К12(т) = 0), то
^(т) = (1/4)[1+АДт)][А-,(т)+^(г)].
Ж tz(t)&t) WV $f(t) &(t) ^(t)
Коммутатор
Mt)
5)
Рис. 2.5. Способ получения (а) и составной сигнал р(?) (о)
a)
77
Пусть «переключающий» сигнал к (?) принимает значения +1 и — 1
с вероятностями р и q=l—p. Тогда легко показать, что одномерная п. в.
составного сигнала р (/) определяется формулой
p(y)=PPi Ы + ЯРгЬ’У (2.4.40)
где /^Сч) и р2(х2^ —п- в. элементарных сигналов (7) и £2(0-
Описанным приемом иногда можно воспользоваться для формирования
сл. пр. т](/) с заданной п. в. и корреляционной функцией.
Пример 2.4.3. Корреляционные характеристики пуассоновского процесса (см.
пример 3.3.3). Пусть в случайные моменты времени tt происходят некоторые
события, число которых в интервале времени (0, / ] определяется законом Пуассона
pk(t) = (kt)k№p(-Xt)/kl, к=0, 1, 2, ...; />0, (2.4.41)
причем число событий в неперекрывающихся интервалах времени независимо.
Определим целочисленный пуассоновский процесс (г) следующим образом:
7V(0) = 0 и — равно числу событий (точек) в полуинтервале (^t, 41-
Реализации такого процесса представляют собой ступенчатые кривые (рис. 2.6)
с единичными скачками в точках tk.
Для двух заданных моментов времени 1а и tb. ta>lb, приращение процесса
N(ta) — N(tb) имеет пуассоновский закон распределения
Р {N (4) - N(0=к} = [X (г„ - 4)] ‘ ехр [ - к - Гь)]/к! (2.4.42)
В соответствии с характеристиками закона Пуассона имеем
(2.4.43)
= (2.4.44)
Если ta>th>tc>td, то случайные приращения N(ta) — N(jh) и неза-
висимы и, следовательно,
M{[W(4)-N(4)][N(/c)-^(/,i)]} = X2(/a-4)(/c-4). (2.4.45)
Если же ta>tc>tb>td, то интервалы (th, ta) и (4, tc) перекрываются и выражение
(45) оказывается несправедливым. Используя записи
W(4)-N(4)=[N(4)~W(/r)] + [W(0-N«
ta=0 tt -^+1 t
Рис. 2.6. Целочисленный пуассоновс-
кий процесс
из (44) и (45) получаем
= 2 (4 - - 4) + М'с- 'Л (2.4.46)
где (tc— tb)—длина перекрывающихся ча-
стей интервалов (tb. ta), (td, tc).
Таким образом, случайные прираще-
ния пуассоновского процесса стационар-
ны и независимы (на не перекрывающих-
ся интервалах).
78
Положив в (43) t„— I. Ц, = ^. находим математическое ожидание целочисленного
пуассоновского процесса
М{Л'(/);- = и. (2.4.47)
Аналогично из (46) при — !ь ~!л~ 0 получаем выражение ковариационной
функции
/<(/,. r2)[лч/, )a'(77j;У:' (2-4-48>
1Л/1 т Л ([(>, * i * 2 •
Приведенные выше рассуждения применимы и к неоднородному пуассоновс-
кому процессу (когда плотность точек Л(7) зависит от времени), с гой лишь
разницей, что вместо — нужно подставлять J л(7)л7.
Укажем, что для частного класса нестационарных сл. пр.,
а именно сл. пр. £,(/) со стационарными приращениями, вместо
корреляционной функции R^(t{, t2) часто рассматривают струк-
Iпурную функцию
= (2.4.49)
Случайный процесс с(() называется процессом со стационар-
ными первыми приращениями, если приращение процесса
р0(/)=Ц Д + 0) —Ц7) за некоторый фиксированный интервал време-
ни 9 есть стационарный в широком смысле сл. пр. времени t, г. е.
= М {Ц( + 9) - Ц/)] = const. /?е (т) = М {п0 (/“К (г + т)} - ml.
(2.4.50)
Для стационарного в широком смысле сл. пр. Цг) эти условия
всегда выполняются:
щв — 0, Яо (т) - 2R^ (т) — R. (т — 0) — R, (т + 0).
При этом структурная функция однозначно выражается через
корреляционную
^(т) = 2[^(0)-А.(т)]. (2.4.51)
Рассмотрим нестационарный процесс Ц(), м. о. которого есть
линейная функция времени:
Цг) = ш+Ц((),
где Ц(() — стационарный в широком смысле сл. нр. с нулевым
м. о. и корреляционной функцией 7?Цт); а- не зависящая от
Ц(?) сл. в. с м. о. та и дисперсией Da. М. о. и корреля-
ционная функция приращения такого процесса т]0(г) =
= Цг + 0) — Цг) = д0+ Ц(( + 0)-Ц(() определяются выражениями
тв = та0 = const, Re (т) = Da 02 + 2R^ (т) — (т — 0) — R^ (т + 0) =
= Оа02-В£(т) + (1/2)[ЛЕ(т-0) + ^(т + 0)].
74
Таким образом, м. о. и корреляционная функция приращения
p8(z) не зависят от времени t (хотя они зависят от выбранного
постоянного сдвига по времени 0).
Если рассматривать сл, пр. ^(l) = al2 + ht + c + где а, Ь,
с—сл. в., то нетрудно убедиться, что в данном случае т|е(г) =
= £,(/ + 0) — £,(/) не будет стационарным сл. пр.; им окажется
вторая разность pgfr + Oj) — т|0(г), и можно ввести вторую струк-
турную функцию1.
2.5. СПЕКТРАЛЬНЫЙ АНАЛИЗ
При изучении детерминированных сигналов и реакции на
них линейных систем с постоянными параметрами широко
используются спектральные представления, базирующиеся на
возможности представления (при определенных условиях) сиг-
налов рядом или интегралом Фурье. При этом математически
сравнительно просто можно найти сигнал на выходе линейной
системы путем простого пересчета отдельных спектральных
составляющих входного сигнала через комплексную частотную
характеристику системы с последующим применением принципа
суперпозиции. Представляется естественным желание распрост-
ранить гармонический анализ на случайные процессы для решения
в принципе сходного круга задач, хотя физический смысл
результатов будет при этом несколько другим.
1. Случайный спектр. Если почти для всех реализаций сл. пр.
ЦЙ выполняется условие (конечная мощность процесса)
т
Ocliml |^(/)| 2«7< со, (2.5.1)
7-. да 2 I
- Т
то такие процессы можно анализировать с помощью преоб-
разования Фурье, т. е. для конкретной реализации процесса 2, (/)
можно ввести спектральную функцию
£(./)= J ^(r)exp(—(2.5.2)
- 00
Ясно, что для разных реализаций одного и того же процесса
^(t) спектральная функция F(f) будет изменяться случайным
образом, и поэтому ее можно назвать случайным спектром.
Случайный спектр F(f) содержит всю информацию о кон-
кретной реализации ^(Г), для которой он записан, так как
анализируемая реализация £, (t) может быть восстановлена по
1 Линдси У. С., Чжа-Мин Ц. Теория нестабильности генераторов, основанная
на структурных функциях//ТИИЭР.— 1976.—Т. 64, № 12. -С. 5—21.
80
F{f) путем обратного преобразования Фурье. Поэтому для
указанных процессов задачи статистического анализа и синтеза
можно перевести из временной области в частотную и в ней
выполнять их решение. С разработкой метода быстрого преоб-
разования Фурье такой подход приобрел практическое значение.
Случайный спектр F(f) как функция частоты /' представляет
собой сл. пр. Применительно к стационарному в широком
смысле сл. пр. ^(г), для которого выполняется (I), м. о.
и ковариационная функция F(f) определяются выражениями
тР = М {£(/)} = J /и^ехр(— =
Аф(/1,Л) = М{С(/])С*(./2)} =
= П M{^(Zl)^(Z2)}eXP(-jWlG+j2Tt/2^)^t^2 =
= П ^(г1-?2)ехР(-]2^/'1('‘1-С)+.12тС(/2-Л)С)^Н/',2-
Путем замены переменных т = /1 —z2, t = t2 получаем
^(./0/2)= J exp[j2K(./2-/'1)r]Jz J Лг(т)ехр(-|2л/1т)Л =
= 5(Л)5(/2-/1), (2.5.3)
где было использовано известное выражение для дельта-функции
и введено обозначение
5(/) = J ^(т)ехр(—)2л/’т)<7т. (2.5.4)
Функция 5(f), представляющая собой преобразование Фурье
от ковариационной функции К(т), называется спектральной плот-
ностью стационарного процесса £,(/). Она является одной из
основных характеристик стационарного сл. пр.
Из (3) следует, что случайный спектр F(f) является нестаци-
онарным процессом частоты даже для стационарного сл. пр.
!;(?), причем значения F(f) для разных частот некоррелиро-
ванны. Положив в (3) шР(/) = 0, убеждаемся, что Dr(f) =
= KF(f f) = RF(.f, f) бесконечна. Процессы с корреляционной
функцией вида (3) называются белым шумом (§ 2.7). Следователь-
но. случайный спектр как функция f для стационарного сл. пр.
(?) является процессом типа белого шума.
В математической литературе чаще оперируют не спектром
F(f), а интегралом от пего (интегральным спектром) вида
81
f,
j (2.5.5)
/,
Случайный процесс G( /') определен с точностью до произвольной
постоянной. В информационном плане использование G'(/)
эквивалентно F(f), а в теоретическом операция интегрирования
позволяет избежать оперирования с белым шумом. При этом
процесс G(f) оказывается типа вннеровского (§ 3.5), а спект-
ральная плотность .?(/') при — 0 является его интенсив-
ностью - коэффициентом диффузии.
Положив в (5) /, =/'+£, /]—/-г, получим
Поскольку exp(±j2it/H)--cos2n/c±jsin2Kzc. то G( /'+£) — G(J'—с)
есть обычное преобразование Фурье процесса 2i( (Л sin (2ят.б)/2л7.
На основании формулы обращения имеем
/ -> ,-л <VI/ I г)-6'(/-г.)
ехр(|2тс/т) --------.---------df.
2е
Левая часть этого равенства стремится к (,(/) при т.--*0. Поскольку
процесс G'(ot) не дифференцируем, го предельное соотношение
можно записать в виде ин теграла Стилыъеса:
.( exp (i2nft)dG( f).
(2.5.6)
2. Спектральная плотность. Определим спектральную плот-
ность S(f) стационарного в широком смысле сл. пр. £(/) как
преобразование Фурье от ковариационной функции:
S(f)= ( /С(т)ехр( — )2д/т)т/т.
- сс
(2.5.7)
На основании обратного преобразования Фурье можем на-
писать
К(т)= ( 15’(/’)ехр()2л/'т)т//;
(2.5.8)
Таким образом, спектральная плотность и ковариационная фун-
кция стационарного процесса представляют собой пару взаимных
преобразований Фурье.
Х2
Аналогичным образом связаны между собой спектральная
плотность S0(f) и корреляционная функция /Ст) стационарного
в широком смысле центрированного сл. пр. 20 (7) = (Z) — ип:
50(/)= f /? (т) exp (— )2тс/'т)г7т.
(2.5.9)
7?(т)= f 50(/)ехр(]2тс/'т)^/. (2.5.10)
” сг>
Подставив в (7) выражение ковариационной функции через
корреляционную и воспользовавшись дельта-функцией, получим
'S(/)==50(/) + 48(/)- (2.5.11)
Видно, что спектральная плотность стационарного процесса
с неравным нулю м. о. отличается от спектральной плотности
соответствующего центрированного процесса лишь наличием
дискретной линии на нулевой частоте. Имея это в виду, можно
сказать, что формулы (7)...(10) являются равнозначными. Эти
формулы были получены независимо советским ученым
А. Я. Хинчиным и американским ученым Н. Винером и поэтому
называются формулами Винера — Хинчина.
Поясним теперь физический смысл спектральной плотности.
Если понимать под ^(Г) случайный (флюктуационный) ток или
напряжение, то величины S(f) и 50(/) в формулах (7) и (9) будут
иметь размерность энергии1. Полагая в формуле (10) т = 0, имеем
оо
Л = Л(°)= f S0(f)df. (2.5.12)
— 00
Эта формула показывает, что дисперсия («полная энергия»)
стационарного центрированного сл. пр. равна площади под
кривой спектральной плотности. Размерную величину S0[f)df
можно трактовать как долю «энергии», сосредоточенную в малом
интервале частот от f—(df/2) до f+(df/2).
Перечислим основные свойства спектральной плотности.
1. Спектральная плотность стационарного процесса (вещест-
венного или комплексного) — неотрицательная величина:
5(/>0. . (2.5.13)
Это следует из (3), так как при ft=f2=O ковариационная
функция ^f(/,/) = M{|F(/)|2}^0.
Свойство неотрицательной определенности спектральной плот-
ности, как и аналогичное свойство (2.4.21) корреляционной
1 Во многих случаях это нс так, например когда E,(f) описывает случайные
колебания коэффициента усиления, случайное время запаздывания отраженного
сигнала, частотные или фазовые флюктуации сигнала и т. д.
83
функции, является характеристическим или определяющим. Его
значение базируется на следующем результате. Пусть задана
неотрицательная функция 5(/'). Существует стационарный сл.
пр. !;(/), имеющий спектральную плотность S(f) или корреляци-
онную функцию 7?(т).
2. Спектральная плотность стационарного в широком смысле
сл. пр. есть всегда вещественная функция (поскольку
К( — т) = К* (т)), причем для вещественного процесса она является
четной функцией частоты. Так как корреляционная функция 7?(т)
вещественного процесса есть четная функция аргумента, то
S0(-f) = .( Л(т)ехр(]27г/т)<7т = 5'0(/). (2.5.14)
Учитывая четность спектральной плотности, формулы (9)
и (10) можно записать так:
^о(./ )= I Л(т)сон2я/'тс/т = 2 J Л(т)со8 2л/'тб/т, (2.5.15)
- сс о
7?(т)= f 5’0(/’)cos2n/Tfl'/ = 2 J S’,,(/)cos2л/'т<У/'. (2.5.16)
— СО О
Следовательно, спектральная плотность и корреляционная
функция вещественного стационарного в широком смысле сл.
пр. связаны друг с другом взаимными косинус-преобразованиями
Фурье. Поскольку корреляционная функция вещественного процес-
са есть вещественная функция аргумента, то из (15) видно, что
спектральная плотность является также вещественной функцией
частоты.
3. Корреляционная функция 7?(т) и спектральная плотность
S0(f) стационарного в широком смысле сл. пр. обладают всеми
свойствами, характерными для пары взаимных преобразований
Фурье. В частности, чем «шире» спектр S0(f), тем «уже»
корреляционная функция R(t), и наоборот. Этот результат
количественно выражается в виде известного принципа или
соотношения неопределенности.
Заметим, что во всех предыдущих формулах спектральная
плотность S0(f) определена для положительных и отрицательных
значений частоты, причем согласно (14) для вещественных
случайных процессов S0(J') = S0(—f). В отличие от такого
двустороннего «математического» спектра введем односторонний
«физический» спектр .Зф (/), отличный от нуля лишь при
положительных частотах /’>0:
-/) = 2S0(/). (2.5.17)
Тогда из (15) и (16) получим следующие окончательные формулы
Винера — Хинчина:
84
A ' (Z) = 4 f ^(t)cos2tt/tc7t, />0, (2.5.18)
0
X(t)= f 5+(/)cos2n/'T6//‘ />0. (2.5.19)
b
Формулами (7), (8) и (15), (16) целесообразно пользоваться
при выполнении вычислений, так как интегралы в бесконечных
пределах, как правило, находятся проще, чем интегралы хотя
бы с одним конечным пределом. При физическом рассмотрении
и проведении экспериментов следует оперировать формулами
(18) и (19).
В инженерной практике «протяженность» спектральной плот-
ности по оси частот часто характеризуют эффективной шириной
спектра. Ее можно определить по-разному. Одно из определений
дается формулой
A/HWW (2-5.20)
о
где З^С/о)— значение спектральной плотности при некоторой
характерной частоте /0. Обычно за Зо(/о) берут максимум
спектральной плотности или ординату, соответствующую точке
симметрии. Иногда указывают ширину А/0 5 спектральной плот-
ности на уровне 0,53о (./о)-
При качественном рассмотрении характера спектральных плот-
ностей можно выделить два класса: спектры, значения которых
заметно отличны от нуля только в узкой полосе частот А/,
тесно сконцентрированной около частоты /0» А/, и спектры, не
удовлетворяющие этому условию. Стационарный сл. пр., спект-
ральная плотность которого сконцентрирована в узкой полосе
А/ около частоты
/о» АЛ (2.5.21)
принято называть узкополосным случайным процессом. Если
это неравенство не выполняется, то процесс не является
узкополосным.
Количественную меру узкополосности процесса можно опре-
делить по-разному, в зависимости от рассматриваемой задачи.
В некоторых случаях степень узкополосности можно характеризо-
вать просто величиной А/э//0, а иногда целесообразно оперировать
другими критериями узкополосности.
Ради краткости в дальнейшем преимущественно^ будет ис-
пользована следующая запись основных формул Винера — Хин-
чина (7)...(10):
3(<в) = j Х(т)ехр(— jcor)<7T, А?(т) = ^- j З’(со)ехр()сот)<7со, (2.5.22)
85
5о((о)= J Л(т)ехр( — ja>r)r/r, /?(т) = — .1 So((o)exp(ja>T)Ja).
(2.5.23)
Нулевой индекс будем часто опускать, помня при этом очевидное
соотношение
5 (со) = 50 (со) + 2ши2 8 (со). (2.5.24)
Вместо спектральной плотности 50 (со) можно рассматривать
нормированную к единице спектральную плотность
л'о(со)^5о(со)/А (2.5.25)
где D—дисперсия рассматриваемого процесса. Разделив правые
и левые части формул (23) на D, получим, что нормированная
спектральная плотность и нормированная корреляционная фун-
кция стационарного в широком смысле процесса связаны парой
взаимных преобразований Фурье:
® 1 Г
ло(со)= ( г(т)ехр(— )сот)с/т, г(т) = -- sQ (со) ехр()сот)с/со (2.5.26)
-00 2ju J
или согласно (18) и (19)
лд (./’) = 4 [ t(t)cos27i/tc/t,
со ° (2.5.27)
г(т)= j 50ь ( /') cos llifTdf, f >0.
о
Заметим, что нормированная спектральная плотность удов-
летворяет тем же условиям, что и плотность вероятности:
л’о (со) > 0, [ s0 (aijdd) = 1.
При этом нормированная корреляционная функция связана с нор-
мированной спектральной плотностью соотношением (26), ана-
логичным выражению (2.2.26). Этот факт позволяет рассматривать
нормированную спектральную плотность в качестве аналога
плотности вероятности, а нормированную корреляционную фун-
кцию— в качестве аналога характеристической функции. Поэтому
выражения нормированных спектральных плотностей формально
можно использовать как плотности вероятности. Наоборот,
некоторые из выражений для плотностей вероятностей, удовлет-
воряющих условию (14), можно рассматривать как нормирован-
ные спектральные плотности и соответственно выражения харак-
теристических функций — как нормированные корреляционные фун-
кции. Пользуясь указанной аналогией, можно ввести начальные
86
и центральные моменты двусторонней и односторонней спект-
ральной плотности.
В отличие от спектрального анализа детерминированных
сигналов спектральная плотность случайного процесса не дает
возможности восстановить какую-либо реализацию процесса, так
как она не содержит сведений о фазах отдельных спек тральных
составляющих. Можно указать несколько различных но характеру
случайных процессов, имеющих одинаковую спектральную плот-
ность и корреляционную функцию. Поэтому эти две харак-
теристики описывают случайный процесс явно неполно.
3. Взаимная спектральная плотность. Аналогично спектральной
плотности SJco) одного процесса 2,(z) определяется взаимная
спектральная ’плотность двух стационарно связанных случайных
процессов t,(z) и r|(Z) как прямое преобразование Фурье от
взаимных ковариационных функций
а>
5Ц(о) = J А^п(т)ехр(-]йи)б/т = 5*.(со). (2.5.28)
На основании обратного преобразования Фурье можем написать
(<в)ехр( j<BT)z/a>.
(2.5.29)
Отметим, что в отличие от спектральной плотности одного
случайного процесса, которая является действительной функцией
частоты, взаимная спектральная плотность двух стационарно
связанных процессов является обычно комплексной функцией
частоты.
Можно показать, что взаимная спектральная плотность при
каждой частоте удовлетворяет неравенству'
(2.5.30)
Если спектральные плотности 5^ (со) и 5п(со) отличны от нуля
и не содержат дельта-функций, то иногда вводят в рассмотрение
функцию частотной когерентности между процессами £,0(z)
и' По(О
Ypi(w) = l ^ш)|2/^(й>)Ап(со). О^у^(оэ)^ 1. (2.5.31)
Функция частотной когерентности аналогична квадрату нор-
мированной взаимной корреляционной функции стационарно
связанных процессов
rl^) = Rl^lDkDv
Если процессы t,0(Z) и По (0 некоррелированны, то функция
когерентности равна нулю; при линейной связи между процессами
К7
она равна единице1. Действительно, пусть стационарный в ши-
роком смысле процесс с,0(/) есть процесс на входе линейной
системы с постоянными параметрами, а ц0(/) процесс на
выходе линейной системы. Для стационарного состояния, когда
справедлива формула (4.2.19), получим
v2 Ы- _i
4,1 S, (<>)) I/< (j<i >) Лу(<!>)
Следовательно. функция частотной когерентности может при-
нимать промежуточные значения между нулем и единицей, когда
процессы £j0(?) и т]0(/) связаны нелинейной зависимостью или
когда выходной процесс г|0(/) определяется не только входным
процессом с,0 (О- но и какими-либо другими воздействиями.
В случае линейных систем величина [1— Ytn(®)] служит мерой
той части дисперсии процесса г|о(0’ которая на частоте m не
зависит от входного процесса £,„(?).
4. Дополнительные сведения. В задачах практического определения
спектральной плотности стационарных сл. пр. определения спектров
(7) и (9) во многих случаях нельзя признать простыми и экономичны-
ми. Они предполагают предварительное определение корреляционной
функции, что само по себе сопряжено с трудоемкими вычислениями
и измерениями, особенно для быстроосциллирующих корреляцион-
ных функций, которые часто встречаются в радиотехнике.
Приведем определение спектральной плотности непосредст-
венно через сам сл. пр. Введем для усеченной реализации ^(/),
О< t< Т, стационарного сл. пр. 2,(7) с нулевым м. о. (щ^ = 0)
текущий спектр (спектральную функцию)
т
Fr(j(o)= [ £, (?) exp (— jeo/jf/r, (2.5.32)
i)
а также периодограмму, определяемую формулой
S, (соНЛО®)!2/?- (2.5.33)
Записи (32) и (33) носят формальный характер. Текущий спектр
и периодограмма являются случайными функциями частоты: для
разных реализаций одного и того же стационарного процесса
£(г) конечной длительности Т они изменяются случайно от
одной реализации к другой. Некоторый физический смысл
и значение периодограмме придает следующее утверждение: если
выполняется условие
[ | т7? (т) | г/т < оо,
~ 00
(2.5.34)
1 Картер Г. К. Оценивание когерентности и временной задержки//ТИИЭР.—
1987.- Т. 75, № 2. С. 64—85.
88
то справедлива формула
(2.5.35)
Докажем это. Запишем правую часть выражения (33) в виде
двойное о интеграла:
= - (т2)ехр (-j(BT2)c/T2
J
о
т
(и) ЫехР [—jco (т2 —)] t/Ttc/T2.
S, (т i) ехР 1) 1 =
О
т
о о
Возьмем м. о. от обеих частей этого равенства и учтем, что,
во-первых, в данном случае допустима перестановка местами
операций м. о. и интегрирования и, во-вторых, корреляционная
функция стационарного процесса 7? (z2, Z2) = R (z2 —). В результате
получим
2~ т1)ехр[-)со(т2-т1)]с/т2с/т1.
О о
Сделаем в интеграле справа замену переменных
Т = Т2-Т!, Zo = (Tt + т2)/2, (t2 = Z0 + t/2, Tj==/0-т/2).
Учитывая четность корреляционной функции и выполняя интег-
рирование по Zo, получаем
г
Т-(|г|/2)
М{5т((о)}=1
14/2
с/?() —
1 -у )я(т)ехр(-)сот)</т =
7?(т) ехр( — ]оот)б7т —
-- j |т|7?(т)ехр(—jсот)t/т.
— т
При Т-»оо первый интеграл стремится к спектральной плотности
(9), а второй — к нулю согласно (34). Этим завершается до-
казательство формулы (35).
(2.5.36)
- т
т т
т
89
Отметим попутно, что из (35) следует свойство неотрицатель-
ности (13) спектральной плотности. Так как 5т(со) — неотрицатель-
ная величина, то ее м. о. также не может быть отрицательным.
Формулой (35) часто пользуются при вычислении спектральной
плотности различных импульсных сл. пр.
В заключение отметим, что можно ввести текущий спектр
нестационарного процесса Е, (?) с корреляционной функцией
Л(?1, ?2). Его можно определить по-разному [2]. В качестве
одного из возможных определений можно принять следующее:
/ + |)exP(~j2n/T)£/T-
(2.5.37)
Пример 2.5.1. Спектральная плотность и п. в. квазидетерминированного сигнала.
Рассмотрим квазидетерминированный процесс вида
Е,(г) = ш6 + Л cos(cor-bcp), А>0, (2.5.38)
где —детерминированная функция времени; А, со и ср--независимые сл.в.
с заданными п.в. рл(Л), рш (со)=рш (— со), рф(ср)= 1/2тс, сре[—тс, тс]. Найдем м. о.
и корреляционную функцию процесса Е, (г).
Очевидно, что м. о. равно независимо от вида п. в. для А и со, так как
п
1 f
— I cos(cor + cp)c7cp = 0.
2л J
-л
Рассматривая центрированный процесс !;0 (?)=!; (г)—т-с, находим выражение для
корреляционной функции
Я6(т) = М{Д cos (со /+ср) A cos (со t+со т + ср)} =
п
J [coscox -i-cos (2со/Ч-сот +2<p)]pa,(m)dmd<p =
= ~М{А2}
рт(со) coscoxdco.
(2.5.39)
Это выражение показывает, что рассматриваемый процесс (38) стационарен
в широком смысле, если только т,, не зависит от времени.
Учитывая, что п. в. рш (со) является по условию четной функцией, и сравнивая
выражение (39) с формулой (23), получаем, что спектральная плотность процесса
чо(?) определяется равенством У(со) = л:М {Л2}рш(со). Следовательно, если взять
рщ(со) = У(со)/л:М {А2}, (2.5.40)
то случайный процесс s0(?) будет иметь заданную спектральную плотность У (со).
Кроме того, сл. пр. (г) может иметь также и требуемую одномерную
п. в. Покажем это. По определению, характеристическая функция равна
90
Ф(j9) = M {exp [jj9cos(co/ + <p)]} = j dA | d«fx
0 — co
TC
x ~— exp [j Л 9cos (o/ + <p)] (Л)/>ш(co)z/<p =
2л J
- я
cz) co X
= РЛ f J0(A9)pA(A)pa(a>)da> — f J0(AS)pA(A)dA, (2.5.41)
О “ oo О
где Jo (x) — функция Бесселя первого рода нулевого порядка. Зная характеристичес-
кую функцию, находим одномерную п. в. процесса
1 С
р(х) = — Ф()9)ехр( — j9xW9 =
2л J
- 00
1 С f
= — lpA(A)dA Т0(Л9)ехр(—j9x)<79 =
2л: J J
О -оз
= 1 |X|< A. (2.5.42)
71 J ./л2~~х2
1*1 .
Заметим, что одномерная характеристическая функция
СО 00
Ф (j 9) = j ,/0( Л 9) рА (А) dA = j Jo (А 9) A dА
О о
представляет собой прямое преобразование Фурье— Бесселя функции рл(А)/А.
Обратное преобразование Фурье —Бесселя имеет вид
= |ф()9)9.70(ЛЭ)г79. (2.5.43)
о
Это соотношение позволяет определить п. в. случайной «амплитуды» А по
заданной плотности вероятности р(х) исходного процесса. Для этого нужно
предварительно найти характеристическую функцию, соответствующую д(.т).
и затем результат подставить в (43).
2.6. ГАУССОВСКИЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ
В дополнение к классификации сл. пр. по виду реализаций
(§ 2.1) укажем другой подход к классификации, из которого
будет ясно, какое место занимают гауссовские процессы среди
других сл. пр. После этого приведем определение гауссовского
сл. пр. и перечислим его характерные свойства.
91
При перечислении методов описания случайных процессов
указывалось (с. 59), что последовательность функций распределе-
ния F„(xj...х„; Г„) или п. в. д,(х15 ..., хп; Zj, Z„), п=\,
3, ..., представляет собой своеобразную лестницу: с ростом п они
описывают сл. пр. последовательно все более и более детально.
Однако многие физические процессы оказываются ие столь
сложными, чтобы для получения исчерпывающей информации
о них требовалось знание всех /?„( ); часто бывает достаточно
знать лишь одномерную рх (х; Z) или двумерную р2 (х1? х2; tY, Z2)
п. в. Если эти п. в. содержат все сведения о процессе, то по
ним можно найти многомерные п. в. Отметим, что при решении
многих научно-прикладных задач вообще не возникает необ-
ходимости обращаться к многомерным плотностям вероятности.
Сложность описания сл. пр., т. е. наибольший порядок п-
мерной п. в., дающей достаточно полное описание сл. пр., можно
положить в основу классификации сл. пр. По-видимому, простей-
шим классом являются сл. пр., полное описание которых до-
стигается указанием одномерной п. в. рг (х; z), следующим классом
являются процессы, описание которых дается двумерной п. в.
Рг (*1> хг, П’ ^2) и т- Д-
Приведем несколько примеров, когда для полного описания
сл. пр. достаточно задать одномерную п. в. Предварительно
укажем, что многомерная п. в. детерминированного процесса
.v(z) = /(z) дается выражением
/Л,(*р — хп, G, U = П (2-6.1)
1 = 1
а случайной величины X с п. в. р(Х)—
рп{^ ..., "п §(\-\ + 1). (2.6.2)
i - 1
Рассмотрим частный вид квазидетерминированного процесса
с одним случайным параметром s(t, А,), где s(t, X) — детермини-
рованная функция своих аргументов, а X — сл.в. Ясно, что
исчерпывающее описание процесса s(t, А.) дается плотностью
вероятности />(А) случайного параметра А,.
Имеется несколько моделей сл. пр., значения реализаций
которых в несовпадающие моменты времени zb z2, ..., tn считаются
независимыми, и, следовательно, для таких процессов многомер-
ная плотность вероятности равна произведению одномерных п. в.:
п
рп(хг, ..., х„; И, ..., z„) = П p(xi’ (i)- (2-6.3)
i= 1
В пределе (при Z;+1 —z,->oo) это равенство выполняется для
большинства реальных процессов.
92
Более широкий класс сл. пр. определяется двумерной п. в.
р2(х}, х2; tA, t2), например квазидетерминированный процесс с дву-
мя зависимыми параметрами .у(ц Х2). К этому же классу
относятся два важных типа сл. пр.: гауссовские и марковские
(§ 3.1). Они наиболее хорошо изучены и широко используются
при решении радиотехнических задач.
Приведем определение гауссовских процессов. Вещественный
случайный процесс Е, (?) называется гауссовским, если для
любого конечного множества моментов времени z15 t2, .... t„
случайные величины = £,(/,),..., ^„ = Е, (?„) имеют совместную
нормальную п. в.
Рп^ (2ти)"'21R |112 ехр
—^(Х—m)1 R-1 (X—т)
(2.6.4)
Здесь использованы следующие обозначения:
™И = М{^}, £>Ц = ЛЦЦ(ГЦ, ?ц) = М{(^-щц)2}, 7?pv=____
= 7?vg = M{(^-mJ(^v-mv)} = rgv(Z>(IZ>v)1/2, В, v=l, п.
Л'1 тх ^11 ^12 Р1п
х= *2 , т = т2 , R = ^21 ^22 ^2п (2.6.5)
х„ >3 3 >э >3 3 3
|R| = detR — детерминант корреляционной матрицы R; R1—мат-
рица, обратная R; символ т сверху обозначает транспонированную
матрицу.
Плотности вероятности (4) соответствует характеристическая
функция
Ф„(j9) = exp(jm'39TR9/2), (2.6.6)
где 9Т = [>?!, 32, ..., -вектор-строка.
Если не пользоваться векторными представлениями, то вы-
ражение для характеристической функции имеет вид
Ф„(А,...,й„) = ехр6 f т^-\ Z (2-6.7)
\ Ц=1 “Jl,v=l /
Так как RI1V=R , то п. в. (4) и характеристическая функция (6)
определяются п \п + 1 )/2 + п параметрами.
Укажем несколько важных свойств гауссовских сл. пр., ко-
торые следуют из (4) и (6).
1. Гауссовский сл. пр. полностью определяется заданием м. о.
шД?) и корреляционной функции R(^(t1, t2). Действительно, в вы-
ражения для характеристической функции и п. в. входят только
м. о. и корреляционная функция. Если на основании каких-либо
соображений известно, что сл. пр. является гауссовским, то его
93
/7-мерные и. в. и характеристические функции однозначно опре-
деляются м. о. и корреляционной функцией. Поэтому гауссовские
процессы могут отличаться друг от друга только характером
м. о. и видом корреляционной функции (спектральной плотности).
Следовательно, корреляционная теория дает полное описание
гауссовских процессов.
2. Для гауссовских процессов некоррелированность значений
процесса тождественна и?< независимости, т. е. если R^(t^ zv) = 0
при ц v, то
..., х,- ti, ..., zn)=p(xi; G)...p(x„; tn) =
= (2<"'2 [Z>s (/,)..А(/,)] -» exp {-! £ (2.6.8)
Нетрудно убедиться в обратном: если значения независимы, т. е.
справедлива формула (8), то они некоррелированны.
3. Для гауссовских процессов понятия стационарности в ши-
роком и узком смысле совпадают. Предположим, что гауссовский
процесс стационарен в широком смысле:
m^(t) = m^ = const, tv) = R^( | zM-t,, | )= p, v=1,h.
Тогда он будет одновременно стационарным и в узком смысле,
так как при этом характеристические функции и п. в. не будут
изменяться при любом сдвиге всей группы точек /ь t2, ...
..., t„ вдоль оси времени на произвольную постоянную величину.
Приведем явные выражения для одномерных и двумерных
п. в. и характеристических функций гауссовского стационарного
процесса, которые легко получаются из основных формул (4) и (6):
O(j9) = exp(j/77^9 —Z>^92/2), (2.6.11)
х exp f ! (л2»ц)21 (2 6 12)
1 2ДД1-,-Дг)] £ V • • 2
ФгО’91’ j^2; T) = exp{j«2^(91+92)-(l/2)7)sx
х[92 + 2гДт)9192 + Э^}. (2.6.13)
4. Условные п. в. значений совместно гауссовских процессов
E,(z) и г| (z) или значений одного гауссовского процесса являются
нормальными. Этот результат следует из известной формулы
^/n(X|Y)=^n(X, Y)/pn(Y). (2.6.14)
94
Сохраним для п значений х,- процесса Е, (г,) прежние обозначе-
ния (5), снабдив их индексом Е, а для к значений процесса
используем аналогичные обозначения с индексом ц. В пра-
вую часть (14) нужно подставить нормальные п. в. вида (4):
pn(Y) = (27i)‘4/2|Rn|-1/2ехр[ —(1/2)(Y —mn)TR^1(Y —mn)],
p«n(X, Y) = (2n) “<”+(‘)/21R| ” 1/2ехр [ —(1/2)(Z —m)TR ~1 (Z —т)].
Здесь
Z = W; m = W; R= - '-R-^-1; (2.6.15)
L J L d L RnU Rn J
iiir и mT| — векторы-столбцы м. о. процессов E(z) и n(z);
R и Rn— корреляционные матрицы этих процессов?
R^n и Rn!: — взаимные корреляционные матрицы между Е,(0
и г| (г). В результате получим
p^ln(X| Y) = (2n) ”"/2 | Rt)n| ~1/2ехр [ —(1/2)(Х —m^n)T х
xR^X-m^)], (2.6.16)
где
m^n = m5+R^RT) 1 (Y-mn); R^n = R«-R^nR “‘R^. (2.6.17)
В частности, если процессы Е(1) и т| (z) независимы, то
7^(Х, Y)=pJX)pn(Y). (2.6.18)
Если формально положить п—к, то получим, что произведение
двух нормальных п. в. с м. о. пц, mn и корреляционными
матрицами R^, Rn есть также нормальная п. в.; ее м. о.
и корреляционная матрица определяются выражениями
m = R[Rf1m5 + Rn'1mt,], R=Rf14-R^’. (2.6.19)
Отметим, что в (17) условное м. о. т^1п = М{Е|г|} является
линейной функцией от величин, входящих в условие. Но условное
м. о. определяет оптимальную оценку по критерию минимума
среднего квадрата ошибки. Отсюда вытекает следующее свойство
гауссовских процессов.
5. Если наблюдается гауссовский процесс, то оптимальная
оценка значения гауссовского сл. пр. является линейной от-
носительно остальных наблюдений.
Для условных нормальных п. в. известен ряд интересных
результатов. Укажем два таких результата, которые сформулиру-
ем в виде теорем.
Теорема, 1. Обозначим п значений сл. пр.
вектором X:
Х = Х- пц|п = Х- mr RrnR n-1 (Y - пц). (2.6.20)
95
Тогда вектор X не зависит от Y. имеет пулевое м. о. и кор-
реляционную матрицу
R^R^-R^RjR,^. (2.6.21)
Доказательство. С учетом (17) имеем
1VI{X; =М jXI-mt-R^R;1 [M{Y}-mJ = 0.
Из равенства
М [ X [¥ - m „ ]1 j = М < [X - m J [ Y - m, J1} - R „ R ~ 1 x
x M ; [¥ -mJ [Y -mJT} = RE11 - R^nR,J R„ = 0
следует, что векторы X и ¥ некоррелированны. Поскольку эти
векторы гауссовские, то они также и независимы. Так как
М{Х}=0, то
R = М [ XX1} = М {[X - m. - R ^R n 1 (Y - m „)] x
x [X-m5-R^R^1(Y-mJ]'} =
= M {[X —in J [X —m JT} —M ([X-mJfY-mJ^RjR^-
- RR ~1M {[¥ - m J [X - tn JT} + R.nR ~ TM {[Y - m J x
x[Y-mJT;R,jR1^ = R»-R^R-1R^.
Эти же результаты непосредственно следуют из (16), (17).
Теорема 2. Пусть X, U и V —случайные векторы с совмест-
ным гауссовским распределением, причем U и V независимы.
Тогда
M{[X|U, V]} = M{[X|U]} + M{[X|V]}-M{X}. (2.6.22)
При доказательстве положим
Тогда
R£ii = M{[X-mJ[Y-mJT}=M|[X-mJ
Следовательно,
r^r;i = (Ru/- r^)
= (RU.RJ, R^-Rp1).
По теореме 1 получим
96
U — mr;
V-m,
М {[X III, V)}=m^+(R!.C7Rt71, R^Rr4)
^m^-R-L;Rj1(U-m[/) + R^Rr1(V-mr) = M{[X|U]} +
+ М{[Х|У]}-пц.
6. При линейных преобразованиях гауссовских сл. пр. свойство
гауссовости сохраняется. Если на вход линейной системы с им-
пульсной характеристикой h\t, т) воздействует гауссовский сл.
пр. £,(?), то при выполнении надлежащих условий интегрируемости
процесс
Т|(?)= р(?, т)^(т)Л, (2.6.23)
о
получающийся на выходе системы, будет также гауссовским
(с. 260). Справедливо и обратное утверждение: если каждый
линейный функционал от с,р) есть гауссовская сл. в. т| (?), то
Е,(?) является гауссовским сл. пр. Это важное свойство часто
принимается за исходное определение гауссовского процесса (;(/).
Можно сказать, что гауссовские процессы обладают свойством
«устойчивости» по отношению к линейным преобразованиям.
7. При нелинейных преобразованиях свойство гауссовости
утрачивается. Если гауссовский процесс £,(?) подвергается нелиней-
ному преобразованию, например, вида т| Е, (?)), где /()
— нелинейная функция относительно £,, то процесс т| (?) будет
негауссовским. Однако, если негауссовский сл. пр. с интервалом
корреляции тк воздействует на инерционную линейную систему
(с постоянной времени тс»тк), то процесс на выходе такой
системы приближается к гауссовскому (п. в. стремится к нор-
мальной). Это приближение тем лучше, чем сильнее выполняется
неравенство тсз>тк (§ 4.8).
Нелинейные преобразования гауссовских сл. в. и пр. часто
используются для формирования сл. в. и пр. других видов [2,5].
8. С помощью линейного преобразования коррелированные
значения гауссовского сл. пр. можно привести к некоррелирован-
ным. Заметим, что если корреляционная матрица (5) диагональная,
т. е. все jRpv=--0 при то совместно гауссовские сл. в.
некоррелированные. Поэтому линейное преобразование, в результа-
те которого корреляционная матрица для преобразованных величин
будет диагональной, приводит к совместно гауссовским некоррели-
рованным величинам. Методика приведения матрицы к диагональ-
ной форме с помощью линейного преобразования известна.
9. Гауссовские сл. пр. с дробно-рациональной спектральной
плотностью являются одновременно марковскими [4].
10. При заданной дисперсии (средней мощности) гауссовский
сл. пр. обладает максимальной энтропией (1.1.39).
97
4—2247
Гауссовские сл. пр. наиболее часто встречаются на практике
и поэтому занимают особое место среди других сл. пр. Большинство
встречающихся на практике электрических сл. пр., таких, например,
как дробовой шум, тепловые флюктуации, собственный шум
типового радиоприемника до детектора, атмосферные и космические
шумы, представляют собой суммарный эффект большого числа
сравнительно слабых элементарных импульсов, возникающих
в случайные моменты времени. Согласно центральной предельной
теореме теории вероятностей п. в. суммы неограниченно приближа-
ется к нормальной с увеличением числа слагаемых, независимо от
того, какие п. в. имеют отдельные слагаемые. При этом важно
лишь, чтобы влияние отдельных слагаемых на сумму было
равномерно малым (приблизительно одинаковым).
Методы моделирования гауссовских процессов на ЭВМ изло-
жены в литературе1.
2.7. БЕЛЫЙ ГАУССОВСКИЙ ШУМ
В дальнейшем будет часто использоваться идеализированный
сл. пр.— белый гауссовский шум (БГШ). Приведем его определе-
ние и укажем специфические свойства.
Под БГШ n(t) понимается стационарный гауссовский сл. пр.
с нулевым м. о. и дельтаобразной корреляционной функцией:
М{и(/)} = 0, Лп(т) = М{п(г)п(г+т)} = (У/2)8(т). (2.7.1)
Такой корреляционной функции соответствует спектральная плот-
ность (рис. 2.7)
00 м
So(/)= f 7?„(т)ехр(—)2л/т)</т = у, Sj(J)=N. (2.7.2)
— 00
Таким образом, спектральная плотность постоянна при всех
частотах. Величину N называют односторонней спектральной
плотностью БГШ n(t), в отличие от двусторонней, равной У/2.
Случайный процесс и(?), обладающий равномерным спектром
в очень широком (математически бесконечном) диапазоне частот,
принято называть белым шумом по аналогии с белым светом,
имеющим в видимой части равномерный сплошной спектр.
Поскольку дельта-функция 8(т) всюду равна нулю, за ис-
ключением точки т = 0, где 8(0) = со, то значения процесса п(/)
в любые два несовпадающих, но сколь угодно близких момента
времени не коррелированы, а если процесс /?(?) гауссовский, то
они и независимы. Поэтому БГШ н(?) можно назвать абсолютно
случайным процессом.
1 Быков В. В. Цифровое моделирование в статистической радиотехнике.— М.:
Сов. радио, 1971.— 326 с.
98
Из (1) следует физически
неправдоподобный резуль-
тат: дисперсия (средняя мо-
щность) белого шума
D„ = R„ (0) = оо и для него
нельзя аналитически запи-
сать даже одномерную п. в.
Его реализации невозможно
изобразить графически: про-
цесс бесконечно быстро ме-
няет свои значения с бес-
N
1
О т
а)
'--------So (Г)
N
-----------So(f)
О f
S)
Рис. 2.7. Корреляционная функция (а) и спе-
ктральная плотность (6) белого шума
конечным размахом. Корректно определить и продуктивно ис-
пользовать другой белый шум с конечной дисперсией невозможно
(см. примечание на с. 204).
Такое физически нереальное поведение процесса объясня-
ется тем, что его следует рассматривать как идеализированную
математическую модель, применимую для некоторых широко-
полосных процессов. Основное преимущество использования такой
модели состоит в существенном упрощении математических
вычислений различных выражений (в частности, м. о. интегралов),
содержащих БГШ.
Однако все реальные сл. пр. всегда имеют спектральную
плотность, убывающую при очень высоких частотах, и, следо-
вательно, имеют конечный интервал корреляции тк^0 и огра-
ниченную среднюю мощность. БГШ является полезной матема-
тической идеализацией, применимой в тех случаях, когда интервал
корреляции входного процесса, воздействующего на систему,
много меньше всех существенных постоянных времени системы
(например, длительности переходного процесса в системе), а при-
менительно к линейным системам с постоянными параметрами —
когда в пределах амплитудно-частотной характеристики системы
спектральную плотность воздействующего процесса можно при-
ближенно считать постоянной.
Можно указать следующее условие и правило приближенной
замены реального стационарного процесса на белый шум. Пусть
анализируется воздействие на некоторую систему с характерной
постоянной времени тс реального стационарного процесса £,(?)
с достаточно широкой непрерывной спектральной плотностью
S0(j) и, следовательно, узкой корреляционной функцией
имеющей малый, но конечный интервал корреляции тк<^тс.
В данном случае реальный сл. пр. можно приближенно трактовать
как белый шум. За значение спектральной плотности N/2
«эквивалентного» белого шума можно взять значение S’o(O),
которое по формуле (2.5.9) равно
СО со
_ = 5о(0)= f R,(T)dT = 2jR^)dT.
" — GO 0
(2.7.3)
99
Разумеется, такая замена реального процесса белым шумом
допустима только тогда, когда она не противоречит смыслу
решаемой задачи и не приводит к физическим недоразумениям.
Иногда можно поступить наоборот: предельный переход осущест-
влять не на начальной стадии анализа, а в конечных результатах.
Можно предложить несколько сравнительно простых процессов,
которые рассматриваются в качестве моделей белого шума.
Одним из примеров может служить случайная последователь-
ность дельта-импульсов Ak8(t — lk) вида (3.3.48), когда моменты
появления импульсов tk распределены во времени по закону Пуассона
(2.4.41). Если в формуле (3.3.49) положить h(t, tk, z) = Ak8{t—tk), то
получим, что корреляционная функция такой бесконечной (стацио-
нарной) импульсной последовательности имеет вид (1):
Т?(т) = Ш{Л2}8(т). (2.7.4)
В качестве моделей БГШ часто используют гауссовские
стационарные процессы с двумя видами спектральных плотностей
и соответствующих им корреляционных функций:
5S(/)=^/2-
«^) = ^ехр(-«И|). (2.7.6)
При достаточно большой полосе частот А/ в (5) или малом
значении параметра а в (6) можно получить произвольно малую
корреляцию между двумя значениями процесса E,(Zj) и E,(t2),
разделенными заданным интервалом |Г2 —Z1|>5.
В некоторых задачах встречается нестационарный белый шум
вида Pi (/)=/(?) + «(() или т|2 (r)=/(t)«(t), где f(t)— детермини-
рованная или случайная функция. Очевидно, что корреляционная
функция нестационарного белого шума r|2(z) равна
7?2(t) = M{|/(g)|2}R2)8(z2-/1)- (2-7.7)
В последующем будут изучаться методы анализа и синтеза
радиоустройств и систем в непрерывном и дискретном времени.
В последнем случае потребуется ввести дискретный БГШ. Вообще
говоря, его можно определить независимо от рассмотренного
непрерывного БГШ n{t) как последовательность {пу} = пг, п2, п3, ...
независимых нормально распределенных сл. в. с нулевыми м. о.
и одинаковой дисперсией Dv = const. Однако при переходе в вы-
ражениях от непрерывного времени к дискретному и наоборот
необходимо согласовать определения дискретного nv и непрерыв-
ного п (t) БГШ.
В дальнейшем принято, что дискретный БГШ формируется
из непрерывного с помощью сглаживания за элементарный
интервал времени A = tv+1 — tv, v = l, 2, ...:
100
(2.7.8)
При этом под дискретным БГШ понимается последовательность
{nv} независимых гауссовских сл.в. с нулевым м. о. M{«v}=0
и одинаковой дисперсией Dv = M[n^}=N/2A = DA. Все значения
дискретного БГШ имеют одну и ту же нормальную п. в.
р («v) = (2 кПЛ) 1/2 ехр (- «2/2D д). (2.7.9)
Переход от дискретного времени
связан с рассмотрением предельного
к непрерывному обычно
перехода при А->0.
2.8. НЕПРЕРЫВНОСТЬ,
ДИФФЕРЕНЦИРУЕМОСТЬ
И ИНТЕГРИРУЕМОСТЬ
Анализ моделей динамических систем при случайных входных
воздействиях базируется на решении дифференциальных уравне-
ний, описывающих эти модели, или рассмотрении других эк-
вивалентных характеристик. При этом, как и при детерминирован-
ных воздействиях, необходимо рассматривать такие понятия, как
непрерывность, дифференцируемость и интегрируемость сл. пр.
Трактовка этих понятий для сл. пр. отличается от таковых для
детерминированных функций. Приведем основные определения
и результаты, относящиеся к этим понятиям.
Пусть имеется последовательность сл. в. {£,„} = £,!, ^2, — >
Определение предела такой последовательности можно дать
несколькими способами, из которых наиболее часто используются
следующие три.
Последовательность {£,„} сходится к сл. в. £, с вероятностью
1 (или почти наверное), если
Р{^„->£,} = 1 при н->оо. (2.8.1)
Последовательность {£,„} сходится по вероятности к если
для любого £>0
— Е,|>£} = 0 при «->оо. (2.8.2)
Последовательность сл. в. {^„} сходится к С в среднеквадратичес-
ком, если
lim М |2} =0. < (2.8.3)
«—►00
Приведенные три определения сходимости связаны между
собой: из сходимости с вероятностью 1 -следует сходимость по
вероятности; из среднеквадратической сходимости также следует
сходимость по вероятности.
101
Указанные понятия сходимости случайных последовательно-
стей можно распространить на сл. пр. {^(<), teT}. Например,
можно сказать, что сл. пр. непрерывен в t с вероятностью 1, если
e^t + h} сходится к £,(?) с вероятностью 1, когда А->0. Заметим, что
непрерывность с вероятностью 1 не означает, что все реализации
процесса £,(?) есть непрерывные функции. Можно убедиться, что
пуассоновский процесс (2.4.41) или случайный двоичный сигнал (см.
рис. 3.5) при фиксированном t = t0 будут непрерывными процессами
с вероятностью 1, хотя их реализации не являются непрерывными.
В дальнейшем будет преимущественно использоваться понятие
среднеквадратической сходимости применительно к сл. пр. {£,(/),
teT}, м. о. квадрата которых ограничено: М{£,2(?)}<оо для
всех t е Т (такие процессы часто называют процессами второго
порядка}. При этом можно указать простые критерии непрерыв-
ности, дифференцируемости и интегрируемости сл. пр. £,(/)’.
Случайный процесс {£,(?), teT} второго порядка непрерывен
в t в среднеквадратическом, если
lim М О(Г+/г)-^(г)]2} = 0- (2-8.4)
h—► О
Чтобы проверить выполнение этого условия, нужно знать лишь
ковариационную функцию процесса. Рассматриваемый сл. пр.
{{;(/), teT} непрерывен в среднеквадратическом в момент teT
тогда, и только тогда, когда его м. о. m(t) непрерывно в t и кор-
реляционная функция Л(ч, ?2) непрерывна при tr = t2 = t.
Докажем это. Имеем
K(? + A)-^(O]2 = [^(?+A)-w(/ + A)-^(z) + w(?)]2 + 2[^(z + /!)-
~М0] [rn(t + h)-m(tj]-[m(t + h)-m(t)]2.
Возьмем м. о. от обеих частей:
М {[^(Z-Ь А) —£,(/)]2} =R(t + h, t + h)-2R(t + h, t)+R(t, ?) +
+ ри (? + й) — w(?)]2. (2.8.5)
Если R(tt, t2) и m(t)— непрерывные функции, то будет выполнено
(4). Таким образом, доказана необходимость указанных условий.
Докажем их достаточность, воспользовавшись очевидным нера-
венством
М{[£,(/+Л) — т(?+h) — £,(?) +"г(?)]2} = R(t + h, t + h) —
-2R(t + h, t) + R(t, />0.
Правая часть выражения (5) есть сумма двух неотрицательных
величин. Если левая часть равенства сходится к нулю, то каждый
член правой части сходится к нулю, что свидетельствует о до-
статочности условий.
1 Крамер Г. К., Лидбеттер М. Стационарные случайные процессы: Пер. с англ.;
Под ред. Ю. К. Беляева.— М.: Мир, 1969.— 398 с.
102
Перейдем к определению дифференцируемости. Случайный
процесс {£,(/), teT} второго порядка дифференцируем в среднеквад-
ратическом в точке t0 е Т, если
1т/(?о+/г)~^о) = ^'(? )
л—-о h
limm] )
h->0 I h
существует в смысле среднеквадратической сходимости, т. е.
23
У = 0. (2.8.6)
Если процесс дифференцируем для всех teT, то говорят, что
это дифференцируемый сл. пр.
Докажем, что случайный процесс {£,(?), teT} второго порядка
дифференцируем в среднеквадратическом в точке t0 е Т тогда,
и только тогда, когда его м. о. m(t} дифференцируемо в точке
t0 и в точке tl = t2 —10 существует смешанная производная
второго порядка от корреляционной функции 521?(/1, t2}fdtldt2-
Докажем сначала необходимость этих условий. Смешанная
производная второго порядка определяется как предел при
>0 выражения
t2-yh2^ — R}tl, t2+h^~R^i + h^, t>) +
г2)].
Сформируем последовательность
^(Zo + /zt)-^o) Ufo + ^)-U?o)T_^(<o + ^)-^(?o)^(ro + /h)-i;(fo)
h2 hi hi
_ 2 ^to + hi)-^tQ)t,(to + h2)-^to) + ^t0 + h2)-^t0) ^(t0+h2)-^t0)
Aj /?2 ^2 ^2
Возьмем м. о. от обеих частей равенства. Получим
М (?о) (tp + ^2) ~ (fo)
( hl h2
__Rjtp + hi, t0+h2) — P(t0 + hi, r0) —J?(f0, t0 + h2) + R(t0, r0)
“ hih2 +
(t0 + hi)-m(t0) m(t0+h2)-m(r0)
(2.8.7)
2
Согласно принятым допущениям м. о. дифференцируемо и суще-
ствует смешанная вторая производная функции i2). Поэтому
Apftj—о ( hi h2 j 8ti8t2
+ ш'(?0)ш'(?0).
6 ~• ti — *o
103
Следовательно, правая часть выражения (7) конечна. Вычислив
все три члена, найдем, что при /г15 /z2—>0
mJ ьМЛЬД'о) s(/o + /b)-4('o)
(_ /!1 /?2 J J
Итак, доказана необходимость условий. Для доказательства
достаточности положим hr=h2 и заметим, что правая часть
выражения (7) есть сумма двух неотрицательных членов.
Если левая часть сходится к нулю, то каждый член правой
части будет также стремиться к нулю. Таким образом, имеем
простой критерий для дифференцируемости процесса. Допол-
нительные сведения по дифференцируемости сл. пр. приведены
в § 4.5.
Введем интегралы от сл. пр. Пусть в интервале I а, 6] заданы
сл. пр. £,(/) и детерминированная функция/(?). Разобьем интервал
[«,/?] точками a = t0<t1<...<tn = b и рассмотрим сумму
/ЛЛ'М)И-1)- (2.8.8)
1-1
Если при шах (zf — >0 эта сумма стремится к некоторому
1 < i < п
пределу (представляющему собой сл. в.), то этот предел называ-
ется интегралом от сл. пр. t,(t) и обозначается символом
(2.8.9)
а
Несобственный интеграл (при а= — со, Ь = со) определяется обыч-
ным путем как предел собственных интегралов при а-^ — оо,
Ь^со. Сходимость интегральных сумм J„ по-прежнему понимается
в среднеквадратическом: М{(Jn — при При этом
J называется среднеквадратическим интегралом.
Случайный процесс второго порядка {^(/), te[a,b]} с м. о.
m(t) и корреляционной функцией К\1Х, /,) интегрируем по Риману,
если существуют интегралы [1 ]
|/(фн(г)Л, ПЛЛЛЛ^ф, фФФг
а а
В этом случае
ь ь
М J/(z) (г) dt = J j\t )m(t)dt, (2.8.10)
а а
Ъ Ъ
м П (z2) ^1^2=П ЛЛЛЛ я (с, г2)dt idt2+
а а
Ь
+ [J f(t)m(t)dty. (2.8.11)
а
104
Наряду с введенным понятием стохастического интеграла
Римана в некоторых случаях (см. § 3.6) приходится рассматривать
ь
также стохастический интеграл Стильтьеса J который
а
определяется как предел при тах(/,-—J-+0 сумм
ЕЖ) К(б)-чОыи)]-
1 = 1
Глава 3. МАРКОВСКИЕ СЛУЧАЙНЫЕ
ПРОЦЕССЫ
3.1. КЛАССИФИКАЦИЯ МАРКОВСКИХ
ПРОЦЕССОВ
Как и при общей классификации сл. пр. (см. рис. 2.1), в зави-
симости от того, непрерывное или дискретное множество есть
область значений процесса цр) и область определения параметра
/, различают четыре основных вида марковских процессов:
марковские цепи (марковский процесс, у которого область
значений и область определения — дискретные множества), мар-
ковские последовательности (марковский процесс, у которого
область значений непрерывное множество, а область определе-
ния— дискретное), дискретный марковский процесс (марковский
процесс, у которого область значений — дискретное. а область
определения —непрерывное множество) и непрерывнозначный ма-
рковский процесс (марковский процесс, область значений и об-
ласть определения которого --непрерывные множества). Характер
скалярных временных реализаций перечисленных процессов по-
казан в табл. 3.1. Помимо четырех основных видов возможны
другие, более сложные процессы марковского типа (различного
характера смешанные процессы и т. д.).
Марковским процессом называется сл. пр., для которого при
фиксированном е,(и) сл. в. Цг), f>u, не зависят от Цх), .$<//.
Таким образом, определяющее свойство всех видов марковс-
ких процессов состоит в следующем. Сл. пр. Ц/) является
марковским, если для любых п моментов времени ti<l2<...<tn
из отрезка ГО, Т] условная функция распределения «последнего»
значения Ц/п) при фиксированных значениях с, (/J, Цц), ...
..., ^(Ц-1) зависит только от т. е. при заданных значениях
£2, ..., справедливо соотношение
=4,.-!}. (3.1.1)
105
Классификация марковских процессов
Таблица 3.1
Для трех моментов времени tj> tk формула (1) принимает вид
(3.1.2)
Поэтому часто говорят, что характерное свойство марковских
процессов Состоит в следующем: если точно известно состояние
марковского процесса в настоящий момент времени (г.), то будущее
состояние (при /,) не зависит от прошлого состояния (при tk).
В качестве определения марковского процесса можно также
принять следующее соотношение, имеющее симметричный вид
относительно времени:
106
х P{^k)^k\^t^^}. (3.1.3)
Такая запись означает, что при фиксированном состоянии
процесса в настоящий момент времени tj будущее (при /,)
и прошлое (при (к) состояния марковского процессе! независимы.
Из приведенных определений следует, что для марковских
процессов «-мерная п.в. (или функции распределения), которая
дает полное описание любого сл.пр., может быть представлена
в виде
(3.1.4)
1 = 1
Это означает, что любое «-мерное распределение марковского
процесса может быть найдено по формуле (4), если известны
одномерное распределение процесса и условные п.в. (или веро-
ятности) перехода. Иначе говоря, описание простого марковского
процесса достигается заданием его двумерной п.в.
Р2(^Л2)=р(^)р(ии (3.1.5)
Укажем еще одно общее и важное свойство непрерывных
во времени марковских процессов: для них эволюция вероятности
перехода Р (t) < |£, (10) = £,0} описывается уравнением вида
dP/dt=S?P, (3.1.6)
где <Р— некоторый линейный оператор (матрица, дифференци-
альный оператор и др.). Это позволяет исследовать статистические
характеристики подобных марковских процессов при помощи
хорошо разработанных методов решения соответствующих диф-
ференциальных уравнений. Характер начальных и граничных
условий для уравнения (6) может быть различным и определяется
существом рассматриваемой физической задачи.
Рассмотрим способы описания и методы решения основных
задач для указанных четырех видов марковских процессов.
Процессы с дискретными значениями обозначим 0(1), а с не-
прерывными Х(г).
3.2. ЦЕПИ МАРКОВА
Пусть сл.пр. 0(1) может принимать конечное число К диск-
ретных значений 017 02, ..., 9^-. В некоторые дискретные моменты
времени (l0<lt </2с...) значение процесса в зависимости от
вмешательства случая скачкообразно изменяется, т. е. имеют
место переходы 0О—>0j —>02—>..., где 9„ = 0(1„)— значение процесса
через п шагов, а 0о = 9(^о) — начальное значение. Предполагается,
что вероятностные законы изменения значения сл.пр. на каждом
107
шаге из любого состояния В„ i=\, К, в любое другое состояние
j=\, К, известны.
Характерное свойство простой цепи Маркова состоит в том,
что вероятность значения процесса 0„ в момент времени t„
зависит лишь от того, какое значение имел процесс в непосред-
ственно предшествующий момент времени и не зависит
от значений процесса в более ранние моменты времени, т. е.
Р{0Я|0О, 01; ..., 0Я_1} = Р{0Я|0Я_1}. (3.2.1)
Можно также ввести определение сложной цепи Маркова
порядка w(w>l), если вероятность нового значения процесса
зависит только от т значений, непосредственно ему предшест-
вующих:
Р{0„ 10О, 01( ..., 0„_ J = Р {0„ 10я_т, ..., 0Я_t}. (3.2.2)
Так как сложная цепь Маркова порядка т с помощью
известной методики [4] может быть сведена к простой цепи
Маркова для m-мерного вектора, далее ограничимся рассмотре-
нием только простой цепи.
Для простой цепи Маркова совместные конечномерные веро-
ятности определяются формулой
Р{0О, 0J, ..., 0П} = Р{0О} П Р{^ (3-2.3)
p = i
Условные вероятности Р{0и|0и-1} принято называть вероят-
ностями перехода из состояния Qp-i в состояние 0р в момент
времени
Одна из основных задач в теории простых цепей Маркова
заключается в следующем. Пусть задано начальное значение
процесса при /0 и на каждом шаге по времени указан
вероятностный закон смены значений процесса между всеми
возможными состояниями (т. е. заданы соответствующие ве-
роятности перехода). Каким образом можно найти вероятности
различных значений процесса в момент времени tn>t0, и,
в частности, при п->оо?
Введем следующие обозначения для вектора-столбца безус-
ловных и матрицы условных вероятностей:
р («) = О* («)] = Ю {0п = &*}];
я(ц, п) = [лл(ц, л)] = [Р{0я = 34|0(1 = »7}]; (3.2.4)
j, /с=1, К; n=0,1,2,3,...
Величина рк(п) есть безусловная вероятность значения' на
п-м шаге (т. е. в момент времени r = Zn), а условная вероятность
и) определяет вероятность значения при t, если в более
ранний момент времени значение процесса было равно
108
Очевидно, что введенные вероятности неотрицательны и удов-
летворяют условию нормировки
к
л(«)>0, Z а(«)=1, л=0,1,2,3, ... (3.2.5)
k = 1
К ____
nJk(n,n)>0, X «)=1, У=1, К. (3.2.6)
к = 1
На основании правила полной вероятности для введенных
вероятностей (4) можем написать уравнения Маркова
Р(«) = пт(ц,и)Р(ц), (3.2.7)
я(ц, и) = л(ц, т)п(т, п), и>т>ц>0. (3.2.8)
Расписывая последовательно формулу (8), имеем
я(ц, л)= f] л(р.+ 1, ц-Н+1). (3.2.9)
i=0
Отсюда видно, что для определения матрицы л(ц, и) при
всех цО достаточно знать последовательность матриц одно-
шаговых вероятностей перехода.
С учетом соотношений (7)...(9) и (3) приходим к заключению,
что полное вероятностное описание простой цепи Маркова
достигается заданием вероятностей начального состояния и по-
следовательности матриц вероятностей перехода.
Среди простых цепей Маркова различают однородные и неод-
нородные. Однородная цепь характеризуется тем, что вероятности
перехода я(ц, п) зависят только от разности аргументов, т. е.
п(ц, п)=п(п— ц), и>ц^0. (3.2.10)
Обозначим матрицу одношаговых вероятностей перехода
л = л(1). Из (9) следует, что для простой однородной цепи
Маркова матрица вероятностей перехода за п шагов равна п-й
степени матрицы одношаговых вероятностей перехода
п(и) = п", (3.2.11)
а вектор-строка вероятностей различных значений процесса опре-
деляется уравнением
Рт (и) = Р1 (0) л". (3.2.12)
Однородная цепь Маркова, для которой вероятности Р(и) = Р
не зависят от п, называется стационарной, в противном случае
цепь называется нестационарной. В общем случае вероятности
Р, если они существуют, находятся в результате предельного
перехода
P=limP(n) (3.2.13)
109
и называются финальными. Однако если начальные вероятности
Р(0) совпадают с соответствующими финальными вероятностями
Р, то цепь Маркова будет стационарной, начиная с г0.
Финальные вероятности должны удовлетворять системе К ли-
нейных алгебраических уравнений
(I —лг)Р = 0, (3.2.14)
где Г единичная матрица, и дополнительному условию
А>0. (3.2.15)
к = 1
В силу условия (6) К уравнений (14) являются линейно-
зависимыми. Поэтому К финальных вероятностей следует опре-
делять из (АГ—1) уравнений (14) и уравнения (15).
Классификация состояний цепи Маркова производится в за-
висимости от того, может ли процесс из данного состояния
попасть в другое данное состояние.
Состояние называется невозвратным, если существует такое
состояние Гф (к #7) и такое число шагов и, что лук(н)>0, но
71^(77?) = О для всех т. Все остальные состояния называются
возвратными. Таким образом, из невозвратного состояния с неко-
торой вероятностью всегда можно за какое-то число шагов перейти
в другое состояние, однако вернуться из этого другого состояния
в первоначальное невозможно. Возвратные состояния предполага-
ют возможность и обратного перехода, причем число шагов при
прямом и обратном переходах может быть произвольным.
Если существуют такие состояния 9; и 9fc, что для них при
некоторых п и т выполняются условия и 7Tfcj(w)>0,
то они называются сообщающимися. Очевидно, что если 9,
сообщается с a 9t с 9,-, то 9^ сообщается с 9;. Это
обстоятельство позволяет разделить множество возвратных со-
стояний на подмножества сообщающихся состояний. При этом
состояния, принадлежащие различным подмножествам, не сооб-
щаются между собой. Множество возвратных сообщающихся
состояний называется эргодическим.
Цепи, состоящие из единственного эргодического множества,
называются эргодическими. Если, начиная с некоторого достаточно
большого н0, все элементы матрицы я" положительны для всех
п>п0, то такая цепь называется регулярной эргодической цепью
Маркова. Для такой цепи после достаточно большого количества
шагов процесс может находиться в любом состоянии независимо
от начального значения. Если никакая степень матрицы я не
является положительной матрицей (различные степени содержат
нули на разных местах) и с увеличением степени расположение
этих нулей циклически повторяется, то такая цепь называется
циклической эргодической цепью Маркова. Для такой цепи можно
НО
Рис. 3.1 Цепь Маркова с двумя
состояниями
Рис. 3.2. К вычислению рекуррентного
времени состояния 3,
перейти из каждого состояния в любое другое только при
некоторых специальных значениях числа шагов п. Отметим, что
для циклических цепей предел (13) не имеет места, так как
последовательность л" не может сходиться.
Если для любого п вероятность njft(n) = 8jk, где 8jft— символ
Кронекера, то состояние Э. называется поглощающим. Наличие
в цепи Маркова поглощающих состояний, после попадания
в которые сл.пр. уже не меняет своих значений, радикальным
образом изменяет характер процесса по сравнению со случаем
отсутствия таких состояний. Если среди всех состояний цепи
Маркова имеется хотя бы одно поглощающее и в него можно
попасть из любого другого состояния, то такая цепь называется
поглощающей. Вероятностные характеристики различных цепей
можно найти в [2, 4].
В прикладных задачах часто используют однородную цепь
Маркова с двумя состояниями. Рассмотрим ее подробнее.
Пусть цепь Маркова {0П, н = 0, 1, 2, ...} имеет два состояния
и 3, (рис. 3.1) с верочтностями начального состояния /’1(0)=р?
и Pi^)==Pi- Р<(+Р<2 = ^- Матрица одношаговых вероятностей
перехода не зависит от времени и задана
л =
1 —а а
Р 1-Р
(3.2.16)
Исключим из рассмотрения два тривиальных случая: 1) а+р = 0,
г. е. ос = 0, р = 0; 2) ос+р = 2, т. е. а=1, р=1. В первом случае
не происходит смены состояний (оба состояния являются по-
глощающими) и система остается в заданном начальном со-
стоянии.. Во втором случае смена состояний происходит детер-
минированным образом и, если начальное состояние задано,
поведение системы будет неслучайным.
Определим вероятности перехода за п шагов, абсолют-
ные вероятности р,с(н) и финальные вероятности рк.
Применительно к данному примеру в уравнениях (14) и (15)
нужно положить к=\, 2. При этом получим pr =р} (1 — а)+р2р,
Pi+p2=^- Отсюда находим финальные вероятности
111
Pi = P/(« + P), /О = а/(а+Р)- (3.2.17)
Для нахождения матрицы вероятностей перехода л(п) за
и шагов воспользуемся следующим результатом, известным из
теории матриц. Матрицу я, имеющую различные характеристичес-
кие корни, всегда можно представить в виде
л = Т
о К
(3.2.18)
Здесь Т —невырожденная матрица (детерминант этой матрицы
отличен от нуля: iT;^0) размерности 2x2; Т-1--матрица,
обратная Т; характеристические корни матрицы п, т. е. корни
уравнения jn — XI 1 = 0, где 1 — единичная матрица.
Используя представление матрицы к в виде (18), получаем
q и
о к
(3.2.19)
Для рассматриваемой матрицы вероятностей перехода за
один шаг (16) из уравнения
1 — 7 — X а ! ., ,, „ ,, ,
! к — а 11 ~
находим характеристические корни: X* = I, X, =-1—а —р; при
а + они различны.
Выражение (18) можно записать в виде
,г Г>-1 0 т Г?11 f 12
л i = i , , 1 =
_ ® Л2 J L.C1
Отсюда получаем систему из четырех попарно тождественных
линейных уравнений для определения z;l:
(1 — И — ХД t ii + 'X121 = 0, Р Zj 1 + (1 — р — Ху l л = 0,
(1 /1 2 3_ ’Z/22 " ; 9, P Z1 2 3’ f 1 — P — ^2) 22
Находим Zu = Oi ^0, t22= — pz12/a.
Учтем, что умножение столбцов матрицы Т на постоянную
величину не влияет на конечный результат. Полагая ради
простоты последующих записей zn = l и Zi2 = a, получаем
1 а~| T-i_ 1 Г р а
1 —pj’ а+р|_- 1 -I
Следовательно,
0
1 — а —р
На основании (19) находим матрицу вероятностей перехода
за и шагов
112
а+р 1
Заметим, что |Х21 = | 1 — а—[3|< I при а-i-p^O и
Поэтому (1— а — Р)"-*0 при п-+со и
(3.2.20)
и-!- р т^2.
L/’i P2S
где рк — финальные вероятности (17).
По формуле (12) находим абсолютные вероятности состояний
через и шагов
Р(») = Ь?/’”] яп = ^[рнфр?-М)(1-а-р)'',
ot+(P/?2 —— ос — Р)"]- (3.2.21)
Отсюда при н-юо также получаем прежние значения финальных
вероятностей (17).
При анализе цепей Маркова могут встретиться разнообразные
задачи. Укажем на примере цепи Маркова с двумя состояниями
еще две задачи.
Можно интересоваться долей времени, проведенного системой
в одном из состояний в течение большого интервала времени.
Отождествим состояние 9, с нулем и состояние &2 с единицей.
Пусть с. в. У„ = {0, 1} обозначает состояние системы в момент
времени t„, причем интервалы времени между соседними скачками
одинаковы, т. е. tn+1 — tn — const, н = 0, 1, 2, ... Тогда сумма
+ У2 +... + Х„ представляет собой число раз из общего числа
п, проведенных системой в состоянии 1. Обозначим начальное
состояние через j и 7iJ2(n)=P {Х„ = 11X0=j }.
Известно, что м.о. с.в. X, принимающей лишь два значения
0- и 1, совпадает с вероятностью Р(У=1}. Поэтому
М {(А\ + У2 + ... + У„)| X0=j } — 7Г;2(1)+Л22 (2)+... + Л;2(и).
Среднее значение относительной доли времени, проведенного
системой в состоянии 1, очевидно, равно
{пя (1) + я;1 (2) + ... + ля (н)}/н.
Известно, что если предел последовательности {<?„} при /г->оо
равен а, то предел последовательности +а2 + ...+ап)/п также
равен а. Поскольку гс71(л)->р2 при и->оо, то среднее значение
относительной доли времени, проведенного в состоянии 1,
113
стремится к финальной вероятности р2 при и->оо. Аналогично
предел средней доли времени в состоянии 0 равен Финальные
вероятности pY и р2 даются формулой (17).
Предположим, что начальным состоянием является 0. Рас-
смотрим сл. в. Т, обозначающую время первого возвращения
в состояние 0. По определению Т=п, если в моменты времени
/р t2, ..., t„-i система находится в состоянии 1, а в момент
времени tn она впервые возвращается в состояние 0 (рис. 3.2).
С.в. Т называется рекуррентным временем состояния 0. Обо-
значим закон распределения с.в. Т через /00(п), «=1, 2, ... Из
рассмотрения рис. 3.2 можно заключить, что /оо(и) =
= Р(Т=п} = ар(1—р)"2, л = 2, 3, 4, ... и /00(1)= 1-а.
Воспользовавшись известным равенством
оо
находим среднее значение рекуррентного времени состояния 0
М{7> £ n/00(«)=l-a + ap f п(1~Р)-2 =
п = 1 п = 2
= 1-а+ар£ (U2)(l-₽)‘=^. (3.2.22)
k-0 Р
Пример 3.2.1. Однородная симметричная цепь Маркова с двумя состояниями.
Пусть цепь Маркова {0„, и = 0, 1, 2, ...} имеет два состояния Э, и Э2
с вероятностями начального состояния р1(0)==/’® и р2(0)=/>®, где р°+р°— '•
Известны одношаговые вероятности перехода = п22=р, nl2 = n2l=q, где
p + q=\, р>0. Так как матрица одношаговых вероятностей перехода
Р в
_<7 pj
р + <7-1.
(3.2.23)
симметрична, то цепь называется симметричной. Рассматриваемая цепь является
однородной, так как вероятности перехода непосредственно не зависят от номера
шага, при котором происходит смена состояний.
Нужно определить вероятность nJk(n) за п шагов, абсолютные вероятности
рк(п) н финальные вероятности pk, к=\, 2.
Ответы на эти вопросы можно получить непосредственно из формул (20),
(21) и (17), нужно лишь в них положить а = <7=1— р, Р = <7=1— р, как это следует
из сравнения матриц (16) и (23). Поэтому сразу записываем окончательные ответы
.-чъ,н)4'?Л‘'1'^Ь‘-I-*•
Р(П) = {Р1(П)’ Р2(»)}=[1+(Р1-Р2)(Р-«)”’ 1+(Р°-Р?)(Р-?)"]/2’
Р1=р2=1/2. (3.2.24)
114
Следовательно, цепь является эргодической и для нее суще-
ствуют финальные вероятности. Из выражений для /ь. (л) видно,
что после начального момента времени в цепи имеет место
переходный режим и лишь через достаточно большое число
шагов асимптотически устанавливается стационарное (равновес-
ное) состояние. Однако если бы начальные вероятности совпадали
с финальными (/? i =/? Ъ = 1/2), то переходный процесс отсутствовал
бы и цепь сразу была бы стационарной.
Приведенному примеру можно дать следующую радиотех-
ническую интерпретацию. Пусть система связи передает двоичные
символы, которые обозначим через и 02. Каждый переданный
символ проходит через несколько устройств (каскадов), в каждом
из которых выходной символ с вероятностью р воспроизводится
верно и с вероятностью 7=1— р переходит в другой. Пусть
0и = {01, Э,}-—символ на выходе /г-го устройства. Тогда после-
довательность 0О, 015 02, ... есть однородная цепь Маркова
с матрицей вероятностей перехода (23).
Предположим, что нас интересует вопрос: какова вероятность
p.[0o = 01 |0п = Э1} того, что если на выходе и-го устройства
принят символ то был передан этот же символ?
В общем случае на основании теоремы умножения можем
написать
P{0,=0fc}P{0o = 9/|0n = 9t} = P{0o = 9,]P{0, =0J0O = 3Z.},
г. е. Л(/?)р{0о = Э;10„ = Э4=/?Л°)^'4/г)-
Отсюда
Р {0О = 0; 10„ = =/ф.(0) (п)/рк (и). (3.2.25)
Полагая здесь у=1, Л=1 и воспользовавшись выражениями
(24), получаем нужный результат
Р{Оо = Э1|0„ = 91} =
/(+//((/>-О"
1 +С"?-Д2)(д-7)"'
/М°)7Ч1(")
/’> (")
Пример 3.2.2. Корреляционная функция квазислучайного телеграфного сигнала.
В радиотехнических задачах часто встречается следующий модернизированный
вариант цепи Маркова с двумя состояниями, названный квазислучайным телег-
рафным сигналом. Дискретный сл.пр. 0(1) имеет два состояния +Э0, причем
смена состояний возможна только в фиксированные моменты времени r,,= A + ziT,
|дс r=70const, /1 = 0, 1, 2, ... - целое положительное число; А - с.в., не зависящая
от 0(1) и равномерно распределенная на отрезке [0, Г] (рис. 3.3). В непрерывном
времени вероятности перехода рассматриваемой цепи Маркова определяются
соотношением ,
P{0(/ + T) = 9JO(r) = 9..} = !8ji’ / + (3.2.26)
(лу., / и Z + т лежат на соседних интервалах.
Пусть одношаговые вероятности перехода заданы матрицей (23).
115
Рис. 3.3. Квазислучайный телеграфный сигнал
Не воспроизводя здесь вычислений [4], приведем окончательные формулы
для корреляционной функции и спектральной плотности квазислучайного телег-
рафного сигнала 0 (/):
Я(т) = Э?(н-|т|/Л(Р”7)"^ +Эо (//— 1)](д-<7)Л
(н — 1)7Хт<пТ, п=1. 2, 3, ....
9§7-[1 р1п(соГ/2П2
О СО =----;-----------;----= ---------
1 — 2(/> —<?)cosco Т+(р-~ q )* L соГ/З
Для частного случая /л-= <7 = 1/2 из зтпх формул находим
,, , , Л’11 (<о Т/2}'
Г Эй (1 -1 т I / Г), I т | < Т. S (со) = Эо Г ' '
Я(т) = < V 1 '
I 0. |т|>Г
(3.2.27)
(3.2.28)
(3.2.29)
Графики корреляционной функции и спектральной плотности для трех
значений р = 0,25; 0,5 и 0,75 изображены на рис. 3.4.
Отметим, что если полагать начало отсчета времени совпадающим с момен-
том возможного изменения состояния (Д = const = 0), то такой телеграфный сигнал
оказывается нестационарным.
Рис. 3.4. Корреляционная функция (я) и спектральная плотность (б) квазислучай-
ного телеграфного сигнала
116
В этом легко убедиться для симметричного квазислучайного телеграфного
сигнала = 1/2). Для такого сигнала корреляционная функция равна
при (/7— 1) Т< /х, 1-, <пТ,
п=\,2,...„ " (3.2.30)
0 при других tt, t2.
Видно, что корреляционная функция зависит порознь от двух рассматриваемых
моментов времени /, и /2 и, следовательно, процесс 0р) нестационарен.
3.3. ДИСКРЕТНЫЕ МАРКОВСКИЕ ПРОЦЕССЫ
Пусть по-прежнему скалярный сл.пр. 0(() может принимать
только дискретные значения 02, ..., но смена этих значений
происходит не в фиксированные, а в любые моменты времени.
Для вектора-столбца безусловных вероятностей и матрицы веро-
ятностей перехода аналогично (3.2.4) введем обозначения
р(О=[л(^)] = [^{0(г)=Ш
л(г0, t)=[njk(t0, г)] = [P{9(/) = dJ9(f0) = M]’ С3-3-1)
j, к=1, К, 0 t0 < t.
Очевидно, что введенные вероятности неотрицательны и удов-
летворяют условию нормировки
Z А(0=1> (3.3.2)
*= 1
К _____
ял(/0, ()^°, £ ял(г0, () = !, /== 1, X. (3.3.3)
к- 1
Кроме того, для вероятностей перехода аналогично (3.2.8)
справедливо уравнение Колмогорова — Чэпмена
л(/0, / + Л() = л((0, /)л((, t + iXt), t>\y, АоО. (3.3.4)
Характерное свойство дискретных марковских процессов,
для которых смена состояния может происходить в любые
случайные моменты времени, состоит в том, что для малых
приращений времени А/ вероятность пкк того, что текущее
значение не изменится, превышает вероятность изменения этого
значения, т. е.
пкк (z, t + А/) = 1 + акк (t) А/ + о (A t),
nkj[t, г+At) = akj(t)А/ + о(Аг), , (3.3.5)
где символом о (А?) обозначены члены выше первого порядка
малости относительно Ад т е. lim [о(АЦ/А/1 = 0. Это свойство
дг—о
называется свойством ординарности.
Согласно (3) из (5) следует, что
117
<ikk\iy- - r/fc;(?)<0, akj(l)^O. (3.3.6)
JCk
Кроме того, имеют место очевидные равенства
я(/0, ?0) = 1, (3.3.7)
л(/, / + ,A?) = ! + А(?)Д/ + о(Д/), (3.3.8)
где А(/) называется матрицей инфинитизималъных вероятностей
перехода.
Подставив (8) в правую часть уравнения (4) и перейдя
к пределу при Az->0, получим уравнение Колмогорова
5л(/0, т)/5/ = я(г0, ?)A(z), (3.3.9)
общее решение которого с начальным условием (7) при А(т) =
= A = const имеет вид матричной экспоненты
л(г0, z) = exp[A(z-f0)]. (3.3.10)
Аналогично (10) решение уравнения (9) с помощью замены
переменной по времени может быть также получено при А(т) =
=/(z)A, где f(t)- произвольная скалярная функция времени:
л(г0, г) = ехр
I
A J /(т)г/т
Для произвольных матриц А(?) решение уравнения (9) в при-
нципе можно отыскать методом последовательных приближений.
Дискретный марковский процесс остается марковским и в об-
ратном направлении времени. При этом наряду с уравнением
(9), часто называемым прямым, справедливо также обратное
уравнение Колмогорова
ая(т0, /)/<?/0=-А(т0) л(т0, г), t^t0. (3.3.11)
Для безусловных вероятностей состояния аналогично (3.2.7)
справедливы соотношения
Р(г) = п’(г0, Г)Р(?О), (3.3.12)
Р(т + Дт) = п1 (1, г + Дт)Р(4 (3.3.13)
Из (13) и (8) для безусловных вероятностей состояния получим
дифференциальное уравнение
dP(t)/dt = A^t) Р(т), (3.3.14)
решение которого при A(r) = A = const согласно (10), (12) имеет вид
Р(т) = {ехр[А1(г-г0)]}Р(т0). (3.3.15)
Дискретный марковский процесс называется однородным, если
матрица вероятностей перехода л(г0, г) зависит только от раз-
ности т=д —г0, т. е.
118
n(t0, t) = n(t-t0) = n(r). (3.3.16)
Из (5) следует, что для однородного дискретного марков-
ского процесса матрица инфинитезимальных вероятностей пере-
хода А не зависит от времени и уравнения (9), (14) имеют
решения (10), (15).
Классификация состояний однородного дискретного марковс-
кого процесса полностью аналогична классификации состояний
однородных цепей Маркова (нужно только вместо числа шагов
п рассматривать интервал времени t — Соответственно раз-
личают эргодические и поглощающие дискретные марковские
процессы.
Для эргодического дискретного марковского процесса суще-
ствует стационарное (равновесное) распределение вероятностей
состояний Р, которое определяется из К—\ уравнения
АтР = 0 (3.3.17)
и условия
f Л=1-
k= 1
(3.3.18)
Приведенные формулы при конечных значениях К позволяют
получать аналитические результаты, а также удобны для вычис-
лений на ЭВМ.
Дискретные марковские процессы широко применяются в фи-
зике, теории связи, массового обслуживания и надежности.
Пример 3.3.1. Дискретный марковский процесс с двумя состояниями (случайный
двоичный сигнал). Пусть процесс 0(1) в любой момент времени может принимать
лишь два значения 9^1 и Э2= —1 (рис. 3.5), причем вероятность перехода
Э, ->Э2 за малое время Д/ равна АД/, а вероятность перехода 02->01 равна
цЛл Известны вероятности начального состояния />? = Р {0(/о)= 1}
и = Р{0(/о)= ~ 1} = 1 ~Нужно вычислить вероятности перехода яи(/0,/) =
= Р {6(r) = 9j | 0(/о)=Э(}, 2, вероятности стационарного состояния р1 и />2,
а также м. о. и корреляционную функцию процесса 0(1).
Укажем, что если дискретный процесс Ф(1) имеет два произвольных состояния
<р, и <р2, то его можно выразить через сл. пр. 0(1) с двумя состояниями ±1
с помощью следующего линейного преобразования:
Ф(г)=[<р1 +<р2+(<р1 -Ф2) 0(f)]/2-
В рассматриваемом примере, как
следует из (5), п12 = Х, а21=ц. Из (6)
находим пц = —А., п22 = —ц. Так как все
четыре коэффициента atJ постоянные ве-
личины, не зависящие от времени, то
процесс 0(1) является однородным.
Дифференциальные уравнения (9)
принимают вид
(3.3.19)
Рис. 3.5. Случайный двоичный сигнал
119
dnlt(t0, t)/ot= -Хл,1 (r0. /) + ЦП,-2(t0, t),
Sni2(/0, t)!dt= -[ini2(t0, t)+Xnti(t0, r),
(3.3.20)
Из условия нормировки (3) имеем л12 (t0, t) = 1 — ли (t0, t). Поэтому первое
из уравнений (20) можно записать иначе:
07tti(/0. г)/гг=-(Х + ц)л,1(Го, 0 + Н- 1>,о- (3.3.21)
Общее решение этого линейного неоднородного дифференциального уравнения
первого порядка с начальным условием (t0, t0) — 1, которое следует из (7),
известно:
Яц(10. /) = р f exp [-(Х + ц)(/-s)]<Zs + exp [ —(X —р)(/ —/0)] =
Х + ц
л
Х+ц
ехр[-(Х + р)т].
T — t — to>0.
В результате решения системы уравнений (20) для любых т>0 получим
"л (’Ку Л 7—-) ехр Р' + й) Tl Я1- W = ( ) (1 -exp [-^ + р)т]),
Л. + н\Л. + ц/ 'Л + М/
(3.3.22)
+ ехр [-(Х + р)т], л21 (т)=| —В-А(1 -ехр [-(Х + р)т]).
Отсюда видно, что рассматриваемый марковский процесс с двумя состояниями
является однородным, так как вероятности перехода зависят только от разности
фигурирующих в них времен. Кроме того, процесс эргодичен, поскольку при
существуют предельные значения вероятностей перехода
Pi =|тД + ц). /д = Х,/(Х + и), (3.3.23)
которые определяют вероятности стационарного состояния. Эти вероятности
можно было легко найти из уравнения (17).
Зная вероятности начального состояния и вероятности перехода, легко
находим общие выражения для абсолютных (безусловных) вероятностей состояний
Р1(1о + '0=/7?ли(х) + (1 -р?) n21(.s) = -~ + (p?--rli-)ехр[-(Х + ц)5],
л -г р \ Л + ц/
p2(!o + s) = (i-pOi)n22(s)+po1ni2(s) =
\ f \
-Г”----М-—)ехр[-(Хн-ф]; 5>0. (3.3.24)
По определению м. о. процесса 0(?) равно
тв(т) = М{е(/)} = 1 pi (<)-1 p2(t)=p°inii (т)+
+ (! Tt2i (т)-(1 -р?) п22 (т)-р?П12 (т).
(3.3.25)
Здесь последнее равенство написано на основании формулы (12). Подставив
выражения вероятностей перехода из (22). получим
120
то(0=:^ + 2И?-Г^)ехр[~(х + Ф]> т = '-'о- (3.3.26)
л + ц л-t- цу
Вычислим теперь корреляционную функцию
Ae(s, т) = М{0(го+$)0(го + я + т)} — M{0(/o + s)} М{0(го+5+т)}, s, т>0.
Расписав по определению м. о. произведения, имеем
М{0(/о + 5)0(/о+5 + т)}=/>1(Го + 5)л11(т)+/>2(Г(> + 5)л22(т)-
- Pl (r0 + s) л12(т)-p2(lo + s) Я21 (т), 5, т>0.
Воспользовавшись формулами (22), (24) и (26), находим
, , f 4Ац Гн—А ( п и \ г „ , ,
К(^Ч^Т'~^Гхр[_( *м х
х (р?-г—)ехр[-(*-+иМ?еЧ»[-(^ + Ф]- (3.3.27)
\ Л “г цу J
Предположим теперь, что в качестве вероятности начального состояния
взята вероятность стационарного состояния, т. е. = ц/(А + р). В данном
случае процесс 0(г) будет стационарным с момента времени t0 и из формул
(26) и (27) получим
т9 (z) = (ц — А) / (А+ц) = const,
Яв(s, т) = Ле(т) = 4Ац(А + ц)"2 ехр [—(А + ц) т].
На основании четности корреляционной функции стационарного процесса
0(z) приходим к следующей окончательной формуле, справедливой для поло-
жительных и отрицательных значений г:
Яв(т) = 4Ац(А + ц)*2 ехр [-(А + ц) |т| ]. (3.3.28)
Если А = ц, то процесс 0(f) принято называть симметричным случайным
двоичным сигналом (случайным телеграфным сигналом). Полагая в предыдущих
формулах А = ц, находим вероятности перехода, вероятности стационарного
состояния, а также среднее значение и корреляционную функцию в стационарном
состоянии для случайного телеграфного сигнала 0(z):
Лц(т)=Л22(т)=(1/2) [1+ехр(—2Ат)],
я12(т) = Я21 (т)=(1/2)[1 —ехр(—2Ат)], (3.3.29)
Pi=Pz=l/2, ™в = 0, Яо(т) = ехр(-2А|т|).
Получим п. в. длительностей положительных т, и отрицательных т2 импульсов
(см. рис. 3.5). Возьмем за начальный момент времени t0 начало какого-либо
положительного импульса. Разобьем интервал времени [z0, t0 + Ti] на большое
число и=т1/Л подынтервалов малой длительности Д. Вероятность того, что
рассматриваемый импульс имеет длительность в интервале [т,, Tj+Д], равна
произведению двух вероятностей: 1) того, что на первых п подынтервалах
121
состояние сохраняется — она равна (1—цД)", и 2) того, что на (м+1)-м подын-
тервале произойдет переход — она равна рД. Поэтому
р(т1)Д=(1-цД)"цД=р(1-рт/и)".
Устремив и-»со и воспользовавшись замечательным пределом (П6), получим
р(т1)=рехр(-цт1), т(>0. (3.3.30)
Аналогично
р(т2) = Л ехр( —Хт2), т2>0. (3.3.31)
Следовательно, длительности импульсов распределены по показательным
законам, причем их средние значения
М{т2} = 1/Л. (3.3.32)
Пример 3.3.2. Процесс рождения и гибели. Рассмотрим дискретный марковский
процесс 0(f) со счетным числом состояний 0, 1, 2, ..., который в случайные
моменты времени может скачкообразно переходить в соседние состояния (г. е.
значение процесса 0(t) может измениться на +1). Такой процесс называется
процессом рождения и гибели.
Вероятности перехода процесса рождения и гибели задаются следующими
соотношениями:
л;.7+1(г, 1 + Дг)=\,(1)Д14-о(Дг),
г + Дг)М-[Х,(/) + р,(г)]Дг+о(Дг), (3.3.33)
l + Д/ + о(Дг).
Из (8) следует, что инфинитезимальная матрица А (г) в данном случае имеет
трехдиагональную ленточную структуру. Элементы этой матрицы
г - [М')+М')]’ J=k’
X(t), 1,
V0 для остальных j, к^О.
Так как размерности соответствующих матриц и векторов в рассматривае-
мом примере не ограничены, получить вероятностные характеристики на ос-
новании (10), (15) не удается. Используя те же рассуждения, что привели
к уравнению (14), с учетом (33), (34) для безусловных вероятностей состояний
можем написать
dPj(t j/dt = Xj j (z) Pj_ i (?) - [Х7(t) + py (t)] Pj (t) +
+ 10+i(')ft+i(z), ./= h 2, ... (3.3.35)
В рассматриваемом конкретном случае предполагается, что состояние / = 0
является поглощающим. Поэтому при /=0 в (35) нужно положить X_j(r) =
=M0=Bo(z)=0> т'е-
dp0(t)/dt=n1 (i)Pi(t). (3.3.36)
122
Если в начальный момент времени (/ = 0) значение процесса 0(0) = к, то
начальные условия для уравнений (35), (36) имеют вид
Л(0) = 8л = Р’^’ (3.3.37)
I V, J 7= К.
Аналогично (35) для вероятностей перехода можно написать прямое уравнение
Колмогорова
(г) 1 (г)—[Х7(г)+ц7(^)] 7t,j(z) +
+ ц7+1(г)л;.7+1(г) (3.3.38)
с начальным условием
л;;(0) = 5,7. (3.3.39)
В общем случае при произвольных функциях ХДг) и ц7(г) решение уравнений
(35), (36) оказывается затруднительным. Однако в некоторых частных случаях
удается получить аналитическое решение [4]. Сюда относится линейный процесс
рождения и гибели, для которого интенсивности рождения и гибели являются
линейными функциями состояния: Х>0, ц>0.
Пример 3.3.3. Процесс Пуассона. Однородным (простым)
дискретным процессом Пуассона называется неубывающий це-
лочисленный процесс 0(г) с постоянной интенсивностью изменения
состояния:
\.(/) = Х>0, Ц;(/) = 0. (3.3.40)
Для такого процесса вероятность перехода t) = P {0(г) =
=jг| 0(/о) —0 =0 при j<i, t>t0. Следовательно, процесс Пуассона
является частным случаем процесса рождения и гибели.
Часто процесс Пуассона интерпретируется как число появлений
некоторого события в промежутке времени от 0 до / . Ввиду
того, что процесс Пуассона играет фундаментальную роль
в теории точечных процессов и является основополагающим для
формирования других, более сложных процессов, приведем его
определяющие свойства.
Пусть в случайные моменты времени происходит некоторое
событие. Для простого пуассоновского процесса вероятностный
механизм появления событий во времени должен удовлетворять
трем свойствам: стационарности, отсутствию последействия и ор-
динарности [1].
Стационарность означает, что вероятность наступления опре-
деленного числа событий на непересекающихся промежутках
времени не изменяется при сдвиге этих промежутков на одну
и ту же величину. Отсутствие последействия означает, что
вероятность появления j событий в промежутке времени (т, т-Н)
не зависит от того, сколько раз и как появлялись события
ранее. Иначе говоря, условная вероятность появления событий
за промежуток (т, г 4-/) при любом предположении о наступлении
123
событий до момента т совпадает с безусловной вероятностью.
Отсюда, в частности, следует, что появления того или иного
числа событий в непересскающихся промежутках независимы.
Свойство ординарности состоит в том, что вероятность одного
изменения состояния в малом промежутке времени (t, Z + Az)
равна XAz-l-o(Az), где Х>0, а вероятность сохранения прежнего
состояния равна 1 — XAz—fl(Az). При этом подразумевается, что
вероятность смены состояния более одного раза в промежутке
(t, z + Az) есть малая величина o(Az), т. е. события появляются
относительно редко. Следовательно,
7’{0(z + A/)=j|0(/)=j-l} = W + o(A/),
Р {0(7+Az) =j | 0 (z)=/} = 1 — X Az —о (Az).
Зададим следующее начальное состояние:
„(0) = Р "₽” ' = « (3.3.42)
{0 при ./=1, 2, ...
Вычислим безусловную вероятность какого-либо состояния.
Для этого воспользуемся уравнением (14), в котором согласно
(41) отличны от нуля только два коэффициента Оу= — X
и aJ-ij='k. Поэтому
z/p;(z)/z/z=-X/?;(z) + XpJ_1(z), 7>1, (3 3 43)
dp0/dt=-'kp0(t).
Общее решение этих линейных дифференциальных уравнений первого
порядка известно. С учетом начального условия (42) получим
t
P;(z) = Xexp( —Xz) j exp(X.x)p^ (x)dx, 1;
о
p0(z) = exp ( —Xz), z>0.
Выполнив вычисления, придем к закону Пуассона
Л(') = [(ИУ/У!] exp(-Xz), 7 = 0, 1, 2, ... (3.3.44)
Прямое уравнение Колмогорова (9) принимает вид
dTri7(z)/dZ== — X7Tf j(r) 4-Х7ГЛ7_!. (3.3.45)
Нетрудно убедиться, что это уравнение при начальном условии
7г;Д0) = 8;; имеет решение
Уз fr(Xz)J~7(7-Z)!l exp(-Xz), j^i,
= j<i (3.3.46)
Укажем,, что если бы параметр X пуассоновского закона
зависел от времени, т. е. во все предыдущие выражения входил
бы параметр X(z), то процесс 0(z)' был бы неоднородным. При
124
этом все полученные соотношения остаются справедливыми при
i
подстановке в них вместо Xl функции ]’л(т)б/т. В частности,
о
вместо (44) можно написать
рДг) = 11 J A,(x)dx ) exp ( — j X(x) dx). (3.3.47)
j- \ 0 J \ 0 J
Более полные и подробные сведения о пуассоновском процессе
и его различных обобщениях приведены в [4], а также в1.
Укажем одно из важных обобщений — профильтрованный пуас-
соновский процесс.
Случайный процесс {£,(/), f^O} называется профильтрованным
пуассоновским процессом, если его можно представить в виде
0(1)
^(f) = £ h(t, Ti; z;). (3.3.48)
i= 1
Здесь {0(f), — пуассоновский процесс с постоянным парамет-
ром k, {zj—последовательность взаимонезависимых и одинаково
распределенных случайных величин, не зависящая от {0(f), 7^0};
h(t, т, z)—детерминированная функция трех вещественных пере-
менных.
Во многих практических задачах (например, применительно
к дробовому шуму или импульсным помехам) допускается следующая
интерпретация отдельных величин в записи (48): т;— время появления
случайного события; z; — «амплитуда», связанная с этим случайным
событием; h (/, т., z;) — обусловленное этим событием значение
элементарного сигнала в момент времени t и £,(/)— значение при
t суммы элементарных сигналов, обусловленных событиями,
осуществившимися во временном полуинтервале (0, /].
Из выражения (48) следует, что для задания профильтрованного
пуассоновского процесса необходимо указать: 1) параметр X порож-
дающего пуассоновского процесса; 2) общее для всех с. в. {zj
вероятностное распределение и 3) конкретный вид функции /? (г, т, z).
Можно показать [4], что если М{Л2(/, т, z)}<oo, то случайный
процесс £,(/) имеет конечные первые и вторые моменты, равные
= = {h(t, т, з)}Л,
О
D {£(/)} = XjM {/г2 (/, т, г)}Л, (3.3.49)
О
minftj, t2)
f т, г)Л(/2, т, z)} dx.
о
1 Snyder D. L. Random Point Processes.— N. Y.; John Wiley. 1975.— 485 p.
125
3.4. НЕПРЕРЫВНЫЙ МАРКОВСКИЙ ПРОЦЕСС
1. Определяющие свойства. Характерная особенность рассмот-
ренных ранее разрывных марковских процессов состояла в гом,
что для малых временных интервалов А/ вероятность сохранения
предыдущего состояния значительно превышала вероятность
изменения состояния, причем каждое изменение состояния было
существенным. В отличие от таких процессов непрерывный
марковский процесс характеризуется тем, что в любом малом
интервале А/ имеет место некоторое малое (порядка ^/А?)
изменение состояния; реализации процесса на любом временном
интервале являются непрерывными функциями времени с веро-
ятностью 1.
Приведем определение непрерывного марковского процесса
Х(/). Возьмем в последовательные моменты времени
t0<tl <...<tn-i<tn отсчеты сл. пр. Х0 = Х(/0), Х1=^Х(г1),
..., Хл_1 = Х(г„_1), X„ = X(t„). Процесс Х(г) является марковским,
если условные п. в.
Ля(^л> I ^л-1> !п-1> •••; К» ?о)= р 4 j)
= /’л+1(\, •••! ^-0’ 61’ К}1Рп (^>л-1> Хф, 61—1’ ^о)
зависят только от последнего значения кп _ i в момент -1 и не
зависят от других более ранних значений, т. е.
я„(Хл, гл I Vi, 6.-1J •••; ^0) = ^(Ч, tn I ^л-ь п>\. (3.4.2)
Следовательно, для марковских процессов выражение (1)
можно записать в виде
Рп+1[К, ^0’ 6|’ fo) Рп{К~1, 1 Хо,
6,-1, ..., t0)n(K> t„\K-i, 6>-i)- (3.4.3)
Интегрируя это равенство по Хо, на основании условия
согласованности п. в. имеем
Рп~ 1 (^П- 15 •••» Л|- *”> G) 1 1, $п~ 1)-
Отсюда видно, что при любом п > 1 в формулу (2) входит одна
и та же условная п. в. л(Х, r| V, /'), которую часто называют п. в.
перехода (из состояния X' в состояние X за время между /' и /).
Применяя последовательно соотношение (3) для разных п,
получаем
Рп+ 1 (Хп, ..., Хо 11„, , 1<з} —
=р(К>', G I ^о> >о)-я(Х„, I K-i, (3.4.4)
Следовательно, многомерные п. в. марковского процесса выража-
ются через п. в. перехода я(Х, 11 X', t') и одномерную начальную
126
п. в. р(Х0; /0). Поэтому двумерная п. в. полностью определяет
марковский сл. пр.
Воспользовавшись соотношением (3) и теоремой умножения
вероятностей, нетрудно проверить, что марковский процесс оста-
ется таковым и в обратном направлении, т. е.
л (А,о, to | t^, ..., А,„, tn) — я(^-0’ I Ч)’ <~ Ч < ••• <- ^n- (3.4.5)
П. в. перехода удовлетворяет нескольким условиям:
1) она неотрицательна и нормирована к единице:
л(А,, 11 А/, t')^0, J л(Х, /1 А/?')Л= 1; (3.4.6)
2) переходит в дельта-функцию при совпадении рассматрива-
емых моментов времени (физически — малое изменение состояния
за малые промежутки времени):
lim л(А., 11 А/, ?') = 8(А.— А/); (3.4.7)
3) удовлетворяет соотношению
л(Х, 11 A.', z')=f тс(Х, z| АД Г)я(АД t"\K, t')dk",
t>t">t', (3.4.8)
являющемуся непрерывным аналогом уравнения Колмогоро-
ва— Чэпмена, которое также называют уравнением Маркова
или уравнением Смолуховского. В справедливости этого со-
отношения нетрудно убедиться. На основании (4) можем на-
писать
Jp3 (A,, A,", A.'; t, l", t')dV' =
=р(Г; /')|л(А., /|АД Г) л (АД t"\K, t')dk".
По условию согласованности п. в. интеграл слева равен
двумерной п. в.
р2(К A.'; t, t’)=p[X'; Т)я(Х, /1 АД /'). (3.4.9)
Приравнивая правые части двух написанных равенств, приходим
к (8).
В тех случаях, когда п. в. перехода зависит только от
разности временных аргументов
я(А,, 11 АД ?') = л(А., т | A.'), i = t — t', t,t’>t0, (3.4.10)
марковский процесс называется однородным во времени.
Если задана начальная п. в. д(А.о; г0) и найдена п. в. перехода
л (A., 11 АД t') то можно вычислить все другие характеристики
марковского процесса. Так, двумерная п. в. в произвольный
момент времени t>t0
р2(Х, А,о; t, t0)=p(k0; t0)n(k, 11 A.o, t0), (3.4.11)
127
а одномерная п. в. находится ее интегрированием:
р(Х,/)=-- f р (Хо; z0) л (X, z | Хо, Zo) i7X0. (3.4.12)
Если начальная п. в. задана в виде дельта-функции р(Х; z0) =
= 5(Х — ХА то одномерная п. в. просто совпадает с п. в. перехода
р(Х; z) = л(Х, 11 X. z0).
Если существует стационарное состояние, то одномерная п. в.
в стационарном состоянии /д,(Х) не зависит от времени, а двумер-
ная п. в. зависит только от разности рассматриваемых моментов
времени т — t — t':
р2(Х, X'; т)=р(Х, X'; i, z')=ps((X') я(Х, т | X'). (3.4.13)
2. Уравнения Колмогорова для диффузионных марковских про-
цессов. Плотность вероятности перехода л(Х, 11 X', z') и одномерная
п. в. р(Х; z) важного, ио частного класса непрерывных марковских
процессов удовлетворяет дифференциальным уравнениям в част-
ных производных Колмогорова. Получим эти уравнения, пред-
полагая при этом, что все условия, при которых правомерны
приводимые ниже математические операции (дифференцирование,
интегрирование, существование пределов и т. п.), выполняются.
Запишем уравнение Маркова (8) в следующем виде:
л(Х, t + Az | Хо, z0) = j л(Х, Z + Az | X', t) тг(Х', 11 Хо, z0)c/X',
t + \t>t>t0, (3.4.14)
где интервал времени Az предполагается малым.
Запишем условную характеристическую функцию 0(Q|X',z)
случайного приращения (X —X') за малое время А? при
условии, что X' фиксировано. По определению характеристической
функции, имеем
0(Q | X', z) = M {exp [jQ(X —X')] | X', t} =
= J exp [jQ(X — X')] л(Х, z+Az | X', t)dX.
Согласно обратному преобразованию Фурье можем написать
л (X, z + Az | X', z) =
= ~ J exp[-jQ(X-X')O(Q|X', z)</Q], (3.4.15)
— СО
Разложим 0(Q|X', z) в ряд Маклорена (1.1.26):
0(Q|X', Z)=l+ £ (3.4.16)
и = t " •
128
где w„(A,', г) = М{[А.(/ + Д?) —| X'(r)} — условные моменты
приращения (X—XQ за время Аг
оо
тп(К, /)= f (Х-Х')вл(Х, /+А/|Х', t)d\. (3.4.17)
— со
Подставим (16) в (15):
л(Х, t + \t | X', /) = f exp[-jfl(X —X')] (j£l)"^£l =
n = o n- 2л J
— oo
oo
= .?0(-')-^s£ j
— 00
= f (-1)"^^^8(X'-X). (3.4.18)
„ = 0 n!
Подставив это выражение в уравнение (14) и выполнив интег-
рирование с дельта-функцией, получим
л(А, t + А/1 Хо, Го)= £ ') л(Х, d Хо, г0)]
или
л(Х, t + At | Хо, /0) —л:(Х, ?| Хо, to) —
= t (-^Г^Лтп^, t) л(X, t\ Хо, г0)].
„=1 «'
Поделив обе части этого равенства на Аг и перейдя затем
к пределу при А?->0, найдем
£я(Х, d^o, /0)= £ bg^[X(d /)Л(Х, d4, Ш (3.4.19)
Cl Л _ £ П\ СК '
где
^Я(Х, /)= lim (1)М{[Х(/+Д/)-Х(/)]и|Х(/)} =
Дг-о \д7
= lim ( —) I [Х(/ + А/) — А.(П]" п (А, /Ч-Ad А., 1)с1к. (3.4.20)
Д/-+0 \д7 J
Уравнение (19), при выводе которого была использована
лишь формула (8), справедливо для любых сл. пр., для которых
существуют «коэффициенты» К„(Х, t). Рассмотрим далее один
важный, но частный случай полученного уравнения (19), когда
первые два коэффициента ^(Х, t) и К2(Х, t) конечны, а ос-
тальные коэффициенты К„ (X, t) при л^З равны нулю:
5—2247
129
K„(k, t)<oo, n = l,2; K„(X, t)=Q, п^Ъ. (3.4.21)
Марковские процессы, удовлетворяющие этим условиям, на-
зываются диффузионными. Следовательно, чтобы непрерывный
сл. пр. А, (г) был марковским диффузионным процессом, необ-
ходимо и достаточно, чтобы для него выполнялись условия (21).
Как следует из (20), условие (21) характеризует скорость
уменьшения вероятности больших отклонений с уменьшением
Al Хотя допускаются весьма быстрые изменения процесса A,(t),
но в противоположных направлениях. Поэтому среднее прираще-
ние процесса за малое время Az имеет порядок yJKt. Конечные
скачки процесса появляются с нулевой вероятностью, и все
траектории процесса непрерывны с вероятностью единица.
В дальнейшем будем использовать следующие обозначения:
д(г, Х) = Х1(Х, /)= lim XtМ {[М'+А?)-Ц')] । = (3-4.22)
b(t, А.) = Х2(А., /) = дПто~М{[Х(/ + А/)-А(/)]2| А(г) = А}. (3.4.23)
По традиции, связанной с применением уравнения ФПК перво-
начально в основном для изучения поведения броуновских частиц,
«коэффициенты» a(t, А.) и b(t, А,) часто называют соответственно
коэффициентами сноса и диффузии или локальными характеристи-
ками процесса A(z) (см. с. 144). Коэффициент сноса a(z, А.)
характеризует среднее значение локальной скорости, а коэффици-
ент диффузии b(t, А)—локальную скорость изменения дисперсии
приращения марковского процесса. Коэффициент диффузии не
может быть отрицательным: b(t, А,)^0.
Для диффузионных марковских процессов уравнение (19)
упрощается и переходит в уравнение Фоккера — Планка — Кол-
могорова (ФПК)1, называемое также прямым уравнением Кол-
могорова :
^л(А,, Z| А.о, r0)=-A[a(z, А.)л(А, 11 А.о, /0)] +
01 Сл,
1 Я2
[/>(/, А.) л (A., Z|A.O, z0)]. (3.4.24)
2. СК
Помимо прямого уравнения Колмогорова (24) (в нем фигу-
рирует производная по «конечному» моменту времени t>t0)
п. в. перехода удовлетворяет также обратному уравнению Кол-
могорова (в него входит производная по начальному моменту
времени Z0<Z):
' Колмогоров А. Н. Об аналитических методах в теории вероят-
ностей//УМЫ,-1938,—№ 5.—С. 5—41.
130
t0) = a(t0, Г| Хо, г0)+
I д2
4 ?^(?оАо)^л(Х, Н Хо, Го). (3.4.25)
Z С Ад
’)io уравнение выводится так же, как и уравнение (24), с той
лишь разницей, что теперь при записи уравнения (14) нужно
взять промежуточный момент времени t' близким не к конечному
моменту времени г, а к начальному t0.
Поскольку прямое и обратное уравнения (24) и (25) определя-
к>1 одну и ту же п. в. перехода п(к, г| А.о, г0), то они не независимы.
В частности, дифференциальные операторы в правых частях
уравнений (24) и (25) являются взаимно сопряженными [2].
Однако не следует трактовать прямое и обратное уравнения
лишь только как взаимно сопряженные операторы. При решении
научно-прикладных задач в зависимости от их конкретной
формулировки применяют прямое или обратное уравнение Кол-
могорова. Если нас интересует п. в. непрерывного марковского
диффузионного процесса Х(г) при заданной п. в. начальной
координаты А.(го) = А.о, то естественно использовать прямое урав-
нение. Наоборот, если нужно вычислить распределение первого
времени достижения фиксированного уровня с как функцию
начального состояния Хо, то целесообразно пользоваться обрат-
ным уравнением. В некоторых случаях, когда на поведение
процесса Х(г) наложены ограничения, может оказаться, что
прямое уравнение в обычном виде не применимо, в то время
как обратное уравнение остается в силе [4].
Линейное уравнение в частных производных (24) относится
к параболическому типу, и для отыскания его решения можно
применять обычные методы решения уравнений этого типа1.
Решение должно удовлетворять обязательным условиям (6) и (7),
I. е. оно должно быть неотрицательным, нормированным к еди-
нице и удовлетворять начальному условию
л(Х, Го|Х0, Т0) = 5(А — Хо). (3.4.26)
Решение уравнения (24) для неограниченного пространства при
дельтообразном начальном условии (26) называется фундамен-
тальным решением задачи Коши.
Если значение марковского процесса А. (г) в начальный мо-
мент времени t0 не фиксировано, а является случайным и
имеет п.в. p0{ty, то в качестве начального условияуказывается
эта п. в.
р(10А)=Р0(Ч (3-4.27)
1 Тихонов А. Н., Самарский А. А. Уравнения математической физики: Учебник
для университетов.— М.: Наука, 1972.— 735 с.
131
При этом одномерную п.в. X) в произвольный момент
времени t > 10 можно вычислить двумя способами.
Если п. в. перехода уже найдена, го
p[t, Х)= f я(Х, 11Хо, t0)p(t0, k0)dk0. (3.4.28)
Однако более целесообразно сразу искать решение для п. в.
p[t, А.) с начальным условием (27).
Умножив (24) на p(i0, Ао) и проинтегрировав по Х.о, с учетом
(28) получим
^-p(t, X)=L{p(t, X)p(t, X)] + 1JL [£>(?, X)p(t, A.)].
(3.4.29)
Следовательно, одномерная п. в. марковского диффузионного
процесса удовлетворяет уравнению ФПК (29). При дельтообраз-
ном начальном распределении п. в. совпадает с п. в. перехода
и соответственно становятся идентичными уравнения (24) и (29).
Имея в виду, что во многих задачах непосредственный интерес
представляет именно п.в. p(t, А), в дальнейшем будет рассмат-
риваться в основном уравнение (29).
Уравнение (29) нужно решать при начальном условии
(27). Решение должно быть неотрицательным и нормированным
к единице:
p[t, А)^0; f р(?, А)(/А=1. (3.4.30)
— со
Отметим, что если условия (21) не выполняются, т. е.
марковский процесс не является диффузионным, то на основании
(19) для одномерной п.в. вместо уравнения (29) получим
обобщенное уравнение
Л 03 1 ДИ
^М)= Z (3.4.31)
01 _ £ «7. О Л,
где коэффициенты Кп(к, t) определены формулой (20). Этим
обобщенным уравнением в принципе можно пользоваться при
анализе более широкого класса марковских процессов. Однако
получение решения оказывается очень сложной задачей.
3. Граничные условия. Для отыскания решения уравнения
ФПК (29) кроме начального условия нужно указать еще и гранич-
ные условия. Последние могут быть весьма разнообразными
и определяются существом физической задачи.
При формулировке граничных условий и при решении урав-
нения может оказаться полезной следующая наглядная ин-
терпретация уравнения (29). Будем трактовать вероятность как
132
некую субстанцию. Например, п.в. p(t, X) можно рассматривать
как концентрацию (относительное число) частиц в точке X в мо-
мент времени t. Поток частиц G вдоль оси X складывается из
систематического потока ар, где а — локальная скорость систе-
матического движения, и случайного (диффузионного) потока —
(1/2)5(/>р)/йХ, т. е.
G(t, X)=a(t, X)p(t, X) —(1/2) 5 [()(/, X)p(r, X)]/aX. (3.4.32)
Из (29) и (32) следует, что уравнение ФПК представляет
собой уравнение непрерывности
dp(t, k)/dt+8G(t, Х)/с>Х = 0, (3.4.33)
выражающее сохранение числа частиц.
Взяв достаточно малые приращения АХ и Аг, уравнение (33)
можно записать иначе:
[д(? + Ar, X)—р(г, Х)]АХ = [<7(?, X)-G(t, Х±АХ)]А/. (3.4.34)
Видно, что приращение вероятности за малый промежуток
времени А/ на элементе фазового пространства АХ равно разности
потоков за этот же промежуток времени А?: приходящего через
левое сечение X и выходящего через правое сечение Х + АХ
(рис. 3.6). Выражение (34) можно назвать законом сохранения
вероятности или законом непрерывности. Он используется при
записи аналогов уравнения ФПК для различных классов смешан-
ных (дискретно-непрерывных) процессов (см. § 3.9).
Если сл. пр. X (/) может принимать всевозможные значения
от —оо до оо, то уравнение (33) справедливо на всей прямой.
В качестве граничных условий при этом следует брать усло-
вия на +оо. Интегрируя (33) по X от —со до со и учитывая
условие нормировки (30), получаем обязательно выполняющееся
равенство
G(t, — co) = (r(z, оо).
Однако, помимо этого равенства для выполнения условия
нормировки (30) должны выполняться более сильные условия
lim p(t, Х) = 0, lim -^-p(t, Х) = 0, (3.4.35)
3 1 3 , G Л
Л. —► + со Л —► + оо
которые можно назвать нулевыми граничными условиями.
В тех случаях, когда функция Х(?)
принимает ограниченные значения на
интервале (с, d), уравнение (29) следу-
ет рассматривать лишь в этой об-
ласти. При этом граничные условия
нулевого потока имеют вид
G(t, c)=G(t, d)=0. (3.4.36)
Л' Л'ЧМ! Л Л+4Л Л" л''+zU’ Л
Рис. 3.6. К вычислению потока
вероятности
133
Рис. 3.7. Влияние отражающей границы на процесс и плотность вероятности
Задание граничных условий в таком виде физически означает,
что не допускается поток частиц через границы с, d. Можйо
считать, что в граничных точках с, d поставлены отражающие
экраны, и если частица достигает эти экраны, то она зеркально
отражается от них. Поэтому условие (36) можно назвать условием
отражающих границ (экранов}. Роль отражающего экрана нагляд-
но иллюстрируется рис. 3.7, где изображен один отражающий
экран, расположенный в точке к —с.
Конечно, граничные условия могут быть заданы и в другом
виде. Например, в граничных точках с, d могут быть расположены
поглощающие экраны’, частица, достигшая экрана, поглощается
им (т. е. остается там навсегда) и исключается из дальнейшего
рассмотрения. Поэтому п.в. p(t,k] должна обращаться в нуль
на границах:
p(t, c)=p(t, d) = 0. (3.4.37)
Это есть условие поглощающих границ (экранов). Влияние по-
глощающих экранов на поведение процесса и п. в. схематически
изображено на рис. 3.8, на котором показан один поглощающий
экран в точке к — с.
С задачами такого типа часто приходится иметь дело при
анализе срыва слежения в следящих измерителях (автодальномер,
фазовая автоподстройка и др.). При этом следует иметь в виду,
что теперь п.в. p(t, X) не будет нормирована на единицу, так
как из рассмотрения исключаются те частицы, которые поглощены
экранами. Их число возрастает с течением времени.
Методика решения задач при наличии поглощающих и от-
ражающих границ была предложена Л. С. Понтрягиным1 и при-
ведена с примерами в [4].
1 Понтрягин Л. С., Андронов А. А., Витт А. А. О статистическом рассмотрении
динамических систем//ЖЭТФ.— 1933.— Т. 3, № 3.— С. 165—180.
134
Рис. 3.8. Влияние поглощающей границы на процесс и плотность вероятности
Возможен также более общий случай, когда в точках с и d рас-
положены упругие жесткие экраны', часть попавших на них
частиц отражается, а остальные поглощаются. В этом случае
граничные условия задаются линейной комбинацией условий
поглощения и отражения. Возможны различные комбинации трех
перечисленных границ. Например, в точке с расположен погло-
щающий экран, а в точке d — отражающий и т. д.
Необходимо отметить, что методика математического решения
задач с указанными ограничениями (отражающие, поглощающие
границы и их комбинации) известна только для марковских
процессов.
4. Методы решения. Для решения уравнения параболического
типа (29) можно применять известные методы решения уравнений
этого типа.
Во многих случаях просто находится стационарная п.в.
psl(t, Х) = lim p(t, X), если она существует. Она не зависит от
/-*оо
времени t и начального распределения р0(Х). Поэтому в стаци-
онарном состоянии дPstMlдt = Q и, следовательно, (7(X) = G = const.
При этом уравнение (29) переходит в линейное дифференциальное
уравнение для psf(X)
d [/> (X) Pst (X)] / JX - 2a (X) Pst (X) = —2G,
для которого известно общее решение
Л'(х>=эдехр
Здесь постоянная С определяется из условия нормировки, а поток
G находится из граничных условий. В качестве нижнего предела
135
интегрирования А,' можно взять любую точку интервала, в ко-
тором определен процесс А. (г).
При нулевых граничных условиях для потока ((7 = 0) уравнение
упрощается:
d [6 (X)At (A,)]/dk - 2а (X)At (X) = 0.
Общее решение этого уравнения дается
выражением
А,^ = Щ)ехр ’
(3.4.38)
где постоянная С определяется из условия нормировки (30).
Этой формулой часто пользуются при решении конкретных задач.
К сожалению, получение нестационарного решения уравнения
(29) является довольно сложной задачей и возможно лишь
в некоторых частных случаях. Можно указать шесть часто
применяемых методов [4]: 1) разделение переменных; 2) преоб-
разование Лапласа; 3) метод характеристической функции; 4) за-
мена независимых переменных; 5) приближенный метод гауссовс-
кого приближения и 6) численные методы. Изложим здесь кратко
4-й и 5-й методы.
Метод замены независимых переменных. Заменой независимых
переменных в ряде случаев удается существенно упростить
уравнение ФПК (29). Перейдем в нем от независимых переменных
t и А к новым переменным т и ц путем взаимно однозначного
преобразования
т = <р(/), ц = ф(А., г), (3.4.39)
где ср (?)—непрерывная и нигде не убывающая функция; ф(А,
относительно t произвольна, а по X допускает непрерывную
производную. При этом
p(t, А)=Л (Z, Х)=дц(т, ц)|аф(А, z)/5X|. (3.4.40)
В результате перехода к новым переменным для п. в. (т, ц)
получим уравнение, аналогичное (29):
+ Ц)/>Ц]. (3.4.41)
Здесь коэффициенты сноса ац(т, ц) и диффузии Ь» (т, ц) определя-
ются равенствами
г- ”12
’ (ЗА42)
/ ф (ц) v ' дК
136
где к и Z в правых частях написанных формул предполагаются
выраженными через ц и т.
В зависимости от конкретного вида коэффициентов a(t, X)
и b(t, X) путем подбора соответствующих преобразований (39)
можно получить разные упрощения. Пусть, например, процесс
X(z) однороден по времени: <?(z, Х) = «(Х), b(t, Х) = й(Х). Положим
т = 7, ц = ф(Х). (3.4.43)
В данном случае коэффициенты и как функции старой
переменной имеют вид
им(Х) = п(Х)ф'(Х) + (1/2)Ь(Х)ф"(Х), ЬДХ) = Л(Х)[ф'(Х)]2. -(3.4.44)
14з первого равенства (44) следует, что если нужно получить
процесс с нулевым коэффициентом сноса а (Х) = 0, то преоб-
разование (43) должно быть таким, чтобы выполнялось соот-
ношение
(Х) = ехр '
Выбирая
Ф'(Х)=Ф'2(Х)=^“1''2(Х),
получаем процесс p(z) с единичным коэффициентом диффузии
МХ)=1.
В некоторых случаях оказывается полезной замена самой
исходной функции, г. е. переход в уравнении (29) от p(z, X)
к другой функции, например r(z. X) = Inp(z, X).
Гауссовское приближение. В некоторых задачах на основании
физических соображений можно заранее ожидать определенный
вид п.в. p(t, X). Так, если коэффициенты сноса в диффузии
имеют вид
<7{X) = otX+p, />(X) = £=const, 7. p = const. (3.4.45)
то точным решением уравнения (29) для неограниченного про-
странства является нормальная п. в.
p(z, X) = (2kD;)”1/2ехр{-[X-/7iJz)]2/2£»Jz)}. (3.4.46)
Она определяется двумя параметрами: м. о. тАА и дисперсией
А (О-
Исходя из этого иногда применяют следующий приближенный
способ решения (так называемое гауссовское приближение).
В простейшем варианте этого способа коэффициенты ц(Х) и Ь(Х)
разлагают в ряд Тейлора в окрестности точки ту и ограничива-
ются первыми членами разложения:
ц(Х)^п(ш^ + п'(ш?)(Х — /?гД 6(Х)якй(/я)1). (3.4.47)
137
Подставив выражения (46) и (47) в уравнение (29) и приравняв
члены при одинаковых степенях разности (X,—/нх), получим
систему из двух обыкновенных дифференциальных уравнений
dmjdt=a(mx), dDJdt=2D-ka'(mK)+h(mx). (3.4.48)
Начальные значения и необходимые для решения
системы, легко вычисляются по заданной начальной п.в. p(t0, А,) =
=рСк\. Найдя и из этой системы и подставив
в (46), получим решение (29) в гауссовском приближении.
Отметим, что описанное гауссовское приближение следует
рассматривать как один из приемов, позволяющих получить из
основного сложного дифференциального уравнения в частных
производных (29) систему из двух сравнительно простых обык-
новенных дифференциальных уравнений (48). Разумеется, что
вместо гауссовской п. в. (46) можно задаваться и другими видами
п. в., соответствующих ожидаемому физическому результату.
5. Общий путь анализа систем. Обычно поведение моделей
динамических систем описывается дифференциальными уравне-
ниями (с указанием начальных и граничных условий) или
функциональными соотношениями. При применении аппарата
теории марковских процессов для анализа поведения системы
необходимо выполнить последовательно следующие этапы:
1) проверить, является ли рассматриваемый процесс А,(/)
марковским согласно основному определению (4). Во многих
случаях ответ на этот вопрос дает теорема Дуба (§ 3.7). В тех
же случаях, которые не охватываются этой теоремой, требуется
самостоятельное рассмотрение.
В радиотехнических задачах часто встречаются задержанные
во времени процессы вида A,(z —т(/)), где т(г) — временное запаз-
дывание (например, принимаемого сигнала относительно пере-
данного). Если процесс А,(?) марковский, то процесс A,(z —т),
где т — с. в. или марковский процесс, удовлетворяющий условию
d[t — x(l)]/dt = 1 — dx(t)ldt > О,
сам по себе не будет марковским1. Марковским будет двухком-
понентный процесс {А,(0, т(/)}. Аналогичное положение имеет
место для процесса Х(г), представляющего собой сумму или
произведение двух марковских процессов Xj (г) и Х2 (/).
При вырожденных безынерционных нелинейных преобразова-
ниях марковского процесса Х(?) преобразованный процесс ц(г)
в общем случае оказывается немарковским. В частности, в резуль-
тате квантования марковского процесса Х,(?) по уровням (напри-
мер, p(r) = sgn X(z)) сам по себе процесс p(z) будет не марковским.
Однако марковским будет двухкомпонентный процесс {2с(/), ц(/)};
' См. сноску на с. 479.
138
2) если рассматриваемый процесс Х(?) марковский, то для
него по формулам (22), (23) нужно вычислить коэффициенты
сноса и диффузии a(t, А,) и h(t, X);
3) нужно записать уравнение ФПК (29) и указать соответ-
ствующие начальные и граничные условия для п. в. р (t, X);
4) отыскивать точное или приближенное решение уравнения
(29) тем или иным методом.
Проиллюстрируем изложенную методику рассмотрением трех
простых частных примеров.
3.5. ГАУССОВСКО-МАРКОВСКИЕ ПРОЦЕССЫ
1. Постоянная величина.
Пусть
<7Х/Л = 0, p(tQ, Х) = 8(Х—Хо).
Для такого тривиального примера Х = Х0 = const, a[t, Х) = 0, b(t, Х) =
= 0 и p(t, Х) = 8(Х — Хо). Постоянную величину можно трактовать
как марковский процесс с коэффициентами сноса и диффузии,
равными нулю.
2. Процесс Винера.
Винеровский процесс v(t) определяется через БГШ и(?) с по-
мощью стохастического (см. § 3.6) дифференциального уравнения
dv / dt = n(t], г(0) = 0, (3.5.1)
где «(/) — гауссовский стационарный процесс с нулевым м. о.
и дельтообразной корреляционной функцией
М {«(/)} = 0, R„ (t2 -11) = (А/2) 8(Ц - Ц). (3.5.2)
Уравнение (1) можно интерпретировать и иначе: как определение
БГШ через винеровский процесс.
Из (1) следует, что
t
г(г) = |п(т)Л или dv(t] = n(f)dt. (3.5.3)
о
Эти выражения можно также принять за определение винеровс-
кого процесса (и наоборот: определение БГШ через винеровский
процесс).
Поскольку процесс выражается через БГШ с помощью
линейного преобразования, то винеровский процесс является
гауссовским. Согласно (3) м. о., дисперсия и корреляционная
функция процесса г(?)
t t
М{г(/)} = 0, = J М{п(т1)и(т2)}Дт1б/т2 = ^?, (3.5.4)
О о
139
N
(3.5.5)
о о
Одномерная п. в. имеет вид
p(t, v) = (nNty 1/2ехр( — v2/NtY t>Q. (3.5.6)
Итак, винеровский процесс является гауссовским нестаци-
онарным процессом с нулевым м. о. и дисперсией, пропорци-
ональной времени. Такие характеристики свидетельствуют о том,
что реализации процесса ведут себя своеобразно: с ростом
времени они все более и более разбросаны и чрезвычайно
невоспроизводимы.
Покажем, что винеровский процесс является марковским. По
теореме умножения вероятностей трехмерную и. в. всегда можно
представить в виде
P3(vl,v2,v3;tl,t2,t3)=p(v1-t1)n(v2,t2\vlJr)n(v3,t3\v2,t2; v^tj.
Пусть t3 > t2> tt. Из (3) имеем
Ч Ч Ц Ч
i’(/3) = j’ п (т) di = J /г (т) <7т + f n(i)di = v(t2} + J n(i)di. (3.5.7)
ООО I,
Отсюда видно, что при фиксированном v(t2) значение п(?3) не
зависит от vitt) и, следовательно,
^1И1) = я(1’зЛ3|г2,Г2)-
Поэтому
P?.(v1,v2,v3;t},t2,t3)=p(vl-t1)n(v2,t2\v1,t1)n(v3,t3\v2,t2).
Применяя метод математической индукции, путем таких же
рассуждений можно убедиться, что для п. в. высших порядков
остается справедливым аналогичное соотношение, т. е. выполня-
ется определяющее свойство марковского процесса (3.4.4).
По формулам (3.4.22) и (3.4.23) вычисляем коэффициенты
сноса и диффузии:
' (3.5.8)
«(?, t>)= lim M {[’’(? + A?) —lim
Л/ -О ЛГ ' At- .(I
b(t, v) — lim -^- М {[г(?+А/) — v(t)]2 =
3= lim —
M Ink. )и(т,)1 di, di-, = - = const.
140
Для найденных коэффициентов уравнение ФПК (3.4.29) при-
нимает вид
dp(t, v)/8t = (1 /4)Nd2p[t, v)/8v2. (3.5.10)
Нетрудно проверить, что решение этого уравнения для бес-
конечного пространства дается формулой (6).
Поскольку коэффициент сноса равен нулю, то винеровский
процесс часто называют чисто диффузионным. П. в. (6) с течением
времени t все более и более расплывается вдоль оси п от-
носительно своего нулевого м. о.
Винеровский процесс играет основополагающую роль при
формировании более сложных марковских процессов (§ 3.6).
Поэтому приведем другие его характерные особенности.
Винеровский процесс является мартингалом в том смысле,
что условное м. о. v(tk) при фиксированных значениях т(?0),
v(tx), .... v(tk_1), где tk>tk_1>,..>t0, равно предшествующему
наблюдаемому значению ^(^„j):
^o)W(^ i)- (3.5.11)
Этот результат непосредственно следует из равенства (7), если
положить в нем tk = t3, tk^l = t2-
Установим некоторые свойства приращений на непересека-
ющихся интервалах времени Из очевидного равенства
'2
(3.5.12)
'i
следует, что м. о. приращений равно нулю, а дисперсия приращений
пропорциональна разности рассматриваемых моментов времени
М{[т(?2)-г(г1)]2}=(Ж)(г2-Г1), ?2>П- (3.5.13)
С использованием (5) находим взаимную корреляционную
функцию приращений
м{|? ({з) ~ v (?2)] (G) - v (Д)]} =
= ^2)— П) = 0-
Следовательно, приращения процесса v(t) на неперекрыва-
ющихся интервалах времени некоррелированны, а поскольку они
нормально распределены, то и независимы. Кроме того, прираще-
ния можно назвать стационарными, так как м. о. их равно
нулю, а дисперсия пропорциональна разности рассматриваемых
моментов времени.
Реализации винеровского процесса непрерывны с вероятностью
единица, хотя и нигде не дифференцируемы. Действительно,
порядок величины приращения |Ат| = |v(t + А/) — т(?)| характери-
зуется его среднеквадратическим отклонением, которое согласно
(13) равно (УА?/2)1/2. Таким образом, | Ат | ~ ^/Ад->0 при Аг->0
141
(непрерывность), в то время как скорость | Аг |/Аг ~(А()" 1/2-> со
(недифференцируемость).
Прямым следствием этих особенностей поведения винеров-
ского процесса является важная формула
т — 1
lim5'm=lim Е [г(/< + 1)“1’(7;)Г==ЛГ(?-/о)Я (3.5.14)
д .() Л -0 ; = 0
где 10<tl<...<tm<t, A = max(p + 1 — р). Здесь сходимость после-
довательности случайных сумм слева к неслучайной величине
справа понимается в смысле сходимости по вероятности, т. е.
равенство (14) выполняется почти наверное.
Докажем формулу (14), воспользовавшись известным выраже-
нием (1.1.25) для 4-го момента нормально распределенной
с. в. с м. о. т и дисперсией D:
m4 = 3D 2 + 6Dm 2 + т 4.
Приращение Аг; =р(/, + ]) —и(р) распределено нормально с м. о. щ;=0
и дисперсией D, = N(ti+, —1^/2. Поэтому м. о. случайной суммы
т - 1 m - 1
M{SJ= 1М{Ащ2}=- Е
1=0 2 1=0 z
Найдем дисперсию квадрата приращения
М{Аг 4} — (М{Аг ?})2 = 3D 2 - D ? = 2(N/2)2 (ti+l - р)2.
Учитывая независимость приращений винеровского процесса на
неперекрывающихся временных интервалах, находим дисперсию
суммы Sm:
т- 1 2 т~ 1 аг2
DK} = 2 Е Z max (p+1-p).
i = 0 2 i = 0 2
Следовательно, дисперсия D{5„,}->0 при A->0. Отсюда, применив
неравенство Чебышева Р {|5m — М >s} приходим
к формуле (14). Формула (14) может быть обобщена
т ~ 1 t
lim Е #(Ч-и(^))д^? = (^/2Щ(т,у(т))Л. (3.5.15)
Л-^О i = 0 l0
3. Гауссовский экспоненциально-коррелированный сл. пр. Рассмотрим сл. пр.
Хр), заданный стохастическим дифференциальным уравнением первого порядка
<А/<Й+аХ=ул(/), Х(0) = Хо, (3.5.16)
где а, у—постоянные коэффициенты; яр)--БГШ (2).
Решение уравнения имеет вид
t
X(z) = Xoexp( — ar) + уехр( — at)\exp(ax)n(x)dx. (3.5.17)
о
Сл. пр. Хр), получающийся линейным преобразованием БГШ, является гауссов-
ским. Из (17) находим м. о., дисперсию и корреляционную функцию:
142
in(t ) = M {X(t)} -- Xocxp(—a/),
D(t) = y2exp( — 2a/)J Jexp |a.(x l v)]M{n(,v)//(>’)}dxdy — DK[\ — exp(—2a/)],
о
Л(/1,/2)=Р>.ехр(-а|т|)[1-ехр(-2а/)], Dx = ~~ > (3.5.18)
4a
т--/2 — /ь t =min(/,, /2).
В стационарном состоянии (/->oo) корреляционная функция является экспонен-
циальной:
/? (т) = ехр( — а |т|). (3.5.19)
Условная (при фиксированном /.п) п. в. процесса >,(/) будет нормальной:
к(Х. /Щ, 0) = [2л£*(/)]“|,2ехр{-[X-m(r)]2/2£>(/)}. (3.5.20)
Полагая здесь /~>со. приходим к стационарной нормальной п.в.
ра,(Х)^(2кПууЧ2^р(-Х212Пк). (3.5.21)
Покажем, что процесс Цг) является марковским. Рассмотрим три произ-
вольных момента времени Из (17) следует, что
?-(/з) = ^(/,)ехр[-а(/з-/2)] + уехр(-а/3)]схр(ат)л(х)Л.
'2
Отсюда видно, что Х(/3) не зависит от Ц/Д, если задано Ц/2). Поэтому,
например, для п. в. перехода справедливо равенство
п(7?, /,| X,, /2; Ц, t^n^. /31 Л2, /2),
что и доказывает марковский характер процесса Х(/).
Вычислим теперь коэффициенты сноса и диффузии. Из (16) для приращения
процесса можем написать
1 + Д/
Ц/+Д/) —Ц/) = J [ —аЛ(.х) +yn(.v)]<£r.
Отсюда находим м. о. условного приращения
М{[Ц/ + Д/) —>,(/)] |л(/)] =—a J Цх)(1х,
I
а также выражение для коэффициента //(/.):
1 ' *А'
а(Х)— — a Jim — J X(x)dx= —aX.
Для м. о. квадрата условного приращения имеем
t + Д/
M{[X(z + Д/)-Ц/)]2|Ц/)} = ff M{[-aX(x) + yn(x)] х
I
f + д» ।
х [ — а>,(у)з-уп(у’)]}Дтг/у = а2 { f Х(х)Дх}2 + -у2 N&t.
I 2
143
Рис. 3.9. Изменение плотности вероятности перехода во времени
Поэтому
b = lim — М(Ш/ + Дф-ЦН]2 Щ/)} = т2 lim 4-[Х(г)ДЦ2 Y21V =Ду2Л’.
ч- оДг L лг—о Al 2 2
Уравнение ФПК (3.4.29) принимает вид
<уф. Vpiit =ай(?7>)/Зл+(1/4)у"Л'с2/>/5Х.2. (3.5.22)
Фундаментальное решение этого уравнения при начальном условии /гп(Х) = 8(Л —Хо)
дается условной п.в. щХ, 11 лс, 0), определенной (20).
Характер изменения п. в. перехода л(Х. г|Хо,0) показан на рис. 3.9. Начальная
дельтообразная п. в. <э(Л —Хо) с течением времени систематически смещается влево
из-за ненулевого коэффициента сноса и расплывается все шире и шире из-за
коэффициента диффузии, приближаясь к нормальной стационарной п. в. ps,(X).
В том частном случае, когда п. в. начальной координаты ?.о совпадает со
стационарной (20). т. е.
р(0, л(|) — (2лОк <“1 '2ехр( — л2,/2/\).
решение уравнения (22) при /;д0 дается выражением (21).
3.6. СТОХАСТИЧЕСКИЕ
ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ
Пусть поведение модели некоторой системы описывается
дифференциальным уравнением (его часто называют уравнением
Ланжевена)
d'k)dt=f{t, X)+g(r, Х)л(г), Х(г0) = Х0, (3.6.1)
где f и g—детерминированные непрерывно дифференцируемые
функции своих аргументов, удовлетворяющие условию Липшица;
«(/)—БГШ (3.5.2). С использованием дифференциала винеровского
процесса (3.5.3) уравнение (1) можно записать через дифференциалы
d'k=f[t, tydt+g(t, tydv(t), X(z0) = X0. (3.6.2)
Случайный процесс X((), t^tQ, называется решением стоха-
стических дифференциальных уравнений (1), (2), удовлетворяющим
начальному условию Х((0) = Х0, а выражение в правой части
144
(2) — стохастическим дифференциалом, если для любого l^t0
справедливо следующее интегральное представление:
Х(/) = Х(/0)+f/(x, X(t))Jt+fg(x, Х(т))Л(т). (3.6.3)
'о 'о
Здесь в правой части фигурируют интегралы от случайных
функций — стохастические интегралы. Рассмотрим некоторые осо-
бенности этих интегралов, отличающие их от обычных интегралов
от достаточно гладких детерминированных функций. Если бы
функции f и g были неслучайными, то обычные интегралы
Коши-Римана и Стилтьеса определялись бы как пределы при
А->0 интегральных сумм
f/(r, л(т))Л=Нт X/(ть + (3.6.4)
‘о A-0i = 0_
fg(r, Х(т))<й>(т)=Пт XL A.(T,))[r(/i + i) —р(/,-)]. (3.6.5)
л-0 i=0
Здесь A = max(/i + i —/,) и через т, обозначены
некоторые точки т(е /1 + 1] из Z-го подынтервала. При любых
кусочно-непрерывных функциях /(т, X) и непрерывных функциях
g (т, X) предельные значения интегральных сумм (4) и (5) не зависят
от местоположения точек т,- в подынтервалах Л+i], / = 0, т—1.
Оказывается, что интегралы от случайных функций /(т, Х(т))
и g(r, Х(т)) можно определить формулами (4) и (5) при
выполнении следующих условий1:
1) случайные функции /(т, Х(т)) и g(r, Х(т)) равномерно не-
прерывны в среднеквадратическом на отрезке [/0, /], т. е.
M{t/(r + A, Х(т + А))— /(т, Х(т))]2}->0 при А->0 равномерно по
тер0, Г]; аналогично для g(r, Х(т));
2) функции f(t, Х(т)) и g(x, Х(т)) интегрируемы с квадратом,
точнее,
М j/2(r, A.(r))Jr<оо, Mfg2(r, Х(т))г/т<оо;
'о 'о
3) предел в (4), (5) понимается как среднеквадратический.
При этих трех условиях пределы в (4), (5) существуют
и определение стохастических интегралов этими формулами
является корректным.
По сравнению с детерминированным случаем определение
интеграла (4) для случайной функции не имеет особенностей.
Принципиально новым моментом является зависимость стоха-
1 Колосов Г. Е. Синтез оптимальных автоматических систем при случайных
возмущениях.— М.: Наука, 1984.— 255 с.
145
t0 “Ч h ЧЧ'ЧЪ Чг
Рис. 3.10. К формированию интегральной суммы
стического интеграла (5) от способа выбора точек т,- и, как
следствие этого, возможность различных его определений. Этот
новый момент является следствием особых свойств винеровского
процесса и формулы (3.5.14).
Убедимся в этом. В интегральной сумме (5) непрерывная
функция g(r)=g(r, Х(т)) на интервале интегрирования |70, И
заменяется кусочно-постоянной функцией gA(r); постоянное значе-
ние ее на подынтервале [z;, /i + 1 ] совпадает со значением непрерыв-
ной функции g(r) в произвольно выбранных точках т, е [г,-, ri + i ]
(рис. 3.10). Определим правило выбора точек т,- формулой
x, = Tfv=(l —v)/,-hv/f+i, O^v^l. (3.6.6)
Из непрерывности случайной функции Х(т) следует, что ее
реализации на малом подынтервале [/,•, ?i + 1], i—0, т—1 можно
аппроксимировать отрезком прямой
X(r) = X(/J + ^lhM(0(T-ri.) + O(A), + (3.6.7)
Из (7) и (6) имеем
v) = (1 - v) Ь (б) + vX (6 +i) + О (А). (3.6.8)
Предположим, что функция g(r, X) непрерывно дифференцируема
по обоим аргументам. Тогда на основании (6) и (8) получим
g(xiv, X(riv)) = g(r/,(l-v)X(/f) + vX(zi + i)) + o(A). (3.6.9)
С учетом этого равенства стохастический интеграл (5) преобразу-
ется к виду
Х(т))<а(т)=Нт £ g(t(, (l-v)X(r,) +
r. А-0 f = 0
+ vX (ti + ! )) [t? (ti + ! ) - V (r()]. (3.6.10)
Здесь индекс v при обозначении интеграла Jv и дифференциала
винеровского процесса dvv(r) указывает способ построения ин-
тегральной суммы.
При v = 0 формула определяет стохастический интеграл Ито
Jo = \g[x,'K{^dov{r)=X\va £ g(/f, X(Г,-))[v(ri+i)-v(/,-)], (3.6.11)
г„ Л~° i = 0
146
который широко используется в теории марковских диффузионных
процессов.
Вычислим разность Jv — J0 для произвольного v. На основании
предполагаемой дифференцируемости функции g(x, А) ее можно
разложить в ряд Тейлора в окрестности произвольной точки
А (/,)), который с учетом первых двух членов имеет вид
g(th (1 -v)X(ti) + v'k(ti + 1))=g(ti,
+ v[5g(tf, A(tf))/5A][A(ti + 1)-A(tf)] + oО-(3.6.12)
Если в (2) перейти от дифференциалов к конечным приращениям,
то с учетом малости (ti + 1 —1;) можем записать
A (ti+1) - A (g) =/(т;V, А (т.-v)) (ti +1 - Г() +
+g(xiv, A(riv))[p(^ + 1)-г(/()] + о(?1 +!-ti). (3.6.13)
Подставив (13) в (12), а полученный результат в (10), придем
к следующему выражению для разности интегралов:
А—*0 I | = q j
(3.6.14)
С использованием формулы (3.5.15) можно показать [6], что
„ х(,,»[»(<„,)-»(<.)]2=
А—*0 - — q СЛ
fo
Таким образом, формула связи (14) между стохастическим
интегралом Jv и интегралом Ито принимает окончательный вид
Г
fg(T, X(T))Jvp(T) = fg(T, A(t))Jop(t) + v^ А(т))</т.
*0 *0 *
'» (3.6.15)
Из приведенной процедуры вывода этого соотношения можно
заключить, что если сл. пр. A(t) описывается стохастическим
уравнением (2) и некоторая функция ф(т, А(т)) интегрируема
с квадратом и непрерывно дифференцируема по обоим аргумен-
там, то справедлива формула
t
|ф(т, А(т)Цр(т) = |ф(т, А(т))г(т) + Vу Рф(т))g(т, А(т))Л.
‘о *0 *
(3.6.16)
147
Отметим, что если функции g и <р не зависят от X, то разница
между интегралами Jv и JQ пропадает.
Важную роль при анализе марковских диффузионных процес-
сов играет стохастический интеграл Jv с параметром v = 0,5:
Л>.5 = Ыь A.(t))J0,5^(t) =
'о
= lim "f g ( ) [»(,, t,) - »(;,)]• (3.6.17)
A—° , = 0 \ 2 2 /
Такой интеграл был введен Р. Л. Стратоновичем [6] и назван
симметризованным.
Формальное отличие стохастического интеграла (17) от (11)
заключается в том, что при формировании интегральных сумм
значения функции g(x, Х(т)) в (11) берутся на левом конце
каждого подынтервала Д-разбиения, а в (17) — в середине каждого
элементарного подынтервала.
Интегралы (И) и (17) приводят к разным результатам.
Например, для стохастического интеграла от винеровского процес-
са с использованием очевидного равенства
и соотношений (3.5.14) и (3.5.15) получим
(l/2)[v2(t)-v2(t0)']-N(t-t0)l2, v = 0,
тгио-Н'о)]. v=0,5.
Можно также доказать справедливость равенства [4]
^MjT.(3.6.18)
ОК
Из изложенного следует, что разные определения последнего
интеграла (3) приводят к разным формальным решениям стохасти-
ческих дифференциальных уравнений (1), (2). Поэтому необходимо
обязательно указывать, в каком смысле понимаются уравнения (1),
(2), т. е. во избежание разночтений записывать исходное стохасти-
ческое дифференциальное уравнение (2) в обобщенном виде
tydt+g(t, X)dvv(t), Х(/0) = Х0, (3.6.19)
указывающем, в каком смысле понимается последний стохастичес-
кий интеграл в (3). При v = 0 уравнение (2) называется стоха-
стическим дифференциальным уравнением Ито, а при v = 0,5 —
симметризованным уравнением.
148
Основным достоинством дифференциальных уравнений (интег-
ралов) Ито является то, что решения А(?) являются мартингала-
ми, для которых хорошо разработан математический аппарат.
Кроме того, использование уравнений Ито иногда упрощает
записи. Помимо физических соображений (см. ниже) одно из
важных вычислительных преимуществ симметризованных уравне-
ний (интегралов) заключено в том, что ими можно оперировать по
обычным правилам математического анализа (осуществлять заме-
ну переменных, интегрировать по частям и т. п.), в то время как
с интегралами Ито нужно обращаться по особым правилам
(нельзя по обычным правилам производить замену переменных,
интегрировать по частям и т. п.). Необычными оказываются
и правила дифференцирования функций от сл. пр. А.(/), являюще-
гося решением уравнения Ито. Пусть <р (t, А)— непрерывная
функция, имеющая непрерывные частные производные dq>ldt,
otp/dX и <?1 2ф/йА2. Тогда сл. пр. ф(г, А(/)), где А (г)— решение
уравнения (19) с v = 0, имеет стохастический дифференциал1
+ (3.6.20)
Если же пользоваться обычными правилами дифференцирования
и А(1) подчиняется (19) с обычным дифференциалом dv(t), то
для дифференциала сложной функции имеем
</ф(1,А(/)) = А,(/))+/(г, А,(г))1ф(/, A(l)) dt +
dt
(3.6.21)
Это равенство сохранится при замене dv(t) на dOt3v(t).
Покажем, что сл. пр. A (t), заданный обобщенным стохастическим
дифференциальным уравнением (19), является марковским. Этот
результат иногда известен под названием первой теоремы Дж. Дуба1.
Ограничимся пояснениями этого результата. Для трех момен-
тов времени t3>t2>tl'^t0 можем написать
А(/3) = А(12) + |7(т, А(т))г/т + j7(т, Х(т))Д,1>(т).
<г ‘1
1 Гардинер К. В. Стохастические методы в естественных науках: Пер.
с англ./Под род. Р. Л. Стратоновича.— М.: Мир, 1986.— 526 с.
2 Дуб Дж. Л. Вероятностные процессы: Пер. с англ./Под ред. А. М. Яглома.—
М.: ИЛ, 1956.-605 с.
149
Поскольку приращения винеровского процесса на неперекрыва-
ющих интервалах независимы, то Х(?3) при фиксированном
значении Х2 = Х(?2) не зависит от А,(Н), что и свидетельствует
о марковском характере процесса ХД).
Вычислим по формулам (3.4.22), (3.4.23) коэффициенты
сноса и диффузии для стохастического дифференциального
уравнения Ито
(?) = /'(/, X(/))n'/+g(/, X(t))dov(t). (3.6.22)
Имеем
Х(г + Аг) —Х(г) = f /(т, Х(т))г/т + f g(r, Х(т))г/Ог(т). (3.6.23)
t t
Для малых А/ первый интеграл справа в силу непрерывности
процесса Х(т) и функции /(т, X) равен
М{ j f(x, Х(т))<7т|Х(г) = Х} =/(г, Х)Аг-ро(Аг).
t
Из определения интеграла Ито (11) следует, что при любом А/
1 + At
М{ J g(i, X(t))</ov(t)|X(z) = X}=0.
t
Это важное свойство интеграла Ито является следствием неза-
висимости приращений процесса г(т) от подынтегральной функции
g(i, Х(т)) (функция g(x, X)— так называемая неупреждающая).
Использование этого свойства позволяет записать
t + At
м{[ f g(r. Х(т))<70г(т)]2|Х(/) = Х} = ^2(/, X)Az.
Из (3.4.22) и (3.4.23) с учетом написанных равенств получаем
a(t, X), b(t, X) = (A72)g2(z, X). (3.6.24)
Для обобщенного стохастического дифференциального урав-
нения (19) с учетом (15) можем написать
Х(? + А/) —X(z)«/'(z, X)Az+g(z, X)[v(z+A?) — v(?)] +
+ v(^/2)g(z, X) pg (г, X)/3X] Аг. (3.6.25)
Отсюда по той же методике получим
a(t, X) + (vA72)g(z, X)5g(z, Х)/5Х=/(г, X) + (v/2)<X5(z, X)/5X,
b(t, X) = (ZV/2)g2 (/, X). (3.6.26)
Видно, что коэффициенты сноса и диффузии однозначно
определяются функциями f(t, X) и g(Z, X). Поэтому исходное
уравнение (19) можно записать непосредственно через a(t, X)
и b(J, X):
150
<A(l) = [a(l, X)-(v/2)5Z>(/, Х)/5Х]Л + />1/2(/, X)dvv(t). (3.6.27)
Для коэффициентов сноса и диффузии (26), положив в них
v = 0,5, записываем уравнение ФПК
Если коэффициенты д(Х) и 6(Х) не зависят от времени, то при
граничных условиях нулевого потока вида (3.4.35) стационарная
п. в. pSI(X) определяется обыкновенным линейным дифференци-
альным уравнением
a (х)=Г2/(k)_____m
2Ь(ц dx jPA )•
Решение этого уравнения дается выражением
где постоянная ct определяется из условия нормировки.
Из сравнения (24) и (26) следует, что от того, в каком смысле
понимается стохастическое дифференциальное уравнение, зависит
только коэффициент сноса a(t, 1), причем если функция
g(t, X)=g(r) не зависит от X, то коэффициент сноса будет одинаков.
Таким образом, уравнению Ито (22) соответствует эквивалент-
ное ему уравнение (19) вида
tyd\\dt+g(t, i)dvv(t). (3.6.28)
Если же процесс k(t) задан уравнением (19), то уравнение Ито
для этого процесса запишется так:
= X)+vg(r, X)dg(t, tydX]dt+g(t, K)dov(t). (3.6.29)
Следовательно, различные формы стохастических дифферен-
циальных уравнений можно легко преобразовать друг в друга.
Возвратимся к формуле (21) и проверим ее справедливость,
считая верной формулу (20). С этой целью покажем, что из
формулы (21) для процесса Х(1), заданного симметризованным
стохастическим уравнением
dX(t)=f(t, X(t))dt+g(t, X(/))J0.5v('), (3-6.30)
следует формула (20) для процесса X(z), определенного уравнением
Ито (22). Действительно, симметризованное уравнение, эквива-
лентное (22), согласно (28) имеет вид
^(0 = [/G> ^)-(V2)g(/, tydgft, X)/8'k]dt+g(t, tydo,5v(t).
Отсюда и из (21) находим симметризованный стохастический
дифференциал
151
Лр(Л А.(?)) =
Л + g ^0.5 v (t)-
Если записать это уравнение в форме Ито по формуле (29)
при v= 1/2, то придем к (20). Этот результат косвенно доказывает,
что для сл. пр. А. (Г). описываемого симметризованными диф-
ференциальными уравнениями, применима обычная формула
дифференцирования сложной функции.
Из (19) и (27) следует, что один и тот же диффузионный
процесс X(t), имеющий коэффициенты сноса а(1, А.) и диффузии
b(t. А.), можно описывать большим числом стохастических диф-
ференциальных уравнений, соответствующих различным значе-
ниям v. При этом (что весьма существенно) в общем случае
будут получаться разные результаты. Это естественно вызывает
чувство неуверенности и неудовлетворенности, и возникает вопрос:
нельзя ли ограничиться какой-либо одной формой стохастического
дифференциального уравнения (например, Ито или Стратоновича)
и какой именно? При ответах можно исходить из двух точек
зрения: формально математической и физической (прикладной).
К настоящему времени в математических работах по мар-
ковским диффузионным процессам обычно оперируют уравне-
ниями Ито. При этом с самого начала постулируется, что
модель анализируемой системы описывается стохастическими
дифференциальными уравнениями Ито и вся последующая теория
базируется па использовании стохастических дифференциалов
и интегралов Ито.
В работах прикладного характера чаще используются сим-
метризованные стохастические дифференциальные уравнения (ин-
тегралы) Стратоновича. Для этого, во-первых, имеются определен-
ные физические основания (см. ниже), во-вторых, можно пользо-
ваться обычными правилами математического анализа и, в-
третьих, отпадает необходимость изучения специальных правил
исчисления И го. Другие преимущества и недоста тки оперирования
каждой из форм стохастических дифференциальных уравнений
были указаны выше.
Коснемся теперь чрезвычайно важного для практических
приложений вопроса об адекватности исходной математической
модели (1), принятой при рассмотрении. При анализе динамичес-
ких систем их математические модели считаются заданными на
основе физических соображений. Очевидным сомнительным мо-
ментом является использование в исходном уравнении Ланжевена
(1) БГШ /?(/), так как реальный воздействующий шум с, (г) имеет,
может быть, и малый, но всегда конечный интервал корреляции.
В принципе это сомнение можно устранить. Желая оставаться
в рамках марковских диффузионных процессов, вместо n(t)
можно ввести в уравнение (1), например, гауссовско-марковский
процесс 5(2') с конечным интервалом корреляции т,,, имеющий
стационарную корреляционную функцию (т) = (oc/V/4) ехр (— ос |т|).
Иначе говоря, теперь вместо одного процесса Х(/), заданного
уравнением (1), нужно рассматривать двухкомпонентный мар-
ковский процесс {Х(Г), £,(/)}, описываемый системой двух урав-
нений
d\ldt=f^ X)+g(t, Х)^(г), Х(г0) = Х0;-)
dtjdt = -а^(/) + ал(0, ^(/0) = ^0; J
получать ее решение и затем исследовать поведение решения
при а-* со.
Реализация такого пути оказывается сложной и трудоемкой.
В ней нет и необходимости, так как предельное решение будет
совпадать с решением одного симметризованного уравнения (2),
г. е. уравнения (30). Таким образом, симметризованным стоха-
стическим уравнением (30) следует описывать ситуации, когда
под л(/) подразумевают «реальный» БГШ (с конечным, но
малым интервалом корреляции).
При численном моделировании стохастических дифференци-
альных уравнений можно применять обычные методы. Для
симметризованной формы уравнений следует использовать
метод Рунге-Кута второго или четвертого порядка, а для формы
Ито — метод Эйлера. Общая особенность применения этих методов
к стохастическим уравнениям состоит в том, что на каждом
шаге A = /v —/v_! входной воздействующий шум л(?) заменяется
на гауссовскую сл. в.
1
^=д J
с нулевым м. о. и корреляционным моментом М {ириу} = 7V8pv/2A.
Более конкретные и дополнительные соображения по исполь-
зованию той или иной формы стохастического дифференциального
уравнения будут сформулированы после рассмотрения примера.
Укажем еще один факт. Определения коэффициентов сноса
и диффузии формулами (3.4.22) и (3.4.23) не согласованы
с трактовкой стохастических дифференциальных уравнений (ин-
тегралов) по Стратоновичу. Однако формально ничто не мешает
принять соглашение об исходном определении коэффициентов
сноса и диффузии в следующем симметризованном виде:
alt, Х) = lim — М < XI z-|—At 1 — XI t — -At
x ' &t-~QAl \ 2 ) \ 2
bit, X)= lim 1м
X ( / -I— Af| — X । t — At
\ 2 / \ 2
X(/) = X
(3.6.31)
153
Для этого нужно воспользоваться записью уравнения Маркова
(3.4.14) в виде
ref/ч г + -Аг|А.о, 1 + ~Л(|Х', t— t —
\ 2 / J \ 2 2 / \
А?|Х0, z0 \сГк'
и выполнить примерно те же преобразования, которые привели
к выражениям (3.4.22), (3.4.23).
При таком определении ситуация изменится: теперь коэф-
фициенты сноса для стохастических дифференциальных уравнений
Ито (22) и Стратоновича (29) будут соответственно
5(/, X)-(l/4)7Vg(z, X)dg(t, tycTk, a(t, X), (3.6.32)
а коэффициенты диффузии останутся прежними и одинаковыми:
b(t, ^) = (^/2)g2(z,X).
Таким образом, приняв в качестве исходных симметризованные
определения коэффициентов сноса и диффузии (31), можно
устранить осложнение с вычислением коэффициента сноса, хотя
само определение (31) не является безупречным.
Пример 3.6.1. Логнормальный процесс. Пусть задано стохастическое дифферен-
циальное уравнение первого порядка, для которого можно получить точное решение:
л(О/Л=>.(/)«(/), %(м)=х0. (3.6.33)
Это уравнение можно записать в эквивалентном виде
= (3.6.34)
Запишем решение уравнения
Х(/) = л0 + J Х(т)л (т)4т=Х0 + f X(t)dv(т). (3.6.35)
Ь) ’о
Применив к уравнению d'k!'k = n(t)dt, л(70) —Х.о, обычную методику, получим
решение
X(r) = Xoexp[t>(r) —1>(/0)]. (3.6.36)
Так как показательная функция неотрицательная, то в зависимости от начального
значения Хо возможны три случая: Х(г)>0 при Хо>0. Х(/) = 0 при Хо = 0 и X(z)<0
при Хо<0. Примем, что Х()>0.
Воспользовавшись нормальной п. в. (3.5.6) винеровского процесса
Au = v(t) — v(f0) и перейдя в ней по известным правилам к новой переменной
Х(г) согласно равенству (36), получим одномерную п. в. для процесса Х(?)
в виде нестационарного логнормального распределения:
154
')=т[27г£>('~го)] 1/2ехР
Л,
2D(t-t0) Vo
D(t-t0) = ~(t-t0). (3.6.37)
Выясним, какому определению стохастического интеграла (35) соответствует
решение (36) и, следовательно, п. в. (37). Для этого получим решения в форме
Стратоновича и в форме Ито.
1. Решение в форме Стратоновича. Разобьем интервал интегрирования [у0.(]
на т элементарных подынтервалов точками t0<t1<...<tm = t. Для i-ro подын-
тервала имеем
л(/,) = Х(г,_1) + [Х(б) + Х(б-1)]Дг/2, (3.6.38)
Avi = v(tj) — 1>(б- 1),
или иначе
X(Z,)=X(6-1)(1+ Дц./2)/(1-Др(/2).
Последовательно подставляя сюда Х(/,) для z=l, 2, ..., т, получаем
т /' 1 \ ( 1 \
Х(г)=Хо П ( 1 -2Лр7’
Чтобы осуществить предельный переход при max |11->О, /п->оо, про-
логарифмируем это равенство и воспользуемся приближенным соотношением
In(1 +л)»л — х2/2. В результате получим
т г / 1 \ /1\"
1пХ(/) = 1пХ0 + £ Ini 1+-Дг, I —1пИ —-Ди,-I «
™Г1 1/ДиД2 1 1/ДгЛ2"
~1пХ0 + У ~Дг,- — ~| I 4"тДО|4"“| эс I —
0 “[_2 2\ 2 J 2 2\ 2 )
= lnХ.о + Y Д'Л = 1пX0+v(r)-v(z0)
i-1
или
Х(/) = Хоехр [r(Wo)l
(3.6.39)
что совпадает с (36).
Воспользовавшись известными выражениями одномерной Ф (j9) и двумерной
Ф2(]Э1ДЭ2) характеристических функций винеровского процесса v (t)--v (t0) при
Э = Э]=Э2=—j, нетрудно найти м. о. и ковариационную функцию нестационарного
процесса Х(г):
М {X (/)} = >.о М {ехр [г (0-г (/о)]} = Д exp [(7V/4) (z — /0)], (3.6.40)
^('i- /2) = ^оМ{ехр[и(г1)-и(Го) + г(/2)-и(го)]} =
= Xoexp{(Af/4)[z1 + z2-2zo + 2min(z1-zo, Г2-Г0)]}- (3.6.41)
2. Решение в форме Ито. При понимании интеграла по Ито в соответствующей
интегральной сумме берутся значения Х(?) в левых концах элементарных
подынтервалов, т. е. для i-ro подынтервала
к (ti) = X (б - 1 ) + X (/, _ ! )Ди,- = X (/, _]) (1 + Дг;).
(3.6.42)
155
Последовательно применяя ото решение для /=1. 2. .... т. имеем
гп
Х(г) = Х0 П (1+М)-
Поступая, как и выше (логарифмируем равенство и пользуемся тем же
приближением ln( I+л) =s.v —л 2/2), получаем
In X(z) = ln Хо + £ In (1 + Дг;)а hi Х04 £ | Аг, —| Аг2)
1=1 ш 1 \
или
Х.(/) = Хоехр< f Ат,—| V Дп?( = Хоехрк’(/)-ь’(го)-| £ Дс2
(,i=i i =; J [ ^i=i
Но согласно (3.5.14) при /7?->оо, тахр, — г,_.||->0
т т V
sm = Z Дг. = Z [г (М- -1)]2у (' - f0)-
Поэтому
Х(г) = Хо ехр[и(/) — и(г0)-(Л'/4)(г-/0)]. (3.6.43)
Нетрудно убедиться, что такому решению соответствует п. в.
р(К ,) = 1[2^(г-го)]-^ехр|_--±--
причем м. о. и ковариационная функция процесса X (t) равны
М{Х.(/)} = Х0, КДп, r2) = X6exp[(W2)min(r1-z0, П-^о)]- (3.6.45)
К этому же результату можно прийти с помощью замены переменной
в исходном уравнении (33). Для интеграла Ито обычные правила замены
переменных неприменимы. Если ^(Т) диффузионный марковский процесс, задан-
ный стохастическим дифференциальным уравнением Ито
d'kldt=f(t, \(t))+g(t, Х(/))п(г), (3.6.46)
и он подвергается преобразованию т| (Г) = ср (X. (г)), то для преобразованного
процесса соответствующее уравнение Ито следует записать в виде
rf<p(X(r))/rfz=/(z, X(/))<p'(X(z)) + (l/4)Ag2(г, X(f))<p"(X(r))+g(r, Х(/))<р'(Х(ф(г).
Применительно к уравнению (33) здесь нужно положить /(?, Х(Г)) = О,
g(t, X(/)) = X(z). Тогда для ц (/) = <р (X (z)) = ln X (/) из (33) получим уравнение
dr\/dt = — Nj4 + п (t),
решение которого имеет вид
Отсюда приходим к известному результату (43)
X. (?) = Хо ехр [и (г) - v (l0) - (N/4) (/ - /0)].
Заметим, что оба решения (38) и (42) можно записать единообразно:
Х.(г4) = Х(г,_, )Ч-[(1 — v)A.(r£_ j)+v%(/()]A^„ (3.6.47)
причем значение v = 0,5 соответствует выражению (38), a v = 0 —(42). Запишем
(47) иначе:
Х(г,) = Х(Г;_ J [1 +(1 — v)At>,]/(l — vAr,).
Прологарифмировав это равенство и разложив логарифмические функции в степен-
ной ряд до второй степени, имеем
In X (ц) = In X (/, _ j) + Ar, + (v — 0,5) Ar2.
Отсюда, как и выше, получим
Х(г) = Хоехр
£ At>j+(v—0,5) £ Л г;2
i=i i=i
= Хо ехр
t’(,)“t'(,o) + (v~0,5)—(t-/0)
(3.6.48)
Из этого результата при v = 0,5 следует решение (39) по Стратоновичу, а при
v = 0 — решение (43) по Ито.
Таким образом, решения (36) и (37) уравнения (33) справедливы, если
трактовать уравнение в смысле Стратоновича. Такой вывод имеет общий
характер: решения стохастических дифференциальных уравнений, получаемые
с помощью методов, обычных для дифференциальных уравнений, соответствуют
их пониманию в смысле Стратоновича.
Физически это объясняется тем, что БГШ и (г) в стохастическом интеграле
(дифференциальном уравнении) Стратоновича можно трактовать как гауссовский
стационарный процесс n(t) с нулевым м. о. и корреляционной функцией 7?(т),
имеющей очень малый интервал корреляции тк по сравнению с постоянной времени
системы тс(тк-«тс). Результат воздействия такого коррелированного (очень
широкополосного) процесса й(г) на систему будет практически таким же, как и при
воздействии белого шума и (г), если заменить 7?(т) на NFtfr)/!, т. е. положить
□О
n Г > >
-= R(z)dz. (3.6.49)
- оо
Однако замена белого шума и (Г) на коррелированный процесс «(/) в уравнении
(33) позволяет рассматривать последнее как обычное дифференциальное уравнение.
Проиллюстрируем это на нашем примере. Представим формально кор-
реляционную функцию широкополосного процесса й(Г) в виде цА(цт), где
безразмерный параметр ц характеризует широкополосность шума; ширина
спектра процесса и соответственно его дисперсия стремятся к бесконечности
при ц->оо. Например, корреляционную функцию А(т) = Л'Л/'схр(-Л/'|т|) запишем
в виде А(т) = цЛ'Л/'1 ехр( —цА/, |т|), где ц=Д//Д/’1; А/)—полоса частот, со-
ответствующая ц = 1.
157
/7 (т)г/т
R [s}ds при ц-► оо.
Запишем уравнение (33) на каком-либо подынтервале для данного случая:
с/Х/А = Х (/)«(/), (3.6.50)
Решение его известно:
Х(г,) = Х(г(_ i)cxp
Поступая, как и ранее, получаем
X(z) = Xoexp|T(/) —f(z0)], (3.6.51)
о
Процесс v(t) при р->оо становится винеровским и решение (51) стремится
к решению (39).
Действительно, найдем, например, дисперсию приращения процесса за
некоторое время Т:
M{[t'(z+r)-t'(r)]2}= ff ff цК(ц(т2-т1))Л1Л2 =
I t
Т цТ 00
-Г - [17
Последний результат совпадает с дисперсией приращения винеровского процесса,
если выполняется равенство (49).
Для гауссовских процессов корреляционная функция и м. о. (в данном случае
равно нулю) определяют п. в. любого порядка. Поэтому приведенный результат
означает сходимость процесса v(t) к v(t) по распределению (в слабом смысле).
Поэтому процесс X(z), определенный (51), сходится в этом же смысле к X(z),
определенному (39).
Полученный результат носит общий характер. Обозначим через X(Z) сл. пр.,
заданный уравнением (46), в правой части которого вместо белого шума n(t)
стоит гауссовский процесс n(t) с корреляционной функцией цА(цт) при ц->оо.
Тогда процесс X(Z) сходится в слабом смысле к процессу X(z), описываемому
стохастическим дифференциальным уравнением (46) в смысле Стратоновича при
интенсивности белого шума, определяемой формулой вида (49).
Приведем решение Иго уравнения (33) с коррелированным процессом n(t)
в правой части. Теперь процесс X(z) на каждом подынтервале описывается уравнением
rfX/zZZ = X(Zi_1)z?(z), Z;_I=gZ<Z(, (3.6.52)
т. е.
X(/j) = X(zI_j)(l +Аг,), Дг; = г(б) —г(б~]).
В итоге получим
m
X(z) = X0 (1 + At?,-).
158
Рис. 3.11. Схемы, соответствующие уравнениям Стратоновича (а) и Ито (б)
Это выражение полностью аналогично полученному выше при замене Ду,- на
Дг;. Поскольку характеристики процессов v(t) и у (7) при ц->оо совпадают,
и в частности
lim М{Ди?} = (N/2)\t,
ц—»оо
то останется справедливым и результат (43)
X (?) = Хо ехр [у (г) - у (?0) - (N/4) (t-t0 )]•
Следовательно, если интервал корреляции тк процесса б(/) стремится к нулю
(ц -»оо), то процесс Л ((), заданный уравнением (33) и определяемый по Ито,
сходится к решению (43). Видно, что разница между уравнениями Стратоновича
(50) и Ито (52) оказывается существенной не только для белого шума n(t),
но и для допредельного (не белого) коррелированного шума п(Г).
Применительно к рассматриваемому примеру уравнения (50) и (52) моделиру-
ются разными схемами (рис. 3.11). Уравнению Стратоновича соответствует
обычная аналоговая система. Особенность схемы для уравнения Ито заключается
в импульсном характере обратной связи, обеспечивающей перемножение входного
процесса «(/) нс с текущим значением выходного процесса Х(/), а с задержанным
X на один шаг Д = | |. При этом средняя задержка Д должна быть
больше интервала корреляции тк процесса 6(7). Это условие было использовано
при выводе формулы (3.5.14), использованной в (43), где предполагалась
независимость приращений Ди; при разных i.
Если в схеме рис. 3.11,6 уменьшать длину подынтервала ||->0. а значит,
и задержку Д, то эта схема станет практически эквивалентной схеме рис. 3.11, а
и сумма Sm, определенная (3.5.14), будет стремиться к нулю. Последний результат
следует из того, что при ts — <тк м. о. приращения М{Дй?} становится порядка
| г,-—/,-, |2 (малые изменения процесса и(?) на подынтервале) и сумма (3.5.14)
стремится к нулю. При этом процесс будет определяться не (43), а (39), (51).
Отметим, что схемы типа рис. 3.11,6 встречаются в радиотехнике. Это
импульсные системы радиосвязи и радиолокации, если приближенно (при высокой
частоте повторения импульсов) описывать их в непрерывном времени. Так, если
система описывается нелинейным разностным уравнением
\+i =ф((М+&(М«<’
где л,—дискретный белый шум с дисперсией £>, то при малых Д = |г; —
i=l, т, ее можно приближенно описать уравнением в непрерывном времени
159
^+g'\t- *-)»(') (3.6.53)
lit А & A
где /j(f) БГШ co спектральной плотностью Nl2~Dib. При этом уравнение
(53) следует понимать в смысле Иго.
Вычислим коэффициенты сноса и диффузии для уравнения (33). Приняв
Х.(/) за начальное значение, для приращения процесса Лр) на интервале Аг из
обобщенно! о решения (48) имеем
А (/ + Л/) -- X (г) = X (/) (exp [Av + (v-0.5) N, А(/2] -1}.
Имея в виду последующий предельный переход к А/— 0, при последующих
вычислениях можно воспользоваться приближенным равенством expx<t I+х,
| д-1 < I. В результате получим
п(?.. /)= lim --М [[А(с + Д/)-)д7)]|?,(г)) — vZ.—.
Д(-0Л'
1 ,, , N
b('k. Z|= lim --M’ilM'5 Л/)—л(/)]*|л(,'|) =V—-.
Ar-Hi2-*'
Видно, чю коэффициент диффузии не зависит от у, т. е. он один и тот
же для формы Стратоновича и Ито. а коэффициенты сноса различны и равны
соответственно
a(X)=?JV/4. а(?^) = 0. (3.6.54)
Поэтому уравнения ФПК будут иметь разный вид. Решения их даются
выражениями (37) и (44).
В заключение приведем физические соображения о соотноше-
нии между стохастическими уравнениями (интегралами) Страто-
новича и Ито. В принципе математическую модель реальной
физической системы можно описывать стохастическим дифферен-
циальным уравнением, если минимальная постоянная времени
системы тс значительно превышает интервал корреляции тк
случайного широкополосного процесса, воздействующего на си-
стему, т. е. при выполнении неравенства
тс»т,;. (3.6.55)
Белый шум всегда является идеализацией реальных широкополос-
ных процессов. Поэтому при выполнении условия (55) вопрос
о том, в каком смысле следует понимать стохастическое урав-
нение, должен решаться на физическом уровне. Приведем не-
которые рекомендации общего характера.
1. Пусть аналоговая система (без элементов задержки), на
которую воздействует гауссовский широкополосный процесс,
описывается стохастическим дифференциальным уравнением в не-
прерывном времени. Это уравнение следует понимать в смысле
Стратоновича.
2. Пусть система, на которую воздействует гауссовская
дискретная шумовая последовательность, описывается рекуррент-
160
ным уравнением в дискретном времени. Допустим, что осущест-
влен формальный переход от дискретного описания к приближен-
ному описанию системы в непрерывном времени. Здесь необ-
ходимо различать два случая. Если соседние значения воздей-
ствующей шумовой последовательности, отстоящие по времени
на А, можно считать некоррелированными (А>тк), то аналоговое
стохастическое уравнение нужно понимать в смысле Ито. В про-
тивоположном случае, когда шумовые отсчеты сильно кор-
релированы (А<тк), аналоговое стохастическое уравнение следует
понимать в смысле Стратоновича.
3. Пусть в непрерывном времени рассматривается система
с широкополосным шумом на входе (тк«;тс), в контуре ко-
торой имеются элементы временной задержки. Часто такие
задержки пренебрежимо малы по сравнению с постоянной времени
системы (т3<тс) и их не учитывают в уравнении. Однако
в подобных ситуациях необходимо учитывать соотношение между
временной задержкой т3 и интервалом корреляции тк вход-
ного шума. Если т3«: тк, то описание системы стохастическим
уравнением нужно понимать в смысле Стратоновича, а если
т3з>тк — в смысле Ито. Соотношение между т3 и тк оказывается
решающим и в других случаях. Так, в первом случае т3 = 0, во
втором т3 = А.
3.7. МНОГОМЕРНЫЕ МАРКОВСКИЕ
ПРОЦЕССЫ
Предположим, что состояние модели системы описывается
случайным вектором k (z) = {Х.г (/), ..., Хм(г)} в Л/-мерном простран-
стве. Компонентами случайного вектора могут быть
координаты системы, или же часть из них представляют коор-
динаты системы, а остальные — скорости, ускорения и т. д.
Векторный сл. пр. А. (г) определяется безусловными п. в.
рп+1 (А.о, ..., А.п; ’гп), через которые могут быть выражены
условные п. в. (п. в. перехода)
/и г • 1 /-а Px+i (^-о> го> —> U
1п-1> •••» л0> 10)--м-----I--~-----;--р
(3.7.1)
Многомерный марковский процесс определяется точно так
же, как и одномерный (§ 3.4). Для этого нужно в формулах
(3.4.1)...(3.4.10) формально заменить скалярную случайную фун-
кцию Х(?) векторной А(/). В многомерном случае элемент п. в.
перехода л (А,, /|Х', t')d'k характеризует вероятность перехода из
точки A.' = {Xi, ..., К'м\ в область 'k + d'k = {Xl+d'ki, ~kM + dXM}
за промежуток времени t —
Повторив рассуждения § 3.4, можно убедиться, что одномерная
п.в. p(t, А,) и п.в. перехода л (А,, Г| А.о, Го) многомерного
диффузионного марковского процесса X (?) удовлетворяют пря-
мому и обратному уравнениям Колмогорова. Применительно
к п. в. p(t, X) прямое уравнение (многомерное уравнение
ФПК) имеет вид
др(1Л)/Ж = Ь{р(1,Х)}, (3.7.2)
м а
L {р (t, X)} = - £ — [«,- (?, Х)р (?, к)] +
1 = 1 С' A-t
1 м а2
+ 2 2 Я7Г1Ы'> Чр('> >-)] (3.7.3)
Коэффициенты а;(?, X.) и bi}(t, к) этого уравнения определяются
формулами
«<(?, Х) = lim -?-М {[X,.(? + A?)-Х,(Г)]| Х(?) = Х}, (3.7.4)
А)->0
bij(t, Х) = lim уМ[[ХД? +А/) —Х;(/)]х
AZ-+O
х [ХД? + А?)-ХД?)]|Х(?) = Х}.
Можно показать, что если Х(?)— М-компонентный марковский
сл. пр., имеющий почти все траектории непрерывными и удов-
летворяющий условию (4), где «,•(?, X) и bi}(t, X) — функции
непрерывные вместе со своими производными, и квадратичная
м
форма tyxtxj—неотрицательно определенная, то для
процесса 1 (?) существует п. в. р (?, X), удовлетворяющая уравнению
(2). Марковские процессы, для которых выполнены указанные
условия, называются диффузионными.
Естественно, что формулировка граничных условий и решение
уравнения (2) являются существенно более сложными задачами,
чем в одномерном случае.
Обширный класс сл. пр., которые являются марковскими
диффузионными, определяет следующая теорема Дж. Дуба. Пусть
векторный сл. пр. Х(?) = {Х1(?), ..., Хм(?)} задан системой обобщен-
ных стохастических дифференциальных уравнений
Х)Л+£ giJ?, X)<rJ?), Х(?0) = Х0, (3.7.5)
k = 1
где/(?, X) и gik(t, X) — непрерывно дифференцируемые детерминиро-
ванные функции, удовлетворяющие условию Липшица; vk(t)
— независимые винеровские процессы с известными характеристиками
м {»к (0}=°’ м {Ia (М-М^)] 4 Gi)- Vj (?2)]}=
= 8)ЛкН2-М/2, k,j=TJj, (3.7.6)
162
8ik — символ Кронеккера. Тогда многомерный сл. пр. А. (г) является
марковским диффузионным.
Формальное доказательство этой теоремы полностью анало-
гично одномерному случаю, приведенному в § 3.6.
Заметим, что задание характеристик (6) эквивалентно за-
данию вектора БГШ с нулевым м. о. и корреляционными
функциями
Xs(g-g), *=Л
к фj, к, j— 1, М.
Повторив рассуждения, использованные при выводе (3.6.24)
и (3.6.26), можно показать, что локальные характеристики
многомерного диффузионного процесса Х(г), заданного обобщен-
ным стохастическим дифференциальным уравнением (5), определя-
ются формулами
мм .
о_.(/, Х)=/(/, X) + v £ £ 4
к =1 j=l 2 l>ki
1 М
^=4 X 4 (З.7.7)
2 к= 1
При v=0 и v = 0,5 из (5) и (7) получаем запись стохастического
дифференциального уравнения соответственно в форме Ито
и в форме Стратоновича, а также соответствующие им выражения
коэффициентов сноса at (t, к) и диффузии (/, X). Подстановка
их в (2) дает аналитическую запись уравнения ФПК.
В прикладных задачах часто встречаются два частных случая:
1) модель динамической системы описывается стохастическим
дифференциальным уравнением, содержащим производные от
А(/) по времени высокого порядка; 2) модель описывается
системой линейных стохастических дифференциальных уравнений.
Допустим, что дифференциальное уравнение разрешено от-
носительно старшей производной и имеет вид
km(t) = dmk/dtm — F(t, к, к', ..., А,т”, «(/)). (3.7.8)
Путем замены переменных к’ = к1, к\=к2. к'т-2 = кт_1 урав-
нение (8) сводится к частному виду системы (5) из т уравнений
первого порядка, и, следовательно, анализ модели (8) может
быть выполнен с помощью теории марковских процессов.
Пусть векторный сл.пр. А(/) = {А1 (z), к2 (/),..., Ат(/)} задан
системой линейных стохастических дифференциальных уравнений
Z “»Л+М4 (3-7-9)
к= 1
Здесь aik — постоянные коэффициенты, не зависящие от kt и време-
ни; n;(z) — БГШ с нулевым м. о. и корреляционными функциями
163
М {щ (/t) nj (/2)} = (1/2) Rtj 8 (/2 - /1),
Rij=l при i=j. (3.7.10)
В данном случае решение задачи нахождения п. в. р (/, к)
упрощается. Так как сл. пр. !(/) будет гауссовским, то п. в.
p(t, X) является нормальной и для ее фактического определения
нужно лишь найти м. о. m (/) = М {X (/)} и матрицу дисперсий
D = M{[X(r)-ni(/)] [k(/)-m(/)]T}.
Эта задача решается сравнительно просто [4].
Можно доказать следующие утверждения1. Гауссовско-мар-
ковские сл. пр. имеют рациональную спектральную плотность
и, наоборот, всякий гауссовский сл. пр. с рациональной спект-
ральной плотностью может быть представлен в виде многомер-
ного марковского диффузионного процесса. Отсюда следует, что
описание любой линейной системы с рациональной амплитудно-
частотной характеристикой, на вход которой воздействует БГШ,
надлежащей заменой переменных можно свести к системе сто-
хастических линейных дифференциальных уравнений типа (9),
т. е. процесс на выходе такой системы будет марковским
диффузионным.
Приведенный результат важен с принципиальной точки зрения.
Спектральную плотность реального процесса всегда можно
аппроксимировать с той или иной точностью рациональной
функцией частоты. Следовательно, реальный (даже строго немар-
ковский) гауссовский сл. пр. приближенно можно представить
в виде марковского процесса.
В заключение укажем способ замены независимой переменной в уравнении
ФПК — методически более простой и несколько отличающийся от примененного
при замене (3.4.39), начав с одномерного случая.
Пусть нужно найти п. в. рц(/, р) для переменной
ц(/) = ф(Х(/)), (3.7.11)
где ф(Х)— непрерывная и взаимно однозначная функция, а уравнение ФПК
(3.4.29) задано для п. в. p(t, X)=px(t, X). Известно, что п. в. связаны соотношением
b)=a(z’ (р).
Дифференцируя (11) по времени и подставляя (3.6.1), имеем (аргументы
функций опущены)
<7u diii d"L dty dvj
Т = л г • 0.7.12)
at ак at ак ак
Согласно (3.6.26) для симмстризованного уравнения (12) получаем выражения для
коэффициентов сноса и диффузии процесса р(г):
1 Стратонович Р. Л. Избранные вопросы теории флюктуаций в радиотехнике.—
М.: Сов. радио, 1961.— 558 с.
164
a,
p) =
MZ’ P).
. /V /d\|/
^=2 dX
b(t, X).
Ho
dbfi df. cl\, /d\|A 1 v
d^i d\i d~k \dkj OX
/ dx|A
yc/X J
2
b(t, X)
с/2ф <3x1/ db
= 2——* + — —
dX2 dX ax
Л7 4 3ц
Поэтому
. , > (, * bb\ 1 d2\|> , «41/ 1 d2\|/
an(Z’ ^) = 3+{/+ T 7+ l + r 3+2
p di.\ 4 aX/ 2 dX dX 2 dX2
Таким образом, при замене переменной (11) коэффициенты сноса и диффузии
пересчитываются по формулам
с/ф(Х) 1 , . d2\k (X)
«Л р) = ц(/, X)-—
иЛ Z (1К
(3.7.13)
*ир, р) = *(/, X)[d\|/(X)/dX]2 при Х = х|/1(ц).
Эти формулы следуют из (3.4.42) как частный случай. Полученные коэффициенты
сноса и диффузии полностью определяют уравнение ФПК для рц(г, р).
В некоторых случаях заменой переменной удается нелинейное стохастическое
дифференциальное уравнение свести к линейному. Например, нелинейное уравнение
типа Бернулли
dX/dr = aX —уХ,1(г)и(/), Х>2,
заменой переменной Х = ц1/11 преобразуется в линейное уравнение
d\i[dt + а (X — 1) = у (к — 1) п (/).
Если векторный процесс Х(/) подвергается взаимно однознач-
ному преобразованию
р;(/) = ф,.(г, X), i=l, М, (3.7.14)
то с учетом (5) можно показать, что для компонент «р, вектора сноса «,,(/. р)
справедливо выражение
“ 3v|/ (z, X) дф-р, X) 1 “ X)
-’-х +' ч 4^14 j, •
(3.7.15)
а элементы матрицы Ьц(?, ц) коэффициентов диффузии равны
м
ЬщДг, р)= X Аи('-М
к, 1=1
гХ|/, (/, X) X)
<3Xt <ЗХ(
(3.7.16)
при |+ = ф,. (/, X).
Пример 3.7.1. Переход от прямоугольных координат к полярным. Пусть
процесс X = {Xj, Х2} задан стохастическими дифференциальными уравнениями
165
d\ldt= -аХ;+л,(г). /=), 2, (3.7.17)
где «j (z) и n2(t) - независимые БГШ с одинаковой односторонней спектральной
плотностью ?V; /-,(/) и Х2(?)- независимые гауссовско-марковские процессы.
В данном случае коэффициенты сноса и диффузии равны
(д'/2 / = /
о;(г, X.)=«((!)=Ьи(гЛ) = Ьц = < ’
( о. '
Введем новые переменные ц = {Л, ф}:
Л = (г, х) = (Х( + Х))1/2, ф = Ф2 (г, X)=arctg (Ч/М- (3.7.18)
Из (15) и (16) получаем
а л (б в) = а л (Л) = - аЛ + (N/AA), аф (t, в) = О,
(3.7.19)
Ьлл(1, н) = Ж b^(t,p) = N/2A2. bAlf(t, ц) = 0.
При этом стохастические уравнения для Лиф имеют вид
dA/dt = — a.A + N/4A + nA (/), а'ф/<Й = пф(г)/Л, (3.7.20)
где пА ()) и лф(г)--- независимые БГШ с односторонней спектральной плотностью N:
пА (/) = п2 (z)cos<p~Hj2 (/)sinф, п„(г)=п1 (r)sin<p —и2 (г) coscp.
Согласно (19) и теореме Дуба процесс А (?) сам по себе является марковским.
На основании (3.4.38) его стационарная п. в. является рэлеевской:
Л.Дл) = (Л/Д)ехр(-Л2/2Д), D = N/4A, Л>0. (3.7.21)
3.8. РАЗРЫВНЫЕ МАРКОВСКИЕ ПРОЦЕССЫ
Рассмотрим одномерный непрерывный марковский процесс
со скачками и получим уравнение для п. в., аналогичное урав-
нению ФПК для диффузионных марковских процессов.
Начнем с простейшего случая—чисто разрывного (скачкооб-
разного) процесса. Пусть поведение модели описывается следу-
ющей схемой. За малый промежуток времени (/. z + Az) сл. пр.
X(z) с вероятностью 1 -- q (z, X) A z сохраняет прежнее значение
и с вероятностью u(t, X, X')AzAX' переходит из X в X", где
Х'<Х"<Х' + ДХ'. При этом, естественно, предполагается, что
f w(r, X, X')</X' = o(z, X), (3.8.1)
— rsj
так как сумма вероятностей сохранения и смены состояния
должна равняться единице.
Рассматриваемый процесс будет марковским. Чтобы получить
уравнение для п. в. уЦ/, X), воспользуемся законом сохранения
вероятности (3.4.34), записав его несколько иначе:
[p(z + Az,.X)-/i(z, X)j AX = <r (z, Х)-<Г (•, X), (3.8.2)
166
Рис. 3.12. К вычислению по- Рис. 3.13. Импульсный процесс
тока вероятности
где g+(r, X,) и g~ (г, X,)—приходящий и уходящий потоки изоб-
ражающих точек в элементе фазового пространства АХ, за малый
промежуток времени А Г.
Запишем выражения для этих потоков. Вероятность того,
что изображающая точка находится в интервале АХ,, равна
p(t, X.) АХ,, а вероятность того, что она выйдет из этого интервала
за время Аг, равна q(t, Х,)Аг (рис. 3.12). Поэтому
g~ (t, ty=g(t, X,) АгАХ,. (3.8.3)
Выражение для потока g + (t, X.) получим на основании следующих
рассуждений. Вероятность того, что изображающая точка находится
в каком-либо малом интервале АХ,' (рис. 3.12), равна p(t, Х,')АХ/,
а вероятность ее перехода в интервал АХ, за малый промежуток
времени Аг равна u\t, X,, Х,')АгАХ,. Поэтому поток вероятности за
малое время Аг в интервале АХ, из произвольно взятого
элементарного интервала АХ,' равен АХ,АГ/?(г, X,')w(r, X,, X,') АХ,'.
Общий поток в интервале АХ, с разных уровней X,' будет определяться
интегралом от этого выражения по всем возможным значениям X,':
g+ (l, Х,) = АкАг J p(t, к, k'jdX,'. (3.8.4)
Подставим (3) и (4) в (2), поделим обе части равенства на
АХ.АГ и затем перейдем к пределу при Аг->0. В результате для
рассматриваемого скачкообразного процесса получим интегродиф-
ференциальное уравнение
л °о
—/?(г, Х,) = <?(г, Х,)р(г, Х,)+ J р(г, X,')w(r, X,, Х,')<5?Х,'. (3.8.5)
Если рассматривать не только скачки, но и непрерывное
изменение процесса Х,(г), то в правую часть равенства (2) нужно
добавить поток из-за непрерывного изменения G(t, Х,)АХ,Аг, где
(7 (г, X,) определено выражением (3.4.32). Следовательно, для
разрывного марковского процесса Х,(г) получим следующее ин-
гегродифференциальное уравнение:
167
^-p(t, X)= —q(t, Х)д(?Д) + f p (t, X') и (г, л, X') dX'—
(3.8.6)
---Ил X)p(r, х)]+1 ~[ь(р х)р(р 4J-
а л 2. с л
Уравнения (5) и (6). определяющие одномерные п. в. соот-
ветственно скачкообразного и разрывного марковских процессов,
называются уравнениями Колмогорова — Феллера.
Если начальная п. в. задана в виде дельта-функции p(tQ, Х) =
= 8(Х — Хо), то уравнения (5), (6) определяют п. в. перехода.
Когда коэффициенты уравнения (6) не зависят явно от времени
и существует стационарная п. в. ps, (X), то для нее из (6) можно
получить более простое уравнение, положив dp[t, X)/dr^O:
з М р« (ЭД ~ Iй М Ря (41 - Ч (Х) Р« (М+
(3.8.7)
+ Pw(V)m(X, A/)dX' = O.
Основное уравнение (6) может быть обобщено на многомерные
разрывные марковские процессы. Однако задача нахождения
даже стационарного решения уравнения Колмогорова — Феллера
вида (7), как правило, оказывается довольно сложной, а в более
общих случаях и вообще аналитически неразрешимой1,
у
Пример 3.8.1. Импульсный марковский процесс2. Достаточно общей марковской
моделью импульсной помехи может служить последовательность случайных
импульсов (видео или радио), заданная следующим образом (рис. 3.13). Если
процесс Х(г) находится в нулевом состоянии (Х = 0), то в течение малого
промежутка времени (/, /|Лт) он останется в этом состоянии с вероятностью
1---7.Л/ или с вероятностью «А/ перейдет в новое случайное состояние X'.
характеризуемое и. в. р(Х'). Если же процесс Х(г) находится в любом состоянии
Х^О, то он останется в прежнем состоянии с вероятностью 1 —рЛг или перейдет
в нулевое состояние с вероятностью рЛп
Процесс Х(/) представляет собой последовательность прямоугольных им-
пульсов со случайными взаимонезависимыми амплитудами, случайными длитель-
ностями импульсов и случайными интервалами между ними. Длительности
импульсов и интервалы распределены по экспоненциальному закону с параметрами
Р и а соответственно, а амплитуды импульсов имеют непрерывную п.в. р0(Х')-.
1 Брусенцов А. Г. и др. Методы анализа марковских моделей разрывных
процессов//Радиотехника и электроника.— 1981.— Т. 26, №8.— С. 962—969..
- Тихонов В. И., Ершов Л. А. Оптимальная нелинейная фильтрация импульс-
ного процесса//Радиотехника и электроника.— 1979.— Т. 24, № 3.— С. 551—556.
168
Плотность вероятности p(t, X) рассматриваемого скачкообразного марковского
процесса X (г) определяется уравнением (5). причем функции, входящие в (I), имеют вид
. {ар (к'} при Х = 0,
i/ Г, X, Х' =<
' (РЗ(Х') при Х^О,
(3.8.8)
[а при Х = 0,
q (t, X) = у
М ' (Р при Х^О.
Поскольку состояние Х = 0 является особо выделенным, то разобьем область
интегрирования в (5) на две подобласти: (О-А. 0+Д) и оставшуюся подобласть
Л. Очевидно, что если подынтегральная функция tp (X') нс содержит дельта-функции
5(Х'), то
А
lim f ср(X' 1 d\'--0.
А (> -д
Подставив (8) в (5), получим
д
—p(t, Х) = — f(t, Х)-+-ар0 (X) 1 p{t, X')t/X' + рб (X) /> (/, X') d'k', (3.8.9)
ot - J ‘ J
-Л Л
. , fa»U, X) при X = 0,
где /(/, X =< , I ,
(P/i (/. X) при X?4 0.
Определим п. в. в стационарном состоянии. Для нее из (9) имеем
хр0(к) .( Л,(Х')</Х'+ PS (X) f Л, (X') dk' —fsl (Х) = 0, (3.8.10)
-Л Л
™= -‘«-км при И
Введя обозначения
( р„(Х')Л' = с0. fps, (X')tZX' = ct. <’„+<, = I. (3.8.11)
— Д Л
уравнение (10) можно переписать в следующем виде:
+ (3.8.12)
Пренебрегая значением р0 (X) при Х = 0 по сравнению с 8 (X), из (12) получаем
[куб(X) — apsl(Х) = 0 при Х = 0,
псоРо(^)--$Р« (Х) = 0 при Х#0
или
ps,(X)=(P/a)<'18(X) при Х=0, (3.8.13)
РяСЧНз'/Рко/’оСМ при Х^О. (.3.8.14)
Проинтегрировав (13) по X в окрестности нуля, а (14) — в оставшейся
подобласти, с учетом (11) найдем
169
с0 = Р/(а+₽), с^аДа+Р). (3.8.15)
Подставив (15) в (13) и (14). получим выражение для п. в. процесса Х(/)
в стационарном состоянии
Л, (М = [₽/(«+₽)] 5 W + [«/(«+ ₽)]Ро(Ч (3.8.16)
Можно показать, что ковариационная функция стационарного процесса Х(?)
определяется формулой
Х(г) = ^-“ехр(-₽Н)-НиЛ-^) j 1 +-ехр [-(а + Р) | т|]>, (3.8.17)
а+р \а + р/ ( а )
где mk = f Х/?0(А) А; D,= f (7.-дг,)2 р0 (А.) А.
3.9. СМЕШАННЫЕ ПРОЦЕССЫ
Рассмотрим смешанный двухкомпонентный сл. пр. {Х(/), G(Z)},
у которого одна компонента {Х(/)}— непрерывна, а другая
{0(/)}=Эд., А=1,^Г—дискретна. В общем случае эти компоненты
могут быть зависимыми и не марковскими. Тем не менее для
вероятности перехода такого двухкомпонентного процесса можно
получить уравнение типа ФПК [4].
Обозначим двумерную условную п. в. смешанного процесса
через
Л(Х, /IX Y)=p(k, t\X)p{Q(t) = Qk\ К). (3.9.1)
Величина рк(к, t\X, У) означает вероятность одновременного вы-
полнения условия Х(/)е(Х, X-f-t/X) и 0(/) = 0t при некоторых
дополнительных условиях X и У:
ЛГ = {0(/) = 9/ Х(/о), 0(/о) = ЭЛ,
У = {Х(/0), 9(/0) = 9;], /,у=ЁА. (3.9.2)
Условие X является более полным (ограничительным), чем
условие У.
При таком задании условий введем специальное обозначение
совместной условной п. в.
zo)=p(^ = MU e(zo) = &.) x
хР{0(/) = 9;|Х(/о),0(/о) = Э1.}. (3.9.3)
В общем случае эти условия могут включать в себя как
различные связи между компонентами смешанного процесса и его
предыдущими состояниями, так и зависимость данного процесса
от других сл. пр. и некоторых параметров.
Согласно правилу полной вероятности для условной п. в.
смешанного процесса pk(Y, / + А/\Х) можем написать соотношение
к
р\Х / + А/|Х) = f £р(Х, t + А/|X',/; Х)р(Х, t|Х) х
ГИ=1
170
X P{O(/ + A/) = iJJ|0(z) = 9t; Y} P {0(/ ) = -&k\Y}dX. (3.9.4)
Написанное соотношение можно рассматривать как обобщение
уравнения Маркова (3.4.8).
Аналогично тому, как это было сделано в § 3.4, п. 2,
представив р (к, IX At | X', t; X) в виде преобразования Фурье от
характеристической функции, разложив под знаком интеграла
характеристическую функцию в ряд Тейлора и почленно проинте-
грировав, получим выражение вида (3.4.18)
р(Х,г + Д/|Х',/; Х)= f Х)^8(к'-Ц (3.9.5)
п —О " С,Л
где
тп(к',1; У) = М{[Х(г+-Д/)-Х(/)]"|Х',г; X}. (3.9.6)
Сумму произведений вероятностей дискретной компоненты
0(0, входящей в (4), можно представить в следующем виде:
I р{е(г+дг)=э;|0(/)=,%; Г}Р{0(О=А|Г} =
/с- 1
= P{0(fM7| У} + £ /Цг; У)Р{0(/) = 9к| У}. (3.9.7)
к — 1
Здесь
А,(С У) = Р{0(г+Л/) = 9>|0(/) = 01; У}-8м, (3.9.8)
где 8^=1 при /<=./, 8^ = 0 при k^J.
Подставив (5) и (7) в (4), получим
рД. l + M\X]=pft.. <m+ У y)Pj(VIMJ +
К " 1
+ I А;(с (3.9.9)
fc = i
где «коэффициенты» и Akj определяются соответственно
формулами (6) и (8).
Предполагая существование предела, при Д/-»0 получаем
обобщение уравнения (3.4.19) на смешанный процесс:
ФЛ'|Х)= f Л')₽А>I*)]+ .
(< / ___ . t' . ('/v
К " 1
+ ПаМ*). (3.9.10)
к=1
Коэффициенты этого уравнения определяются по формулам
171 .
Kn(k,t; X) = lim 1m{[X(<+Az)-X(l)]"|X,/; X}, (3.9.11)
Al—Az
aki(t; У) = lim 1 [P{0(/+A/) = 9J.|O(l) = ^; У}-8к/]. (3.9.12)
Отметим, что предел при Al ->0 можно брать справа или
слева. В том случае, когда А/->0+ (предел справа), получается
прямое уравнение, а при Al-»O" (предел слева) — обратное.
В дальнейшем везде используется прямое уравнение.
Выбирая в основном уравнении (10) соответствующим образом
условия X и Y, можно получить различные частные случаи,
например уравнение для п. в. перехода смешанного марковского
процесса, у которого компоненты не являются марковскими.
Рассматривая независимые компоненты, можно получить урав-
нения для условных п. в. и вероятностей немарковских процессов.
Рассмотрим последний случай.
Для независимости компонент рассматриваемого двумерного
процесса нужно допустить, что взаимонезависимы как сами
компоненты {X} и {0}, так и условия X и Y. В этом случае
сомножители в правой части (1) будут независимыми. Подставив
(1) в (10) и разделив результат на р(к, t\X)P{Q(t ) = Э;|У}, после
элементарных преобразований получим
Ж ' I *)- £ [Л-,(Х, , (Ml л-)]к1
= \-~P{Q(t) = ^\Y}+lakj(t-, У)Р{9(0 = 9ДУ}
I J
(М*)=
х
х(Р{0(1) = 97-|У}) *= const.
(3.9.13)
Так как равенство (13) должно выполняться при произвольных
% и 0, то правая и левая части его для сохранения условия
нормировки должны быть тождественно равны нулю. Следовательно,
Е У)/>(МИ], (3-9.14)
(I п — 1 ”•
-^Р{0{г) = 97|У}= f>fcJ.(l; У)Р{0(/) = 9к|У). (3.9.15)
k=l
Если условия X и У имеют сложный вид, например в X входит
значение 9(1') в предшествующий момент времени /'</, а в У вхо-
дит значение Х(/'), то процессы Х(1) и 0(1) в отдельности будут
немарковскими, хотя написанные уравнения, похожие на урав-
нения для марковских процессов, останутся в силе.
Полагая в (14) Х = {к0, /0), придем к известному уравнению
(3.4.19) для непрерывного процесса Х(/). Если непрерывный
процесс Х(1) является марковским, то коэффициенты Кп не
172
зависят от X и, кроме того, коэффициентами Хп при /О 3
в диффузионном случае пренебрегают. При этих условиях с уче-
том обозначений (3.4.2), (3.4.22) и (3.4.23) уравнение (14) переходит
в уравнение ФПК (3.4.24):
5тг(Х,/|Л.О, t^dt= — д[а(Х /)л]/дХ + (1/2)д2[Ь(Х, /)л]/дХ2. (3.9.16)
Если Y = {0(/о) = 9;}, то дискретный процесс 9(0 является
марковским. Введя обозначение лу(0, z) = P{9(r) = 9719(/0) = 9;}
и учтя независимость коэффициентов aki от Y, получим уравнение
(3.3.9) для дискретного процесса 9(0:
akj(t)nik(t0, /). (3.9.17)
01 t = i
В данном случае величина akj(t)At равна вероятности перехода
дискретного процесса 9(z) за малое время Az из состояния 9=0
в состояние 9 = 0 при k ^=j, причем
М')=“1Х(4 (3.9.18)
Когда обе компонеты X(Z) и 9(0 являются по отдельности
марковскими процессами, но не обязательно независимыми,
коэффициенты akj могут также зависеть от «возраста» X. При
этом основное уравнение (10) можно записать в виде
dpj(X,t\X0,t0)/dt=--d[K1(Kf, X)pj]/d'k + (]/2)52[К2(0 t; X) х
у = 1Л. (3.9.19)
к= I
Применительно к условной совместной п. в., определенной
равенством (3), уравнение (19) примет следующий конкретный вид:
dpi/Ml Wo)/^ = -а[/07>р;д^|А,о,/о)]/<п+
+(i/2)a2 [к2 jPij(K 11 х0, z0)]/a v + £ akjPik(x 11 x0, z0), (3.9.20)
1
где
.= liinlM{[X(z+Az)-X(z)]n|9(z+Az) = 0};
X(z),9(z) = 0}; (3.9.21)
%. = д11то1[Р{9(г + Дг) = 97.|Х(/), 9(z) = 0}-5j. (3.9.22)
Ранее было показано [см. (3.4.24) и (3.4.29)], что формулы
вида (16) и (17) остаются в силе не только для вероятностей
перехода, но и для абсолютных (безусловных) вероятностей
состояний. Аналогичный результат справедлив и для смешанного
173
марковского процесса {А,(Г), 0(г)}. Поясним его вывод следу-
ющими рассуждениями.
Отметим, что согласно (12) вероятность сохранения состояния
0 = 9; при заданном X в течение малого интервала времени Аг
приближенно равна Р{0(г + Аг) = 9;|0(Г) = 9Дл1 +а7;(Х, г)Аг. По-
этому суммарная вероятность перехода за Аг из состояния 0 = 9;
в любое другое возможное состояние 0 = 9fc, k=£j,
1 — [1+й;;(Х, г)Аг]=-ая(Х, г) А/.
Фазовое пространство рассматриваемого двухкомпонентного
марковского процесса схематически можно представить в виде
К прямых, соответствующих разным допустимым значениям
дискретного процесса 0(/). Выделим на прямой, соответствующей
0 = 9;, малый интервал АХ.
Приращение вероятности за малое время А/ на элементарном
интервале АХ равно сумме двух слагаемых: 1) потока вероятности
[б'ДХ, /) —СДХ + АХ, г)] из-за непрерывного движения при условии
отсутствия скачка и 2) разности приходящей и уходящей веро-
ятности из-за скачков. Запишем эту разность.
Обозначим через р/Х, z) ДХ вероятность нахождения изобража-
ющей точки на прямой 0 = 9, в элементарном интервале АХ. На
этот интервал возможны скачки с различных прямых 9 = 9t, k^=j.
По закону умножения вероятностей вероятность, поступающая на
выделенный элемент АХ из-за скачков с какой-либо прямой 9fc,
равна произведению вероятности рк(Х, г)АХ нахождения изобража-
ющей точки в соответствующем элементе длины АХ прямой 9t на
вероятность akj-(k, t)\t скачка 9fc->9;. Поэтому суммарная вероят-
ность, поступающая со всех прямых 9k, k^j, очевидно,
ДХДг£ак;(Х, г)рДХ, г).
По тем же соображениям вероятность, убывающая с выделенного
элемента Кк на прямой 9;, равна -Д;;(Х,/) АгрДХ, г) АХ.
Воспользовавшись законом сохранения вероятности (3.4.34),
можем написать
[рДХ, г+Аг)-/?;(Х. г)]АХ = [6’;(Х, z)-G;(X+АХ, г)]Аг х
к
х £1 Я;;(Х, г j А г J + ДХАг сцДХ, /)^(Х, —
?< = ]
— [ —г/у(Х, г)/?у(Х, г)"|АХА/.
Поделив обе части этого равенства на АХАг и переходя
к пределу при Аг-*О, ДХ-+0, с учетом (3.4.32) получим
£рДХ,г)= -[«(X, t}Pj(k, г)] +12L[Л(Х, t)Pj(k, г)] +
174
к
+ £ akj(X,t)pk(X,t).
k— 1
(3.9.23)
Если процессы и 0(?) независимы, то совместная веро-
ятность равна произведению вероятностей каждого из процессов:
Pj(k,t)=p(t, (3.9.24)
где p(t, X) — одномерная п. в. процесса X(z); pj(t)— вероятность
состояния 0 = 9
Подставив (24) в (23) и разделив результат на p(t, k)pj(t),
получим систему из двух самостоятельных уравнений, совпада-
ющих с (3.4.29) и (3.4.24).
3.10. ПРЕДСТАВЛЕНИЕ НЕПРЕРЫВНЫХ
МАРКОВСКИХ ПРОЦЕССОВ
В ДИСКРЕТНОМ ВРЕМЕНИ
При моделировании непрерывных систем (входные и выходные
процессы которых описываются в непрерывном времени) на
ЭВМ берутся отсчеты процессов лишь в дискретные моменты
времени. Широко применяемые на практике вычислительные
устройства получают и выдают данные о процессах также
в дискретные моменты времени. В подобных случаях, если даже
исходная система непрерывна, в качестве ее модели удобно
применять дискретную во времени. Такая модель соответствует
существу вычислительного процесса на ЭВМ и часто упрощает
исследование. Поэтому возникает задача корректного перехода
в непрерывных системах к дискретному времени. Приведем
методику решения такой задачи применительно к непрерывным
динамическим системам марковского типа, поведение которых
описывается стохастическими дифференциальными уравнениями.
Пусть на вход системы воздействует БГШ «(/), случайный
марковский процесс на выходе системы является скалярным
и определен стохастическим дифференциальным уравнением Ито
d^t)=f(t,^(t))dt+g(t,^t))dov(t), ^(0) = ^о, (3.10.1)
где f(t, £,) и gCt, ^) — гладкие функции обоих аргументов, воз-
растающие на бесконечности не быстрее линейных:
1.Ж ^)l2+ ^)12^2(1+ |^р), 0<с<оо,
причем это условие выполняется равномерно для всех 0 t Т.
Ограничения, наложенные на коэффициенты уравнения (1), до-
статочны для существования и единственности решения £,(г)
на отрезке [0, Т]. Стохастическому дифференциальному уравне-
нию (1) эквивалентно интегральное представление
175
f./V’ UvMv+ (З.Ю.2)
f0 (0
Стохастическое дифференциальное уравнение в форме Стра-
тоновича, эквивалентное (1), имеет вид
ад-(1/2)^(/, ^(/))g(r, ад]^+
+g{t^{t))d0,5V, = (3.10.3)
где g£(z, t,) = 3g(z, Здесь эквивалентность понимается в том
смысле, что уравнения (1) и (3) при одинаковых начальных
условиях дают одинаковые решения. Уравнению (3) эквивалентно
интегральное представление
<0
+ f g(5, £,(ф/0.5Н4 (3.10.4)
'о
где последний интеграл справа нужно вычислять в симмет-
ризованном виде.
Итак, пусть поведение рассматриваемой непрерывной си-
стемы описывается интегральными выражениями (2) или (4),
что эквивалентно заданию стохастических дифференциальных
уравнений (1) или (3). Перейдем в них от непрерывного времени
к дискретному. Для этого отрезок [0, Т] разобьем п эквидис-
тантно расположенными точками Zv = vA, где S.= Tfn — шаг диск-
ретизации по времени, v = 0.1, ..., п. С помощью разностной
схемы вида
?v+t = ?v + 9v(?v, Л, At’v)
при заданном начальном условии ^о = ^(0) по значениям прираще-
ний винеровского процесса Az\ = r(zv+1) — f(zv) нужно получить
оценочные значения близкие в каком-либо смысле к точному
решению £,v = ^(zv).
Наиболее часто близость и |у характеризуют средней
квадратической погрешностью ст, определяемой формулой
ст= max (М {(^v —S,v)2 | S.o])1''2, (3.10.5)
1 Sj V s.- n
в которой начальные условия точного и приближенного решений
совпадают (чо = ^<>)-
Запишем выражение (2) для малого подынтервала (z„ zv+1).
Учтя гладкость функций /(z, ё,) и g(z, S,), получим разностную
схему Эйлера
^v+1 = ^v+/(vA, |v)A-hg(vA, ^v)Av, (3.10.6)
176
в общем случае обладающую среднеквадратической погрешностью
ст = О(х/А)1.
Согласно (4) имеем
Ui4v + [/(vA> t)-(l/2)gUvA, t)g(vA,t)]A+
+g(vA + A/2, ^v + Д|/2)Ar + o(A). (3.10.7)
Разложим функцию g(vA + A/2, ^v + A^/2) в степенной ряд в точке
(уА, £v) и пренебрежем членами, порядок которых выше о (А).
Тогда (7) примет вид
?v+i = |v+[/(vA, L)-(l/2&(vA, t)g(vA, t)]A +
+g(vA, £v) Ai>+g£(vA, L)(A^/2)Ar + o(A).
Подставив в правую часть значение A^ = ^v + 1 — из (6), придем
к формуле
^v + i = ^v+/(vA, ^v)A+g(vA, ^v)Ar +
+(l/2)g'5(vA, t)g(vA, t)(Ar2-A) + o(A). (3.10.8)
Это выражение можно трактовать как отрезок ряда Тейлора
в стохастическом варианте.
Можно получить обобщение формулы (8) на случай векторного
процесса ^(/):
^,v+i = U+/»A+ X gkjhvj + -i- X ^gim(&vmAvj-3mj-A) +
To (A), 1 ''т'] ' (3.10.9)
где 5mj- — символ Кронекера. Ради упрощения записей будем
в дальнейшем опускать тильду сверху.
Формулы (7)...(9) позволяют получать разностные схемы для
решения стохастического дифференциального уравнения (1). Так,
из (7) следует простейшая разностная схема:
^+i = ^T/(/v> £v)A+g(rv, ^v)Arv. (3.10.10)
Используя (8), можно показать1, что для этой разностной схемы
глобальная погрешность (5) определяется выражением
a^A^J M{[g'(z, ад]2|^оИ)1/2> (3-10.11)
о
т. е. разностная схема (10) имеет глобальную погрешность
порядка А1/2.
Разностная схема, следующая из (8):
1 Никитин Н. Н., Разевиг В. Д. Методы цифрового моделирования стохасти-
ческих дифференциальных уравнений и оценка их погрешностей//Журнал вычис-
лительной математики и математической физики.— 1978.— Т. 18, № 1.— С. 106—
117.
177
^v+I=^v+/(zv, ^v)+g(/v, ^v)At> +
(3.10.12)
+ (l/2)gJ;(?V’ £v)g(*v, £v)(Av2-A)
должна иметь меньшую погрешность, чем (10). Этот факт
подтвержден экспериментально’.
Можно показать, что для любой разностной схемы справед-
ливо следующее неравенство:
ст^А[|М{[Д(/, ^(f))]2 + [L,g(/, !;(0)]2|^оИ]1/2,
(3.10.13)
где
(3'10Л4)
Неравенство (13) можно использовать для выбора шага
квантования А. Если, например, f=—aL, g = (N/2}il2, то
<т<аА(ЛГГ/2)1/2.
Для векторных сл. пр. можно получить аналогичные раз-
ностные схемы. Так, аналог выражения (10) имеет вид
^v+1=^v4-f(zv, A + g(/v, ^v)Arv. (3.10.15)
Для компонент глобальных ошибок можно воспользоваться
формулой — аналогом (11).
В разностной схеме (10) положим g(t, ^) = (7V/2) 1/2g (/, £,). Тогда
получим
£v+i=£v+/(vA, ^V)A + Z>*/2«V, (3.10.16)
где nv — стандартный дискретный белый шум (независимые га-
уссовские с. в. с нулевым м. о. и М {и,иД = 80); Dv = Ng2 (tv, £,v)/2.
Формула (16) дает алгоритм для моделирования последова-
тельности £,v на ЭВМ. При этом нужно задаться начальным
значением £,0 и затем рекуррентно вычислять ^v+I по £,v.
В качестве nv можно брать реализации датчика гауссовских
случайных чисел, который имеется в математическом обеспечении
любых ЭВМ.
Пример 3.10.1. Гауссовско-марковский процесс. Пусть
^/Л=-а£ + уи(г). (3.10.17)
При а = у=1/АС таким уравнением описывается напряжение на выходе интегриру-
ющей цепи RC, когда на нее воздействует БГШ л (г). Уравнение (17) является
частным случаем уравнения (1). Для него разностное уравнение (16) принимает вид
1 Wright D. J. The Digital Simulation of Stochastic Differential Equations//IEEE
Trans.-1974.-Vol. AC-19, № 1,—P. 75—76.
178
1 = F,v-a^,A + />v1/2«v, Dv = D = Ny2 Д./2. (3.10.18)
Однако линейное уравнение (17) допускает другое представление в дискретном
времени. Действительно, из общего решения
£(z)=£(/0)exp[-a(r-/0)] + Yjl ехр[-а(г-т)]и(т)Л
*0
получим
^v+! =ехр( —аД)^+Р1/2 (Д)иу, (3.10.19)
где
IV а у 2 7V
7>(Л) = у2— j ехр( —2ат)4т = -~—(1 —ехр( —2аД)). (3.10.20)
2 q 4ct
Отсюда следует, что дисперсия О(Д) удовлетворяет уравнению
dDldb=-2v.D + y2NI2
с начальным условием £>(0) = 0.
Заметим, что выражения (19) и (20), в отличие от (18), устанавливают
точное соотношение между ^v+i и при любых значениях Л. Если шаг
дискретизации по времени Д выбран таким, что аД<к:1, то можно воспользоваться
приближенными равенствами ехр(—аД)« 1 — аД, 1 —ехр( —2аД)«2аД. При этом
выражения (18) и (19) будут совпадать. Следовательно, приближенное соотношение
(18) тем точнее, чем меньше шаг Д.
Рассмотрим линейное векторное дифференциальное уравнение
с постоянными коэффициентами
^/Л = А^(;) + п(7), (3.10.21)
где £(г)— векторный процесс; А — квадратная матрица; n(/j
— векторный БГШ с нулевыми м. о. и корреляционной матрицей
M{n(/1)n1(/2)} = Q8(/2-/1); (3.10.22)
Q — симметричная неотрицательно определенная матрица.
Общее решение уравнения (21) имеет вид
£ (/) = ф (/ - /0) £ (/0) + f ф (/ - т) п0 (т) dr, (3.10.23)
'о
где Ф(/)— переходная матрица, удовлетворяющая уравнению
d®(t)/dt = A.®(t) (3.10.24)
с начальным условием Ф(0) = 1, где I — единичная матрица.
Из теории обыкновенных линейных дифференциальных урав-
нений известно, что уравнению (24) удовлетворяет матричная
экспонента, определяемая матричным степенным рядом
Ф(7) = ехр(А/) = 1 + А7+ (1/2)А2/2+ (1/3!) А3/3 + ... (3.10.25)
179
Из (23) с учетом (25) получим
^v+I = exp(AA)^v + nv. (3.10.26)
Корреляционную матрицу дискретного векторного белого шума
определим на основании (23) и (22):
f/(v + l)A \
D(A) = M {nviiv} = М< I j- exp {A [(v+1) Д —14]} I х
(\ vA /
((v+ 1)A \ тЛ
J exp {A [(v+1) Л — т2]} п(т2)<7т2 I f =
vA J j
(3-10-27)
= f f exp(ATj M{n((v+1)A-tJ nT((v + 1)A-t2)} x
о о
д
x exp (Att2) <s?t2 = j exp (At) Q exp (Att) di.
0
Умножим это равенство слева на А:
д д
AD(A) = A J exp (Ат) Q exp (Атт) di = J (А exp (Ат) <7т) Q exp (Атт).
о о
Если здесь применить матричный аналог интегрирования по
частям, то получим
А А
AD(A) = j d [exp (Ат)] (}ехр(Атт) = ехр(Ат) Qexp(ATr) | —
о о
д
— J exp (Ат) d (Q exp (Атт)) = exp (AA)Q exp (ATA) —IQI —
0
— I j exp (At) Q exp (Att)c?t ) AT = ^5-^ —Q —D(A) AT.
\ 0 ) dts
При записи последнего равенства использованы формула взя-
тия производной от интеграла по верхнему пределу и равен-
ство (27). Таким образом, матрица D(A) удовлетворяет урав-
нению
dD(A)/<7A = AD + DAT + Q (3.10.28)
с начальным условием D(0) = 0.
Матрица D(A), как всякая симметричная неотрицательно
определенная матрица, может быть представлена в виде
D = GGT, (3.10.29)
где G — нижняя треугольная матрица (все ее элементы над
главной диагональю равны нулю). Такое представление в теории
матриц иногда называют извлечением квадратного корня.
180
С использованием (29) из (26) удается получить удобное для
моделирования выражение
£v+1 = exp (AA) +Gnv = Ф (A) +Gnv, (3.10.30)
причем
M{nX} = I8HV. (3.10.31)
Соотношение (30) является векторным аналогом (19) для скаляр-
ного случая; оно позволяет моделировать процесс ^(/) в диск-
ретном времени. При этом нужно выполнить следующие этапы.
1. Имея матрицу А, численными методами можно решить
уравнение (24) и с любой точностью найти матрицу Ф(А) =
= ехр(АА).
2. По известным матрицам А и Q численными методами
решаем уравнение (28) и с нужной точностью находим D(A).
3. По найденной матрицу D(A), используя стандартную про-
грамму, определяем матрицу G.
4. Выполнив операции, предписываемые алгоритмом (30), по £,v
находим Jjv+1. При этом в качестве компонент шумового вектора
берутся реализации датчика стандартных гауссовских чисел.
Укажем, что в некоторых задачах (малая размерность £(/),
диагональная матрица А и др.) может оказаться более удобным найти
аналитические выражения матриц Ф(/), D(z), <7(?) (см. приведенные
ниже примеры). После этого для моделирования процесса !;(/)
необходимо будет выполнить лишь п. 4 указанного алгоритма.
Организация вычислений матричной экспоненты Ф(/) = ехр(А?)
подробно описана в литературе. При аналитическом вычислении
ее можно воспользоваться определением (25). Если матрица
А диагональная:
А = | )
\0 ' • а„)’
то легко вычислить
ехр(А0-(еХр<“1')-. " ).
\0 • ехр(а„/)/
Однако определение (25) удается использовать лишь при малой
размерности или очень простом виде матрицы А. Чаще для
вычисления матричной экспоненты применяют преобразование
Лапласа.
Обозначим через Ф(р) = ^’{Ф(/)} матрицу, каждый элемент
которой представляет собой изображение по Лапласу соответ-
ствующего элемента матрицы Ф(/). Тогда из (24) имеем
(pl —А) Ф(р) = 1, ^{Ф'(/)} = рФ(р)-Ф(0)= РФ(р)~ I-
181
Отсюда, если определитель det(pl —А)^0, получим
Ф(р) = (р1~А)"1. (3.10.32)
Это соотношение может быть использовано для вычисления
матричной экспоненты
= {(pl —А)-1}. (3.10.33)
Получим теперь для векторного линейного варианта аналог
приближенного скалярного алгоритма (18). Из (25) следует, что
при <->0 первое приближение для матрицы Ф(/) имеет вид
Ф(/)~1 + А(/). При этом из (27) получим D(A)~QA. В результате
приходим к аналогу алгоритма (18) в векторном случае
£v+I =(I + AA)£v+rtnv, M{nvii*} = I8pv, (3.10.34)
а нижняя треугольная матрица Г\ находится из уравнения
rtri = QA. (3.10.35)
Рассмотрим три примера.
Пример 3.10.2. Модель речевого сообщения. В качестве модели речевого
сообщения иногда используют сл. пр., заданный системой
+ = d^dt, 4^2/Л + Р^2 = я(г). (3.10.36)
Приведем (36) к общему виду (21):
— cc^j — 4-м(г), di,2ldt= -Р^2 +я(г).
Сравнивая (21) и (37), нетрудно установить, что
а=Р Л q="(‘
\ 0 -Р/ 2 \1 1/
(3.10.37)
(3.10.38)
Воспользовавшись формулой (32), найдем преобразование Лапласа матрицы Ф(г)
Р Р \ 0 р/ (/>+а)(р+Р)\ 0 р+а/
Отсюда получим
(ехр( —аг) —[ехр( —аг) —ехр( —рг)]\
0 ехР(-М ) <1,0-3’)
На основании записанных матриц (38) и (39) по формуле (27) можно
установить, что элементы матрицы дисперсий D(A) имеют следующий вид:
2TrWi 7’(а+р)+1 Г(2Р)
2(ас—р) 2 а + р 2
(3.10.40)
rf22=^7-(2p), Г(х)=1-ехр(-Ах).
182
Таким образом, сл. пр. ^T = {^i, ^2} можно моделировать алгоритмом (30), если
разложить матрицу D(A) с элементами (40) по формуле (29).
Приближенный алгоритм (34) можно получить двумя путями: используя
(35) или найдя первое приближение при Д--+0 для выражений (40). Оба пути
должны привести к одному результату. Тогда получим
. , /1 —аД
ф(дЦ 0
-рд\
i-рд/
О(Д)
1
1
Подстановкой можно убедиться, что решением
уравнения rtrj=D(A) является
матрица
ДудУ'2/! О'
Г1=(~2”) (1 0
Поэтому приближенный алгоритм (30) для
рассматриваемого примере!
имеет вид
(\ — ссА
о
-рд\
1-рд/
0\
оЛ
(3.10.41)
Пример 3.10.3. Двухкомпонеитный гауссовско-марковский процесс. Пусть
^1/Л=-а1^1-р1^ + »1(г), 1о4^
^2/Л = +
где
V yj jV ! J V 2/Z. /
/—eq — рД
Ясно, что в данном примере А= 1.
\-“2 —02/
При вычислении матрицы Ф применим метод диагонализации. Известно,
что собственные числа матрицы А есть решения характеристического уравнения
det (XI —А) = 0. Обозначим их через <712. Тогда получим
</i.2=-(«i+P2 + w)/2. со = [(а1-р2)2 + 4а2р1]1/2.
Пусть с/( 2—вещественные. Тогда существует невырожденная матрица С, при-
водящая А к диагональному виду, т. е.
, fd, 0 \
САС-1=[ 1 =R. (3.10.43)
\ 0 d2J
Элементы матрицы С находим из уравнения, получающегося умножением
равенства (43) справа на С:
CA = RC
Отсюда
c=fv/2₽1
\ 1
1 | C-1=2fV₽l/8 2ot2pl/S)
—v/2a2/ y/o^Pj/S —v<x2/3/
где v = al— p2— a>; 8 = v2 + 4a2P1.
183
Из (43) имеем Л = С ГЙС. Поэтому
А” = (С 1RC) (С "1RC)... (С 1RC) = С ’1R" С.
Используя это равенство и определение (25), получаем
Ф(т)=ехр(Аг) = 1 + А14-(1/2)А212 + ... = С' 15С + С~1ЮС+...=
-C-1(I+Rr+(1/2)R2?2 + ...)C = C-1exp(Rz)C.
Поскольку матрица R диагональная, то
, , /ехр(d,t) 0 \
ихр R/ = ь ' 1 ' , , .
\ о ехр(</и)/
Используя выражения для С и С а также (44). находим
/v2 ехр(ь'1 Д)+4а201 ехр(7/,A) 2va2 [ехр^Л) — ехр(<72Д)] '
\2vQj [схр(<7|Л) — схр(гЛА)] 4а2Р, expjt/Aj + v^expfnEA),
(3.10.44)
(3.10.45)
Выражения для элементов матрицы дисперсий D(A) имеются в [7].
Рассмотренный пример не охватывает случай комплексных собственных
значений матрицы А. Матрицу А с такими собственными числами имеет процесс
приведенного ниже примера.
Пример 3.10.4. Процесс на выходе колебательного контура. Пусть сл. пр. £(/)
задан линейным стохастическим дифференциальным уравнением второго порядка:
с/3х;/(//2 + 2а</Е'(/, + (1)о^ = й)о/|(?), w0»a. (3.10.46)
Подстановкой с,2 = </^/</1, это уравнение приводится к стандартному виду
(21), причем
Применяя методику преобразования Лапласа (32), (33). находим
Ф(/) = схр( —а/)
cosco0z + (tx/co0)sin о>о / (1 /соо) sin ыаг
— (oosin шпг cosw0l —(a/«>0)sin<n0/y
(3.10.48)
Если применить формулу (27) и на интервалах Д, удовлетворяющих условию
Дши»2я, пренебречь членами с а/соо, то получим
. , ИоА,-
D (А)~”я~ L1 — ехР (-2аД)]
оа
(3.10.49)
Можно показать, что нижняя треугольная матрица в разложении (29) для (49)
имеет вид
Г =
(OoZV г
[1_ехр(_2ад)]
(3.10.50)
Векторный сл. пр. первая компонента которого совпадает с исходным
процессом с,, в дискретном времени можно моделировать по формуле (30)
с найденными выражениями (48) и (50) для матриц.
184
Заметим, что сл. пр. ^(г), заданный уравнением (46), можно представить иначе.
Известно, что процесс Е,(т) в стационарном состоянии имеет корреляционную функцию
Л,(т) =
coglV
8а
ехр( —а|т|)
cos(o0tH---sin соо | т |
m0
или при условии а <s соо
7?^ (т)«(<ВоЛ//8а)ехр( —а | t|)cos«>nT.
Гауссовский узкополосный сл. пр. с такой корреляционной функцией можно
представить в виде (§ 4.7)
с,(т) = Е,1 (? )cos cooz+с,2 (z) sin соо /, (3.10.51)
где E,j(t) и £.2 (г)--квадратурные составляющие процесса, представляющие собой
независимые гауссовские процессы с одинаковыми экспоненциальными корреляци-
онными функциями
(Т) = Л> (т)=(а>оЛГ/8а)схр(-а)т|).
Процессы ^i(r) и могут быть заданы стохастическими дифференциальными
уравнениями
<741 /dt= —aE,i +nt (/), dh,2/dt= —а^2+п2(«), (3.10.52)
где «1(1) и и2(т) — независимые белые гауссовские шумы с нулевыми м. о.
и одинаковыми спектральными плотностями Nt=N2 = N. Для системы уравнений
(52) матрицы А и Q имеют вид
/ — а 0 \ соцЛ /1 0\
А = Q=—L
\ 0 -а/ 4 \0
Матрицы Ф и D можно вычислить соответственно по формулам (25) и (27):
, , /ехр( —аД) 0 \ , . сОпЛ^г , ,,/I 0\
ФН 0 е«р(-«лф <З.Ю.53)
Диагональная матрица В(Д) легко разлагается по формуле (29):
ГюоЛ^г
Г= Д^-[1~ехр(-2аД)]
о ОС
Приближенно процесс можно моделировать в соответствии с формулами
(34), (35), которые с учетом (47) приводят к следующему алгоритму:
( 1
^+1Л-»оЛ
Д \ , Av\1/2/0 о\
, _ . Kv + wg - П,.
1 — 2аД) \2 J \0 1/
(3.10.55)
Отметим, что здесь в переходной матрице отсутствуют функции высокочастотного
колебания cos<o0z и sincooz. Поэтому интервал дискретизации Д должен выбираться
из двух условий: аД<к], Да>0<к2тг.
Если же моделировать процесс в соответствии с алгоритмом (30), в котором
матрицы Ф и Г задаются выражениями (48), (50) или (53), (54), то нет
необходимости брать несколько отсчетов на периоде высокой частоты ТГ1 = 2л/ае.
Глава 4. СЛУЧАЙНЫЕ ПРОЦЕССЫ
В ЛИНЕЙНЫХ СИСТЕМАХ
4.1. СВЕДЕНИЯ ИЗ ТЕОРИИ СИСТЕМ
Аналитическое исследование поведения любой системы пред-
полагает обоснование математической модели рассматриваемой
реальной системы. При выборе модели обычно руководствуются
следующими тремя основными соображениями: модель должна
адекватно отражать интересующие нас свойства реальной систе-
мы, по возможности быть простой (экономной) и продуктивной,
т. е. допускать ее исследование применением известных те-
оретических методов.
Чтобы составить такую модель, нужно располагать необ-
ходимыми априорными сведениями о реальной системе. С точки
зрения объема априорных сведений о системе возможны разные
варианты, из которых отметим два крайних случая: 1) иногда
имеющаяся информация позволяет достаточно точно моделиро-
вать анализируемую систему; 2) однако во многих случаях
(связь, биологические системы и др.) исследователь не располагает
необходимой предварительной информацией. При анализе систем
обычно предполагают модель системы известной (первый случай),
а при синтезе она подлежит полному или частичному определению
(второй случай).
С математической точки зрения любую систему можно
представить формализованным соотношением, определяющим
преобразование входного процесса <Цг) в выходной r|(z). Сим-
волически это соотношение можно записать в виде
п(0=Т[Цг)]. (4.1.1)
В этом выражении Т называется оператором, так как выходную
функцию г| (?) можно рассматривать как результат выполнения
некоторой операции над входной функцией Цг). Утверждение,
что r|(/j является откликом системы на входное воздействие
Цг), подразумевает существование оператора Т, что эквивалентно
правилу, по которому заданная входная функция времени Ц/)
отображается на выходную функцию времени г| (/). Входное
воздействие и выходной процесс могут зависеть не только от
времени, но и от других аргументов (пространственных коор-
динат, скорости и ускорения движущегося объекта, температуры
среды и т. д.).
Структура системы и соответствующего ей оператора может
быть разной. На рис. 4.1 схематически представлена многоканаль-
ная система, имеющая п входов и т выходов. При этом входное
186
т'И Система
а) о)
Рис. 4.1. Многоканальная (а) и одноканмыгая (б) системы
воздействие и выходную реакцию на него можно рассматривать
как векторы соответственно с п и т компонентами. При нт=1
система имеет п входов и один выход, а при /7=1 и //?-- (
имеем одноканальную систему (с одним входом и одним
выходом). При такой формализации случай л---0 охватывает все
автономные системы (в частности, все автоколебательные си-
стемы, а также стохастические и шумовые процессы в автономных
системах); они обычно рассматриваются самостоятельно.
Оператор системы Т может быть детерминированным или
случайным. Он называется детерминированным, если каждой
конкретной реализации х,(/) входного процесса £,(/) соответствует
вполне определенная реализация j,(r) выходного процесса Г|(т).
При этом «случайность» выходного процесса р (/) обусловлена
только случайным характером входного процесса ^(ф. Оператор
Т называется случайным, если одной и той же реализации а,(г)
входного процесса могут соответствовать разные реализации
Ук(?)-. ••• выходного процесса г](/). Если поведение
системы определяется ее внутренними элементами или соответ-
ствующими дифференциальными уравнениями, то система явля-
ется детерминированной (случайной), когда элементы системы
или коэффициенты описывающего ее дифференциального урав-
нения являются детерминированными (случайными).
Если учитывать неизбежно протекающие флюктуационные
процессы в элементах системы (тепловые, дробовые шумы)
и случайные изменения внешних условий работы (темпера гуры,
влажности и др.), то все реальные системы будут случайными.
Однако при решении ряда практических задач можно ограничить-
ся рассмотрением детерминированных систем. При этом со-
бственные флюктуационные процессы, когда их необходимо
учитывать (например, в радиоприемных устройствах), часто
«пересчитываются» на вход системы и включаются во внешние
входные воздействия, а изменения внешних условий работы по
гем или иным физическим соображениям считаются «второ-
степенными» факторами, не оказывающими существенного вли-
яния на результат решения интересующей задачи. Замена реальной
случайной модели на детерминированную математическую модель
значительно упрощает аналитическое решение задачи. В после-
дующем будут рассматриваться в основном детерминированные
модели систем (операторы Т).
187
Дальнейшую классификацию операторов Т можно про-
изводить по разным признакам, например по характеру
выходного процесса, по виду преобразования входного процесса
в выходной и др.
В зависимости от характера выходного процесса можно
выделить несколько типов операторов Т (см. рис. 2.1): непрерыв-
нозначный или аналоговый (выходной процесс представляет собой
непрерывнозначную функцию аргумента), дискретный или циф-
ровой (выходной процесс есть последовательность дискретных
значений в непрерывном или дискретном времени), дискретно-
непрерывный (выходной процесс—непрерывнозначный со скач-
ками) и т. д.
По виду зависимости выходного процесса от входного следует
различать безынерционные и инерционные системы, физически
возможные и невозможные, линейные и нелинейные, стационарные
и нестационарные (ГОСТ 21878—76).
Безынерционной называется система, в которой значение выход-
ного процесса в любой момент времени зависит только от
значения входного процесса в этот же момент:
П(О=^(МО’О’ (4.1.2)
где g(x, t)— детерминированная функция аргументов х и t (на-
пример, g(.x, /) = х2/). В инерционной системе значение выходного
процесса в некоторый момент времени t зависит от значений
входного процесса в предшествующее время
Физически возможная система — система, преобразующая
лишь предшествуюхцие и текущие, но не будущие значения
входного процесса; в противном случае система физически
невозможна.
Любую сложную радиотехническую систему можно расчленить
на комбинацию линейных и нелинейных звеньев. При этом
анализ работы системы сводится к анализу прохождения полезных
сигналов и помех через отдельные звенья. Поскольку методы
описания и анализа линейных и нелинейных устройств различны,
то следует различать линейные и нелинейные операторы Т.
Формально оператор T = L называется линейным, если для
него справедлив принцип суперпозиции, т. е. выполняется соот-
ношение
к к
nW = LEZ сХ(01 = t cvL[U')]’ (4.1.3)
v = 1 V = 1
где коэффициенты cv могут быть постоянными или случайными
величинами, не зависящими от t. Оператор Т, для которого
принцип суперпозиции (3) неприменим, называется нелинейным.
В радиотехнических устройствах и системах к линейным
звеньям можно отнести усилители, фильтры, длинные линии
188
и др. К числу нелинейных относятся все автоколебательные
системы (автогенераторы, мультивибратор, блокинг-генератор),
детекторы различных типов, дискриминаторы, перемножители,
модуляторы, ограничители, триггеры и др. К чисто линейным
системам мы приходим, как правило, в результате упрощений,
допустимых лишь при определенных условиях. Так, выше усили-
тели были отнесены к линейным системам. Однако вольт-
амперные характеристики полупроводниковых и электронных
приборов являются, вообще говоря, нелинейными и их можно
считать приближенно линейными лишь в определенной области.
Точное указание области, где допустима линеаризация харак-
теристик, для случайных процессов является более сложной
задачей, чем для детерминированных сигналов. При выяснении
возможности линеаризации необходимо учитывать, что хорошая
аппроксимация характеристики должна быть на том участке,
где имеет место достаточно большая вероятность пребывания
случайного процесса. Применительно к гауссовским случайным
процессам часто стремятся подобрать хорошую аппроксимацию
в интервале + 1,5ч/7) около математического ожидания (вероят-
ность пребывания 0,87), где D—дисперсия процесса.
Детерминированный линейный оператор L для одноканальной
системы может быть задан в виде линейного дифференциального
или разностного уравнения с указанием начальных условий. Для
непрерывной (аналоговой) системы достаточно общим является
линейное дифференциальное уравнение да-го порядка с постоян-
ными коэффициентами щ, bj вида
4"'т)(?) , х , (1пШ , . , х
ат~дР—Ьщ„-1 ;—F ... + aor\(t)-bo-^r-+ ... +bQt,(t)
(4.1.4)
или в символической форме
4m(p)v{(t) = Bn(p)^(t), п<т, (4.1.5)
где p = djclt — оператор дифференцирования; Ат(р) и В„(р)—по-
линомы степени тип соответственно. При этом должны быть
указаны начальные условия q(0), q'(0), ..., (0).
Часто рассматривается процесс, заданный частным видом
уравнения (4)
- +(?оп(1) = «(/)’ С4-1-6)
где п(г) — БГШ. Сл. пр., получаемый из БГШ с помощью
линейного уравнения (6), в литературе иногда называют линейным.
Помимо линейных дифференциальных уравнений при задании
детерминированного линейного оператора L широко исполь-
зуются следующие четыре характеристики линейных систем:
189
импульсная, переходная и комплексная частотная характеристики
и передаточная функция. Приведем их определения [31/
Импульсная характеристика (импульсная реакция) h\t, т) ли-
нейной системы представляет собой выходной процесс системы
при входном воздействии в виде дельта-функции 8(г —т):
h(t, t) = L [8(/~ т)]. (4.1.7)
При этом выходной сигнал т| Д) для произвольного входного
сигнала £,(<) выражается через с,(г) и h(t, т):
00 00
il(/) = L[^(.')] = L[ f ^(т)8(/ —т)б/т]= f ^(t)L[8(/-t)](Zt.
Здесь второе равенство базируется на известном отношении
j ё,(т)8(/ —т)г/т= ( —Е)8(/')dt' = £,(?), (4.1.8)
а третье — на представлении интеграла в виде суммы и исполь-
зовании свойства линейности (3). Из выражения (7) получаем
фундаментальную формулу
W)— .1 (т)Л (?, т) (4.1.9)
— 00
Для физически возможных систем должно выполняться условие
Л(/, т) = 0 при Кг (4.1.10)
и формула (9) приобретает вид
т|(/)— J £,(т)Л(О т)б/т. (4.1.11)
Введем определения стационарных и нестационарных систем.
Система называется стационарной (инвариантной к сдвигу или
инвариантной во времени, если независимой переменной является
время), когда сдвиг входного сигнала приводит к такому же
сдвигу выходного сигнала:
т|(/ —Z0) = T[£,(z —/0)]. (4.1.12)
Системы, для которых это условие не выполняется, являются
нестационарными. Очевидно, что все безынерционные системы
(2) относятся к стационарным. Если линейная система не имеет
памяти и инвариантна к сдвигу, то т] (0 = (/), где с— постоянная
величина.
Импульсная характеристика линейной стационарной системы
может быть представлена функцией h(t, x)=h{t—т). Для таких
систем основная формула (9) упрощается и принимает вид
интеграла свертки:
190
ц(0= f k(x)h(t-x)dx = f ^(t-x)h(x)dx. (4.1.13)
— oo — oo
Импульсная характеристика Л(г) определяет «память» системы.
Она может быть комплексной или вещественной функцией. Если
h(t)—вещественная функция, то система называется вещественной.
Говорят, что стационарная линейная система является устой-
чивой, если при произвольном, но ограниченном входном воз-
действии выходной сигнал ограничен. Так как
со оо
ln(')l=l f h(x)i,(t-x)dx\^ f |й(х)||^(/-х)|dx,
— 00 — 00
то отсюда следует, что импульсная характеристика устойчивой
системы должна быть абсолютно интегрируема, т. е.
J | h (х) | dx< оо. (4.1.14)
— 00
Линейная система (4) является устойчивой, если все корни
характеристического уравнения
amA.m + am_1A.m 1+ ... +ао = 0
имеют отрицательные вещественные части.
Иногда вместо импульсной характеристики h(t) используют
переходную характеристику g(t), представляющую собой выход-
ной сигнал системы при входном сигнале в виде единичной
функции (I(t) = 0 при t<0 и I(t)=l при z$sO)
т] (z) = L [!(/)]. (4.1.15)
Эти характеристики связаны соотношениями
g(/) = fh(x)dx, (4.1.16)
о at
Комплексная частотная характеристика стационарной линей-
ной системы есть преобразование Фурье от импульсной харак-
теристики:
AT(j®)= f й(х)ехр( — j®x)Jx = |X'(j®)|exp[j<p(®)], (4.1.17)
— 00
где |X'Q®)|—амплитудно-частотная характеристика; <р(®)— фа-
зо-частотная характеристика системы. Из обратного преоб-
разования Фурье следует выражение импульсной характеристики
через комплексную частотную характеристику:
^)=2л J<n)exP((4.1.18)
191
а) В)
Рис. 4.2. Две линейные системы
Реакция линейной стационарной системы на входной гармоничес-
кий сигнал согласно (13) просто выражается через комплексную
частотную характеристику:
т](Д = Ь[ехр(>0]= I ^)exp[jw(/-T)]<ZT = tf(jco)exp(jw).
(4.1.19)
Нетрудно убедиться, что импульсная характеристика h(t)
и комплексная частотная характеристика A^(jco) составной линей-
ной системы, состоящей из двух последовательно соединенных
линейных систем с характеристиками /^(z) и h2(t), (jco)
и К2 (jo) (рис. 4.2, а), определяются соответственно выражениями
h(t)= J ht (т)/г2(< — т)Л, (4.1.20)
K(ja)=Ki(ja>)K2(j(o). (4.1.21)
Для составной линейной системы, содержащей два звена при
наличии отрицательной обратной связи (рис. 4.2, б), результиру-
ющая комплексная частотная характеристика равна
= (Я/[1+^г (j®)^2(jco)]. (4.1.22)
Если стационарная линейная система вещественная, то справед-
ливы равенства
l^(-j®)l = l^(j®)l, ср(-со)=-ср(со),
ReA?(— jco) = ReA^(jco), ImA?(—jco)= — ImA?(jco). (4.2.23)
Передаточная функция стационарной линейной системы пред-
ставляет собой преобразование Лапласа от импульсной харак-
теристики:
Н(р) = р7(т)ехр(— .рт)с1т, /> = a+jco. (4.1.24)
о
Комплексная частотная характеристика есть частный случай (при
а=0) передаточной функции. Для физически возможных устой-
чивых систем передаточную функцию можно заменять комп-
лексной частотной характеристикой. Система устойчива, если
192
функция //(/>) не имеет полюсов в правой полуплоскости
комплексной переменной р или на мнимой оси (т. е. при
полюсы отсутствуют). Верно и обратное утверждение: система
неустойчива, если функция Н(р] имеет хотя бы один полюс
в правой полуплоскости комплексной переменной р или на
мнимой оси.
Для описания моделей дискретных линейных систем (их
выходных процессов) можно воспользоваться различными фор-
мальными аналогами выражений (4) и (13). При этом следует
иметь в виду, что если от непрерывных моделей можно
осуществить переход к дискретным (§ 3.10), то обратный переход
в общем случае невозможен. Дискретные динамические модели
важны сами по себе, вне связи с непрерывными. Во многих
задачах не возникает вопроса о попытке связать дискретную
модель с подразумеваемой непрерывной моделью, потому что
такой непрерывной модели в общем случае не существует
и можно указать такую связь лишь в частных случаях (например,
при ступенчатом входном воздействии1 *). Это следует хотя бы
из того, что через заданные выборки (точки) непрерывного
процесса, сколь бы часто они ни были взяты, можно провести
много кривых, совсем не принадлежащих к какому-либо опре-
деленному классу.
Обозначим значения процесса в равноотстоящие моменты
времени /. г —Д, г —2Д, ..., где Д — постоянный шаг дискретизации
по времени, через _.2, ... Введем два оператора:
оператор 5 сдвига назад и разностный оператор V со сдвигом
назад:
= VCI = ^~^-1=(l-3)^, = (4.1.25)
Тогда в качестве формального аналога линейного дифференциаль-
ного уравнения (4) можно указать линейное разностное уравнение
(l+aiV+ ... +apVp)rlt = (p0 + p1V+ ... +РЛ4)^ (4.1.26)
В прикладных задачах используют частные случаи этого
уравнения и наиболее часто рассматривают четыре типа диск-
ретных линейных моделей: авторегрессии, скользящего среднего,
авторегрессии со скользящим средним и авторегрессии с проин-
тегрированным скользящим средним. Приведем их определения.
Во всех этих моделях в качестве входного воздействия £, берется
дискретный БГШ nv (последовательность независимых случайных
величин с нулевым м. о. и одинаковой дисперсией D).
В модели авторегрессии порядка v текущее значение процесса
выражается как конечная линейная сумма предыдущих значений
процесса и значения дискретного БГШ:
1 Бокс Дж., Дженкинс Г. Анализ временных рядов, прогноз и управление.
Т. 1, 2: Пер. с англ./Под ред. В. Ф. Писаренко,- М.: Мир, 1974.
193
7—2247
nt=<‘in(-i + <‘2nt-2 + - + Gnt-v + «I> (4.1.27)
где f),_j =(r|,_f —/и) — центрированное значение процесса. Эта
модель содержит v + 2 параметра: т и D. На практике
часто используют процессы авторегрессии первого (v=l) и второ-
го (v = 2) порядков.
Название модели оправдано тем, что если в левой и правой
частях уравнения регрессии (1.3.41) фигурируют разные величины,
то в (27) г| регрессирует на своих предшествующих значениях.
В модели скользящего среднего порядка ц текущее значение
fjt линейно зависит от предыдущих значений дискретного БГШ:
т), =л,+61л,_1 + ... + 6цл,_р. (4.1.28)
Эта модель определяется ц+2 параметрами: bk, ..., т и D.
Укажем, что модели (27) и (28) можно трактовать как
выходной процесс дискретного линейного фильтра. В самом
деле, если выходной процесс одноканального непрерывного
физически возможного линейного фильтра с постоянными па-
раметрами при воздействии БГШ л(/) и нулевых начальных
условиях можно представить интегралом свертки
ц(г)= |А(т)л(/ —т)(/т,
о
то выходной сигнал дискретного фильтра при воздействии
дискретного БГШ nv можно формально представить в виде
бесконечного ряда
00
Z hknt_k, (4.1.29)
k = 0
где hv — некоторые весовые коэффициенты. Этот ряд может быть
конечным Или бесконечным. Условие устойчивости (14) теперь
принимает вид
00
£|/М<оо. (4.1.30)
к = 0
Если веса hk линейного фильтра (29) равны нулю при k > v,
то сразу приходим к модели (28). От модели (27) к (29) можно
перейти следующим путем. Исключим р,-! из правой части
(27) подстановкой
Пг-1 = - 2 + сзВ(- з + - + <УП,-У+л,- г
Аналогичным образом можно исключить р,_2 и т. д.; в результате
получим ряд из nv вида (29). При этом можно установить
взаимосвязь между процессами авторегрессии и скользящего
среднего.
Обобщением указанных двух моделей (авторегрессии и сколь-
зящего среднего) является смешанный процесс авторегрессии —
194
скользящего среднего порядка (v, у), задаваемый линейным раз-
ностным уравнением
Hj = ciHj-i + ••• + rv'nt-v + ,1t + blnt_ j +... + ЬрПг~ц. (4.1.31)
Смешанный процесс авторегрессии—скользящего среднего можно
интерпретировать как выходной процесс дискретного линейного
фильтра, передаточная функция которого есть отношение двух
полиномов, когда на вход подается дискретный БГШ.
Более общим является процесс авторегрессии—проинтегриро-
ванного скользящего среднего порядка (v, X, ц), в котором авторег-
рессионная составляющая задается не относительно самого про-
цесса, а относительно степеней приращений, т. е.
= + • + cvQ_v + «v + /?i/zt_i + + (4.1.32)
где
^=V4, =(1-5)4.
Если в (32) положить Х = 0 и заменить на щ = т, то
получим модель (31), а также модели авторегрессии (27) и сколь-
зящего среднего (28).
Модели многоканальных непрерывных линейных систем
(см. рис. 4.1) описываются системой линейных дифференциальных
уравнений вида (4), (6) или же матрицей импульсных харак-
теристик {/?;7(0}-. /=1,и, /=1,т, между z-м входом и /-м
выходом. Модели многоканальных дискретных линейных систем
могут быть заданы системой линейных разностных уравнений
вида (27), (28), (31), (32).
Переходя к нелинейным системам, которые подлежат
рассмотрению, выделим модели двух классов: безынерционные
и инерционные. Безынерционные системы описываются опе-
раторами вида
П(г)=тр4)]=£(ад, (4.1.33)
где g(x)—детерминированная в общем случае нелинейная фун-
кция аргумента х. На практике часто применяются три вида
аппроксимации нелинейных характеристик g(x): полиномом, ло-
маной линией (кусочно-разрывная аппроксимация) и трансцен-
дентными функциями. Каждый из этих видов имеет свою область
применения, а также свои преимущества и недостатки. Часто
требования точности аппроксимации и простоты аналитического
выражения оказываются противоречивыми и не всегда согласу-
ются между собой.
Нелинейные безынерционные преобразования сл. пр. по су-
ществу были рассмотрены в § 1.5.
Математические модели детерминированных инерционных не-
линейных систем обычно задаются нелинейными дифференци-
альными уравнениями, например, вида
195
г|'(О=/М n(l))+g(z, n(0’ £(z))’ n(0) = nO’ (4.1.34)
где /(•) и g(-) — заданные детерминированные функции, определя-
емые параметрами системы.
Известно, что характер решения нелинейного дифференци-
ального уравнения зависит от его вида, формы внешнего
воздействия и начальных условий, причем невозможно в общем
случае записать решение в квадратурах (даже при Д/) = 0).
В этом состоит существенное отличие нелинейных инерционных
преобразований сл. пр. от безынерционных и линейных, для
которых выходной процесс аналитически выражается через вход-
ной. Для нелинейных инерционных преобразований не существует
рецептурных методов решения и каждую задачу приходится
рассматривать самостоятельно.
Помимо нелинейных дифференциальных уравнений в последнее
время используется частный метод задания моделей нелинейных
систем с помощью функциональных рядов Вольтерра', имеющих
вид
n(/) = Mz) + Z.f-Mi(?’ Ti’ •••’ (4.1.35)
i
Применительно к дифференциальному уравнению (34) такое
представление возможно, когда функцию f(t, т|(0) относительно
т] можно аппроксимировать рядом Тейлора, а функция g не
зависит от т|(/).
Для систем с постоянными параметрами ряд Вольтерра имеет
более простой вид
n(0 = /7o + ELJMTi, И, Ti)^(t-T1)...^(t~ri)dT1...dTi = h0 +
i — со
+ J Mn)Mz-Ti)+ИМп-+
— 00 — со
(4.1.36)
Функции т;) называются ядрами Вольтерра данной
системы.
Первый член /г0 в правой части (36) можно трактовать
как постоянную составляющую выходного сигнала или как
заданное начальное значение, поскольку тДг) = h0 при <Д/) = 0.
Второе слагаемое представляет собой выходной сигнал ста-
ционарной линейной системы с импульсной характеристикой
Третий член
со
Лг(О = П M(Ti,
1 Шетсен М. Моделирование нелинейных систем на основе теории Вине-
ра//ТИИЭР.—1981.-Т. 69, № 12.-С. 44—62.
196
t>(t)
Рис. 4.3. Простая квадратичная система
есть двумерная свертка входного воздействия ^(/) и импульсной
характеристики h2(r1, т2). Простейший пример такой системы
приведен на рис. 4.3. В данном случае Л2(ti, т2) =/г (тх)А(т2)-
Поэтому третье слагаемое в правой части (36) можно рассмат-
ривать как выходной сигнал, получающийся на выходе квад-
ратичной ветви системы. Следующий, четвертый член представ-
ляет собой составляющую выходного сигнала на выходе кубичес-
кой ветви системы и т. д.
Таким образом, если заданную нелинейную систему с конечной
памятью можно описать рядом Вольтерра (36), то систему
можно моделировать функциональной схемой рис. 4.4.
Напомним, что при анализе преобразований сл. пр. линейны-
ми и нелинейными системами задача ставится так: предполагая
известными параметры математической модели системы (т. е.
конкретный вид оператора Т) и вероятностные характеристики
входного процесса ^(?), требуется найти необходимые вероятност-
ные характеристики выходного процесса ц(/). Те характеристики
выходного процесса Т|(/), которые нужно находить, определяют-
ся физическим содержанием конкретной задачи, и в частности
тем устройством, на которое воздействует случайный процесс
%(z). Обычно интересуются моментами (чаще всего м. о. и кор-
Нелинейная система с
памятью
Рис. 4.4. Нелинейная инерционная система (о) и ее представление рядом Вольтерра
(б)
197
реляционной функцией) или же плотностями вероятности (чаще
всего одномерной и двумерной) выходного процесса т|(/).
В данной главе будут изложены преобразования случайных
процессов детерминированными линейными системами.
4.2. ПРЕОБРАЗОВАНИЕ СЛУЧАЙНЫХ
ПРОЦЕССОВ НЕПРЕРЫВНЫМИ СИСТЕМАМИ
4.2.1. ОДНОКАНАЛЬНЫЕ СИСТЕМЫ
В практических приложениях при рассмотрении преобразова-
ний сл. пр. линейными одноканальными системами могут встре-
титься разнообразные задачи. Однако можно сформулировать
следующую, достаточно общую задачу анализа. Пусть на вход
линейной системы с заданной импульсной характеристикой h(t)
воздействует сл. пр. ^(г) с известными п.в. ..., /15..., tk).
Требуется найти п. в. pn(r|i, •••> Bi! I сл- ПР- на выходе
линейной системы.
В общем виде не существует прямого метода, который бы
позволял находить непосредственно п. в. для процесса т|(Г) на
выходе линейной системы по заданным п. в. процесса £(/) на
входе. Здесь исключение составляют гауссовские и марковские
процессы £(/), а также некоторые частные примеры.
Сформулированную задачу приходится решать следующим
образом. По заданным п. в. дД-) вычисляют моментные или
корреляционные (кумулянтные) функции процесса <^(Г)- По мо-
ментным или корреляционным (кумулянтным) функциям входного
процесса ^(1) можно найти моментные или корреляционные
(кумулянтные) функции процесса т|(г) на выходе системы. Опре-
делив их, записывают в виде ряда характеристические функции
и затем находят соответствующие п. в. рГ[ (см. рис. 1.4).
Применительно к гауссовским процессам £(/) решение задачи
упрощается на том основании, что при линейном преобразовании
гауссовского процесса он остается гауссовским. Поскольку га-
уссовский процесс полностью определяется м. о. и корреляцион-
ной функцией, то для нахождения п. в. процесса т|(Г) достаточно
вычислить его м. о. и корреляционную функцию. Если выходной
процесс ц(?) является марковским, то п. в. рц в принципе можно
получить из решения соответствующего уравнения ФПК.
Установим теперь правила пересчета моментных и корреляци-
онных функций. Пусть на вход стационарной физически воз-
можной линейной системы, начиная с момента t0 — 0, воздействует
сл. пр. (сигнал) ^(Г), причем начальные условия нулевые. Тогда
выходной сл. пр. (сигнал) т|(г) определяется интегралом свертки
г|(г) = J h(t — u)^(u)du —^h(u)^(t — u)du. (4.2.1)
о о
198
Разобьем интервал интегрирования [0, t ] на т подынтервалов
длительностью Awv и обозначим средние точки подынтервалов
через uv (и1<и2<...<ит). Тогда интеграл можно представить
в виде суммы
т т
п(0~ Е h(t~uv)^(uv)Auv = Yh(uv)£,(t-uv)&uv. (4.2.2)
v=1 v=1
Известно, что м. о. суммы сл. в. равно сумме м. о. отдельных
слагаемых. Поэтому
п т
M(p(z)}» £/i(z-wv)M{£(wv)}Awv= £ h(uv)M{^(t-uv)}Auv.
V~ 1 V=1
Теперь в этом соотношении фигурируют обычные (детермини-
рованные) функции. Поэтому при выполнении известных условий
непрерывности функций и Awv->0 это приближенное равенство
перейдет в точное, а сумма справа — в интеграл. Таким образом
получим окончательную формулу для м. о.
«7п(/) = М{г|(/)} = J h(t—=
о
= — u)}du. (4.2.3)
о
Эта формула показывает, что операции взятия м. о. и инте-
грирования можно менять местами. Этим результатом восполь-
зуемся в дальнейшем.
Запишем выражение (1) для нескольких моментов времени
/15 t2, t„, перемножим левые и правые части полученных
равенств и результат вероятностно осредним. Поменяв затем
местами операции интегрирования и взятия м. о., получим
выражение для л-мерной начальной моментной функции выход-
ного процесса
*1 1п
М{п('1)п(*2)-п('„)} = -h(un) X
о о
х M{is(t1-ul)^(t2-u2)...is(t„-u„)}du1du2...du„. (4.2.4)
При tl = t2 = ... = tn = t отсюда следует формула для одномерных
начальных моментов
M{r]"(z)} = J...J/z(w1).../?(w„)M{^(/-Wi)...^(z-w„)}fi?Ui...t/w„, (4.2.5)
о о
а при и =2 — формула для ковариационной функции
'1 ‘2
м{п(П)пО = f jh(ul)h(u2)M{^(tl-ul)^(t2-u2)}du1du2
о о
199
или
flr2
?г)— f f— «i, г2~мг) durdu2. (4.2.6)
О О
Аналогичным путем получается выражение для (т +л)-мерной
взаимной моментной функции между входным ^(t) и выходным
г)(?) процессами:
'1 '»
М{^Г1)...^(/;п)р(/1)...г|(/„)}= J...JЛ(М1)...Л(ип) х
О о
X (4.2.7)
В частности, взаимная ковариационная функция между входным
£,(?') и выходным гЦ?) процессами определяется формулой
Л^П(Г, f) = М{^(/')г|(г)} = f-u)}du =
t о
t — u)du. (4.2.8)
b
Нетрудно получить формулы для центральных моментных
функций. Для этого вычтем из (1) выражение (3) и обозначим
центрированные функции нулевым индексом:
t I
г|0(/) = {/?(/ —м)£,0(н)б?м = J/z(w)£,0(r — и) du.
о о
Повторив приведенные выше рассуждения, нетрудно убедиться,
что формулы (4), (5) й (7) останутся в силе, только теперь
в них нужно подставить соответствующие центрированные фун-
кции. Запишем формулы для корреляционной R^tr, t2) и взаимной
корреляционной R^(t', t) функций:
'1 '2
?z)= J j h(tx — Ui)h(t2-u^R^Ui, u2)duldu2 =
о о
fl <2
= J f h(ul)h(u2)Rii(t1 — w1? t2 — u2)duldu2, (4.2.9)
b O
R^(t', z) =Jh(t — u)R^(t', u)du=$ h(u)R^t', t — u}du. (4.2.10)
о о
Из (9) при tx = t2 = t получаем выражение для дисперсии
I t
f h(t~u^h(t—w2)/f^(w15 u2)du1du2 =
о b
t t
=^ii(U])h(u1)R^t-ul, t — u^duydu^ (4.2.11)
о 0
200
Рис. 4.5. Реализации случайных процессов на входе и выходе системы
Из формулы (5) видно, что одномерный момент п-го
порядка сл. пр. на выходе линейной системы выражается
через и-мерный момент сл. пр. на входе системы. Поэтому
если для процесса р (Г) нужно найти приближенное выражение
одномерной п. в. (с учетом лишь первых п кумулянтов),
то должны быть известны все корреляционные или моментные
функции процесса £,(/) до п -мерной. Если процесс задан
п. в., то необходимо знать и-мерную п. в., по которой можно
найти эти корреляционные или моментные функции. Разумеется,
что процесс вычисления и-кратных интегралов вида (5) является
весьма трудоемким и сложным. В этом и состоит основная
трудность решения задач о преобразовании п. в. инерционными
линейными системами. Формулы, аналогичные (4) ...(И), можно
написать и для нестационарных линейных систем, подставив
в них Л (Г, г) вместо h(l).
До сих пор на входной процесс £,(/) не налагалось никаких
ограничений, в частности он мог быть нестационарным (рис. 4.5).
Естественно, что при этом выходной процесс г|(/) будет также
нестационарным. Сделаем теперь последовательно два упроща-
ющих предположения.
1. Допустим, что входной процесс £,(/) стационарен в широком
смысле, т. е.
=М{£,(/)} = const, Aj/j,/2)=т = г2 —(4.2.12)
Применительно к стационарным входным процессам некоторые
из предыдущих формул несколько упрощаются. Так, формулы
(3), (9)...(11) принимают соответственно вид
= h(u)du, (4.2.13)
о
201
'1 ‘2
ЯДЧ, Ц)=.( h(ui)h(u2)R^t2-ti~u2-\-ul)du1du2, (4.2.14)
о о
Z?&n(z', t)—^h(u)R^t—t' — u)du, (4.2.15)
b
Т>я(г) = | h(ut)h(u2)R^{n} ~u2)dux du2. (4.2.16)
о b
Из этих формул видно, что хотя входной процесс £(Г)
стационарен в широком смысле, выходной процесс r\(t) будет
нестационарным. С качественной точки зрения здесь имеется
полная аналогия со случаем воздействия детерминированных
сигналов на линейные системы. Если входной сигнал начинает
действовать в момент времени Zo = 0, то при нулевых начальных
условиях стационарный режим работы системы достигается
асимптотически при t ->со. Однако в инженерной практике принято
говорить о конечной длительности переходных процессов, после
«завершения» которых состояние практически можно считать
стационарным. Целесообразно аналогичным образом поступить
и в рассматриваемых задачах. Если, например, процесс <Цг) можно
трактовать как стационарный в широком смысле через время
(рис. 4.5), то выходной процесс т|(t) может рассматриваться как
стационарный в том же смысле только через большее время тл > т^.
2. В случае линейных пассивных систем с затуханием по
истечении достаточно большого времени тп от момента го = 0
случайный процесс т](Ц будет приближаться к стационарному
в широком смысле. Действительно, полагая в формуле (13)
t со, получаем
00
= = f h(u)du = т^()ю)|ю=0, (4.2.17)
о
т. е. м. о. не зависит от времени.
Чтобы получить выражение для корреляционной функции,
обозначим t2 — Д=т и перейдем в (14) к пределу при t1^co.
Тогда получим окончательную формулу для корреляционной
функции процесса r|(z) в стационарном состоянии:
GO GO
/Цт) = f J h (u^h^u^R^T + и1 — u2)duy du2 =
о о
= ^h(u)du J h(r + u — v)R^(v)dv. (4.2.18)
о о -
Убеждаемся, что корреляционная функция процесса т| (г) зависит
только от разности временных аргументов T~t2 — tr.
Следовательно, выходной процесс т|(г) асимптотически (при
г->со) становится стационарным в широком смысле. В инженер-
202
ной практике процесс v\(t) обычно трактуется как стационарный
через некоторый конечный интервал времени тп, определяемый
длительностью переходных процессов в системе.
Формула (18) позволяет получить простое соотношение между
спектральными плотностями 5л(ю) и 5^(ю) для выходного р(?)
и входного <;(/) стационарных процессов. Действительно, беря
преобразование Фурье от обеих частей равенства (18), имеем
S' (®) = J 1?л(т)ехр(— jcor)r/r= j ехр[— jmr] dr х
— or — or
0Г 'X
x j J exp [ — j(»(r — w)] h (m )/i (c) R^t + и — a) exp [ —jro(w — в)] dudv.
о о
Меняя местами порядок интегрирования и учитывая формулу
(4.1.17), получаем
оо от ос
Sn(co)= [ехр(— j(f>v)h[v)dv j exp(j(ow)/?(u)rfw J exp[ —)<в(т + и —
О 0 - co
— v)]7?^(r+w — v)dt = jco) J exp(—
t. e.
5tl(®)=--S,(o))|^(jft>)|2. (4.2.19)
Следовательно, спектральная плотность процесса на выходе
стационарной линейной системы в стационарном режиме равна
спектральной плотности входного стационарного процесса, ум-
ноженной на квадрат амплитудно-частотной характеристики си-
стемы. Этот важный результат позволяет продуктивно исполь-
зовать спектральную плотность при расчетах случайных процессов
в линейных системах.
Формулы (16) и (15) при /-»оо принимают вид
= j [//(л,)/?(и2)/?!.(п1— г/2)г/г/] Jb'2, (4.2.20)
о о
/?-п(т)= | h(u)R^x — u }du, — 1 — (4.2.21)
о
На основании (17) и (21) можно сделать вывод, что если
входной процесс £,(?) стационарен в широком смысле, то процессы
Д/) и i)(Z) асимптотически (при /-->сс) являются стационарно
связанными в широком смысле.
Отмесим, что, зная общие правила «пересчета» вероятностных
характеристик сл. пр. через линейные системы и безынерционные
нелинейные устройства (1.5.9), можно производить расчеты раз-
личных. систем, составленных из последовательно соединенных
203
D„, т = 0,
0, т#0.
линейных и нелинейных безынерционных звеньев. Пусть, напри-
мер, интересующая нас система представляет собой последова-
тельное соединение линейного звена безынерционного элемен-
та и второй линейной системы £2. В данном случае резуль-
тирующий оператор имеет вид
n(z) = T^(/)] = L2[g(L,[^(/)])], (4.2.22)
где Lj и L2 —линейные операторы. При известном законе
преобразования сл. пр. линейными системами изучение оператора
(22) сводится к анализу безынерционных нелинейных преоб-
разований (1.5.9).
Примечание. На с. 98 был определен идеализированный
сл. пр. «(?) с бесконечной дисперсией, названный БГШ. Может
возникнуть вопрос: нельзя ли вместо такого процесса ввести
более «реальный» некоррелированный сл. пр. с конечной диспер-
сией Dn:
М {/?(/)} = О, М{и(ф(/ + т)} =
Корректно ввести и продуктивно использовать такой процесс
невозможно. При воздействии его на линейную систему выходной
процесс оказывается тождественно равным нулю:
т](/) = (h(r)n(t — т)й?т = 0.
о
Это следует из формул (13) и (16). В данном случае /Hn(?) = 0
и £>п(/) = 0, так как объем поверхности над линией равен нулю.
Пример 4.2.1. Осреднение стационарного процесса за конечный интервал времени.
Пусть ^(/) — стационарный в широком смысле случайный процесс с м. о. mt,
корреляционной функцией R, (т) = (т) и спектральной плотностью А, ((>>).
Образуем новый процесс
1+А
= J Ци)Л1, (4.2.23)
/ - д
получаемый в результате осреднения процесса Цг) за временной интервал
(/ — А, / + А). Такая операция при больших А встречается при измерении харак-
теристик случайных процессов, а при малых А — при сглаживании быстрых
изменений процесса и часто называется текущим (или скользящим) сглаживанием.
Найдем м. о. /ип, дисперсию корреляционную функцию Лч(т) и спектральную
плотность S (со) сглаженного процесса ц (/).
По известным правилам имеем
1+А
'",, = М{ц(г)}=~ j M{^(u)}du = m[>. (4.2.24)
1 -д
204
Вычтем из обеих частей равенства (23)'м. о. (24) и обозначим центрированные
величины нулевым индексом:
t -t- д
П°(') = 2^ j
t - д
По определению, записываем выражение для корреляционной функции
t + Д t + т + Д
ДДт) = М{г]о(')По(' + ^}=“^ J J R^u-v)dudv.
I - Д I + z-Д
Подставив сюда
Л^(и —и) = — j" 5Дш)ехр[j(i>(m--
- со
и поменяв порядок интегрирования, имеем
ос t + Д I + т + Д
(т)= 2~~4Д2 j SJcojt/co j ехр(—jow)di’ j exp(jcow)<A/.
-oo t ~ A I + т - Д
Выполнив интегрирование, получим
2
exp(jcoT)dco.
(4.2.25)
Отсюда непосредственно следует, что
.S’n (ш) = -S', (со) (sin Аш/Аш)2.
Так как функция sin Дш/Дсо сконцентрирована в окрестности малых значений
Лео, то операция текущего сглаживания (23) действительно подавляет высоко-
частотные составляющие спектра 5\(<в), т. е. устраняет быстрые изменения, 1если
они были в процессе (;(?)•
Из сравнения формул (1) и (23) следует, что операцию текущего сглаживания
можно рассматривать как пропускание процесса E,(t) через линейную систему
с прямоугольной импульсной характеристикой
[1/2Д, |/|<Д,
Комплексная частотная характеристика такой системы
л
,. , If , sin Аш
к U® = exp(-ja>r)rft=——.
2Д J Дш
л
Подставив в формулу (25)
5=(со)= f Rt (т')ехр(— )шт')<Ут',
205
поменяв местами порядок интегрирования и выполнив вычисления, получим
формулу для корреляционной функции
2 Л
^(t) = 2Z J (4.2.26)
-2Д
Отсюда при т — 0 находим дисперсию
2Д
дп=^(°)=7д j
2Л
(4.2.27)
Следовательно, для вычисления дисперсии скользящего временного среднего
значения стационарного в широком смысле случайного процесса необходимо
знать его корреляционную функцию.
Часто формула (27) используется в несколько ином виде. Если вместо (23)
рассматривать процесс
I т
Пг(') = у. J = (4.2.28)
t-т о
то дисперсия его равна
т т
, . 2 Г/ т \ , ч 2D. С f т \ .
Д1 --^(т)</т=—J (j --^(т)Л.
о о
(4.2.29)
Эта формула является основной при формулировке различных эргодических
теорем. При этом главный интерес представляет установление условий, при
которых выполняется предельное соотношение
lim Р (Г) = 0.
Г—*оо
Пример 4.2.2. Воздействие белого шума иа интегрирующую цепь RC. Пусть
на интегрирующую цепь RC (рис. 4.6) с момента времени /(| = 0 воздействует
напряжение белого гауссовского шума n{t) с нулевым м. о. и корреляционной
функцией
Я„(Г„ 72) = GV/2)S(/2-?1).
Рис. 4.6. Воздействие белого шума на цепь RC
206
Найдем м. о. и корреляционную функцию для напряжения т|(?) на емкости С.
Напряжение р (/) определяется линейным дифференциальным уравнением
rfr]/rf/4 «1] = ал (/), а=1/ЛС,
общее решение которого при начальном условии Г](0) = Г]о дается выражением
Т| (r) = T|oexp(-a/)+aexp(-a/) J exp (a//)n (u)du. (4.2.30)
о
Относительно характера начального условия возможны два случая: 1) началь-
ное условие является неслучайным (детерминированным) и 2) начальное условие
является случайным; в последнем случае для решения задачи необходимо указать
п. в. Ро(По) ‘-’Л. в. Т|0-
Предположим пока, что начальное напряжение ц(| неслучайное, т. е.
р0(т]) = 5(т] — т]0). Очевидно, что процесс г](/) является гауссовским и для его
описания достаточно вычислить м. о. и корреляционную функцию.
Из решения (30) находим м. о.
%(НПо)=М{т|(г)|г|0} = г|0ехр(-аО-
Для корреляционной функции, по определению, имеем
/2) = М{[п(н)-тп(г1)][г1(/2)-т,1(0)]} =
г г
= —у-ехр[—а(/]+/2)] exp [a(//j +w2)]3(i/2 —1/1 }dux du2.
о о
Выполнив интегрирование с дельта-функцией, найдем
Лл(/, / + r) = (a/4)Wexp( —а|т|)[1 —ехр( —2a/)]. (4.2.31)
Отсюда при т = 0 получаем выражение для дисперсии
£>п (/) = (a/4)./V[l — схр( —2a/)]. (4.2.32)
Формулы для стационарного состояния (/->оо) имеют вид
Ал(т) = Рпехр(-а|т|), Z)n = aN/4. (4.2.33)
Рассмотрим теперь второй случай, когда не зависящее от п (/) начальное
значение Г]о является случайным с заданным распределением р0 (г]0), имеющим
м. о. т0 и дисперсию Do.
Решение (30) можно представить в виде двух слагаемых (независимых процессов):
11(') = 'П1(0 + П2(0, Д1 (0 = Поехр]-а/), т|2(/) = аехр(-а/) ]ехр(аи)л(п)Л.
о
Процесс Т]1(О имеет распределение (ц1) = ехр(а/)/?0(ехр(а/)т|1) с м. о. (/)
и дисперсией D1 (/):
(/) = moexp( —a/), Dt (/) = £>оехр( —2а/).
Процесс Г]2(/) является гауссовским с нулевым м. о. и дисперсией (32).
Воспользовавшись правилом композиции распределений, можно найти п. в.
процесса т] (/). Заметим, что т](/)->0, £>1(/)-»0 и, следовательно, Г]1(/)-»0 при
207
t-tco. Поэтому начальное условие не влияет на стационарную п. в. сл. пр. т| (t),
которая определяется ц2(г) при и будет нормальной.
Этот результат носит общий характер: стационарная п. в.
процесса на выходе любой линейной системы с потерями
(«конечной памятью») не зависит ст начальных условий.
4.2.2. МНОГОКАНАЛЬНЫЕ СИСТЕМЫ
Анализ сл. пр. в многоканальных линейных системах сводится
к определению моментных (кумулянтных) функций или п. в.
процесса на выходе одного из выходов или же к определению
смешанных моментов или совместных п. в. процессов на выходе
нескольких выходов. Принципиальные возможности решения этих
задач те же, что и для одноканальных систем. Однако вычисления
для многоканальных систем более громоздки и трудоемки.
В этом легко убедиться на примере вычисления взаимных
ковариационных функций.
Пусть £,V(Z)—сл. пр. на v-м входе (рис. 4.1) и hvj(t) — им-
пульсная характеристика между v-м входом и j-м выходом.
Тогда результирующий процесс на у'-м выходе равен
П2(П = i f (4.2.34)
v= 1 О
Отсюда для взаимной ковариационной функции между процессами
на z-м и у-м выходах получаем
П Ч
/2) = М{т|1.(г1)т|7(/2)}= £ HMTJMTV)X
В, v= 1 о о
X /2-tv)zZvZtv. (4.2.35)
Такое же соотношение сохранится для взаимных корреляци-
онных функций, если рассматривать центрированные входные
процессы ^v(0- В том случае, когда входные процессы некор-
релированны в совокупности, т. е. J?MV(/1, /2) = 0 при p^v, вза-
имная корреляционная функция определяется выражением
£,7(W2) = Е r2-Tv)zZTpzZTv.
в= 1
В противоположном крайнем случае, когда на все п входов
воздействует один и тот же процесс ^(Г) с корреляционной
функцией R^(tr, t2), из (35) получим
Л *1 *2
Rijih, G) = £ f t2 — xv)dx1dx2.
n, v= 1 0 0
В качестве конкретного примера рассмотрим линейную си-
стему с одним входом и двумя выходами (рис. 4.7), на которую
208
воздействует стационарный в широ-
ком смысле вещественный сл. пр. £,(/)
с нулевым м. о., корреляционной фун-
кцией R^(x) и спектральной плотно-
стью S> (го). Пусть A'j (jco) и Z<2 (jco) —
комплексные частотные характеристи-
ки линейных каналов.
Взаимная корреляционная функция
между выходными процессами равна
Рис. 4.7. Двухканальная линей-
ная система
Л12(Н, t2)=H hdui)h2(u2)Rk(t2-ti+u1-u2)du1du2. (4.2.36)
о о
Если ограничиться рассмотрением стационарных выходных
процессов, то, переходя к новой переменной ^ = t2 — t1 и затем
к пределу при Zj-юо, получаем
Ri2^)= J j th (ut)h2(u2)Ri(r + ut-ii2)du1du2
о о
(4.2.37)
Если здесь перейти по формуле (2.5.23) от корреляционной
функции Rf (r) к спектральной плотности .З'Дго) и затем учесть
соотношение (4.1.17), то после простых преобразований имеем
(со)К? (jro)X2 (jco) ехр (jcox) cZco,
(4.2.38)
где КХ (jro) = Xi(-j(D).
Подставим комплексные частотные характеристики в виде
(jco) = | (jco) | ехр [jcp,-(со)] = К{(го)ехр [jcp;(со)], i = 1, 2.
Для вещественных процессов спектральная плотность (со)
и амплитудно-частотные характеристики А)(со) — четные функции,
а фазочастотная характеристика ср; (го) — нечетная. Поэтому вы-
ражение (37) можно записать иначе:
Л12(т) = -
л
S\(ro)Xi (со)Л2(со)cos [сот + ср2(со) — (Pj (со)]с/cd.
(4.2.39)
— оо
Нормированная взаимная корреляционная функция равна
ОО
Р12 (т) =
1
л\/ -^1
ЗДсо)/^! (го)Х2 (co)cos [сот + ф1 (со) —<р2 (со)]с/ю,
о
(4.2.40)
где D, и D2—дисперсии процессов р, (/) и r|2(z):
209
Df =- S(co) Фо, 7=1, 2.
4/
0
Отсюда видно, что стационарные случайные процессы на
выходе линейных систем с неперекрывающимися амплитудно-
частотными характеристиками всегда некоррелированны, а в слу-
чае совместно гауссовских процессов и независимы.
Пример 4.2.3. Взаимная корреляция для двух расстроенных контуров. Рассмот-
рим конкретный пример. Пусть на два расстроенных друг относительно друга
колебательных контура воздействует БГШ со спектральной плотностью
Х'г (ш) = Л'/2. Принимая максимальное усиление равным единице, комплексные
частотные характеристики контуров можно записать в виде
X2(.j<o) =
1 + )<2
<0
<ооТ A<u
ш0 +Аи
М.)«) =
где <о0/2ге- -резонансная частота первого контура; Q добротность контура; Лаг-
расстройка по частоте второго контура относительно первого.
Примем, что контуры являются узкополосными и расстройка невелика:
A<o1<scci)o, Аш«о)0, где A/=Ao)1/2n = o)o/2nQ - ширина полосы контура по уровню
половинной мощности.
Выполнив вычисления по формуле (40), получим
р12(т) =
expl — -Аш|т| icos(w0r + <p), Dt = D2=~NAf
|дс ip =arclg(Aw/A<i))). Отсюда видно, что «огибающая» нормированной взаимной
корреляционной функции уменьшается с увеличением т и Аш и в пределе
стремится к нулю. В частности, при г = 0
р12(0)= 1 ^(Асп/Ао),)2.
4.3. КВАЗИОПТИМАЛЬНЫЕ ЛИНЕЙНЫЕ
ФИЛЬТРЫ
Предположим, что имеется сумма детерминированного сиг-
нала x(z) конечной длительности ти и БГШ n(t) с известной
односторонней спектральной плотностью N:
^(t) = s{t) + n(t), (4.3.1)
Такая сумма воздействует на вход линейного фильтра с комп-
лексной частотной характеристикой А'О®) или импульсной харак-
теристикой /?(/). Нас интересует, при каких условиях отношение
наибольшего пика сигнала к среднеквадратическому значению
шума на выходе фильтра достигает наибольшего значения. Для
краткости назовем это отношение пиковым отношением сигнал-
210
шум. Необходимость решения таких задач возникает при об-
наружении сигнала на фоне шума, когда не требуется точное
воспроизведение сигнала, а нужно лишь зафиксировать сам факт
наличия или отсутствия сигнала s(t) на интервале времени [0, 7’].
Сформулированную задачу можно решать в двух, несколько
отличных постановках:
1) линейный фильтр задан и максимизация пикового отноше-
ния сигнал-шум достигается лишь подбором отдельных парамет-
ров фильтра; назовем такие фильтры квазиоптимальными;
2) сразу отыскивается линейный фильтр (т. е. функции К(уо)
или который обеспечивает получение наибольшего воз-
можного в условиях задачи пикового отношения сигнал-шум.
Будем называть такие фильтры согласованными.
Сформулированные две задачи допускают многочисленные
обобщения, в частности шум n(t) может быть не белым,
а стационарным гауссовским процессом с известной корреляци-
онной функцией (§ 4.4). Проиллюстрируем методику решения
первой задачи на частных примерах.
Пример 4.3.1. Воздействие видеоимпульса и белого шума на
интегрирующую цепь RC. Пусть на интегрирующую цепь RC
воздействует напряжение, представляющее собой сумму (1) белого
шума п(?) и детерминированного сигнального видеоимпульса
у (О прямоугольной формы с амплитудой Ло и длительностью
ти (рис. 4.8). Начальное напряжение на конденсаторе полагаем
равным нулю. Найдем отношение сигнал-шум (отношение ам-
плитуды сигнала к среднеквадратическому значению шума) на
выходе цепи RC в конце видеоимпульса в двух случаях: 1) цепь
RC включена всегда; 2) осуществляется стробирование импульса,
что можно интерпретировать как подключение цепи RC к ис-
точнику напряжения £(/) на время А + ти, т. е. в момент времени
t' = t0 — А, где t0 — момент появления видеоимпульса (рис. 4.8, а).
Рассмотрим первый случай, когда шум воздействует на цепь
задолго до момента t0 появления видеоимпульса. Очевидно, что
наибольшее отношение сигнал-шум получается в конце импульса,
причем напряжение сигнала на конденсаторе равно
у(ти) = Я0 [1 —ехр( —ати)], <х=1/ЛС. (4.3.2)
Рис. 4.8. Воздействие прямоугольного видеоимпульса и белого шума на цепь RC
211
Рис. 4.9. Зависимость пикового отно-
шения сигнал-шум на выходе интег-
рирующей цепи RC при стробирова-
нии и без стробирования (v=oo)
Рис. 4.10. Соотношения между спект-
ральными плотностями при опти-
мальной полосе цепи RC
Дисперсия напряжения шума n(t) на конденсаторе в данном
случае определяется формулой (4.2.33):
.д; = а2 = а7У/4. (4.3.3)
Поэтому отношение сигнал-шум равно
s (Ч )/ня=лДAI /aN [ 1 - exp (- ати)] = y/lEjN р (ати),
р(ати) = ч/2/ат^[1 — ехр( —ати)], (4.3.4)
где £'=ЛоТи—энергия видеоимпульса.
График функции р(ати) приведен на рис. 4.9 (кривая, соот-
ветствующая v = oo). Из него находим оптимальное значение
безразмерного параметра ати, при котором пиковое отношение
сигнал-шум достигает максимального значения:
Ртах-0,9 при ати«1,25. (4.3.5)
Учитывая, что полоса пропускания цепи RC на уровне 0,5 по
мощности равна А/=а/2л:, находим оптимальную полосу про-
пускания Д/о « 0,2/ти.
Таким образом, при воздействии на вход интегрирующей
цепи RC суммы прямоугольного видеоимпульса и белого шума
на выходе цепи будет получено пиковое отношение сигнал-шум,
приблизительно равное 0,9х/2£'/У, если выбрать полосу пропуска-
ния Л/о«а0,2/ти.
Качественно наличие оптимальной полосы пропускания легко
понять из рассмотрения рис. 4.10, на котором изображены
212
спектры входного сигнала |S'(jco)|2 и шума N/2, а также квадрат
амплитудно-частотной характеристики
|A7(jco)|2 = [1 + (co/а)2] ’1.
Амплитудно-частотная характеристика при оптимальной по-
лосе пропускания обеспечивает большое «усиление» наиболее
интенсивных участков спектра сигнала и рациональное ослабление
слабых его участков; в противном случае вместе со слабыми
спектральными составляющими сигнала через цепь проходили
бы интенсивные шумы. Естественно, что при этом форма сигнала
на выходе искажается. Однако это не имеет значения, так как
задача фильтра в данном случае состоит не в точном воспро-
изведении сигнала, а в получении наибольшего пикового от-
ношения сигнал-шум.
Рассмотрим второй случай, когда осуществляется стробирова-
ние импульса с некоторым упреждением А (рис. 4.8), причем
длительность строба равна тс = А + ти = (1 + v)t„, где v = A/t„.
В данном случае напряжение сигнала на конденсаторе в конце
импульса по-прежнему определяется выражением (2), а дисперсия
шума находится по формуле (4.2.32):
ст2(д + ти) = ^2[1~ехр(-2а(А + 1:и))] =
= (a7V/4)[l —ехр( —2ати(1 4-v))], (4.3.6)
где a2 = ooV/4~-дисперсия напряжения шума в стационарном
состоянии. Поэтому отношение сигнал-шум равно
=1°_____'-ехР(-ат")___= /Ир (ат ) (4 3 7)
аДА + Ти) и [1 —ехр ( —2ати(1 + v))]1/2 [ >
где
Pv (ати)=[1 - ехр (- ати)] [1 - ехр(- 2ати (1 + v))] ~1/2 =
= р (ати) [1 -ехр (-2ати (1 + v))] “1/2. (4.3.8)
Графики функции pv(orc„) для шести значений v приведены на
рис. 4.9.
Допустим, что осуществляется идеальное стробирование
(A = v = 0). Если постоянная времени RC достаточно велика, так
что выполняется неравенство мти<< 1, то, применяя приближенные
равенства ехр( — ах)« 1 — х, ^/1 +х« 1 +х/2. из формулы (7) по-
лучаем
5(t„)/g,;(t„) = VW/. (4.3.9)
Таким образом, при выполнении условия ати<§:1, обеспе-
чивающего хорошее интегрирование в течение длительности
213
импульса, пиковое отношение сигнал-шум определяется только
отношением удвоенной энергии сигнала к спектральной ин-
тенсивности шума и ’не зависит порознь от амплитуды и дли-
тельности импульса. Этот результат имеет фундаментальное
значение в теории оптимальных методов приема. Он показывает,
что путем интегрирования можно выделить из шума импульс
даже очень малой амплитуды, лишь бы он имел большую
длителъность (опергию).
Из графиков рис. 4.9 видно, что без стробирования (v — оо)
величина ртах»0.9 при гети«1,25. При идеальном стробировании
(v = 0), т. е. когда цепь RC подключается на время тс = ти
в момент времени t0 появления импульса, Ротах-^1 при а->0.
При других значениях v получаются промежуточные случаи;
в частности, для них pv 1 /л/1 + v при а —0.
Увеличение пикового отношения сигнал-шум при строби-
ровании объясняется тем, что при значениях А, меньших
времени установления напряжения на конденсаторе, нестационар-
ный выходной шум за время Д + ти не успевает нарасти до
максимального стационарного значения, которое получается в от-
сутствие стробирования. Этим же объясняется наблюдаемое па
рис. 4.9 уменьшение оптимальной полосы пропускания при умень-
шении V.
Отметим, что идеальное (v = 0) стробирование сигнала s(t)
предполагает точно известными момент /0 появления импульсного
сигнала и его длитсльношь ти. При приеме импульсных сигналов
в практических условиях время запаздывания сигнала обычно
точно неизвестно. Для его определения применяют устройства
синхронизации, позволяющие получить оценку с некоторой ошиб-
кой. По этой причине практически затруднительно осуществить
идеальное стробирование и длительность строба приходится
увеличивать, т. е. брать тс>ти.
Выше были рассмотрены несколько вариантов, относящихся
к частному случаю стробирования, когда окончание строба точно
совпадает с концом сигнального импульса. Разумеется, что
можно анализировать и другие варианты: разное детерминирован-
ное и случайное взаимное расположение строба длительностью
и импульса длительностью ти; форма сигнала у(/), отличная
от прямоугольной: шум /?(./')- коррелированный с заданной
к о р р ел я ци о ни ой фу н кци е и.
Пример 4.3.2. Воздействие рмноимиульса на колебагсльиый контур. Обобщим
полученные результаты it детерминированные радиоимпульсы. Пусть на коле-
бательный KOHiyp, coeit’влениый из параллельно!о соединения конденсатора
емкостью С, сонротиндсиия Z-* и катушки индуктивностью L (рис. 4.11), при
нулевых начальных условия.’, воздействует суши.?. (I) сигнала .?(/) и белого
шума и (г, Сигнал .»</) представляет собой детермнпировянный прямоугольный
радиоимпульс амплитудой А(, п длительностью т„:
Рис. 4.11, Воздействие радиоимпульса и белого
шума на колебательный контур
s(r) = ,4osino:>oz, r0^/^f0 + T„.
(4.3.10)
Резонансная частота колебательного контура предполагается совпадающей с ча-
стотой сигнала, т. е. а>0 = (£С)~ш. Найдем пиковое отношение сигнал-шум
(отношение амплитуды сигнала к среднеквадратическому значению шума) в конце
импульса в двух случаях: 1) колебательный контур включен задолго до появления
сигнала; 2) осуществляется стробирование, т. е. контур подключается к источнику
тока £,(?) на время Д + ти в момент времени Z' = Z0 —Д, где 10— момент появления
радиоимпульса.
Можно показать, что при выполнении условия <в0»1/2ЛС выходное напряже-
ние на контуре определяется выражением
ехр(ах)
sin ш0(г—х)Е,'(х)<Ух.
(4.3.11)
о
Известно, что для линейных систем справедлив принцип суперпозиции.
Поэтому можно раздельно находить сигнал и шум на выходе системы. Из
(11) для напряжения сигнала и шума на контуре имеем соответственно формулы
1 I
^(z) = Ло—ехр( —ar) ехр(ax) sin a>0(r—x)coscB0xrfx=Л0Л(1 — exp( — a/))sin <оо/,
о
(4.3.12)
1 Г
n(t) =----ехр (— ar) ехр (ax) sin coo (z—x)n' (x)dx,
cooC J
о
(4.3.13)
где n'(t)— производная от белого шума, имеющая корреляционную функцию
A„.(t) = W2)8"(t).
Для дисперсии напряжения выходного шума ii(t) получим
£>й(г) = ая(г)=(Л7г/4С)[1—ехр( —2ar)]. (4.3.14)
Если колебательный контур подключен к источнику тока 5, (г) задолго до
момента t0, то шумовое напряжение на контуре й(г) к моменту действия
радиоимпульса будет стационарным с дисперсией
<3%=NR/4C.
(4.3.15)
215
Согласно (12) «амплитуда» напряжения сигнала ,?(г) в конце импульса
^(т„)=Л0К[1-ехр(-ати)]. (4.3.16)
Поэтому пиковое отношение сигнал-шум в отсутствие стробирования равно
А (т»)/ст,7 = 7wv р (ат„). (4.3.17)
где £=Лбг„/2 - энергия радиоимпульса, а коэффициент р(ат„) дается
выражением (4).
График функции р(ат„) был приведен на рис. 4.9. Поэтому по-прежнему
ртах~0,9 при эти«1,25. (4.3.18)
Отличие от цепи RC состоит в том. что полоса пропускания контура на уровне
0,5 по мощности равна Д/== ос/тс и, следовательно, оптимальная полоса пропускания
контура в два раза больше, чем для цепи RC: Д/’о»0,4/тв.
Пусть контур подключается в момент времени t' = t0 — А, а радиоимпульс
появляется позже, в момент времени Амплитуда сигнала в конце импульса
по-прежнему равна Д(г„), а дисперсию шума находим из формулы (14):
(Л + т») = (NR/4C) [ 1 - ехр(-2ат„(1 + v))], v = A/r„.
Пиковое отношение сигнал-шум
Л (т„ )/<Ч? (Л + Л,) = y/lE/N pv (ати),
(4.3.19)
(4.3.20)
где безразмерный коэффициент ру(ати) определен формулой (8) и представлен
графически на рис. 4.9 для нескольких значений v.
Вычисления, приведите к формуле (17), т. е. в отсутствие
стробирования, можно выполнить для других линейных фильтров.
При этом если характеристики линейного фильтра определяются
не одним, а несколькими параметрами, то следует выполнить
оптимизацию по всем этим параметрам. Обозначим через
р отношение максимального пикового значения сигнал-шум по
напряжению на выходе рассматриваемого линейного фильтра
с комплексной частотной характеристикой A'(jco) к максимально
возможному значению этой величины, равной ^/2EjN\
Р = 1^(?о)1М7ч/2Ж (4.3.21)
Здесь Е—энергия входного сигнала; т(/0) --величина выходного
сигнала в момент времени г0, соответствующий максимальному
пику, и ст? — дисперсия стационарного выходного шума. Если
5(joj) — спектр входного сигнала, то
(4.3.22)
216
" 00
S (jco) K( jco) exp (jco70)c/co,
(4.3.23)
= (4.3.24)
Подставив эти выражения в (21), получим
р = | f 5(jcn)A’(j(n)exp(jcoz0)rfco[[ J |S(jco)|2c/co x
x j |7C(j®)|26/ffl]-1/2. (4.3.25)
Вычисления по этой формуле для нескольких пар радиоим-
пульс— фильтр приведены в табл. 4.1; в ней указаны значения
Ртах и приведены оптимальные значения Д/Отя, при которых
достигается ртах.
Таблица 4.1.
Основные характеристики квазиоптимальиых фильтров
Радиоимпульс Фильтр р
Прямоугольный Прямоугольный 1,37 0,91
Прямоугольный Г ауссовский 0,72 0.94
Гауссовский Идеально-прямоугольный 0,72 0,94
Гауссовский Г ауссовский 0,63 1,0
Прямоугольный Одиночный резонансный кон- тур 0,40 0.90
Прямоугольный Двухкаскадный резонансный усилитель 0,61 0,93
Прямоугольный Пятикаскадный резонансный усилитель 0,67 0,94
4.4. ОПТИМАЛЬНЫЕ И СОГЛАСОВАННЫЕ ЛИНЕЙНЫЕ
ФИЛЬТРЫ
4.4.1. АНАЛОГОВЫЕ ФИЛЬТРЫ
Пусть на вход линейного фильтра с импульсной характеристи-
кой h(t) или комплексной частотной характеристикой TC(jco)
воздействует сумма детерминированного сигнала .$(/) конечной
длительности ти и стационарной помехи (шума) «(/) с известной
спектральной плотностью S„ (со):
£,(t) = s(t) + n(t), при (4.4.1)
217
Получим оптимальный линейный фильтр, на выходе которого
достигается наибольшее отношение пикового значения сигнала
к среднеквадратическому значению шума.
Обозначим полезный сигнал на выходе фильтра через s(t)
и помеху через n(t). Известно, что если на вход линейной
системы с комплексной частотной характеристикой A7(jco) воз-
действует сигнал s(t), имеющий комплексный спектр
S(jco) = f .s(?)exp( — ja>t)dl,
то комплексный спектр сигнала на выходе системы определяется
произведением S(ja>)K(j®), а сам выходной сигнал — выражением
S (jco)^(jm) ехр (jco?)c/co.
(4-4.2)
Спектральная плотность помехи на выходе фильтра равна
5„(m)|A?(jco)|2, а дисперсия
f 5„(®)|K(jco)|2c/co. (4.4.3)
На основании (2) и (3) получаем выражение для отношения
сигнал-помеха по мощности на выходе фильтра в некоторый
момент времени /0:
да
ц2 , । ( 5'()ш)А'()а))ехр()а)Г0)4ш|2
~ i— = 1 ___________ _______________
D ®
,f S„(w)|K(jw)|24w
(4.4.4)
Задача заключается в том, чтобы найти такую функцию
A^(jffl), при которой отношение (4) в некоторый момент времени
/0 достигает максимума. Эта задача может быть решена методом
вариационного исчисления или же на базе известного неравенства
Шварца — Буняковского. Воспользуемся этим неравенством (ПЗ),
записав его в следующем виде:
Полагая здесь
/ * (со) = S (jco) ехр (jco/0g(ю) = К(jco)
218
имеем
| f S(jw)X(jw)exp(jcof0)4co|- f
Q=] -'_____________________________</o>. (4.4.5)
2л ” , , , 2л I 5, (ojj
.1 2>„(ш)| A'(Joj)|-Au
Отсюда следует, что максимально возможное значение от-
ношения сигнал-помеха определяется правой частью этого соот-
ношения, т. е.
Согласно (П4) эго значение достигается лишь при выполнении
условия
jw) У5П (со) = c0S * (jw) ехр (— ja>/0 )/х/2л5„ (ш)
или
Х(jco) =--с [.S’ * (jco)/5,, (со)] ехр (-jftV0), (4.4.7)
где с — некоторая постоянная; /0- -момент времени, соответству-
ющий наибольшему отношению пикового значения сигнала
к среднеквадратическому значению помехи. Поскольку дисперсия
выходною шума (3) не зависит от времени, то /0 следует полагать
равным моменту времени, соответствующему концу импульсною
сигнала л-(/) или же длительности интервале! наблюдения Т.. Зная
комплексную частотную характеристику оптимального фильтра
(7), по известной формуле можно найти импульсную характери-
стику. Для выяснения принципиальной возможности реализации
полученного оптимального фильтра необходимо проверить выпол-
нение условия физической возможности фильтра. Если это условие
не выполняется, го следует воспользоваться методами построения
физически возможных фильтров (см. ниже).
Таким образом, комплексная частотная характеристика оп-
тимального линейного фильтра определяется формулой (7).
а наибольшее отношение сигнал-помеха — формулой (6).
В некоторых приложениях 1ребуется получить на выходе
фильтра наибольшее не отношение сигнал-помеха, а отношение
крутизны сигнала к среднеквадратическому значению помехи
(оптимальные фильтры по крутизне сигнала). В такой форму-
лировке применима изложенная методика с той лишь разницей,
что теперь вместо самого сигнала .$•(/) нужно рассматривать
его производную по времени х' (/).
Отметим, что, варьируя спектрами сигнала и помехи 5'( juo)
и Sn(a>) в формуле (6), можно при некоторых дополнительных
условиях (например, постоянство энергии или мощности сигнала
214
и др.), налагаемых на систему, найти наилучшую форму спектра
сигнала (при которой максимизируется Q) и «наилучшую»
спектральную плотность помехи (при которой Q минимизируется).
Пример 4.4.1. Оптимальные спектры сигнала и помехи. Выше предполагалось,
что спектральная плотность помехи •$„((») нс зависит от вида полезного сигнала
.?(/). В некоторых случаях это предположение не выполняется. Укажем два примера.
Пусть обнаружение сигнала производится на фоне белого шума с постоянной
спектральной плотностью N и хаотических отражений. Спектральную плотность
отраженного сигнала иногда можно полагать равной v |Л> (jco)|2, где V— коэф-
фициент, зависящий от дальности до отражателей и свойств среды, в которой
распространяется полезный сигнал. В данном примере можно ставить и решать
задачу о выборе оптимальной формы спектра излучаемого сигнала (вида
модуляции), обеспечивающего при указанной результирующей помехе наибольшее
отношение сигнал-помеха (6).
Приведем здесь решение другого примера1. Допустим, что одна из противобор-
ствующих сторон с целью повышения эффективности работы своей радиотехни-
ческой системы стремится максимизировать отношение сигнал-помеха (6), а другая
с целью подавления этой системы применяет умышленную помеху, спектральная
плотность которой 5„(ш) выбирается с учетом спектра сигнала S(jco). Считая
спектры сигнала и помехи известными обеим сторонам, определяем, какой спектр
S(jw) должен иметь полезный сигнал .s(t), чтобы максимизировать отношение
сигнал-помеха на выходе оптимального фильтра, и какой должна быть спектраль-
ная плотность помехи S„(<o), чтобы это отношение было минимальным.
Применим следующий метод решения. Будем искать наилучший спектр
сигнала при наихудшей помехе, т. е. определим спектр S(jco), который обеспечивает
max min Q. (4.4.8)
S( ito) sn (о)
С этой целью для произвольного сигнала со спектром S')jco) найдем спектральную
плотность помехи 5„(<о), для которой имеет место min Q. Затем, считая, что
S„(a>)
сигнал принимается на фоне наихудшей помехи, найдем из условия (8) спектр
сигнала. Таким образом будет найден наилучший в указанном смысле сигнал
и определено отношение сигнал-помеха, которое можно получить в этом случае
на выходе оптимального линейного фильтра. При этом будем считать, что
энергия сигнала Е и дисперсия (мощность) помехи £>„ фиксированы:
£= — J|5'(jo))|2rfa) = const, (4.4.9)
Ди)
Т>„ = — S„(a>)da> = const, (4.4.10)
2я J
Да>
где Аоэ — область частот, в пределах которой спектры сигнала и помехи
отличаются от нуля.
' Turin G. L. Minimax Strategies for Matched-filter Detection//IEEE Trans.—
1975,--Vol. COM-23, № 11. — P. 1370—1371.
220
Пусть спектр сигнала .S'(j<o) известен. Тогда спектральная плотность помехи
выбирается из условия минимума функционала (6)
п 1 ,
О — — —- , \ (/со
2л J 5„(ш)
Дю
при дополнительном условии (10). На основании правил вариационного исчисления
уравнения, определяющие спектральную плотность помехи, имеют вид
<u(s„)/as„=o, (4.4.12)
где
(4.4.11)
~+^i — S„(co); —постоянный множитель Лагранжа.
Из (12) получим
S;(<e) = |S’(jco)|/xA;, собДсо. (4.4.13)
Следовательно, спектральная плотность «оптимальной» помехи с точностью до
постоянного множителя совпадает с амплитудно-частотным спектром сигнала.
Подставив (13) в (10), находим множитель Лагранжа
co.
(4.4.14)
V 2TtZ)„J
A to
Помеха со спектральной плотностью (13) минимизирует отношение сигнал-
помеха, причем из (12) с учетом (13) и (14) следует, что
- 2
lAfjcojlrfw .
1
min Q — —=—
S„<»> 4lt D.
(4.4.15)
Аш
Считая теперь, что сигнал принимается на фоне помехи со спектральной
плотностью (13), спектр сигнала, максимизирующего отношение сигнал-помеха
при дополнительном условии (9), находим из выражений
a/(s-)/as’=o,
2тгУД 2тг
где Х2—постоянный множитель Лагранжа. Выражение для амплитудно-частотного
спектра сигнала имеет вид
|S(jco)| = — l/2),2v/z\, соеДсо,
),2 = —(1/2)(Дсо/2л£'£)„)1/2.
Из (17) видно, что в случае применения оптимальной помехи следует
использовать сигнал с равномерным спектром в заданной полосе частот.
Спектральная плотность оптимальной помехи в этом случае также равномерная.
Отношение сигнал-помеха согласно выражениям (15) и (17) будет
£Дсо Ps тиДо>
max min Q—-----=--------,
sow) 2itD„ D„ 2ic
(4.4.16)
(4.4.17)
(4.4.18)
221
где Ps - средняя мощность сигнала; т„ длительность сигнала. Выигрыш в отношении
сигнал-помеха на выходе оптимального фильтра пропорционален базе сигнала т„Ао>/2п.
Отмстим, что формирование сигнала конечной длительности со строго
равномерным спектром в заданной полосе частот невозможно. Однако можно
получить хорошее приближение, используя пссвдошумовые сложные сигналы
и сигналы с впутркимпульсной частотной модуляцией с большой базой.
Назовем частный вид оптимального линейного фильтра для
случая, когда, помехой п(ф) является БГШ, согласованным линей-
ным фильтром. Иначе говоря, согласованный фильтр — линейный
фильтр, на выходе которого получается максимально возможное
пиковое отношение сигнал-шум при приеме полностью известного
сигнала на фоне белого гауссовского шума.
Применим полученные формулы (6) и (7) к данному случаю.
Для этого положим в них Sn(e))“ N/2 = const. Тогда
(2-2E/W, (4.4.19)
Ко (jco) = cS * (jco) exp (—jcozo), (4.4.20)
где с -некоторая постоянная, характеризующая усиление
фильтра; Е—энергия сигнала:
Е- j y-(/)rZ/ = _L j |S(jco)|2dw. (4.4.21)
- V' — <X)
Запишем спектр входного сигнала и комплексную частотную
характеристику фильтра в виде
S( jco) = | Л’ (jco) | ехр (jcps (co)), К (jco) = | KQ (jco) 1 exp (jep (co)). (4.4.22)
Для согласованного фильтра из (20) получим
|A'o(jco)| I5’(.i®)h ф(со)= — (cps(co) + co/0). (4.4.23)
Видно, что амплитудно-частотная характеристика согласован-
ного фильтра пропорциональна амплитудно-частотному спектру
входного сигнала (амплитудно-частотная характеристика «со-
гласована» со спектром сигнала), а фазочастотная характеристика
равна сумме фазочастотного спектра сигнала, взятого с обратным
знаком, и фазового спектра задержки ( — свГ0).
Подставив в (2) частотную характеристику (20), получаем
выражение сигнала на выходе согласованного фильтра
I $ (jco) 12 ехр [ jco (/ - /0)] dco =
к
2п
|S(jco) |2 cos cd (/ — /0)d(O.
(4.4.24)
222
Сигнал на выходе согласованного фильтра определяется только
амплитудно-частотным спектром входного сигнала и не зависит
от его фазочастотного спектра. Последнее объясняется тем, что
взаимные фазовые сдвиги спектральных составляющих входного
сигнала cps (со) компенсируются фазочастотной характеристикой
фильтра. Поэтому все гармонические составляющие одновременно
достигают амплитудных значений в момент времени / = /0 и,
складываясь, дают пик выходного сигнала
Smax(?o) = ~ |5(»|2с/ю=/с£. (4.4.25)
— со
Укажем, что согласованным фильтром (20) можно восполь-
зоваться и при приеме полностью известного сигнала на фоне
стационарной помехи с произвольной спектральной плотностью
S„(co). Для этого достаточно формально пропустить принимаемое
колебание (1) через дополнительный линейный фильтр, который
преобразует помеху n(t) в белый шум. Фазочастотная харак-
теристика фильтра может быть любой, а амплитудно-частотная
характеристика такого дополнительного «обеляющего» фильтра
должна иметь вид
\K(j(a)\ = k/y/sM (4.4.26)
где к— постоянная. На выходе обеляющего фильтра помеха
превратится в белый шум с постоянной спектральной плотностью
Sn (со) | К(jco) |2 = Р = const, а комплексный спектр сигнала будет
S(j(o) = ^S(jco)/x/X(co).
После этого можно воспользоваться полученными выше
формулами. Так, на основании (20) записываем комплексную
частотную характеристику соответствующего согласованного
фильтра
Ко (jm) = cS* (jco) ехр (- jwz0 )/7X,(w).
Оптимальный фильтр представляет собой последовательное со-
единение двух фильтров: обеляющего /<(jco) и согласованного
k0(jco). ~ Его комплексная частотная характеристика
К(jco) = К(jco)Ко (jco) определяется формулой (7).
Пользуясь допустимой свободой выбора фазовой характеристи-
ки обеляющего фильтра, можно попытаться выбрать ее так, чтобы
оптимальный фильтр был физически возможным. Если спектраль-
ную плотность помехи Sn (со) можно аппроксимировать рациональ-
ной функцией частоты (что практически не ограничительно), то для
получения физически возможного оптимального линейного
фильтра часто пользуются известным положением факторизации —
разложением S„ (со) на два комплексно-сопряженных сомножителя.
223
Импульсная характеристика согласованного фильтра (20) на-
ходится по
формуле
Xz0(jro) exp(jcoz)<7(i) = -|-
S*(jco)exp [jco(z — /0)]z7co =
Учитывая
S'*(— jco) exp [jco (z0 — z)]c/® =
2л
S (jco) exp [jco (z0 — z)] c/co.
выражение для входного
сигнала
ехр (jcoz)cZco,
получаем
h0(t)=cs(t0-t). (4.4.27)
Следовательно, импульсная характеристика согласованного фильтра
целиком определяется формой сигнала («согласована» с сигналом).
Полный сигнал на выходе согласованного фильтра определя-
ется интегралом свертки
t I
i] (z) = [ /i(z0 — Z + w)£,(w)c/w = c[i’(z0 —Z + w)£,(w)c/w, (4.4.28)
о о
а его значение в момент времени z = z0 = rH, соответствующий
концу полезного импульса x(z), равно
т
Т](ти) = с f л(и)^(и)с/и. (4.4.29)
о
Видно, что слабые значения полезного импульсного сигнала s(z),
содержащегося в ^(z), дополнительно ослабляются весовым
множителем x(w) и, наоборот, большие значения полезного
сигнала усиливаются этим множителем.
Отметим, что среди всех линейных фильтров согласованный
фильтр позволяет получать на выходе максимальное отношение
пикового значения ^сигнала к среднеквадратическому значению
шума, равное J2EJN, причем это значение не зависит от формы
сигнала.
В радиоприемных устройствах супергетеродинного типа ком-
плексная частотная характеристика усилителя промежуточной
частоты (УПЧ) в принципе должна совпадать с комплексной
частотной характеристикой согласованного или квазиоптималь-
ного фильтра. Однако на практике полосу пропускания УПЧ
224
выбирают в 1,5...2 раза больше оп-
тимальной. Главная причина это-
го — нестабильность частоты при-
нимаемого сигнала и частоты ге-
теродина приемника.
Целесообразность расширения полосы
пропускания УПЧ при наличии расстройки
Дг=/0 —/о между чаетотой радиоимпульса
/0 и центральной частотой фильтра
f'o можно уяснить на следующем частном
примере. Пусть прямоугольный радиоим-
пульс (4.3.10) воздействует на согласованный
с ним фильтр, расстроенный относительно
частоты радиоимпульса на величину Ду.
В данном случае отношение (4.3.25) равно
Р = 8ш(лДгти)/лЛ/ти.
Можно показать, что при воздействии
прямоугольного радиоимпульса на расстро-
енный колебательный контур с комплексной
частотной характеристикой
Рис. 4.12. Влияние полосы пропу-
скания на отношение сигнал-шум
при случайной расстройке
К( jco) = Ко 2аю/[2ао>+j (от — ю'о2)], а>'0 = 2nf'o
справедлива формула
1 — 2ехр(—aill)cos2n:A/ т„ +ехр(~2ати)
а = лДу.
(ати)2 + (2лДуТи)2
В отсутствие расстройки (Ду = 0) эта формула переходит в (4.3.4).
Если расстройка Ду медленно и случайным образом изменяется во времени
по нормальному закону
Р (Лт) = О ехР (- A/)•
то естественно интересоваться средними значениями М{р} или М{р2}:
М{р}= f рр(Ду)(/Ду, М{р2}= J р2р(Ду)<(Ду.
— 00 ~ оо
Результаты численных расчетов величины М{р2) для колебательного контура
при нескольких значениях ауТи приведены на рис. 4.12. Из графиков видно, что
при заданной величине СуТи существует свое оптимальное значение Д/т„, при
котором М{р2} имеет максимум. С увеличением СуТи оптимальное значение
ДуТи медленно возрастает, а максимальное значение М{р2} резко уменьшается.
4.4.2. ЦИФРОВЫЕ ФИЛЬТРЫ
На практике все большее применение находят не рассмот-
ренные аналоговые, а цифровые согласованные фильтры. При
этом из входного воздействия (1) периодически, через интервал
225
8—2247
Дискретизатор
i,(t)=s(t1+n(t1 I / ]?Г-5:+лг
-----------------------'f.-----p---------;
[ /4 I
Дискретный и /.• i
согласованный ' •> ...
фильтр
Рис. 4.13. К дискретной согласованной фильтрации
времени А с помощью дискретизатора берутся временные отсчеты
^(z'A) и последовательность таких отсчетов воздействует на вход
цифрового фильтра (рис. 4.13):
£,(zA) = x(z'A) + zz(zA) или ^ = 5, + н;, z = 0, т, (4.4.30)
Если длительность импульсного сигнала s(t) конечна и равна
ти^Т, т. е. x(Z)^O при 0^/^ти, то полное число времен-
ных отсчетов сигнала, взятых через интервал дискретизации
А, т = Гти/А], где квадратные скобки обозначают целую часть
числа. Требуется найти дискретный линейный согласованный
фильтр для принимаемой последовательности (30), обеспечива-
ющий получение на выходе максимального отношения сигнал-
шум, и определить его. Допустим, что осуществляется идеальное
стробирование сигнала (начало и окончание импульса точно
известны).
Отметим, что поскольку в цифровых фильтрах используется
информация, содержащаяся только в отдельных значениях вход-
ного сигнала, а не во всей реализации ^(?), то очевидно, что
при одних и тех же исходных предпосылках наибольшее от-
ношение сигнал-шум на выходе цифрового согласованного
фильтра всегда меньше, чем на выходе соответствующего ана-
логового фильтра. Иначе говоря, наибольшее отношение сигнал-
шум на выходе аналогового согласованного фильтра является
верхней границей для отношения сигнал-шум на выходе соот-
ветствующего цифрового фильтра.
Сигнал на выходе цифрового согласованного фильтра при
идеальном стробировании определяется выражением
v(j)= Е h&’ 7 = 0, т, (4.4.31)
/ = о
где ht — коэффициенты, подлежащие определению.
Отношение сигнал-шум на выходе фильтра, как и ранее,
определим выражением
<7 = (М {т](ш)|и = 0} — М {т| (ш)|s = 0})2(D {т| (ш)|х = 0})“1, (4.4.32)
где М {т| (m)|zz = 0} — м. о. выходного сигнала, обусловленное
только входной последовательностью полезного сигнала s(t)
226
(i.e. в отсутствие шумовых отсчетов: zi; = 0, z = 0, т\, D {т| (/и)| х
х|л- = 0} — дисперсия выходного сигнала при х; = 0, z = 0, т.
Для вычисления q необходимо знать вероятностные харак-
юристики величин и л;. Примем по-прежнему величины st
де терминированными, а пг, z = 0, т,— случайными, независимыми
в совокупности, причем каждая из величин z^_______имеет нулевое
м. о. и одинаковую дисперсию Z>1 = M{ztf}, z = 0, т. Выполнение
требования независимости отсчетных значений шума не является
принципиальным. Однако при этом существенно упрощаются
вычисления. Вместе с этим применительно к реальным кор-
релированным помехам оно ограничивает число отсчетов т.
Если помеха является гауссовской и имеет конечный интервал
корреляции тк, то по крайней мере должно выполняться неравен-
ство А>тк и, следовательно, /и<ти/тк. Если указанные условия
выполнены, то
(т \ 2 т
(4.4.33)
1 = 0 / i = 0
Воспользовавшись неравенством Коши (П1), имеем
т
Е si /Di- при
i = О
hi = csf (4.4.34)
отношение сигнал-шум достигает наибольшего значения
т
q^ = E0!Dx, Ео = Е я,2- (4.4.35)
1 = 0
Величина Ео есть энергия дискретизированного сигнала.
Заметим, что при неидеальном стробировании число шумовых
отчетов в (33) будет больше числа т отсчетов сигнала
и наибольшее отношение сигнал-шум будет меньше значения (35).
Подставив коэффициенты /г; из (34) в (31), получаем структуру
цифрового согласованного фильтра
n(j) = c Е 7 = °’ т- (4.4.36)
i= 1
Если положить с = |хтах|-1, где xmax = max{xi, z = 0, т}, т. е. ввести
нормированные коэффициенты v; = | хтах | ~1, то
п(У) = Е 7 = °> т> М<1- ' (4.4.37)
z=i
Для детерминированного сигнала коэффициенты v, легко рас-
считываются заранее. Структурная схема цифрового согласован-
ного фильтра изображена на рис. 4.14.
227
Рис. 4.14. Дискретный согласованный фильтр
Укажем, что наибольшее отношение сигнал-шум можно также
получить двумя другими способами, а именно, подачей входной
последовательности (31) на аналоговый согласованный фильтр
(27) или подачей аналогового сигнала на «дискретизированный»
согласованный фильтр.
Действительно, запишем дискретизированное входное воздей-
ствие (30) в виде
U7A) = ^(0ZS(l-fA),j =
i = 0
/=0, т,
где 8(х) — дельта-функция. Тогда сигнал на выходе аналогового
согласованного фильтра с импульсной характеристикой
/г0(?) = сх(ти — t) в момент времени tj=j& равен
jA 7 A j
т](7А)= f /г0(7А-т)^(т)<7т = с f х(ти-/А + т)^(?) £ 5(т-гА)<7т =
О О i = 0
= С £ a(th-7A + zA)^(zA).
i = О
Отсюда при j=m и ти«шА имеем
1](и1Л|хс £ a(z'A)£,(zA).
z=o
Это выражение совпадает с (36) при j=m. Поэтому сохранится
прежнее отношение сигнал-шум (35). Нетрудно убедиться, что
такой же результат будет получен, если рассмотреть аналоговое
воздействие £,(?) на «дискретизированный» согласованный фильтр
с импульсной характеристикой
h(jty = h0(t) £ 8(г-гА) = с50(ти-г) 7=0, т.
i = 0 1 = 0
Необходимо иметь в виду, что временные отсчеты как
входного воздействия ^- = ^(гА), так и полезного сигнала x; = x(zA)
228
должны браться синхронно, т. е. в одни и те же моменты
времени ,f; = zA. Для детерминированного сигнала .?(?), когда
известен его вид, а также моменты появления и окончания, это
легко осуществить.
Выше аналоговый и дискретный согласованные фильтры были
получены при несколько отличающихся исходных предпосылках.
В первом случае аддитивный шум n(t) предполагался белым
гауссовским, а во втором отсчеты считались независимыми
с конечной дисперсией, в то время как для белого шума
дисперсия отдельных отсчетов бесконечна. Возникает желание
устранить различие в исходных постановках задачи. В зависи-
мости от конкретных условий здесь возможны разные варианты.
Пусть во входном воздействии (1) помеха n(t) является
белым гауссовским шумом. Тогда недоразумение, связанное
с бесконечной дисперсией отсчетов белого шума, формально
можно преодолеть с помощью операции сглаживания входного
воздействия. В качестве временных отсчетов будем брать не
мгновенные их значения, а осредненные:
1Л
= ~ ^t)dt, Si
(i- 1)А
n(t)dt.
(i — 1) A
(> - 1>A
(4.4.38)
s(t)dt, nt
1
A
i\
Такая операция при достаточно малом А, вероятно, не вызовет
больших погрешностей. Однако теперь дисперсия отсчетов шума
конечна и равна N/2A.
Реализация операции осреднения (38) предполагает включение
до дискретизатора интегратора со сбросом, что существенно
усложняет схему цифрового фильтра. Однако при теоретическом
рассмотрении она позволяет переходить от результатов, получен-
ных для дискретного времени, к результатам для непрерывного
времени.
Обсудим кратко предположение о независимости временных
отсчетов шума n(t), которое использовалось при синтезе диск-
ретного согласованного фильтра. Реальные помехи, как правило,
имеют корреляционные функции 7?„(т) с бесконечными крыльями,
асимптотически приближающимися к нулю при т-»оо. Поэтому
отдельные отсчеты лг и и;, i=£j, в принципе коррелированы и,
следовательно, зависимы. Учет этой зависимости не изменяет
выходного полезного сигнала, а значение выходного шума часто
увеличивается. Поэтому наибольшее отношение сигнал-шум обыч-
но уменьшается. Для оценки этого уменьшения и обоснования
выбора целесообразного интервала дискретизации по времени
полезно сравнить наибольшее отношение сигнал-шум (35) с ана-
логичным отношением, полученным при учете коррелированности
отсчетов шума.
229
Применяя прежнюю методику к согласованному фильтру
с линиями задержки, нетрудно показать, что теперь весовые
коэффициенты я, будут определяться системой алгебраических
уравнений
У </;Л„(уА —?А)=х(тА—у’А), ./=0,т, (4.4.39)
1 = 0
а наибольшее отношение сигнал-шум равно
~ т
7тах= у (mA—/А)]1/2. (4.4.40)
_;=о
Ecjihjbbccth квадратную матрицу R с элементами = А„(/А —/А),
/, /=0, т, и два вектора-столбца S и А с элементами 5 (mA—у А)
и а, соответственно, то выражения (39) и (40) можно записать
в более компактной, векторной форме
A = R S, ^^(S-R-’S)172. (4.4.41)
Таким образом, при выбранном интервале А для конкретных
сигнала s(t) и помехи п (/) с заданной корреляционной функцией
R„(t) по формулам (41), (35), (6) и (19) можно оценить проигрыш
в отношении сигнал-шум при цифровой обработке (коррелированных
и некоррелированных отсчетов шума) по сравнению с аналоговой.
При реализации цифровых согласованных фильтров на ЭВМ
стремятся избавиться от операции умножения. Поэтому вместо
алгоритма (36) часто применяют одну из следующих трех его
модификаций:
т т
= c У sgn(.v,)^, Ц (т) = с У \sgn(^),
i = 1 i = 1
т
т|(ш)= у sgn(5,)sgn(^.). (4.4.42)
; = i
Естественно, что применение таких упрощенных алгоритмов
связано с некоторыми дополнительными потерями в отношении
сигнал-шум по сравнению с (35). Эти дополнительные потери
нетрудно вычислить1.
Пример 4.4.2. Сравнение оптимальной и «согласованной» дискретной фильтрации
прямоугольного импульса. Рассмотрим частный пример фильтрации с помощью
схемы (рис. 4.15, а) прямоугольного видеоимпульса .?0(;) = Л0, 0^;^ти, из сигнала
Е,о(/) = л'о(г) + w0(г), где и0(')—БГШ с нулевым м.о. и односторонней спектральной
плотностью No.
1 Beaulieu N. С., Leung С. On the Performance of three Suboptimum Detection
Schemes for Binary Signaling//IEEE Trans.— 1985.— Vol. COM-33, № 3.— P. 241 —
245.
230
Обеляющий фильтр
Рис. 4.15. Схема фильтрации импульсного сигнала (а) и оптимального дискретного
фильтра (б)
Сигнал на выходе интегрирующей цепи RC в стационарном состоянии
равен
я(г)= h (t — т) j0 (т) dx =
£(*) = f /1(г-т)40(т)г/т = 5(?) + и(г), (4.4.43)
где
Ло[1-ехр(-а0], 0^?^ти,
Ло[1 —ехр(—аг)]ехр[—а(тн—f)], t>r„; (4.4.44)
л(?)—гауссовский шум с нулевым м. о. и корреляционной функцией (4.2.33):
М{п(?)п(?+т)} = Рпехр( —а|т|), Р„ = аХ0/4. (4.4.45)
Полезный сигнал я(г) на выходе цепи RC имеет бесконечную длительность,
затухая при z-юо, а шум n(t) стал коррелированным.
Получим оптимальный дискретный фильтр для выходного процесса !;(/)
и вычислим максимальное отношение сигнал-шум. Пусть дискретные отсчеты
берутся через постоянный интервал времени Л:
^ = ^(fcA) = ^ + «4 = i(fcA) + «(fcA).
Хотя сигнал я(/) имеет бесконечную протяженность во времени, т. е. значения
5 (А: А) убывают до нуля лишь при г-юо, однако практически можно выбрать
такое L, что суммарная энергия отсчетов сигнала sk при k>L будет меньше
СО
заданной величины е: £ sk<&. Обычно берут £А«ти + (1 ...2)/а. При этом
Ь=Ь+1 ___
можно ограничиться обработкой отсчетов i,k лишь при fc = 0, L.
Оптимальный дискретный фильтр должен формировать в момент времени
Z0 = LA величину
9 = StN“^.
(4.4.46)
Здесь St = {j0, ..., jt}; ljT= {£0, ..., £t}; N 1 — матрица, обратная корреляци-
онной матрице N для (L+1) первых отсчетов шума:
N = P„
1 у у2 ... yL
у 1 У ... yL“1
у = ехр( —аА).
у Г у Г 1 уГ 2 1
231
Нетрудно убедиться, что
N~' =
1 -у 0 ... О
— у 1 Ту2 —у ... О
О 0 0 ... 1
поскольку N-IN = I — единичная матрица.
Выражение (46) соответствует выборочному значению при к — 1. сигнала на
выходе оптимального дискретного фильтра с характеристикой
л4= £ ад,.л-.
1 = 0
Матрицу N-1 можно представить в виде произведения двух матриц
N'^G'G, где
' х/|~72 о о ... О
. -у 1 0 ... О
О 0 0 ... 1
При этом выражение (46) можно записать иначе:
q = S’GTG Е, = (GS)T (G£) = S’?,
(4.4.47)
где
4= E Gkfij = - -------Z, k=\, Ц 50=-—
VAT(i-y2) VA
j=o s/^»(l-Y2)
Схема формирования величин E,k из приведена на рис. 4.15,6. Нетрудно
проверить, что выборочные значения шума пк — пк — y/7t. । при различных к не
коррелированы между собой: М+;} = £)„(] — у2)8(/). Поэтому схему фор-
мирования величин можно назвать обеляющим фильтром (он обведен
штриховой' линией). При этом из (47) следует, что оптимальный дискретный
фильтр представляет собой последовательное соединение обеляющего фильтра
и согласованного дискретного фильтра для сигнала .?(/) с характеристикой hk = sL-k.
Пусть число временных выборок на длительности видеоимпульса
т = Т[&. Тогда
Заметим, что, хотя длительность сигнала 5(г) на выходе 7?С-фильтра согласно
(44) больше ти, выборочные значения sk отличны от нуля только на конечном
интервале значений к= 1,777. Следовательно, после обеляющего фильтра сигнал
s(t) имеет конечную длительность ти: .7(7) = 0 при 7<0 и ?>ти. Это также
232
подтверждает вывод о том, что линейный фильтр с характеристикой hk является
дискретным согласованным фильтром для прямоугольного видеоимпульса.
Отношение сигнал-шум на выходе оптимального фильтра можно представить
в виде
7 = S' N ; S - STGTGS = STS =
d„(i-y2)
L
k^-1
1 1
Jtt
I Sk
(4.4.49)
Величина q равна отношению «энергии» отсчетных значений сигнала sk на
выходе обеляющего фильтра к дисперсии отсчетов шума пк. Согласно (48)
и (49) имеем
4 =
A Im 1 — у
D„ 1+у’
Перейдя к параметрам а, Л и тн, получим
_2.4£Tth(aA/2)_2Etg(aA/2)
Ч Na «А/2 No аА/2
(4.4.50)
Потери в отношении сигнал-шум при
по сравнению с аналоговой оптимальной
характеризуются коэффициентом
оптимальной дискретной фильтрации
обработкой аналогового наблюдения
Отметим два факта. Во-первых, потери
(4.4.51)
фильтре зависят только от нормиро-
ванного шага дискретизации по време-
ни аД = А/тк, где тк — время корреля-
ции шума на выходе 7?С-фильтра.
Они не зависят отдельно от числа
выборок на длительности импульса.
Во-вторых, при уменьшении шага ди-
скретизации потери исчезают:
lim Т|! = 1. Это означает, что сгла-
живание сигнала в 7?С-фильтре само
по себе не приводит к потерям в от-
ношении сигнал-шум. График зависи-
мости Г|! от аА представлен сплошной
кривой на рис. 4.16.
Рассмотрим теперь «согласован-
ный» дискретный фильтр. В инженер-
ной практике (для упрощения реали-
зации) часто пренебрегают искажени-
ями сигнала s(r) во входном RC-
за счет дискретизации в оптимальном
Рис. 4.16. Потери в отношении сигнал-
шум на выходе оптимального (—) и «со-
гласованного» (---------) фильтров по
сравнению с аналоговым фильтром
фильтре и считают отсчеты шума //(/) некоррелированными с дисперсией D„. При
этом оптимальный фильтр для наблюдения заменяют линейным дискретным
фильтром, характеристика которого согласно (34) для нашего примера имеет вид
ht = A,
Такой фильтр условно можно назвать согласованным со входным сигналом
50(z). Отсчетное значение сигнала на выходе фильтра, взятое в момент времени
Z = mA, равно
т
w0 х ъ,
к= 1
причем значение сигнала в этом отсчете
^ = м{£} = ло £ sk = A% £ (l-Yl) = 402 m-y--I
4=1 4=1 \ 1-Y/
и дисперсия шума
Р{ = М|(ЛО £ nJ ? = ЛоД, X X ехр(-аД|А:-/|) =
[\ k = l / J k=l/=l
(m к - 1 \ Г
m + 2 Z rn+----
4=1 1=1 / L 1 Y 4=1
= A lD„m
2~f 2y(l—y"')
1—у m(l - y) 2
На основании полученных выражений записываем отношение сигнал-шум
У А20тГ ]_у-"-]2Г 2у 2у(1—у“)~
Z>? D„ |_ m(l-y)J |_ 1—у лг(1— у)2 _
Потери относительно аналоговой обработки определяются выражением
<7 1
2E/N0 аА/2
т 1 — у
2у ] l-Y"
1—у т(1—у)
Можно убедиться, что г)2\.2аА при малом шаге дискретизации аД->0 и т]2сх>2/аД
при аЛ->оо.
Зависимость т]2 от аА для нескольких т приведена на рис. 4.16 (штриховые
кривые). Потери т]2 монотонно убывают при- увеличении т. При больших
значениях аА потери «согласованной» фильтрации г|2 совпадают с потерями
оптимальной фильтрации т^. При малых аА потери т]2 существенно больше,
чем г,!- Наблюдается явно выраженный минимум т]2 в зависимости от аА.
Положение и величина минимума зависят от числа отсчетов т. При любом
т выбором аА можно обеспечить потери при «согласованной» фильтрации
менее I дБ. При типичных значениях mail...10 оптимальные значения aAail,
что хорошо согласуется с принятым на практике выбором А порядка интервала
корреляции шума тк= 1/а, когда отсчеты шума приближенно независимы. Однако
при уменьшении А следует использовать не «согласованные», а оптимальные
фильтры, обеспечивающие значительно меньшие потери.
234
4.4.3. О РОБАСТНЫХ ОПТИМАЛЬНЫХ ФИЛЬТРАХ
Рассмотрим сначала интересный предельный случай, приво-
дящий к сингулярному результату. Рассмотрим низкочастотный
сигнал j(/) = sin (Асо 1)/Асо1, спектр которого S'(j со) имеет прямо-
угольную форму (рис. 4.17,а), и шум n(t) со спектральной
плотностью S„(co) треугольной формы (рис. 4.17,6). Амплитудно-
частотная характеристика оптимального фильтра S'* (j со)/ S',, (со)
имеет вид, изображенный на рис. 4.17, в. Из него видно, что
она безгранично возрастает при со-> + Асо. При этом отношение
сигнал-шум на выходе фильтра, как следует из (6), равно
бесконечности.
Предположим теперь, что форма сигнала незначительно от-
клонилась от исходной и приняла вид x(?) = sin(Aco — е)?/(Асо—- е)1,
где £>0 — малая величина. Теперь выходное отношение сигнал-
шум будет конечным
„ 1 Г |5(j<o)|2 , лАсо .Асо л . Асо
Q = — , , с/со —;-~1п— яе — In—.
2п J 5„(со) (Ла — е)2 е Асо Е
Atu — Е
В данной ситуации, когда ширина спектра сигнала может
отличаться от Асо, предпочтительнее рассчитывать оптимальный
фильтр для наименьшего из возможных значений ширины полосы.
Такой фильтр будет обладать высокой эффективностью при
малой ширине спектра сигнала и малой чувствительностью к ее
отклонениям от Асо.
Как следует из (7), для определения оптимального фильтра
требуется точное знание спектров сигнала S'(jco) и шума S„(co).
Однако в практических ситуациях часто они точно неизвестны.
В связи с этим возникает проблема отыскания линейных
фильтров, которые бы достаточно эффективно работали при
возможных отклонениях характеристик сигнала и помехи в задан-
ных границах. Такие фильтры принято называть робастными
(устойчивыми к отклонениям).
Для пояснения сказанного приведем результаты решения
одного частного примера. Допустим, что принимаемый полезный
Рис. 4.17. Спектр сигнала (а), спектральная плотность шума (б) и амплитудно-
частотная характеристика оптимального фильтра (в)
235
сигнал имеет форму л-(^). отличающуюся от исходной x0(z).
В качестве подходящей меры степени отклонения полезного
импульса можно принять интеграл от квадрата разности между
.?(/) и Л’о(^) или (в соответствии с равенством Парсеваля) между
их спектрами <S’(jco) и So(jco). Тогда в качестве модели неоп-
ределенности полезного сигнала для данной задачи оптимальной
фильтрации можно задать класс Ls всех импульсов .?(?), преоб-
разования Фурье которых S (j со) удовлетворяют условию
|.S’(jo))-.S’()(j6>)|'\/«><A.
(4.4.52)
где 50 0 ю) — преобразование Фурье исходного сигнала хо(0’
а А определяет степень неопределенности или возможных ис-
кажений x0(/).
Можно показать, что решение минимаксной задачи К= KR
max min О
к seL„
(4.4.53)
где
2 = 1 f ZvQco) S'(jco)exp(jco/O)г/от р/ J | A?(jco) |2 S„(co)<7cd, (4.4.54)
имеет вид
/<к (j со) = S $ (j ®) ехр (-j со/о) [А„ (со) + <т0] ~1
(4.4.55)
где положительная константа г>0 зависит от А (является монотон-
но возрастающей функцией А).
Из сравнения (7) и (55) следует, что в робастном фильтре
для модели неопределенности (52) усиление на частотах, где
мощность шума мала, ограничивается по сравнению с его
значением для исходного оптимального фильтра. Иначе, более
высокое усиление оптимального для ,S’0(j<o) фильтра делает его
слишком чувствительным к таким отклонениям характеристик
полезного сигнала, которые приводя! к снижению его энергии
на этих частотах. В другой интерпретации неопределенность
сигнала учитывается в (55) посредством включения в спектр
шума дополнительной аддитивной «белой» компоненты сг0.
Кстати, отметим, что для белого шума и модели неопределен-
ности вида (52) исходный согласованный фильтр совпадает со
своей робастной модификацией, поскольку постоянный множитель
перед частотной характеристикой при согласованной фильтрации
не играет никакой роли. Заметим также, что дополнительная
компонента белого шума, учитывающая в этом подходе неоп-
ределенность полезного сигнала, гарантирует невырожденность
результата, сколь бы искусственной ни была исходная модель.
236
Задачи робастной линейной фильтрации по критерию наиболь-
шего отношения сигнал-помеха можно корректно сформулировать
и решить при разных типах априорной неопределенности от-
носительно сигнала и помехи, в частности при возможном
изменении спектра помехи в заданных границах, а также при
наличии неопределенности как в форме полезного сигнала, так
и в форме спектральной плотности помехи1.
4.5. ДИФФЕРЕНЦИРОВАНИЕ СЛУЧАЙНОГО ПРОЦЕССА
Пусть задан сл. пр. с м. о. и корреляционной функцией
7^(4, ц). Найдем м. о. mc-(t) и корреляционную функцию
h) Для производной
% (И== lim
v ’ dt д,-о
Д/
(4.5.1)
Если бы предел справа существовал для всех реализаций сл. пр.
£,(/), то £,'(?) была бы производной в обычном смысле. Однако такое
условие является слишком ограничительным. Будем предполагать,
что производная (1) существует в среднеквадратическом смысле
(§ 2.8). Говорят, что сл. пр. ^(/) имеет производную в среднеквадра-
тическом смысле (limit in the mean square), если можно найти такой
другой процесс q'(z), для которого выполняется равенство
lim М
Л/--0
Д(
~ 2Т
-ад] ]=»•
(4.5.2)
Допуская пока существование производной, для достаточно
малого, но конечного At можем написать приближенное равенство
/М?)=МО)|~М
В правую часть этого равенства входят обычные, неслучайные
функции. При переходе к пределу (А?->0) приближенное равенство
перейдет в точное:
(t) = dm^(t)/dt. (4.5.3)
Следовательно, м. о. производной от сл. пр. равно производ-
ной от его м. о. Иначе говоря, операции дифференцирования
и м. о. можно менять местами.
Получим правило вычисления корреляционной функции произ-
водной сл. пр. Рассмотрим сначала подробно случай стационар-
ного в широком смысле сл. пр. с нулевым м. о. (/и^ = 0)
и корреляционной функцией
1 Кассам С. А., Пур Г. В. Робастные методы обработки сигналов: Обзор//
ТИИЭР- 1985. -Т, 73, № 3,—С. 54-110.
2.37
При нахождении корреляционной функции для производной
возникает следующее затруднение. Процесс в выражении
(2) не задан. Поэтому нужно сначала выяснить условия сущест-
вования такого процесса и лишь затем вычислять его харак-
теристики. Для получения условий существования производной
можно воспользоваться правилом Коши (П5), согласно которому
должно выполняться равенство
lim М
6], е2->0
С2
(4.5.4)
Докажем, что необходимое и достаточное условие дифферен-
цируемости стационарного процесса £, (?) в среднеквадратическом
смысле заключается в том, чтобы корреляционная функция
процесса /Т(\) при т = 0 имела производные до второго порядка
включительно.
Напомним, что корреляционная функция вещественного стаци-
онарного процесса является четной. Поэтому если она дифферен-
цируема, то 7?^(0) = <77?^(т)/<7т|т=о = 0, следовательно, для малых т
^(т)-^(0) = /?£(0)т2/2, R'{(0) = d2R,(т)/</г2 |т = 0. (4.5.5)
Если в (4) выполнить операции, указанные в фигурных
скобках, затем почленно взять м. о. и учесть равенство (5), tq
нетрудно убедиться в справедливости следующих соотношений:
U/ + 8)-^(/)
2[^(0)-^ф)]
G2
м J^('+£1)~5(') 5('+£2)~1 (ОI = (£1 -е2)-(е,)-(е2) + R,(0)
( El к2 J SjE,
(4.5.6)
Воспользовавшись этими соотношениями, из (4) получим
£(/+et)-5(f) _ Д/ + е2)-^(/)
£1 S2
---> -2Я£(0) + 2/Ц'(0) = 0,
et’e2-o
что и завершав! доказательство достаточности.
Необходимость сформулированного условия следует из (6),
а также из определения (2) и последующих формул (8) и (9). Этот
результат позволяет легко провери i ь, будет ли процесс дифференци-
руемым. Точно так же можно показать, что нестационарный процесс
£,(/) будет дифференцируем в средпеквадратическом смысле, если при
h существует вторая смешанная производная d2R^(tl, t2)/dtjdt2.
Перейдем теперь к фактическому вычислению корреляционных
функций. Найдем сначала взаимную корреляционную функцию
между процессом и его производной
238
^(/1,r2) = Mg(z1)^(^)}- (4.5.7)
Так как
м 1)^(Z2 + e)~^)l _+ <г)
то при Е—>0 получим
R^dR^, t2)ldt2. (4.5.8)
Аналогично из соотношения
М +е)~^(г0 )1_~КЦ,(г1+е> *2)—h)
при 8—>0 следует
7?v(zt, t2) = R^(tl; t2) = 8R^'(t1, t2)/dtl=d2R^tl,
(4.5.9)
Таким образом, чтобы найти корреляционную функцию
производной дифференцируемого сл. пр., нужно дважды продиф-
ференцировать корреляционную функцию исходного процесса:
сначала по одному аргументу, а затем — по другому.
Повторно применяя приведенные ранее рассуждения, приходим
к выводу, что н-я производная
^n,(z) = cZ4(0M”
процесса £,(?) существует, если существует
82nR^tx, t^ldt{dt2. При этом
(t) = М [dn t, (t)/dt"} = d"m^ (t)/dtп,
R^nj^t}, G) — M
Лп! dt"2
d2"^i, /2)
dfidf,
R^nl^m) (/j, Z2) —M
4Щ) dmT}(t2)I = a"+”^„(G,/2)
dt\ dt2 ( dfidt?
(4.5.10)
производная
(4.5.11)
(4.5.12)
(4.5.13)
В том случае, когда процессы и т](/) стационарно связаны,
последняя формула принимает вид
(т) — М
4”^(г+т)| _ jxm4"+”7?s„(t)
dtn dtm ( ' ' dt"+m
(4.5.14)
Применим полученные формулы к стационарному в широком
смысле процессу ^(/), для которого
/z?t=const, T?Jz15 ?2) = /?Дт), т = г2 —(4.5.15)
Из формулы (3) следует, что т^ = 0, а из (8), (9), (12) и (13)
соответственно получим
239
RW (t) = M (r,) (/2)} = - M (t2) % (?t)} = R 'k (t), (4.5.16)
M’)=~^=-«a4£t- = .'M0)=-^ (4.5.17)
UT t = 0
(4.5.18)
Формула (17) показывает, что в результате дифференцирования
стационарного в широком смысле сл. пр. всегда получается
стационарный в широком смысле сл. пр. с нулевым м. о.
Воспользовавшись известным свойством корреляционной фун-
кции стационарного процесса, можно написать
|^(т)|^Р', = -/?£(0)- (4.5.19)
Следовательно, конечная вторая производная от корреляционной
функции стационарного процесса существует при любом т, если
только она существует при т = 0, т. е. если существует конечная
дисперсия для производной (скорости).
Такое условие дифференцируемости стационарного сл. пр.
является общепринятым. Однако в § 4.2 были рассмотрены
линейные преобразования БГШ, имеющего дельтообразную кор-
реляционную функцию. Учитывая известные правила оперирова-
ния дельта-функцией, при решении некоторых задач можно
допустить наличие в корреляционной функции производной сл.пр.
дельтообразных слагаемых.
Воспользовавшись формулой Винера — Хинчина, условия диф-
ференцируемости стационарного процесса можно сформулировать
для спектральной области. Согласно этой формуле имеем
co2S5(co) d<f>, S^> (co) = co2 (co),
(4.5.20)
(4.5.21)
Выражение (20) показывает, что необходимое и достаточное
условие дифференцируемости стационарного процесса один раз
состоит в том, чтобы его спектральная плотность убывала
с ростом частоты быстрее, чем со-3. Для дважды дифферен-
цируемого процесса, как видно из (21), спектральная плотность
при высоких частотах должна убывать быстрее и“5.
Взаимная корреляционная функция между процессом и его
производной (17) меняет знак в зависимости от того, как берется
240
производная: справа или слева от отсчетного значения процесса.
Из четности корреляционной функции а также из (16)
при т = 0 следует, что
Я^(0) = /Ц(0) = 0. (4.5.22)
Следовательно, стационарный сл. пр. и его производная в со-
впадающие моменты времени некоррелированны.
Среди стационарных сл. пр. можно выделить узкий класс
процессов, для которых значения процесса ^(г) и его производной
£,'(?) в совпадающие моменты времени не только некоррел про ван-
ны, но и независимы, т. е.
<4.5.23)
Процессы, удовлетворяющие этому условию, можно назвать
стационарными процессами с независимой производной в со-
впадающие моменты времени.
Из формулы (22) следует, что для гауссовских стационарных
процессов условие (23) выполняется и для них нетрудно записать
совместную п. в.
'«• (4-5-24’
где г^(т) — нормированная корреляционная функция процесса £,(/)•
Можно показать, что для дифференцируемых стационарных
сл. пр. совместная п. в. £,') является четной функцией от-
носительно
-Ч')- (4.5.25)
Повторив рассуждения, приведшие к формуле (22), можно
прийти к выводу, что если стационарный процесс дифференцируем
несколько раз, то производная v-ro порядка некоррелированна
с (v—1)-й и (у+1)-й производными, взятыми в один и тот же
момент времени. Применительно к гауссовскому стационарному
процессу отсюда следует, что совместная п. в. для £,(/), £'(/)
и ^"(/) будет иметь вид
(4-5.26)
Выполнив вычисления, при т^ = 0 получим
(4.5.27)
где D} = -D^(0\, Z>2 = Z>^\(t)/c/t4 |I = o = Z>^44)(0);
y = D^D2-Di
241
4.6. ЛИНЕЙНЫЕ ДИФФЕРЕНЦИАЛЬНЫЕ
И РАЗНОСТНЫЕ УРАВНЕНИЯ
Рассмотрим методику «пересчета» вероятностных характера
стик сл. пр. через линейные системы, описываемые линейными
дифференциальными и разностными уравнениями.
Получим характеристики процесса t|(z) на выходе линейной
системы, на вход которой, начиная с момента времени 1 = 0,
воздействует сл. пр. £(z). При этом считаем, что поведение
линейной системы описывается линейным дифференциальным
уравнением /?-го порядка с постоянными коэффициентами а,:
o„q(n)(l) + a„_ 1t-|("',(z) + ... + hoi-|(/) = |(z), (4-6.1)
Примем начальные условия для р (Z) нулевыми:
р (0) = р' (0) =... = р(" ’ °(0) = 0. (4.6.2)
При случайном входном процессе £,(z) выходной процесс p(z)
будет также случайным, и поэтому дифференциальное уравнение
(1) часто называют флюктуационным.
Принципиальные возможности решения задачи с помощью
дифференциальных уравнений такие же, как и при использовании
импульсных характеристик (см. п. 4.2.1). В частности, компактное
и точное решение задачи можно получить для гауссовского
процесса. Если S,(z)— гауссовский процесс, то процесс p(z) на
выходе линейной системы будет тоже гауссовским и дело сводится
к вычислению м. о. и корреляционной функции процесса p(z).
Приведем решение этой задачи.
При фиксированном z каждый член в уравнении (1) есть сл. в.
Беря м. о. от обеих частей и учитывая формулу (4.5.11), получаем
(z) + а„_ i/nj,"- n (Z) +... + a()mr] (z) = (z). (4.6.3)
Поскольку согласно (2) начальные значения первых (и — 1) произ-
водных r|(z) равны нулю, то
(0) = ш' (0) =... = т*~1>(0)= 0. (4.6.4)
Таким образом, м. о., являющееся детерминированной функ-
цией времени, определяется обыкновенным линейным дифферен-
циальным уравнением (3) с нулевыми начальными условиями
(4). Методы решения таких уравнений известны.
Зная правило вычисления м. о., для упрощения записей
примем, что в уравнении (1) фигурируют центрированные случай-
ные процессы 2,(z) и г](z), т. е. процессы с нулевыми м. о.
Положим в уравнении (1) z = Z2 и умножим обе части его
на ^(Zj:
+ Т-. + ЛоПЫ] = ^1К(Ц)-
Согласно формуле (4.5.13) можем написать
242
M{^(z1)n'i>o=ai^(/1, ?2)/a?'2, i=o, i, ..., „-i.
Взяв м. о. от обеих частей равенства, получим
+ + + ^)=A,(G, t2). (4.6.5)
C7 2 Cl 2
Чтобы задать начальные условия, умножим начальные значения
(2) на %(ч): £(g)П(,)(0) = 0, * = 0, h • «—1- Беря м. о., находим
начальные условия, при которых нужно решать уравнение (5):
д' R^fa, 0)/с72 = 0, i = 0, 1, п — 1. (4.6.6)
Запишем уравнение (1) для t = tr и умножим обе части его
на т](/2):
[япЛ(п) (G) + а„-1 т|("”(G) + - + ЯоЧ (Ч)] Л (h) = (Ч) Ч (^)-
Взяв м. о., получим
Ы-Лц(г,. Ы <4.6.7>
На основании (2) имеем г](,) (0) ц (/Д = 0. Операция м. о. дает
начальные условия для уравнения (7)
dlRn(0, t2)/cti =0, z = 0, 1, ..., л—1. (4.6.8)
Если м. о. процессов Ц1) и Т| (t) не равны нулю, то
в уравнениях (5) и (7) нужно заменить корреляционные функции
на соответствующие ковариационные функции.
Отметим, что хотя в (5) и (7) формально фигурируют
частные производные, однако по существу каждое из них является
обыкновенным линейным дифференциальным уравнением: первое
относительно переменной г2, а второе относительно Для
получения интересующей нас корреляционной функции jRn(z15 z2)
нужно сначала решать уравнение (5), а затем (7). Комбинируя
(5) и (7), можно получить дифференциальное уравнение, выра-
жающее ^(4, h) непосредственно через R^t}, 12J- Однако ввиду
громоздкости оно не приводится. Общее выражение в матричном
виде дается формулой (29).
Пример 4.6.1. Воздействие белого шума иа колебательный контур. Пусть на
колебательный контур (рис. 4.18) воздействует белый шум //(/) с нулевым м. о.
и односторонней спектральной плотностью Л'. Найдем корреляционную функцию
для тока г] (/) в индуктивной ветви. Ток ц (/) определяется линейным дифферен-
циальным уравнением второго порядка:
d2t] (/) с/т] (/) , R 1
-”Гу- + 2о(--~7 + а>оГ|(/) = а>0п(г), а=—•, w2 = —. (4.6.9)
(ll III L Lj 1Л.
Пусть начальные условия заданы в виде
п(0)=По- 4ц(/)/Л |,_о = По- (4.6.10)
243
Рис. 4.18. Воздейст-
вие белого шума
на колебательный
контур
Эти начальные условия могут быть детерминированными
(постоянными величинами) или случайными; в последнем
случае должна быть указана начальная совместная п. в.
р(ц0, По)- Будем пока считать начальные условия детер-
минированными.
Известно, что характер решения уравнения (9) зависит
от вида корней характеристического уравнения, и различают
три случая: 1) (00>а, решение колебательное (корни харак-
теристического уравнения комплексные); 2) (оо = а, предельно
апериодическое решение (корни вещественные и равные)
и 3) ш0<а, апериодическое решение (корни вещественные
и различные). Приведем сначала общие выражения.
Воспользовавшись уравнением вида (3), находим усло-
вное (при заданных начальных условиях) м. о.
М{П I По, По} = 5у
а\ . ( а\ .
1-1— ехр (01)+ 1-------ехр( —(01) +
(О / \ (о /
+ ~-°- [ехр((01)~ехр( —(01)] > ехр( — al), 1>0,
(4.6.11)
где (0 = (а2 — (Оо)1/2- В данном случае м. о. не зависит от воздействующего шума
и целиком определяется начальными условиями. Оно стремится к нулю при 1-»оо.
Если ввести центрированный процесс ц0(1) = П (1) —М {р | р0, р'0{, то он будет
удовлетворять прежнему дифференциальному уравнению (9), формальное решение
которого имеет вид
, < (Оо
По ' =5~
ехр[( — a + (o)l] J ехр[(а —(о)т]/?(т)(/т +
о
+ cxp[--(a + (o)l] J ехр [(а + (о)т]н(т)</т
о
Пользуясь им и выполнив необходимые вычисления, получим общее выражение
для корреляционной функции
Лл(1, 1 I т)~/)т1ехр(- a | г|) {ch (от + (а/ш) shco|T| —
- [ch an+(а/со) sh (о (21 +1 т |)+(а2/<»2) (ch (21 +1 т |) — (4.6.12)
— сЬют)] ехр( —2а1)}, £>п = (ОоЛ/8а.
Формулы (11) и (12) можно конкретизировать для трех указанных частных
случаев. При (00>a, (o = ^/a2 —(Oo=jap получим
М{р I По, По} =(Пос08Ш1 1+(аПо + По) Ш1 1 sin(o!l)exp( —al), (4.6.13)
А',,)!, 1+т) = Олехр(—а |т|) {cosapi + aap1 sinap |т| —[(1 +a2op 2)cosap 1 +
+аа»Г1 sin op (21+|т|)—a2cof 2cosap (21 + |t|)] exp(—2ai)}. (4.6.14)
В стационарном состоянии (при 1-»оо)
М{р I По, По} = 0, 7?л(т) = £>л ехр( —а | т |) (cosojjT + awi 1 sin (о, | т |). (4.6.15)
244
Спектральная плотность случайного процесса Г| (/) в стационарном состоянии
для всех трех случаев определяется формулой
An(w) = (A/2) соо/[(со2 - Wo)2 + 4ог со2]. (4.6.16)
Из полученных результатов видно, что начальные условия входят только
в выражение для м. о.; корреляционная функция нс зависит от начальных
условий. В том случае, когда начальные условия т]0, г] о являются не детер-
минированными. а сл.в. и для них задана совместная п. в., формула для
корреляционной функции не изменится, а выражение для м. о. (11) следует
рассматривать как условное. Безусловное м. о. находится по формуле
ОС' -X'
М{т]}= J [ М{т] | г|0, По] Р(По. ПсО^По^По- (4.6.17)
Пример 4.6.2. Модели движения летательного аппарата. Из разных возможных
математических моделей движения летательного аппарата укажем две1. Пусть
в выбранной системе координат расстояние до аппарата г (г), его скорость г(/)
и ускорение а (г) заданы системой из трех линейных уравнений
г'(г) = г(/), »'(/)= —yv + a, — aa + n[t) (4.6.18)
или
/•'(/) = »(?), v'(t) = a, a'(r)= —аа—уг+и(г). (4.6.19)
Здесь штрихами обозначены производные по времени; а и у—постоянные
коэффициенты; n(t) БГШ с нулевым м. о. и спектральной плотностью 7V/2.
Ради простоты примем начальные условия нулевыми:
т(0)=0, г> (0) = О, «(0) = 0.
Нетрудно убедиться, что в обеих моделях дифференциальные уравнения для
скорости приводятся к уравнению второго порядка типа (9), а именно
г" + (а +- у) в' + ауо = п (/), (4.6.18')
»" + а»' +уи = «(/). (4.6.19')
Совместная плотность вероятности p(r. v, а) в обоих случаях нормальная,
и для ее фактического определения нужно лишь вычислить корреляционные
и взаимные корреляционные функции. При вычислении корреляционной функции
скорости Л„(г> h) можно воспользоваться формулой (12) с соответствующей
заменой в ней коэффициентов. Корреляционная функция для расстояния находится
интегрированием
I,
0) = [ f Л„(н,, u2)duidu2.
о о
Корреляционная функция ускорения находится для модели (18) в соответствии
с формулой (4.5.16), а для модели (19)
1 Зингер Р. А. Оценка характеристик оптимального фильтра для слежения
за пилотируемой целью//Зарубежная радиоэлектроника.— 1971.—№8.— С. 40 —
57.
245
Л.(б> G)=52-R„(f1’ ‘гУ^^г-
При вычислении взаимных корреляционных функций следует исходить из записи
решений отдельных уравнений в квадратурах, хотя, например, для второй модели
-^ve(G> =
Рассмотрим общий случай, когда векторный случайный про-
цесс q(z) = (Ti1 (z), T|2(z), ..., T|m(z)} задан системой линейных сто-
хастических дифференциальных уравнений
т)Щ) = ~ Е Mi+MO’ 1=1, m. (4.6.20)
* = i
Здесь aik — постоянные коэффициенты, не зависящие от времени
и г,; (z); n, (z) — БГШ с нулевыми м. о. и корреляционными функциями
м {«,. (z,) nj (z2)} = (1 /2) (ЛЭД1'2 .8 (,2 _, д
Rij=l при i=j, (4.6.21)
коэффициенты Nt и Rtj не зависят от времени.
Требуется найти совместную плотность вероятности р(т|; z) =
=р(т|1, т|2, ..., T|m; z) при детерминированном начальном условии
р(лп п2> — и™; ^о)=5(п 1 -Пю) х
X 3(т|2-т|2о)--§(г|т-Пто)- (4.6.22)
Запишем систему уравнений (20) и начальное условие (22)
в матричной форме
n'=-Aq + n(z), р(ц, 0) = 6(я—По), (4.6.23)
где
Так как система стохастических дифференциальных уравнений
(20) является линейной с постоянными параметрами и белые
шумы n,(z) гауссовские, то плотность вероятности д(ц; z) будет
нормальной. Для ее определения нужно вычислить м. о. m = M{q}
и матрицу дисперсий (значения всех компонент T);(z) берутся
в один и тот же момент времени Z)
D = M {(Tj-m) (ц —т)т}. (4.6.25)
246
Это можно сделать путем непосредственного вычисления м. о.
m и дисперсии D по виду уравнения (23). Осредняя правую
и левую части (23), получаем
т'=— Ат. (4.6.26)
Аналогично можно получить уравнение для матрицы дисперсий
D' = - AD + DAT + В, (4.6.27)
где
в= [М ^ = 0 /2) Rij- (4-6.28)
Зная матрицу дисперсий, можно найти матрицу корреляцион-
ных функций R(z, т), воспользовавшись соотношениями
(Ф(ц т) R(t, т), г > т,
(R(z, /)Фт(т, t), T>t.
(4.6.29)
Здесь Ф(/, т) — фундаментальная матрица, являющаяся решением
уравнения
Ф'(ц Z0)=-A(z^(z, Zo), Ф(г0, Z0) = I, (4.6.30)
где I — единичная матрица.
После того как найдены матрицы m(z) и D(z), можно
записать m-мерную плотность вероятности
Р (н; Н По) = [(2я)" det D] "1/2 ехр [ — (1 /2) (q — т)т х
xD-’fn-m)]. (4.6.31)
Получим выражение для корреляционной функции смешанного
процесса авторегрессии — скользящего среднего (4.1.31):
Пг = ci Пг-1 + ... + cvf\t_v + nt + blnt-1 +... + b[lnt.~il. (4.6.32)
Запишем его через операторы (4.1.25):
С(8)ц( = 5(8)«(, (4.6.33)
где С (8) и В (8) — полиномы степени v и ц:
C(8)=l-q8-c282-...-cv8v, 5(8) = 1 + b^+...+Ь^.
Отметим, что рассматриваемый процесс можно трактовать
двояко: 1) как процесс авторегрессии порядка v: С(8)ц( = т(,
где vt есть процесс скользящего среднего т( = 5(8)«( порядка ц;
2) как процесс скользящего среднего ц( = 5(8)м( порядка ц, где
ut подчиняется процессу авторегрессии порядка v: C(8)wt = p(, так
что С(8) fjt = 5(8) С(8) м( = 5(8) «t.
Ограничимся случаем стационарного состояния, которое воз-
можно при условии, что все корни (нули) характеристического
уравнения процесса С(8) = 0 лежат вне единичного круга. Обо-
значим корреляционную функцию и нормированную корреляци-
онную функцию в этом режиме через
247
Аь = М{цД + /(}, = (4.6.34)
Для получения корреляционной функции процессы умножим
все члены уравнения (32) на f),fc и возьмем м. о. от обеих
частей полученного равенства:
= Rk-.j + ... + cvRk-v+R1yn(k)+biRn„(k — !) + ••.
... + 6(Лн#-4 (4.6.35)
где A,1„(A') = M {тц —взаимная корреляционная функция меж-
ду ц и п. Так как тр_к зависит от слагаемых, которые появились
до момента t—k, то
АПП(А) = О, /<>0; 7?л„(^)^0, М.
При этом из (35) следует
Rk — Су Rk . j + c2Rk_2 + ... + cvRk-v, Ar>g + 1,
, „ . (4.6.36)
гк — с1гк-1 +(-‘2Гк-2 + ... + Cvfk-V, К^Ц + 1,
ИЛИ
С(8)/\ = 0, /с^ц + 1.
Таким образом, для процесса авторегрессии— скользящего
среднего (v, ц) существует ц нормированных корреляций г
гм_г1? значения которых связаны зависимостью (35)
с ц параметрами скользящего среднего h и v параметрами
авторегрессии с.
Далее, v значений гц, ..., rM-v+l необходимы как начальные
значения для решения разностного уравнения С(8)rfe = 0, А>ц + 1,
полностью определяющего корреляции при больших задержках.
Если ц — v<0, вся корреляционная функция г- для j = 0, 1, 2, ... будет
состоять из совокупности затухающих экспонент и (или) затухаю-
щих синусоид; ее свойства определяются полиномом С (5) и началь-
ными значениями. Если же ц — v^O, то имеется ц —v+ 1 начальных
значений г0, ... rp_v, не укладывающихся в эту общую картину.
Пример 4.6.3. Процесс авторегрессии второго порядка. Получим нормированную
корреляционную функцию процесса авторегрессии второго порядка
n( = TiH(-i+c2fi,.2 + /7„ (4.6.37)
являющегося формальным аналогом дифференциального уравнения (9).
Для стационарности процесса необходимо, чтобы корни характеристического
уравнения
C(3)=l — CjS — с252 = 0 (4.6.38)
лежали вне единичного круга, т. е. чтобы коэффициенты Су и с2 находились
в треугольной области (рис. 4.19)
С2 + С1<1. сг — — 1<с2<1.
Из (36) получаем разностное уравнение второго порядка, которому удов-
летворяет нормированная корреляционная функция
248
Рис. 4.19. Расположение корней и характер корреляционных функций
= + с2гк-2, к>0, (4.6.39)
с начальными значениями г0=1 и /4 =ct/(l —с2). Общее решение этого разностного
уравнения имеет вид
+ А2к2 = [Х)+1 (1 - Xi)-Х‘,+1 (1 - Xf)]/(X, - Х2) (1 +XjX2), (4.6.40)
где ХГ1 и Х71--корни характеристического уравнения (38).
В зависимости от характера этих корней можно выделить два случая. При
с? + 4с2>0 (что соответствует на рисунке областям 1 и 2, лежащим выше
параболической границы) корни уравнения вещественны и корреляционная функция
состоит из затухающих экспонент. При этом в области 1 корреляционная
функция затухает, оставаясь положительной, что соответствует положительному
доминирующему корню в (40); в области 2 затухающая корреляционная функция
знакоперемеина, что соответствует отрицательному доминирующему корню.
Если cf+4c2<0 (что соответствует областям 3 и 4), то корни Хх и Х2
комплексные и корреляционная функция имеет псевдопериодический характер.
В данном случае X, =Xexp(jo>0), Х2 = Хехр(—j(00) и из (40) можно получить
rk = (sgn Cj )l X'1 sin (соо/с+<р)/ sin <р,
где
f 1, С1>0, | Cj | 1 +Х2
sgnc!=1 , A COS(00 =--------т=< tg<P = -—77tg(00,
[-1, С!<0, 2vZ-c2 1-V
к = у/ — с2 и имеет гот же знак, что и с,. Фазовый угол <р меньше 90" в области
4 и лежит между 90 и 180" в области 3. Это означает, что в области
4 корреляционная функция вначале (для нескольких первых задержек) положитель-
на, а в области 3 всегда меняет знак при переходе от задержки 0 к задержке 1.
4.7. ОГИБАЮЩАЯ И ФАЗА УЗКОПОЛОСНОГО ПРОЦЕССА
Линейные радиотехнические системы, работающие на высоких
и промежуточных радиочастотах, как правило, являются узко-
полосными. Если обозначить ширину квадрата амплитудно-
249
частотной характеристики системы (допустим, на уровне 0,5 от
максимального значения) через t±f,& центральную частоту полосы
пропускания через /0, то обычно выполняется неравенство
Д/Wo- (4.7.1)
При воздействии на такую систему стационарного сл. пр.
с широким спектром сл. пр. на выходе системы в ста-
ционарном режиме работы согласно формуле (4.2.19) будет
иметь узкую спектральную плотность, т. е. для нее будет
справедливо условие (1).
Покажем, что корреляционную функцию стационарного уз-
кополосного сл. пр. всегда можно представить в виде
h (х) = Dt. Р (х)cos [°>ох+7 (х)]> (4-7.2)
где р(т) и у(т) — медленно изменяющиеся функции по сравнению
с COS(00T.
Если в формуле (2.5.19) перейти к новой переменной v = f—f0,
то можно написать
^(т) = f s (f) cos(2nf x)df= f S + (/0 + v)cos27c(/0 + v)t67v.
о -/»
Используя обозначения
Р5рс(т) = f S + (/0 + v)cos(27Cvr)<7v,
(4.7.3)
p^Ps(T)= f s + (/o + v) sin(2rcvT)Jv,
имеем
(x) = Pc (x)cos (M *) - Ps fc) sin (2л/0 т)] =
= Z>^p(t)cos[co0t + y(t)], (4.7.4)
где
P(T) = [Pc(T) + Ps2W]1/2; tgy(T) = pe(T)/pc(r). (4.7.5)
Таким образом, корреляционную функцию стационарного
узкополосного случайного процесса всегда можно представить
выражением (2). Так как рс(т) есть четная функция т, а рДт)
— нечетная, то р(т) всегда четная функция т, а у(т) — нечетная.
Предположим, что спектральная плотность 5¥ (/) симмет-
рична относительно центральной частоты /о = соо/2л. Поскольку
для узкополосных процессов ширина спектра мала по сравнению
с /0, то нижний предел интегрирования в выражениях (3) без
значительной погрешности можно заменить на — со. Тогда
ps (т) = 0 и из (4) получим
00
р(т) cosco0t = cosco0t f 5 + (/0 + v)cos(2nvT)6?v. (4.7.6)
-Л
250
Рис. 4.20. Узкополосный случайный процесс
£,(/) и его огибающая Л(/)
Следовательно, корреляци-
онная функция стационар-
ного узкополосного случай-
ного процесса с симметрич-
ной спектральной плотно-
стью может быть представ-
лена формулой
AJt) = ZXp(t) cosco0t.
(4.7.7)
Поскольку спектральная плотность S + (/0 + v) узкополосного
процесса практически полностью расположена в низкочастотной
области частот v, то функции рс (т) и рДт) и, следовательно,
р(т) и у(т) для узкополосных процессов являются медленно
изменяющимися по сравнению с cosg)0t.
Реализации (фотографии) узкополосных процессов ^(г) напо-
минают модулированные колебания (рис. 4.20). Поэтому узко-
полосные процессы часто называют модулированными, квазигар-
моническими или квазимонохроматическими сл. пр. Квазигар-
монический сл. пр. £,(г) целесообразно записать в виде сигнала,
модулированного по амплитуде и фазе:
^(t) = A (/) cos[o0z + (p(z)], 4(/)$s0, (4.7.8)
где ,4(t) и cp(z) — медленно изменяющиеся функции времени по
сравнению с cosw0/. Случайную функцию j(/) можно назвать
огибающей узкополосного процесса £,(/), а функцию ср (?) — случайной
фазой.
Ниже будет показано, что скорость изменения огибающей
и фазы в среднем характеризуются величиной, обратной полосе
пропускания системы А/ При условии (1) огибающая и фаза
за период высокой частоты 7’0=1//0 практически не изменяются.
Поэтому в некоторых задачах (например, при анализе детек-
тирования, § 5.2) узкополосным сл. пр. Е,(г) можно оперировать,
как обычными модулированными колебаниями (в частности,
удается воспользоваться квазистатическим приближением). Иначе
говоря, для решения некоторых задач представление (8) оказыва-
ется продуктивным.
Разумеется, что представление квазигармонического процесса
£,(г) в форме (8) пока неоднозначно, так как при заданных
вероятностных характеристиках £;(/) имеется произвол в определе-
нии характеристик и <p(z), а также в выборе частоты
соо = 2тг/о. Если, например, при выбранной частоте. соо = const за
некоторое время А произошло изменение £,(/), то пока невозможно
однозначно различить, произошло оно за счет A (t) или ф(?). Более
того, сама запись (8) не изменится, если в нее подставить
ф(/) + 2А:7г, k = 0, 1, 2, вместо ф(/), Чтобы исключить эту
неоднозначность, наложим ограничение на возможные значения
251
фазы, а именно будем в записи (8) рассматривать фазу <р(г),
приведенную к интервалу шириной 2л (в частности, |ср(/)|^л).
Огибающую А (/) и случайную фазу cp(z) можно доопределить
разными способами. Один из них базируется на преобразовании
Гильберта и введении аналитического сигнала.
Напомним, что две функции (детерминированные или случай-
ные) связаны преобразованиями Гильберта, если
(4.7.9)
где интегралы берутся в смысле главного значения Коши. Если
рассматривать ^(г) как входной сигнал, то т|(/) есть выходной
сигнал линейной системы с импульсной характеристикой Л(/) =
= 1 /nt и комплексной частотной характеристикой
K(jco) = - | ехр( — j(£>t)dt= — j sgnco = <
-j, ®>0,
0, co = 0,
j, CO<0.
(4.7.10)
Линейный фильтр с такой комплексной характеристикой часто
называют квадратурным фильтром. Он сдвигает фазы спект-
ральных составляющих входного сигнала на —л/2: при входном
колебании cosco/ выходной сигнал будет cos(coC — n/2) = sincoC.
Пусть ^(г)—стационарный в широком смысле сл. пр. с ну-
левым м. о. и корреляционной функцией АДт). Пользуясь установ-
ленными правилами преобразования характеристик сл. пр. линей-
ными системами, нетрудно получить следующие формулы для
корреляционных функций:
W (т), (т) = м (/) Т| (t + т)} =
=-М {£,(/ +т) т](/)}. (4.7.11)
Процессы £,(/) и т|(/) являются стационарно связанными, причем
взаимная корреляционная функция между ними нечетная. Отсюда
следует, что спектральные плотности стационарных процессов
£,(?) и ц(/) одинаковы: (со) = (со), а взаимная спектральная
плотность равна
(со) = К(jco) (со) = -j^(co) sgnco. (4.7.12)
Перейдем от вещественного случайного процесса Е,(с) к ком-
плексному сл. пр. (его часто называют аналитическим процессом)
C(z) = ^(z)exp[j(coo/ + <p(/))] = ^(/)+jr|(c) (4.7.13)
и потребуем, чтобы его мнимая часть
252
Рис. 4.21. Геометрическое
представление узкополосно-
го процесса
совместно гауссовскими
p (t)=A (z) sin [cooZ + <p(z)], Л(/)>0, I <p|si7r, (4.7.14)
представляла собой преобразование Гильберта от вещественной
части £,(z). С помощью функций £,(z) и р (?) огибающую Л(?)
и фазу <p(z) можно определить однозначно:
л(0=[М(0+п2(0]1/2=1М01’ ®о'+ф(0=
= arctg [р (z)/£,(?)] = arg £(/). (4.7.15)
Видно, что A (z)> | £,(z) | ^0 и t4(z) = | £,(z) | в точках, где p(z) = O,
т. е. в огибающую вписан процесс ^(Z).
Если ввести комплексную амплитуду
E(z) = /l(z)exp[j^(z)] = ^c(z)+jA(z), (4.7.16)
где
Ac(t) = A(t) coscp(z); As(t) = A (z) sincp(z); J(z)^0, (4.7.17)
то аналитический процесс, огибающую и фазу можно
записать в виде
£(?)= Й(?) exp(jc£>oz), (4.7.18)
Л(?) = [Лс2(?) + А2(?)У/2, cooz + <p(z) = arctg [Л(?)Мс(?)]. (4.7.19)
Случайные функции Лс(?) и /ф(?) есть
проекции вектора длины А (?) на оси
прямоугольной системы координат. Век-
тор вращается со случайной угловой
скоростью <р' (z), конец вектора блуждает
по плоскости (рис. 4.21).
Из (17) с учетом (8) и (14) получаем
Л(0 = МО cos “о(') +Р (?) sin (оо (z),
4 (0 = - МО sin “о (0 + Л (0 cos ®0 (z).
(4.7.20)
Отсюда следует, что для гауссовского
стационарного процесса £,(?) с нулевым
м. о. проекции Х(?) и 4(0 являются
со следующими характеристиками:
mK(O)=m{4(z)}=m{^(z)}=o,
7?c(t) = M{/1c(z)A(^ + t)} = /?s(t) = MH(0^c(^ + 0} =
= (т) cos (вот4-7?5т| (т) sincooT = Z>£p(r) cos [<вот—у (г)], (4.7.21)
/?С5(т) = М{Л(?)А(/+т)}=-М{Лс(?+т) Д(?)} =
= 4л(0 cosco0t —7?Jt) sin<вот = —Z^p(t) sin [<вот + у(т)],
яС5(о)=м{лс(ОА(О}=о,
Dc = М {А 2 (z)} =D = М {A s2 (z)} = (0) = D^,
253
, Г,. / , г, / X П И^Дй)), СО > 0.
= 2[Sjco) + Sjco)sgn(B] = | ' м<(|
где
^р(т) = [Л^(т) + Л^(т)]1/2; у(т) = агс1ё[^л(т)/^(т)]. (4.7.22)
Разрешая уравнения (21) относительно /^(т) и 7?^л(т), получаем
R^ (т) = Rc (т) cos <вот — /?cs (т) sin соот = R (т) cos [соот + ф (т)],
R^ (т) = 7?cs (т) cos <вот + Rc (т) sin <вот = R (т) sin [соот + ф (т)], (4.7.23)
где
7?(t) = [J?2(t) + 7?cS(t)]1/2; ф(т) = аг^[ЯС8(т)/Яс(т)]. (4.7.24)
На основании (13) и (18) находим корреляционные функции
аналитического процесса и его огибающей:
^•(т) = М{^(г + т)^(/)} = 2[^(г)+)^л(т)], (4.7.25)
7? (т) = М {(Г + т) ехр [ - jш0 (/ + т)] * (г) ехр (jю0 Г)} =
= ехр(—]’юот). (4.7.26)
Этим корреляционным функциям согласно (12) соответствуют
спектральные плотности
^•(<о)= J /?c(T)exp(-jcoT)6/T = 2[S’J(n)+j^I1(<o)] =
(4.7.27)
^(®) = f /?{(т)ехр[-)(«)+®0)т]б/т = 5с(с) + а)0). (4.7.28)
— со
Согласно (27) спектральная плотность аналитического процесса
отлична от нуля только при положительных частотах.
До сих пор на исходный случайный процесс %(z) не налагались
ограничения, в частности не требовалось, чтобы он был узко-
полосным. Однако для широкополосного процесса ^(z) огибающая
/4(z), случайная фаза <p(z), квадратурные составляющие Jc(z),
Js(z), а также их корреляционные функции не являются медленно
изменяющимися. В радиотехнических приложениях понятиями
огибающей и случайной фазы удается продуктивно восполь-
зоваться для узкополосных процессов, когда указанные функции
оказываются медленно изменяющимися по сравнению с колеб 1-
нием частоты ю0.
Покажем, что для узкополосного процесса ^(z) квадратурные
составляющие огибающей Jc(z) и A(z) являются медленно
изменяющимися функциями. Для этого выразим их корреляци-
онные функции через спектральную плотность исходного процесса
Sjco). Подставив в (26) корреляционную функцию аналитического
процесса
254
00
имеем
1
2л
(со) exp (j сот) d(a = y (®) exP (j®T)
(4.7.29)
Sjco) exp [j (co —coo)t] c/co =
V
0
2 Г ~ 2 f
Sjfi) exp(jfir) d£l^~
S, (fi) exp (JQt) c/fi,
(4.7.30)
где fi = co —coo и S'^(fi) = S'^(fi + coo). Но на основании
7?K(T) = 2[/?c(T)+j/?cs(T)].
(16)
(4.7.31)
Приравнивая правые части выражений (30) и (31), получаем
нужный результат
Яс(т)
Ks (т)
(4.7.32)
Спектральная плотность S^(fi) получается из 5Jco) смещением
последней по оси частот со влево на величину соо. Для
узкополосного процесса ^(г) функция \(П) сконцентрирована
в узкой полосе около нулевой частоты П = 0. Поэтому /?с(т)
и Rcsty, являющиеся косинус- и синус-преобразованиями от нее,
представляют собой видеоимпульсы, т. е. являются медленно
изменяющимися функциями т.
В тех случаях, когда спектральная плотность S- (со) симмет-
рична относительно частоты соо, т.е. функция SdCi) четная, из
(32) имеем 7?cs(t) = 0. При этом выражения (21) и (23) упрощаются:
£^р(т) = /?с(т), /?cs(r) = 0, у(т) = О, (4 7
7?Jt) = £>^p(t)cosco0t, 7?^л(т) = £)^р(т) sincoor.
В предыдущем рассмотрении «центральная» частота ш0 считалась заранее
выбранной. Естественно возникает вопрос об оптимальном значении этой
частоты для заданной спектральной плотности процесса 56(ш). Чтобы сфор-
мулировать критерий оптимальности, вспомним, что основная цель введения
огибающей и фазы узкополосного процесса состояла в том, чтобы в самом
представлении такого процесса «расщепить», выделить в явном виде медленно
и быстро изменяющиеся компоненты или «параметры». Исходя из этого
замысла, по-видимому, целесообразно частоту ш0 выбрать таким образом,
чтобы получить наименьшую скорость изменения медленно изменяющихся
компонент. Поэтому в качестве одного из возможных и физически оправданных
255
кри ।срисв onriiMHjtbiioi о значения частоты <о(| можно принять минимизацию
матсматичсско! о ожидания квадрла модуля производной по времени от ко-
мплексной огибающей:
Mil I-'" (/) р! = min.
Поскольку спектральная плотность производной стационарного процесса Й'(/)
равна (»25’(До))-=о)2.'> •(«) —(о0), то задача сводится к минимизации интеграла
У--2яМ [| Г(/))2)= j o2S'r(<o + a>0)i7w= f (П-ш0)5г(П)dQ. (4.7.34)
при условии заданной спектральной плотности 5;(ш). что в силу (27) эквивалентно
заданию спектральной плотности 5с(со).
При фиксированной спектральной плотности .S’, (со) интеграл J зависит только
ог о>п. Приравнивая производную по о>0 от правой части (34) нулю, приходим
к заключению, что оптимальное значение частоты ш0 есть среднее значение
спемралыюй плотности 5t(m) при <о>():
г '<
J го 5; (со) с/го j со57 (со) dсо
т(, = -д-------------------------. (4.7.35)
j 5-(го) с/го [ 56 (со) dсо
При этом минимальное значение интеграла (34) равно
J= j (со2 —О)2) 5 (со)с/со = 4 j (со2 —Шо) Sjcojc/co. (4.7.36)
-.г О
Основной круг задач, связанных с анализом узкополосных
процессов вида (8), состоит в нахождении различных вероятност-
ных характеристик (плотностей вероятностей, корреляционных
функций и др.) для огибающей А, случайной фазы <р(() и их
производных по времени. При этом часто полагают исходный
сл. пр. £(/) гауссовским. Такое предположение практически опра-
вдано по крайней мере для собственных флюктуационных шумов
радиоприемных устройств на выходе УРЧ и УПЧ.
Общая методика решения подобных задач заключается в сле-
дующем. Так как преобразование Гильберта является линейным,
то для гауссовского процесса ^(/) сопряженный процесс р(()
будет также гауссовским. При этом квадратурные компоненты
Яс(/) и ЛД/), а также их различные производные согласно (20)
есть совместно гауссовские процессы с известными корреляцион-
ными характеристиками (21) и для них можно записать выражения
совместных нормальных плотностей вероятностей1. Если в этих
плотностях вероятностей от ЛД/) и ЛД() перейти по формулам
Тихонов В. И. Выбросы случайных процессов.— М.: Наука, 1970.— 392 с.
256
(17) к огибающей A(t) и фазе <₽(/), то могут быть получены
как совместные, так и раздельные п. в. огибающей и фазы.
Например, совместная п. в. для j4c(z) и Л3(/) согласно (21)
имеет вид
р(Ас, Л9) = (1/2л^)ехр[-(Л2+Л2)/2Л5].
(4.7.37)
Перейдя здесь по формулам (17) к A(t) и <p(z), получаем
совместную плотность вероятности огибающей и фазы:
р2(А, ср) = (А/2лО^)ехр(-А2/2О^), Л>0, |ф|^л.
Отсюда находим одномерные п. в. огибающей и
р(Л)= р2(А, ф)б/ф = -^-ехр
(4.7.38)
фазы:
(4.7.39)
А2
2D.
р(ф) = Р2(Л, (p)dA=^, |ф|^7С. (4.7.40)
о
Поскольку р2(А, ф)=р(Л )р(ф), то огибающая А (z) и фаза ф(/),
взятые в один и тот же момент времени, независимы, причем
огибающая распределена по закону Рэлея (39), а фаза — равномер-
но в интервале [ — л, л].
Если записать совместную нормальную п. в. для четырех
случайных величин Лс(0’ Х(?+т), A(z + t) и затем по
формулам (17) перейти к огибающим и фазам, то получим
совместную п. в. для огибающей и фазы в два момента времени:
р4(Л, Ах, ф, (Рг) = 4я2П2(1,_г2)ехР |~2^(1-г2) 1А +А'~
— 2гсААх со8(фт —ф) + 2ЛЛтгся 8т(фт —ф)]^, (4.7.41)
где введены нормированные корреляционные функции
г2(т) = г2(т) + г2,(т), гс(т) = Лс(т)/^, rcs(T) = /?cs(T)/Z>v
Указанная методика может быть обобщена на часто встреча-
ющийся случай, когда рассматривается сумма узкополосного
гауссовского процесса ^(zj = A (z) cos[соо? + ф(?)] и гармонического
сигнала 5(z) = t40 cos(cosz-|-y). Введем огибающую 5(z) и случайную
фазу ф (z) такой суммы (рис. 4.22)
5(z) + ^(z) = t4 (z) cos(cn0z + (p(z)) + -40 cos(co0z + Aci)Z + 9) =
= 5(z) cos(co0z + i|/(z)), Aco = ci)s —coo, (4.7.42)
где
257
9—2247
5(z) = [52(z) + B2(z)]1/2^0;
i|/(z) = arctg[5s(z)/5c(z)]; |ф[<тс;
5c(z) = 5(z) cos ф (z) = Лс (z)-|- Ло cos(AcoZ+0);
5s(z) = 5(z) sinф(z) = As(z) + Ao sin(AcoZ + 0).
(4.7.43)
(4.7.44)
Рис. 4.22. Геометрическое пред-
ставление суммы гармоническо-
го сигнала и узкополосного
При выполнении условия (1) и малой
расстройке Асо^ссор огибающая 5(z)
и случайная фаза y(z) являются мед-
ленно изменяющимися функциями по
сравнению с coscn0z.
Если в нормальной п. в. (37) пе-
рейти от переменных Ас и As к новым
переменным В и ф с помощью соот-
ношений
Ac(t) = B(t) cosф(z) — Ао cos(Acoz + 0),
As(t) = B(t) sinф(г) — Ао sin(AcoZ + 0),
(4.7.45)
процесса
получим совместную п. в. для оги-
бающей 5(z) и случайной фазы i|/(z)
ТО
D 1 1
р2(Д ф) = —-ехр 1[В2 + Ао — 2ВАО х
х cos (ф — Acoz —3)] >.
(4.7.46)
Отсюда находим
Н5) = ^ехр
^±1° )/0( ^2) в^о,
2D, J °\D, Г
(4.7.47)
Р1(Ф)=^ехр
2л
1 + a cos 0Ф (a cos 0) ехр
~«2cos20
2
а=^=, 0 = ф —Аал —0, (4.7.48)
7^
где 10(х)— функция Бесселя нулевого порядка от мнимого
аргумента; Ф(х)— интеграл вероятности.
В заключение укажем, что огибающую A (z) и случайную
фазу ф (Z) узкополосного сл. пр. Е,(г) можно определить1 без
использования преобразования Гильберта и введения аналитичес-
кого процесса, а через исходный процесс c,(z) и его производную
^'(0:
Тихонов В. И. Статистическая радиотехника.—М.: Сов. радио, 1966.— 678 с.
258
A (/) = [eV) + ®o V(0] '/2- (4.7.49)
При таком определении огибающей в отличие от определения
с помощью преобразования Гильберта предполагается, что про-
цесс (Z) является дифференцируемым. В этом смысле определение
огибающей (49) является в принципе менее общим, хотя оно
имеет ряд преимуществ и физически более наглядно, так как
выражает огибающую через локальные значения процесса. До-
пущение о дифференцируемости процесса практически (например,
для собственных шумов на выходе УРЧ или УПЧ) не является
ограничительным.
Пренебрегая при вычислении c,'(Z) производными по времени
от медленно изменяющихся функций А (Z) и ср (/), имеем
-(ооЛ (z)sin[woz+ф(01- (4.7.50)
Из (2) и (50) следует определение случайной фазы
ф(г)= - (Оо t-arctg (z)/coo£, (z). (4.7.51)
Базируясь на таких определениях огибающей и фазы, для
узкополосного процесса £,(z) можно получить все результаты,
приведенные выше.
4.8. О НОРМАЛИЗАЦИИ СЛУЧАЙНЫХ ПРО-
ЦЕССОВ ИНЕРЦИОННЫМИ СИСТЕМАМИ
На с. 198 было указано, что если на вход линейной системы
воздействует негауссовский сл. пр. ^(Z), то получить точные
вероятностные характеристики (например, п. в.) выходного про-
цесса не удается. В некоторых случаях приближенно решить
эту задачу позволяет использование эффекта нормализации сл.
пр. инерционными системами. Если негауссовский процесс ^(z)
с интервалом корреляции тк воздействует на инерционную
линейную систему интегрирующего типа с постоянной времени
тс»тк, то процесс ц (z) на выходе такой системы приближается
к гауссовскому по мере увеличения отношения тс/тк. Этот
результат часто называют эффектом нормализации сл. пр.
Примем следующие определения величин тс и тк. Если
линейная система является простой (в том смысле, что различные
разумные определения постоянной времени тс дают примерно
одну и ту же величину), то в качесте возможного определения
постоянной времени системы можно принять следующее:
Tc=~ i^naxl 1 f \h(t)\dt,
О
(4.8.1)
где /?(z)— импульсная характеристика линейной системы и /zmax —
ее максимальное значение. Если же линейная система сложная
259
и характеризуется несколькими постоянными времени, то в качест-
ве общего времени тс нужно брать минимальное из них.
Когда входной сл. пр. является простым (различные определе-
ния приводят примерно к одинаковому результату), то в качестве
оценки тк можно пользоваться, например, формулой (2.4.33).
Эффект нормализации сл. пр. при линейных преобразованиях
интегрирующего типа является следствием центральной предель-
ной теоремы.
Представим сл. пр. ц (?) на выходе линейной системы
с импульсной характеристикой h(t) через входной процесс E,(z)
интегралом свертки (4.2.1):
т| (/) = }/? (г-т)^(т)Л.
о
(4.8.2)
Примем, что Z>TC.
Разобьем отрезок интегрирования [0, t ] на большое число
элементарных интервалов одинаковой длительности А точ-
ками 0 = /о, tx, t2, ..., tn = t, причем выберем А<стс. При этом
импульсная характеристика системы на каждом из элементарных
интервалов будет мало изменяться и можно полагать h(t — А)«
^h(t'). Запишем интеграл в виде суммы
П(0= Е f Y (4-8-3)
ц = О ц — О
где
t +д
= J ^(т)б/т.
t
Отдельные слагаемые
висимыми. Однако если
(4.8.4)
суммы, вообще говоря, являются за-
выполняется неравенство
тс»тк (4.8.5)
и А»тк, то они будут слабо зависимыми. Доказательство этого
утверждения в общем случае дать затруднительно; оно должно
проводиться в каждом конкретном случае самостоятельно путем
вычисления моментных или корреляционных функций (по крайней
мере коэффициентов асимметрии и эксцесса). Здесь лишь покажем,
что при А»тк даже соседние члены суммы (3) (на примыкающих
временных интервалах) практически некоррелированны.
Примем, что входной процесс £ (/) является стационарным
в широком смысле, имеет нулевое м. о. и заданную корреляци-
онную функцию (т) = Dr (т). При этом допущении оценим
значение нормированной взаимной корреляции между двумя
слагаемыми суммы (3)
гц,и+1 = М{^ц+1}(ЛцЛц+1)-1/2, ЛЦ = М{С2}.
260
Проделав примерно те же вычисления, с помощью которых
была получена формула (4.2.29), находим
Гц, ц+1« f (А - т) [г (А+т) — г (А - т)] dr/2 J (А - т) г (т)й?т х
о о
» [ тг(т)^т/2А J 1. (4.8.6)
о о 2Д
Если принять соглашение, что некоррелированность слагаемых
в какой-то мере характеризует их независимость, то придем
к следующему результату. При выполнении неравенств
?>тс»А»тк (4.8.7)
процесс г] (?) на выходе линейной системы согласно центральной
предельной теореме приближенно будет гауссовским. Правое
неравенство (А»тк) обеспечивает слабую коррелированность
(зависимость) слагаемых суммы (3), а неравенство тс»А гаран-
тирует наличие большого числа слагаемых в сумме (3).
Глава 5. МЕТОДЫ АНАЛИЗА СЛУЧАЙНЫХ
ПРОЦЕССОВ В НЕЛИНЕЙНЫХ СИ-
СТЕМАХ
5.1. ФОРМУЛИРОВКА ЗАДАЧИ. МЕТОДЫ
АНАЛИЗА
В соответствии с классификацией преобразований сл. пр., при-
веденной в § 4.1, рассмотрим детерминированные нелинейные
инерционные преобразования. При таких преобразованиях ин-
тересующий нас процесс на выходе нелинейной системы т] (?)
связан с входным процессом Ц?) нелинейным дифференциальным
уравнением. Вид этого уравнения определяется конкретной си-
стемой или устройством.
В качестве примеров типовых нелинейных радиотехнических
систем можно указать следующие: все автоколебательные системы
(автогенераторы гармонических и импульсных колебаний), нели-
нейные усилители и детекторы различных видов, модуляторы,
разнообразные следящие системы (фазовая и частотная автопод-
стройки, дальномеры, автоматическая регулировка усиления),
триггеры и др. При этом следует различать два вида или
класса моделей нелинейных систем: системы, представляющие
собой разные комбинации нелинейных безынерционных устройств
261
Рис. 5.1. Пример нелинейной системы
и линейных звеньев (см., например, рис. 4.3) и системы, описыва-
емые нелинейными дифференциальными уравнениями.
Анализ моделей нелинейных систем первого вида по существу
сводится к раздельному пересчету вероятностных характеристик
сл. пр. через нелинейные безынерционные устройства и линейные
системы; правила таких пересчетов были рассмотрены ранее.
Пусть, например, требуется вычислить корреляционную фун-
кцию на выходе нелинейной системы (рис. 5.1), состоящей из
двух нелинейных безынерционных устройств, между которыми
включена линейная система с импульсной характеристикой h(t),
при нулевых начальных условиях:
Ay(Zi, Z2) = M{g(C(?i))g(CG2))}-=
= И С2; Д, (5-1.1)
Wy(r)=M{g(C(O)}=jg(Ch(C; №
Отсюда видно, что для вычисления требуемой корреляционной
функции необходимо знать двумерную п. в. процесса £(z) на
выходе линейной системы. Если принять, что входной процесс
Е, (Z) гауссовский, то процесс ц (z) на выходе первого нелинейного
элемента будет негауссовским и задача определения двумерной
п. в. pc(^i, ц2; G) может быть решена лишь приближенно
(с. 198). Приведенные рассуждения можно обобщить на нелиней-
ные системы, описываемые функциональными рядами Вольтерра
(4.1.35).
Встречаются трудности при анализе сл. пр. в нелинейных
системах второго вида, описываемых нелинейными дифференци-
альными уравнениями. Будем говорить, что система имеет
порядок к, если она описывается дифференциальным уравнением
к-го порядка. Применительно к нелинейной системе первого
порядка нелинейное дифференциальное уравнение может, напри-
мер, иметь вид
B'(')=/(Z’П('))4^(М1(О’ ^(0)’ ^' = dvi/dt. (5.1.2)
Вид функций /(•) и g(-) определяется параметрами рассмат-
риваемой системы. Для детерминированной системы (преоб-
разования) эти функции считаются детерминированными и извест-
ными. Если функции f и g нелинейны относительно т], то (2)
есть нелинейное дифференциальное уравнение первого порядка.
262
В том случае, когда входное воздействие £,(z) содержит белый
шум n(t), уравнение принято называть стохастическим диф-
ференциальным уравнением. Если же i;(z) содержит только кор-
релированное воздействие (сл. пр. с конечным, не нулевым
интервалом корреляции), то соответствующее дифференциальное
уравнение будем называть флюктуационным дифференциальным
уравнением, хотя в литературе встречаются и другие названия
(уравнение Ланжевена, кинетическое уравнение).
Формулировка задачи анализа остается прежней: предполагая
известными параметры модели системы, т. е. конкретный вид
уравнения (2) и необходимые вероятностные характеристики
входного процесса (воздействия) E,(Z), требуется найти нужные
вероятностные характеристики выходного процесса ц (z). Те
характеристики выходного процесса ц (Z), которые нужно нахо-
дить, определяются физическим содержанием конкретной задачи.
Обычно интересуются моментами (чаще всего м. о. и корреляци-
онной функцией) выходного процесса q (Z) или же п. в. (чаще
одномерной и реже двумерной).
Известно, что характер решения нелинейного дифференци-
ального уравнения зависит от его вида, формы внешнего
воздействия и начальных условий, причем в общем случае
невозможно записать решение в квадратурах. В этом состоит
существенное отличие нелинейных инерционных преобразований
сл. пр. от линейных, для которых выходной процесс выражается
через входной с помощью интеграла свертки.
По этой же причине нелинейные инерционные преобразования
принципиально отличаются от безынерционных преобразований
и сводящихся к ним. При безынерционных (функциональных)
преобразованиях сл. пр. известны сравнительно простые методы
«пересчета» вероятностных характеристик (1.5.9). Для нелинейных
инерционных преобразований не существует единого метода
решения.
Метод решения нелинейных флюктуационных дифференциальных
уравнений, в частности уравнения (2), определяется двумя фактора-
ми: 1) интенсивностью случайного воздействия (z) и 2) отношением
интервала корреляции тк воздействия к характерной постоянной
времени системы тс. При этом, говоря об интенсивности случайного
воздействия, здесь имеем в виду не фактическую величину самого сл.
пр. E,(z) (например, величину его дисперсии), а вызываемый им
в системе эффект (случайный разброс). Отметим, что если система
сложная и характеризуется несколькими постоянными времени, то
в качестве времени тс следует брать минимальное из них. Аналогично,
если внешнее случайное воздействие ^(Z) характеризуется нескольки-
ми временами, то под тк следует понимать максимальное из них.
В зависимости от указанных двух факторов можно указать
следующие частные случаи и соответствующие методы их рас-
смотрения.
263
1. Случайное воздействие малой интенсивности. В данном
случае независимо от соотношения т.( и тс применим метод
линеаризации. Он заключается в том. что сначала находится
решение исходного нелинейного дифференциального уравнения
в отсутствие малого случайного воздействия, а затем уравнение
линеаризуется относительно малых случайных отклонений от
невозмущснпых значений и делается пренебрежение нелинейными
членами, содержащими эти случайные отклонения. В результате
для случайных отклонений получается линейное дифференциаль-
ное уравнение. Методы преобразования сл. пр. линейными
системами были рассмотрены (§ 4.2).
Метод линеаризации позволяет сравнительно просто вычис-
лить м. о. и корреляционную функцию процесса ц (t) в стаци-
онарном и нестационарном состояниях. Однако при негауссовском
возмущении £,(/) весьма трудно (например, методом вычисления
моментов) найти даже одномерную п.в. для г|(/).
2. Случайное воздействие большой интенсивности. Здесь нет
единого и универсального метода решения; выбор метода зависит
от соотношения тк и тс.
а. Если тс:»-ск и входное воздействие (;(/) представляет собой
гауссовский сл. пр., то применим хорошо разработанный аппарат
марковских процессов. В частности, для анализа поведения
динамических систем можно использовать известное уравнение
ФПК, а задачи, связанные с достижением границ (срывом
слежения и автозахватом), решать с помощью уравнения Пон-
трягина. Данный случай характерен для многих следящих ра-
диотехнических устройств. Метод марковских процессов даже
в существенно нелинейных задачах в принципе позволяет находить
непосредственно п.в. выходного процесса т] (/). Сложность фак-
тического получения решения для конкретной задачи существенно
зависит от порядка дифференциального уравнения, описывающего
поведение рассматриваемой системы, и вида начальных и гранич-
ных условий.
К настоящему времени аналитическими и численными ме-
тодами получено много важных и оригинальных результатов
в основном для одномерных и двумерных нелинейных систем.
Применительно к динамическим системам, описываемым диф-
ференциальными уравнениями третьего и более высоких порядков,
часто возникают трудности в получении точных и компактных
аналитических и численных результатов. В подобных случаях,
когда возникают затруднения, иногда можно продуктивно вос-
пользоваться явлением нормализации сл. пр. на выходе инер-
ционной системы. При этом заранее принимается, что и. в.
выходного - процесса является нормальной, и затем тем или
иным способом вычисляются ее определяющие параметры. В ча-
стности. если дисперсия выходного процесса мала, то ее можно
определять из линеаризованного уравнения, а м. о. из нелинейного
264
уравнения. Кроме такого метода применяют также квазилинейный
метод (часто называемый методом статистической линеаризации).
При его применении предполагается заранее известной и. в.
выходного процесса, и поэтому он часто фактически базируется
на том же явлении нормализации.
Метод марковских процессов достаточно полно представлен
в математической и прикладной литературе'.
б. При тс«стк можно ограничиться решением задачи в ква-
зистатическом приближении. Оно характеризуется тем, что в пер-
вом приближении делается пренебрежение временной производ-
ной, например в уравнении (2). После этого задача сводится
к нелинейному безынерционному преобразованию
/(Л П(О)= ~£(б п(/)> (?)) (5-1-3)
Решив это уравнение относительно Г] (/), получим Г|(/) = £(/, ф(/)).
При квазистатическом приближении внешнее случайное воз-
действие считается настолько медленно изменяющимся, что
система с определенной деформацией безынерционно отслеживает
его. В некоторых задачах при сведении инерционного петшиейпсн о
преобразования к безынерционному целесообразно воспользовать-
ся методом осреднения Н. Е1. Боголюбова.
в. Случай промежуточных времен корреляции (тст тк) является
наиболее сложным при анализе. Ряд нелинейных систем при
таком условии можно анализировать, используя функциональное
представление Вольтерра нелинейных дифференциальных ура-
внений1 2.
Отметим, что области применения перечисленных методов
анализа принципиально не ограничиваются порядком нелинейною
дифференциального уравнения. Однако с повышением порядка
уравнения существенно возрастает трудоемкость вычислений.
В дальнейшем проиллюстрируем методику применения разных
методов на конкретных радиотехнических примерах, рассмотрение
которых представляет самостоятельный интерес.
5.2. КВАЗИСТАТИЧЕСКИЙ МЕТОД
Общие условия применения квазистатического метода и его
сущность были кратко указаны выше. Получим этим методом
конкретные результаты применительно к детектированию
1 Сгратонович Р. Л. Избранные вопросы теории флюктуаций в радиотехнике,—
М.: Сов. радио, 1961. - 558 с.
Баруча-Рид А. Т. Элементы теории марковских процессов и их приложения:
Пер. с англ./Под ред. А. Н. Ширяева.— М.: Наука. 1969.— 512 с.
Гардинер К. В. Стохастические методы в естественных науках: Пер.
с англ./Под ред. Р. Л. Стратоновича--М.: Мир, 1986.— 526 с.
2 Шетсен М. Моделирование нелинейных систем па основе теории Вине-
ра//ТИИЭР.-- -1981.Т. 69, № 12,--С. 44—62.
265
Рис. 5.2. Упрощенная
схема типового радиоприемника
Рис. 5.3. Схема амплитудного де-
тектора
ставить в виде (4.7.42):
£(/) = £(/) соя [GW+'I'(Z)1
случайных узкополосных процессов.
Основными элементами типового
радиоприемника являются УПЧ
и детектор (рис. 5.2). Обычно УПЧ
представляет собой линейный уз-
кополосный четырехполюсник. При
воздействии на него широкопо-
лосного гауссовского шума n(t)
(например, собственных шумов
предыдущих каскадов) и полезного
гармонического сигнала s(t) вы-
ходное напряжение можно пред-
(5.2.1)
Для простоты предполагается, что частота полезного сигнала
совпадает с центральной частотой полосы пропускания УПЧ.
Случайное напряжение £(/) воздействует на детектор. Найдем
характеристики случайного напряжения р (t) на выходе детектора.
Проиллюстрируем методику применения квазистатистического
метода на примере амплитудного детектора огибающей, схема
которого изображена на рис. 5.3.
Пусть нелинейный элемент Д (диод) имеет вольт-амперную
характеристику i=g(v), v—^ — т]. Считая равным нулю внутреннее
сопротивление генератора входного напряжения £(г), из очевидных
соотношений zI+z2 = /‘, ri = ~ Jz'1t/Z = z27? получим дифференциаль-
ное уравнение
q' + ^Cj-hi^C^g^-n). (5.2.2)
Поскольку назначение любого детектора в радиоприемнике
состоит в возможно лучшем выделении модулирующего напряже-
ния, то он, во-первых, должен сглаживать радиочастотные
колебания и, во-вторых, напряжение на цепи RC должно успевать
«следить» за изменениями модулирующего напряжения (приме-
нительно к амплитудному детектору следить за огибающей).
Выполнение этих двух условий достигается тем, что параметры
детектора должны удовлетворять двум неравенствам:
/?С»Т0 = 2я/(»0, ть.»/?С,
(5.2.3)
266
где тк—интервал корреляции огибающей B(t).
Детектор, для которого выполняются эти два неравенства,
принято называть детектором огибающей. Другие случаи ис-
пользования детектора, когда эти условия не выполняются, здесь
не рассматриваются'.
Выполнение условий (3) существенно упрощает задачу ис-
следования процесса детектирования случайных сигналов, так
как при этом выходное напряжение т| (/) почти безынерционно
(квазистатически) зависит от огибающей B(t). Поясним это.
Подставив (1) в (2), имеем
т]' + (1 /RC) т| = (1 /C)g (В cos (соо t+ф) - т|).
Проинтегрируем это уравнение за период Го:
{— T|(/') + Rg (B(t') cos (соо?' + ф (?'))-
' (5.2.4)
При выполнении первого условия (3) функция ц (?) мало изменя-
ется за период То. Поэтому разность ц (?+ То) —т| (?) почти не
отличается от т\'(1)Т0. Медленно изменяющиеся величины под
знаком интеграла можно принять приближенно постоянными,
т. е. можно положить
т|(Л) = п(/), B(t’) = B(t), ф(Г) = ф(г)
и учитывать изменение только cos(сооt' + ф). Поэтому (4) можно
записать как
Т|' + — п= —
1 RC 1 СТ0
g (В cos (си0 t' + ф) — т|) dt'
или
2п
В' + ^-П = т1-- g(B(/)cosx-n(0W
д\С ZTtC
(5.2.5)
о
Это уравнение затруднительно решить в общем виде. Хотя
оно описывает и переходный процесс, рассмотрим в дальнейшем
лишь стационарное состояние. Для стационарного состояния при
выполнении второго неравенства (3) можно ограничиться ква-
зистатическим приближением, т. е. в левой части уравнения (5)
можно пренебречь производной. После этого получим уравнение
квазистатического приближения
1 Тихонов В. И., Горяииов В. Т. Детектирование случайных сигналов//Радио-
техника.— 1966.— Т. 21. № 1, - С. 31 46.
267
g{Bcos7^-T})(ix,
I
0
(5.2.6)
дающее безынерционную зависимость выходного напряжения т](/)
от огибающей #(/). Здесь при интегрировании по % величины
В и р принимаются постоянными.
Таким образом, при исследовании воздействия узкополосного
сл. пр. на детектор огибающей в стационарном состоянии можно
ограничиться квазистатическим приближением, т. е. вместо точ-
ного дифференциального уравнения (2) можно ограничиться
анализом приближенного функционального соотношения (6).
Для линейного детектора отдающей, имеющего характеристику
где Rj — внутреннее сопротивление диода в открытом состоянии, из (6) получим
Л/Л, = лА:(1 — А:2 — A arccos А)'1,<2, А = т|/5. (5.2.8)
Безразмерную величину к можно назвать коэффициентом воспроизведения оги-
бающей.
Характерным свойством линейного детектора огибающей, в отличие от
других типов амплитудных детекторов, является то, что коэффициент воспро-
изведения огибающей к не зависит от значения самой огибающей и определяется
только отношением сопротивлений Л/Л,. После вычисления коэффициента к веро-
ятностные характеристики выходного напряжения г](/) = кВ(ф просто находятся
по соответствующим характеристикам огибающей.
При квадратичном детектировании нелинейная характеристика задается вы-
ражением
|3г2 при г>0.
О при с <0.
(5.2.9)
В данном случае формула (6) приводит к следующему результату:
(5.2.10)
Теперь коэффициент к нс имеет прежнего прямого смысла, поскольку он зависит
от значения огибающей 5(/).
При РЛ5^О,1 выполняется неравенство А-<к1. Полагая arccosA *л/2. из (10)
найдем
А = рЛ5/4, п(/) = рЛ52(т)/4.
(5.2.11)
т. с. выходное напряжение пропорционально квадрату огибающей. Для больших
значений [ЗЛЛ коэффициент к можно найти путем численного решения трансцен-
дентного уравнения (10).
268
Укажем, что если в схеме рис. 5.2 за УПЧ включен идеальный
ограничитель и вместо амплитудного детектора стоит фазовый
или частотный детектор и для них выполняются условия,
аналогичные (3), обеспечивающие применимость квазистатичес-
кого приближения, то напряжение на выходе фазового детектора
будет пропорционально случайной фазе ф(/) узкополосного сл.
пр. (1), а на выходе частотного детектора — пропорционально
мгновенной частоте d^(j')ldt.
5.3. МЕТОД ЛИНЕАРИЗАЦИИ. АНАЛИЗ РА-
БОТЫ АВТОГЕНЕРАТОРА ПРИ НАЛИЧИИ
ШУМА
Для многих радиофизических задач представляет практический
интерес вопрос о характере колебаний автогенератора с учетом
собственных флюктуаций (шумы сопротивлений потерь и шумы
электронных, полупроводниковых и др. приборов) и внешних
случайных воздействий (колебания температуры окружающей
среды, случайные колебания напряжения источников питания,
вибрации и т. д.).
Флюктуации амплитуды и частоты, обусловленные только
собственными шумами автогенератора, принято называть естест-
венными флюктуациями. Эти флюктуации принципиально не
устранимы и определяют тот предел повышения стабильности
частоты и амплитуды автогенератора, который не может быть
превзойден.
Флюктуации амплитуды и частоты, обусловленные внешними
случайными воздействиями, называются техническими флюкту-
ациями. Эти флюктуации можно устранить мерами парамет-
рической стабилизации (термостатирование, гашение вибраций
и т. д.) и стабилизации питающих напряжений.
Несмотря на то, что в реальных условиях технические
нестабильности часто значительно превышают естественные, огра-
ничимся здесь рассмотрением влияния собственных флюктуаций
(типа дробового и- теплового шума) на работу автогенератора,
поскольку они представляют принципиальный интерес. При этом
проанализируем работу автогенератора в линейном приближении.
Определим характеристики амплитуды и фазы.
1. Уравнение генератора. Рассмотрим простейшую схему ге-
нератора гармонических колебаний с колебательным контуром
в цепи сетки лампы (рис. 5.4). Нетрудно убедиться, что диф-
ференциальное уравнение генератора для напряжения между
сеткой и катодом лампы имеет вид
LC-~+/?C-^ + X = M^-X + F(z). (5.3.1)
dt2 dt dXdt у v 7
269
Рис. 5.4. Упрощенная схема автогене-
ратора
Здесь L, С, R— параметры коле-
бательного контура; М—коэффи-
циент взаимоиндукции анодной
и сеточной катушек; /а(г)— нели-
нейная зависимость анодного то-
ка лампы от напряжения на сетке
и F(f)— внешнее воздействие на
генератор. Аппроксимируем зави-
симость Ia=f(F) кубическим по-
линомом Za(A.) = /0 + sX —уХ3. Тог-
да уравнение (1) примет вид
Г + ю^ = 25(1-2Х2/Ло)Х' + о^Г(г).
Здесь и далее штрихами обозначены производные по времени;
u)q = \/LC—собственная частота колебательного контура;
5 = Юо (sM— RC)/2 — величина, характеризующая затухание в ре-
генерированной линейной системе; Ло= [2(sM— RCj/ЗуМ ]1/:2—
амплитуда автономных колебаний генератора в отсутствие вне-
шнего воздействия (см. ниже).
Рассмотрим здесь случай, когда под F(t) понимается приведен-
ный к сетке эквивалентный собственный широкополосный флюк-
туационный шум элементов схемы генератора F(Z) = ^(r), и будем
трактовать его как БГШ с нулевым м. о. и дельтообразной
корреляционной функцией
М^(г1)^(/2)} = А5(г2-/1)/2. (5.3.2)
С учетом сказанного запишем уравнение генератора
X" + ®gX = 25(l -2Х2/Л0)Г + ю^(г). (5.3.3)
Для изучения решения этого уравнения целесообразно перейти
от одного уравнения второго порядка к двум уравнениям первого
порядка, описывающим поведение амплитуды и фазы. Определим
амплитуду и фазу соотношениями типа (4.7.49):
Х = A cos(w0r + cp), Х' = — (о0А sin(сооZ + ф). (5.3.4)
Отсюда получим
Л2 = (Х2 + юо 2Х'2), ф = -aV~arctg(X7a>0X). (5.3.5)
Дифференцируя эти выражения по времени, имеем
= V(V +соо^)/юоЛ <р'= —X(Х"4-(Во^)/1*>оЛ2. (5.3.6)
Если в правые части написанных равенств подставить выражение
(Х" + ®оХ) из (3) и затем выразить I и Г через А и ср согласно
(4), то придем к уравнениям
Л' = 5(1-Л2/Л^)Л + (в^(г)8т((В0/ + ф)+/1(Л, ф, /), 3
Ф' = (о10/Д)^(г)со5((В0, + ф)+/2(Л Ф, г),
270
где/Д-) и /2(') — функции, содержащие гармонические состав-
ляющие с частотами 2со0 и 4ю0.
В контуре, настроенном на частоту соо и имеющем малое
затухание, происходит эффективная фильтрация высших гармоник,
и они не могут оказывать существенного влияния на процессы
в генераторе. Поэтому в уравнениях (7) в первом приближении
можно опустить быстро осциллирующие члены (•) и /2 (•).
Тогда получим
А'~8(1—А2/Ао)А + (o0^(Osin((°oz + (pK (5 з 8)
ф' = (соо/Л)£, (?) cos (соо/ + ср).
Уравнения (8) принято называть укороченными уравнениями
лампового генератора. Из них легко находим стационарный
режим работы генератора в отсутствие флюктуаций. Так, полагая
в первом уравнении А'— 0, £,(/) = О, находим Ast — A0. Аналогично,
при £(/) = 0 из второго уравнения получим ф' = 0, фм = ф0 = const,
т. е. фаза сохраняет начальное значение. При этом никакому
значению начальной фазы нельзя отдать предпочтение. Поэтому
ее практически следует полагать с. в., равномерно распределенной
в интервале ( — я, я).
Таким образом, в стационарном режиме напряжение на
контуре определяется формулой
?v(/) = Л0со5(<в0Г + ф0). (5.3.9)
Видно, что введенная ранее в рассмотрение величина Ао дей-
ствительно представляет собой установившееся значение амп-
литуды напряжения на контуре.
2. Решение уравнения методом линеаризации. Применим к урав-
нениям (8) метод линеаризации в окрестности стационарного
состояния. Применение метода линеаризации оправдано тем, что
внешнее возмущение £,(/) предполагается малым. Поэтому оно
вызывает небольшие отклонения амплитуды А и частоты ф'
(не фазы) от их стационарных значений.
Разумеется, что линеаризация уравнений относительно флюк-
туационных отклонений не исключает необходимости предшест-
вующего нелинейного анализа процессов в автогенераторе, так
как без него нельзя получить никаких сведений о стационарном
режиме генератора, в окрестности которого и осуществляется
линеаризация.
Обозначим флюктуации амплитуды и фазы, обусловленные
шумом S,(z), через
а=А—А0, ф = ф —ф0. (5.3.10)
По предположению а и ф' представляют собой малые флюк-
туационные отклонения от стационарных значений (например,
М{п2}«Лй).
271
Подставим эти выражения в исходные уравнения (8) и удержим
в них лишь те члены, малость которых относительно а не
превосходит первого порядка. При этом флюктуационное воз-
действие ^(г) следует считать величиной первого порядка малости,
а величины А и ср, оставшиеся в уравнениях в виде коэффициентов,
нужно заменить их стационарными значениями (А = А0, (р = ф0).
В результате выполнения указанных преобразований для а и ф по-
лучим линейные стохастические дифференциальные уравнения
a' + 28a = (oo^(z)sin(a)oz + (po), (5.3.11)
ф' = (<оо М о К (') cos (соо t + Фо).
Поскольку описанная процедура линеаризации совпадает с задачей
отыскания дифференциалов для А и ф, то эти уравнения можно
получить из уравнений (8) путем дифференцирования в окре-
стности стационарного состояния.
Отметим общий и характерный результат метода лине-
аризации -в результате его применения для малых флюктуаци-
онных отклонений всегда получаются линейные уравнения, ко-
торые в принципе всегда можно решить. При этом если внешнее
случайное воздействие является гауссовским, то и случайные
отклонения в системе будут гауссовскими процессами.
3. Характеристики фазы и амплитуды. Стационарное решение
первого уравнения (II) имеет вид
I
а(/) = соо j ехр[ — 28(7 — .г)]^(х)51п(соот + фо)г/х. (5.3.12)
— 00
Отсюда следует, что флюктуации амплитуды о(?) есть гауссовский
сл. пр. с нулевым м. о. и корреляционной функцией
/?я (т) = Е>я ехр (— 281 т |), /)я = Л7о£/168. (5.3.13)
Этот результат позволяет проверить условие применимости
метода линеаризации (Z)u«c/lo);
Уравнение (11) для случайной фазы ф(Г) по существу совпадает
с уравнением (3.5.1) винеровского процесса. Если начальная фаза
в момент времени / = 0 равна ф0, то полная фаза
t
р
ф(^) = Фо + т2 2. (х) cos (<вох + Фо )dx (5.3.14)
Л О J
о
имеет нулевое м. о. и дисперсию
D^t) = Dt, D = Na20/4A20. (5.3.15)
Следовательно, полная фаза является нестационарным гаус-
совским сл. пр. В начальный момент времени 7 = 0 п. в. имеет
вид дельта-функции 8(ф — ф0), а затем с ростом t неограниченно
272
как и для винеровского
интервал г
* * т \ / т \ со,
Афт = ф1 z + - I-фI t-~ 1 = -
расплывается на бесконечной прямой ф. Если мысленно пред-
ставить себе множество идентичных генераторов, образующих
некоторый ансамбль, и допустить, что при z = 0 все генераторы
ансамбля имеют одинаковую начальную фазу ср0, то с ростом
t фазы отдельных генераторов будут все более разбросанными.
Поэтому длительная «привязка» текущей фазы к начальной из-за
наличия флюктуаций невозможна.
процесса, приращения фазы за
I । т/2
5, (х) cos (соо х + <р0) dx
t-x/2
независимы на неперекрывающихся интервалах, нормально рас-
пределены с нулевым м. о. и дисперсией
£>Дф = £>т. (5.3.16)
Дисперсия приращения фазы растет пропорционально времени
т. Мгновенные значения приращения фазы могут превышать
значения +2я, +4я и т. д. Поэтому флюктуации фазы вызывают
случайный разброс частоты относительно ее номинального значе-
ния, причем практически невозможно предложить какие-либо
меры для устранения этого эффекта без существенного изменения
принципа работы самого генератора (например, переход от
кварцевых генераторов к молекулярным).
4. Спектральная плотность колебания. Получим сначала вы-
ражение для корреляционной функции колебания генератора,
а затем вычислим его спектральную плотность. С учетом
амплитудных и фазовых флюктуаций (10) колебание генератора
(4) будет иметь квазигармонический характер и его можно
записать в следующем виде:
X(t) = A (?)со8[(о0/ + ф(/)] = [Л0-|-а(/)]со5(со0/4-ф(г) + ф0). (5.3.17)
Для корреляционной функции имеем
= М{[Л0 + a(t)] [А0 + a(t + г)]cos(co0Z + ф(t) + (p0)cos((i)0/ +
+ соот + Ф(/ + т) + Фо)}-
Воспользовавшись выражениями (12) и (14), можно показать,
что амплитудные а^) и фазовые ф(/2) флюктуации некор-
релированны и независимы. Поэтому
A W = (1 /2) [Л о + Дя(т)] М {cos(co0r + АФт)} =
= (1/2) [Л g + /?я(т)] Re[exp(jioor)M {ехр()Афт)}].
Но М{ехр()Афт)) есть значение характеристической функции
Ф(]9) = Мфехр(]ЭАфт)} случайной величины Афт в точке 9=1.
273
Рис. 5.5. Составляющие спектраль-
ной плотности колебания автогене-
ратора
Для гауссовской с. в. с нулевым
м. о. и известной дисперсией (16)
имеем
М {ехр(j Асрт)} = ехр( - D |т|/2).
В результате получим окончатель-
ную формулу
7?к(т) = (1/2)[Л o + Z>aexp( —25|т|)] х
х ехр( — D |t|/2)cosco0t. (5.3.18)
По корреляционной функции на-
ходим одностороннюю спектраль-
ную плотность (рис. 5.5)
S +(<o) = 4f Як(т)со8ютг/т =
о
= S1(<o) + S2(<o), ю^О, (5.3.19)
где
(5.3.20)
00
S2(d)) = Da Jехр
О
cos (<о — <оо)тг/т =
D/2 + 28
(D/2 + 2б)2+ (а>—ш0)2
(5.3.21)
При записи этих выражений было учтено, что D и 3 много
меньше ю0. Поскольку в рассматриваемом случае Оа«4о, то
приближенно
S ^(ш)%51((в) = 2Л qD [Z> 2 + 4(ю — юп)2]
(5.3.22)
Рассмотрим качественно характер спектра. Если бы флюкту-
ационный шум отсутствовал (^(?) = 0), то /2 = 0 и Da = 0. Полагая
в (20) и (21) D =0, />я = 0 и воспользовавшись формулой для
дельта-функции, получим
5 + (/) = Л^8(/-/о)/2. (5.3.23)
В данном случае генератор генерировал бы гармоническое
колебание (9), спектральная плотность которого есть дискретная
линия высотой А о/2, расположенная на частоте /0.
Спектральная плотность колебания автогенератора из-за неиз-
бежного наличия собственных флюктуационных шумов элементов
схемы превращается из дискретной линии в сплошной спектр,
имеющий конечную ширину Лю = Лю1=/>. Спектр симметричен
относительно частоты ш0, где он имеет максимум (рис. 5.5).
274
Естественную нестабильность частоты генератора можно ко-
личественно характеризовать относительной шириной спектраль-
ной плотности
Асо/(во = Е>/(во. (5.3.24)
Здесь определяющим параметром D является дисперсия прираще-
ния фазы за единицу времени (16). Однако для количественной
оценки нестабильности фазы и частоты колебаний и их экс-
периментального определения могут быть использованы другие,
более удобные характеристики’.
В заключение укажем, что анализ работы генераторов импульс-
ных колебаний (мультивибраторов, блокинг-генераторов) показыва-
ет, что собственные шумы обусловливают случайный характер этих
колебаний (длительностей импульсов и периодов их следования)1 2.
5.4. МЕТОД МАРКОВСКИХ ПРОЦЕССОВ.
СТАТИСТИЧЕСКАЯ ДИНАМИКА ФАЗОВОЙ
АВТОПОДСТРОЙКИ
Принцип работы фазовой автоподстройки (ФАП) можно
уяснить на примере простейшей функциональной схемы (рис. 5.6).
Гармонические колебания
s(t) генератора сигнала
(ГС) и u(t) синхронизиру-
емого (подстраиваемого) ге-
теродина (ПГ) воздейству-
ют на фазовый детектор
(ФД), на выходе которого
получается напряжение, за-
Рис. 5.6. Функциональная схема ФАП
висящее от разности фаз
колебаний s(t) и и (г). Это
напряжение через фильтр нижних частот (ФНЧ) и управляющий
элемент (УЭ) изменяет частоту синхронизируемого’ гетеродина,
приводя ее к совпадению с частотой генератора сигнала. При
этом устанавливается некоторая постоянная разность фаз между
колебаниями генератора сигнала и гетеродина, обеспечивающая
синхронную работу обоих генераторов.
Анализ работы ФАП даже в отсутствие случайных воздействий
представляет собой довольно сложную задачу, связанную
1 Линдсей У. С., Цзе Чжа-мин. Теория нестабильности генераторов, основанная
на структурных функциях//ТИИЭР.—1976.— Т. 64, № 12.— С. 5—21.
Рютмаи Ж. Характеристики нестабильности фазы и частоты сигналов вьг-
сокостабильных генераторов: Итоги развития за пятнадцать лет//ТИИЭР.—
1978. -Т. 66, № 9. С. 70—102.
2 Тихонов В. И. Воздействие малых флюктуаций на электронное реле//Вестник
МГУ. Сер. Физика.— 1956.— № 5,— С. 31—41.
275
с решением нелинейных дифференциальных уравнений. Она
еще более усложняется, если учитывать влияние помех. При
этом в практических условиях работы ФАП имеют место
как внешние помехи n(t), воздействующие совместно с сигналом
5 (г) на фазовый детектор, так и флюктуации, присущие
самим элементам схемы (тепловой шум сопротивлений потерь,
флюктуации тока ламп и транзисторов, случайные вариации
напряжения источников питания), обусловливающие случайные
изменения фазы (частоты) генераторов. Проанализируем работу
ФАП с учетом указанных случайных воздействий.
1. Уравнение ФАП. При выводе дифференциального уравнения,
описывающего поведение ФАП, примем следующие допущения:
все звенья ФАП. за исключением фильтра нижних частот,
являются безынерционными: фазовый детектор представляет со-
бой перемножающее устройство, т. е. имеет синусоидальную
характеристику; характеристика управляющего элемента в преде-
лах рабочего участка предполагается линейной; помеха n(t)
представляет собой аддитивный стационарный гауссовский сл. пр.
с нулевым математическим ожиданием; спектральная плотность
процесса n(t) симметрична относительно средней частоты сигнала.
Пренебрегая пока амплитудными флюктуациями колебаний
генераторов, сигнал и колебание гетеродина можно соответст-
венно записать в виде
s(i) = A jeosOjfz)^ ^^osfcOoZ + G^)], (5.4.1)
u{t) = /42sinO2(/) = A ,sin[(o1/ + 62(r)], (5.4.2)
где A{, Л2- постоянные амплитуды; roo, (Oj средние частоты;
Gi(z), 02(О — случайные фазы колебаний.
Гауссовский сл. пр. n(J) с симметричной спектральной плот-
ностью относительно частоты ®0 можно представить в виде
(4.7.8):
n(t) = A (?)со5Ф(/) = Л (r)cos[(oo/+0(/)], (5.4.3)
где A(t) — огибающая; 0(f) — случайная фаза процесса.
Запишем сумму сигнала и помехи, действующую на один
вход перемножителя:
s(t)+n(t) = А ^овФ^Г ) + ^c(/‘)cosO1(/) — )з)пФ3 (г), (5.4.4)
где
Лс(/) = A (Z)cos(0-01); Л(/) = Л(фт(0-01). (5.4.5)
Синусная As(r) и косинусная Ac(t) составляющие огибающей
A (t) имеют нормальную п. в. с нулевым м. о. Если обозначить
корреляционную функцию стационарного гауссовского процесса
п(1) через
Ял(т) = А.рМсо5(о0т, (5.4.6)
276
где Dn — дисперсия, то корреляционные и взаимокорреляционные
функции для As(t) и Ac(t) будут определяться формулой (4.7.21):
/?5(т) = М{А(0^+г)} = Лс(т) = М{Лс(0Лс(/+т)} =
= Dn р (г), 7?cs(t) = М {А с(/) A s(t + г)} = 0. (5.4.7)
Обозначим коэффициент преобразования перемножителя через
ц. Тогда напряжение на выходе перемножителя будет равно
un(t) = Ф:(?) + п (z)] "(?) = (1/2)н^2 {(а 1 + А) |>Н1(Ф2-Ф1) +
4-51п(Ф2 + Ф1)] — 4s[cos(®2 — Ф1)-со5(Ф2 + Ф1)]}. (5.4.8)
Полагая, что ФНЧ с операторным коэффициентом передачи
К(р) отфильтровывает комбинационные высокочастотные состав-
ляющие, на выходе фильтра имеем
v(t) = (\/2)рА2К(р) [(Л j + ^C)sincp — Tscos(p], (5.4.9)
где
ф = ф2-ф1. (5.4.10)
Если средняя частота синхронизируемого генератора линейно
зависит от напряжения на входе управляющего элемента, то
со-сого — Sv(t). (5.4.11)
Здесь сого — средняя частота синхронизируемого генератора при
v (0 = 0, т. е. при разомкнутой петле регулирования; .S' — крутизна
линейного участка характеристики управляющего элемента.
Учитывая, что согласно (10)
рф=рФ2-рФ1, (5.4.12)
и подставив сюда значения Ф,(0 и Ф2(0 из (1), (2), а значение
ю из (11), получим
РФ = А0-5г(г)+рф, ф(?) = О2(г)-01(О’ о (5.4.13)
где Д0 = (ого —(Во — начальная расстройка генераторов по частоте.
Подставив в (13) значение v(t) из (9), приходим к окон-
чательному уравнению, описывающему процессы в системе ФАП
при наличии внешних помех и фазовых нестабильностей гене-
раторов:
р(р = Ао — ААГ(р)51пф — ЛА Г1 и) х
х [т1с5тф — Дсо5ф]+рф, (5.4.14)
где Л = рА1А25/2 — полоса удержания (синхронизации).
Если считать ФНЧ идеальным, т. е. если его амплитудно-
частотная характеристика равна единице для низких частот
и нулю—для высоких, то для разности фаз синхронизируемых
генераторов получим нелинейное дифференциальное уравнение
первого порядка
</ф/Л = Ао —Asirup —(Д/.-4,ф), (5.4.15)
277
где случайное воздействие
^(z. ср) = Jc(r)sin(p-Ль(/)со5ф + (Л JA'jd'ty/dt. (5.4.16)
Если в качестве ФНЧ используется интегрирующая цепь RC,
го поведение ФАП будет описываться нелинейным дифференци-
альным уравнением второго порядка
с/ ’ ф 7//2 f 7//<p J/ T aAsnup - лЛ0 +с,2(/, ф). а=1//?С, (5.4.17)
где случайное воздействие
ф) = ^ + ^ + ^[А(0СО8<Р-Л(Фпф]- (5.4.18)
Систему ФАП. описываемую нелинейным дифференциальным
уравнением первого порядка типа (15), принято называть си-
стемой ФАП первого порядка, а систему ФАП, описываемую
нелинейным дифференциальным уравнением второго порядка
типа (17),----системой ФАП второго порядка и т. д.
Анализу работы различных систем ФАП посвящена обширная
литера гура1. Ограничимся здесь анализом системы ФАП первого
порядка (15). Рассмотрим сначала качественно работу такой системы.
2. Качественное описание работы. Работа схемы ФАП (15)
в отсутствие шума (5,1(/) = 0) хорошо изучена и иллюстрируется
фазовым портретом системы, представленным на рис. 5.7. В стацио-
нарном состоянии (<7ф/<// = 0) при (?) = 0 из (15) имеем Д8Шф = Д0.
Следовательно, нормальный синхронный режим работы системы
возможен лишь при условии А>А0. Так как синус — периодическая
функция, то характерной особенностью системы является то, что
при Д>Л0 она имеет счетное число состояний равновесия, из
которых устойчивым состояниям соответствуют значения
ф'+4 = arcsin(A0/A)±2Zrn, k = 0, 1, 2, ..., (5.4.19)
а неустойчивым
ф" k = п — arcsin(A0/A) + 2Zrn. (5.4.20)
Качественно поведение системы при наличии шума будет
следующим. Пусть имеется достаточно большой ансамбль иден-
тичных систем, которые в начальный момент времени г = 0
имеют одинаковое фиксированное значение ф(0), например
ф(0) = фо = агс5т(Дб/Д). Воздействующий шум (г) влияет на
поведение систем двояко. Во-первых, из-за слабых шумовых
воздействий значения ф(?) в разных системах с течением времени
окажутся разбросанными в окрестности начального устойчивого
1 Линдсей В. Системы синхронизации в связи и управлении: Пер. с англ.//Под
рсд. Ю. Н. Бакаева, М. В. Капранова. М.: Сов. радио. 1978. -598 с.
Системы фазовой синхронизации//Под ред. В. В. Шахгильдяна, Л. Н. Белю-
сгиной. М.: Радио и связь, 1982. 288 с.
состояния равновесия фф Во-
вторых, достаточно интенсив-
ные шумовые воздействия мо-
гут вывести систему из об-
ласти притяжения к устойчи-
вому состоянию равновесия
(р'о, в результате чего система
перейдет в окрестности сосед-
них состояний равновесия ф'+1,
ф'+, и т. д. С течением времени
вероятности подобных перехо-
дов, которые принято условно
называть перескоками фазы,
возрастают, причем система из
очередь, будет переходить
(itf/di
Рис. 5.7. Фазовый портрет бесфильтро-
вой ФАП
состояния равновесия ф'+А., в свою
в соседние состояния ф'±№+!).
Ф ±(А-Р И Т- Д’
Обозначим через тс (ф, t |ф'о) условную п. в. того, что система,
имеющая в некоторый начальный момент времени значение ф = фо,
через время I будет иметь значение фазы ф. Характер изменения этой
п. в. перехода для случаев Ао = 0 и Ао>0 показан на рис. 5.8.
dy/dt--&w\ <f
J л(у>,0[0) = в'(ф)
t*o
| X(<f, 01 q'o]
t~0
-5X -4-X -2X О 2X lf-Х EX if
I t,>0
-Sx -Ц-Х ~2X 0 2X *tX 6x <f
<f-3 <f-z f-i
। i i -
й <fz
<f-j V-г f!i 4o Vi V's V
Рис. 5.8. Качественный характер изменения плотности вероятности полной фазы во
времени
279
При / = 0 п. в. является дельтообразной: я (ф, 01фо) = 5(ф — фо).
Спустя некоторое время п. в. перехода л(ф, /|ф'о) будет муль-
тимодальной функцией ф, причем моды (максимумы) будут
расположены около устойчивых положений равновесия, отстоящих
друг от друга на 2л. Центральный (ф = фо) максимум будет
наибольшим, а боковые будут уменьшаться по мере удаления
от центрального. Так как для л(<р. /|фо) в каждый момент
времени должно выполняться условие нормировки
J тг(ф, Z|ф'о)йгф = 1, (5.4.21)
то с течением времени происходи! увеличение числа боковых
мод, которое сопровождается соответствующим уменьшением
центральной и близко к ней расположенных мод. В пределе
при t -> ос. функция л(ф, /|<р'о) расплывается по всей бесконечной
оси ср. Следовательно, стационарное решение для
л(ф, /|ф'о) -тривиально (нулевое).
Различие между характером п. в. перехода л(ф, /|фо) при
Ао = 0 и Ао^0 состоит в том. что в первом случае боковые
моды, симметрично расположенные относительно центральной,
одинаковы, а во втором не одинаковы. При Ао>0 для перехода
фазы в сторону ее увеличения на 2л (например, из ф* в ф*+1)
требуется шумовое воздействие меныпей интенсивности, чем для
уменьшения фазы на 2л (т. е. перехода из ф( в ф£_,). Поэтому
число переходов в сторону увеличения фазы будет превалировать
над числом переходов в сторону уменьшения фазы. Соответст-
венно этому при Ао>0 боковые моды, расположенные справа
от центральной, будут превосходить аналогичные моды, рас-
положенные слева от нее. Перейдем теперь к количественному
анализу схемы ФАП первого порядка.
3. Марковская теория работы ФАП. При исследовании систем,
описываемых дифференциальными уравнениями (15), (17) со
случайными воздействиями, весьма продуктивным является аппа-
рат теории марковских процессов [4]. При условии г„«гс, где
тк -время корреляции случайного воздействия; тс — характерная
постоянная времени системы, реакцию системы на такое воздейст-
вие можно считать приближенно марковским процессом. Во
многих практических приложениях ширина спектральной плотно-
сти внешнего случайного воздействия n(t) и фазовых нестабильно-
стей d^fdt значительно превышает полосу удержания А бесфилыг-
ровой системы ФАП. Это означает, что уравнение (15) можно
рассматривать как стохастическое дифференциальное уравнение
</ф/<Й = Ао —A sin ф —(г), (5.4.22)
где (?)—эквивалентный гауссовский шум с нулевым м. о.
и дельтообразной корреляционной функцией:
280
м Ki (t)} = О, М (д (г2)} = (Nt /2)3 (г2 - tl). (5.4.23)
Спектральная плотность N\ этого белого шума определяется
известной формулой (2.7.3):
X,
2'
Л У
А/
(5.4.24)
где Кф’ (т) = М{[г/ф(/)/Л] [а?ф(/ + т)/Л]}.
Отметим, кстати, что уравнением, аналогичным (22), описыва-
ется поведение захваченного автогенератора [4].
Диффузионный марковский процесс ср (/), заданный стохасти-
ческим дифференциальным уравнением (22), полностью определя-
ется коэффициентами сноса и диффузии, которые соответственно
равны а(ф) = А0 — Asincp, b = NJ2.
Для таких коэффициентов уравнение ФПК для одномерной
п. в. /?(ф, /) имеет вид
?т~^-[(Ао-Л^пф)Я. (5.4.25)
о! 4 оф оф
Будем в дальнейшем интересоваться не одномерной п. в. р(ф, /)
для полной фазы, а п. в. /?(ф, t) для фазы, приведенной к интервалу
— я ф я. По определению,
/>(ф, 0= Е р(ф + 2/ся, /). (5.4.26)
к= -оо
Для отыскания р(ф, t) необходимо решить уравнение в част-
ных производных (25) с начальным условием
р(ф, 0) = 3(ф — ф0), — я^ф^я, (5.4.27)
при граничном условии
/?( —я, /)=/?(я, /) (5.4.28)
и условии нормировки
]’/?(ф, г)й?Ф = 1. (5.4.29)
— л
Наибольший интерес представляет выражение для стационар-
ного распределения psl (ф) = lim р (ф, Г). Очевидно, что в стаци-
t—► со
онарном состоянии 8pst(ty)/dt = 0, и тогда из (25) для pst(yp)
получаем обыкновенное дифференциальное уравнение
i ~ D sin ф)Аг =°’
(5.4.30)
281
где
D0 = 4A0/WI; D = 2[iA2S(AjWJ.
(5.4.31)
Параметр D характеризует отношение сигнал-шум, a Do— началь-
ную расстройку по частоте (Do/D = А0/А - относительная вели-
чина начальной расстройки по частоте).
Решение уравнения (30), удовлетворяющее граничному усло-
вию (28) и условию нормировки (29), имеет вид
Л|(ф) = ~ехр(7((р) ехр[ —(7(х)]</х, |ф|^я.
(5.4.32)
Здесь
(7(ф) = Z>0(p + D cos ср; М = [4л2/ ехр (nD0)] |/,do(D)|2; (5.4.33)
7,v - табулированная функция Бесселя мнимого индекса и мни-
мого аргумента. Интеграл, входящий в (32), не выражается
через известные функции. Однако в частном случае при нулевой
начальной расстройке по частоте (Do = 0) из (32) для п. в.
получаем простое выражение
pst (ф) = ехр(7)со8ф)/2тг/0(£>), Ао = 0, |ф|^п, (5.4.34)
где 70 (х) — функция Бесселя нулевого порядка от мнимого
аргумента. П. в. (34) для разности фаз колебаний в стационарном
режиме работы ФАП в литературе часто называют распределением
Тихонова'.
На рис. 5.9 приведены графики п. в. (34). Они имеют
симметричную форму с нулевым м. о. По мере увеличения
параметра D от нуля до бесконечности п. в. (34) изменя-
ется от равномерной до дельтообразной. Отметим, кстати,
что при надлежащем подборе параметров п. в. (34) почти
совпадает с п. в. (4.7.48). Это наглядно видно из рис. 5.9,
на котором штриховыми линиями изображены п. в. (4.7.48) для
нескольких значений отношения сигнал-шум а. При больших
отношениях сигнал-шум (а>3) приближенно можно полагать
Dъ-а2. Во многих случаях предпочтительнее оперировать не п. в.
(4.7.48), а п. в. (34) ввиду простоты аналитического выражения
последней.
Действительно, если отношение сигнал-шум мало (Del),
то можно воспользоваться приближенными равенствами
ехр (Deos ф) 1, 7O(D)%1. При этом получим равномер-
ную п. в.:
1 Тихонов В. И. Влияние шумов на работу схемы фазовой автоподстройки
час готы//Автоматика и телемеханика. 1959- Т. 20. № 9. - С. 1188-1196.
282
Рис. 5.10. Значения диспер-
сии разности фаз, получен-
ные разными методами при
Ао = 0
Рис. 5.9. Стационарные плотности вероятно-
сти приведенной разности фаз в отсутствие
начальной расстройки (До = 0)
А,(ф) = 1/2п, М{Ф}=0, 7)ф = М{ф2} = п/3, |ф|^п. (5.4.35)
Когда отношение сигнал-шум велико (£>» 1) и, следовательно,
обеспечивается точное слежение за фазой сигнала (ф<§:1), справед-
ливы приближенные соотношения
cos ф 1 — ф2/2, /0 (Z>) — (2nZ>)_ 1/2 ехр D.
На основании их из (34) приходим к нормальной п. в.:
А<(ф) = (2я£>ф)“1/2ехр(-ф2/2£>1()), D^ = D~\ |ф|^я. (5.4.36)
Для промежуточных значений D дисперсию разности фаз при
Z)o = 0 можно вычислить по формуле
D„= [ ф2Лг(ф)г/ф = у + г^ £ (5.4.37)
J /о(Ь’/п=1 п
которая получается из (34) при
использовании разложения
ехр( + £>со8ф) = /0(£>) + 2 £ (±l)'7„(Z>)cosлго.
(5.4.38)
283
При наличии начальной расстройки по частоте (Z)o^0)
п.в. рДф) остаются унимодальными, но становятся асим-
метричными [4].
5.5. ДРУГИЕ МЕТОДЫ АНАЛИЗА ФАП.
СРАВНЕНИЕ РЕЗУЛЬТАТОВ
Применим для анализа работы ФАП первого порядка,
описываемой нелинейным дифференциальным уравнением вида
(5.4.15), другие методы, указанные в § 5.1. При этом каждый
раз будем предполагать, что необходимые условия для их
применения выполнены.
1. Метод линеаризации. Ради простоты и наглядности опустим
фазовые флюктуации, т. е. в уравнении (5.4.15) положим ф(/) = 0.
Допустим, что случайное воздействие Д (/) имеет малую ин-
тенсивность по сравнению с амплитудой полезного гар-
монического сигнала (Л j1).
Из ранее описанной работы ФАП (см. рис. 5.8) ясно, что
малые случайные воздействия будут вызывать (по крайней мере
в стационарном режиме работы) небольшие случайные колебания
разности фаз ф(/) около некоторого устойчивого состояния
равновесия, например (po = arcsin(Ao/A) = M {ср}. При этом работа
будет происходить практически на линейном участке харак-
теристики рис. 5.7. Поэтому применим метод линеаризации —
уравнение (5.4.15) можно линеаризовать относительно малых
флюктуационных отклонений от невозмущенных значений и пре-
небречь нелинейными членами, содержащими эти флюктуацион-
ные отклонения.
Введем в рассмотрение случайные колебания разности фаз
Х(/) = ф(/) —фо и, учитывая их малость, положим sinx~X>
cos/%1. С учетом этих равенств уравнение (5.4.15) после
элементарных преобразований примет вид
^ + (Л2 —Ао)1/2Х=-A -^(xcospoA
dt А, '
А(/Е ,
+ sin(p0)-(cosфо~Xsmфо) .
Л1
Дисперсии квадратурных составляющих Ac(t) и ЛД/) согласно
(5.4.7) равны D„. Поэтому в правой части уравнения случайными
составляющими хА(О/А и xA0)/A> как имеющими второй
порядок малости по сравнению с остальными, можно пренебречь.
Таким образом, в линейном приближении приходим к сле-
дующему линейному дифференциальному уравнению для флюк-
туаций разности фаз:
t/ZM + (A2-A^)1/2x= - АД/), (5.5.1)
284
где
; (?) = sin ф'о Ас (t)/Aj - cos фо As (t)/A t. (5.5.2)
На основании соотношений (5.4.7) нетрудно убедиться, что
случайная функция £(?) представляет собой гауссовский стаци-
онарный процесс с нулевым м. о. и корреляционной функцией
ад=лг2А.Р(4
Фазовые флюктуации %(?) являются гауссовским процессом,
поскольку они описываются линейным дифференциальным уравне-
нием (1), в правую часть которого входит гауссовский случайный
процесс ^(?). В стационарном состоянии м. о. фазовых флюктуаций
равно нулю (М {х} = 0), а дисперсия находится по известной формуле
= А2 J ехр( —и ^/А2 —Ao)rfu f (г)ехр [ — (и— р)Лч/А2 —aJ]<7p.
О - оо
Для простоты вычислений примем р(т) = ехр( — ос|т|). Такое вы-
ражение получается в том случае, когда перед ФАП включен
колебательный контур, на вход которого воздействует БГШ.
В результате вычислений:
' (5-5-з>
В частном случае при Ао = 0 отсюда имеем
Пф = (П„М?)А/(а+А). (5.5.4)
При А0->А из (3) следует Z> ->оо, что практически невозможно.
Поэтому метод линеаризации не применим при больших значе-
ниях начальной расстройки (А0«А).
Таким образом, применительно к схеме ФАП первого порядка
метод линеаризации позволяет сравнительно просто вычислить
м. о. и корреляционную функцию фазового рассогласования.
Однако он принципиально не позволяет обнаружить эффекты
(перескоки фазы, срыв синхронизации, среднее смещение частоты),
связанные с нелинейными свойствами системы и, следовательно,
учесть ее специфику.
2. Квазилинейный метод. Другой возможный подход к при-
ближенному исследованию системы ФАП основан на применении
квазилинейного метода (так называемого метода статистической
линеаризации)1. В простейшем варианте идея квазилинейного
метода заключается в том, что действительная безынерционная
’ Сиииции И. Н. Метод статистической линеаризации//Автоматика и телемеха-
ника,— 1974,—Т. 35, № 5 — С. 82—94.
Деиеле Ж. А. Пороговый критерий для синхронной демодуляции // ТИИЭР.—
1963.—Т. 51, № 2 —С. 380—387.
285
нелинейность заменяется эквивалентным (в некотором вероят-
ностном смысле) коэффициентом усиления линейного элемента.
Применительно к ФАП по существу предпринимается попытка
расширить область справедливости линейной аппроксимации
sincp^cp путем введения эквивалентного усиления.
Приведем здесь способ вычисления дисперсии фазовой ошибки
для случая отсутствия начальной расстройки (Ао = О). В системе
ФАП первого порядка (5.4.15) единственным нелинейным элемен-
том является фазовый детектор, который обусловливает появление
в уравнении (5.4.15) нелинейности/(ф) = Asin ср. Дифференциальное
усиление такой нелинейности f ((p) = r#/<7(p = Acoscp. Заменим не-
линейный элемент с характеристикой /(ф) осредненным коэф-
фициентом усиления
оо оо
к = J /'(ф)р(ф)<7ф = А J COSф/>(ф)<7ф, (5.5.5)
— ОО — ОО
где р(ф) — п. в. фазовой ошибки. Обычно принимают, что п. в.
/>(ф) является нормальной (аналогично широко известному методу
гауссовской аппроксимации):
Р (ф) = (2лРф)"1/2 ехр (- ф2 /2 Г>ф).
Подставив эту плотность вероятности в (5) и выполнив интег-
рирование, получим /с = Аехр( — D /2).
После замены в уравнении (5.4.15) нелинейности на «эк-
вивалентный» коэффициент усиления к путем обычного линейного
анализа для определения дисперсии разности фаз получим
следующее трансцендентное уравнение:
£>фехр(-£>ф/2) = (Р„/Л?)А/а. (5.5.6)
Таким образом, квазилинейный метод позволяет приближенно
вычислить м. о. и дисперсию фазового рассогласования. Однако
этому методу присущи все недостатки метода обычной лине-
аризации (исключаются из рассмотрения существенные нелиней-
ные эффекты) и не всегда оправданным является использование
гауссовского приближения.
3. Сравнение результатов. Приведенные выше результаты по-
зволяют сравнить разные методы на примере исследования ФАП
первого порядка по точности вычисления дисперсии разности
фаз в том частном случае, когда начальная расстройка по
частоте отсутствует (Ао = 0) и, следовательно, М{ф} = 0. Соответ-
ствующие результаты показаны на рис. 5.10, где по оси абсцисс
отложена величина 1/Z> = А7)п/аЛ2, характеризующая отношение
сигнал-шум на входе системы, а по оси ординат—дисперсия
Пф. Кривая 1 соответствует методу линеаризации [формула (4)],
2—квазилинейному методу [формула (6)], 3 — марковской теории
[формула (5.4.37)]. На рисунке также приведена кривая 4, получен-
286
ная методом функционального разложения Вольтерра (с учетом
первых пяти членов)1:
= +(1/2)Z)2 + (13/14)Z)3. (5.5.7)
Из сравнения кривых видно, что метод линеаризации дает
заниженные результаты по сравнению с марковской теорией.
Погрешность результатов не превышает 10% при использовании
квазилинейного метода для /Т1 <0,65 и при использовании
функционального разложения для D~r <0,8. Для отношений
сигнал-шум 7)2 5 все методы дают практически одинаковые
результаты.
Отметим, что области применимости перечисленных методов
анализа систем ФАП принципиально не ограничиваются порядком
нелинейного дифференциального уравнения со случайной правой
частью. Однако с повышением порядка уравнения существенно
возрастает трудоемкость вычислений.
5.6. ПРОБЛЕМА ПЕРЕСЕЧЕНИЙ
1. Содержание проблемы. Приведем основные определения
и укажем практическую значимость отдельных задач, связанных
с проблемой пересечений. Все физически реальные сл. пр. ^(/)
представляют собой непрерывные функции времени. Пример
отдельной реализации такого процесса приведен на рис. 5.11.
Функция £,(/), /е[0, Г], может несколько раз пересекать фик-
сированный уровень Н или заданную кривую A (Z) снизу вверх
(с положительной производной), причем в момент времени т0
впервые происходит такое пересечение (т. е. в первый раз снизу
достигается граница Н). Поэтому величину т0 можно назвать
временем первого достижения границы. Реализация &,(?) на
конечном временном интервале [0, Т] имеет конечное число
максимумов итах и минимумов «min с различными высотами t,m,
причем в момент времени t=tm реализация имеет наибольший
(абсолютный) максимум t,mm.
Когда траектория процесса £,(/) пересекает уровень Н снизу
вверх, имеет место положительный выброс (положительное пе-
ресечение); если же уровень Н пересекается сверху вниз — от-
рицательный выброс (отрицательное пересечение). В соответствии
с этим можно сказать, что реализация ^(?) длительности Т имеет
п (на рис. 5.11 их три) положительных (отрицательных) выбросов
на уровне Н, а указанные на рисунке величины т и 0 можно
назвать соответственно длительностями положительных и от-
рицательных выбросов (часто величину 0 называют также длитель-
ностью интервалов между выбросами).
1 Ван Трис. Функциональные методы анализа нелинейного поведения фазовой
автоподстройки частоты//ТИИЭР.— 1964.— Т. 52, №8.— С. 957—975.
287
Рис. 5.11. К определению основных характеристик выбросов случайного процесса
Все перечисленные характеристики можно отнести к харак-
теристикам выбросов сл. пр., поскольку они связаны с особен-
ностями поведения положительных и отрицательных выбросов
реализации £(/). /е [О, Г], на некотором уровне Н. Величины
г, 0 и L,m в пределах одной реализации могут принимать
несколько значений и вместе с величинами т0, п, пгоах,
nmjn и c,m»i изменяются случайным образом от одной реализации
к другой (в зависимости от вида процесса £,(/), уровня Н и ин-
тервала Г).
Проблема пересечений включает в себя определение вероят-
ностных характеристик с. в. п, птах, птт, т0, т, 0, ^т, по
известным необходимым вероятностным характеристикам сл. пр.
с,(г). Помимо того, что эти с. в. представляют интерес сами
по себе как детальные характеристики процесса £,(г), знание их
необходимо для решения разноплановых практических задач.
Приведем несколько конкретных примеров из области ра-
диотехники, теории надежности и массового обслуживания,
механики и медицины, хотя этими примерами не исчерпывается
область применения результатов.
1. В радиотехнических устройствах часто применяются эле-
ктронные реле и триггеры. Они используются в счетно-решающих
устройствах, в радиосвязных, радионавигационных и радиолокаци-
онных системах, в различных устройствах кодирования и деко-
дирования информации, в дозиметрических приборах и приборах
для измерения времени и частоты колебаний, в системах
синхронизации и др.
Обработка полезных (информационных) сигналов всегда осу-
ществляется при наличии помех (в частности, флюктуационных
шумов, органически присущих самим элементам радиоустройств).
Анализ совместного воздействия на реле полезных сигналов
и помех зависит от отношения «порогового» напряжения сра-
батывания реле к интенсивности помех. Если уровень помех
мал по сравнению с пороговым напряжением, то можно пренеб-
речь маловероятными ложными срабатываниями реле. Слабые
помехи будут вызывать небольшое «дрожание» как момента
срабатывания реле, гак и момента окончания его работы (с. 291).
В тех случаях, когда интенсивность помех сравнима или
превышает пороговое напряжение, будут происходить ложные
288
срабатывания реле, которые приводят к ошибкам функционирова-
ния соответствующих устройств. Если допустимо рассматривать
реле как практически безынерционное устройство, то число
ложных срабатываний реле за время Т будет определяться
числом п положительных выбросов помех, превышающих порог
срабатывания реле. При учете инерционных свойств реле для
определения числа ложных срабатываний нужно кроме п знать
п. в. случайных величин т и 0.
2. По своей формулировке задача анализа работы инерци-
онного реле при воздействии на него регулярных импульсов
и помех близка к классу распространенных задач теории очередей
или теории массового обслуживания; иначе говоря, работа
инерционного реле в таких условиях может служить моделью
одноканальной системы массового обслуживания. При этом
время формирования выходного импульса реле можно интер-
претировать как время обслуживания одной заявки, регулярный
поток импульсов — как регулярный поток требований, положи-
тельные выбросы помех — как случайный поток непредусмотрен-
ных заявок и т. д. Описание подобных систем базируется на
вероятностных характеристиках с. в. п, т, 0.
3. Одним из распространенных методов сжатия информации
в информационно-измерительных системах является «жесткое»
(идеальное) симметричное амплитудное ограничение. Обработка
непрерывного процесса (?) заменяется при этом обработкой
его знаковой функции, в которой сохраняется информация лишь
о пересечениях траекторией Е, (f), te [О, Г], нулевого уровня.
Распределение числа «нулей» и длительности интервалов между
нулевыми пересечениями относится в подобных системах к ос-
новным информационным параметрам.
4. Величины п, 0 и при определенных условиях являются
основными характеристиками замираний радиосигналов, возника-
ющих из-за многолучевого или диффузного характера распростра-
нения радиоволн в турбулентной среде или же за счет отражений
от неровных поверхностей. При этом излученный полезный
радиосигнал может трансформироваться каналом так, что в месте
приема будет наблюдаться узкополосный сл. пр. Применительно
к огибающей такого узкополосного сл. пр. величина п характери-
зует «частоту» замираний (федингов), 0 — длительность замираний
ниже определенного порогового уровня и Е,т— глубину замираний.
5. Физически наглядную картину таких «тонких» явлений,
встречающихся в теории оптимального приема, как неоднознач-
ность оценки параметров, пороговые эффекты (в частности, при
приеме частотно-модулированных радиосигналов), вероятности
ошибок и др., можно дать только с привлечением теории выбросов.
6. В общей проблеме оптимизации передачи информации все
большее значение приобретают методы синтеза различных из-
мерителей на базе теории фильтрации. При этом для решения
289
10—2247
конкретных задач необходимы следящие измерители (автодаль-
номер, фазовая и частотная автоподстройка, автоматическая
регулировка усиления и др.) или многоканальные устройства.
Основное назначение таких измерителей — автоматическое слеже-
ние за интересующим нас параметром полезного сигнала с прием-
лемой ошибкой. При наличии случайных помех ошибка слежения
будет случайной и временами может достигать настолько боль-
ших значений, что дальнейшее слежение практически прекратится,
т. е. произойдет срыв слежения. Одной из важных характеристик,
дающих представление о нормальном функционировании подо-
бных систем, является случайное время т0 первого достижения
ошибкой заданных границ. К подобным проблемам сводятся
разнообразные задачи оценки надежности и устойчивости тех-
нических систем, задачи определения периодов занятости, времени
ожидания и моментов потери требований в системах массового
обслуживания и др.
7. Многие приборы, применяемые в сейсмологии, метеорологии
и медицине, основаны на измерении «частоты», высоты и длитель-
ности выбросов наблюдаемых процессов случайного характера.
При этом возникает возможность заменить трудоемкий и субъек-
тивный анализ осциллограмм сравнительно простой автоматичес-
кой регистрацией показаний специализированных вычислителей.
Приведенными примерами не исчерпывается область примене-
ния теории выбросов сл. пр., однако они позволяют составить
некоторое представление о широком научно-прикладном значении,
которое имеют исследования по проблеме пересечений.
Важность исследований по проблеме пересечений была осоз-
нана сравнительно давно. Первые фундаментальные результаты
в этом направлении принадлежат Л. С. Понтрягину (1933 г.)
и посвящены вычислению характеристики времени первого до-
стижения границ марковскими сл. пр. Прогрессивную роль
в развитии разносторонних исследований выбросов как важных
характеристик сл. пр. сыграла теоретическая работа С. О. Райса
(1945 г.)1, в которой для некоторых видов случайных процессов
получены формулы для среднего числа выбросов и распределения
максимумов, а также указан приближенный путь решения задачи
о п. в. длительности выбросов. В последующие годы частные
задачи проблемы пересечений рассматривались в ряде теоретичес-
ких и экспериментальных работ, итоговые результаты которых
изложены в монографии2.
В проблеме пересечений для ряда часто встречающихся
в радиотехнике сл. пр. известны следующие результаты: мате-
1 Rice S. О. Mathematical Analysis of Random Noise//BSTJ.— 1945.— Vol. 24,
№ I. P. 46 156.
2 Тихонов В. И., Химеико В. И. Выбросы траекторий случайных процессов.—
М.: Наука, 1987.— ЗО4с.
290
магическая методика вычисления вероятностных характеристик
времени т0 первого достижения границ марковским процессом;
общий путь вычисления п. в. для т и 0; формулы для вычисления
м. о. и дисперсии числа пересечений п и п. в. с. в. Е,т и ^тт,
а также м. о. т и 0.
Ниже из общей проблемы пересечений рассмотрены лишь
два частных примера: о «дрожании» момента срабатывания реле
из-за шумов и вычисление среднего числа пересечений п сл. пр.
2. Нестабильность момента срабатывания реле. Пусть на
пороговое устройство типа электронного реле воздействует сумма
детерминированного импульсного сигнала s(j) и помехи &,(?)
малой интенсивности. Считаем, что пороговое устройство яв-
ляется безынерционным: оно срабатывает каждый раз, когда
воздействующее напряжение превышает некоторое пороговое
значение Н.
Пусть в отсутствие помех реле срабатывает от полезного
импульса s(t) в некоторый момент времени t0 (рис. 5.12),
определяемый равенством
s(t0) = H при s'o = s'(to) = ds(to)/dt>0, (5.6.1)
где s' — крутизна фронта импульса s(j) на уровне Н.
При наличии помех E,(t) реле срабатывает в другой момент
времени г'0 = ?0 + А, где А — смещение момента срабатывания реле.
Ясно, что смещение А является с. в., разной для разных
реализаций помех. Для того чтобы теперь произошло срабатыва-
ние реле, должны выполняться условия
5(z0 + А) + (z0 + А) = Н, s'(?0 + А) + (t0 + А)>0. (5.6.2)
Примем в качестве помехи ^(г) стационарный дифференциру-
емый процесс с заданной совместной п. в. pit,, £,') для процесса
^(/) и его производной t,' (t) в один и тот же момент времени.
Поскольку помеха (/) предполагается малой, то смещение
Рис. 5.12. Смещение момента срабатыва-
ния реле из-за помех
Рис. 5.13. Условия наличия поло-
жительного выброса при
(;' = const >0
291
А будет тоже малой величиной. Для малых значений А диф-
ференцируемые функции s(j) и E,(t) можно разложить в ряд
Тейлора в окрестности точки t0 и ограничиться линейными
относительно А членами (линейное приближение):
Дг0 + А)^у(г0) + 4Л, ^0 + А)«^(ГО) + ^'(ГО)А. . (5.6.3)
При этом условия срабатывания реле (2) с учетом (1) примут вид
.y'oA+^(ro) + ^(zo)A = 0, ^(ro)>-.v'o
или
Л = — Е,(r0)-I-Е,'(ro)J1, £'(г0)>-.уф (5.6.4)
Эти соотношения позволяют получить п. в. смещения А по
известной совместной п. в. /?(ф £/).
На практике часто интересуются дисперсией смещения £>д.
Для нее из (4) в частном, но важном случае можно получить
очень простую формулу. Дисперсия для производной сл.
пр. £(Г) с корреляционной функцией R< (т) = D-J (т) равна
D^,= — D^d2r(0)/dT2. Если выполняется неравенство s'0^>D{'2, то
в знаменателе формулы (4) можно пренебречь вторым слагаемым,
т. е. А% — (/0)Д'0. Отсюда следует, что
£>л^/(.у'о)2. (5.6.5)
Если принять в качестве основной количественной харак-
теристики нестабильности момента срабатывания реле дисперсию
£>д, то естественно интересоваться условиями, при которых она
имеет по возможности малое значение. Уменьшения величины
D& можно достигнуть двумя путями: выбором вида полезного
сигнала s(t), а при выбранном сигнале — оптимальной обработкой
его. Такая обработка детерминированного сигнала на фоне
аддитивной стационарной помехи с известной корреляционной
функцией выполняется оптимальным фильтром.
Поставим перед электронным реле оптимальный фильтр для
производной от сигнала На выходе фильтра в определенный
момент времени t0 будет получено наибольшее отношение
пикового значения производной сигнала к среднеквадратическому
значению выходного шума. При этом величина D& для заданного
сигнала будет минимальной.
Формулой (5) можно воспользоваться для приближенного
решения ряда задач (в частности, оценки точности определения
временного положения радиоимпульса на фоне аддитивного
шума, точности работы тактовой синхронизации, получения
распределения интервалов между нулями гармонического колеба-
ния и слабого гауссовского шума и др.).
Среднее число пересечений. Получим формулу для среднего
числа пересечений вещественным сл. пр. £(г) фиксированного
уровня Н в интервале [О, Т]. Предполагается, что процесс
292
дифференцируем и известна совместная и. в.
p(^{t), &,'(z ))=/?(&,, г) для значений процесса &,(z) и его произ-
водной в один и тот же момент времени t. Реализация процесса
&,(z) пересекает фиксированный уровень Н в некоторой произ-
вольной точке t=ti, если в окрестности этой точки
[Г, — Az/2, Z; + Аг/2] при Az>0 выполняется условие
(rf - Аг/2) - Я] (z; + АГ/2) - Я] < 0. (5.6.6)
Очевидно, что пересечение уровня Я может происходить
снизу вверх, т. е. с положительной производной
Ц^ = Н, &,'(z;)>0, (5.6.7)
или сверху вниз, т. е. с отрицательной производной
^(Л) = я, Е,'(гг)<0. (5.6.8)
При &,'(?,)> 0 условие (6) эквивалентно условиям с(7)<Я в ин-
тервале (z,- —Az/2, z;) и Ц/)^Яв интервале (tt, t^At/2). Пересече-
ние в этом случае можно назвать положительным выбросом
(положительным пересечением). В противоположном случае, при
£,'(Z;)<0, условие (6) эквивалентно выполнению условий ^(?)^Я
в интервале zg(z; —Az/2, и &,(?)^Я при zg(z;, z; + Az/2). Такое
пересечение принято называть отрицательным выбросом (пересече-
нием).
Формулировка условий пересечения реализацией ^(z) уровня
Я в разных задачах может быть различной. Однако при
указанных выше условиях различные определения по существу
приводят к одинаковым конечным результатам.
Обозначим какую-либо конкретную реализацию процесса £,(z)
через ^w(z). Разобьем полный интервал времени [0, Т] на
v равных примыкающих, но непересекающихся малых подын-
тервалов Atj=Az = const, причем vAz=T. Возьмем длину элемен-
тарного подынтервала Az настолько малой, чтобы можно было
пренебречь вероятностью более чем одного пересечения на этом
подынтервале. Для «непрерывной» .функции £,(z) это условие
можно выполнить, так как для любых Z и Z', находящихся на
одном малом подынтервале, функция близка к прямой:
^(z>^(z) + ^(z)(z'-z). (5.6.9)
Поэтому на малом Az практически может быть не более одного
пересечения, т. е. имеется лишь две возможности: на интервале
Az не будет выброса (с вероятностью р0) или же будет один
выброс (с вероятностью р1 = ]— р0).
Поставим каждой реализации £,(i)(Z) в соответствие v с. в.
8Ф, Зф, ..., З’1*, ..., 8*,1’, определенные следующим образом. С. в.
Зу* может принимать лишь два значения 0 и 1, причем ЗУ)=1,
если в /-м подынтервале реализация ^w(z) пересекает уровень
Я снизу вверх, и 8}!) = 0 в противном случае.
293
Очевидно, что число положительных выбросов реализации
^'’(О.на интервале [О, Т] определяется суммой
Т)= f ЗУ’. (5.6.10)
i= 1
С. в. п(,) (Н, Т) можно назвать счетчиком числа выбросов. М. о.
(среднее значение) числа выбросов равно
N+(H, = Т)}= f М{ЗУ>}, (5.6.11)
j = i
где операция м. о. относится к ансамблю реализаций с разными
номерами i.
В соответствии с определением с. в. 8*1’ ее м. о. на фик-
сированном подынтервале А?; равно
М{8У)} = 0-Р{8У’ = 0}+1 •P{8y)=l}=P{8y’=l}=jp1. (5.6.12)
Вычислим вероятность рг наличия положительного выброса
на подынтервале А?;-. Пусть точка t = tj соответствует началу
элементарного подынтервала А?;- и производная в этой точке
фиксирована. Воспользовавшись линейной аппроксимаци-
ей (9), путем геометрического построения (рис. 5.13) нетрудно
убедиться, что в этом случае на подынтервале Аг; будут иметь
положительный выброс только те реализации процесса, которые
удовлетворяют условию
Н-^<Ц(^Н, А^.=^(?у)А?у.
Поэтому для Pi можем написать
Р1=Р{Н-^<Ц^Н, ^)>0}. (5.6.13)
Имея в виду последующий предельный переход и полагая
Atj и Дё,. малыми величинами, вероятность события, указанного
в фигурных скобках, просто выражается через совместную п. в.
р (^ (?), L,' (/)) для процесса !;(?) и его производной &,'(?) в один
и тот же момент времени. Согласно определению п. в. имеем
Р{Н-А^.<^(Г;)^Н, ^<^(t^ + d^'}=p(H,
Для нахождения вероятности pt нужно в правую часть этого равенства
подставить А^- = &,'А?;- и затем согласно (13) выполнить интегрирование
по всем положительным значениям производной %' (?) от 0 до оо:
Pi=Atj№p(H,^;tj№'. (5.6.14)
о
Подставив это выражение в формулу (11) и перейдя затем
к пределу при Atj-^dt, v-*oo, получим окончательную формулу
для среднего числа положительных выбросов
294
Т со
N+(И, T) = f dt$ t,'p(H, t)d^'. (5.6.15)
о о
Для среднего числа отрицательных выбросов таким же путем
получим формулу
т о
N~(H,T)=-]dt J ^'р(Н, ^';t)d^'. (5.6.16)
О —со
Очевидно, что среднее число всех пересечений сл. пр. ^(z) уровня
Н равно
Т оо
N(H, T) = N+(H, T)+N~(H, T) = jdt f №'\p(H, t)d^'.
0 — oo
(5.6.17)
Формулы (15) ... (17) были получены С. Райсом.
Совместную п. в. всегда можно представить в виде
р(Ъ t)=p^; t)p(^'; /|£; t). (5.6.18)
При этом (15) ... (17) можно записать иначе. Например, формулы
(15) и (17) теперь примут вид
Т оо
Я+(Я, Т) = |^(Я; tjdt^'pfc'; t\H; t)d^', (5.6.19)
о о
Т оо
Я(Я, Т)=4^(Я; z)</zf |^|/<; Z|Я; z)<. (5.6.20)
о о
Формулы (15) ... (17) можно обобщить на случай, когда
уровень Я не постоянен, а задан в виде некоторой кривой a(t).
Пусть требуется вычислить на некотором интервале времени
[z0, z0 + T] среднее число пересечений сл. пр. £,(z) с заданной
непрерывной однозначной функцией a(t) (рис. 5.14).
Рассмотрим случайную функцию
p(z) = ^(z)-«(z). (5.6.21)
Очевидно, что пересечения сл. пр. с заданной кривой «(/)
совпадают с нулями функции г] (z), причем в моменты пересечении
случайной функцией т| (z) нулевого уровня выполняются условия
n(z) = O, t|'(z)>0.
Обозначим м. о. числа таких «положительных» нулей на
интервале (z0, t0 + T) через N„ (z0, Т), а «отрицательных» — через
N„ (z0, Г). На рис. 5.14 они обозначены соответственно светлыми
и темными кружками.
Перейдем в п. в. p(£,(z), E'(z)) по известным правилам к новым
переменным ц (z) = ^(z)~«(z), rf (z) = ?;'(/) —a'(z). Тогда найдем
совместную п.в. для т| (z) и rf(z):
295
Рис, 5.14. Реализация дифференцируемого случайного процесса £,(/) и детер-
минированная функция a(t)
р(т|, п'; ?)=/?(т1 (/) + «(/), +
Применив теперь формулы (15) ... (17) к случайной функции т] (г),
получим соответственно
Л7('о, 7> j dt f T|'(r)/?(a(r), а'(/) + г]'(г))б?т|', (5.6.22)
*0 О
*о + т о
^Я(ГО, Л=_ I dt I HO + n'WHn', (5.6.23)
<0 со
Na(t0, T) = 7Vo+(r0, T) + Na~(t0, T) =
(5.6.24)
<о + т о
= f л j In'(0lp«')’ «'(')+л'(ОИп'-
'о
Формулы (22) и (23) позволяют решить следующую за-
дачу. Пусть на интервале [/0, 6) + Г] заданы две непрерывные
однозначные функции a(t) и 6 (г), причем «(/)</>(?). Требуется
определить, сколько раз в среднем сл. пр. £,(() выйдет из границ
д(/)<^(/)<6(?) на интервале [?0, /0+Т]. Интересующая нас
величина равна
Nah(T) = Nh+(t0, T) + ZVa-(/o, T)=T^x
го
х J П'(ООа'(/)~Г]'(/))]d^'. (5.6.25)
о
Применительно к стационарным в узком смысле сл. пр. £(г)
внутренний интеграл в формулах (15) ... (17) не зависит от
времени, так как
р(Ъ t}=p£, ^=p&)plg\^. (5.6.26)
Разделив правые и левые части равенств (15) ... (17) на
Т, получим простые формулы для определения среднего чи-
сла соответствующих пересечений в единицу времени на уров-
не Н:
296
Nt (H) = N + (Я, T)/T= f%р(Н, ^')< =
о
=Р^Н)№р£’\Н№', (5.6.27)
О
о
ЯГ(Я) = Я-(Я, Т)1Т=- J ^>(ЯД')< =
— сю
О
= -р№) f ^(^'|Я)Д, (5.6.28)
- сю
М(я)=я(я, т)/т= f дияд')<=/д(я) J мХ'1я)Д'.
— сю — оо
(5.6.29)
Для стационарных в узком смысле сл. пр. с независимой
производной в совпадающие моменты времени, удовлетворяющих
условию
Р& ^)=р^)р^'\^=р^)Р^^>')’ (5.6.30)
формулы (27) ... (30) приобретают особенно простой вид. В ча-
стности,
(5.6.31)
о
Видно, что для строго стационарных сл. пр. со статистически
независимой производной (в совпадающие моменты времени)
среднее число выбросов на уровне Я с точностью до некоторого
постоянного множителя пропорционально значению п. в. процесса
на этом уровне. Этот результат можно использовать для
экспериментального определения одномерных п. в. указанных
процессов с помощью счета числа выбросов на разных уровнях.
Конечно, при этом должна быть предварительная уверенность
в том, что условие статистической независимости (30) для
рассматриваемого процесса выполнено.
Отметим, что с небольшими изменениями приведенные выше
формулы позволяют вычислить среднее число максимумов или
минимумов дважды дифференцируемого сл. пр. Для этого нужно
вместо процесса рассматривать в качестве исходного первую
производную процесса &,'(?). При этом в точках максимумов
должны выполняться условия £,'(z) = 0, &,"(?)< О, а в точках
минимумов — ^'(r) = 0, £,"(f)>0.
• Выше при вычислении среднего числа пересечений сл. пр.
предполагалась известной совместная п. в. /?(&(<), (г)). Пусть
сл. пр. Mt) задан двумерной п.в. /?2(ДД2), где
£,2=Д(/2). Возьмем 6 и г2 так, чтобы интересующий нас момент
297
времени t находился посредине между ними, т. е.
/ = Г1+(А/2) = /!2 —(А/2), где достаточно малая величина
А = /2 —Ч>0. Для дифференцируемого процесса при малом А мо-
жем написать очевидные равенства = £,— (А/2)^', 2 = + (А/2)^,'.
Если в п. в. р2(£, 1, &,2) перейти от переменных ^2 к новым
переменным и затем положить А->0, то получим
p(^^>limA^(^-^', (5.6.32)
Л-.О z z
Так как р2(£1, ^2) удовлетворяет условию симметрии (т. е. не
меняется при перестановке аргументов), то отсюда следует
p^)=p^-Z,'). (5.6.33)
Следовательно, совместная п. в. является четной функцией от-
носительно производной процесса.
Глава 6. СВЕДЕНИЯ ИЗ МАТЕМАТИЧЕСКОЙ
СТАТИСТИКИ
6.1. ЗАДАЧИ МАТЕМАТИЧЕСКОЙ
СТАТИСТИКИ И ОПТИМАЛЬНОГО
ПРИЕМА СИГНАЛОВ
Основные задачи статистики. В рассмотренных ранее задачах
анализа работы радиоустройств и систем при случайных входных
воздействиях предполагались известными вероятностные харак-
теристики входного воздействия и модели систем и по существу
дело сводилось к вычислению необходимых характеристик выход-
ного сигнала. Такую задачу (пересчет характеристик со входа
на выход системы) условно можно назвать прямой. В матема-
тической статистике решается обратная задача — исходными яв-
ляются наблюдения или экспериментальные данные и в результате
их надлежащей (оптимальной) обработки требуется вынести то
или иное суждение или решение о природе явления, связанного
с наблюдением. Роль такого рода задач особенно возросла
в последние 30 лет с развитием науки и совершенствованием
техники, поскольку с повышением точности экспериментов все
в большей мере проявляются случайные факторы, связанные
с помехами и ограниченностью измерительных и вычислительных
возможностей.
Статистические методы исследования, базирующиеся на экс-
периментальных данных, применяются в различных областях
298
знаний и могут преследовать разные цели. Однако можно
выделить следующие четыре основные задачи математической
статистики [1,5].
1. Оценка неизвестной функции распределения (плотности
вероятности). Эта задача обычно формируется так. В результате
измерений сл. в. £, получены следующие ее конкретные значения:
^o = Ro, ^1, •••, t,v}- Требуется оценить неизвестную функцию
распределения F(x) сл. в. или ее п. в. р(х). Эту задачу можно
распространить на многомерные функции распределения и п. в.
Применительно к сл. пр. цг) на текущем интервале времени
[О, ?] результатом наблюдения может быть непрерывная ре-
ализация £‘0 = {£(т), или же реализация выборочных
значений £,о = {4о, , Sv}, £, = £(^), z = 0, v, из этого интервала.
2. Оценка неизвестных параметров закона распределения.
Пусть на основании физических или общетеоретических соображе-
ний можно заключить, что сл. в. или сл. пр. £,(/) имеет
функцию распределения определенного вида, зависящую от не-
скольких параметров, значения которых неизвестны (например,
в нормальном законе (1.1.9) порознь или вместе неизвестны
т и D). На основании располагаемых наблюдений (измерений)
£,о или £,о нужно оценить значения этих параметров.
3. Статистическая проверка гипотез. Пусть наблюдаемые зна-
чения порождаются двумя или несколькими различными событи-
ями (гипотезами). На основании наблюденных значений нужно
решить наилучшим образом, какой из гипотез порождены
полученные значения. Например, пусть на вход радиоприемного
устройства поступает случайное колебание ^(г), которое в каждый
момент времени является либо помехой и(/) (гипотеза Но), либо
суммой сигнала и помехи (гипотеза Нг). В некоторый
фиксированный момент времени произведено измерение величины
По полученному числовому значению нужно решить наилучшим
образом, присутствовал ли на входе сигнал s(t), т. е. выбрать
одну из двух гипотез H}:^=s+n или
Укажем, что задачу проверки гипотез путем формализации
записей часто можно свести к задаче оценки значения
дискретной сл. в.
4. Фильтрация сообщений. Пусть непосредственному наблюде-
нию доступен сл. пр. £(/, X(z),д(/)), /е[0, Г], зависящий
от информационного сообщения Х(г) и некоторого другого
«параметра» |т(р), вероятностные характеристики которых пол-
ностью или частично известны. Требл"’ся получить (отфильт-
ровать, выделить наилучшим обрз 7 оценку Х(т) реализации
информационны.) сообщения Хр держащейся в наблюдаемой
реализации E,(Z, X(z), u.(f)). Фильтруемых параметров Х(г), как
и сопутствующих |i(z), может быть несколько. Задача фильтрации
по существу есть задача оценивания сл. пр. Задача оценки
параметров является частным случаем задачи фильтрации, когда
299
фильтруемый параметр Х(г) за время наблюдения Т не успевает
существенно измениться.
Все характеристики, подлежащие определению по результатам
опытов или измерений, принято называть статистическими,
а любая функция результатов опытов, которая может быть
принята за подходящее значение неизвестной статистической
характеристики, называется оценкой этой статистической харак-
теристики. Основная задача математической статистики — раз-
работка методов нахождения оценок и исследование точности
их приближения к неизвестным статистическим характеристикам.
Задачи оптимального приема сигналов. Покажем непосредст-
венную связь некоторых задач, возникающих при оптимальном
приеме сигналов, с перечисленными задачами математической
статистики.
В ряде случаев принятое колебание (наблюдение) можно
представить в виде
l) + n0(t), (6.1.1)
Здесь s(t, X) — полезный сигнал, являющийся детерминирован-
ной и известной функцией аргументов t и к, к = {Х1, ...
..., !,„}—параметры, от которых зависит радиосигнал. Например,
прямоугольный радиоимпульс определяется пятью параметрами:
амплитудой, частотой, начальной фазой, длительностью и момен-
том появления (относительно принятого отсчета времени). Под
п0(/) подразумевается БГШ (см. ниже).
При решении задач теории оптимального приема сигналов
ответ должен быть получен на основе предварительных (апри-
орных) сведений о колебании &,(?), подлежащем приему, и над-
лежащей обработке реализации принятого колебания (наблюда-
емого процесса).
Заметим, что если бы мы не располагали никакими предвари-
тельными сведениями о сигнале (т. е. о его форме и параметрах),
то его нельзя было бы отличить от любой помехи. Наоборот,
прием детерминированного сигнала не доставляет никакой инфор-
мации: если сигнал точно известен, то его можно воспроизвести на
приемной стороне. Поэтому носителями полезной информации
могут быть только неизвестные параметры сигнала.
Относительно априорных сведений возможны разные ситуации.
Если в прошлом существовал и изучался ансамбль ситуаций,
аналогичных условиям данного приема, то можно задать физичес-
ки обоснованную априорную п. в. параметров сигнала. Однако
гораздо чаще па основании физических соображений бывают
известны лишь пределы изменения параметров. В подобных
случаях априорную п. в. параметра обычно полагают постоянной
внутри этого интервала и равной нулю вне его.
Вообще следует иметь в виду, что выбор конкретного вида
априорного распределения параметра не является ограничитель-
300
ным. Роль начальных, априорных сведений уменьшается с увеличе-
нием «объема» наблюдений. При малом объеме наблюдений,
когда априорные распределения сильно влияют на конечный
результат, алгоритмы обработки получаются разными и работают
плохо. При большом объеме наблюдений оптимальные алгорит-
мы работают хорошо и асимптотически одинаково, т. е. оказыва-
ются асимптотически нечувствительными к априорному рас-
пределению. Такой результат не удивителен и по существу
подтверждает хорошо известный факт, что стационарный режим
работы системы (в частности, с одним устойчивым состоянием
равновесия), если он существует, не зависит от начальных
условий в системе. Таким образом, выбор априорного рас-
пределения не особенно обязывающий. При его задании кроме
физических ограничений следует также учитывать соображения
удобства последующих выкладок и простоту конечных резуль-
татов.
Возвратимся к записи (1). В различных радиосистемах при-
ходится иметь дело с разными видами помех. Однако во всех
случаях является общим и неизбежным наличие гауссовского
флюктуационного шума, обусловленного естественными причи-
нами, которые принципиально неустранимы (тепловые и другие
шумы окружающего пространства и собственные шумы радиопри-
емных устройств). Тепловые шумы пространства, окружающего
приемную антенну, принимаются ею вместе с полезным сигналом
и суммируются с собственным шумом радиоприемного устрой-
ства. Помехи, которые суммируются с сигналом линейно, называ-
ются аддитивными.
Следовательно, представление принятого колебания в форме
(1) отражает основной вариант — наличие аддитивного широко-
полосного гауссовского шума, который можно рассматривать
как БГШ пор) со следующими характеристиками:
М{л0(Г)М> M{no(c)no(c)}=(Aro/2)5(z2-G). (6.1.2)
В зависимости от целевого назначения разные системы
передачи информации работают в различных условиях и к ним
предъявляются разные требования. Исходя из этих требований,
а также из методических соображений, для типовых систем
можно сформулировать несколько частных задач, рассматрива-
емых в теории оптимального приема сигналов. Укажем некоторые
из них и покажем, что они сводятся к перечисленным задачам
математической статистики.
Задачи обнаружения и различения сигналов на фоне шума
в формализованном виде можно сформулировать так. Пусть
в принятом колебании (?) может быть только один из двух
сигналов Xt) или s2(t,'k2):
^(?) = 05J(rA1)+(l-O)^(6^) + «oO), (6.1.3)
301
Здесь 0 случайная величина, принимающая лишь два возможных
значения: 0=1 (присутствует сигнал с вероятностью pi и 0 = 0
(присутствует сигнал s2) с вероятностью p2 = (—pi- Требуется
по принятой конкретной реализации £,(f) на интервале Т решить
оптимальным образом, присутствует ли сигнал или s2. Иначе
говоря, требуется оценить значение дискретного параметра (сл. в.)
0. При s2(t, Х.2) = 0 задача различения двух сигналов переходит
в задачу обнаружения сигнала Sj(t, Xi) на фоне шума, которая
характерна для радиолокации. Задачу различения можно сфор-
мулировать для любого параметра сигнала, принимающего
дискретные значения. Эта задача характерна для различных
цифровых систем связи.
Сформулированные задачи непосредственно относятся к про-
блеме статистической проверки гипотез. Однако их можно также
трактовать как задачу оценки дискретной сл. в. 0.
Приведем типовую формулировку задачи оценки параметров.
Пусть какой-либо параметр X,- сигнала s(t, X) является постоянной,
но неизвестной или сл. в. с априорной п. в. ррг(Х;). Необходимо
с минимальной погрешностью определить значение этого парамет-
ра X, в принятой реализации (1). Если сигнал зависит от
нескольких случайных параметров, то может быть поставлена
задача о совместной оценке двух и большего числа параметров,
причем некоторые из них могут быть непрерывными сл. в.,
а другие дискретными. Помимо оценки параметров сигнала
можно также интересоваться оценками некоторых параметров
помехи n0(t).
Параметры сигнала, интересующие нас в данной задаче
и подлежащие непосредственной оценке, принято называть пред-
ставляющими (информационными, существенными'), а остальные
параметры — сопутствующими или сопровождающими (неинфор-
мационными, несущественными). В радиотехнических приложениях
в качестве представляющих наиболее часто выступают время
появления, частота и фаза радиоимпульса, а также другие
параметры, характеризующие цель (размер, форма, отражающая
поверхность) и характер ее движения (дальность, скорость,
ускорение).
Задача оценки параметров является характерной для изме-
рительной техники, радиолокации, радионавигации, радиосвязи
и др. Результатом решения задачи являются структурные схемы
соответствующих оптимальных измерительных систем и пре-
дельные точности измерения параметров.
Чтобы свести сформулированную задачу оценки параметров
к той, которая рассматривается в математической статистике,
нужно записать апостериорную п. в. оцениваемых параметров
в принимаемом колебании (1).
Апостериорная плотность вероятности. Предположим пока, что
производится дискретное наблюдение и сигнал s(t, X) зависит
302
от одного непрерывного параметра X, имеющего априорную
п. в. /?рг(А). Все то, что можно узнать о параметре А после
приема колебания £,о, заключено в условной п. в.
Pps(A)=^(A|U), (6-1.4)
называемой апостериорной плотностью вероятности. Согласно
известной теореме умножения вероятностей имеем
р(К (6.1.5)
Отбрасывая левую часть равенства и учитывая, что р^(^о) не
зависит от интересующего нас параметра А, па основании (4)
и (5) можем написать
рР^)=р(1\^о) = кррг(^)р^о\Ц }
к = ЕХР/»- (МР (£ о IМ </А ]" ’.
Рассматриваемая как функция от А условная плотность ве-
роятности
р(^| A) = L(A)
(6.1.7)
называется функцией правдоподобия. При фиксированном значении
£,о она показывает, насколько одно возможное значение параметра
А «более правдоподобно», чем другое.
Формула (6) по существу представляет математическую запись
известной теоремы Байеса, которая дает правило формирования
апостериорного знания из априорных сведений и результатов
опыта (обработки принятого колебания).
Если параметр А является дискретной сл. в. и может при-
нимать только одно из нескольких возможных значений А1?
А2, •••, А; с априорными вероятностями /?Р,.(А;), i= 1,у, то апостери-
орные вероятности этих значений определяются формулой
,Рр#О = %г(А;)£(А;), А- =
Z /V(A,.)L(A,.)
I-1.
(6.1.8)
J
Формула (6) обобщается на несколько параметров. Если
сигнал зависит от т непрерывных параметров Аь А2, ..., А,„,
т. е. s(t, Аь ..., Аж), то формулу (6) следует записать в виде
pps(Ai, ..., А„,) = /фрг(А1, ..., А,„)£(А15 ..., Ат), (6.1.9)
где коэффициент к по-прежнему определяется из условия нор-
мировки. Эта формула остается в силе и в том случае, когда
среди параметров А15 ..., Аш некоторые являются непрерывными
сл. в., а остальные—дискретными.
Хотя в записи сигнала все параметры выступают в качестве
равноправных, однако в конкретной задаче в качестве представ-
ляющих может выступать лишь часть из них. Обозначим
303
совокупность представляющих параметров сигнала вектором
= •••, ^к}, а сопутствующих — вектором к'(, = {Х'15 Ц},
к + ц = т. Апостериорную п. в. представляющих параметров мож-
но найти из условия согласованности п. в.
Pps^k)=P^k\^o) = jp(^k, КI £о) dl'^T
=к\Ррг(к, (6.1.Ю)
Зная апостериорную п. в., можно получить оценки представля-
ющих параметров по любому критерию оптимальности.
Таким образом, при известных априорных вероятностях
нахождение апостериорных вероятностей сводится к вычислению
функций правдоподобия. В том случае, когда принятое колебание
представляет аддитивную смесь сигнала и помехи, т. е. имеет
вид (1), и многомерные п. в. помехи известны, функции прав-
доподобия вычисляются сравнительно просто.
Пусть помехой n0(t) в (1) является БГШ с известной
односторонней спектральной плотностью No. Чтобы можно было
корректно перейти от дискретного времени к непрерывному,
рассмотрим сначала метод дискретного наблюдения, когда берут-
ся осредпенные отсчеты через равноотстоящие моменты времени.
Разобьем интервал времени [0, Г] равноотстоящими точками
/ь ..., t„„ где ?! — ?i_1 = A = const, z = l, т. Обозначим осредпенные
за элементарный интервал времени значения колебания £,(?),
сигнала s(t, л.) и шума «о (0 соответственно
^ = т j Л’-(^) = т f s(i,k)dl, iio, = ~ [ «o(zM- (6.1.11)
Л(,-л й',
Очевидно, что
nOi^:-S1 (X). (6.1.12)
Будем считать, что в выражении для функции правдоподобия
(7) фигурируют указанные осредненпые значения £,;.
Запишем совместную п. в. для сл. в. nOi, z=l, т. Они являются
нормально распределенными и согласно (11) имеют следующие
характеристики:
M{zzOz} = 0, Лог = М{иф} = Ао/2А, M{«oi«oj} = 0 при z/y.
(6.1.13)
(6.1.14)
Поэтому
Ап(«01, П0т)=Р1(п01) ...Р1(иОт) =
/ м \ ~т/2 / 1 \
= (7Суг) ехр(£ и^-А ).
\ А / \ N°t=i /
Полагая значение параметра к фиксированным, подставив
значения щ из (12) в (7) и учитывая, что якобиан преобразования
304
от переменных по; к переменным равен единице, получаем
формулу для функции правдоподобия параметра X:
£(Х)=р(^, ^ffl|X)=p„(^j -Slpv), Чж-ММИ
/ м \ “'"/2 f 1 ]
“ ”т “Р [Щ)-ДЩул О'-15)
\ & J I J
Если параметр X является дискретным и принимает несколько
значений Хь ..., Х7, то в формулу (8) нужно подставлять функцию
правдоподобия при соответствующем значении параметра Х;.
Для сигнала, зависящего от нескольких параметров Хь Х;-,
функция правдоподобия, входящая в (9), примет вид
I 1 т
х ехр< —— У, Х15 ..., Ху-)]2Д >. (6.1.16)
I N°, = i J
При рассмотрении задач фильтрации сообщений Х(г), изменя-
ющихся во времени, потребуется переход к непрерывному време-
ни. Для этого нужно в формулах (14) ... (16) перейти к пределу
при Д—>0. При этом информация о случайном процессе
будет заключена в форме реализации. Разумеется, что при
непрерывном наблюдении получаются более точные результаты.
При Д~>0 п. в. и р„ перейдут в соответствующие функционалы
плотности вероятности, а функция правдоподобия — в функци-
онал правдоподобия. Введем для них обозначения
2°[«о(0] = lim кьРт(по1, ..., пОт), F(X)= iim £(Х), (6.1.17)
Zv-0 Zv-0
где множитель Хд зависит только от Д и No. Осуществив
предельный переход, получим
Г . Т )
£[«о(р)1^ехр(
i о J
f i г 1
F(X)coexp< —--f [y(/)-.s(l, X)]2M (6.1.18)
Таким образом, при непрерывной обработке формулы (6)
и (9) примут следующий вид:
PpS(X) = ^pr(X)£(X),
pps(Xi, ..., Xm) = %r(X15 ..., X„,)F(X1, ..., Xm), (6.1.19)
где
F(X15 ..., Xm)=exp!--UX15 ..., Xm)]2^l. (6.1.20)
I "° о )
305
Укажем, что кроме приведенного простейшего примера (прием
полезного сигнала на фоне аддитивного БГШ) функционалы
плотности вероятности и правдоподобия можно получить и в дру-
гих, более общих случаях (например, при приеме полезного
сигнала на фоне аддитивной гауссовской или марковской помехи,
которую в принципе можно сформировать из БГШ). В частности,
если в (1) вместо по(0 помехой является гауссовский марковский
процесс £(/) с экспоненциальной корреляционной функцией 7?г(т) =
= (У0/4а)ехр( — ос | т |), описываемый линейным стохастическим
дифференциальным уравнением
С + «С = М?)’ ^ = d^dt, (6.1.21)
го функционал плотности вероятности имеет вид
[«VW + C(/)]4 <6 L22»
I q j
где Лс = (Ур/4а); С,0 = ЦО); £r = U^)- «Вероятность реализации»
процесса С0 зависит от «энергии реализации процесса и его
производной» за время наблюдения, а также от значений,
которые имеет реализация на концах интервала наблюдения.
6.2. ОЦЕНКИ ПЛОТНОСТИ И ФУНКЦИИ
РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ
Пусть требуется получить оценку неизвестной п. в. р(х) или
функции распределения Г(х) сл. в. Е, по ее измеренным значениям
ч” = {чь ^2, £nj- При этом следует различать параметрическое
и непараметрическое оценивание. Если известен вид функциональ-
ной зависимости п. в. (функции распределения) от конечного
числа определяющих ее параметров, но неизвестны значения
этих параметров, то задача оценки п. в. по существу сводится
к оценке параметров. Такое оценивание п. в. (функции рас-
пределения) называется параметрическим.
К настоящему времени хорошо разработаны методы оценки
параметров. Поэтому задачу оценки п. в. часто стремятся свести
к параметрической. При этом применяются разные приемы.
Например, при не очень сильных ограничения'- п. в. непрерывной сл. в.
можно представить в виде усеченной суммы по заданной системе
функций фт(.х) с некоторыми постоянными коэффициентами сЛ1:
£ стфт(х)-
tn - О
Часто в качестве функций ф,и(х) берут систему ортогональных
полиномов (в частности, полиномов Эрмита). При этом задача
оценки п. в. р(х) сводится к параметрической задаче — оценки
по экспериментальным данным неизвестных коэффициентов ст.
306
Укажем кратко стандартную методику непараметрического
оценивания п. в. (функции распределения) по гистограмме. Ра-
зобьем область возможных значений сл. в. на г интервалов (в
случае векторной величины -прямоугольников) Длд, ..., Дхг.
Пусть пи ..., пг— случайные числа попаданий величины в ин-
тервалы Дхь ..., Лхг при и измерениях (/?i+ +«, = «). Тогда
частоты попадания в эти интервалы будут v; — п^п, i=\,r.
Практически рекомендуется интервалы Дх; выбирать так, чтобы
в каждом из них было не менее 10 точек. Вероятности попадания
в эти интервалы определяются формулой
Pi= j p(x)tZx, z=l, г.
Axf
Если принять частоты v, за оценки вероятностей pt, то значения
относительной плотности экспериментальных точек р- = у;/Дх;
в соответствующих интервалах Дх; будут оценками величин
Если р(х) непрерывна в каждом интервале Дх;, то эти величины
представляют собой значения р(х) в некоторых средних точках
соответствующих интервалов.
Подсчитанные значения р- можно представить графически
в виде ступенчатой кривой (называемой гистограммой): по оси
абсцисс откладывают интервалы Дх, и на каждом из них как
на основании строится прямоугольник высотой р-.
Во многих случаях возникает необходимость аппроксимации
экспериментально полученной гистограммы подходящим анали-
тическим выражением, представляющим собой некоторую те-
оретическую п. в. Эта операция называется выравниванием ста-
тистических данных. Имеется много способов и приемов та-
кого выравнивания. Укажем один из них, который будет
использован в дальнейшем. Будем для истинной п. в. р(х)
отыскивать аппроксимирующую п. в. среди некоторого выбран-
ного параметрического класса р0(х; X), где х имеет ту же
область возможных значений и Х = (Х.1, ..., !,„}—неизвестные
значения параметров. В качестве меры близости плотностей
вероятностей р(х) и р$(х, X) примем минимум меры Кульбака,
т. е. критерий, обеспечивающий минимум потери информации
за счет аппроксимации. Согласно этому критерию параметры
к в аппроксимирующей п. в. подбираются такими, чтобы ми-
нимизировать интеграл
J(k)= — fp(x)ln[p0(x; X)/p(x)]tZx, (6.2.1)
т. е. из условия
X = max-1 {£р(х)1пр0(х; Х)<7х}. (6.2.2)
307
Нетрудно убедиться, что применительно к нормальной ап-
проксимирующей п.в. р0(л'; Хь Х2)=^(х; m, Z>) м. о. т и дис-
персия D определяются выражениями
т= [xp(x)dx, D=$(x — m)2p(x)dx. (6.2.3)
В качестве этих параметров можно использовать их оценки [1,5]
^=1 X D‘ = -L V (6.2.4)
п .. _ , п— 1 .~ '
Традиционный метод оценки функции распределения вероят-
ности F(x) сводится к подсчету числа к наблюденных значений,
которые по величине меньше х. В качестве оценки F(x) в точке
принимают значение F*(x) = k/n. Основной недостаток такого
метода оценки состоит в том, что не учитываются предваритель-
ные (априорные) сведения о характере случайной величины
которыми обычно располагает наблюдатель до проведения из-
мерений, и он не позволяет заранее определить требуемый объем
выборки п для получения 77(х) с заданной дисперсией ошибки.
Эти недостатки устраняются при байесовском подходе к решению
задачи '
6.3. МЕТОДЫ ОЦЕНИВАНИЯ ПАРАМЕТРОВ
Неизвестные параметры X полезного сигнала s(t, X) в (6.1.1)
по своему характеру могут быть разными: постоянными или
случайными величинами, а также сл. пр. Различие между ними
состоит в том, что постоянные параметры сохраняют свое
значение в разных опытах (измерениях); сл. в. сохраняют свое
значение в данном наблюдении и могут принимать разные
значения в разных наблюдениях; сл. пр. изменяются во времени
при конкретном наблюдении. Поскольку значение постоянного
параметра заранее неизвестно, то его можно трактовать как
частный случай параметра в виде сл. в.
Рассмотрим пока методы оценки параметров X, представля-
ющих сл.в. Пусть в наблюдение (6.1.1) входит сигнал л-(х X),
зависящий от одного случайного параметра.
Получить оценку по существу означает организовать такую
функцию результатов наблюдения у(Е,о), значение которой можно
было бы принять за оптимальную оценку Х = у(£ф) истинного
значения параметра X. Отдельный результат наблюдения Со есть
временные отсчеты в v +1 точках конкретной реализации случай-
ного наблюдения £,(/), Ze[O, Т]. Разные наблюдения как
и функция от пих у(^о), будут представлять собой сл. в. Поэтому
1 Тихонов В. И., Федоров А. И. О байесовской оценке функции распределения
вероятностей//Изв. вузов СССР. Радиофизика.— 1985.— Т. 28, № 2.— С. 249—251.
308
нельзя найти оценку, которая принимала бы значения, близкие
к X, для всех возможных наблюдений. Следует ограничиться
такой процедурой оценивания, которая дает хорошие результаты
«в среднем» при многократном ее повторении. В зависимости
от критерия оптимальности оценки и других факторов возможны
разные подходы к формированию функции у(£,о)-
Байесовская методология. При байесовском подходе критерий
оптимальности связывают с так называемой функцией потерь
(стоимости') с (А., у(^о)), характеризующей потери из-за отклоне-
ния оценки от истинного значения параметра X. Вид ее выбирают
на основании практических соображений и простоты решения
задачи; выбор не является особенно ограничительным.
Поскольку конкретное значение с(Х, у(^о)) зависит от резуль-
татов наблюдения и оказывается случайным, то качество измери-
теля характеризуют некоторыми средними значениями. В резуль-
тате осреднения с(Х, у) с функцией правдоподобия р(^о|Х)
получаем так называемый условный риск
г(М = ( с(К Y(^o))p(^ol^Hvo- (6.3.1)
(Ш
Здесь интеграл является (v + 1)-кратным.
Естественно, что более предпочтительными являются алгорит-
мы у(Е,о^ приводящие к меньшим значениям у). Если
некоторый алгоритм у(£о) минимизирует условный риск при
всех значениях X, то такое решение оптимально. Однако в общем
случае решение, минимизирующее условный риск, будет различ-
ным при разных X. Тогда выбор оптимального решения произ-
водится на основании байесовского подхода — минимизации сре-
днего риска (условного риска, осредненного с априорной п. в.
параметра)
Л(у)= р(л, y]ppr(X'}d'k= f j у(.;Й))д(Х, (6.3.2)
(X) (X)(Е5)
С учетом равенства (6.1.5) это выражение можно записать иначе:
А(у)= (6.3.3)
ю
где
Я(у|еоЫФ>УИШоИ (6.3.4)
(X)
— апостериорное м. о. функции потерь, называемое апостериор-
ным риском. ~
Решение Х = у(£,о), минимизирующее средний риск (2), называ-
ется оптимальным байесовским решением относительно априорного
распределения рр!.(Х), а качество оптимальной оценки определяется
минимальным значением среднего (байесовского) риска.
Интеграл (3) минимизируется, если минимизировать подынте-
гральное выражение при каждом значении переменной инте-
309
грирования 2,'q. Это можно сделать, так как оценка Х = у(Д)
определяется для каждого наблюдения c,q. Таким образом, оценка
X должна минимизировать 7?(у| ^о)^(Ц)- Поскольку д^(Д)>0,
то этот сомножитель можно опустить. В результате получаем,
что минимум среднего риска 1?(у) достигается при том же
значении у, что и минимум апостериорного риска (4):
(с(Х, Х)р(Х| Д)<7Х = ппп. (6.3.5)
Это утверждение справедливо и для дискретного параметра
X. При этом интеграл в (5) заменяется суммой, а апостериорная
п. в. р(Х|£,о) — вероятностями />(Х = Х,-|Д), /=l,y. Задача (5) часто
разрешима аналитически.
Итак, байесовские правила оценки можно находить, оперируя
апостериорным риском, который определяется выбранной функ-
цией потерь и апостериорным распределением параметра.
Для отыскания байесовской оценки нужно задать функцию
потерь. Во многих практических случаях можно полагать, что
потери зависят только от ошибки оценки
Э. = еДо) = £-?ч г(Х, Х) = с(ех). (6.3.6)
Три типичные функции потерь (квадратичная, простая и модуль-
ная) имеют соответственно вид
с(ех) = еА2, с(еА)=1-6(еА), с(еа) = |еД. (6.3.7)
Подставив эти выражения в (5) и найдя минимум апостери-
орного риска, придем к следующим результатам. Байесовская
оценка при квадратичной функции потерь является оптимальной
по критерию минимума среднего квадра та ошибки и представляет
собой м. о. апостериорной п. в.
XKB = fX^(X|U)rfX. . (6.3.8)
к
При этом минимальное значение апостериорного риска (4) есть
просто апостериорная дисперсия
Я(ХКВ|^) = ^ = ПХ-£кв)Д(ШУо)<П. (6.3.9)
(1)
Байесовская оценка при простой функции потерь является
оптимальной по критерию максимума апостериорной п. в., г. е.
совпадает с положением абсолютного максимума апостериорной п. в.
Если абсолютный максимум достигается внутри допустимой области
изменения параметра к и апостериорная п. в. р (к 12,о) дифференцируе-
ма по X, то оценку можно находить из решения уравнения
др (X | ^о)/й X | = 0. Поскольку логарифм есть монотонно возраста-
ющая функция аргумента, то обычно удобнее решать уравнение
а1пд(Х|^0)/ах|А=£=о. (6.3.Ю)
310
Формула (6.1.6) позволяет разделить в этом уравнении роли
наблюдения и априорных сведений:
Э1пр(^|Ь) с>1пр„г(Х) ={) (6.3.11)
ЭХ ЭХ
Во многих случаях (в частности, при широком равномерном
априорном распределении параметра) выполняется приближенное
равенство 31п/?рг(Х)/йХхеО и оценка по максимуму апостериорной
п. в. совпадает с небайесовской оценкой по максимуму функции
правдоподобия:
|^=о. (6.3.12)
Оценки постоянных параметров методом максимально» о
правдоподобия обладают хорошими свойствами — они асим-
птотически (при v-+oo) состоятельны, эффективны и нормально
распределены [5]. Поэтому этот метод нашел широкое пра-
ктическое применение.
Байесовская оценка по модулю ошибки есть медиана апостери-
орной п.в. Подставив с(ех) = |X.—X| в (5), имеем
00 сс X
j | Х-Х|р(Х|^0)^ = J f
— ос £ — да
Приравняв производную по X нулю, получаем уравнение для
оценки
оо X
^(Х|^И= (б.злз)
i
представляющее собой математическое определение медианы
апостериорного распределения.
При рассмотрении практических задач наиболее часто ис-
пользуются оценки по минимуму среднего квадрата ошибок
и по максимуму апостериорной и. в. или максимуму функции
правдоподобия. Хотя перечисленные оценки в общем случае
различны, однако в асимптотике (при очень большом объеме
выборки v-»oo или большом времени наблюдения /~>оо) апри-
орные сведения утрачивают свою роль, и поэтому байесовские
оценки и оценки максимального правдоподобия асимптотически
эквивалентны. При этом функцию правдоподобия часто можно
аппроксимировать нормальной п. в.
Р I IX)ехр Я (X - Х)2^ 1П/7(^1X)
I Z 0 Л
где £ = y(S,o) — оценка максимума правдоподобия.
Поясним это на примере. Пусть элементы выборки ^о = {^о,
..., £,„} независимы. Тогда
311
ln/?(^|X) = % 1па(^1 Ч
i = 0
Разлагая эту функцию в ряд ~ Тейлора в окрестности точки
максимального правдоподобия X, имеем
1пр(Ц IX) = In(£,о IX)Е ЙI £)(Ь-Ч +
н4Ё ^ln*iS№“T+--
о _ q о л
Следовательно,
7<о I Ш IX) = ехр {- (1 /2)Л 2(v)(X- X)2} х
х exp{-(l/6)^3(v)(X-X)3}...,
где коэффициенты
A(v) = - z 1па(^- IЧ A(v) = - Д ДтlnPi^i I £)
асимптотически линейно растут с увеличением V.
Первый множитель ехр [ —Л2(у) (X —Х)2/2] в правой части
имеет порядок единицы лишь в области, где
| X — Х|< А 2 12(v)~v^1/2. Нов этой области следующий член
разложения удовлетворяет неравенству
| T3(v)(X-X)3|<| Л3(у)Я £3/2|~v"J/2.
По тем же соображениям при больших v пренебрежимо малы
и более высокие члены разложения. Если отбросить их, то
придем к требуемому результату.
Если параметр X является дискретным и принимает значения
X], Х2, ..., Ху, то аналогом простой функции потерь будет ।
I*
(6.3.14) |
где 8ik — символ Кронекера. Байесовская оценка при такой
функции потерь является оптимальной оценкой по критерию
максимальной апостериорной вероятности. I
При оценке векторного параметра Х= [Х15 ..., Хт] аналогом В
квадратичной функции потерь (7) является квадратичная форма К
с(Х, Х)= f Д.Д.-Х,.)(^-Х,.) = (Х-Х)ТА(Х-Х), (6.3.15) I
где А — некоторая положительно определенная матрица с элемен- ®
тами Л,у, выполняющими роль весовых коэффициентов. г
Минимизация апостериорного риска I
1 при Х = Х;,
О при Х^Х(,
312
R(l|^)= £ (6.3.16)
i,J=l (X)
путем решения системы уравнений
5R(Z|^)M = 0, i=\7m, (6.3.17)
приводит к системе
т ___
= (6-3.18)
J=1 w
или в векторной форме
Af (X-Х)д(Х | ^vo)tZX = 0. (6.3.19)
(У
Решением этих уравнений является вектор
1= | ^)<7Х = ХКВ (6.3.20)
(X)
с компонентами
X;=JXfjp(X|^H = ^KB. (6.3.21)
(У
Таким образом, при квадратичной функции потерь байесовская
оценка векторного параметра независимо от вида матрицы
А сводится, как и при оценке скалярного параметра, к нахож-
дению м. о. апостериорного распределения /?(Х|£,о).
Заметим, что хотя выбор вида функции потерь влияет на
характер оценки, однако во многих задачах это влияние оказыва-
ется не очень существенным. В практических ситуациях пред-
ставляют интерес характеристики «прилично» функционирующих
измерительных систем, что обычно имеет место при больших
или умеренных отношениях сигнал-шум, а в этих условиях
апостериорные п. в. часто оказываются нормальными или близ-
кими к ним. Для нормальной апостериорной п. в. оценки по
всем трем функциям потерь (7) совпадают.
Итак, при применении байесовского подхода к решению
практически интересных задач оценки непрерывных и дискретных
случайных параметров задание априорного распределения пара-
метров и выбор функции потерь не являются чрезмерно жесткими.
Оптимальные измерительные системы, получаемые для разумных
априорных распределений и функций потерь при больших от-
ношениях сигнал-шум, будут функционировать «хорошо» и при-
мерно одинаково.
До сих пор речь шла о случайных параметрах в виде сл. в.
Общая методика применения байесовского подхода к рекуррент-
ной процедуре оценивания сл. пр. изложена в § 7.2.
Минимаксный метод. В некоторых случаях по каким-либо
причинам могут возникнуть затруднения в задании априорного
313
распределения параметра. Если оно неизвестно, то байесовский
метод в том виде, как он изложен выше, использовать нельзя,
и следует применять небайесовские методы выбора наиболее
предпочтительного решения, не предполагающие знания апри-
орного распределения. Кроме упомянутого выше метода мак-
симального правдоподобия (12) к таким методам относится
минимаксный, при котором минимизируют условный риск для
самого неблагоприятного случая, а именно находят минимаксное
решение у,„ из условия
min max г (X, y) = maxr(X, ym). (6.3.22)
у Л. К
Величина maxr(X, ym) называется минимаксным риском.
х
Минимаксный критерий дает оптимальное решение лишь для
наихудшей (относительно X) ситуации. Этот критерий в приклад-
ных исследованиях используют реже, чем байесовский (5), еще
и потому, что отыскание минимаксного решения сопряжено
с большими трудностями. Несколько облегчает положение резуль-
тат Вальда, устанавливающий соответствие между минимаксными
и байесовскими решениями. Оказывается, что минимаксное реше-
ние у„, при некоторых слабых ограничениях является байесовским
относительно наименее благоприятного априорного распределения
ррг(Х), максимизирующего байесовский риск. При этом минимакс-
ный риск равняется байесовскому риску для ррг(Х), а функция
риска г(Х, уш) минимаксного решения ут не зависит от значений
параметра X. Отсюда, в частности, следует, что если байесовский
риск для некоторого априорного распределения ррг(Х) оказывается
не зависящим от X, то это распределение наименее благоприятно,
а байесовское решение у,и— минимаксное. Этот факт помогает
при отыскании наименее благоприятного априорного распределе-
ния (часто оно оказывается равномерным) и минимаксных
решений.
Минимаксный критерий часто используется в робастных
(устойчивых) методах оценивания, которые малочувствительны
к отклонениям априорных данных и другим возможным от-
клонениям от принятой исходной модели (см. § 13.3).
Метод моментов. Иногда для оценки неизвестных неслучайных
параметров заданного распределения /?(£,; Х1; ..., Хи) применяют
небайесовский метод, известный как метод моментов. Допустим,
что по результатам наблюдения тем или иным способом
найдены оценки т моментов Xm) распределения />(£,;
Хп ..., Хш). Обычно находят первые т моментов (r = l,m). Тогда
неизвестные параметры Х15 ..., Х„, определяют из т алгебраических
уравнений, получаемых приравниванием статистических оценок
моментов теоретическим значениям соответствующих моментов:
mr(X1,...,X,n) = f^p^; X1,...,Xm)£Z^, r = TJn. (6.3.23)
314
Об интервальном оценивании. До сих пор говорилось о получе-
нии оценки параметра X в виде единственного числового значения
Xv = y(S,o), принимаемого за приближенное значение параметра.
Такие оценки называются точечными. Поскольку при каждом
конкретном испытании значение оценки будет отличаться от
значения параметра, то более полный и надежный (но вместе
с тем и более сложный) способ оценивания постоянного параметра
заключается в определении интервала (а не единственного
точечного значения), в котором с заданной степенью достовер-
ности будет заключено значение оцениваемого параметра. В этом
случае говорят об интервальном или доверительном оценивании.
При интервальном оценивании ищут две такие статистики:
X'= /'(£, о) и А" = у"(£,о), Х'<Х", внутри которых заключено истинное
значение параметра к с заданной вероятностью а:
Р{К<Х<Х"} = а. (6.3.24)
Интервал (X', X") называется а-доверительным интервалом для Х,
число а — доверительной вероятностью или доверительным уров-
нем, V и X"— нижней и верхней доверительными границами
соответственно.
Доверительная вероятность а назначается заранее, до наблюде-
ния (например, а = 0,9; 0,95; 0,99 и т. д.). При заданном а длина
доверительного интервала характеризует точность локализации
значения параметра и ее всегда желательно иметь наименьшей.
Если этот интервал можно построить, то он обеспечит при
заданном а наиболее точную локализацию параметра.
Задача определения доверительного интервала может быть
решена /только в том случае, если удается найти распределение
оценки Xv = y(£,o). В этом состоит основная трудность. В настоящее
время эти вопросы достаточно хорошо разработаны для нор-
мально распределенных наблюдаемых величин.
6.4. ГРАНИЦА РАО—КРАМЕРА
Пусть по результатам наблюдения £,о оценивается параметр
X, представляющий собой сл. в. Докажем, что средний квадрат
ошибки любой оценки Х(Е,о) удовлетворяет неравенству Рао —
Крамера
м{[х(^)-х]2}^(м{[г1пр(х, ^oj/ax]2})-1 =
= -(м{а21п^(х, ^j/ax2})"1, (6.4.1)
где д(Х, £q) — совместная п. в. параметра и наблюдения и м. о.
берется по X и 5,q. При этом предполагаются выполняющимися
следующие условия:
1) 5/7(X, 2,о)/аХ и <32/>(Х, 5,р)/аХ2 абсолютно интегрируемы по
И
315
2) lim 3(X)ppr(X) = 0, где 3(X)—условное м. о. ошибки при
заданном X
5(Х)= JjX(^) - М/’ (ColM^o- (6-4.2)
Для доказательства неравенства (1), определяющего нижнюю
границу среднего квадрата ошибки оценки, умножим обе части
(2) на др,.(Х), а затем продифференцируем по X:
— ос; — оо
Теперь проинтегрируем по X:
/УХ)З(Х) |' =-1+ f f [X(^)-X]^-^X</Vo.
(/ Л,
— оо — оо — со
Согласно допущению 2) левая часть равна нулю, и поэтому
f J [x(u)-x]^-“hxf/i- = 1.
Это равенство с учетом очевидного соотношения
MX Со)„ , Т1пДХ, <;J)
-—р(х, — <6-4-3)
можно записать иначе:
f j {[X(^o)-X]v7(x,
— 00 — со L J
На основании неравенства Шварца — Буняковского можем на-
писать
f f [X(U)-X]2p(X, ^0)dkd^0 J J
x p(X, ^o)tZXfi?C,o^ b
\oinp(X, 4o)T
ax
(6.4.4)
причем знак равенства имеет место тогда и только тогда, когда
51пр(ХДо)/5Х = /с [Х(^о)~ X], X=const, (6.4.5)
при всех 5,о и X.
Два члена левой части (4) суть м. о., фигурирующие в (1).
Таким образом
м{[ад-х]2Ым
(6.4.6)
или, что эквивалентно,
316
м{[м^о)—м2} м{э21п/хУ°'~}~ м|Агх^1)
(6.4.7)
Действительно, дифференцируя по X равенство
оо
Пр(х, ^0)dkd^Q=\,
— оо
имеем
Вновь
d~^^dXdVQ= jfP(x, ^0)^^Ux<z^=o.
v Л о Л
— оо
дифференцируя по X и применяя (3), получаем
~ainP(%, г^р2
ах
д(Х, ^X^=-ffa2|nffi' °)р(^ ^dkd^
О гь
или
М
ainp(x, £б)12] м|а21пр(хДо)
ах J j I эх2
= _ м) а21пРдх)р(^|Х)
I ах2
что и доказывает (7).
Любая оценка X, для которой в (1) имеет место знак
равенства, т. е. для которой средний квадрат ошибки достигает
нижнюю границу, называется эффективной оценкой. Для эффек-
тивной оценки должно выполняться условие (5), дифференцирова-
ние которого по X дает эквивалентное условие
<321пд(Х, £,о)/ЭХ2= — к.
Подставив сюда р(к, ^о)=Р(^о)р(^1^,о), получаем
д 21пд(х|^)/а х2= - к.
Дважды интегрируя, приходим к нормальной апостериорной
п. в.
р (Х| £, о) = ехр( — к X2 + X + с2). (6.4.8)
Следовательно, чтобы существовала эффективная оценка, апо-
стериорная п. в. параметра должна быть нормальной.
Неравенство Рао—Крамера обобщается на случай совместной
оценки нескольких параметров Х = {Х1; ..., Хт]. Теперь ошибки
оценок разных параметров будут взаимно коррелированы и их
совокупность описывается корреляционной матрицей ошибок
оценок Re, составленной из элементов
7?У = М{(Х1 —Х;)(Х7 —XJ}, (6.4.9)
Диагональные элементы матрицы представляют среднеквадрати-
ческие ошибки, а недиагональные — взаимные корреляции ошибок.
Введем так называемую информационную матрицу Фишера
J с элементами
317
J 56) (_
° (. М,- dXj j
=(6.4.10)
( dXpTkj j ( dX.dXj j v 7
Здесь первое слагаемое учитывает информацию, получаемую из
результатов наблюдения, а второе — априорную информацию.
Неравенство Рао — Крамера для нижней границы корреляци-
онной матрицы ошибок оценок имеет вид
R^J1, (6.4.11)
где J-1—матрица, обратная информационной матрице Фишера.
Диагональные элементы в матрице, обратной информационной,
суть нижние границы соответствующих средних квадратов
ошибок.
Можно показать, что если J-1=RE, то все оценки являются
эффективными. Необходимое и достаточное условие справед-
ливости этого утверждения заключается в том, что апостериорное
распределение должно быть нормальным для всех £о.
Возвратимся к широко используемому методу максимального
правдоподобия (6.3.12). Для него применимо неравенство (11),
только последнее слагаемое в правой части (10) будет равно
нулю (априорная п. в. постоянна). Применительно к оценке двух
параметров Xj и к2, предполагая оценки совместно эффективными,
из (11) с учетом (9) и (10) получаем
D -J12= ______1
‘ и|’мКМадГ-'-Ь’
^6* j •
(6,4Л2)
Л/ 2 }
^i2=^21=A2ur1=r12(D1z>2)1/2.
Здесь и D2—дисперсии ошибок эффективных оценок парамет-
ров Xj и Л2; r12 = 2(Л1Лг) ”1/2 — нормированная взаимная
корреляция ошибок; |J| = (J11J22 — Jf2)— определитель матрицы J.
Из сравнения первых двух формул (12) с (1) следует, что
первый сомножитель в правой части (12) совпадает с дисперсией
ошибки эффективной оценки одного параметра. Поскольку
0^Г12^1, то ясно, что наличие конечной корреляции между
ошибками оценок всегда приводит к увеличению дисперсий
ошибок совместных оценок (по сравнению с дисперсией ошибки
эффективной оценки одного параметра). Дисперсии ошибок
в обоих случаях будут совпадать лишь для некоррелированных
318
оценок (г12 = 0). Следует иметь в виду, что если параметры
априорно независимы, то это совсем не означает, что ошибки
их апостериорных оценок будут некоррелированными.
6.5. КРИТЕРИИ РАЗЛИЧЕНИЯ ГИПОТЕЗ
Рассмотрим вначале наиболее простую задачу различения
двух гипотез. Допустим, что каждый конкретный результат
наблюдения Е,о может быть порожден одной из двух возможных
несовместимых гипотез (причин), которые обозначим Но и Н\.
По результату конкретного наблюдения £о требуется принять
оптимальное решение, какой из гипотез обусловлен получен-
ный результат. Такое оптимальное правило принятия решения
должно быть сформулировано до наблюдения; после получения
результата наблюдения должно быть вынесено решение. Очевид-
но, что для обоснования такого правила нужно располагать
некоторыми сведениями как о гипотезах, так и о их связи
с наблюдениями
Обратимся к упрощенной вероятностной модели радиотех-
нической системы (рис. 6.1). Помимо источника сообщений (фор-
мально обозначенных через Но и ЯД она включает некоторый
механизм вероятностного перехода (канал связи и другие элемен-
ты), который преобразует известные сообщения (гипотезы) Но
и /Д в точки £,о пространства наблюдений Г (область возможных
значений случайных величин £,£). Допустим, что известны функции
правдоподобия гипотез p(£,ol^o) и Z’(£,ol^i)- Относительно ап-
риорных сведений о гипотезах Но и Нг возможны два случая:
1) известны априорные вероятности гипотез ррг(Н^ и
Ppr^H^^l—p (Но) и 2) обоснованные сведения о них отсутству-
ют. В обоих случаях задача заключается в установлении наилуч-
шего правила принятия решения о выборе между гипотезами Но
и Н1. По существу задача сводится к оптимальному разбиению
области Г на две непересекающиеся подобласти Го и Гг Если
результат наблюдения оказался в Го, то принимается гипотеза
Но, а если в Tj — то гипотеза Нг. При рассмотрении двух
гипотез обычно одну из них выделяют, и проверка производится
с точки зрения этой гипотезы. Если выделена гипотеза Но, то
Го называется областью принятия гипотезы, a Гх— областью
отклонения гипотезы или критической областью.
Рис. 6.1. Вероятностная модель при различении двух гипотез
319
В двух альтернативной ситуации принятие решений всегда
сопровождается ошибками двух родов: ошибка первого рода
а- гипотеза Яо отвергается тогда, когда в действительности
она верна; ошибка второго рода 0—-отвергается гипотеза Н,,
в то время как она верна. Ошибку первого рода а называют
уровнем значимости критерия, а вероятность I- - р принять
гипотезу Нх, когда она является верной,— мощностью критерия.
Применяя правило определения вероятности попадания случайной
величины S,o в заданную область, можем написать
a=f /<vol#0Mvo, Р= f /<о I H^d^. (6.5.1)
Безусловные вероятности °рл и др ошибок первого и второго
рода выражаются через а, (> и априорные вероятности рр..(Н0)
и
Ра =РРг (7/о)«=PPI- (но) J Р (£о I Но} d^v0,
ri (6.5.2)
р₽=ррг(Я1)Р=ррг(Я1) f p^Hjd^Q.
го
Поэтому полная (суммарная) вероятность ошибки равна
Ре=Ра+Рр=РРг(Н0) f P^,vo\fIo)d^0+ppr(Hl) f p(^0\H1)d^v0.
Г, rn
1 0 (6.5.3)
Основываясь на введенных условных вероятностях а и р,
можно ввести несколько определений оптимальности решения.
Характер оптимальности в значительной мере зависит от двух
факторов: 1) одинаковы или различны по значимости ошибки
первого и второго рода, 2) известны или нет априорные
вероятности ррг(Я0) и рр,.(Нг). Приведем здесь три оптимальных
правила решения, которые наиболее часто применяются в ра-
диотехнических приложениях.
Критерий Байеса. Идеальный наблюдатель. В правилах реше-
ния, основанных на критерии Байеса, исходят из того, что
оптимальное правило должно минимизировать стоимость (ущерб)
от принятия неправильных решений. При этом считаются задан-
ными априорные вероятности каждой из гипотез ррг(Н0) и ppr[Ht),
а также количественные характеристики стоимости, т. е. функции
стоимости с,;, /, ./=0, 1 (первая цифра подстрочного индекса
означает выбранную гипотезу, а вторая — гипотезу, которая
является правильной).
Как и при оценке параметров, в качестве критерия оптималь-
ности принимается минимум среднего риска
R = c00 ррг (Н0)р(Н01 Но) + сjо ррг (Но)р (Н11 Яо) +
+ СцРр,- (HY)p (Ht | Ях) + с01 РРг (Н^р (Но | Н\). (6.5.4)
320
При указанном разбиении области наблюдений на две подобласти
средний риск можно выразить через функции правдоподобия
гипотез р (S,o I
R = cwPpr (Но) f рI Яо) d%> + cloPpr (Ho) f p I H0)d^0 +
ro ri
+ СцШ) $ p^Hjd^ + w^Hj f p^Hjd^. (6.5.5)
Г1 ro
Из условия нормировки п.в. имеем
f рI Ht)dt^p| Я;)d'^- f рI Я;)d^0 =
r ro
= 1- f P(^\H^0.
ro
Поэтому
R = Cioppr (Ho) + ct 1Ppr (Hj) + f [(c01 - ct i)ppr (Hjp I -
ro
'-(clo-c00)ppr(H0)p^v0\H0)']d^0. (6.5.6)
Обычно стоимости полагают неотрицательными, причем сто-
имости ошибочных решений больше стоимостей правильных
решений:
Cio>coo=^0, cOj>c11^0. (6.5.7)
Первые два слагаемых в правой части (6) есть постоянные
неотрицательные величины, не зависящие от результатов наблюде-
ний. При условии (7) каждый подынтегральный член также
неотрицателен. Поэтому минимальное значение среднего риска
7? (минимум интеграла) будет достигнуто в том случае, когда
подынтегральное выражение отрицательно, т. е. когда в подо-
бласть Го включены все точки пространства наблюдений, для
которых
(<?oi — Cj i)ppr (Hj^p^o I Н1)<(с10 — с00)ррг (770)p (S,o I Ho).
Точки, для которых выполняется обратное неравенство, нужно
отнести к области Гг
Такое заключение следует из очевидного факта: для любой
области Г'оеГо при Дх)^0 всегда выполняется неравенство
J f(x)dx^ J f(x)dx.
г' г
о о
Поэтому интеграл в (6) достигает минимума тогда и только
тогда, когда в область интегрирования включены все точки
11—2247
321
пространства наблюдения, для которых подынтегральная функция
отрицательна.
Таким образом, приходим к следующему байесовскому пра-
вилу принятия решений:
J/SV\ I, _(сю~соо)/)р>'(ДГо) (в 5
1^о> р(ЩН0)<'
п0
Отношение функций правдоподобия в левой части называют
отношением правдоподобия Z (Е,о)- Поскольку оно представляет
собой отношение двух функций случайных величин, то и само
является случайной величиной. Величина h в правой части (8)
является порогом решения.
Так как обе части неравенства (8) есть положительные
величины и натуральный логарифм есть монотонная функция
аргумента, то вместо (8) часто используется эквивалентное
неравенство
1п/(^Д11пй. (6.5.9)
н0
Если ввести апостериорные вероятности гипотез
pps(Н^=р| ^о) = const/?,».(Н,)рI Н^, (6.5.10)
то критерий (8) можно записать иначе:
р' = С10Тс.00. (6.5.11)
р(Яо|^о) М#о) Л0'to.-cu
Итак, из критерия Байеса следует, что необходимо сравнивать
с порогом апостериорные вероятности гипотез или, что то же
самое, отношение правдоподобия.
Из (8) и (9) видно, что вся процедура обработки наблюдения
сводится к вычислению отношения правдоподобия /(£,о); оно
является достаточной статистикой для данной задачи. Априорные
вероятности и стоимости не оказывают влияния на отношение
правдоподобия; от них зависит только значение порога h. Эта
инвариантность процедуры обработки результатов наблюдения
имеет большое практическое значение. Весьма часто априорные
вероятности и стоимости являются просто квалифицированными
предположениями на основании предыдущего опыта. Правило
(8) дает алгоритм обработки, не зависящий от априорных
вероятностей и стоимостей. При этом h можно рассматривать
как переменный порог, учитывающий изменения в наших оценках
априорных вероятностей и стоимостей.
Наиболее часто критерий Байеса используется с простой
функцией стоимостей (6.3.14): c0i = c10=l, cOo = Cii=0- При таких
стоимостях значимость ошибок первого и второго рода принима-
322
ется одинаковой. В данном случае оптимальные решающие
правила (9) и (11) принимают соответственно вид
ln/(^)?‘ln[ppr(//0)/ppr(^)], (6.5.12)
Но
р(Я^>(Я0|^0)<‘1. (6.5.13)
н0
При этом минимальное значение среднего риска (5) равно
R=Ppr(H0) f p^Hjd^+p^Hj J /<0|/Л)d^0. (6.5.14)
Г! r0
Оно совпадает с вероятностью полной ошибки (3). Следовательно,
при простой функции стоимостей критерий Байеса минимизирует
вероятность полной ошибки (максимизирует полную вероятность
правильного решения). Руководствуясь правилами (12) или (13),
наблюдатель, обрабатывающий длинную последовательность по-
вторных наблюдений, может быть уверен в том, что вред,
причиняемый неверными заключениями, окажется минимальным.
Правила решения (12) и (13) в литературе называют по-
разному: идеальный наблюдатель, идеальное решение или наблюда-
тель Котельникова—Зигерта.
В том случае, когда обе гипотезы априорно равновероятны
(ррг(Яо)=ррг(Я1) = 0,5), что часто справедливо для цифровых
систем связи, выражение (3) для вероятности полной ошибки
(минимального среднего риска) принимает вид
Pe = |[f P^\H0)d^+ f
Г1 Го
(6.5.15)
Критерий Байеса применим для различения не только двух, но
и т гипотез, для которых известны априорные вероятности ррг[Н{),
i=0, т — 1. Обозначим подобласть пространства наблюдений Г,
в которой принимается решение о верности гипотезы Ht, через Г,
(рис. 6.2). Выражение для среднего риска теперь примет вид
(6.5.16)
т- 1 т -1
Л= х X
-=о j=o r
Рис. 6.2. Вероятностная модель при
различении т гипотез
323
Оптимальность критерия Байеса состоит в минимизации
среднего риска, что достигается определением подобластей Г;,
при которых средний риск имеет минимум. Для простой функции
строимостей (ciy=l, i=£j, ci; = 0, i, j=0, m—]) этот критерий
приводит к следующему правилу принятия решения: принимается
решение о верности той из гипотез Я,, для которой апостериорная
вероятность максимальна, т. е.
при всех jVz. (6.5.17)
Вычислить вероятность полной ошибки теперь гораздо сложнее,
чем для двух гипотез.
Рассмотрим случай двух сложных гипотез. Пусть функции
правдоподобия при каждой из двух возможных несовместимых
гипотез Яо и Нг зависят от других параметров, т. е. имеют
вид р(^о|Яо, ц) и p^0\Hl, X), где ц и X — неизвестные параметры
(в общем случае векторы, часть их компонент может совпадать),
причем цеГ сГ0, ХеГхсГ1, Г = Г0 + Г1—по-прежнему простран-
ство наблюдений Отметим, что пространства параметров
и гипотез должны быть согласованы. При байесовском подходе
считаются известными априорные вероятности гипотез ррг(Я0)
и ррг(Ях), параметры ц и X интерпретируются как случайные
величины с известными априорными п.в. р0(ц) и рх(Х). В том
частном случае, когда эти параметры заранее точно известны
и равны ц0 и Хо, плотности вероятности являются дельта-
функциями: р0(ц) = 5(ц —ц0), р1(Х) = 8(Х-Х0).
При наличии случайных параметров следует различать по
крайней мере два варианта задачи: 1) все параметры ц и X яв-
ляются сопровождающими (неинформативными) и задача заклю-
чается только в оптимальном различении гипотез, т. е. в проверке
сложной гипотезы против сложной альтернативы; 2) среди
параметров X и ц имеются представляющие (информативные)
и требуется совместно принимать решение о гипотезах Яо,
и оценивать представляющие параметры (совместное различение
и оценивание).
Первый вариант задачи сводится к ранее рассмотренной.
Располагая указанными функциями правдоподобия и априорными
п.в., по известным правилам находим функции правдоподобия
гипотез:
Я^1Яо) = f р(^о|Яо, ц)р0(ц)й?ц,
гн (6.5.18)
/<o|Hj) = fH^oltfvXWXHX.
G.
После вычисления этих п.в. приходим к задаче различения двух
простых гипотез, для которой оптимальный алгоритм основан
324
на сравнении с порогом апостериорных вероятностей (11)
или отношения правдоподобия (8), которое теперь можно
записать в виде
<о) = f р(&1 Я1? X)Pl f | Но, p)p0(p)dp. (6.5.19)
Е Ги
Такая методика исключения неинформативных параметров
справедлива при различении не только двух, но и большего
числа гипотез.
При решении второй задачи — различении и оценивании —
полагаем все параметры представляющими (информативными).
Если имеются сопровождающие компоненты, то их можно
исключить из апостериорной п.в. путем осреднения ее с априорной
п.в. этих компонент, как это делается, например, в (18). Для
краткости записей несколько изменим обозначения. Пусть требует-
ся различать т гипотез и оценивать случайные параметры
к; = {к1,-, к2..., kfci}eA;, сопровождающие каждую из гипотез Я;,
г = 0, т — 1, по наблюдению ^еТ. Размерность и физический смысл
отдельных компонент вектора kf при разных гипотезах может быть
различным. Отождествим совокупность рассматриваемых гипотез
Hi с дискретным параметром Э = {90, 9t, ..., где 9 прини-
мает значение 9,-, если имеет место гипотеза Пару значений 9;
и kf можно рассматривать как одно значение у; составного
векторного параметра у = {9, к}, одна из компонент которого
9 дискретна, а другая к непрерывна; компонента 9 принимает
значения из дискретного множества 0, а к при 9 = 9; — из
непрерывного множества Л;, z = 0, т— 1. При такой формулировке
задача сводится к оценке дискретно-непрерывного параметра у.
Для получения байесовской оценки должны быть известны
априорная п.в. оцениваемого параметра ррг{у) и условная п.в.
наблюдения р (£,'о I у) при фиксированном значении оцениваемого
параметра. Задавшись функцией стоимости с (у, у), можно записать
выражение для среднего риска. Из условия минимума среднего
риска находим оптимальную байесовскую оценку
у(^о) = inf 7?. (6.5.20)
г (ед
Для получения явных выражений байесовских совместных
алгоритмов можно использовать оценку по максимуму апостери-
орной вероятности
Ym(^o) = supp(yl^) (6.5.21)
Y
или по максимуму правдоподобия
у(^) = supply). (6.5.22)
Y
325
Разумеется, что алгоритмы различения — оценивания не сво-
дятся к простой комбинации тех алгоритмов, которые получаются
при раздельном рассмотрении задач различения гипотез и оценки
параметров; они оказываются более сложными. Более трудоемким
становится и вычисление вероятности полной ошибки.
Критерий Неймана — Пирсона. Во многих задачах (в частности,
радиолокационных) бывает затруднительно задать обоснованные
стоимости и априорные вероятности гипотез Но и Н}. В этом
случае невозможно воспользоваться критерием Байеса и не-
обходимо применять другие методы решения, базирующиеся
лишь на условных вероятностях р(£,о|Яо) и и соот-
ветственно на введенных ранее ошибках первого и второго
рода ос и р.
В теории обнаружения сигналов ошибку первого рода ос (усло-
вную вероятность выбрать гипотезу Н}, когда верна гипотеза
Hq) принято называть вероятностью ложной тревоги'.
рР = ъ=р(Н, | Ио)= f p^\H0)d& (6.5.23)
Вероятность правильного решения о гипотезе Н1 равна
Pd = 1 - ₽=Р (Я11 Hi) = J р I н.) d^0. (6.5.24)
Г!
Будем рассматривать только такие решения (такие разбиения
области Г на две части Го и ГД для которых при заданном
значении вероятности ложной тревоги рР=р0 вероятность пра-
вильного обнаружения pD максимальна,— критерий Неймана — Пи-
рсона. Решение этой задачи легко получить, используя метод
множителей Лагранжа. Найдем условный максимум функции
<1)=Рп-/оРг= f (6.5.25)
Г1 С
где /0 — множитель Лагранжа, определяемый условием pF=p0.
Чтобы максимизировать этот интеграл за счет выбора Г\,
нужно отнести к Гх все значения для которых подынтегральная
функция положительна. Значит должно приниматься решение
о выборе гипотезы ЯД^оеГД если р^01— lop(t,o I Яо)>0,
и решение о выборе гипотезы Но, если имеет место проти-
воположное неравенство. Правило решения принимает вид
»’'о- (6.5.26)
/’(sol "о/ тт
Согласно ранее введенной терминологии можно сказать, что
данный критерий обладает максимальной мощностью из всех
критериев с уровнем значимости, не превышающим р0.
Оптимальный обнаружитель Неймана — Пирсона (26) по на-
блюдению £,о должен формировать отношение правдоподобия
326
Z(^) и сравнивать его с порогом /0, что полностью совпадает
с алгоритмом (8). Отличие состоит лишь в значении порога /0.
Если обозначить п.в. случайной величины /(£,о) при Двух
гипотезах через р(/|Я0) и то
pF=P{l>l0\H0} = ]p(l\H0)dl,
i0 (6.5.27)
00
pD=P{l>l0\H1} = ^p(/\H1)dl.
(0
Из первого выражения при pF=p0 находим порог /0, а второе
выражение позволяет затем вычислить pD.
Очевидно, что оптимальная обработка (26) эквивалентна
Ф^Д^о), (6.5.28)
ff0
где (р(.х) - любая монотонная функция. В том случае, когда
отношение правдоподобия /(£,о) принадлежит к экспоненциаль-
ному семейству функций, в качестве фрс) целесообразно взять
натуральный логарифм. При этом устройство обнаружения упро-
щается.
Критерий Вальда. Последовательный наблюдатель. Приведен-
ные выше два правила решения были основаны на предположении,
что объем v +1 наблюдаемой выборки Со фиксирован. Однако
если стоимость или время, затрачиваемое на получение одного
измерения, значительны, то может оказаться выгодным оставить
вопрос о числе измерений открытым и считать число измерений
достаточным лишь тогда, когда наблюдатель убедится в правиль-
ности одной из гипотез. Соответствующая процедура, позволя-
ющая определить необходимое число наблюдений, была раз-
работана Вальдом и называется последовательным наблюдателем
или последовательным испытанием. Если раньше использовали
только две подобласти в пространстве наблюдения: область
принятия какой-либо из гипотез и область ее отрицания, то
при последовательном испытании вводится еще одна промежуточ-
ная подобласть, в которой окончательное решение не принима-
ется, так как проделанные испытания еще не могут в достаточной
степени оправдать принятие одной из гипотез и необходимо
производить дополнительные измерения.
При последовательном испытании принимается одно из трех
решений: 1) принять гипотезу Нр, 2) принять гипотезу Но или
3) произвести следующее измерение. Очевидно, что на любой
стадии испытания принимаемые решения будут зависеть от
результатов уже выполненных измерений.
Методика проведения последовательного испытания каче-
ственно состоит в следующем. На основании каких-либо
327
соображений выбираются приемлемые значения ошибок первого
и второго рода аир. По результатам первых v наблюдений
формируется отношение правдоподобия Z(£,о)- Полученное зна-
чение сравнивается с двумя порогами а а Ь. Если /(£,□)
то принимается гипотеза Нх и испытание прекращается.
При принимается решение в пользу гипотезы Но
и испытание также прекращается. Если же Ь<1(^)<а, то
делается следующее (v+ 1)-е измерение, вычисляется новое
отношение правдоподобия и повторяется та же процедура
сравнения с порогами. Так продолжается до тех пор, пока
не будет принята одна из гипотез.
Пороги а и b должны выбираться так, чтобы вероятность
того, что /(г;о)>«, когда справедлива гипотеза Но, была равна
а, а вероятность того, что при гипотезе Н1 величина / (£,о) < £>,
была равна р. Определение этих постоянных представляет собой
трудную математическую задачу. Однако Вальд показал, что
они подчиняются следующим неравенствам:
а<(1 —Р)/ос, 6^р/(1—а),
(6.5.29)
причем для многих практических задач здесь можно брать знак
равенства.
Основное преимущество двухпорогового последовательного
решения по сравнению с однопороговым (например, по критерию
Неймана — Пирсона) заключается в том, что среднее число
измерений (время наблюдения) существенно уменьшается. Для
независимой выборки критерий Вальда является оптимальным
в том смысле, что минимизирует средний объем выборки (среднее
время наблюдения). Однако в отдельных случаях время принятия
решения может оказаться недопустимо большим. Этот недостаток
может быть устранен модификацией алгоритма.
Глава 7. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ
ФИЛЬТРАЦИИ
7.1. ФОРМУЛИРОВКА ЗАДАЧИ ФИЛЬТРАЦИИ
В достаточно общем виде задачу фильтрации можно сфор-
мулировать так. Пусть непосредственному наблюдению доступны
реализации сл.пр. Ц/), являющегося детерминированной функцией
от полезного сигнала х(г, Х(/)), некоторой детерминированной
функции u(r) и помехи п(г):
Ц/) = Ф(Ц/Д(/)), и(Ц «(/)). (7.1.1)
328
Полезный сигнал л Х(/)) является функцией времени t и мно-
гокомпонентного сообщения X(Л) = {Xj (fX„(Z)}, представля-
ющего собой векторный сл.пр.
Относительно располагаемых реализаций сл. пр. можно
различать два случая: 1) сл. пр. £,(/) задан (известен) на
фиксированном интервале времени [0, Г]; 2) имеется текущее
наблюдение в интервале от 0 до I. Первый случай встречается
в задачах разведки, научного эксперимента и др.: получив данные,
мы можем потом обрабатывать их так долго, как это необходимо.
Во втором случае обработка должна осуществляться по мере
наблюдения £,(/). В дальнейшем будет рассматриваться преиму-
щественно второй случай.
Предполагаются известными следующие априорные сведения
о наблюдаемом процессе £,(/): 1) известен конкретный вид
детерминированной функции Ф(-), т. е. способ комбинирования
сигнала и помехи; 2) сигнал s(t, >-(/)) является известной детер-
минированной функцией аргументов t и к; 3) известны все
необходимые вероятностные характеристики случайного процесса
и помехи п (f). Априорные сведения о и могут
задаваться в разной форме: или в виде многомерных п. в. или
в виде дифференциальных уравнений с заданными начальными
условиями (детерминированными или случайными).
Располагая этими априорными сведениями, а также доступной
непосредственному наблюдению реализацией процесса (t) на
текущем интервале времени [0, /], необходимо для каждого
t сформировать апостериорную вероятность или п. в. сообщения
X(f), позволяющую получить его оценку по любому
критерию. Иногда задачи решаются в более общей постановке:
при наблюдении £,(/) на текущем интервале [0, г] находится
оценка Х*(/-|-т). Когда т = 0, имеем задачу текущей фильтрации,
при т>0—задачу экстраполяции (фильтрации с упреждением
или предсказанием), а при т<0 — задачу интерполяции (фильтра-
ции с запаздыванием).
Задача фильтрации является важнейшим разделом теории
оптимального радиоприема сигналов, а также автоматического
управления (теория следящих систем). В радиотехнических при-
менениях наблюдаемый случайный процесс £,(/) часто можно
трактовать как принимаемое колебание, s(t, Х(/)) — как полезный
сигнал, случайный процесс — «параметр» Х(0 — как информатив-
ное (представляющее) сообщение или совокупность информатив-
ного и других (сопутствующих) параметров, от которых зависит
принимаемый сигнал s(t, Под помехой н(/) можно понимать
собственный шум приемного устройства и другие помехи, воз-
действующие на вход приемного устройства.
В дальнейшем часто рассматривается наблюдение в виде
= + (7.1.2)
329
где n0(t) — БГШ с нулевым м. о. и односторонней спектральной
плотностью No. Случайное сообщение ^(/) предполагается задан-
ным стохастическим дифференциальным уравнением, например вида
^g^+n^t), М0) = Ч, (7.1.3)
где »}_(/)— БГШ с нулевым м. о. и односторонней спектральной
плотностью N^; Ло— начальное значение (детерминированное или
случайное). Здесь и в дальнейшем белые шумы n0(t) и пх(^)
считаются независимыми.
Белый гауссовский шум нх(Н, из которого формируется
сообщение Х(7), будем называть формирующим белым шумом,
а устройство, описываемое уравнением (3),— формирующим
фильтром сообщения.
В зависимости от вида наблюдения (2) и уравнения сообщения
(3) следует различать два класса задач фильтрации.
Линейная фильтрация, если наблюдение (2) и сообщение (3)
являются линейными относительно Z и начальное значение Ло
имеет нормальное распределение. Если не ограничиваться кон-
кретными уравнениями (2) и (3), то к линейной фильтрации
относятся ситуации, когда двухкомпонентный процесс {£,(/), А.(г)}
является гауссовским, в частности когда сигнал и помеха являются
гауссовскими процессами и они взаимодействуют аддитивно.
Если же по крайней мере один из этих процессов негауссовский
или их взаимодействие не аддитивное, задача не относится
к линейной фильтрации.
Нелинейная фильтрация, если наблюдение (2) и (или) сооб-
щение (3) содержат нелинейные функции сообщения к, а также
если в задаче линейной фильтрации начальное значение Го не
является гауссовской с.в.
Принятое колебание £,(/) и сообщение Х(/) могуг задаваться
или обрабатываться в непрерывном или дискретном времени.
При этом возможны четыре варианта:
1) наблюдение £,(/) и сообщение Х(г) заданы в дискретном
времени (дискретная фильтрация);
2) наблюдение £,(/) и сообщение Х(г) заданы в непрерывном
времени (непрерывная или аналоговая фильтрация);
3) £,(;) задано в дискретном времени, а Х(?) — в непрерывном
(непрерывно-дискретная фильтрация);
4) £,(г) задано в непрерывном времени, а Х(г) — в дискретном
(дискретно-непрерывная фильтрация).
Если за исходные принять уравнения (2) и (3) в непрерывном
времени, то может возникнуть задача перехода в них к диск-
ретному времени. Применительно к колебанию вида (2), в которое
полезный сигнал и шум входят аддитивно, возможный и срав-
нительно простой метод перехода к дискретному времени описан
330
на с. 304, а методика перехода к дискретному времени в ана-
логовом стохастическом дифференциальном уравнении изложена
в § 3.10. В дискретном времени (вариант 1) будем считать
заданными уравнения наблюдения и сообщения в виде
t,v=s(tv, kv) + nOv, (7.1.4)
4 = ^GvAv-l) + «Xv, (7.1.5)
где nOv и HXv — независимые дискретные белые гауссовские шумы.
Для вариантов 3 и 4 берутся соответствующие комбинации из
уравнений (2), (3) и (4), (5).
Уравнения (2) и (3) относятся к частному случаю, когда
наблюдения и сообщения только скалярные. В более общей
форме априорные сведения о наблюдениях и сообщениях задаются
векторными уравнениями
^)=s(/, k(z)) + n0(z), С71-6)
^ = g(/, Х) + Пх(г). (7.1.7)
Здесь — вектор-столбец наблюдений размерности т; s(z, к)
— сигнал, являющийся векторной функцией-столбцом размерности
т, непрерывной по всем аргументам; п0(?)— вектор-столбец
гауссовских белых шумов размерности т, имеющих нулевые
м.о. и матричную корреляционную функцию
M{n0(z1)nT0(z2)} = N08(z2-Z1). (7.1.8)
Матрица No является симметричной, ее элементами являются
двусторонние спектральные плотности соответствующих ком-
понент (включая взаимные спектральные плотности). Аналогич-
ный смысл имеют величины, фигурирующие в уравнении (7):
к — вектор-столбец размерности и; g (/, к) — векторная функция-
столбец размерности п, непрерывная по всем аргументам; nz(z)
— вектор-столбец белых шумов сообщения размерности п с ну-
левым м. о. и матричной корреляционной функцией
м s (?1) п! (Z2)} = Nx (Z, к) 8 (/2 -1(7.1.9)
При дискретном наблюдении аналогами уравнений (6) и (7)
будут разностные векторные уравнения
Sv = s(zv, kv)+nOv, (7.1.10)
^v = g('vAv-l) + nxv- (7.1.11)
Здесь nOv и Hiv—последовательности векторных случайных вели-
чин, имеющих нулевые м. о. и матрицы корреляционных функций
Vv и соответственно.
Необходимость рассмотрения задач многомерной фильтрации
возникает в тех часто встречающихся практических ситуациях,
когда имеется несколько каналов наблюдения и (или) сообщение
331
где n0(t) — БГШ с нулевым м. о. и односторонней спектральной
плотностью No. Случайное сообщение X(z) предполагается задан-
ным стохастическим дифференциальным уравнением, например вида
^=g(z, Х) + „х(г), Х(0) = Хо, (7.1.3)
где — БГШ с нулевым м. о. и односторонней спектральной
плотностью Nx; /.0—начальное значение (детерминированное или
случайное). Здесь и в дальнейшем белые шумы n0(t) и
считаются независимыми.
Белый гауссовский шум лх(Н, из которого формируется
сообщение Хр), будем называть формирующим белым шумом,
а устройство, описываемое уравнением (3),— формирующим
фильтром сообщения.
В зависимости от вида наблюдения (2) и уравнения сообщения
(3) следует различать два класса задач фильтрации.
Линейная фильтрация, если наблюдение (2) и сообщение (3)
являются линейными относительно X и начальное значение Хо
имеет нормальное распределение. Если не ограничиваться кон-
кретными уравнениями (2) и (3), то к линейной фильтрации
относятся ситуации, когда двухкомпонентный процесс {5,(т), X(f)}
является гауссовским, в частности когда сигнал и помеха являются
гауссовскими процессами и они взаимодействуют аддитивно.
Если же по крайней мере один из этих процессов негауссовский
или их взаимодействие не аддитивное, задача не относится
к линейной фильтрации.
Нелинейная фильтрация, если наблюдение (2) и (или) сооб-
щение (3) содержат нелинейные функции сообщения X, а также
если в задаче линейной фильтрации начальное значение Хо не
является гауссовской с.в.
Принятое колебание £,(;) и сообщение Х(7) могут задаваться
или обрабатываться в непрерывном или дискретном времени.
При этом возможны четыре варианта:
1) наблюдение £,(z) и сообщение Х(/) заданы в дискретном
времени (дискретная фильтрация);
2) наблюдение £,(/) и сообщение Х(^) заданы в непрерывном
времени (непрерывная или аналоговая фильтрация);
3) £,(?) задано в дискретном времени, а Х(?)— в непрерывном
(непрерывно-дискретная фильтрация);
4) £,(/) задано в непрерывном времени, а Х(/)— в дискретном
(дискретно-непрерывная фильтрация).
Если за исходные принять уравнения (2) и (3) в непрерывном
времени, то может возникнуть задача перехода в них к диск-
ретному времени. Применительно к колебанию вида (2), в которое
полезный сигнал и шум входят аддитивно, возможный и срав-
нительно простой метод перехода к дискретному времени описан
330
на с. 304, а методика перехода к дискретному времени в ана-
логовом стохастическом дифференциальном уравнении изложена
в § 3.10. В дискретном времени (вариант 1) будем считать
заданными уравнения наблюдения и сообщения в виде
t,v = s(tv, Xv)+nOv, (7.1.4)
Xv=g(/v, Vi) + «xv, (7-1-5)
где nOv и hXv — независимые дискретные белые гауссовские шумы.
Для вариантов 3 и 4 берутся соответствующие комбинации из
уравнений (2), (3) и (4), (5).
Уравнения (2) и (3) относятся к частному случаю, когда
наблюдения и сообщения только скалярные. В более общей
форме априорные сведения о наблюдениях и сообщениях задаются
векторными уравнениями
i;(/) = S(z,k(z)) + n0(z), (7.1.6)
^ = g(z, Х) + пх(4 (7-1-7)
Здесь — вектор-столбец наблюдений размерности т; s(z, к)
— сигнал, являющийся векторной функцией-столбцом размерности
т, непрерывной по всем аргументам; п0(?)— вектор-столбец
гауссовских белых шумов размерности т, имеющих нулевые
м.о. и матричную корреляционную функцию
М {«о (^1) по (^2)} = No8 (?2 — ^i)- (7.1.8)
Матрица No является симметричной, ее элементами являются
двусторонние спектральные плотности соответствующих ком-
понент (включая взаимные спектральные плотности). Аналогич-
ный смысл имеют величины, фигурирующие в уравнении (7):
к—вектор-столбец размерности п; g(Z, к) — векторная функция-
столбец размерности п, непрерывная по всем аргументам; пх(/)
— вектор-столбец белых шумов сообщения размерности п с ну-
левым м. о. и матричной корреляционной функцией
М {nx (/Д п!(г2)} = Nx (г, к) 5 (z2 -1Д (7.1.9)
При дискретном наблюдении аналогами уравнений (6) и (7)
будут разностные векторные уравнения
^v = s(/v, kv) + nOv, (7.1.10)
^v = g(^vAv-l) + nXv. (7.1.11)
Здесь nOv и niv — последовательности векторных случайных вели-
чин, имеющих нулевые м. о. и матрицы корреляционных функций
Vv и \|/v соответственно.
Необходимость рассмотрения задач многомерной фильтрации
возникает в тех часто встречающихся практических ситуациях,
когда имеется несколько каналов наблюдения и (или) сообщение
331
является векторным или многокомпонентным, описываемым не
одним, а системой стохастических дифференциальных уравнений.
В качестве конкретных примеров можно привести пространствен-
ную (многоканальную) обработку сигналов, совместную обработ-
ку результатов измерения одной и той же величины несколькими
измерителями (например, определение высоты полета летательно-
го аппарата с помощью радиовысотомера и барометрического
высотомера, определение координат с помощью радиотехнической
системы и инерциальной системы), совместную оценку координат,
скорости и ускорения летательного аппарата и др.
Первые основополагающие результаты по теории линейной
фильтрации в дискретном времени принадлежат советскому
ученому А. Н. Колмогорову (1939 г.), а в непрерывном времени —
американскому ученому Н. Винеру (1942 г.). Законченные резуль-
таты по теории линейной фильтрации гауссовских процессов
в дискретном и непрерывном времени получили американские
ученые Р. Е. Калман и Р. С. Бьюси (1960, 1961 гг.). Фундамен-
тальные результаты по теории нелинейной фильтрации принад-
лежат советскому ученому Р. Л. Стратоновичу, который раз-
работал теорию нелинейной фильтрации марковских сл.пр. [6]1.
Изложим общую методику решения задачи фильтрации в че-
тырех указанных вариантах, начав с первого (уравнения наблюде-
ния и сообщения заданы в дискретном времени) [6,7 ]2.
7.2. ДИСКРЕТНАЯ ФИЛЬТРАЦИЯ
Исходной для решения задач линейной и нелинейной фильтра-
ции сообщений является формула Байеса. Запишем один из
вариантов этой формулы применительно к уравнениям (7.1.4)
и (7.1.5). Допустим, что апостериорная п.в. j | ') для
момента времени найдена. Здесь ^о”1 обозначает последо-
вательность наблюдений £,0, ..., для моментов времени
t0, t14 ..., Найдем апостериорную п.в. р (Xv | £,о) Для
следующего момента времени tv. Вычисленное затем по формуле
\ = f ММ ^оЖ = М {XJ ^0} (7.2.1)
условноеДапостериорное) м. о. определит алгоритм формирования
оценки Av, оптимальной по критерию минимума среднеквад-
ратической ошибки, а апостериорная дисперсия
1 Первая работа опубликована в 1959 г.
2 Jazwinski А. Н. Stochastic Processes and Filtering Theory.— N.Y.: Academic
Press, 1970.— 376 p.
Снайдер Д. Л. Метод уравнений состояния для непрерывной оценки в примене-
нии к теории связи: Пер. с англ./Под ред. В. Б. Силина.— М.: Энергия,
1973.—102 с.
Ярлыков М. С. Применение марковской теории нелинейной фильтрации
в радиотехнике.— М.: Сов. радио, 1980.— 358 с.
332
7?v = f(Xv-£v)2p(XJ^0)rfXv (7.2.2)
—точность полученной оценки.
На основании правила умножения вероятностей для условной
п.в. р (Xv, £,v | £,о”') можем записать выражение
р(К, .
(7.2.3)
Поскольку в (7.1.4) сигнал s(fv, УЛ является детерминированной
функцией аргументов и nOv, v = 0, I, 2, ...,— последовательность
независимых с. в., то величина £,v при фиксированном зависит
только от nOv и не зависит от предыдущих значений дискретного
шума. Поэтому
р»1, (7-2.4)
Учитывая, ЧТО совокупность С. В. |С,о '- W есТЬ просто Ё,о,
можем написать
p(4|^o-\Q=pM^o)- (7-2-5)
Из выражения (3) с учетом равенств (4) и (5) получаем нужный
вариант формулы Байеса:
р (Xv | ^о) =Р (Ч | 1)р | Щр I *)• (7.2.6)
Значения сообщения X в (£,v j £,о ' ) не входят, и поэтому
сомножитель р~1 (^v|£,о ') можно учесть в апостериорной п.в.
с помощью нормировочной постоянной с:
р(Ч1^) = ф(М^0-1)р(^1М- (7-2.7)
Условная п.в. в правой части этой формулы пред-
ставляет собой текущее значение функции правдоподобия; она
находится из уравнения наблюдения. Для этого применительно
к (7.1.4) в нормальной п. в. p(nOv) нужно перейти к новой
переменной £,v = s(tv, Xv)+«Ov- Условную плотность вероятности
р(ХД£о-1) — п.в. экстраполированного значения \ в отсутствие
отсчета наблюдения £,v можно вычислить по формуле
f |^-1)jp(Xv|Xv_1)«rXv_1. (7.2.8)
Действительно, на основании условия согласованности плотностей
вероятностей и правила умножения вероятностей имеем
333
Однако при известном Xv_j значение Е,)) 1 не изменяет сведений
о Xv. Поэтому />(XV|Е,о’l, Д._1)=/?(41К-.).
В правой части выражения (8) апостериорная п. в. р(Х^-1 | £,о ’)
предполагалась известной, а условная п.в. р (Xv | Xv _ ,) может
быть найдена из уравнения сообщения (7.1.5).
Формулы (7) и (8) при известном начальном распределении
рп,.(/.о) позволяют рекуррентно вычислять апостериорную
п. в. фильтруемого сообщения и совместно с формулой
(1) для оценки Xv дают оптимальный алгоритм фильтрации
сообщения; они в принципе полностью решают задачу
как линейной, так и нелинейной фильтрации в дискретном
времени. Точность фильтрации характеризуется значением
апостериорной дисперсии (2).
Для векторных наблюдений (7.1.10) и сообщений (7.1.11)
соответствующие формулы сохраняют прежний вид (7) и (8):
= (7-2.9)
р(^>|Д..,|1Г)/>(ММ^ Н (7.2.10)
а для вычисления вектора оценок Ц. вместо (1) следует вос-
пользоваться формулой
Xiv = /=h/7. (7.2.11)
п
Вывод этих выражений полностью аналогичен приведенному
выше для скалярного случая.
Заметим, что в формулы (9) и (10), позволяющие рекуррент-
ным образом вычислять апостериорную п.в. р (Xv | ^), входят
лишь условные п.в. ;?(^v|lv) и /?(kv|Xv_l). Поэтому приведенная
методика применима во всех ситуациях, когда можно найти
эти условные п. в. При этом совсем не обязательно, чтобы
наблюдение и сообщение имели конкретный вид (7.1.10) и (7.1.11),
в частности наблюдение может быть квантованным. Для примене-
ния излагаемой здесь теории марковской нелинейной фильтрации
достаточно, чтобы в наблюдении (7.1.1) или его дискретном
аналоге объединенный процесс {£,(/“), Х(/)} был марковским или
представлял собой компоненту некоторого марковского процесса
большей размерности, для которого теперь должна решаться
задача фильтрации.
7.3. АНАЛОГОВАЯ ФИЛЬТРАЦИЯ
Получим общий алгоритм фильтрации для второго варианта,
когда уравнения наблюдения (7.1.6) и сообщения (7.1.7) заданы
в непрерывном времени. В этом случае уравнение для апостери-
орной плотности вероятности удобно получить из приведенных
334
выше результатов для дискретного времени путем предельного
перехода.
Предварительно заметим, что сл. пр. X(z), заданный уравне-
нием (7.1.7), является диффузионным марковским процессом.
П. в. такого процесса определяется уравнением ФПК (3.7.2),
которое в наших обозначениях имеет вид
4 i i ч]=мы'- < (тэт)
< -1/. 1 ' J
где для оператора ФПК введено обозначение L{ppr(f, к)}.
Перепишем формулу (7.2.9) иначе, введя явную зависимость
от времени:
p(/v_1 + A, X|^)=--ep(zv_1+A, Х|1Г)/>Ш (7.3.2)
где tv— tv_ j = А = const; X = X(/V).
Распишем два сомножителя, входящих в правую часть этой
формулы. При этом будем использовать применительно к урав-
нениям (7.1.6) и (7.1.7) процедуру дискретизации (6.1.11). Так
как nOv есть нормально распределенная векторная с. в. с нулевым
м. о. и матрицей корреляционных моментов No/A, то на
основании равенства (7.1.6), записанного в дискретном варианте,
и выражения для многомерной нормальной п. в. имеем
p(^vl^-) = ci ехр|—|[^v —s(tv, k)]TNo 1 E^v-s(zv’ k)]A} =
= c2exp[F(/v, X)A], (7.3.3)
где
F(tv, X) = sT(rv, X)N0"1 [^v-(l/2)s(zv, X)]. (7.3.4)
Используя приближенное равенство exp (x)«1 + x, | x | < 1 и полагая
временной интервал дискретизации А малой величиной, можем
написать
^(^|Х) = с2 [1+F(/V, Х)А + .„]. (7.3.5)
Такое разложение достаточно при трактовке процессов
и F(/, X) как физических «гладких» (с конечной шириной спек-
тральной плотности) и соответствует форме Стратоновича (§ 3.6).
Второй сомножитель p(tv] +А, Х|^о') в (2) по смыслу
представляет п.в. экстраполированного значения X(rv_i+A) при
наличии наблюдений т. е. при наличии наблюдений только
до момента времени tv-t. Поскольку наблюдения на интервале
[С-i, А] отсутствуют, то все доступные нам сведения о характере
изменения п. в. на этом интервале заключены в априорном
335
дифференциальном уравнении сообщения (7.1.7). Это означает,
что р(t, Х|^ф') на интервале [rv-i, с] удовлетворяет априорному
уравнению (1) с начальным условием /?(/v_, , X Д-Д) в начале
этого интервала. Поэтому для малых А можем написать
(1/A)[p(/V_1 + A, I T-L {p(/v_ 1, ЩГ1}
или
Р (tv-! + А, 11 ^0-!) ър(tv_ х, к I *) + L {р(tv_! , XI <)} А. (7.3.6)
Подставив (5) и (6) в (2) и учтя лишь члены порядка А, имеем
p(zv_1 + A, Х|^0) = с3[р(с^, ЩГ1+£{/<-о W*)M+
(7-3-7)
Чтобы определить постоянную с3, проинтегрируем обе части
этого равенства по всем возможным значениям X. При этом
учтем условие нормировки п. в., а также тождество
j£{ppr(/v_!, XI^C')p/XsO.
X
которое следует из дифференцирования по времени очевидного
равенства
fpp,.(i, X)t/X=l.
В результате получим, что с точностью до членов порядка
малости А справедливо соотношение
c3 = [l+AfF(/v, X)p(vn Х^Г1)^]'1-
~1—AjF(zv, X)p(rv_p Xl^-1)^-
Подставив это значение c3 в (7) и перегруппировав члены, получим
p(/v_1+A, X|^0)-p(/v^, Х|^-1) = A{jp(zv_1, Х|^!)}А +
+ [F(?V, X)-fF(zv, X)p(/V_v X | X|^')A.
Поделив обе части этого выражения на А и перейдя к пределу
при А-»0, получим уравнение фильтрации в непрерывном времени
^^ = L{p(f,X)} + [F(z, X)-JF(Z, Х)р(/, Х)б7Х]/т(л X), (7.3.8)
где p(t, Х|5,о) обозначено через p(t, X) и
F(t, X) = sT(£, X)No 1 [^(0-(l/2)s(z, X)]. (7.3.9)
Это стохастическое интегродифференциалыгое уравнение
в симметризованной форме является частным случаем уравнения
фильтрации Стратоновича [6]. В качестве начального условия
берется априорная п. в. начальной координаты сообщения Х(0) =
= Хо:
336
Рис. 7.1. Эволюция во времени апостериорной плотности вероятности
p(Q, Х)=Ррг(0Ао)=Ррго(4 (7.3. J0)
В правую часть уравнения (8) непосредственно входят априорные
сведения о сообщении в качестве первого слагаемого; второе
слагаемое учитывает результаты наблюдения. В отсутствие полез-
ного сигнала или при очень большом уровне шума F(t, л)^()
и уравнение (8) переходит в уравнение ФПК.
Уравнение Стратоновича (8) при фильтрации в непрерывном
времени полностью описывает эволюцию апостериорной п. в.
фильтруемого сообщения и тем самым в принципе решает
задачу фильтрации. Качественный характер изменения апостери-
орной п. в. p(r, X) во времени показан на рис. 7.1, где Х(г)—оценка
истинного значения Х(/) в наблюдаемой реализации £,(?). Рас-
полагая p[t, X), можно найти оптимальную текущую оценку Х(/)
по любому критерию (в частности, по минимуму среднеквад-
ратической погрешности или по максимуму апостериорной п. в.).
Однако непосредственная практическая реализация получающихся
алгоритмов как в дискретном, так и в непрерывном времени
обычно оказывается довольно сложной, и поэтому часто при-
ходится прибегать к упрощениям. Точные решения возможны,
например, в случае линейной фильтрации (гл. 8) и в некоторых
других ситуациях (гл. 9).
На с. 334 указывалось, что для применимости теории марковской
нелинейной фильтрации необходимо, чтобы объединенный процесс
X(z)} был марковским или представлял компоненту мар-
ковского процесса большей размерности. Из методики вывода
уравнения Стратоновича (8) следует, что оно останется справед-
ливым для дискретного марковского процесса X(z) с конечным
числом состояний п и для дискретно-непрерывнозначного процесса
337
Х(Н. При этом нужно лишь в уравнении (8) априорный оператор
ФПК L {р {t, X) заменить соответственно на оператор Колмого-
рова— Чэпмена (3.3.14)
L, {p(t, Х)}=Т3 {Pj(t)} = X «и(Ф.О) (7.3.11)
/ = 1
или оператор Колмогорова — Феллера, который для скалярного
дискретно-непрерывного процесса Хр) имеет вид (3.8.6)
Л2 {р(/, X)} = L {/>(/. X)} — q{t, typ(t, Х) + [ p(l, X')w(X', Х)д?Х'.
(7.3.12)
Небольшое отличие в исходной постановке задачи фильтрации
в этих двух случаях заключается в том, что вместо дифферен-
циальных уравнений сообщений сразу задаются дифференциаль-
ные уравнения для их априорных и. в.
Получим запись основного уравнения фильтрации (8) для
скалярного диффузионного процесса Х(1) в форме Ито при
прежнем наблюдении (7.1.2), воспользовавшись некоторыми ре-
зультатами § 3.6. Для этого в разложении (5) и в разложении
для с3 нужно дополнительно учесть квадратичные члены. Вместо
(5) воспользуемся теперь разложением
p(^|X)^c3[l+F(/v,X)A + (l/2)F2(rv,X)A2], (7.3.13)
где F(/v, л) = (2/МЖ<> Х)-(1/2)?(р, X)].
Поскольку в дальнейшем осуществляется переход к пределу при
А-»0, то важен учет порядка величин относительно А. Заменим
в (13) функцию F2(/v, X), а в последующих выражениях с,2 их
математическими ожиданиями. Допустимость этого основана на
формуле (3.5.15), из которой следует
^2A252(rv,X) = AioA52(/vA)/2. (7.3.14)
Тогда
M{F2(rv, X)} = (4/^2)M{.v2(F, X)^2-x3(f, ХК +
+ (1/4K(ZV, X)}«(2/yV0A)x2(/v, X)
и
/<|Х)^с3[1+(2/^)^(р, Х)А].
Теперь для нормировочной постоянной с3 получим выражение
с3 = [1 + (2/JV0) А] -1« 1 —(2/lV0) U (ф +
+ (2/^)2^2(/v)A2«1-(2/^)^0v)A + (2/^)S2(/v)A,
где
5(0 = f s(t, X)p(t, Xl^-1)^. (7.3.15)
338
Подставив найденное значение с3 в (7), перегруппировав
члены и перейдя к пределу при А-»0, вместо (8) получим
уравнение непрерывной фильтрации в форме Ито
фгА'-лед + Пно-ДОИ'. Ч-W- 4 <7.з.1б>
GZ ZV0
Аналог итого уравнения в векторной форме имеет вид
= L {р(г, к)} + [Ч(г)-s(г)]т W1 [s(г, k)-s(t)] р (г, к).
(7.3.17)
7.4. НЕПРЕРЫВНО-ДИСКРЕТНАЯ
ФИЛЬТРАЦИЯ
При рассмотрении смешанных вариантов фильтрации (третье-
го и четвертого) требуется получить оптимальную текущую
оценку сообщения k(r) в непрерывном времени при разных
формах задания наблюдения и сообщения. Пусть принятое
колебание задано в виде (7.1.10), а сообщение в виде (7.1.7):
sv = s(C’ + (7.4.1)
<7k/r//‘ = g(r, k)+n,(z). (7.4.2)
Задача фильтрации в такой постановке возникает при диск-
ретизации принятого колебания (например, в аналого-цифровом
преобразователе с большим числом уровней) и необходимости
восстановления переданного аналогового сообщения k(z).
Процедура получения оценки разбивается на две части:
I) в дискретные моменты времени tv, v=0, 1,2, ..., можно осуществить
учет наблюдений, как и в задаче с дискретным временем:
Ж + 0. k) = cvp(/v-0, k)p(^| k); (7.4.3)
2) в интервалах между наблюдениями производится предсказание
па основе априорного уравнения ФПК
clp(t, k)/cf = L{p(t, k)}, t<= iv),
с начальным условием p(tv_ j +0, k), получаемым в результате
решения первой части задачи. По апостериорной п. в. p(t, к)
определяется оценка kl/1) в каждый момент времени.
Если для процесса kpj известна п. в. перехода л (к, Z| kv_1? Zv_j),
то для имеем
/’(о к) = ]’л(к, ?v~л + о, k^JrZk^j. (7.4.4)
Оценка к(/) по минимуму среднего квадрата ошибки равна
k(H = fkp(/, k)</k=fm(r|kv_i, rv_ л + 0, Xv_ 1) !,
(7.4.5)
339
где m(/|Xv-1, /v_t)—условное м. о. процесса Х(/),
m = m(z,|Xv_1, = JXn(X, Г | Xv_15 Zv-i)^^v-i-
Дисперсия ошибки находится по формуле
R(Z) = J[к-£(/)] [к-Х(0]'p(t, k)dk =
= {[(Х-т) + (т-Х)][(Х-т) + (т-Л)]тр(/, X)tZX = (7 4 6)
= fD(?|lv-i, tv-i)p(ty~i +0, ViW"v--i +
+ f [m-X(z)] [m-X^^p^-j+OAv-O^v-b
где D(/1 Xv_!, tv_ j)—условная дисперсия процесса X(z),
D(/|Xv-i, /v.„1) = J[X —m] [X —m] тл(Х, t\Xv._j, t^cTk.
Таким образом, алгоритм фильтрации состоит из выражения
(3), учитывающего наличие дискретных наблюдений, соотношения
p(zv-O, Xv) = Jn(Xv, ?v|Xv-1, Xv-jjt/Xy-!, (7-4.7)
связывающего соседние точки наблюдения, и формулы (5) для
определения оценки X(z) при Ошибки фильтрации
вычисляются по формуле (6). Для выполнения вычислений
необходимо знать p0v|Xv) и л (X, 11X', tДля наблюдения (1)
функция правдоподобия p(S,v]Xv) записывается просто.
Применительно к многомерному процессу Х(?) часто воз-
никают затруднения в определении п.в. перехода л (X, 11X', t
Однако эта часть задачи легко решается для часто встречающихся
в радиотехнических приложениях случаев, когда сообщение
описывается линейным стохастическим дифференциальным ура-
внением
</X/A = A(z)X + nx(z). (7.4.8)
Общее решение этого уравнения для интервала [^-15 Zv)
при начальном условии X(/v . () = X(zv. () известно:
X(Z) = <D(Z, ^-ЛХ^^ + п^-!, (7.4.9)
Здесь Ф (•) — матрица фундаментальных решений (переходная
матрица), удовлетворяющая однородному уравнению
й?Ф(/, Zv_j)/A = A(Z)®(Z,
с начальным условием Ф(^_15 ZV_!) = I, где I — единичная матрица;
nXv = f Ф(Л т)пх(т)й?т (7.4.10)
«V- 1
— последовательность независимых нормально распределенных
случайных величин, имеющих нулевое м. о. и корреляционную
матрицу
340
x|iv = M{nXvnIv}= f 0>(f, t)Nx(t)O(z, t)Jt. (7.4.11)
В данном случае процесс k(z)— гауссовский и п. в.
л(Х, Z|XV_ 15 rv_j) — нормальная с м. о.
m(/|kv_i, zv_1) = 0(r,
и матрицей дисперсий (11)
D(/|kv_1; Zv_1)= ( Ф(г, т) Nx (г) Ф т (z, т)</т.
Теперь формула (5) примет вид
£(r) = f Ф(г, tv-i)K-lP(tv-l+O, C-l)^v'-l,
где = f+ kv-jjdkv-j. (7.4.12)
Отсюда видно, что предсказание оценки внутри интервалов
(/y-j, tv) следует осуществлять с помощью формирующего фильтра
сообщения, на вход которого подаются оценки v = 0, 1,
2, ..., причем исходное состояние фильтра в момент tv должно
быть нулевым.
Матрицу дисперсий ошибок для гауссовского процесса k(z)
находим из (6) с учетом полученных выражений для
m(/|Xv_i, С-Д X(z) и D(?|XV_1, Zv_j):
R(z)= f Ф(/, т)*<(т)Фт(л трт + Ф(/. С-1)КУ+-1ФТ(Ь гу_Д
(7.4.13)
где Rv+_j =f(V.ji~V-i)Tp(lv-i +0,
С качественной точки зрения ясно, что на точность непрерыв-
но-дискретной фильтрации влияют следующие факторы: 1) шум
nOv в канале, обусловливающий погрешность восстановления
дискретных отсчетов k(/v); 2) временной интервал дискретизации
A = tv+1 — tv, поскольку при восстановлении сообщения между
* отсчетами оценка будет ухудшаться за счет ошибок статистичес-
кого предсказания, причем ошибка растет при t, изменяющемся
4» от tv к tv+l, и достигает наибольшего значения в конце интервала
/ дискретизации; 3) эта ошибка также возрастает с увеличением
i интенсивности формирующего шума пД/).
I 7.5. ДИСКРЕТНО-НЕПРЕРЫВНАЯ
! ФИЛЬТРАЦИЯ
* Рассмотрим вариант передачи информации с помощью им-
1 пульсных сигналов, характерный для импульсных систем связи
4 и импульсной радиолокации. Передаваемые сигналы модулиру-
ются значениями непрерывного сообщения k(z) в дискретные
341
моменты времени, т. е. сообщение по-прежнему описывается
уравнением (7.4.2), а принятое колебание на интервале (tv, /v + 1)
имеет вид
£(r)=s(r, Xv)+n0(r), tv^t^tv + Tv<tv+1. (7.5.1)
Здесь s(/, Xv) — импульсный полезный сигнал произвольной формы
длительностью xv, зависящий от Xv — значения сообщения Х(г)
в момент времени v=l, 2, 3, ... Требуется получить
оптимальную оценку сообщения £(/) в непрерывном времени
по наблюдению ^v+1. Известна и другая постановка задачи',
когда £ (г) получается по наблюдению £*0 до момента /.
Процедуру получения оценки £(г), как и выше, можно разбить
на два этапа: формирование оценок $,v в дискретные моменты
времени tv и получение на основании априорного уравнения (7.4.2)
экстраполяционных оценок в интервалах [rv, tv+1) между соседни-
ми импульсами. При этом методика предсказания остается
прежней и, например, для линейного априорного уравнения (7.4.8)
она определяется выражением (7.4.12). Второй этап отпадает, если
уравнение сообщения задано в дискретном времени (7.1.11).
Первый этап решения задачи сводится к фильтрации в дискрет-
ном времени последовательности Xv, описываемой априорным
уравнением сообщения (7.4.2), по наблюдению отрезков реализа-
ции £,(/) при ?e[/v, lv+1], v=l, 2, 3, ... Рекуррентное соотношение,
определяющее апостериорную п. в. p(^v|^'ov+1), является очевидной
модификацией формул (7.2.7) и (7.2.8), описывающих точный
алгоритм нелинейной фильтрации в дискретном времени. Действи-
тельно, единственным отличием, обусловленным наблюдением
отрезка входной реализации содержащей импульсный сигнал
s(t, lv), является использование не функции правдоподобия
p(^v, kv), а функционала правдоподобия 1\)- ® итоге
аналогами формул (7.2.9) и (7.2.10) или (7.4.6) и (7.4.7) будут
выражения
р (ЧI 0 = ср (Xv | 11(7.5.2)
(7.5.3)
Для одномерного наблюдения вида
^(r) = 5(r,Xv) + «0(r), rv^r^rv + xv^rv+1, v = 0, 1, 2, ... (7.5.4)
функционал правдоподобия запишется в виде
Zv-rTv
p(^v+1|Xv) = C1expH [^(t).v(t, av)-'.v2(t, Д)]б/Л. (7.5.5)
H’o I
1 Миронов М. А., Смирнов В. А., Харисов В. Н. Оптимальная фильтрация кван-
тованных по времени непрерывных процессов//Радиотехника и электроника.—
1980.—Т. 25, № 11 .— С. 2349 -2359.
342
Приближенные уравнения для оценок к и корреляционной
матрицы ошибок оценок можно получить, прибегнув к приближен-
ным методам (в частности, аппроксимации апостериорной п. в.
нормальным законом распределения).
7.6. ФИЛЬТРАЦИЯ УСЛОВНЫХ
МАРКОВСКИХ ПРОЦЕССОВ
До сих пор шум наблюдения предполагался белым гауссовским.
Более общий подход базируется на теории условных марковских
процессов [6]. Пусть задан векторный марковский процесс
) = {1 (/), £(/)}. Нужно получить апостериорную п. в. p(k(r) | ко),
если непосредственному наблюдению доступна компонента £(т),
те [0, /]. Рассмотрим решение этой задачи для дискретного времени.
Поскольку процесс д(/) является марковским и он пред-
полагается заданным, то это означает, что известна одношаговая
п.в. перехода p(k, k I k-i, k-i)- Найдем интересующую нас
апостериорную п.в. ненаблюдаемой компоненты p[kv | к)-
Запишем частный вариант уравнения Колмогорова — Чэпмена:
Р (Ц„ k I 1) = j Р {К, k Ik - 1 , k - 1) р (к - 11 1) dK_ !.
Представим левую часть иначе:
Тогда получим общее рекуррентное соотношение марковской
фильтрации
р (к I к)=р ~1 (к | к~1) f р (к, к I к-1, к - i) х
xp(Vi Iko^Hk-i- (7.6.1)
Для рассмотренного ранее частного случая (7.1.10), (7.1.11)
выполняются следующие условия: 1) к зависит только от Д
и не зависит от к-i, т. е. р(к I к-ь к, k-i)=p(k I к); 2) Xv
при фиксированном Xv-j не зависит от k-i, т. е.
I A.v-1> k-l)=p(k I к-1)- При ЭТИХ условиях p(X.v, к | Д.-1,
к-1)=/’(к I к)/’(к I k-i) и основная формула (1) упрощается:
р(К I ко) = ф(к I к)Ык-1 I ЦГ')р[К I k-J^k-L (7.6.2)
Расписав ее в два этапа, убеждаемся, что она совпадает с (7.2.9),
(7.2.10).
Однако формула (1) охватывает более широкий класс задач.
В частности, совсем не обязательно, чтобы наблюдение (7.1.10)
представляло собой сумму полезного сигнала и шума или чтобы
значения дискретного шума nOv были некоррелированны. При-
ведем здесь кратко методику решения задачи фильтрации с небе-
лым (коррелированным) дискретным шумом nOv.
Примем, что nOv, v = 0, 1, 2, ..., есть гауссовская марковская
последовательность сл. в., не зависящая от Х(г), с известной
343
п.в. одношагового перехода p(nQv | «Ov_1) = n(«Ov | nOv_х). Приме-
нительно к (7.1.10) условную п. в. р(\, | Xv_ь ^v... Д входящую
в (1), можно найти из п. в.
р(\„ /?ov I Vi> »ov-i)=/’(\. I K-i)rc(nQv | /70v-l)
путем перехода от nQv к новой переменной £,v = .s(rv, Xv)— nOv:
4v! K-i, Д-1)=/^(Д I МЙО
-s(tv, Xv)\^v^-s(tv^, (7.6.3)
Подстановка (3) в (1) дает решение задачи фильтрации
в дискретном времени при небелом шуме наблюдения.
Путем предельного перехода при zv — tv„1=A->0 из (1) можно
получить интегродифференциальное уравнение для апостериорной
п. в. компоненты векторного марковского процесса р(г) при
известной (наблюдаемой) другой компоненте. Этот переход
в принципе выполняется так же, как и при получении уравнения
(7.3.8), однако оказывается более сложным и громоздким.
Для диффузионного марковского процесса с коэффици-
ентами сноса и диффузии
«Ж X, £))
Л(/, К ^)J
ам(д X. ^) =
bM.(t, X, b^(t, X,
х, у b^t, к у]
п. в. одношагового перехода для малых А является нормальной:
м е .. е ч С f 1Г\ -V-1
/’OOvO-iOv-t) = ГГ7Г7ПГИ7шехР1 е е л *
Idelb,, /.ХД)!1'- ( 2 — £v_j -я А
Ьи. /’м,
/у:..
(7.6.4)
где detbM#O. Если подставить выражение для p(Xv, | Xv_b ^v-i)
в (1) и выполнить предельный переход при А-^0, который здесь
опущен, то получим следующее интегродифференциальное урав-
нение для апостериорной п.в. p(t, л.)=р(Х(Г) | ^!0):
2Ь^ ах
— V/V \ (II ~
-м4'’« MO]"°’х)-
(7.6.5)
344
где
Mps {/(/, X, ={/(', К $p(t, X) dk П.б.Ь)
Более общая формула для векторных процессов к (г) и £(/),
полученная Р. Л. Стратоновичем, приведена в [6, 7].
Уравнение фильтрации (5) охватывает кроме рассмотренных
выше несколько более общих случаев, а именно шум наблюдения
п0 (г) может быть не белым, он может быть зависимым с форми-
рующим шумом сообщения n^t), характеристики фильтруемого
процесса Х(г) могут зависеть от наблюдаемого процесса £,(/) и др.
Покажем, что для скалярных процессов Х(г) и £,(/) из уравнения
(5) следует (7.3.8), при выводе которого предполагалось, что
наблюдаемая компонента £,(/) имеет вид (7.1.2) и шумы н0(г) и лх(0
независимы. Чтобы подогнать формулировку задачи к той, для
которой получено уравнение (5), введем процесс = j £,(т) dx, для
о
которого согласно (7.1.2) справедливо стохастическое дифференци-
альное уравнение
^(гД)+и0(/). (7.6.7)
Наблюдение колебания £,(/) эквивалентно наблюдению Будем
теперь рассматривать двухкомпоиентный марковский диффузионный
процесс ц(Н = {Х(г), Для процесса находим коэфициенты
сноса и диффузии:
М к ^)=М I 4+M) I 4=4 Ч
Так как шумы я0(/) и ях(/) независимы, то Ь^ = Ь^ = О. Подставив
найденные выражения коэффициентов в (5), получим
^=-~h/>(',4]+i£[W(/.4]+
40 [4б 4-40]-^ 1>2 (б 0-^(0]р(б 4 (7-6-8)
где использовано обозначение (7.3.15). Нетрудно убедиться, что
это уравнение совпадает с (7.3.8).
Приведем без вывода уравнение оптимальной фильтрации
Стратоновича в непрерывном времени для многомерных марковских
диффузионных процессов. Пусть = k(r)]T—^п + А)-мерный
марковский диффузионный процесс, удовлетворяющий стохастичес-
кому уравнению
345
MJAML пвд}
MVWrW’ }
где m — размерность процесса !;(/); к—размерность 1(f).
Векторные процессы £(z) и 1(f) имеют коэффициенты сноса
Н’ "’Ы'Ф "H+l "f [GT. Ч)]„ р.6.10)
IaMJ IAMJ Mi L л
где использовано обозначение [А]; для z-го столбца матрицы А.
Матрица G (/, ц) выражается через матрицу N (f, ц) коэффициентов
диффузии процесса i](f) (спектральных плотностей белых шумов
М и njf)):
G(f,-q) GT(f, q) = N(z,-q), (7.6.11)
n(,.,)=AM) N5T,n)\
1 ' ММММ
Предполагается, что матрица N^(f, £) не зависит от 1 и невырож-
денная.
Тогда условная п.в. p(t, l)=/?(l(z) | ^) удовлетворяет следу-
ющему интегродифференциальному уравнению Стратоновича:
A---iг4й('.ч);>('.4]+J i ^тЧ)/>м)]+
+AM МММ- (7.6.13)
Здесь
sMMMMMM |~MM
xnmmwmi+z(7.6.14)
i=i ।
N(t, Tl) = Nx(f, n)-N^(f, TiM '(k L
_ । щц5т a rNt((i
(7.6.15)
(7.6.16)
Ясно, что аналитическое или численное решение уравнения (13)
для многомерного случая является гораздо более сложной задачей,
чем в одномерном случае (7.3.8).
346
7.7. ФИЛЬТРАЦИЯ ДИСКРЕТНЫХ ПРОЦЕССОВ
Приведем решение задачи оптимальной фильтрации для простой
и модернизированной цепей Маркова и для пуассоновского процесса.
1. Фильтрация цепи Маркова. По наблюдению
^(z) = 0(/) + 77o(/) (7.7.1)
нужно выполнить оптимальную фильтрацию случайного двоичного
сигнала 0(/), который в любой момент времени может принимать
лишь два значения: 0(/) = 31 = 1 и 0(/) = Э2= —1, причем вероятность
перехода за малое время А1 равна рА/ и вероятность
перехода 02->Д, равна vA/. Для такого сигнала априорные веро-
ятности р1 = Р{0(/) = 1} и р2 = Р{0(1)= — 1} определяются уравне-
ниями типа (3.3.20):
dpxfdt= -dpjdt= -\LPi + vp2, Pi 0)+p2(/) = (7.7.2)
Введем случайную величину z(/) = M{0(l)}=p1(/)—р2(1), где
Pi (t) = P {0(?)= 1 I £>o}; = ~ । Iso} - апостериорные веро-
ятности.
Для нее на основании (7.3.8) получим уравнение
7t = Th ~Th = 2 ^Р1 + vp^+ lh + ^'2 р*
ГДе Fi^ = W0 ;
Учитывая, что
p№WPi-
P!=(1+z)/2, р2 = (1—z)/2,
(7.7.3)
после несложных преобразований получим
Jz/t/z=(v-p)-(v+p) z + (2/7V0) 5,(r) (1 — z2). (7.7.4)
Случайный процесс z(z) сам по себе является марковским.
В этом можно убедиться, записав уравнение (4) в форме Ито.
При этом добавочный член равен
^g(z)^=-A(l-Z2)£, g(Z) = -(l-Z2)
4 6' ' dz No' 7 S' 7 No 7 7
и, следовательно, уравнение (4) в форме Ито имеет вид
tZ*z = [(v-p)-(v+n)z] dt + (2/N0) (1 -z2) [£(z)-z] dt.
j Воспользуемся известным результатом (7.10.4): сл. пр. ?(/) =
= £(/)—— М{£(/)}, называемый порождающим или невязкой
, в момент времени г, является БГШ n(t) с нулевым м. о.
| и постоянной спектральной плотностью N72. Для наблюдения
| (1) имеем М {£(/)}=M{0(/)}=z, т. е. {;(/) = £,(?) —z(r). В результате
приходим к марковскому процессу
347
<7*z = [(v —p)--(p + v)z] Л + (2/Уо) (1 — z2) n(t) dt
с коэффициентами сноса и диффузии
a=v—ц —(p+v)z, h = (2/NQ) (1 — z2)2.
Соответствующее уравнение ФПК для плотности вероятности
имеет вид
^^=-|{[(v-h)-(v + p)^]p(/, z)} +
i д2
2 8z2
(7.7.5)
Стационарное решение этого уравнения известно [4]:
Z
/ \ С Глт fv—Ц —(|l + v)x , 1
(z) = ехР j (jcbj2 - dx^.
(7.7.6)
Для компактности записей последующих выражений введем новую
переменную ср равенством
(1—z2)~‘ = сЬ2(ф/2) = (1+сЬф)/2. (7.7.7)
Тогда стационарная плотность вероятности примет вид [6]
Л((ф)=С(1+сЬср) ехр < -~(p-v)^ + sh ф)-— (ц+у)сйфк (7.7.8)
где С—нормировочный множитель,
(1+сЬф) ехр < — ~ (ц—v) (ф + sh ф)—~ (p+v) сЬф > <7ф =
А'ДД—цилиндрическая функция мнимого аргумента.
Если в качестве оптимальной оценки принять оценку по
минимуму среднего квадрата ошибки
(ty) = M{9(r)}=z(/),
то дисперсия ошибки оценки 7?Е) = М{Г0(Д — z(/)l2} = M{02(/)} —
— 2M{0(nz(r)} + M{z2(z)}. Учитывая, что 02(/)=1, М{М{0(г)z(t\\
=M{z2p)}, имеем 7?(?) = М{1 —z2(/)}. Для стационарного
состояния после перехода к новой переменной ф получим
348
=М 2—->=2С
s |l+ch<pj
exp < —(p — v) (cp + shcp) —
(7.7.10)
В симметричном случае (p = v), когда моменты времени смены
состояний описываются законом Пуассона, формулы (8) и (10)
упрощаются. В частности,
R 2Ko^No/2) ___
sl K0(nN0/2)+Kl(nN0/2y
В рассматриваемом примере можно найти вероятность оценки
0(/) в каждый момент времени по максимуму апостериорной
вероятности
0*(/)=max~1 {Pi (г), p2(t)} = sgnz(r).
Ошибку оценки с(г), которая может принимать два значения 0 и 1,
можно определить выражением
е(г) = (1/4)[О(г)-0*«.
(7.7.11)
Вероятность ошибки с (г), принимающей лишь два возможных
значения 0 и 1, равна
Ре = М{е(ф=(1/4)М{М{[0(О-9*(г)]2|^}в}^ =
=(i/4)M{i-2M{e(r) I £‘о} e*(f)+i}^ =
=(1/2) [1 —M{z(r) sgnz(f)}] = (l/2) [1-M{|z|}].
Но | z ^^/(сЬф— l)/(ch(p +1). Поэтому
I shcp | exp ~(p—v)((p + sh ф)—
e 2 2
—(p + v)chcp > dtp.
(7.7.12)
Эта формула для симметричного случая (p = v) упрощается:
1___________ехр(—р.7У0/2)________
2 2(ц^/2)[Х0(ц^/2) + Х1(ц#0/2)]'
(7.7.13)
349
Рис. 7.2. Вероятность
ошибочного приема сим-
метричной цепи Маркова
(кривая 1) и детермини-
рованных биполярных си-
гналов (кривая 2)
Рис. 7.3. Целочисленный пуассо-
новский процесс
Если вместо симметричного процесса 0(г)=±1 рассматривать
аналогичный процесс с двумя состояниями 9(г)=±Л, то вместо
(13) придем к формуле
р _1 уехр(1/<у) 2Л2(1/ц)_2£ (7 7 143
° 2 2[^о(1/9) + К1(1/9)]’ 4 No No >
Так как средняя длительность пребывания процесса 0(() в состояниях
±А равна ц-1, то величину Е=А2/ц можно трактовать как
среднюю энергию одного элементарного «импульса», а параметр
q—как отношение сигнал-шум.
Зависимость Ре от q представлена на рис. 7.2 (кривая /). Для
сравнения приведена кривая 2, построенная по формуле (9.3.18),
характеризующая потенциальную помехоустойчивость приема про-
тивоположных детерминированных сигналов. Виден существенный
проигрыш в помехоустойчивости (вероятности ошибки) симметрич-
ной цепи Маркова по сравнению с биполярными детерминирован-
ными сигналами.
2. Модернизированная цепь Маркова. Пусть процесс 0(г) может
принимать К значений Э15 ..., однако в отличие от обычной
простой цепи Маркова (§ 3.2) смена этих состояний может проис-
ходить только в фиксированные моменты времени tv = t0 + vT,
v=0, 1,2, ..., разделенные постоянным интервалом времени Т.
Значения дискретного процесса на разных интервалах представляют
собой цепь Маркова с матрицей вероятностей_перехода П = {л;у}
и вектором начального состояния Ро = {^°}, г=1, К. Такой моделью
можно описывать передаваемые сигналы цифровых систем связи.
Заметим, что для рассматриваемого процесса 0(() вероятность
перехода в непрерывном времени имеет вид
p(z, t+x | j, () = Р{0((+т) = Э;|0(/) = Э;} =
= (8ji’ t+x<t^1’ (7.7.15)
(nji, t и t + x лежат в соседних интервалах,
350
где 8ji—символ Кронеккера. Иначе говоря, в точках t = iv,
v = 0, 1, 2, вероятность перехода имеет разрыв:
lim p[i, Zv4-e | j, tv—E) — nji, £>0. (7.7.16)
£—*0
Конкретизируем основное уравнение (7.3.8) применительно к про-
цессу 0(z) при наблюдении
^(/) = х(/, 0(z))+no(z). (7.7.17)
Выделим £ — окрестности (/v—£, Zv+e) возле каждой точки раз-
решенной смены состояний. Рассмотрим раздельно интервалы
(zv —е, zv + e), в которых процесс 0(z) может менять значения,
и интервалы [zv+e, tv+l — е], v = 0, 1, 2, ..., где процесс остается
постоянным.
В интервале [zv+e, Zv+1 — е] процесс 0(z)=const и L {р(t, 0)} = 0.
Поэтому апостериорная вероятность pI-(z)=P{0(z)=91-} удовлетворя-
ет уравнению
dPi (t)/dt = [F; (z) - F(t)] Pi (t), (7.7.18)
i K
w- -J- [ад-*о. ад2, ад= z л(')ли (7.7.19)
;V0 1
с начальным условием р;(/у+е).Для полного описания процессов
нужно получить соотношение, связывающее р^^+е) и Pi{tv — s)
при е—>0.
Покажем, что можно пренебречь влиянием результатов наблюде-
ния на интервале (zv—е, zv+e) при е-»0, если имеет место инфор-
мационная непрерывность (непрерывность апостериорной п. в. по
интервалу наблюдения), т. е. выполняется соотношение
a(?v + °)= ,im + 0 = 9,-1 ^+e) =lim P(^v + £,
E-»() E—>0
0 = 9,. | ^-E). (7.7.20)
Действительно, применяя формулу Байеса в записи п(д | ВС)
= Р(А | В) Р(С| АВ){Р(С\ В), можем написать
p(zv+E, 0=9,1 ^+Е)=р(Zv+£, 0=9; I VrEs
=p(zv+E, 0 = 9, | ^-Е)р(^ГД ^-Е, 0 = 90 С(е), (7.7.21)
где С(е)=1/р(ег'’+*Щ_е)—нормировочный коэффициент. В нашем
случае функционал правдоподобия записывается в виде
с(Е)Р&:-е1^-Е’ 0 = 9;) = с1(е)ехр{ f Л(т)л1.
11,-г J
351
При е—>0 имеем limexp(-)=l и из условия нормировки
е->0
limC,(£)=l. Тогда из соотношения (21) следует
lim /?(zv+£, 0=9f | ^'v+E)=lim p(tv+£, 0 = 9,-1 E),
s-т F.-m
что и доказывает справедливость равенства (20).
Теперь нужно связать /?(zv+e, 0 = 9; | которая по смыслу
является экстраполированной в точку zv + e вероятностью, с текущей
апостериорной вероятностью Pt(tv — c)=p(zv — с, 0 = 9; | Д; Е) при с->0.
Для вероятности p(zv + s, 0 = 9; | До,1;) с учетом (16) и всех возможпых
переходов в состояние 9; из разных состояний 1Д, j = 1, К, имеем
lim />((,+£, 0 = 9(| ^-Е)= lim £ п^р^-Е, 0 = 9; | ^'Е) =
с->0 e->0j=i
= Е lim 9 = 9./1
J=1 Е->0
Учитывая (20), окончательно получаем
/< + °)= Z (7.7.22)
j=i
Уравнения (18) и (22) дают полное решение задачи фильтрации
дискретного процесса 0(z). На их основе в §9.4 будет решена
задача различения двух зависимых сигналов, описываемых цепью
Маркова.
3. Фильтрация интенсивности пуассоновского процесса. Из воз-
можных различных формулировок задач фильтрации, связанных
с целочисленным пуассоновским процессом N(t) и его обобщениями
[4], рассмотрим простейшую. Пусть параметр интенсивности пу-
ассоновского процесса зависит от времени, является марковским
процессом с априорным уравнением
dp(t^/dt = Ldp((^)} (7.7.23)
и подлежит фильтрации по наблюдению процесса JV(z).
Особенность задачи состоит в том, что из-за отсутствия
аддитивного БГШ нужно по-своему вычислять функционал
правдоподобия. Обозначим точки, в которых процесс N(t)
имеет положительные скачки, через z]5 t2, ..., tk, ... (рис. 7.5).
Разобьем временную ось на достаточно малые интервалы
времени длиной А, содержащие не более одного скачка.
На основании определяющих свойств пуассоновского процесса
для функционала правдоподобия имеем
352
п/№+А|Х) = р-^д + °(Л) ПРИ Л^ + Д)-У(0 = О,
' 1 (ХД+о(Д) при N(t+Д)—N(t)— 1.
Первое из этих равенств справедливо для всех интервалов Д, не
содержащих скачков, т. е. для всех te(tk, tk+i), к=\, 2, 3, а вто-
рое— для интервалов, содержащих по одному скачку. Интервалы
последнего типа устремим к нулю так, чтобы они все время
содержали скачки, а оставшиеся пусть стремятся к нулю произ-
вольным образом.
Учтем, что в уравнение фильтрации (7.3.8) нужно подставлять
F(t, Х) = lim Д-1 In/?(N{+Л|X) = lim ДIn(1 — ХД) =
А->о А^о
= lim Д '(~ХЛ)=-X, re(/k, zk+1).
А^о
В результате получим
3/?(/, Х)/аХ = £{р(/, Х)} + [Х-Х]д(/, X), te(tk, tk+1). (7.7.25)
В точках tk по формуле Байеса с учетом (24) имеем
/>(/к + 0, X)=C(t)p(tk-O, k)P{N(t + 0) = N(t-0) +
+ 1 | k} = C(t)p(tk-О, Х)ХД
или
p(tk + Q, X) = Xp(/t-0, X)/X(rt-O). (7.7.26)
Уравнения (25) и (26) в принципе дают решение задачи. Отметим,
что из методики их получения следует, что если параметр
интенсивности наблюдаемого пуассоновского процесса 7V(/) имеет вид
Х=/(/, ц(ф), где ц—марковский процесс с априорным уравнением
dp(t, ii)/dt = Ltl{p(t, и)}, (7.7.27)
то уравнения оптимальной фильтрации для процесса ц(/) имеют вид
dp(t, n)/dt = L}i{p(t, ц)} + [2И{/(t, ц)}-
~/(б н)]/> (к ц), te(tk,tk+1), (7.7.28)
^(^ + 0, = [i)p(tk-O, n)p(zk-O, ц)dfi. (7.7.29)
Процедура получения оптимальной оценки в соответствии с (25)
и (26) оказывается довольно трудоемкой и сложной. Она включает
выполнение следующих этапов:
1) приняв />рг(0, X) за р(го+О, X), вычисляем оценку Х(/1—0);
2) по формуле (26) 0, X) пересчитываем в />(^+0, X);
3) используя д(^+0, X) в качестве начальной для апостериорной
п. в., заданной уравнением (25), определяем p(t2 — 0, X) и соответ-
ственно X(z2 —0).
353
12—2247
4) повторяя эту процедуру к раз, получаем выражение апостери-
орной п. в. в любой момент времени.
Такой путь крайне трудоемкий, и его реализация в аналитической
форме возможна только в самых простых случаях (например,
когда X есть случайная величина). В других случаях нужно
применять приближенные методы решения.
Рассмотрим указанный случай, когда Х(?) = Х есть случайная
величина, равномерно распределенная в интервале [О, Л]. Поскольку
Х=const, то L{p(t, Х)} = 0 и уравнение (25) имеет решение
p(t, X)=p(tfc+O, Х)ехр|| Х(т)^т-Х(г-г4)1, (7.7.30)
Подставив сюда (26), имеем
p(r, X)=/>(zfc-O, ехр|} Х(т)й?т-Х(г-гА
lrA J
(7.7.31)
Так как в интервалах z/t] и [z/t, tk+ j] эволюция апостериорной
п. в. описывается одним и тем же уравнением (25), то согласно
(30) можем написать
С 1
p(rk-O, X)=p(zk_1+O, ХН j X^t/x-X^-z^Jk
Подставив это выражение в (30), получим
p(t, X)=jp(zt_1+O, Х)ехр( f x(ix)dx-k[t-tk^l)l-—-—.
Ч-. J М'*-о)
(7.7.32)
среднего
Продолжая последовательно указанную выше процедуру и по-
лагая zo = 0, в итоге придем к гамма-распределепию
p(t, Х) = Z [(kz)fc/A.! |е '^.
Пользуясь этой формулой, находим оценку по минимуму
квадрата ошибки и ее дисперсию:
X(z) = kp(t, X)tfX = ~2, R(t)= k2p(t,V)dk-k2=~
0 о
(7.7.33)
Оценка по максимуму апостериорной п. в. и дисперсия ошибки
равны
Xmax(z)=X/z, Rmax(t) = (k+2)/t2. (7.7.34)
Можно убедиться, что алгоритмы (25), (26) остаются в силе,
если требуется фильтровать X(Z) по наблюдению пуассоновского
процесса N(t) на фоне БГШ:
354
£(') = £ 8(r-^)+«o(r)’
к
что эквивалентно наблюдению процесса £,(г) = А(г)+1>(г), где г(г)
— винеровский процесс. Это объясняется тем, что изменения
процесса jV(z) однозначно связаны со скачками £,(?).
7.8. ФИЛЬТРАЦИЯ ДИСКРЕТНО-
НЕПРЕРЫВНЫХ ПРОЦЕССОВ
В формализованной постановке задача сводится к совместной
фильтрации дискретного 0(z) и непрерывного векторного Х(/)
процессов, от которых зависит полезный сигнал s(t, 0(r),X(r)) по
наблюдению
= 0(г)А(О) + «О(4 (7.8.1)
В дальнейшем процессы 0(f) и Х(г) предполагаются марковскими
и независимыми. Априорное задание дискретного процесса 0(zj
примем таким же, как и в (7.7.15): он представляет собой
модернизированную однородную цепь Маркова с заданной матрицей
вероятностей перехода П = {л,;}, i,j=l,k, причем смена значений
допускается только в фиксированные моменты времени tv = t0 + vT,
у —О, 1, 2, ..., разделенные постоянным интервалом времени Т.
Непрерывнозначный процесс Х(г) считается марковским диффузион-
ным; априорные сведения о нем заданы известным уравнением
ФПК (3.7.2):
л М ,
')=-еД>(М^ <)]+
1м
+^Xi^[^v(X, /)/>(Х, /)]=£Ш t)}. (7.8.2)
На практике такая формулировка задачи возникает при об-
наружении сигнала или различении сигналов одновременно с оценкой
неизвестных параметров полезных сигналов.
Изложим решение задачи1. При постоянном значении дискрет-
ного параметра 0(/) = Э; апостериорная п. в. р,(г, X)=/?(?, Э;, X) опре-
деляется уравнением Стратоновича (7.3.8):
ty=L{Pi(t, X)} + [Ff(r, X)-F(/)]A(/, X), (7.8.3)
где ГДг,Х)=-Ао1[^НО,Э.Д)]2; F(f)=£ fFf(r,X)A(r, X)rfX.
i=l X
1 Тихонов В. И., Смирнов В. А., Харисов В. Н. Оптимальная фильтрация диск-
ретно-непрерывных процессов//Радиотехника и электроника.— 1978.—Т. 23,
№ 7,—С. 1441 — 1452.
355
Правило «пересчета» п. в. p\t, X) в точках tv возможной смены
значений дискретного параметра 0(/) было установлено ранее
и дается формулой (7.7.22):
А-(^+0, Х) = f njiPj(tv-0, X). (7.8.4)
Уравнения (3), (4) дают принципиальное решение задачи фильтра-
ции смешанных, дискретно-непрерывных процессов, так как они
определяют алгоритм последовательного вычисления совместной
апостериорной п. в.
Укажем два возможных обобщения уравнений (3) и (4).
Во-первых, при получении этих уравнений предполагалось, что
моменты времени tv, v = 0, 1, 2, ..., возможной смены значений
дискретного параметра известны. На практике как правило, эти
моменты времени известны не точно, т. е. /у = /0 + Т+т(г), где
т(/)—случайное запаздывание сигнала. Если включить запаздывание
т в вектор случайных параметров X, то в более общем виде
можно записать /V = ZV(X). При этом полученные результаты останут-
ся справедливыми, если при выводе во всех уравнениях иметь
в виду, что tv является функцией непрерывных параметров X.
Во-вторых, уравнения (3), (4) легко обобщаются на случай, когда
сигнал принимается на фоне диффузионной помехи £ (X х) и белого
шума н0(?). Если включить параметры помехи х в вектор
X и понимать
Ft(t, Х) = -АГ-* [^)-s(/, 9,, Х)-^(/, X)]2,
то для апостериорной п. в. будут также справедливы уравнения
(3), (4).
Можно показать [7], что вероятность ошибки оценки дискрет-
ного параметра 0(г) на v-м тактовом интервале минимальна, если
вычислить апостериорные вероятности
= Х)^Х (7.8.5)
состояний 9; и выбрать в качестве оценки 0(v) то значение Э7-
дискретного параметра, для которого апостериорная вероятность
Pj(tv+i — 0) в конце v-ro интервала максимальна. Математически
такой алгоритм оценки дискретного параметра можно записать
0(v)=max_1 {Pi(tv+l— 0}, (7.8.6)
i
т. е. 0(v) равен тому значению 9;, для которого Pi(tv + 1—O)
максимальна.
Уравнения (3), (4) с учетом (5) и (6) дают решение задачи
оптимальной фильтрации дискретного параметра §(/). Однако
356
непосредственное практическое применение этих общих уравнений
оказывается весьма сложным.
С целью упрощения воспользуемся методом локальной гаус-
совской аппроксимации, используя два возможных представления
для смешанной апостериорной п. в.
p;(f, X)=p(f, X)p(f, 9JX), (7.8.7)
Pi(t, (7.8-8)
Каждое из этих представлений приводит к своему алгоритму
фильтрации.
Первый алгоритм фильтрации. Подставив (7) в (3) и суммируя
по z, получаем для непрерывного параметра 1(f) следующее
уравнение для апостериорной п. в. p(t, 1), справедливое для всех t:
^p(t, ty = L{p(t, X)} + [F(f, l)-F(f)]p(t, 1), (7.8.9)
где
F(f, 1)= £ Ff(f, l)/>(f, 9J1).
1 = 1
Для нахождения условной апостериорной вероятности P(t, 9; 11)
нужно в (3) подставить (7) и (9). Получим
^P(t, 9,.|l)=p(f, Ш)[Л(б 1)-F(f, 1)] +
+-L- [L{p(f, l)p(f, 9; | X)} -p(t, 9f | X) L{p(t, 1)}],
te(tv, fv+1). (7.8.10)
Соотношение (4) примет вид
/i(fv + 0,9Jl)=f лЛр(/у-0,9у|1). (7.8.11)
7=1
Оценка 0(v) дискретного параметра 0(f) на v-м тактовом
интервале осуществляется на основании (11):
0(v) = max-1 {p,.(fv+1-O)} =
I
= шах“11Jp(fv+i —0, 9; | X)p(tv+1 —0, X) cTk\. (7.8.12)
i lx J
Если выполняется условие
(7.8.13)
где ту—наименьшее время корреляции непрерывных параметров
1(f), то последним слагаемым в (10) можно пренебречь. Такое
357
упрощение справедливо, если непрерывные параметры Х(/) мало
меняются на тактовом интервале Т, что выполняется во многих
практических случаях.
При этом условии уравнение (10) упрощается:
~p(t, 9;|Х) = р(г, | X) [Ff(/, X)-F(/, X)], te(t„, tv+l). (7.8.14)
Оно имеет решение
p(rv+O, 8, | X) ехр | f F((t, X)
pit, 9f1 X)=--------------Ц
£p(rv+O, |X)exp|(t, X)4t|
te(tv, fv+1), (7.8.15)
где p(rv+O, 9; | X) вычисляется из (11).
Алгоритм оценки (6) дискретного параметра 0(7) при высокой
точности фильтрации непрерывного параметра Х(/) с учетом (15)
и монотонности экспоненциальной функции эквивалентен более
простому алгоритму
0 (v) = max _ 11 f F, (т, X) dt + Inp (rv+0, 9,-1 £)l. (7.8.16)
i I J
Для получения упрощенного алгоритма оценки X непрерывного
параметра и определения количественных характеристик оптимального
устройства обычно применяют различные приближенные методы (§ 10.2).
Второй алгоритм фильтрации. Если подставить (8) в (3) и выпол-
нить интегрирование по X, то для апостериорной вероятности
состояний дискретного параметра получим уравнение
(7.8.17)
где Ff (t) = J (t, X) p(t, X | 9.) dk,
x
а для v-й точки смены состояний 0(г) по-прежнему имеем
A-('v+0)= X зд(^~0). (7.8.18)
j=i
Подстановка (17) в (3) дает для условной п. в. непрерывного пара-
метра выражение
X | 9,.) = £{р(/, Х| 9;)} + [Е,(/, X)—
-Е((г)]р(;,Х;|9,.), re(rv, zv+1), (7.8.19)
358
p(tv + Q, X | 9f)= X nJiP(tv-O, X | ^Pj(tv-Q)/£ nfiPj(tv-O). (7.8.20)
Уравнение (17) имеет решение
ехр||г((т)</т|р((1у+0)
Р.(0=-«-----7-----(7-8.21)
£ ехр Н F,(t)</tU(/v+0)
1 = 1 ч.
Оценка дискретного параметра на v-м тактовом интервале
производится в соответствии с (6), которое с учетом (21) эк-
вивалентно правилу
0v = max-1j f F;(t) <7т+1п#(с+0)1. (7.8.22)
i I tv J
Методика получения квазиоптимального алгоритма для оценок
и корреляционных моментов условного распределения P(t, X | ЭЛ
для каждого i внутри тактовых интервалов (rv, rv+1) указана в § 10.2
на примере различения фазоманипулированных сигналов.
7.9. ФИЛЬТРАЦИЯ РАЗРЫВНЫХ
И НЕПРЕРЫВНЫХ ПРОЦЕССОВ
Рассмотрим задачу совместной фильтрации непрерывнозначного
Х(г) и разрывного 0(г) «параметров» полезного сигнала s(t, Х(г),
0р)) по наблюдению
х(0, в(0)+«о(0- (7-91)
Предполагается, что процессы Х(г) и 0(/) априорно независимы,
причем процесс Х(1) является диффузионным, a 0(f)—разрывным
(импульсным). Априорные сведения о векторном диффузионном
процессе Х(/) заданы уравнением____ФПК (7.3.1), а векторный
разрывный процесс 0(r) = {0fc, к— 1, г} описывается уравнением
Колмогорова—Феллера [4 ]:
^=-/M)+M(0) f
а1 -д
+ px8(0)f Ppr(t, tydS = L9{Ppr(t, 0)}, (7.9.2)
ф
где ____
fit o) = J^pr(^0) ПРИ 0k=0’ k=Kr,
’ 0) ПРИ 6t/0, k=l,r,
8(0)—многомерная дельта-функция, /5(0)—произвольная r-мерная
плотность вероятности. Область интегрирования в (2) разбита на
359
две подобласти (О—А, 0 + А) и оставшуюся подобласть, обозначен-
ную Ф. Такое разбиение связано с последующим предельным
переходом при Л-^0 и учетом характера рассматриваемого им-
пульсного процесса 0(z). Компоненты вектора 0(f), заданного
уравнением (2), представляют собой последовательности прямо-
угольных видеоимпульсов со случайными длительностями и ин-
тервалами между ними, распределенными по экспоненциальному
закону с параметрами Ц| и ц0 соответственно. Все компоненты
вектора 0(f) одновременно принимают нулевые значения (с конечной
вероятностью) или значения, отличные от нуля. «Амплитуды»
импульсов каждой компоненты взаимонезависимы, однако между
амплитудами импульсов различных компонент существует стати-
стическая связь, характеризуемая совместной п. в. д(0). Такой
моделью охватываются атмосферные, индустриальные и другие
виды импульсных помех. В этих случаях под s(t, X, 0) можно
понимать полезный сигнал, искаженный помехами.
Поскольку объединенный процесс {X(f), 0(f)} является марковс-
ким, то для него применимо уравнение Стратоновича
|/>(f, X, 0) = £ {p(t, X, 0)} + Le {p(t, X, 0)} +
+ [F(f, X, 0)-F(f)]/?(f,X, 0), (7.9.3)
где
F(t, X, 0)=-(1/Ао)[Д/)-Дг, X, 0)]2;
F(f)=JJF(t, X, 0)p (f, X, 0)t/XtZ0;
£{•} и L0{-}—априорные операторы (7.3.1) и (2).
Учитывая тот факт, что компоненты импульсного процесса
0(f) одновременно принимают нулевые значения с конечной веро-
ятностью, совместную апостериорную плотность вероятности при-
ближенно можно отыскивать в виде'
p(t, К 0) = Fo(f)^o(f, Х)5(0)+Л(г)Л(г, X, 0),
P0(f)+P1(f)=l. (7.9.4)
Здесь P0(f)—апостериорная вероятность того, что компоненты
импульсного процесса 0(f) принимают нулевые значения; РДД
— апостериорная вероятность того, что компоненты 0(f) принимают
отличные от нуля состояния; />0(f, X)—апостериорная п. в. непрерыв-
ных параметров при условии нулевых значений вектора 0(f);
p1(t, X, 0) — совместная апостериорная п. в. непрерывных и импульс-
1 Тихонов В. И., Ершов Л. А. Оптимальная фильтрация импульсного процес-
са//Радиотехника и электроника.— 1979.—Т. 24, № 3.— С. 551—556.
Ершов Л. А., Горев П. Г. Оптимальная фильтрация марковских процессов
с диффузионными и импульсными компонентами//Радиотехника и электроника.—
1981,—Т. 26, № 10,—С. 2089—2094.
360
ных компонент при условии отличных от нуля состояний компонент
вектора 0(г).
Получим уравнения фильтрации непрерывных и импульсных
компонент. После подстановки (4) в (3) имеем
^Р<^ к)6(0) + Ро(/)^6(0) + 5/Л(г, к 0)+
х)}+л(/)£{л(/, х, 0)}-
- Ф (к, 0) + цод (0) Ро (Г) р0 (М)+И18(0) Р. (?) Pl (г, к) + (7.9.5)
+ [F(?, 1, O)-F(r)] P0(t)p0(t, к) 8(0) + [F(z, 1, 0)-
-F^P^p, (г, 1, 0),
где
м 0к = 0, к=1,г,
₽ь ’ 0^0, £=1, г,
pr(t, 1) = f рг (?, к, 0) t/0.
Получим дифференциальное уравнение для P0(t). Для этого
проинтегрируем (5) по 0 в окрестности нуля и по к в бесконечных
пределах. После интегрирования по 0
^+P0(t)d-^ = P0(t)L{p0(t, K)}~^P0(t)p0(t, 1)+
+ ц1Р1(?)р1(л X) + [F(r, 1, 0)-F(r)]Po(?)A(?, к). (7.9.6)
Выполнив интегрирование по к, получим
^=_ИоРо(/)+И1Р1(/)+
+ F(tA, 0)po(tA)dl-F(t) P0(t). (7.9.7)
Если умножить (7) на p0(t, к) и вычесть результат из (6), то
придем к следующему уравнению для р0(?, X,):
МШЛО) Ыг, Х)]+
+ [F(r, к, O)-fF(r, X, 0)/>o(r, k)^]F0(r)/?0(r, 1). (7.9.8)
При получении уравнения для Рх (0 нужно умножить (6) на
8(0) и вычесть результат из (5):
361
^=-H1P1(z)+p0P0(z)+
с~грЛ^ К о)+л(0-“~:±)=А(?)^{р1(^ к о)}-
-Н1Л(0/’1(г’ Ъ 6)+НоРо(6)Ро(0/?о(^ ^) +
+ [F(Z, к, O)-F(z)] Pr(t)P1(t, к, 0). (7.9.9)
После интегрирования (9) по к и 0 имеем
со
F(t, К 0)P1(t, К 0) JkJO-
— оо
-F(z) P^t). (7.9.10)
Если умножить (10) на pt(z, к, 0) и результат вычесть из (9), то
получим уравнение для р{ (z, к, 0):
Л(0^Ц^==Л(')Иа(', к,е)} + ИоРо(0[^(6)/’о(Л м-
-Pl (z, к, O)] + [F(z, к, °)Pi ('> к’ °)dlrfe] х
xP1(z,k,0)Ft(z). (7.9.11)
Уравнения (7), (8), (10) и (И) в совокупности дают алгоритм
совместной фильтрации диффузионных k(z) и разрывных 0(z)
параметров сигнала. Для упрощения алгоритма можно применить
приближенный метод локальной гауссовской аппроксимации (см.
§10.1.4), при котором апостериорные п.в. р0(/, к) и p^t, к, 0)
полагаются нормальными.
7.10. ПОРОЖДАЮЩИЙ ПРОЦЕСС
Пусть задан стохастический процесс E,(z), Ze(O, Т). Порож-
дающим процессом n3(t), Ze(O, Г), называют такой белый гауссовский
шум, по которому процесс E,(z) может быть вычислен на основании
zz3(z) посредством детерминированного и детерминированно-обра-
тимого преобразования. Если преобразование линейно, то ^(z)
будет гауссовским. Основной смысл введения порождающего
процесса заключается в том, что n3(t) и E,(z) содержат одну
и ту же «статистическую информацию», поскольку возможен
переход в реальном времени от одного процесса к другому. При
этом zz3(z) является более простым процессом, чем q(z), значения
которого в разные моменты времени могут быть статистически
связанными.
Использование n3(z) вместо ^(z) получило в литературе название
метода порождающего процесса. При этом упрощается решение
362
ряда задач. Частным примером метода являются обеляющие
фильтры для гауссовских стационарных процессов.
Рассмотрим характеристики процесса n3(t) применительно
к задаче фильтрации случайного сообщения k(z) по наблю-
дению
^(0 = 4?, Х)+«о(0> (7.10.1)
где «0 (/) — БГШ с нулевым м. о. и односторонней спектральной
плотностью No.
Пусть s (z) есть оценка полезного сигнала s(t, к) по критерию
минимума среднего квадрата ошибки при наблюдении ^0:
.?(0 = M{.0z, к)|^0}=Й(л tydb, (7.10.2)
где p(t, 'k)=p(t, k|^o) — апостериорная п. в., определяемая решением
уравнения Стратоновича. Определим порождающий процесс соот-
ношением
(7.10.3)
Покажем, что n3(t) есть БГШ с характеристиками
М {п3(z)} = 0, М {иэ(tl)n3(t2)} = No5(t2- tl)/2. (7.10.4)
Согласно (3) имеем
M{«3(0} = M^(0}-M{00} = M{5(z,k)+«o(0}-M{f(0} =
=M {M {5 (ZД)| } X } % - M (0) = М {00} - М {.V (0} = 0.
Представим иэ(г) в виде «3(z) = e(z)+«0(z), где е(г) = .Дг, к)-s(t).
Тогда
М {п3 (t)n3 (z+0} = М {пз (0 [е(t + 0+п0 (Z + 0]} =
= М {пз (0Е (Z + 0} + М {е (0Ио (Z + 0} + м {п0 (0no (t + 0}. (7- ’ °-5)
Здесь первые два слагаемых в правой части равны нулю. Дей-
ствительно, пусть О0. Имеем
М {пэ (0Е (t + 0} = М {М {пз (0Е (г + 01 ^'о+1 К } =
= M{M{e(z+0|^+t0«3(0U = O, (7106)
так как по определению s(t + z) справедливо равенство
М{е(/+т)|^'о+т} = 0. Вынос h3(z) за знак м. о. M{-|^'0+t}z возможен
потому, что при фиксированном наблюдении 0,гт шум «3(z)
есть известная реализация. Второе слагаемое в (5) равно нулю,
т. е. e(Z) и h0(z+t) некоррелированны при т^0 вследствие
того, что белый шум h0(Z+t) не зависит от k(z) и оценки
s(z), определяемой 1,‘о:
M{e(0ho(z+0} = M{[0/, k)-5(0]«o(z + x)} =
= М {0Z, k)} М {п0 (z+0} - М {s(0} М {п0 (Z+т)} = 0. (7.10.7)
363
Отметим, что из (6) следует
m!».We(<+4!={o:M!e(')E('+T)1’ Zo.
Таким образом, из (5) с учетом четности корреляционной
функции получаем
М И (фэ ('+т)} = м {«о (0ио (t+т)} = МД (т)/2, (7.10.8)
т. е. шум пэ(/) является белым. Доказательство того, что он
гауссовский, требует привлечения специального математического
аппарата.1 Однако путем нестрогих рассуждений можно понять,
что одномерное распределение пэ(/) нормальное.
Шум нэ(0 представляет собой сумму двух слагаемых
n.3(t) = &(t) + n0(t), где первое слагаемое s(7) — ошибки оценки
s(t, к) — имеет распределение д.(е; /) с нулевым м. о. и ограниченной
дисперсией, а второе слагаемое n0(z) нормально распределено
р0(п0; t) с нулевым м. о. и дисперсией, стремящейся к беско-
нечности. На практике (в допредельном варианте) дисперсия п0(/)
велика по сравнению с дисперсией е(/). Поскольку е(7) и
п0(/+т) при т>0 некоррелированны, то п. в. суммы р3(п3; t)
равна свертке «широкой» нормальной п. в. р0(п0; I) и «узкой»
п. в. pe(s; Z):
а(«э; 0=.(/?о(«э-е; ?)л(е; Фе~Ро(яэ; 4 (7.Ю.9)
Для многомерных п. в. ситуация осложняется из-за зависимости
s(z) и и0(7 + т) при т<0. Поэтому приходится обращаться к со-
вместной п. в.
/фо, е) =РЫ фе(4
Рассматривая ^-мерные векторы пэ = {нэ(г1), ..., n3(tk)}, п0 = {п0(/1),
— Е = {£(Д)> е(Ш получаем
Рэ (",)=4 (п, - ЕI Фе (е)</£ ~р (пэ | е = 0).
Здесь /?,. (е) выполняет роль Р-мерной дельта-функции. Естественно
считать, что р(лэ| е = 0), имеющая смысл п. в. шума п0 при нулевой
ошибке (е = 0), близка к безусловной п.в. р0(п0), т. е.
Р-,(п,)~Ро(пД (7.10.10)
Следовательно, многомерные п. в. процесса n3(t) нормальные и n3(t)
есть БГШ.
Укажем два обобщения полученного результата. Во-первых,
результат можно обобщить на случай, когда к(/ + т) и п0(/)
1 Кайлатц Т. Метод порождающего процесса в применении к теории об-
наружения и оценки//ТИИЭР,—1970,—Т. 58, № 5,—С. 82—99.
364
Рис. 7.4. К пояснению
порождающего процесса
зависимы, но только при т>0. Это следует из того, что при
получении равенства (7) и, следовательно, (8) использовалась только
независимость k(z) и и0(?+т). Данный случай позволяет охватить
некоторые системы с обратной связью, в которых текущее сооб-
щение Х(7) зависит от прошлых значений _шума (например, при
передаче коррекции ошибки k(z) = k(z — А) — £(/—А), Д>0, если на
передающей стороне известна оценка £.(/ —т) с некоторым запаз-
дыванием).
Во-вторых, результат (8) и метод его получения справедливы
и для векторных процессов пэ (/) = !;(/) — s(Z). В данном случае если
M{n0(z)nb(z+T)} = N5(T), то
M{n3(/)nHr+T)} = N5(4 (7.10.11)
Поясним теперь название «порождающего» процесса
r/3(/) = q(/)~s(t). Согласно его определению нужно показать, что
n3(f) позволяет вычислить £(/) и наоборот. Преобразование
^ (/)->«(/) по существу задано выражением (3). Обозначим
Ц0=Аи‘о}, где h {• 1 для марковского процесса X (г) есть интег-
ральный оператор (2). Тогда преобразование q (/)->«.,(/) записыва-
ется в виде (рис. 7.4, а)
Отсюда следует обратное преобразование (рис. 7.4, б)
и0=лэ(0+/г {У-
При этом требуется, чтобы схема рис. 7.4, б не самовозбуждалась.
Для этого необходимо, чтобы существовал оператор (/—Л)1,
обратный оператору (I—h):
Это имеет место, если ряд (/— h)-1 = I+h + h2 + ... сходится, т. е.
|й|<1, где |/г| — норма оператора (например, если h—матрица, то
| h | — наибольшее собственное число).
Сходимость ряда просто доказывается для гауссовских про-
цессов при линейном наблюдении, когда h(-} — линейный
оператор Вольтерра, который имеет только нулевые собственные
значения'.
' См. сноску на с. 364.
365
Глава 8. ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ
8.1. АЛГОРИТМЫ ОПТИМАЛЬНОЙ ЛИНЕЙ-
НОЙ ФИЛЬТРАЦИИ
Приведем решение сформулированной в § 7.1 задачи линейной
фильтрации.
Дискретная фильтрация. Для уяснения методики решения
задачи рассмотрим сначала частный случай линейной фильтрации
в дискретном времени, когда уравнения наблюдения (7.1.4)
и сообщения (7.1.5) являются линейными и заданы в виде
скалярных разностных уравнений:
^ = HvXv+uv+nOv, (8.1.1)
X^IViVj+л^ Ц0) = Ц, (8.1.2)
где = uv=u(tv) и PV=(J(/V) — заданные функции времени;
nOv и niv — дискретные БГШ с нулевыми м. о. и дисперсиями
Z>ov = A'o/2A и £>Xv соответственно. Начальное значение А.о, является
нормально распределенной сл. в. с известной априорной п. в.
Рр>-(Ло) и> в частности, является детерминированным (нормально
распределенной сл. в. с м. о. А,о и нулевой дисперсией).
Согласно (2) все значения \ получаются в результате
линейного преобразования последовательности независимых нор-
мально распределенных сл. в. nXv, v = 0, 1, 2, ... Поэтому при
нормальном распределении начального значения Хо сама после-
довательность Ц будет также нормально распределенной.
Случайная величина согласно (1) есть сумма двух взаимно
независимых нормально распределенных сл. в. Hvkv и nOv. По-
этому совокупности сл.в. £о~1 = Р;оЛ> ..., £,v-ij и {Ц-1Д01}
являются совместно нормальными. По правилу умножения веро-
ятностей имеем
^сГЦр^'о-1)-
Известно, что условные п. в. совместно гауссовских сл. в. являются
нормальными. Поэтому п. в. ^(7-v-il^o1) будет нормальной.
Следовательно, апостериорная п. в. на (v— 1)-м шаге является
нормальной, т. е. имеет вид
Р(A-v-11 ) = q ехр [-(Xv-i - Xv_!], (8.1.3)
где Cj — нормировочная постоянная; —условное м. о., яв-
ляющееся оптимальной оценкой — апостериорная дис-
персия.
Условную п. в. p(A,vjA,v-i) находим из уравнения (2), согласно
которому Xv при фиксированном значении A.v_! представляет
366
собой сумму неслучайного слагаемого Pv-Ду-! и гауссовского
шума с нулевым м. о. и дисперсией D^v. Поэтому
р (Xv| К_!) = с2 ехр [ - (\ - pv_ Av_!) 2/2Z\v] • (8.1.4)
Подставив п. в. (3) и (4) в (7.2.8) и выполнив интегрирование,
получим
/?(Xv|^^-1) = c3 exp [-(Xv-pv_ Av_1)2/2(₽v2_17?v_1+Av)]. (8-1.5)
На основании указанных выше пояснений записываем
условной п. в.
р (£v | Xv) = с4 ехр [ - (£v - uv - Hv kv) 2/2DOv ].
Основная формула (7.2.7) после подстановки в нее
(5) и (6) принимает вид
pp.v|^) = Cexp
(Xv-pv_X-i)2 (tv-uv-HvXv)2
2(P2-i^v-i 2Z>ov
выражение
(8.1.6)
выражений
(8.1.7)
Поскольку показатель экспоненциальной функции есть поли-
ном второй степени относительно Xv, то условная п. в. р(\|^о)
является нормальной. Согласно методу математической индукции
она будет нормальной при любом V, если начальное значение
Хо фиксировано или распределено по нормальному закону.
Параметры нормального закона (7) — м. о. Xv и дисперсию
Rv — проще всего найти, если стандартное выражение нормальной
п. в. записать в виде
(2лЛ) 1/2 ехр
(X — X)2
27?
„ / X2 - X \
= Сехр —----------|-Л,— .
1 \ 27? 7? /
Отсюда видно, что м. о. X есть коэффициент при k/R, a \/R—
коэффициент при — V/2.
Руководствуясь этим замечанием, из (7) получаем
Xv — Pv -1 Xv _ j + kv (cv — uv — Hv Pv _ j Xv _ j),
(8.1.8)
—=—-------1—(8.1.9)
7?v Pv-17?v_ i +Z\V DOv
kv=Hv(Rv/DOv). (8.1.10)
Уравнение (8) определяет алгоритм формирования оптимальной
оценки, а уравнение (9) — эволюцию апостериорной дисперсии.
Эти уравнения принято называть уравнениями фильтра Калмана.
Схема такого фильтра изображена на рис. 8.1 для wv = 0.
Заметим, что в уравнение дисперсии (9) входят только известные
функции времени t; в отличие от (8) оно не содержит наблюдения
Поэтому уравнение (9) может быть решено заранее, до начала
работы фильтра, вследствие чего функцию R(tv) и коэффициент
k(tv) следует считать известными функциями времени.
367
Рис. 8.1. Схема фильтра Калмана
Предположим, что наблюдения отсутствуют, т. е. H(tv) = 0.
Тогда апостериорная п. в. совпадает с априорной и из (8) имеем
Xv=pv_1V1. (8.1.П)
Это есть уравнение экстраполированной оценки на один шаг, т. е.
прогноза Xv по априорным данным; его можно было бы получить
осреднением обеих частей уравнения (2) по априорному распределе-
нию X и пх. В данном случае фильтр Калмана вырождается
в фильтр, который обведен на рис. 8.1 штриховой линией. Это
формирующий фильтр для передаваемого сообщения (2). Следовате-
льно, априорные сведения о сообщении «заложены в конструкцию»
оптимального фильтра. Этот результат имеет общий характер.
На входе фильтра Калмана из принимаемого колебания qv
вычитается его предсказуемая часть uv-yHv^>v-itkv-i. Из этой
разности с весовым коэффициентом kv и из априорных сведений
Ру-Ду-! формируется оптимальная оценка Xv. Процедура получе-
ния оценки является рекуррентной (т. е. повторяющейся), очень
удобной для реализации на ЭВМ.
Полученный фильтр оказывается нестационарным (с изменя-
ющимся во времени коэффициентом усиления /<\,), причем нестаци-
онарность остается даже в том случае, если величины р, Dv,
Н, и и Dq являются постоянными. Это обусловлено процессом
установления дисперсии Rv. В тех случаях, когда Р, Dx, Н,
и и Do — постоянные величины и существует предел Rs,= lim Rv,
оценку часто формируют в соответствии с уравнением
^ = ^^1+H(Rst/D0)^v-uv-H^v-1). (8.1.12)
Полученная таким путем оценка, вообще говоря, является
неоптимальной. Однако во многих случаях будет иметь место
ее асимптотическая (при zv-> оо) оптимальность. Фильтр с посто-
янными параметрами, реализующий алгоритм (12), называется
квазиоптимальным, или стационарным. В практической реализации
он много проще нестационарного.
Укажем, что уравнение оптимальной линейной фильтрации
(8) можно моделировать не только с помощью линейного
368
фильтра с обратной связью (см. рис. 8.1), но и с помощью
фильтра разомкнутого типа. Для этого перепишем (8) в виде
^=p'v_Av_1 + ^v(/?v/Z>Ov)(^v-wv), = pv_! [1 _(Rv/DOv)H2v].
(8.1.13)
Уравнению (13) соответствует моделирующий линейный фильтр
разомкнутого типа.
Заметим, что при линейной фильтрации в уравнение для
дисперсии (9) наблюдение ^(г) не входит. Поэтому средний
квадрат ошибки при оптимальной линейной фильтрации совпадает
с апостериорной дисперсией. В теории нелинейной фильтрации
такое совпадение в общем случае не имеет места.
Аналоговая фильтрация. Получим уравнения оптимальной
линейной фильтрации в непрерывном времени, совершив пре-
дельный переход при А->0 в соответствующих уравнениях с диск-
ретным временем. Для этого следует вспомнить методику
перехода от аналогового наблюдения к дискретному (6.1.11),
согласно которой Сообщение предполагается задан-
ным линейным стохастическим дифференциальным уравнением
б?Х/Л + а(/)Х = лх(/), (8.1.14)
общее решение которого для момента времени tv при начальном
значении X(tv-i) дается выражением
tv tv tv
X(/v) = X(/v_1)exp(— j а(т)б/т)+ j иДт)ехр(— j a(x)dy)dT.
tv-i rv_t T
(8.1.15)
При достаточно малом постоянном шаге дискретизации по
времени A = /v — /v_ j = const и гладкой функции a(z) это решение
можно записать иначе:
~^a(zv-i)]^v-i+«kV, (8.1.16)
f «хМехр-а^-!)^-!)^.
Полученное разностное уравнение приведено к виду (2), только
теперь в нем нужно положить pv_j ® 1 — Aa(tv_ J.
Подставив в (8) значения DOv и Pv-i, имеем
+я(<,-,+д) 2К|';,‘+д) К (<„-,+д) - н(<-,+д) (I -
Полагая А->0 и отождествляя tv-i с текущим временем, получаем
369
dfydt= -a(t)i+k(t)[^t)-H(t)K], k(t)=2H(t)R(t)/N0. (8.1.17)
Начальным значением для этого уравнения является м. о. ап-
риорной п. в. р_г(Х0).
Уравнение (17) определяет алгоритм оптимальной линейной
фильтрации в непрерывном времени; он имеет ту же структуру,
что и при фильтрации в дискретном времени. Первое слагаемое
в правой части учитывает априорные данные о фильтруемом
сообщении, а второе — поправку к нему на основе наблюдений.
Тот факт, что в структуру оптимального линейного фильтра
непосредственно входит формирующий фильтр сообщения (первое
слагаемое), в теории линейной фильтрации имеет общий характер.
Линейный фильтр может быть выполнен по схеме с обратной
связью или по разомкнутой схеме.
Как и в дискретном варианте, уравнение (17) нужно дополнить
уравнением для определения апостериорной дисперсии R(t). Для
этого следует в (9) подставить DOy, = NQl2&, D^ = Nx^I2i и, имея
в виду последующий предельный переход А->0, воспользоваться
приближенными равенствами
P2-i = P2(C-i)^[l-^a(C-i)]2~l-2a(tv_1)A,
(/v -1 + А) ~ У? (С-1 }~\~{dR (tv-1 }/dt}A.
После этого уравнение (9) примет вид
' dR^.^/dt V1 Г , Лл1-1-С
+Ah2(/v_1+a)jr(zv_1+a)a.
^*0
Применив приближенное равенство (1+х)-1«1 — х, |х|<1, по-
лучим окончательное дифференциальное уравнение для апостери-
орной дисперсии:
d^-Nx-2^t)R-^-H2{t)R2. (8.1.18)
Это уравнение нужно решать при начальном условии R (0) = ,
где D~t —дисперсия априорного распределения дрг(Х0).
Спектральную плотность Nx шума nx(t\ из которого фор-
мируется фильтруемое сообщение (14), можно выразить через его
дисперсию. В частности, при a — const имеем Nx — 4aDx. В данном
случае (18) несколько упрощается:
dR/dt = 2ad\ - 2 а. R - (2/N0)H2 R2. (8.1.19)
Уравнение (18) является частным случаем уравнения Риккати
dR/dt = a(t) + b(t)R + c(t)R2.
370
Известно. что решение его не может быть выражено в квад-
ратурах, за исключением нескольких частных случаев. Поэтому
его обычно решают численными методами с помощью ЭВМ.
Однако, если известно частное решение (например, стационарное
Rst), то с помощью замены /?(г) = R0(t) + Rst оно сводится
к уравнению Бернулли
dRQ Idt = [2с (t)Rst + h (t )]/?0 +
которое интегрируется. Кроме этого подстановкой R(t) = F(t)/G(/)
уравнение Риккати сводится к системе из двух линейных уравнений:
dF(t)[dt = (1 /2) Z> (r)F(r) + a (t) G (t),
dG{t}ldt = ^\l2)b(t)G{tyc{t)F{t).
Приняв начальное значение G (0) = 1, получим F(0) = К (0) = DK .
В рассматриваемом примере Н = const и все коэффициенты
в уравнении Риккати (19) постоянны, что позволяет получить
его аналитическое решение. Перейдем в (19) к безразмерному
времени т = а/, введем относительную апостериорную дисперсию
фильтрации сообщения
8(г) = /?(г)/Рх (8.1.20)
и отношение сигнал-шум в принимаемом сигнале
q = Н2D}:N(tbd'..=d!l2 DJ<y.NQ, где А/э- энергетическая ширина спе-
ктра сообщения. Тогда уравнение (19) примет вид
(I /2)(78/Л =1—8—(1 /4) 82. (8.1.21)
Решение этого уравнения с разделяющимися переменными из-
вестно:
8 (т) = R (т)/Д. = (- 2/q) cth (- + Фо) + 1 ], (8.1.22)
где постоянная интегрирования ф0 находится из начального
условия и определяется из равенства
cth ср0 = -(1 +(1/2)</8(0))(1 + q)~|/2.
При детерминированном начальном значении А,о имеем /?о = 0,
3(0) = 0 и (p0 = arcth [ — (1 +q) ”1/2 ]; если же принять /?(0) = £\,
т. е. 8(0)= 1, то (p0 = arcth [ — (1 +<//2)(1 + </) 1/2 ]. Из (21), положив
d§ldt = Q, находим стационарное значение относительной диспер-
сии фильтрации
8.„ = ЛиЖ = (2/^(/1~+^-1); 8i(«2<J/2 при <7»1. (8.1.23)
Зависимость 8(т) от времени для трех значений q изображена
па рис. 8.2 (сплошные кривые). Видно, что длительность установ-
ления стационарного режима фильтра сильно зависит от от-
ношения сигнал-шум; чем больше отношение сигнал-шум, тем
меньше длительность переходного режима.
371
Рис. 8.2. Относительная апостери-
орная дисперсия ошибки фильтра-
ции при трех отношениях сиг-
нал-шум
Рис. 8.3. Чувствительность диспер-
сии ошибки фильтрации к измене-
нию коэффициента усиления
фильтра
Пример 8.1.1. Сравнение характеристик оптимального и квазиоптимального
фильтров. Пусть наблюдение и сообщение заданы уравнениями
Е,(z) = X(z) + п0(z); dX/dtаХ + лД/), Х(0) = Хо. (8.1.24)
Для данного примера остаются в силе уравнения дискретной (8), (9) и непрерывной
(17), (18) фильтрации, а также решение (22), нужно лишь в них положить
a(z) = a = const, //(z)=l, zz(z) = O, Р=ехр( —аД), Z\V = Z\(1 — р2), Dk = NJ4a..
В частности, уравнения фильтрации в непрерывном времени имеют вид
dX/dz = a(z)-a£ + A:(z)[^(z)-X], k(t}=2R(t}/H0, (8.1.25)
dR/dt = 2aJ\ - 2aR - (2/N0) Rг. (8.1.26)
Выше указывалось, что для упрощения реализации фильтра часто в оп-
тимальном фильтре переменный коэффициент усиления к (t) заменяют постоянным,
равным его стационарному значению fcsl = 2.Rs(/2V0 = a(^/l + q — 1). При этом ясно,
что оптимальный (нестационарный) фильтр и квазиоптимальный (фильтр с посто-
янными параметрами) в стационарном режиме имеют одинаковые характеристики
и замена k(t) на kst оказывает влияние на качество переходного процесса. Для
количественного сравнения нужно в дополнение к (21) получить выражение
дисперсии фильтрации на выходе квазиоптимального фильтра.
Введем обозначение s(z) = X(Z) — X(Z), вычтем из уравнения сообщения (24)
уравнение (25) для оценки, подставив в него выражение для £(z) из (24). Тогда
придем к линейному дифференциальному уравнению
dz/dt = - (а + ksl) е + [«,_ (z) - кап0 (z)].
Учитывая, что слагаемое в правой части в квадратных скобках есть белый
шум с корреляционной функцией (Д\/2 + Zz2,yo/2)8 (т), находим дисперсию ошибки
фильтрации в зависимости от безразмерного времени
A W=D (*) = А„ ехр [ - 2 (1 + кя/а) т] + -^+^Vp/g {1 - ехр [ - 2 (1 + As, /а/т]}.
20С 1 “г /CLJ
(8.1.27)
372
Заметим, что 1 + kst а = у/ 1 + q,
~ + ~N0 = 2vJX 1+-U/T+?-1)2 =^(,/bH7-l)JT+i
£2 [_ Я J Я
Подставив эти выражения, для относительной ошибки фильтрации на выходе
квазиоптимального фильтра с учетом (23) получим формулу
5е(т) = Dc(n)lDk = 8 (0) ехр (-2т\/Т+^) + 8S, [ 1 - ехр (-2тy/T+q)], 8 (0) = 7\ /£\.
(8.1.28)
Отсюда видно, что в стационарном состоянии (т-» оо)8Е(оо) = 8м.
Результаты вычислений по формуле (28) приведены на рис. 8.2 (штриховые
кривые). Видно, что при одинаковых других параметрах длительность процесса
установления в квазиоптимальном фильтре больше, чем в оптимальном, причем
это различие возрастает с увеличением отношения сигнал-шум, хотя разность
между временами установления слабо зависит от отношения сигнал-шум.
В случае необходимости переходный процесс при включении квазиоптималь-
ного фильтра можно сохранить, изменяя значение коэффициента усиления к по
программе. Квазиоптимальный фильтр оказывается более чувствительным к дис-
персии начального значения .
Если коэффициент усиления к в квазиоптимальном фильтре выбран отличным
от kst, то дисперсия фильтрации возрастает. На основании формулы (27),
в которой кя заменено на к, нетрудно показать, что в этом случае при В)ьо = 0
дисперсия ошибки равна
. . 2V, к 2 tVo г ..
n;(T)=MTwo{ хр[-2т(1+"/а)]}-
Она состоит из суммы двух составляющих: дисперсии О)(т) динамической ошибки
(получаемой при no(z) = 0) и дисперсии О/(т) флюктуационной составляющей
(получаемой при ик(0 = 0). Относительная ошибка фильтрации в стационарном
состоянии определяется выражением
NK + k2N0 _g + v2 (1+g/2 — ^/l+g) у = _^
4aZ\(l +fc/a) q [1 +q— 1)] ksl
(8.1.29)
где
g, _D’dst ______1_______ g, _D’fsi_ 2v2(l+g/2 —^/l+g)
1 + vf^/l +q- 1) f D>. </ [1 + vf^/l + <?— 1)]
Ошибка 8j, имеет минимум при v=l. Заниженные значения к по сравнению
с кя более существенно влияют на дисперсию фильтрации (рис. 8.3), чем значения
k>kst. На рисунке штриховыми линиями показаны графики относительных
дисперсий динамической и флюктуационной 8}s, ошибок фильтрации для </=10.
Сравним дисперсии ошибок оптимальной фильтрации в непрерывном и диск-
ретном времени. Применительно к нашему примеру выражение для относительной
ошибки дискретной фильтрации согласно (9) приводится к виду
373
Рис. 8.4. Зависимость относительной дисперсии ошибки фильтрации от шага
дискретизации по времени
S Л._- A>v(Pv-i*v-»+^v) 8v-1+(e^-l)
v Di. D^+IJj-iWAv) <хД(9/2)(8у_1+е2*А-1)+е2“д
или для малых аД 1
8У = (8„_! + 2аД)/[ 1 + 2аД (1 + 8V_! <?/4)]. (8.1.31)
Стационарное значение 8У можно получить из (31), положив 5V = 8V_1 = 5^ и решив
полученное квадратное уравнение относительно 5",. Получим 6", = 8„, где
8з1 определено выражением (23).
На рис. 8.4 для <? = 2, 10 и 30 приведены значения 8(т) и 8V, рассчитанные по
формуле (30), а также 8(т) при трех шагах дискретизации по времени аД = 0,05; 0,1 и 0,2.
Приведем без вывода основные результаты для многомерной
линейной фильтрации. На практическую необходимость рассмот-
рения таких задач указывалось на с. 331. В методическом плане
получение соответствующих алгоритмов ничем не отличается от
проделанного выше вывода для скалярного случая. При записи
условных многомерных нормальных п. в., которые фигурируют
в уравнениях линейной фильтрации, следует воспользоваться
формулами (1.4.21) и (1.4.22), а для м. о. и корреляционной
матрицы многомерной нормальной п. в., получаемой в результате
перемножения двух нормальных п. в.,— формулой (1.4.24).
Многомерная дискретная фильтрация. Пусть уравнения на-
блюдения и сообщения являются частными случаями уравнений
(7.1.10) и (7.1.11):
^ = Hvkv + Uv + nOv, (8.1.32)
^-v — Av_ j kv_ j + n)v. (8.1.33)
Здесь Hv — (m x л)-матрица; A — (n x л)-матрица; uv —п?-вектор;
nOv и n)v— последовательности взаимно независимых векторных
БГШ с нулевыми м. о. и корреляционными матрицами Vv и фу
размера тхт и пхп соответственно.
374
Уравнение для вектора оценок в этом случае имеет вид
£v = Av_1£v_1+Kv(^v-uv-HvAv_1£v_1), (8.1.34)
где
Kv = RvH:Vv1. (8.1.35)
Корреляционная матрица ошибок удовлетворяет рекуррентному
уравнению
R1 = [Av_! Rv_! ATV_ j + фу] -1+Щ Vv-1 Hv. (8.1.36)
Основная трудность при реализации алгоритма (34), (36)
связана с большим объемом вычислений, требуемым для об-
ращения матрицы в (36). Даже при использовании наиболее
эффективных из известных методов при обращении матрицы
размера пхп требуется порядка л3 операций умножения.
В приложениях часто встречается случай, когда число каналов
наблюдения т меньше размерности вектора сообщения п. Для
этого случая более простой является модификация алгоритма
(36), основанная на использовании следующей леммы об об-
ращении матриц.
Пусть R, N и Н—матрицы размера пхп, тхт и тхп
соответственно, причем R и N положительно определены. Тогда
справедливо тождество
(R ~1 + Нт N 1 И) ~1 = R - RHT (HRHT + N) ~1 HR.
Обращение обеих частей равенства (36) и применение к правой
части леммы обращения матриц дает
Rv = ftv - RVH; (HvftvHT + Vv) -1 Hvftv, (8.1.37)
где
RV = ₽J - iRv -1 Av -1+<|/v.
В выражении (37) теперь фигурирует операция обращения мат-
рицы лишь размера тхт. При одноканальном приеме (т=1)
операция обращения матрицы вообще отсутствует.
Для получения формы алгоритма, требующего минимум
вычислений, в выражении (35) для коэффициентов усиления Kv
используем соотношение (37):
Kv = RVH ;vv-1 = RvHv Vv 1 — RvHv (HvRvHv + Vv) 1 HvftvHj Vv 1 =
= RvHy (HVRVH; + Vv) -1 [(HVRVH; + Vv)Vv- 1 - HvftvHvVv-1 ] =
= ftvHJ(HvftvHJ + Vv)-1, (8.1.38)
где учтено, что выражение в квадратных скобках есть единичная
матрица I.
После подстановки выражения (38) в (37) получаем итоговый
алгоритм линейной фильтрации в следующем виде:
375
£v — Av_ ) kv_ j + Kv(^v — uv — Hv Av_ j av_ j),
Rv = (i-KvHv)Rv, (8 1.39)
RV = AJ_1RV_1 Av_1 + <|/V,
Kv = RvH:(HvRvHv+Vv)-1.
При многомерной линейной фильтрации как в дискретном,
так и в непрерывном времени аналитические результаты для
корреляционной матрицы ошибок фильтрации R(/) и матричного
коэффициента усиления К (t) получают довольно сложным и гро-
моздким математическим путем, и поэтому обычно их рас-
считывают с помощью ЭВМ. При аналитическом решении часто
ограничиваются получением стационарных значений Rs( и Ks(.
При этом матричное разностное или дифференциальное уравнение
для Rs, переходит в алгебраическое уравнение и задача сводится
к решению системы алгебраических уравнений. Таким путем
в литературе были получены выражения для RSI и KJ( при числе
каналов приема п^2 и размерности вектора сообщения гн<3
для случая, когда векторные коэффициенты А, Н, V и ф постоянны
(не зависят от времени).
Пример 8.1.2. Комплексированис измерителей. Рассмотрим простейший пример
комплексирования двух измерителей: измерителя координаты X] (г) движущегося
объекта и измерителя его скорости Х2 (t) = <Ai (/)/Л, считая заданными уравнения
Xv — AXV ~ i T n2v. £1V — HXV + Hqv .
(8.1.40)
ф = М {nXv
А, ГД2/ЗД/2"
П1„ = — Д
J 2 L Д/2 1
Vl2
1л’
В данном случае первое уравнение (40) задает модель динамики движения объекта,
т. е. изменение в дискретном времени координаты Xt (г) и скорости Х2 (/). Согласно
второму уравнению осуществляется одновременное измерение как координаты
объекта, так и его скорости, причем ошибки измерений описываются независимы-
ми дискретными БГШ и01„ и ?;02v с дисперсиями 7)01 и D02.
Применение общей методики решения матричных уравнений вида (36)
к данному примеру приводит к следующим окончательным результатам для
стационарной матрицы ошибок фильтрации1:
~~ = 4(7“ + '-2 + ч/а)2 8-4f ₽ г2~~ ,
1 Ekstrand В. Analitical Steady State Solution for a Kalman Tracking Filter//IEEE
Trans.— 1983,—Vol. AES-19, № 6,—P. 815—819.
376
R
4
£>01/Л Д
R22 8 in Г п
(8.1.41)
2 _
Здесь использованы следующие обозначения:
/- = 4^у/27)()1/Л\Д2, 5 = Д7Р02/Р01,
~ 1+4/И2Т/2 1 + 1бр2/Н2
j4-4a/(re)2J ' ] + [8/(гх)2](1 +Р У“)'
Стационарные значения коэффициентов усиления определяются выражениями
Ki, = Rt j/Dnl, Ki2/^ — s ~Rt2/(D0l/А),
(8.1.42)
7Г>1A = R\2/(Д)1 /^), ^22=s • R22/(D01/A2).
Отметим, что, хотя исходная модель системы (40) содержит четыре
независимых параметра (Ах, Р01, О02 и А), нормированные выражения (41)
и (42) для Rs/ и Ks, зависят только от двух параметров г и s. Физическое
обсуждение результатов будет дано позже, в примере 8.1.4.
Пример 8.1.3. Фильтрация процесса авторегрессии — скользящего среднего.
Рассмотрим процесс авторегрессии — скользящего среднего вида (4.1.31):
и т
Xv=- £ a1Xv_1+Y«v+ X
। = i i = i
(8.1.43)
который при Р,= 0, 1=1, т, переходит в процесс авторегрессии, а при а, = 0,
/=1,п,— в процесс скользящего среднего. Примем, что дисперсия дискретного
БГШ п. равна единице. Требуется получить оптимальные оценки
(1, и у постоянных коэффициентов а,-, р,- и у. Один из возможных способов
решения задачи — применение алгоритма фильтрации Калмана. Для этого нужно
предварительно записать уравнение состояния и наблюдения в форме (33) и (32).
Введем текущую ошибку оценки
ev = A.v+ £ £ P;«v-> (8.1.44)
i=i i=i
и вектор-столбец размерности п+т
А = [а1...а„, Pi-.-Pj. (8.1.45)
Так как он постоянен во времени, то
Av+1=Av. (8.1.46)
Из (43) получаем модель наблюдения
^V = XV= - £ a,xv_;+ £ pfnv_, + ynv. (8.1.47)
i = 1 i = 1
Если входной шум nv известен, то введя вектор-строку
377
Hv- 1 = [-Xv-i, -Xv_2...(8.1.48)
уравнение наблюдения можно записать в виде
£v = Hv-iAv + yiiv. (8.1.49)
К уравнениям (46), (49) можно применить алгоритм фильтрации Калмана
(§ 8.6).
Однако во многих прикладных задачах входной шум nv не известен и его
необходимо оценивать. Иногда применяют следующий приближенный подход.
На основании (47) имеем
yv/?v = Xv+ X X Mv-i- (8.1.50) i = 1 i = 1
Отсюда с учетом (44) можем написать
nv=^, Ev = xv+ У XivVi- У Mv-i- (8.1.51)
Yv i=i i=I
Для получения оценки yv воспользуемся тем, что nv—дискретный БГШ с единич-
ной дисперсией. Поэтому
М {[УЛ]2} = у2 = М {г.2}, (8.1.52)
где М{с2} может быть вычислено по формуле
М{е?}=- Е е-?- v i=i
Если в (48) заменить истинные значения nv_,-, /=1, т, их оценками
получаемыми из (51), то
Н,-|=[-У-|...-Х,-„ й„-1-Л-»,]- (8.1.53)
Окончательный алгоритм примет вид
Av+1 = Av + Kv+1 [Л+i -HVAV], (8.1.54)
Kv+1=RvH}[y2 + HvRvH{], (8.1.55)
Rv+1 = [I-Kv + iHv]Rv. (8.1.56)
Выражения (50)...(56) дают полный алгоритм оценивания (идентификации)
параметров процесса авторегрессии—скользящего среднего (43). Можно показать1,
что при определенных условиях оценка Л„ сходится к истинному значению
с вероятностью 1.
Многомерная непрерывная фильтрация. При многомерной
фильтрации в непрерывном времени наблюдается сигнал
^(r) = H(r)X(z) + no(z). (8.1.57)
1 Granpe D., Krause D. J,, Moore J. B. Identification of Autoregressive Moving-
Average Parameters of Time Series//IEEE Trans.—1975.— Vol. AC-20, № 1.—
P. 104—107,
378
Здесь %(z)— вектор-столбец размерности т, где т—число каналов
наблюдения; H(z)— матрица наблюдений размера т х и; no(z)
—вектор-столбец аддитивных БГШ в каналах размерности т,
причем
М {no(f)no(z + r)} = No(/)8(T); (8.1.58)
No — симметричная (т х щ)-матрица двусторонних спектраль-
ных плотностей.
Сообщение задано векторно-матричным дифференциальным
уравнением
z7X/z/z = A(z)X + nx(z). (8.1.59)
Здесь Z(z)— вектор-столбец сообщения размерности n; A(z) —
матрица коэффициентов системы (59); nA(z) — вектор-столбец
формирующих БГШ с нулевым м. о. и корреляционной ма-
трицей
М {n Jz) щ (Z + т)} = N,. (Z) 8 (г), (8.1.60)
где Nx(z) — симметричная матрица двусторонних спектральных
плотностей размера п х п.
Система линейной фильтрации, оптимальная по критерию
минимума среднего квадрата ошибки, описывается уравнениями
<n/z7z = A(z)k + K(z)[£(z)-H(z)£],
K(/) = R(z)HT(z)N0'(z), (8.1.61)
z7R/z7z = Njz) + AR + RAT-RHTNo ‘HR,
где K(z) — матричный коэффициент усиления; R(z) — корреляци-
онная матрица ошибок фильтрации.
Основная трудность при аналитическом рассмотрении линей-
ной фильтрации связана с решением матричного уравнения
Риккати для R(z). Укажем один из методов решения, основанный
на подстановке Бернулли
R (z) = V (z) U -1 (z), (8.1.62)
где V(z) и U(z) — решения системы из 2п линейных диф-
ференциальных уравнений, получаемых из исходного уравнения
Риккати.
Теоретической основой такого представления является следу-
ющий результат. Пусть (п х и)-матрицы V(z) и U (z) удовлетворяют
системе
u
V
dujdt
dv j dt
Fn F12
F2i F22
U(ZO) = UO
V(lo) = Vo.
(8.1.63)
Тогда матрица R(z), определенная (62), удовлетворяет уравнению
rfR/Jz=F21+F22R-RF11-RF12R, R(zo) = VoUo‘. (8.1.64)
379
Этот результат следует из непосредственной подстановки:
^ = 1(VU'1) = —U"1 -| V^^-^U-l-vf-U-1 d-U J Y
dt dt' ’ dt dt dt у dt j
= (F21L' + F22V)U1-VL'-J[FJ1U + FJ2V]U1 =
=f21+f22r—rfu—rf12r.
Из сопоставления (64) с исходным уравнением Риккати (61)
следует, что векторные функции U(/) и V (/), входящие в (63),
должны иметь вид
dN(t)!dt_
— Ат HTNo
Nx А
(8.1.65)
Начальные условия можно, например, выбрать так: U(Zo)=Inxn,
V(/oj = R(?o).
Теперь решение уравнения Риккати может быть получено
в результате решения системы линейных уравнений (65). В при-
ложениях наиболее часто встречаются уравнения (65) с постоян-
ными коэффициентами. В этом случае
{v(r)}=exp^F^-z°^
(8.1.66)
При этом
И(/) = У(г)и-1(г) = [Ф21 (f-fo)U(ro) + <M;-/o)V(/o)]x }
х [Ф11 (г~^о)и(/о) + Ф12(/ — /о) V(/o)].
Хотя алгоритм (66), (67) предполагает решение уравнения (65)
удвоенной размерности, однако его применение в ряде случаев
может оказаться вполне эффективным в вычислительном отноше-
нии прежде всего за счет использования свойства экспоненциальной
функции ехр {F(4 + ?2)} = exp(Fz1)exp(F?2), позволяющего умень-
шить необходимую длительность численного интегрирования.
К недостатку метода можно отнести то, что при больших t — t0
матрица U (/) становится плохо обусловленной, что может привести
к большим ошибкам при численном обращении матрицы в (67).
Часто подстановка Бернулли применяется для получения
стационарного решения уравнения Риккати. Если стационарное
решение существует и не зависит от начальных условий, то
можно положить R(/o) = 0. При этом из (62) следует, что
V(/o) = 0, и из (67) имеем
Rs(=lim R(z)= lim {Ф21 (/-/0)ФГ?(8.1.68)
Допустим, что удалось получить стационарное решение
Rs( уравнения (61), т. е.
380
Nk + ARS1 + Rs( AT - RS(HT No 1HR^ - 0. (8.1.69)
Будем теперь искать решение уравнения (61) в виде
R(z) = RJt+R,(/). (8.1.70)
Тогда из (61) с учетом (69) для RE(z) получим уравнение
6/Re/^ = [A-Rs(HTNo 1H]Re + R£[A-R5(HtN0- 'Н]т-
(8.1.71)
RJIN^HR,
Знание стационарного решения позволило избавиться от сво-
бодного члена.
Обозначим В = (А —Rs(HTNo 1Н) и введем матрицу перехода
Г(/) = ехр(В/). (8.1.72)
Будем искать решение уравнения (71) в виде
RE(/) = r(/)U-1 (?)ГТ(/), (8.1.73)
где U(?) — неизвестная матрица. С учетом (73) распишем левую
часть уравнения (71):
-re=—u-1rT-t-rf —и_1^гт+ги-1—гт=
dt dt \dt ) dt
= BRE + rf yU-’lr’+RJ.
\ at '
Подставив это выражение в (71) и сократив подобные
члены, имеем
Г(б/и-1/Л)Гт= -ги T’H’No 'HTU’T’.
Домножим обе части этого равенства справа и слева на 11Г-1 и
Гти и учтем известное соотношение d\J~^/dt = — U-1
Тогда получим
JU/i/r = rTHTNo НГ
Отсюда
и(г) = и(0) + /Гт(т)Н^о1НГ(т)Л.
П оскольку Г (0) = 1, то U (0) = R Е~1 (0) = [R (0) — Rsl] ~1.
Таким образом, согласно (73) приходим к окончательному
результату
Л(0 = Г(/){[Л(О)-Л5(]-1 + {гт(т)Я^о1^(т)Л}-1Гт(/) =
О
= ([Г(<)Л(0)Г’(<)-Г(/)Л,Г'(<)]-‘+
+ (8.1.74)
О
381
Пример 8.1.4. Комплексирование двух измерителей. Рассмотрим решение
предыдущего примера в непрерывном времени. Пусть координата движущегося
объекта и его скорость Х.2 заданы уравнениями
d^l</r=X2, dU'dl^n^t). (8.1.75)
Одновременно измеряются как координата объекта, так и его скорость:
(?)~ ^1 (') +«01 (t), ^2 (<) — ^2 ) + «02 (t),
(8.1.76)
где nOi (г) и н02(1)— независимые БГШ (ошибки измерений) с двусторонними
спектральными плотностями N01/2 и Nn2/2 соответственно.
Рассматриваемый пример является частным случаем задачи многомерной
линейной фильтрации, принципиальное решение которой дается уравнениями
(61), причем в них нужно положить
Согласно первому уравнению (61) записываем алгоритм формирования
оптимальных оценок
dX-Jdt — Х-2+ (2/7VOi) j (^i — )“Ь(2/Л^ог) 7?j2(^2~^2),
d£2/^ = (2/V0i)7?12(^-X1)+(2/V02)A22(^-X2).
(8.1.77)
Решение уравнения Риккати для корреляционной матрицы можно получить
последовательным применением изложенной выше методики. Однако из-за
громоздкое™ промежуточных вычислений такое решение здесь нс приводится.
Стационарное решение можно получить более просто, осуществив в формулах
(41) предельный переход при А->0, jDOiA = AOi/2, £>О2А = Ао2/'2. В результате
получим следующие выражения для элементов корреляционной матрицы ошибок
и коэффициентов усиления1:
R1X ______1 Г / АТ/2 Noi
((;Vol/2)yMWoi)1/2 ]+YL \ 2/J ’ 7 (7Vx7V01)1/2’
У R22
--------—---, 2 2 —---------
V^Voi/2 1+Y ((ВД^/МЛ?)1'2
p^/TVoJ1'2
/ 1\T/2 1
Y Y + x , kl2 = Ki2=- ,
\ 2/J 1+Y
K2, Y к K12 1 Г ( 1\T/2
(M/7VOi)1/2 1+y’ V22 (2 ^Х/Ми)1''2 Y(1+Y)L V 2/_
(8.1.78)
(8.1.79)
1 Ekstrand B. Analitical Steady State Solution for a Continous Time Kalman
Filter//IEEE Trans.— 1985,—Vol. AES-21, № 6,—P. 746—750.
382
Рис. 8.5. Зависимость относи-
тельных апостериорных корре-
ляций и коэффициентов усиле-
ния от параметра у
Рис. 8.6. Зависимость относи-
тельных коэффициентов уси-
ления от параметра у
В рассматриваемой аналоговой модели имеются лишь три независимых
параметра NOi и NOi (в отличие от дискретной модели, содержащей, как
всегда, дополнительный параметр Д). Однако элементы корреляционной матрицы
ошибок и коэффициенты усиления, нормированные указанным образом, выражены
только через один параметр у, причем гц, г22 и кц, так же как rj2 и k2i,
имеют одинаковые выражения. Графики этих зависимостей приведены соответ-
ственно на рис. 8.5 н 8.6.
При малых шумах в канале измерения скорости (малых ошибках измерения
скорости) NU2->0 параметр у<*:1. При этом из (78) следует
йп*(^1М‘/2/2. Rl2*N02/2, R22^(NKNO2)1I2I2. (8.1.80)
Подставив эти значения в (77), из первого уравнения получим
d$-i/dt=(N02IN01)1/2 (£1— (8.1.81)
Отсюда видно, что при условии у <*: 1 оценка £2 в уравнение для £1 не входит,
т. е. фильтрация скорости в отдельном канале не является необходимой для
фильтрации координаты Xjj можно иметь дело непосредственно с самим
измерением Е,2. В данном случае ошибка оценки положения стремится к нулю
даже при наличии шума в канале измерения положения. Разумеется, что такой
результат верен лишь при точном знании начальных значений Xi и Х2 при t — 0.
Если осуществляется только измерение положения, что можно считать
соответствующим очень большому шуму в канале скорости N02->oo, то
из (78) имеем
Ап=(^1 УмЛо?/2)1/2, Я12 = 7^02/2, «22 = (УМ№/2^)1/2. (8.1.82)
Отсутствию наблюдения по координате соответствует Nol->oo. При этом (78)
переходит в
/?ц-»оо, Я12л:Nq2/2, R22 = y/N^Nq2/2.
Таким образом, наблюдение только в канале скорости приводит к бесконечной
ошибке по координате в отличие от наблюдения только положения, когда
дисперсии ошибок по координате и скорости (82) конечны.
383
Пример 8.1.5. Повышение точности фильтрации при совместной обработке
нескольких наблюдений (измерений)1. Стационарный случайный процесс ?-(/).
заданный уравнением (14), фильтруется с использованием к наблюдений
Е,1 (/) = A.(/) + «oi (О- , ^t(0 = ^(^) + /7o*(0’ (8.1.83)
где "о»(0—независимые друг от друга и шумы измерений,
моделируемые БГШ с односторонними спектральными плотностями /VOi- ...
.... NOk. Нужно получить структурную схему оптимального измерителя, совместно
обрабатывающего все наблюдения, и определить точность фильтрации.
Запишем наблюдения в векторной форме ^ = НХ + п0(/), где
Н =
TVoi/2 0 ... 0 -
О ЛГО2/2 ... О
_ 0 0 ... N0k/2_
Применим к данному частному примеру общие уравнения (61).
Нетрудно убедиться, что матричный коэффициент усиления равен
K = /?HTNo1 = 2Z?[?/o11 TVo,1... TVm1].
С учетом этого выражения первое уравнение (61), определяющее структурную
схему оптимального измерителя, принимает вид
-7.Х + 2/? У Л',;1 (с,.-).). (8.1.84)
А
Разности (E,j —X.) суммируются с весами, обратно пропорциональными ошибкам
измерений.
Для дисперсии ошибки фильтрации из (61) придем к уравнению
Д
—-=2aD^-2aR-2R Е ЛУ/.
dt 1
Отсюда находим стационарное решение
а/ * .
ям=Ц Е N-Oi'
•^ \ ; = 1
к \ 1/2
E^OTJ
-1
Введем отношение сигнал-шум в i-м наблюдении qt и суммарное отношение
сигнал-шум </е во всех к каналах:
4/\ Д 4£>! Д
= 9и= Е =--------- Е Noi-
aNni ;=1 а ,-!
Тогда получим
Rs, = 2Dxqi '(xA + ft-l)-
(8.1.85)
При равноточных измерениях q-£. = kq\ и
1 Гортонов Г. И. Оценка точности многомерной оптимальной фильтра-
ции//Техническая кибернетика.-—1972.— № 4.— С. 200—202.
384
Rsl=2D},(nql) ЧУи-ж^-!).
Из сравнения формул (85) и (23) видно, что с точки зрения стационарной
ошибки фильтрации многоканальный измеритель эквивалентен одноканальному,
в котором отношение сигнал-шум qt заменено на г/Е. Поскольку время
установления стационарного состояния зависит от отношения сигнал-шум, то
время установления в многоканальном измерителе будет меньше, чем в одно-
канальном.
Будем характеризовать проигрыш в точности одноканального измерителя
по сравнению с многоканальным величиной Рл = (/?i,//?sl)1/2, где Rl-Sl— дисперсия
ошибки фильтрации в одноканальном измерителе с отношением сигнал-шум 7,.
Величина pt показывает, во сколько раз ошибка одноканальиого измерителя
больше ошибки многоканального. Получим
Рк =(?е/^1)(\/1~+91 — 1)
или для равноточных измерений
Pt — к (у/1+71 — 1)/(^/1~+^т7— 1).
При фиксированном числе каналов измерения проигрыш увеличивается с увеличе-
нием 7], причем pkx\/k при 71 »1.
Непрерывно-дискретная фильтрация. Приведем алгоритм линей-
ной непрерывно-дискретной фильтрации, когда уравнения на-
блюдения и сообщения заданы в виде
%v = HAv + nov, cTkldt = A(z)X + nv(t). (8.1.86)
Для всех значений t апостериорная п. в. p(t, X) является
нормальной. Поскольку для te(/v-i, Zv) наблюдение отсутствует,
то, положив в (61) Я=0, получим
^=A(z)Z(t), ™ = Nk(z)4-AR-f-RAT, 4 (8.1.87)
В точках Zv, v = 0, 1, 2, ..., где имеется наблюдение, нужно
выразить £(zv + 0) и R(/v + 0) через £(/v —0), R(/v —0) и £v. Это
можно выполнить подстановкой нормальных п. в. с этими
параметрами в (7.4.3) или же использованием уравнений (34),
(36) при A,v = const. В результате
£(/v+o)=£(zv-o)+r(zv+o)h:v;1 [^+яд(/у-о)],
r-1(zv+o)=r-1(/v-o)-h^v;‘hv
или в эквивалентной форме
£(/v + 0) = £(/v-0) + R(zv-0)(HvR(zv-0)H: + Vv)-1[^-
-НД4-0)],
R(/v + 0) = R(/v-0)-R(zv-0)H:(HvR(zv-0)HJ +
+ Vv)^1HvR(zv-0).
385
13—2247
При цифровой реализации алгоритмов удобно использовать
решение (87) на интервале (zv-i, tv)'-
X(zv-O) = ®(zv,
(8.1.88)
R(zv-O)=®(zv, гу_1)й^_1+0)Фт(?у, zv-!) + t|/v.
Здесь Ф^2, zj—матрица перехода, которая для постоянной во
времени матрицы А равна
O(z2, Zj) = exp{A(z2~Zj)};
фу имеет тот же смысл, что и в (36):
tv
фу= j ®(zv, t)N?^t(zv, т)<А.
Из последнего представления ясно видно сходство непрерывно-
дискретной фильтрации с обычной фильтрацией в дискретном
времени. При этом оптимальную оценку k(z) для Ze(zv .t, zv),
которая требуется по условию задачи, удобно получать по
формуле
X(Z) = Ф(Z, ZV1)£(ZV1+O), (8.1.89)
которая аналогична (88).
В заключение напомним, что для принятой выше форму-
лировки задачи линейной фильтрации (57), (59) решение (61)
является оптимальным лишь при выполнении трех условий:
1) начальное значение фильтруемого процесса л(0) = ло фик-
сировано или нормально распределено; 2) все необходимые
параметры, входящие в алгоритм фильтрации (61), заранее точно
известны; 3) на наблюдение E,(z) и (или) сообщение X(z) не
наложены ограничения (например, типа поглощающих или от-
ражающих границ). Методика решения задачи при ненормальном
начальном распределении изложена в § 8.2, при коррелированном
гауссовском шуме n0(z)— в § 7.6. При наличии ограничений
следует пользоваться методами нелинейной фильтрации с учетом
граничных условий.
Что касается отклонений параметров моделей и самих моделей
от принятых при синтезе, то возможны разные ситуации. Если
для принятой модели имеют место небольшие отклонения
параметров от расчетных, то обычно исследуют чувствительность
оптимальных алгоритмов к таким отклонениям. Когда параметры
модели довольно сильно отклоняются от расчетных в пределах
заданных границ, применяются робастные методы. В отсутствие
априорных сведений о параметрах и существенных отклонениях
применяют адаптивные методы обработки наблюдений (см.
гл. 13).
386
8.2. ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ
ПРИ НЕНОРМАЛЬНОМ
НАЧАЛЬНОМ РАСПРЕДЕЛЕНИИ
Сохранив прежнюю формулировку задачи фильтрации (8.1.57),
(8.1.59), примем теперь, что априорная п. в. ррг(Х0) начального
значения Хо сообщения Х(?) ненормальная. При этом полученный
ранее алгоритм линейной фильтрации (8.1.61) будет неоптималь-
ным. Можно лишь рассчитывать на то, что такой фильтр
окажется оптимальным в стационарном режиме работы, посколь-
ку стационарное состояние устойчивых линейных систем не
зависит от начальных условий. Разумеется, что для получения
оптимального алгоритма можно воспользоваться методами не-
линейной фильтрации и, в частности, уравнением Стратоновича.
Однако из-за сложности его реализации целесообразно рассмот-
реть более простые, линейные алгоритмы получения оптимальной
оценки Х(/) = М{А.(|£,о}, где Х( = Х(?).
Принципиальная возможность такого подхода основана на
том, что в каждой конкретной реализации начальное значение
Ао постоянно, но неизвестно. Его значение можно оценить по
наблюдению, и, следовательно, по существу задача сводится
к фильтрации расширенного вектора {Х(г), Хо}, в котором оценка
последней, постоянной компоненты Хо уточняется в процессе
наблюдения1.
Представим апостериорную п. в. p(t, А.)=р(Х(|^о) в виде
/’MVo) = ^(^AoIVo)^ = JpMVo, (8.2.1)
Апостериорную п. в. р(Х0 | Е,'о) для Ао можно выразить формулой
Байеса:
Р (^01 Vo) =РР, Ыр £ ЬI ММ (Vo) =ppr (М А, (М, (8.2.2)
где A((M=p(VoIMM(Vo)—отношение правдоподобия для Хо.
Подставив (2) в (1), имеем
p^lMM/MMAJM/^IVo, М^о. (8.2.3)
При таком представлении функции А((М и p(MVo, М
содержат всю зависимость от времени t и наблюдения Vol они
не зависят явно от ррг(А0), отличие которой от нормальной
п. в. и определяет особенность рассматриваемой задачи.
Перейдем к определению функций р(Х(|£о, М и А((А0).
Применительно к линейной задаче (8.1.57), (8.1.59) апостериорная
1 Benes V. Е., Karatzas I. Estimation and Control for Linear, Partially Observable
Sistems with Non-gaussian Initial Distribution//Stochastic Processes and their
Applications.— 1983. Vol. 14. P. 233—248.
387
п.в. Хо) является нормальной 2V(mt(X0), R,), параметры
которой определяются уравнениями (8.1.61):
^^N^ + A^R^+R^A'^R^H^^N^H^R^).
Начальные условия имеют вид т0(к0) = кр /?(0) = 0. М. о.
mt зависит от Хо, а апостериорная дисперсия R(t) от Хо не зависит.
Первое уравнение (4) линейно относительно znt(X0). Его
решение имеет вид
т (Х0) = Ф(/, 0)Хо + }ф(/, x)R(x)H(x)No1(x)^(x)dx. (8.2.5)
1 о
Матрица перехода Ф(/, т) является решением однородного ура-
внения
d<D(t, х)/dt = [A(t)-R(t)H(t)No 1 (г)Я(/)]Ф(Б т) (8.2.6)
с начальным условием Ф(т, т) = 1, где I—единичная матрица пхп.
Из вида решения (5) следует представление
ш((Хо) = ФЛо+шп (8.2.7)
где Ш( = пг((Хо = 0) — м. о. апостериорной п.в. p(Xt|S,'o, Хо = 0);
Ф, = Ф(/, 0).
Теперь можно записать явное выражение интересующей
нас п. в.
(8.2.8)
- ФДо)т R ~1 (О (X, - т, - ФДо)
Входящие сюда «параметры» R(t) и Ф(?) не зависят от наблюде-
ния и могут быть вычислены заранее из уравнений (4) и (6);
параметр mt находится из первого уравнения (4):
dmt/dt - [A (t) - K(t) mt + K(t) S, (?) (8.2.9)
при начальном условии лио = 0.
Для определения At(Xp) исходным является то, что обнов-
ляющий процесс r|(f)=);(z) — M{.s(z, Х)|^'о} является БГШ (см.
§ 7.10). Поэтому для нашего многомерного случая при заданном
можем написать
388
^(?) = M{x(?, X)|^o, X0} + n(?) = ^(X0)4-n(?), (8.2.10)
где п (?) — БГШ с корреляционной матрицей No(?),
Л(М=м'Й, W М-
Из такого представления следует, что
t
Р £ о IК) ~ ехр | 1 J[£ (т) - Л (Хо)]т Яо“ 1 (т) R (т) -
(8.2.11)
-хт(Х0)]л|.
Для рассматриваемого случая
st (Хо) = Я(?) mt (Хо) = Н (?) (т,+ФГХО).
Подставив это выражение в (11) и выделив члены, зависящие
от Хо, имеем
Л( (Хо) = с( ехр { — (l/2)[X^tXo-2XTovJ}, (8.2.12)
где множитель ct не зависит от Хо;
st = { Ф( Я(т) No 1 (т) Ят (т) dr, (8.2.13)
О
Vt = f Ф(ЯТ (т)No 1 (т) [£(т)- н(т) т J dr. (8.2.14)
о
Последние выражения можно записать в дифференциальной
форме, в частности,
dvtldt = ФЩТ (?) No 1 (?) (?) - Я(?) т>] (8.2.15)
с начальным условием vt = Q при ? = 0. Заметим, что «параметр»
st не зависит от наблюдения и может быть вычислен заранее.
Если подставить (8) и (12) в (3) и определить нормировочный
множитель с(?), то в итоге получим апостериорную п„ в.
р (X, | £,'о) = с ~1 (?) \ррг (Хо) ехр { -(1 /2) [X^tX0 - 2XJvt] -
-(1/2)[Х1-ли1-Ф1Хо]тЛ-1(/)[Х1-лп1-ФАо]} dXo,
где
с (?) = (2тг)"/21Л (?) |1/2$ррг (Хо) ехр {- (I /2) [Xт0,у,Х0 - 2Хтог,]} </Х0.
Располагая апостериорной п. в., находим оптимальную оценку
Х(?) = уХ(/?(Х1|^'0)б/Х(. (8.2.17)
Однако более оправданно находить оценку, используя исходное
выражение (1) и ранее полученный результат (7):
389
I (/) = Xt = $р (Xo К о) {f Kp (К IS о, Хо) dkt} dk0 =
Хо X;
(8.2.18)
= f p(k0 I ^Ь)(^+Ф(Хо)й?Хо = »?,4-Ф(Хо(0’
Xo
где X0(l)— апостериорная оценка начального значения процесса
Х(1) при 1 = 0:
ЛО (1)=]Ход (Хо I So) dk0 = Со 1 (1) f /<>Ррг (Хо) ехр { - (1 /2) х
х [ХДДо — 2Х.оР(]} dk0, (8.2.19)
с0 (/) = $ррг (Хо) ехр {- (1 /2) [Х^Д0 - 2Х?Д(]} dk0.
Из формул (16), (18) и (19) видно, что для определения
апостериорной п. в. и оптимальной апостериорной оценки нужно
задать априорную п. в. дрг(Х0), вычислить достаточные статистики
mt и vt соответственно из уравнений (9) и (15) и определить
(возможно, до получения наблюдения) матричные параметры
Ф, = Ф(1, 0) из (6) и из (13) или соответствующей дифференци-
альной формы. Особенность алгоритма оценки (18) заключается
в том, что наблюдение 4 о используется не только для получения
текущей оценки Х(1), но и для уточнения с этой целью начального
значения процесса Хо.
Получим выражение для апостериорной дисперсии оценки.
На основании соотношения (1) имеем
Л= f (X; - X,) (X, - X.,) ’р(к, 14о) dkt =
= J /’(Хо I So) [f (Xz — a j(л.(-- X,у р(X, | с,о, Х0)<7Х,} (/л0.
Хо
Подставив Х( —Х, = [Х( —/7г((Х0)] + [ш((Х0) —Х(], получим
(8.2.20)
J (X, - Х() (X, - X,) ’ р (X, 14'0, Хо) dk, = f [X, - m, (Хо)] [X, -
х,
-т, (Хо)]ТР (Xt | Sо, Хо) dk, + [>nt (Хо) - X,] [mt (Хо) - Х(] = R (t) +
+ Ф< [Хо — Хо (1)] [Хо — Хо (1)] т Ф J.
Здесь при записи последнего равенства использована формула
(18). Возвращаясь к (20), имеем
/?Д1) = 7?(1)+Ф(7?О(1)ФД (8.2.21)
где R0(t) — апостериорная дисперсия оценки начального значения
Хо процесса Х(1) при 1 = 0:
^о (^) = f [Хо — Хо (1)] [Хо — Хо (1)] rр (Хо | So)^Xo =
— ci 1 lJXoXo ехр { — (1/2) [ХДуДо ~~ 2Хог(]} ppr (Хо) dk0 — Хо (1) Хо (1),
сг (/) = f ехр {-(1 /2) [Х^До - 2Х0г,]}ppr (Хо) dko- (8.2.22)
390
Полученный алгоритм (18), (19), (9) и (15) определяет оценку
через достаточные статистики т, и vt. Однако можно получить
альтернативный алгоритм определения Х( без использования
статистики т,. Это можно сделать путем дифференцирования
(18) с последующими громоздкими выкладками. Однако более
простой путь основан на использовании уравнения фильтрации
Стратоновича
dp(t, ty8t=L{p(t, X)}+(X-Xt)TЯтNo1 fa-H^t)p(t, X). (8.2.23)
Здесь оно записано в форме Ито, поскольку при этом существенно
упрощается уравнение для оценки Х(.
Воспользуемся следующим соотношением. Пусть
t7(X)=M{/i(X)}=f/i(X)p(/, X)JX.
Теперь на основании (23) имеем
dUIdt = J/г (X) L {p (t, X)} dk+M {h (X) (X- £t)T} ЯТЯО~ 1 -Hlt\
Положим здесь /г(Х) = Х. При этом
М {X (X - X,)т} = М {(X - X,) (X - Xt)т}.
Если затем подставить выражение оператора L{p(t, X)} для
сообщения вида (8.1.59), то придем к следующей формуле:
= А (t) К4- (/) ЯТЯО"1 - Я£(), (8.2.24)
где Ri(t) = Г(Х—Х,)(Х— ^.ATp(t, Х)ЯХ определено выражениями
(21), (22).
Чтобы ограничиться двумя статистиками от наблюдения Xt и vt,
нужно в уравнении (15) для vt выразить т, через £(. Согласно (18)
имеем m( = Xt —Ф(Хо(0- Подставив это выражение в (15), получим
dvt|dt=Ф]HJNolHФtlko(t)+Ф;HтNo1(Цt)-Hlt). (8.2.25)
На основании сравнения двух полученных алгоритмов фильтра-
ции можно заключить, что второй (альтернативный) алгоритм
имеет более привычную форму уравнения для оптимальной оценки.
Однако он является более сложным в вычислительном отношении.
Пример 8.2.1. Фильтрация винеровского процесса. Требуется получить выраже-
ния для апостериорной п. в. p(t, X), оптимальной оценки X, и дисперсии оценки
ЯД) при фильтрации винеровского процесса 4Х/dt — n-At) с заданной п. в. />рг(Х0)
начального значения, когда он наблюдается на фоне белого шума:
^(?) = 7/Х(?)+по(0- (8.2.26)
Запишем уравнения для условных (при нулевых начальных условиях) м. о.
и дисперсии:
dm, 2Н , .г„,. 4Я(/) N). 2Н2
<8.2.27,
391
Из второго уравнения при г-»оо находим стационарное значение дисперсии
Rsi=(N0NtJ4H2)112. Для новой переменной A(/)=A(t)— Rst уравнение примет вид
dR 4Н2 п я 2Н2
dt N,> N
Поделив обе части на R2(t) и введя переменную z(t)=l /R(t), придем к линейному
уравнению
dz 4Н2 2Н2
dt No st No
имеющему при начальном условии Д(0) = 0, т. е. z(0)= — 1/Rst, решение
z(t)= — (1/2Ля)(1+е2“'), a = 2H2Rsl/N0 = (NiH2 / No)112.
Таким образом,
R(l) — Rs, + R(t) = X5,that = Rs, th(ty/Ni.H2INo\
Применительно к данному примеру уравнение (6) для переходной функции
имеет вид
—ЛгФ„ Фо=1.
dt ,'V0
Записываем его решение
/ 2Н2 { \ ' 1
Ф, = ехр----R (т) dt j = ехр (— a J th (ат) Л)=ехр (— In ch а?) =-.
V Wo / о ch а?
о
Выражения (13) и (14) теперь можно конкретизировать:
2Н2
s,=---
Wo
' 2ff2 j __________
(ch ат) 2 с/т =---th аг = — th (г y/NxH2/No),
J a7V0
о
2Н f 1 г , ч
',. = Т7“ -7—Т -Яш.];/!.
No J ch ат
О
В итоге придем к следующему выражению для апостериорной п. в.:
Г 1 f I / х. \21 1
jp(A.,| Vo) = (2nXM)-1/2 ——(^о|Е,Ь)ехр< Х,-т,—I (Xs,tha?)>dX0,
j th at ( 2 у chat/ J
(8.2.28)
где апостериорная п. в. начального значения процесса /.(/) при t = 0 дается выражением
рУ-о I £о) = с 1 (г)ррт(А.0)ехР1 ~т( “Т~^o~2t>Ao
I \ Kst
r f 1 /th at , \I
С\Ч = JR??(МехРS -г —— Хо-2гДо
L \ •si У J
(8.2.29)
392
В соответствии с (18) получим оптимальную оценку
X (?) = т, + Ф, Хо (?) = т, 3- Хо (?)/ch а?, (8.2.30)
где Хо (?) = (Хор(Хо | ^'0)dk0.
Дисперсия ошибки определяется выражениями (21), (22):
/?,.(?) = К(?)з-Ф2АО(?)=АЯ1Ь a? + (ch а?)-2Л0(?),
(8.2.31)
Ro (?)~f (Xq —Хо)2 />(Х01 с !>) ??'?-(,.
Даже для рассматриваемого простейшего примера получить аналитические
выражения для Хо(?) и R0(t) не удается и требуется численное интегрирование.
Пример 8.2.2. Влияние начальной дисперсии. Полученные выше выражения
(30) и (31) выделяют в явном виде влияние априорного распределения />рг(Х0)
и наблюдения на оценку и дисперсию ошибки. Для получения замкнутых
выражений рассмотрим тривиальный случай, когда априорное распределение
является нормальным: ppr(/k0) = N0[m0, Do).
В данном случае апостериорная п. в. (28) будет нормальной:
р(Хо|^о) = ЛГ(Хо(?), Ло(/)),
где
Х0(?) = Л0(?)(г,3-?и0/П0), JR0(?) = (D01+tha?//J.s,)-1. (8.2.32)
Выражение для оптимальной оценки примет вид
< , . Ло(?)(г1 + Л1о/£>о) ( ^о(?)гД Ло(?)
X [t) = ml 3-------------------= т, + —----------3--------т0.
ch а/ \ ch а? J Do ch а?
(8.2.33)
Здесь первое слагаемое определяется в основном наблюдением, а второе -
параметрами априорного распределения для Хо. Физически ясно, что при ?->оо
множитель ;и0 и v, стремится к нулю и, следовательно, X(/)->«,.
Более наглядно влияние параметров априорного распределения видно из
выражения для 7?х(?):
Я>..(?)= Rst th a? + (cha?)~ 2(£>о ' + th at/Rst) “1 =
(1 — th2a?)Z>0
th a?3-2-----------
R„ + Do th a?
Rst (Do 3- Rst th ex?)
Rst + Do th a?
(8.2.34)
Если начальное значение Xo фиксировано, т. e. Z)o = 0, то (?) = Rsl th at. При
полном отсутствии априорной информации о Хо, т. е. при П0->оо, имеем Л ("(?) =
= 7(sl/tha?. Естественно, что в обоих крайних случаях, как и при любых
значениях Do, R,,(t)—>Rst при ?-»оо.
Примем в качестве количественной характеристики выигрыша за счет
априорной информации о начальном значении Хо отношение ??2 = (//w//ZD)2,
которое показывает, насколько нужно увеличить мощность полезного сигнала
(величину Н2) в наблюдении (26) при отсутствии априорной информации ).
чтобы дисперсия ошибки R " (?) совпадала с дисперсией ошибки (34) при наличии
информации (Do со).
Для этого представим R ” (?) иначе:
R^(t\ :RS..(NKN0\/th(N}-H2All2t R°‘
' th a? \47Z^/ \ N / lh(atHx/HD) <?th(aa?)’
393
Рис. 8.7. Зависимость выигрыша в мощности
полезного сигнала от времени для трех
значений начальной дисперсии
Приравняв это выражение правой части
определения а:
, , \ AM + Pothat 5 +th a? Rsl
ath(aar)=--------— = ——, 8 = —
' 7 Do + th а/ 1+8 th at Do
(34), получим уравнение для
(8.2.35)
Введенный параметр 8 представляет собой отношение апостериорной дис-
персии ошибки оптимальной оценки к априорной дисперсии начального зна-
чения Х.о. На рис. 8.7 для трех значений 8 приведены графики, характеризующие
выигрыш (в децибелах) в мощности полезного сигнала за счет уточнения
априорной информации о 7,(). С увеличением 8 (уменьшением Do) этот выигрыш
возрастает.
8.3. ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ
КОЛМОГОРОВА - ВИНЕРА
Хотя линейная фильтрация в дискретном времени была
разработана А. Н. Колмогоровым раньше (1939 г.)1, чем фильтра-
ция в непрерывном времени Н. Винером (1942 г.)2, начнем
рассмотрение со второго варианта.
Задача формулируется так. Оценке подлежит случайный про-
цесс X(f) по наблюдению на интервале [а, Ь], связанному
известной зависимостью с фильтруемым процессом Х(/). Пред-
полагаются также известными корреляционная функция Ц)
процесса £,(/) и взаимная корреляционная функция Ц/
между процессами ^(/i) и 1Цц) и дисперсия t)
процесса X(l). Примем м. о. процесса £,(?) нулевым. По критерию
минимума среднего квадрата ошибки фильтрации
1 Колмогоров А. Н. Интерполирование и экстраполирование стационарных
последовательностей//Изв. АН СССР, Сер. матем.— 1941.—№5.— С. 3—14.
2 Wiener N. Extrapolation, Interpolation and Smoothing of Stationary Time
Series.—N.Y.: John Wiley, 1949.—162 p.
394
e2(z) = M {[X(z) —X*(z)]2} =min (8.3.1)
r(t)
нужно получить линейную оценку V(z) процесса X(z) для любого
заданного t. Поскольку отыскивается линейная оценка (среди
линейных фильтров), то она должна иметь вид
ь
V(z) = \h(t, v)^(v)dv. (8.3.2)
Именно вследствие линейности оценки для решения задачи
оказывается достаточным задание указанных корреляционных
функций. В результате решения задачи должна быть определена
импульсная характеристика линейного фильтра h(t, т) и получено
выражение для £2in(z).
Отметим отличия в исходной формулировке данной задачи
от задачи оптимальной фильтрации, которая была рассмотрена
в § 7.1, 8.1. Во-первых, в изложенной ранее теории оптимальной
фильтрации для оценки находились дифференциальные или раз-
ностные уравнения, а в приведенной исходной постановке задачи
отыскивается весовой множитель h(t, т) под интегралом, через
который сразу определяется оценка. Например, применительно
к наблюдению вида
E,(z) = 5(z, X(z)) + h0(z), a^t^b, (8.3.3)
где X(z) задано уравнением (8.1.14), ставится задача получения
аналитического решения для оценки V(z), т. е. решения уравнения
(8.1.17) Калмана — Бьюси (см. § 8.4).
Во-вторых, в принципе наблюдение может зависеть от оце-
ниваемого процесса X(z) произвольным, но известным образом.
В-третьих, в линейной фильтрации Колмогорова —Винера
ослаблены требования к априорным сведениям относитель-
но X(z) и ^(z), а именно: нужно знать только
R^ и R^. Так, применительно к наблюдению (3) при
взаимно независимых XlzJ и «0(^2) требуется знать
А Z ! Z 2) = М S ( Z , , X ( I Л ) 5 ( Z 2 , \ ( t 2)) } + R „0( Z !, Z 2)
и R^(ti, Z2) = M{A.(Zi) ^(Z2)}. Следствием этого является
неоптимальный характер оценки X*(z) в общем случае.
Оценка V(z) будет оптимальной в тех случаях, когда
процессы X(zt) и S,(z2) совместно гауссовские. Действите-
льно, оптимальной оценкой по критерию (1) является
условное м. о. X.(z) = M{X(z)|£„}. Из формулы (2.6.17) сле-
дует, что если X(Zj) и S,(Z2) совместно гауссовские, то
условное м. о. для дискретного времени есть линейная
функция от наблюдений. Этот результат останется в си-
ле и при переходе от дискретного времени к непрерыв-
ному. Поэтому оценка (2) будет оптимальной по крите-
рию (1), и результаты линейной фильтрации Колмогоро-
395
ва-Винера будут совпадать с результатами оптимальной
линейной фильтрации § 8.1.
В-четвертых, ставится задача получения оценки Х*(/) для
произвольного момента времени t, в том числе и не принад-
лежащего интервалу наблюдения [а, />]. Это охватывает задачи
фильтрации (при t=b), интерполяции (t<b) и экстраполяции
(М-
Перейдем к решению задачи — найдем такую весовую функцию
Л (г, г), которая минимизирует средний квадрат ошибки
82(?) = М{[Х(/)-рг(г, v)£(t>)dt>]2}. (8.3.4)
а
Введем для линейного оператора обозначение
Л7 {£,} = J/г (г, v)t,(v)dv.
а
Тогда
е2(0 = М{[А(/)-А*(/)]2} = М{[Х(/)-Я{^]2}. (8.3.5)
Докажем, что минимум этого выражения достигается для
весовой функции h (г, г) и соответствующего ей линейного опе-
ратора Я{Ц, удовлетворяющих условию
М{[Х(г)-Я{^}]^(г)} = М{[Л.(/)-Х*(/)]^(г)} = 0 при всех
ve[a, 6]. (8.3.6)
Для такого оператора Н {£,} минимальное значение среднего
квадрата ошибки определяется формулой
E2in(0 = M{[X(z)-H^}]X(/)}. (8.3.7)
Физический смысл этого условия заключается в некоррелирован-
ности текущей ошибки [А. (г) — А‘(/)] со всем наблюдением ^(г),
ге[<7, 6]. В литературе это свойство часто называют принципом
ортогональности ошибки и наблюдения.
Пусть h0[t, г)—оптимальная весовая функция (минимизиру-
ющая е2), a h(t, г)—весовая функция оператора Н{^}, удовлет-
воряющего (6). Положим /?(/, v) = h0(t, г) + Л8(/, г) и соответственно
Я{Ц = Я0{£,} + Я8{£>}. Представим минимум среднего квадрата
ошибки в виде
e2i„G)-M{[A(/)-^0{^]2} = M{[A(/)-Hg}-H8g}]2}. (8.3.8)
Так как по определению оператора Я{Е,} разность Х(/) — Я{Е,}
некоррелированна с Е,(г), ге[«, /?], то она некоррелированна
и с любой линейной комбинацией от £,(г), в частности с Я8{Е,}.
Поэтому М{[A(z) — Я{^}]Я8{(;}} = 0. Расписывая правую часть
(8) и используя это равенство, получаем
396
EL„0)=M{[^)-H{U]2}+M{HiO.
Второе слагаемое в правой части, зависящее от наблюдения,
неотрицательно. Поэтому для достижения минимума оно должно
равняться нулю: M{/fj{^}}=0. Отсюда Я6{^} = 0 и, следователь-
но, Я{£,} = Я0 {£,}, что и завершает доказательство.
Поскольку при оптимальном операторе Н {£,} разность А (г)
— Я{£,} некоррелированна с Н{£,}, то легко получаем формулу (7):
8^ = М{[Х(0-Я{^]2} = М{[А(?)-Я{и][Х(г)-На}]} =
= M{[A(/)-H{U]X(r)}.
Учитывая введенные выше обозначения корреляционных фун-
кций, условие (6) можно записать в виде
ь
v)=$h(t, v)dvi, »е[а,Л]. (8.3.9)
а
Таким образом получено формальное решение первой части
задачи — оптимальная весовая функция находится из интеграль-
ного уравнения Винера (9). Хотя для некоторых практических
задач разработаны методы аналитического решения этого ин-
тегрального уравнения, однако в общем случае оно может быть
решено лишь численными методами на ЭВМ. После того, как
оптимальная весовая функция определена, значение Smin(/) на-
ходим по формуле (7):
ь
= v)R^(t,v)dv. (8.3.10)
а
Отметим, что если м. о. наблюдаемого процесса E,(z) не
равно нулю, то вместо (2) оценку следует искать в виде
ь
Х*(/) = /?о + р(Л v)t,(v)dv.
а
Для определения постоянной /з0 можно использовать условие
несмещенности оценки:
ь
М{Х(0-/!О-|Л(/, = (8.3.11)
а
Выражения (9) и (11) позволяют решать различные частные
задачи линейной фильтрации в непрерывном времени, соответ-
ствующие конкретизации процессов Х.(/) и £,(/) и различному
заданию интервала наблюдения [«, 6]. Обычно основная труд-
ность заключается в решении интегрального уравнения (9).
Укажем кратко методику решения задачи линейной фильтра-
ции в дискретном времени. Нужно по критерию минимума
среднего квадрата ошибки получить линейную оценку
397
i = 1
значения процесса Xv = X0v) по наблюдению процесса £,,, когда
известны корреляционные функции AJz, у) = М {Е,г^}, Rx(v,v)
и z) = M{A.v^,}, l^z^/c.
Повторяя предыдущий вывод (с учетом перемены обозначений
и замены интегралов суммами), для определения весовых множи-
телей получаем обычное линейное уравнение, являющееся диск-
ретным аналогом уравнения (9):
0. (8.3.12)
j = 0
Если ввести векторные обозначения Rv = 7?^(v, 0, i= 1, к; Hv = hvi,
i=\,k, и (&х/0-матрицу R^ = R^(z,у), г,/=1,/с, то уравнение (12)
запишется в виде
RV = R^HV. (8.3.13)
Формальное решение этого уравнения дается выражением
Hv = Rf’Rv. (8.3.14)
Однако фактически реализовать это решение обычно не удается,
так как при больших к обращение матрицы R^ требует в общем
случае приблизительно к3 операций умножения и сложения.
Возможный способ решения уравнения (14), требующий мень-
шего числа вычислительных операций, основан на алгоритме
декомпозиции матриц: неотрицательно определенная матрица
Ri= может быть представлена в виде произведения двух матриц
R(j = FrT, где Г — нижняя треугольная матрица (все ее элементы
над главной диагональю равны нулю). Для стационарных процес-
сов разработаны более эффективные алгоритмы (например,
Левинсона и Дурбина)1, базирующиеся на том факте, что в этом
случае матрица R^ является теплицевой, т. е. R^(z,j) = R^(i—/).
Они дают рекуррентный способ вычисления весового вектора
h v и требуют существенно меньшего числа вычислительных
операций (порядка к2), чем общий метод решения уравнения (14).
Возвратимся к линейной фильтрации в непрерывном времени
и рассмотрим две частные задачи.
1. Фильтрация (интерполяция) полезного сигнала при бесконеч-
ном интервале наблюдения. Пусть наблюдаемый процесс пред-
ставляет собой сумму полезного сигнала s(t, Х(0) и белого шума
«о(0:
1 Giordano A. A., Hsu F. М. Least Square Estimasion with Applications to Digitale
Signale Processing.— N.Y.: Johne Wiley, 1985.— 412 p.
398
^(?) = 5(z, Х) + по(?) = ЯХ(/) + по(0, a= —oo<Z<Z> = oo. (8.3.15)
Сигнал и шум независимы и стационарны в широком смысле
с нулевыми м. о. Поэтому = Н2^ (т) + R„ (т), 7?^(т) =
= Я7?х(т). Уравнение (9) примет вид
ОС
v)~ f h(t, Vi)R^(y— vt)dvi, re( —oo, oo).
- 00
При стационарном входном процессе £,(?) и бесконечном
интервале наблюдения выходной процесс будет стационарным
в широком смысле и оптимальный фильтр можно отыскивать
среди линейных фильтров с постоянными параметрами. С учетом
этого можем написать
Яц(т) = f h(x — u)R^(u)du, —оо<т<оо. (8.3.16)
“ 00
Решение этого уравнения можно получить с помощью преоб-
разования Фурье, воспользовавшись известной формулой для
преобразования от свертки двух функций:
SkJj(o) = ^((o)tf(j(o), = (8.3.17)
где *5^(го) — спектральная плотность процесса E(z); S^ljco) — вза-
имная спектральная плотность процессов и £(/); A'(jro)
— комплексная частотная характеристика оптимального фильтра.
Для наблюдения (15) получим
К( jco) = HS>. (со)/[Я2^ (ш)+S„ (ю)]. (8.3.18)
Зная A'(jco), можно найти импульсную характеристику фильтра
Отметим, что по условию задачи оптимальный фильтр
(интерполятор) для получения оценки при заданном t
£.(?) = j h(t — x)t,(x)dx (8.3.19)
— оо
использует наблюдение на всей числовой оси, т. е. как до
момента t, так и после. Поэтому A'(jro) — характеристика
нереализуемого фильтра в том смысле, что оценку можно
получить лишь с теоретически бесконечным временем запа-
здывания.
Для задачи, описываемой уравнением (16), когда процессы
и стационарны и стационарно связаны в широком
смысле, конкретизируем формулу (10) для минимального значения
ошибки фильтрации:
00
e2in = J?x(O)- J h(u)R*(u)du. (8.3.20)
— 00
399
В частотной области это выражение принимает вид
Smin = ^~ J J Ar(jco)5^(ja))Ja).
— co — 00
Подставив сюда A'(jro) из (17), получим
с2 = _ ( 5>-(С0)5ИС0)~15чОю)12 л „
min ' ^(со)
(8.3.21)
Для рассмотренного выше примера (15), если Л, (г) и н0(г)
некоррелированны, из (21) имеем
(8.3.22)
Конкретные выражения 8min для других интересных случаев
приводятся в литературе1.
2. Реализуемые стационарные линейные фильтры. Рассмотрим
важный частный случай линейной фильтрации, когда процессы
Х(7) и £;(/) стационарны и стационарно связаны в широком
смысле, а=~ со, t=b. Уравнение (9) теперь имеет вид
СО
Яи(т) = jh(u)R^T-u)du.
о
(8.3.23)
Это интегральное уравнение для определения /?(и) называется
уравнением Винера — Хопфа. Его решение практически возможно
для рациональной спектральной плотности S^(a>):
Sja)) = A ((о2)/й (со2),
где А (со2) — полином от го2 порядка т; В(т2)— полином порядка
п. Так как предполагается, что процесс Х(г) имеет конечную
дисперсию, то т <п.
Процесс с рациональным спектром можно сформировать на
выходе реализуемого фильтра с комплексной частотной харак-
теристикой К,, (фр, удовлетворяющей условию
Kr(j®)K*(jo)=|Kr(jo)|2 = S.(a)),
(8.3.24)
на вход которого воздействует белый шум с единичной спек-
тральной плотностью. Практически определение K-(jffi) сво-
дится к следующему. Представим числитель A (ar) и зна-
менатель В (ar) в виде произведений. Корни А (аг) являются
нулями, а корни В(а>2)— полюсами рационального спектра
У(т). Отнесем все нули и полюса, расположенные в левой
полуплоскости комплексного пространства (с отрицательными
1 Ван Трис Г. Теория обнаружения, оценок и модуляции. Т. 1: Пер. с англ./Под
ред. В. И. Тихонова.— М.: Сов. радио, 1972.— 744 с.
400
Рис. 8.8. Структура линейного
фильтра с использованием обе-
ляющего фильтра
вещественными частями), к X).(jo). Остальные нули и по-
люсы будут точно соответствовать комплексно-сопряженной
функции X*(j®).
Наиболее простой метод решения уравнения Винера — Хопфа
основан на введении обеляющего фильтра—фильтра, преоб-
разующего процесс £(/) в белый шум n{t). Если операция
«обеливания» является обратимой, т. е. из и (г) можно снова
получить £,(/), то в n(t) содержится столько же информации,
что и в £,(/). Иначе говоря, такая операция не приводит
к неоптималыюсти фильтра. Обеляющим является линейный
фильтр с частотной характеристикой
HH(jco)== l/Xr(j(o) (8.3.25)
и соответствующей ей импульсной характеристикой w(t).
Обработка наблюдения ^(/) сводится (рис. 8.8) к его обелива-
нию и получению из белого шума н(/) с корреляционной
функцией 7?п(т) = 5(т) наилучшей оценки процесса Х(/) с помощью
линейного фильтра с комплексной частотной характеристикой
X„(j(o) или соответствующей ей импульсной характеристикой
Последняя определяется решением уравнения Винера —
Хопфа (23), принимающего теперь вид
7?Хи(т)= f/i„(w)8(r —w)(/w = /z„(r), т>0. (8.3.26)
о
Вид характеристики h„(x) при т<0 не влияет на уравнение
и в этой области ее можно доопределить из условия реализу-
емости фильтра: /z„(r) = O при т<0.
Для получения решения осталось определить 7?Хи(т):
7?х„(т) = М{А.(/) j и'(п)£,(г — г — u)du} =
— 00
= J + J w(—г)7?ц(т — v)dv (8.3.27)
— 00 — 00
или в частотной области
' (8.3.28)
В результате получим
MT) = f w(-v)R^(x-v)dv, т>0,
— оо
и /г„(т) = О при т<0.
401
Однако проще определить непосредственно частотную ха-
рактеристику ^„(jm). Обозначим преобразование от ЛКл(т) для
т > 0 через
S j«) = f Л»(т)ехр( - jtor) с/ т =
О
= |Лл(т)ехр(—jcoT)z/r = ^n(j(o). (8.3.29)
о
Так как Лл(т) — импульсная характеристика реализуемого фильтра,
то его частотная характеристика содержит полюса только в левой
половине комплексной плоскости. Поэтому ^„(jw) можно опре-
делить непосредственно по 5)л()ш).
Представим ^„(jco) в виде двух слагаемых:
$U» = J^nWexp(-jon)c/r+ J 7?Хл(т)ехр(—J(ot)zZt =
=srn(j<B)+MH (8-3-30)
Здесь первое, интересующее нас слагаемое Sz+n(j(o) содержит все
полюса, находящиеся в левой полуплоскости, а второе S^(j(o) — в
правой. Практический метод выделения искомой части *S'>„(jco)
основан на методе разложения 5')л()ш) на неприводимые мно-
гочлены (см. § 8.4). На основании (25) и (28) можем записать
/Сл(>)-^Л(>) = [^*(>)5х^>)] + = [^а>)//С;(>)] + . (8.3.31)
Оптимальный фильтр в целом представляет собой последо-
вательное соединение обеляющего фильтра J4z(j(B) и фильтра
с частотной характеристикой ^„(jm); он имеет комплексную
частотную характеристику
/С()®) = (1//Сг(»)[^(»/^;()а>)] + . (8.3.32)
Таким образом, синтез оптимального линейного фильтра
включает несколько простых операций.
8.4. СРАВНЕНИЕ ФИЛЬТРОВ
КОЛМОГОРОВА —ВИНЕРА И
К АЛМ АНА — БЬЮСИ
Рассмотрим задачу линейной фильтрации стационарного га-
уссовского экспоненциально-коррелированного процесса Цг) на
фоне белого шума по методу Колмогорова — Винера и Калмана —
Бьюси.
Пусть наблюдение имеется на интервале ( — оо, z) и задано
выражением (8.3.15), в котором X(z)— не зависящий от n0(t)
гауссовский стационарный процесс, имеющий корреляционную
функцию и спектральную плотность
402
ЯДт) = Z\exp(- а |т|), (со) = 2а D-J(m2 + а2).
Из (8.3.15) находим спектральную плотность наблюдения
5Тоз) = Я25Л(о) + -^=^~“^#^, (8.4.1)
' М / 2 2 а>2Т-а2
где q =^H2D-Ja.N0 — отношение сигнал-шум.
Для синтеза оптимального фильтра применим методику
Колмогорова — Винера. В соответствии с (8.3.24) можем записать
£^ю) = адсо)А^(>)> гДе
Kr( jco) = (Яо/2)1/2 (jco + а ^/1 +<?)/( jco + а) (8.4.2)
— частотная характеристика реализуемого фильтра с полюсом
— a^/l +q и нулем —а, находящимися в левой полуплоскости.
Взаимная спектральная плотность равна
J jco) = Я^(со) = 2аЯГЛ./(®2 + а2)- (8.4.3)
Согласно (8.3.25), (8.3.28) и (2) имеем
S (;Ю)-М)ю) 2bHDij2rN0
^r(j°>) (j(o + ot)(—ja>+otx/l +<?)
Для выделения реализуемой части разложим S^Jjco) на непри-
водимые многочлены:
_2о,„р/2 у' 7 ^_+_________в______
(jm+a)(— jm+a^/1 +9) \N°J \j®+a —jm+ax/l +q
Известен стандартный способ определения значений А и В.
Например, чтобы получить А, нужно умножить обе части
равенства на (jco + a) и положить jco= — а. Аналогично получают
В. В результате придем к выражению
1/2 2ЯД,
—jm+aTl + q
(8.4.4)
Здесь первое слагаемое справа соответствует реализуемой части
Sy„(j(o) и определяет поведение /^„(т) при т>0, а второе — при
т<0. Чтобы убедиться в этом, рассмотрим обратное преобразова-
ние Фурье от (4):
(2/Лг0)1/22ЯЯ^ехр(-ат)/(1 +УГ+9), т^О,
(2/Я0)1^2ЯЯ)1ехр(-ат/1+9)/(1+Уьн), т<0. (8.4.5)
Импульсная характеристика Л„(т) совпадает с ветвью для
т^О, которая является преобразованием Фурье от первого
слагаемого (4). Это слагаемое соответствует корню, лежащему
в левой полуплоскости. Таким образом,
403
/ 2\1/2 1HD 1
/c„(jro) = (—-----Д=г----
' 7 \^o/ l+v/T+^J’B + “
и по формуле (8.3.32) находим частотную характеристику оп-
тимального фильтра
= ---2HD^ -------L^. (8.4.6)
MJ®) ЛД1 + V 1 +</) jm + a^/l +q
Импульсная характеристика оптимального фильтра имеет вид
/'W=^(V1 +<?-9=2^(^/^-1)ехр(-ат^/^)’
т^О. (8.4.7)
Соответственно записываем выражение для оценки
Х*(/)= |/7(т)^(г — т)б/т = —f ехр( —ат^/Г+др’' Т)<7т. (8.4.8)
о ~и о
Сопоставим эту оценку с оптимальной оценкой, следующей
из линейной фильтрации Калмана — Бьюси. Для этого перепишем
уравнение для оценки (8.1.17):
dX ( , 2Н2л\.- , 1HR , .
Поскольку выше отыскивался стационарный фильтр, то сюда
нужно подставить стационарное значение R = Rst. Согласно (8.1.26)
в стационарном режиме Rst = 2D7(y/l+q—V)/q. Подставив это
значение, получим
dlfdt = -аУ1+^Х + (2//)“1а(УТ+7-1)^(/). (8.4.9)
Решение этого линейного _ уравнения приводит к результату,
совпадающему с (8), т.е. (Z).
Таким образом, для гауссовско-марковского сл. пр. решение
уравнения Калмана — Бьюси дает оценку Колмогорова — Винера.
Преимуществом методики решения задачи линейной фильтрации
Калмана является то, что оценка определяется дифференциальным
уравнением. Если даже его решить аналитически затруднительно,
то можно решать с помощью ЭВМ.
8.5. О ПОНИЖЕНИИ РАЗМЕРНОСТИ
ФИЛЬТРОВ
Размерность вектора сообщения (состояния) Х(/), который
подлежит оценке в текущий момент времени t, является опре-
деляющим фактором при выборе быстродействия ЭВМ и требу-
емой емкости памяти. При большой размерности п вектора
404
k(t) и заданном вычислителе оптимальный фильтр, в котором
обрабатывается вектор всех переменных состояния, может по-
требовать так много вычислительных операций, что придется
увеличивать длительность А интервала временной дискретизации.
Однако при этом, во-первых, увеличивается ошибка экстраполяции
и, во-вторых, часть доступных наблюдений ^(/) вообще не
используется. В результате может оказаться, что фильтр, в ко-
тором используется вектор меньшего числа переменных состояния
и меньшая длительность А, будет иметь лучшие характеристики.
Основным методом получения таких фильтров пониженной
размерности является их синтез на основе упрощенной модели
состояния с размерностью г <п. Возможность построения упро-
щенной модели обычйо базируется на физическом анализе
конкретной задачи. Разумеется, она должна сопровождаться
исследованием характеристик фильтра пониженной размерности
при воздействии на него реального наблюдения (с вектором
состояния !(/), задаваемого полной моделью). Для линейных
задач, а также для нелинейных в условиях справедливости
гауссовской аппроксимации (см. § 10.1) такие характеристики
можно получить расчетным путем.
Рассмотрим линейную задачу с уменьшенной размерностью
вектора состояния
сГкг1<к = Arkr + nr(z) (8.5.1)
и надлежащим образом измененным уравнением наблюдения
^(/) = НД,.(/) + п0(?). (8.5.2)
В данном примере структура линейного фильтра пониженной
размерности определяется известным уравнением
ба,/Л = АЛ + КЛ(Ф~НДг], (8.5.3)
где
Kr(/) = Rr(/)HJNo1 (8.5.4)
— матрица коэффициентов усиления, определяемая решением
уравнения Риккати для корреляционной матрицы ошибок Rr(r),
dRr(0/^ = ArR,.+R,.AJ + N,,-RrH^No-1 HrRr. (8.5.5)
Матрица Кг(/) для субоптнмального фильтра пониженного
размера (3) может быть выбрана отличающейся от (4), в ча-
стности, для однородной системы (1) удобно взять
Kr = Rrs(HJNo \ где Rr — стационарное решение уравнения ^(5).
Ошибка оценки связана с £г(/) соотношением е = ) — J k,.(z).
В том случае, когда Хг(Г)— часть первых компонент Х(Г),
матрица J размера и х г выбирается в виде JT= [1г, 0], где
1Г—единичная матрица размера г х г; 0 — нулевая матрица
размера г х (/? — /-). Можно получить систему уравнений для
405
Рис. 8.9. Зависимость апостериорных дис-
персий ошибок для трех вариантов при-
менения двух фильтров Калмана
корреляционной матрицы оши-
бок RE(/). Она аналогична урав-
нениям анализа чувствительно-
сти фильтров Калмана
(см. § 13.1).
Естественны попытки разра-
ботать «оптимальные» в том или
ином смысле процедуры пониже-
ния порядка фильтров1. При рас-
смотрении такой задачи обычно
исходят из того, что заданы
(г х п)-матрица П, осуществля-
ющая понижение порядка
kr=m, и структура фильтра по-
ниженной размерности
(8.5.6)
Оптимизация заключается в выборе Аг, Кг и ш. Функция
Hi (/) выбирается из условия несмещенности оценки
М {kr(/)~kr(z)} =0, а Аг и Кг — из условия минимума среднего
квадрата ошибки e2(Z) для заданного временного интервала.
К сожалению, процедура синтеза оказывается довольно сложной.
Недостаток одних субоптимальных фильтров заключается в том,
что оптимальность достигается только для интервала фик-
сированной длины и при изменении его оптимальные матрицы
Ar(z) и Kr(z) должны определяться заново. Для других субоп-
тимальных фильтров матрицу Ar,(z) приходится считать известной
и определять только Kr(z).
Пример 8.5.1. Фильтр Калмана пониженной размерности. Пусть задано линейное
наблюдение
^(/) = %(/) + и0(/), (8.5.7)
где сообщение X(t) может быть разным:
dX/dt — v(l\ dv/dt^a, da/dt= ~Pa+na(t), (8.5.8)
или
d'kldt = v(l), dvjdt — nv(t). (8.5.9)
Здесь na(t) и nv (t)—БГШ с односторонними спектральными плотностями N„
и N„ соответственно.
1 Казаринов Ю. М., Соколов А. И., Юрченко Ю. С. Субоптимальные алгорит-
мы линейной фильтрации//Зарубежная радиоэлектроника.— 1987.—№ 8.— С. 52—
66.
406
На рис. 8.9 приведены зависимости апостериорных дисперсий ошибки от
отношения сигнал-шум q = ^2Dk(T)/Nn, где Т—длительность интервала наблюде-
ния; £>,(/)—априорная дисперсия соответствующего сообщения /-(/), для трех
случаев: 1) входной сигнал ^(/) с сообщением (8) воздействует на оптимальный
фильтр Калмана (кривая 7); 2) сигнал ^(z) с сообщением (9) воздействует на
соответствующий ему оптимальный фильтр (кривая 2) и 3) входной сигнал !;(/),
определенный выражениями (7), (8), воздействует на фильтр пониженной раз-
мерности, являющийся оптимальным для сообщения (9) (кривая 3).
Видно, что при каждом фиксированном значении q апостериорная дисперсия
ошибки наименьшая для «более гладкого» сообщения (8) и наибольшая для
«менее сглаженного» сообщения (9); в случае 3 при использовании фильтра
пониженной размерности кривая занимает промежуточное положение, т. е.
апостериорная дисперсия по сравнению со случаем 1 увеличивается, но не очень
существенно.
8.6. БЫСТРЫЙ ФИЛЬТР КАЛМАНА
И АДАПТИВНЫЕ ВЫРАВНИВАТЕЛИ
В ряде случаев канал связи, через который проходит излучен-
ный сигнал, на конечном интервале времени можно моделировать
линейным фильтром с постоянными параметрами, имеющими
ограниченную полосу пропускания. При прохождении полезных
дискретных сигналов через такой канал в принимаемом сигнале
будут иметь место межсимвольные наложения (в литературе они
часто называются межсимвольной интерференцией).
При обработке в дискретном времени данные можно пред-
ставить в виде процесса авторегрессии
00
= X hiS^i+n,,, (8.6.1)
i= 1
где {/г,}— импульсная характеристика линейного фильтра, моде-
лирующего канал; sv~i— отсчеты полезного излученного сигнала;
nv — отсчеты дискретного БГШ. Наличие в наблюдении задер-
жанных сигналов приводит к коррелированности значений c,v
и Ev+„, JX/O, даже в том случае, когда отсчеты процессов {jv}
и {nv} некоррелированны при разных v.
Один из способов решения задачи приема при наличии
межсимвольной интерференции состоит в пропускании после-
довательности отсчетов {^v} через обеляющий фильтр, который
устраняет корреляции между значениями выходного процесса
{Hv} в различные моменты времени. В результате прохождения
«широкополосного» сигнала fs\,} через линейный канал с огра-
ниченной полосой пропускания спектр принимаемого колебания
{!Ц сужается. Обеляющий фильтр в какой-то мере «восста-
навливает», выравнивает спектр излученного сигнала и тем
самым устраняет межсимвольную интерференцию. Поэтому такие
407
обеляющие фильтры часто называют выравнивателями, или
эквалайзерами.
Общая методика обеливания последовательности значений
процесса [О сводится к вычитанию из £v + i условного м. о.
M{^v+ll^o}:
nv+1=Ui-M{UiKo}- (8.6.2)
Очевидно, что
M{nv+1} = M{M{r|v + 1|eo}k =
=M{M{UilVo}-M{u1l^}b=o.
Здесь при вычислении м. о. выделено осреднение при условии
наблюдения 6о до момента v включительно с последующим
осреднением по £о.
Рассмотрим взаимную корреляцию различных элементов T|v
и r|V4-p, ji>0, последовательности {r]v}:
M{pvnvu=M{MKnv+j^-4}^ =
Здесь было использовано то, что при фиксированном ~1,
ц>0, значение T|v известно и его можно вынести за знак
выделенного м. о. М { • |^о+ ц ’’}. После этого получаем
М{T]v+M|^o+tl г)> которое, как было показано выше, равно нулю.
Таким образом, T|v и r]v + p некоррелированны при ц>0.
Считая процесс стационарным, из свойства симметрии кор-
реляционной функции следует, что этот результат справедлив
и при ц<(), т. е.
(8.6.3)
(U, ц^и.
Следовательно, основная задача адаптивных выравнивателей
сводится к предсказанию очередного элемента последовательности
отсчетов £v+1 на основе наблюдения прошлых значений. Исходя
из соображений простоты реализации адаптивного выравнивателя
его структуру чаще всего выбирают в виде
^+1=M{^v+1|^_M + 1} = a^v, v^p, (8.6.4)
где av — ц-вектор весовых коэффициентов адаптивного выравнива-
теля; E,v —ji-вектор последних предыдущих значений последователь-
ности ^v: %v = {^v, ^v_t,..., ^v+n-i}• При этом задача сводится
к определению коэффициентов av, т. е. к идентификации модели
процесса {^v}.
К выражению (1) можно прийти, выбирая определенным
образом вид последовательности {^v}. Примем ее ц-связанной
гауссовско-марковской, описываемой уравнением
408
^v + 1=aJ^ + nOv + 1,
где вектор а и дисперсия Vv дискретного белого шума
nOv+1 неизвестны.
При такой формулировке задача прогноза сводится к тому,
чтобы по наблюдению определить наилучшую оценку
av = M{a|^o} вектора а. Действительно,
Cv+1=M{U1|^o} = M{M{^v+1|Vo, a}^+1|U}a = a^,
что совпадает с (1).
Эту задачу можно свести к задаче линейной фильтрации.
Рассматривая а как вырожденную последовательность
av = const (v), можно написать уравнения наблюдения и сообщения
i^v = Hvav + nov, (8.6.5)
av = ay_1 (8.6.6)
с начальным условием М {av = 0} =М {а} =та, М{(а —тя)(а —
— ma)T} = Da. В (5) введено обозначение для ц-вектора Hv= ]т,
который на v-м шаге известен, поскольку задано наблюдение ^q.
Особенность уравнений (5), (6) по сравнению с обычной
постановкой задачи калмановской фильтрации состоит в том,
что в уравнении сообщения (6) отсутствует шум (фу = 0) и,
кроме того, неизвестна дисперсия Vv шума наблюдения; последнее
отличие непринципиально (см. ниже). Аналогичная задача была
рассмотрена в примере 8.1.3.
Уравнения фильтра Калмана для фильтрации av в форме
(8.1.39) принимают вид
av = av_.1+Kv(^-a:_1^“1),
Kv = Rv_1H:/(HvRv_1HTv + Vv), (8.6.7)
RV = (I-KVHV)RV1
Обозначив Pv = Rv/Vv, эти уравнения можно записать в следующем
виде:
^v = ^v-l +KvCsv — Cv)’ (8.6.8)
(8.6.9)
Pv = (I-Kv(^-1)T]Pv_1(Vv_1/Vv). (8.6.10)
Заметим, что в (8)...(10) входит только отношение Vy/Vv-i.
Чтобы исключить зависимость от неизвестной дисперсии Vv,
обычно применяют одно из двух приближений. В первом
полагают, что Vv постоянно при разных V, т. е. Vv_i/Vy=l.
Во втором принимают Vv-i/Vv = Y^l, т. е. считают, что дисперсия
каждого нового отсчета шума в у раз меньше, чем у предыдущего.
При этом новым отсчетам придается больший вес в форми-
ровании коэффициентов а, чем предыдущим. Это эквивалентно
409
введению экспоненциального взвешивания для наблюдений
(1/Vv = yv/V0). Принятие такого допущения обеспечивает, во-
первых, большую устойчивость алгоритмов к ошибкам вычис-
лений в ЭВМ и, во-вторых, возможность работы при изменя-
ющихся во времени характеристиках канала.
Алгоритм (8)...(10) теперь можно записать в виде
(8-6.11)
Kv = Pv_1^-1/[(^-1)tPv-1^^1 + 1/y], (8.6.12)
PXl-KvG^TlP.-iY, (8.6.13)
где Y^l, причем выбору Vv = const (v) соответствует y=1-
Совместно с выражением = уравнения (8)...(10)
с начальными условиями а0 = тй, P0 = Da/Vv образуют алгоритм
адаптивного предсказания процесса при выбранной его модели
(5). Для инициализации алгоритма при v<p полагается £;v = 0
для v^O. Этот алгоритм используется и для определения
коэффициентов а (задача идентификации модели процесса).
Отметим, что из методики получения алгоритма следует,
что вектор Ejv может быть более общим, чем
%v={i;v, ^v-i, ..., Например, часто помимо самих наблю-
дений £,v бывает известен полностью или частично содержащийся
в них полезный сигнал sv (предварительное обучение адаптивного
выравнивателя, см. § 13.4). Эти данные можно включить в задачу
предсказания, выбрав модель для в виде
Ev+i = aT^'’ + «ov+i5 (8.6.14)
где {^v? — i, ..., ц +1, .^v, i, ..*, ^v—ц +1} и а , ...,
ои+1, ... а2ц} — 2ц-векторы. За исключением увеличения размер-
ности векторов О и а, дополнительных изменений в алгоритме
не происходит.
Уравнения (8)...(10) при больших ц содержат большое число
операций сложения и умножения. Так, при у=1 число умножений
в уравнении (11) для определения а равно ц, в (12) для
вычисления вектора коэффициентов число умножений равно
(ц2 + ц) и число дополнительных умножений в (10) для определе-
ния нормированной матрицы дисперсий Pv равно ц2.
Используя особенности уравнений (8)...(10), удалось разрабо-
тать несколько процедур, отличающихся меньшим числом матема-
тических операций для больших ц. Получающиеся при этом
алгоритмы иногда называют быстрыми фильтрами Калмана.
Идейная сторона упрощений при получении быстрых алгоритмов
фильтрации связана с исключением из алгоритма матрицы Pv.
В самом деле, в уравнение (8) для оценки входит только вектор Kv.
Поэтому если удается получить рекуррентную процедуру получе-
ния Kv без использования Pv, то можно существенно уменьшить
число операций. Разумеется, в общем случае это невозможно.
410
Чтобы понять принципиальную возможность такой процедуры
вычисления Kv в нашем случае, умножим обе части (10) на
Так как согласно (8.1.35) PvEj’*“1 =KV, то из (10) следует
(8.6.15)
т. е. вектор Kv выражается через аналогичный по структуре
вектор Kv i =PV-1%M“1 на предыдущем шаге. Поэтому можно
допустить возможность выразить Kv_! на основе Kv_t и
Укажем, что в наиболее совершенном из быстрых фильтров —
быстром трансверсальном фильтре1 — число операций умножения
порядка 5ц, а в обычном («медленном») фильтре Калмана (8)...(10)
общее число операций умножения равно 2ц2 + Зц. Отсюда ясно, что
при ц^2 быстрые фильтры обеспечивают существенный выигрыш.
Глава 9. ТОЧНЫЕ РЕШЕНИЯ ЗАДАЧ
9.1. РЕШЕНИЯ НЕКОТОРЫХ ЗАДАЧ
НЕЛИНЕЙНОЙ ФИЛЬТРАЦИИ
Приведем примеры и задачи, для которых можно получить
точные решения уравнения Стратоновича (7.3.8):
др (t, k)/dt = L{p (t, X)} + [F(Z, X) - F(z)]p (z, X), (9.1.1)
где F(Z)=|F(z, X)p(z, X)<7X.
Это задача линейной фильтрации, рассмотренная в § 8.1, а также
два примера из § 7.7. Приведем еще несколько частных задач,
допускающих точное решение. Они имеют самостоятельное
значение и, кроме того, являются основой для разных приближен-
ных методов решения (гл. 10).
Предварительно укажем, что решение интегродифференциал ь-
ного уравнения (1) сводится к решению более простого уравнения
дп(z, X)/<?Z = Z, {тг (z, X)} + F(z, X)zt(z, X.), (9.1.2)
которое не содержит в правой части интеграла от tc(Z. X)
и является линейным дифференциальным уравнением в частных
производных. При этом начальное условие сохраняет прежний
вид, т. е. п(0, Х)=р(0, Х)=р0(Х).
Решение p(z, X) уравнения (1) определяется при известной
решении n(Z, X) выражением
1 Cioffi J. М., Kailath Т. Fast Recursive-least-squares Transversal Filters for
Adaptive Filtering//IEEE Trans.—1984.— Vol. ASSP-32, №2.— P. 304—321.
411
p(t, Х) = тс(/, X)/Jrc(z, k)<72,
x
(9.1.3)
т. е. отличается от it(t, X) только нормировочным множителем.
Действительно, пусть п (г, к) есть решение уравнения (2).
Подставив (3) в (1), имеем
йл(/, X)
f 7t(z, л) А
n(t, л) '71 д’ ^А
' ' dt
(Мб Х)А)2
(л (z, Х)А
F(t, Х)я(/, X) |7'(б Х)л(/, Х)А
[ л(/, Х)А (fit (г, Х)А)2
Это равенство переходит в тождество
p^^W = fF(/, Х)л(/, к)<УХ,
к
которое следует из (2), если проинтегрировать обе части (2) по
X и учесть, что
$L{p(t, Х)};7Х = О.
х
Это равенство вытекает из условия нормировки для p(l, X):
~ p(t, /.)(//.= L{p(t,‘k)}d‘k= L {л(/, Х)}<7Х/ it(t, Х)<А = 0.
</ V %
XX XX
В некоторых случаях может оказаться полезной замена
переменных в уравнении (1). Так, если применить прежнюю
замену переменных (3.4.39), то для преобразованной апостериор-
ной п. в. /Др, т) уравнение (1) примет вид
Зд(д, т)/ат = £{р(д, т)} + [/(т, ц)-Г(т)]р(ц, т), (9.1.4)
где оператор ФПК определен выражением (7.3.1) и
Т(т, ц) = F(t, Х)[<7ср (/)/<*]-1.
Прямой и общий методы решения базируются на непосредствен-
ном моделировании уравнения (1) на ЭВМ (§ 9.6). Однако здесь будут
перечислены случаи, когда удается получить аналитические решения.
1. Условно-гауссовские процессы. Задача фильтрации для этого
класса процессов является небольшим обобщением задачи линей-
ной фильтрации с тем отличием, что теперь допускается зави-
симость параметров фильтра от наблюдения.
Применительно к формулировке задачи (7.6.9) укажем условия,
при которых апостериорная п. в. (7.6.13) будет нормальной:
412
1) векторная функция а~(Л Г|), определяемая (7.6.14), линейна
относительно X, т. е.
а~(/, ц) = а0(/, y + ajz, (9.1.5)
2) матрица _N(Z, ц), определенная (7.6.15), не зависит от X;
3) функция F(z, X), определенная (7.6.16), является квадратичным
трехчленом по X, т. е.
F(/; X)=F0(z, ijj+FI(t, ^)X + (1/2)XTF2 (z, ^)X; (9.1.6)
4) начальная априорная п.в. p(Q, X) = N(X0, Ro) нормальная.
При выполнении этих четырех условий задача фильтрации
сводится к линейной и апостериорная п. в. p(t, X) = N(X, R) будет
нормальной. На основании результатов теории линейной фильтра-
ции § 8.1 можно сразу написать уравнения для параметров
нормальной п.в. N(X, R):
dfydt = а0 (t, ^j + ajz, ^X + RfFjz, ^) + F2(z, ij)X], (9.1.7)
4R/A = N(Z, ^j + ajz, Ej)R + RaI (z, ^) + RF2(z, ^R (9.1.8)
с начальными условиями Xo и Ro соответственно.
Наиболее важным классом процессов, удовлетворяющих пе-
речисленным условиям, являются условно-гауссовские процессы.
Они описываются стохастическими уравнениями, являющимися
частным случаем (7.6.9), а именно, для них
f^(z, i|) = f^0(z, ^)4-fu(z, ЦХ, (9 19)
Мб п) = М(л £)+Мл W, n) = N(z, у.
2. Сведение нелинейной задачи к линейной. Некоторые нелиней-
ные задачи путем специальной замены переменных можно свести
к линейным, решение которых известно. Проиллюстрируем это
на практически интересном примере фильтрации огибающей
и фазы узкополосного процесса1.
Пусть узкополосный сл. пр. j(/) = /l (!)cos [<оог — <р(0] наблюдается на фоне
БГШ:
£(z)=4 (z)cos[<o0<-<p(r)]+n0(z). (9.1.10)
Узкополосный процесс s(t) можно представить также в виде
j (г) = (/) cos ш01 + Х2 (/) sin <в01, (9.1.11)
где Х, (О и л2 (I)— квадратурные составляющие.
Примем, что X] (г) и Х2(/) — независимые гауссовские марковские процессы,
описываемые уравнениями
А(/Л= — о7,|(/), <Л2/Л= — аХ2+иХ2(г), (9.1.12)
1 Парамонов А. А. Оптимальная фильтрация узкополосного случайного про-
цесса//Радиотехника.— 1980.— Т. 35, № 6.— С. 70—73.
413
в которых Иц и «12 — независимые БГШ с одинаковыми двусторонними
спектральными плотностями N-J2. При этом из (11) следует, что процесс s(t)
является узкополосным гауссовским. Огибающая A(t) и фаза <р(/) узкополосного
процесса связаны с ХД/) и Х2(г) известными соотношениями
Л(/) = хА?(7) + 7.Дг), <p(/)=arctg[X2(/)/Xi(/)]. (9.1.13)
Огибающая имеет распределение Рэлея, фаза распределена равномерно в интервале
[О, 2л]. На основании выражений (12) и (13) можно получить соответствующие
дифференциальные уравнения (3.7.20) для .4 (/) и <р(Г). Например, уравнение для
A(j) имеет вид
dAjdt= —uA+^N-JbA^+n^ty, (9.1.14)
где /?х(7) — БГШ с двусторонней спектральной плотностью Л\/2.
Задача фильтрации A(t) и <р (г) есть задача нелинейной фильтрации, так
как <р(Л) входит в уравнение наблюдения (10) нелинейно, а для А(1) нелинейным
является уравнение сообщения (14). Решение задачи нелинейной фильтрации
существенно сложнее, чем линейной. Поэтому гораздо удобнее определить сначала
апостериорную п. в. процесса Х(7)-= [z.। (t), А.2(7)] путем решения задачи линейной
фильтрации, а после этого, пользуясь формулами связи (13), вычислить апостери-
орную п. в. для A (t) и <р(7) и, следовательно, получить их оптимальные оценки.
3. Квазислучайные процессы. Назовем квазислучайными такие
процессы, которые полностью определяются заданием своего
значения в некоторой точке (например, при t = tQ). Для марковских
диффузионных процессов это эквивалентно тому, что процесс
удовлетворяет уравнению
d'k/dt = f(t, Ц (9.1.15)
особенностью которого является отсутствие БГШ в правой части.
Иначе, марковский квазислучайный процесс имеет нулевой ко-
эффициент диффузии
1^ = 0. (9.1.16)
Действительно, из условия существования и единственности
решения дифференциального уравнения (15) следует, что задание
значения процесса Х(г0)==^0 в произвольной точке tQ полностью
определяет его поведение при всех t (причем время t может
быть как />/0, так и Z<Z0):
Х(/) = Ф(/, z0,k0), (9.1.17)
где Ф(/, f0, к0) — решение уравнения (15) с начальным условием
Хо при t = t0.
Квазислучайные процессы весьма часто используются в прак-
тических задачах. На основе их может быть выполнен синтез
обнаружителей и различителен сигналов (§ 9.2, 9.3), измерителей
постоянных во времени параметров сигналов (§ 9.5). Кроме того,
такими процессами можно описывать поведение реальных по-
414
dxfdt = v,
dvidt = aK,
dajdt — Q,
движных объектов на небольших временных интервалах. Например,
движение объекта по одной координате иногда задают уравнениями:
x(z)
o(0
1 (?~zo) (t-to)2!1 х0
0 1 (t-t0) vo = Ф(/, /0, х0) =
0 0 1 «о
= Ф(1-/0)к0, (9.1.18)
где k0=[x0, v0, a0]T — координата, скорость и ускорение объекта
при t = tQ. Такое задание соответствует так называемой полиноми-
альной модели движения, так как при этом
х (0 = х0 + v0 (t-10) + Оо О - (о)2/2-
Уравнение фильтрации Стратоновича (1) для сообщения (15)
принимает вид
Цр('. М]+Щ'. 4 Р I '’)
Покажем, что его решение при начальном условии
p(tQ, к0)=ррг(ка) дается выражением
p(t, к) = с(1)дрг(Ф(/0, t, X))det(/0, t, X)exp{ f F[t, Ф(/о, t, Х)]Л},
(9.1.20)
где c(t)—нормировочный множитель; det(/0, t, A,) =
= |<5ФТ(/О, t, X)/dk|— определитель матрицы с элементами
{5ф;(/0, /, к)/<ЗД;=1.
В справедливости решения (20) можно убедиться непосредст-
венной подстановкой его в (19). Однако технически проще
эвристическое доказательство, использующее свойство квази-
случайности процесса X(t). Для этого, базируясь на решении
(17), введем для сигнала s(t, к) эквивалентную запись
50(t, k0)=s(t, к = Ф(/, /0, к0)). (9.1.21)
Для всех точек интервала наблюдения сигнал r0(t, k0) зависит
от постоянной случайной величины к0. Поэтому задача сводится
к оценке сл. в. к0 с априорной п. в. дрг(к0) по наблюдению
= Ч)+«О(0- (9.1.22)
Решение такой задачи известно (6.1.19):
к0) = с(/)дрг(к0)ехр{ к0)Л}, (9.1.23)
*0
где c(t) — нормировочный множитель; F(t, k0)—производная по
времени от логарифма функционала правдоподобия для наблюде-
ния (22).
415
Согласно (17) сл. в. k(t) и Х0 = Х(г0) связаны детерминирован-
ной зависимостью. Поэтому для получения апостериорной п. в.
p(f, X) достаточно воспользоваться известным правилом пересчета
л. в. при функциональном преобразовании сл. в. (1.1.42). Если
Х=#(Х0) и Х0 = Л(Х), причем задана п. в. /?0(Х0), то
/ДХ)=/?О(/?(Х))|<5Л(Х)/(ЗХ|. При этом следует учесть известное свой-
ство фундаментальной матрицы Х(Д = Ф(/, /0, Хо), а именно:
преобразование (17) является взаимно однозначным. Поэтому
Х0 = Ф(Г0, /, X). В результате выполнения необходимых преоб-
разований придем к решению (20).
Возвратимся к процессу x(Z), описываемому полиномиальной
моделью (18), когда наблюдение имеет вид ^(/) = х(/, x)+n0(t).
Для этого примера найдем
Ф(/о, /, Х) = Ф(/0 —/)Х, det(/0, /, Х) = |ФТ(/О —r)| = 1,
p(t, Х) = с(/)ррг(Ф(/0-г)Х)ехр{| F(t, Ф(/0-т)Х)Л} = (9.1.24)
'0
= с(/)рр,.(Ф(?0-т)Х)ехр{ |F(t, x+(t0-t)v + a(t-t0)2/2)di:}.
‘о
4. Диффузионные процессы с нелинейным коэффициентом сноса.
Рассмотрим сначала одномерный процесс, заданный стохастичес-
ким дифференциальным уравнением
dk/dt=f(k) + nx(t), (9.1.25)
коэффициент сноса f(X) которого удовлетворяет условию
df^jdk + (2/2Vx)/2 (X) = А X2 + Вк + С. (9.1.26)
Отметим, что при линейном коэффициенте сноса /(X) =—аХ
диффузионный процесс Х(?) будет гауссовским, а при нелиней-
ном— негауссовским. В качестве последнего можно привести
пример процесса, заданного уравнением
dk/dt = th к+ М{их(/)их(/ + т)} = 8(т), Л\/2 = 1. (9.1.27)
Для такого процесса условие (26) выполняется:
4thX+(thx)2=-L-+fi 1,
ЯЛ ' ’ СП Л \ СП Л у
причем П = В = 0, С=1.
Пусть уравнение наблюдения линейно относительно X:
^t) = Hk(t)+n0(t). (9.1.28)
Тогда при выполнении условия (26) и начальной априорной п. в.
416
р0(Х) = сехр|Д |/(х)Дх- 1(Х-m0)2/R0^, (9.1.29)
где с — нормировочная постоянная. Уравнение фильтрации (1)
имеет точное решение:
Л
p(t, А) = с(?)ехр|~ /(х)Дх-1(Х-т1(/))2/А1(/)|, (9.1.30)
причем параметры (г) и R1 (t) удовлетворяют уравнениям
Ат.Цв +^7?1[^(/)-Ят1],
Z -Л'о
”3 = _R
dt
dt 2 х 1 \ Л'
(9.1.31)
с начальными условиями
m](0) = mo, Rr(Q) = R0. (9.1.32)
Для доказательства запишем уравнение (1) применительно
к задаче (25), (28):
ФМ)_ а г , , л\а22,2я
St + 4 ,д7 + д.'о
^(/)А-1ЯХ2
Подставим сюда п. в. (30). Тогда левая часть примет вид
/ 1 de X — mldml t, — m\dRv
(9.1.33)
Р-
' ’ с dt Rv dt 2R2i dt
Учитывая, что для п. в. (30) выполняются соотношения
^ = п(^~тЛ д2Р-„
ах p\Ni Rt г ах2 р
2/ X-WjY , 2<_ 1
Л\ A R
распишем правую часть уравнения (33):
2р\2 , 2 df 4(X-m1)/| (Х-mJ2
J 2f2 N,
P j dX Nx Rv + 4
-Г
К1 ^0
Ni.dX Л\7?! R(
2\d\ Np 4R(
о
N^2H Н/U Z/>2
о
14—2247
417
Приравнивая коэффициенты при одинаковых степенях (X — тг)
в правой и левой частях (33), получаем уравнения (31) и (32).
При этом выбор начальных условий m1(0) = mo, Rt(Q) = R0
обеспечивает выполнение равенства /ДО, Х.)=/?0(Х), где р0(Х)
задано (29).
Для многомерного случая уравнения (25) и (26) принимают вид
аХ/Л = Г(Х) + пД/), (9.1.34)
tr{5fT(k)/af}+fT(X)Nf 1f(k) = XTAk + BTk + C. (9.1.35)
В дополнение к этому необходимо, чтобы f(Z) была градиентом
некоторой скалярной функции Г (X.):
f(X) = ar(k)/<5k. (9.1.36)
Напомним, что достаточное условие этого заключается в вы-
полнении равенств — i, J=l, М, причем
м 4-
Г(М= Z f •••’ х> X^dx-
i = 1 - сс
Пусть наблюдение имеет вид, аналогичный (28):
£(z) = HX + n0(/). (9.1.37)
Тогда решение уравнения фильтрации дается выражением
p(t, k) = c(?)exp{r(k)-(l/2)(k-m1)TRJ”1(X-m1)}. (9.1.38)
Здесь
dmr[t^jdt — -RjAm^Bj + R.H'No 1[^(/)-Hm1], (9.1.39)
^R1(/)/^ = N)l-R1 [A + ^No'HjR! (9.1.40)
с начальными условиями m1(r = 0) = mo, R1(/ = 0) = Ro, где m0
и Ro — параметры начального априорного распределения,
р(0, X)=/70(X) = cexp{r(Z)-(l/2)(X-m0)TR0-1(Z-m0)}. (9.1.41)
Доказательства приведенного результата выполняются так же,
как в одномерном случае.
Пример 9.1.1. Фильтрация гауссовского процесса. По наблюдению (37) нужно
осуществить фильтрацию гауссовского процесса Х(<), заданного стохастическим
уравнением
d"Kjdt—А^Х + п, (<), М {пхр)пхр + т)} = Мх8(т).
Очевидно, что такой процесс является частным случаем сл. пр., заданного
уравнениями (34), (35) при A^AJN/’A;,, В = 0, C = tr{Ax}. Для него уравнения
(39) и (40) принимают вид
4m1(l)/rf/=-R1AINx-1A,liii1+R1HTNoI[^(l)-Hin1]. (9.1.42)
<®1(z)/(/; = Nx-R1[AINf1AK + HINcr1H]R1. (9.1.43)
418
Уравнения (42) и (43) отличаются от уравнений оптимальной линейной
фильтрации (8.1.61) для к(!) и R(t). Причина этого заключается в том, что
параметры nij (!) и Rt(!) имеют другой смысл. Как видно из (38), они не
являются м. о. и корреляционной матрицей апостериорной п. в.
Действительно, при Г(к) = (1/2)ктАхк из (38) имеем
p(t, X) = c(!)exp^-7.rAxk-^(k-m1)IR f
(’i«>
где
£(Z) = (1-R1AJ-Im1, (9.1.45)
а корреляционная матрица ошибок фильтрации
R = M{(k-X)(k-K)I} = [R1-l-Ax]-1 = [l-R1Ax]-1R1. (9.1.46)
Если продифференцировать (45) и (46) по времени и подставить в них
полученные выражения (39) и (40), то можно прийти к уравнениям (8.1.61).
Пример 9.1.2. Фильтрация негауссовского процесса. Пусть наблюдение имеет
вид (28), а фильтруемый процесс задан уравнением
dkjdt = а th (pk) + nl(!), (9.1.47)
являющимся обобщением уравнения (27). Запишем условие (26):
d 2а.2 «В 2а2 / 1 \
dk ' Nx ch2pk Nk \ ch2pXJ
Если N-J2 = a/f>, то имеем частный случай (26) при А=В = 0, С = 2а2/Л\ = оф.
Заметим, что а и р должны иметь одинаковые знаки, так как т/Р—Л'г/2>0.
При этом, как следует из (3.4.38), процесс Х(!) не имеет стационарного
распределения и дисперсия процесса стремится к бесконечности.
На основании (30) записываем точное решение уравнения Стратоновича (1)
, (2а: Г 1 [X —т,(!)]2)
p(t, /Д = с(!)ехр j—- Ithpxrfx----------1, (9.1.48)
где согласно (31) и (32)
(9.1.49)
Учитывая, что fthxdx=lnchx, и определяя нормировочный множитель, для
p(t, к) получаем окончательное выражение
,, ,, ехр(Рт1)У(щ1 + рл1, Л1) + ехр(-рт1)У(т1-рА], RJ
р (t, Л) ----------------------------------------
ехр (Pm) + ехр (— Pm)
где У(т, R)—нормальная и. в. с м. о. т и дисперсией R.
(9.1.50)
419
С использованием (50) находим оценку
, г. , ... (^1 + РЛ1)ехр(Рт1) + (/и]-рЛ1)ехр(-рт1)
>. (!) = \).р (Г, Л) ак=----——г---------—-—г----------
J exp(Pm1)+exp(-pm1)
= ml + pAjth pnjj. (9.1.51)
Попутно отметим, что оценка X* по максимуму апостериорной п. в., получаемая
из условия 3p(t, Х*)/Ш = 0, удовлетворяет трансцендентному уравнению, со-
впадающему по виду с (51):
X* = m1 + PA1thpX*.
Для определения дисперсии вычислим сначала момент второго порядка
[Л1 + (/и1 + рЛ1)2]схр(Рт])+ [Л1+(ш1-р/?1)2]ехр(-р/и1)
М, = Л2в(!, Mdk =---------------------—— ------------— -----------------=
J exp(Pm!) + exp( —р/?г()
= т 2 + р2Я f + 2mip/?1th pmt + 2?(.
Теперь находим апостериорную дисперсию
Л(0 = М2-£2 = А1-|-р2А? (l-th2pm1).
(9.1.52)
Рис. 9.1. Дисперсия ошибки фильтра-
ции негауссовского процесса
Видно, что апостериорная дисперсия
R(t) зависит от (!) и изменяется от Rt
при до А( + р2А? при /н1(!)->0.
Среднее значение дисперсии ошибки
фильтрации Dc(t) получается осреднени-
ем R(t) по m1(!):Dr(/) = Mmi {«(!)}. Ре-
зультаты расчетов с помощью ЭВМ
дисперсии //(!) при а= р= yx/2 = V0/2= I
воспроизведены на рис. 9.1 1 для несколь-
ких значений Н. Дисперсия
при !->оо, что является следствием более
общего результата
lim DE(!)=lim М{А(!, от1)} = А1.
Поэтому среднее значение второго слага-
емого справа в (52) стремится к нулю
при !->оо. Физически это объясняется
тем, что при указанном выше стремлении дисперсии процесса Х(!) к бесконечности
при !->оо дисперсии процессов >.(!) и m1(t) также стремятся к бесконечности
(это следует из ограниченности дисперсии ошибки). При больших значениях
модуля ml(t) имеем (1 — th2pm1)->0.
Таким образом, из стационарного решения уравнения (49), полагая dRJdt^O,
получаем ОЕst= R, st = (NaNK/4H2). Такой же результат получается для дисперсии
ошибки фильтрации винеровского процесса со спектральной плотностью NJ2
при том же уравнении наблюдения (28).
1 Benes V. Е. Exact Finite-dimensional Filters for Certain Diffusions with Nonlinear
Drift//Stochastics.—1981.— Vol. 5.— P. 65—92.
420
5. Упрощения при быстрых флюктуациях сопровождающих
параметров. При решении задач фильтрации предполагается
оптимальное оценивание всех неизвестных параметров. При этом
сложность реализации получаемых оптимальных алгоритмов
в значительной мере определяется размерностью вектора фильтру-
емых параметров. Поэтому естественно попытаться уменьшить
размерность этого вектора. Оказывается, в некоторых случаях
(например, когда один из параметров меняется значительно
быстрее другого) это возможно1.
Пусть полезный сигнал s(t, Х(/), р(0) зависит от двух па-
раметров {Х(/), ц(/)}, которые априорно независимы и являются
компетентами марковского процесса. В данном случае уравнение
фильтрации (1) имеет вид
-Р^^- = Ц{Р^ х, ц)} + ЛДр(Г, К ц)} +
+ [Ш ц)-Г(/)]р(/, К ц), (9.1.53)
где FK{-} и £м{-} — операторы ФПК для X(t) и р(/).
Предположим, что ц (Z) изменяется во времени значительно
быстрее Х(/). Представим апостериорную п.в. в виде
p(t, к, ц)=р(г, F)p(t, ц|Х), (9.1.54)
где p(t, ц|Х)—условная апостериорная п. в. ц(?) при фиксирован-
ном Х(/) = Х. Подставив (54) в (53) и проинтегрировав обе части
(53) по ц, получим
^^ = £х{р(/, XH + f/’O, F) — F(t)]p(t, X), (9.1.55)
где
F(t, X) = $F(t, X, ц)р(/, p|X)<Zp. (9.1.56)
В уравнение (55) параметр ц формально не входит, и оно
описывает апостериорную п. в. только параметра Х(/). Однако
в выражение для F(t, X) входит p(t, ц|Х), которую в общем
случае можно определить из специального уравнения, следующего
из (53). Однако учет быстроты изменения ц(?) по сравнению
с Х(?) упрощает задачу.
Если Х(?) меняется медленно, то для определения p(t, ц|Х)
в точке t параметр Х(?) можно полагать постоянным на
некотором интервале Т: Х(г) = Х при ?е[/— Т, Z ]. При этом
р (/, ц | X) получается в результате решения известной задачи
фильтрации параметра ц(/) сигнала s(t, X, ц) с известным X:
dP^^ = L^{p{t, р|X)} + [F(z, X, p)-F(Z, Х)]р(/, ц|X). (9.1.57)
1 Первачев С. В. Радиоавтоматика: Учебник для вузов.— М.: Радио и связь,
1982. 296 с.
421
Таким образом, исходная задача совместной фильтрации
процесса {к (г), ц(/)} сведена к двум самостоятельным задачам:
фильтрации k(Z) согласно (55) и фильтрации ц(?) согласно (57).
Если эти уравнения не удается решить точно, то следует
применять разные приближенные методы (гл. 10).
9.2. ОБНАРУЖЕНИЕ СИГНАЛА
С НЕИЗМЕНЯЮЩИМИСЯ ПАРАМЕТРАМИ
Одна из типовых задач теории оптимального приема сигналов
на фоне помех формулируется так. Пусть в принятом колебании
£,(?), представляющем собой сумму полезного сигнала s(t, к)
и помехи nQ(t), не известен сам факт наличия сигнала
s(t, к). Для формализации задачи запишем принятое колебание
^(0 в виде
£(<) = 0*ОД) + ио(')> (9.2.1)
Здесь 0—сл. в., которая может принимать лишь два значения:
0 = 0 (сигнал отсутствует) и 0=1 (сигнал присутствует). Требуется
по принятой конкретной реализации ^(г) на интервале [0, Т]
решить оптимальным образом, присутствует или отсутствует
сигнал s(t, к). Иначе говоря, требуется оценить значение диск-
ретного параметра 0. В дальнейшем принято, что ло(О есть
БГШ (например, собственный шум приемника).
Основные уравнения фильтрации в дискретном времени (7.2.9),
(7.2.10) и непрерывном (7.3.8) позволяют точно решить задачу
обнаружения в случае, когда параметры полезного сигнала к на
интервале наблюдения Т являются не случайными процессами,
а сл. в. с известными априорными п. в. ррг(к). Это означает,
что в конкретной реализации наблюдения £, о параметры полезного
сигнала постоянны, но значения параметров могут быть раз-
личными в разных реализациях в соответствии с априорной
п. в. />рг(к). Когда «параметры» сигнала к (г) есть сл. пр., т. е.
изменяются на интервале [0, Т ], приходится применять прибли-
женные методы решения (см. § 10.2, п. 1). Ограничимся пока
первым случаем.
Сформулированная задача обнаружения сигнала на фоне шума
является весьма характерной для радиолокации. В результате
ее решения должна быть получена структурная схема оптималь-
ного обнаружителя сигнала и определены ее количественные
характеристики (вероятности правильного и ошибочного принятия
решения).
Перейдем к решению задачи. Пусть наблюдение имеет вид
(7.1.4):
^ = Oj(Zv, k) + HOv, 0^Т, (9.2.2)
422
где дискретный случайный параметр 0 принимает два возможных
значения 0 и 1 с априорными вероятностями ррг(0) и дрг(1),
Ррг (0)+РРг (1)= 1-
Для постоянного параметра 0 условная п.в. /’(0v[0v-i),
входящая в (7.2.10) справа под интеграл, есть дельта-функция
p(0v| 0V~1 ) = 8(0V — 0V~ j), и (7.2.10) переходит в тождество. По-
этому остается одно уравнение (7.2.9), в котором /’(0JV6 -1) =
=/7(0v_! IVo-1), поскольку экстраполированное на один шаг
значение 0V, определяемое по априорному уравнению d.Q[dt = Q,
совпадает с 0v-i- Для апостериорной вероятности
pv(0, k)=p(0v, Щ&) уравнение (7.2.9) примет вид
/\(0, k) = Cpv_1(0, l)exp[Fv(0, к)], Fv(0, k) =
= -(A/JVo)^v-05(rv, k)]2. (9.2.3)
На основании условия согласованности находим интересу-
ющую нас апостериорную вероятность дискретного параметра 0:
Л(9)={Л(9Д)^(Х)Д (9.2.4)
Так как в задаче обнаружения при 0 = 0 полезный сигнал
отсутствует, то осреднение (4) нужно выполнять только для 0=1.
После этого находим отношение апостериорных вероятностей
Л(1Ж(0) = М/М^М(0). (9.2.5)
В результате сравнения этого отношения с порогом принимается
решение о наличии или отсутствии сигнала на интервале
наблюдения Т. Конкретизация выражения (5) возможна для
частных видов s(tv, к) и ррг(к).
Среди параметров к = {Х15 Х2, Х3,...}, от которых зависит
сигнал s(t, к), некоторые (например, Xj и Х2) могут быть
случайными (с априорной п. в. ppr(ki, Х2)), а остальные {Х3, Х4,...}
точно известными (с априорной п. в. ррг (Х.3, Х4, ...) = 8(Л3 — Х.зо) х
х 8(Х4 — Х40)...). В таких случаях нахождение отношения апостери-
орных вероятностей может быть связано с вычислением апостери-
орной вероятности /\(1), так как теперь при ее вычислении
нужно выполнять вероятностное осреднение по случайным па-
раметрам (с п. в. ррг()^, Х2)). Рассмотрим три примера.
Детерминированный сигнал. Это наиболее простой случай.
В сигнале s(tv, Хо) значение параметра X априорно точно известно
и равно Хо, т. е. ррг (А.) = 8 (X — Хо). Этот случай важен потому,
что определяет предельные возможности (верхние границы) для
характеристик обнаружения. Для детерминированного сигнала
выражение (5) с учетом (3) принимает вид
А 0Ж (0) = [Л-1 (1 Ж-1 (0)] ехр [Fv (1 Ж) ~Ж (0)].
Отношение апостериорных вероятностей равно
/v = pv (1Ж (0) = 4 -1 ехр [FJ1 ,Х0) - Fv (0)].
423
Прологарифмировав это равенство и подставив в него выражения
для Fv, получим
qv = q^l + (2\/NQ)^vs(tv, X0)-(l/2)s2(Zv, Хо)].
д ”
Если принять /7рг (1)=/>рг (0) — 1/2, то до = 0 и — £ s2(tv, Хо) = const
Л'о v=0
(сигнал полностью расположен внутри интервала наблюде-
ния). При этом приходим к следующему правилу принятия
решений:
Qn = 2/ (9.2.6)
,vov=o е = о
где п — [Т/А]. Этот алгоритм определяет структуру оптимального
обнаружителя детерминированного сигнала.
Если применяется критерий Неймана — Пирсона, то порог
h определяется по заданной вероятности ложной тревоги pF
согласно формуле /
со
pf=\p{qn\^^dqn. (9.2.7)
к
После этого можно вычислить вероятность правильного об-
наружения
со
<9-2-8)
к
Для наблюдения (2) сл.в. (д„|0) и (<?„|1) нормально рас-
пределены; их м. о. и дисперсии согласно (6) равны
м{^ю}=о, м{^|1}-е„,
D {q„ |0} = D {^|1} =Q„=2£ f *2(tv, Xo), (9.2.9)
где Q„ есть отношение сигнал-шум. При этом формулы (7)
и (8) примут вид
рг=1-Ф(А/еп1/2), ^=1-Ф(А/еп1/2-е„1/2), (9.2.10)
где Ф(х) — интеграл вероятности (1.1.11).
По формулам (10) можно построить кривые обнаружения,
представляющие собой зависимости вероятности правильного
обнаружения pD от отношения сигнал-шум при фиксированных
значениях вероятности ложной тревоги pF. Они имеют вид,
изображенный на рис. 9.2.
При обнаружении сигнала по наблюдению в непрерывном
времени (1) из основного уравнения фильтрации
dP(t, е, x)/at=[F(t, е, Х)-г(о]ж 0, М (9.2.11)
424
Рис. 9.2. Кривые обнаружения детерминирован-
ного сигнала
имеем
p(t, 0, Х) = ррг(0, X)exp{f [F(t, 0, X)- F(t)]c/t} =
t о
= C(t) ppr(B, X)exp{J Q; X)^t}, (9.2.12)
где C(0 = exp{ —Отсюда, в частности, следует С(0)=1.
о
Если параметры 0 и X априорно независимы, т. е. ppr(Q, Х) =
= ppr(Q) PprQ^), то из решения (12) получаем следующие выраже-
ния для апостериорных вероятностей дискретного параметра 0:
p(t, l)=C(z)Fpr(l)jFPr(^)exP{f^(T, 1, X) <7Х, p(t, 0)=РрГ(0).
0 (9.2.13)
В случае детерминированного сигнала, когда />рг.(Х) = 3(Х —Хо),
при ppr(l)=Fpr(0)= 1/2 для отношения апостериорных вероят-
ностей в конце интервала наблюдения имеем
^-^=ехр {J F(t, 1, Хо) dx} =
т
£,(t)s(t, Х0)-Р2(т, Хо)
dx
(9.2.14)
Отсюда с учетом монотонного поведения показательной функции
при фиксированной энергии сигнала
т
E=$s2(t, X0)dt = const
о
получаем алгоритм работы оптимального обнаружителя
т
2
е= 1
)\.Q)dt h.
J е = о
о
(9.2.15)
Этот алгоритм можно реализовать обнаружителем корреляцион-
ного типа или с использованием согласованного фильтра
(рис. 9.3).
425
.n0(t)
s(t,&)+ng(t)
n0(t)
Отсчет
при t‘T
а)
устройство
s~£(T)>h
n^fT^h
Согласованный у,
фильтр
Пороговое s^y>h
' \ “ устройство „ ,h
JОтсчет?—- ------\по % п
привив
6)
Рис. 9.3. Структурные схемы оптимальных обнаружителей детерминированного
сигнала с использованием корреляционного приемника (а) и согласованного
фильтра (б)
Можно убедиться1, что вероятности ложной тревоги и правиль-
ного обнаружения определяются формулами
Рс= JpG/IO) dq=\-Ф(Л£Г 1/2 ), pD = ^p(q\\}dq =
h h
= \-^(hQ~ll2-Q112), (9.2.16)
где Q — 1EIN0 — отношение сигнал-шум. Кривые обнаружения
детерминированного сигнала изображены на рис. 9.2.
Радиосигнал с равномерно распределенной фазой. Пусть в наблюдение (1)
входит радиосигнал
s(t, к) = И (г —т0)соз[о)/-г ф(Г —т0) + ф], (9.2.17)
все параметры которого точно известны, за исключением фазы <р, которая
равномерно распределена в интервале [ — я, п], т. е. ррг(<р) — 1/2я, |ср| я.
На основании (13) можем написать
р(Т, 1) = Сдрт(1) f ррт(<р)ехр {f [£(т, 1, <р)-А(т)]Л}д'<р =
— п О
= С0/'рг(1) —
2тс
4(т)л(т, Л.)—-52(т, X) </т>д?ф =
о
(2
eXPfej
~п О
где через £ обозначена энергия сигнала:
= СоРрт(1)ехр
£ \ 1
No у 2я
(9.2.18)
<|(t).s'(t, Х)А ><7<р,
£= .s2(b Т.)<7/«- Л2(/—x0)dt.
(9.2.19)
о
О
1 Тихонов В. И. Оптимальный прием сигналов.— М.: Радио и связь, 1983.—
320 с.
426
Подставим в (18) конкретное выражение сигнала (17) и введем обозначения
т
к(т)Л(т-т0)со5[(от+ф(т-т0)]Л,
J
о
т
X,(T) = ^j- К(т)Л(т-т0)яп[шт + ф(т-т0)] А,
^0 J
о
Хс (Г) cos <р — Xs (Т) sin ф — Х(Т) cos (ф + %),
ЙГ(Т) = [^2(Т) + ЙГ!2(7’)]1/2, tgX=XI(7’)/^(T).
Тогда получим
/ £ \ ] Г
р(Т, 1) = Соррт(1)ехр —— I — exp[T(T)cos(q> + x)]rf<p =
(9.2.20)
(9.2.21)
= Соррг(1)ехр(-^ )70(У(Т)),
\ Ло /
где 70(х)—функция Бесселя нулевого порядка от мнимого аргумента.
Теперь записываем выражение для отношения апостериорных вероятностей
р(Т, l)/p(T,0) = [pK(l)/pK(0)]exp(-£/No)7o(X(T)). (9.2.22)
Пусть ррг(0)=рр1.(1)=1/2 n£=const. Так как функция Бесселя 70(х) монотонная,
то решение о наличии или отсутствии сигнала можно принимать на основании
сравнения с некоторым порогом любой монотонной функции от Х(Т). Величина
X(t), определенная выражением (21), представляет огибающую выходного колеба-
ния согласованного фильтра. Если сравнивать с порогом h саму огибающую
(линейный детектор огибающей), то получим следующее правило принятия
решения:
9= 1
Х(Т) h. (9.2.23)
0 = 0
Этот алгоритм можно реализовать по-разному. Один вариант структурной
схемы оптимального некогерентного приемника-обнаружителя приведен на
рис. 9.4. Он состоит из согласованного фильтра, линейного детектора
огибающей, порогового и синхронизирующего устройств. Синхронизирующее
устройство должно обеспечивать принятие решения (взятие отсчета выходного
напряжения) именно в момент времени t — Т. Другой вариант схемы — приемник
nput=T
Рис. 9.4. Структурная схема оптимального некогерентного обнаружителя радиосиг-
нала с равномерно распределенной фазой
427
Рис. 9.5. Структурная схема оптимального корреляционного (квадратурного) об-
наружителя радиосигнала с равномерно распределенной фазой
корреляционного типа (рис. 9.5) представляет собой непосредственную ре-
ализацию соотношений (20), (21) и (23). Схема, часто называемая квадратурным
приемником, имеет два канала, которые позволяют получать величины
Xc(t) и Xs(t), определяемые выражением (20). Последующие преобразования
(21) выходных колебаний формируют величину
Укажем кратко путь вычисления количественных характеристик обнаружения.
Предположим, что в принятой реализации £(/) присутствует сигнал (17), т. е.
£,(/)=A (z-t0)cos [«>/ +ф(?-т0) + ф] + н0(;). (9.2.24)
Будем пока считать фазу <р постоянной. Ниже мы убедимся, что в окончательные
формулы она не входит. Подставив выражение (24) для £((/) в формулы (20),
получим, что при выполнении условии
Т»ти, соГ»1,
где ти — длительность импульсного сигнала s(t, X), сл. в. ХС(Т) и XS(T) являются
нормально распределенными с одинаковыми дисперсиями
D^D, = D=-2E!No,
а условные м.о. их соответственно равны
>пс = М {Хс | <р} = (2 £/У0) cos <р, = М {А; | ф} = (2E/No) sin ср.
Величины ХС(Т) и А'ДТ’) практически независимы, так как взаимная корреляци-
онная функция между ними приближенно равна нулю:
т
|-4 2 (? —т0) sin 2 [сос + ф (/ —т0)] t/zaiO.
о
Поэтому п.в. сл. в. X—yj'X^ + Xs определяется законом Райса:
) = Б еХР(-”~21Г^)m = х>0. (9.2.25)
Предположим теперь, что сигнал отсутствует, т. е. ^(t) = n0(i). Подставив
в (20) и И) вместо ^(?), получим, что независимые гауссовские сл. в. Хс и Xs
имеют нулевые м. о. и одинаковые дисперсии D. Поэтому п. в. p0(.v) сл. в.
X будет рэлеевской:
/>о(х) = (х/0)ехр(—л2/21>), х>0. (9.2.26)
428
В соответствии с критерием Неймана — Пирсона по заданной вероятности
ложной тревоги
оо
f ( h2\
PF= Z>o(x)4.r = expl I (9.2.27)
h
определяется пороговый уровень h, а затем вычисляется вероятность правильного
обнаружения
PD = lpdx)dx. (9.2.28)
h
Радиосигнал с «частично известной» фазой. Пусть принимаемое
колебание ^(1) по-прежнему определяется выражением (1), в ко-
тором полезный радиосигнал s(t, к) имеет вид (17), причем все
параметры сигнала постоянны во времени и известны, за
исключением фазы ср. Фаза ср считается сл. в., описываемой
Т-распределением вида (5.4.34), т. е.
/2рГ(ф) = [1/2л/0(А)]ехр(Асо8(р), |ср|^л. (9.2.29)
Такое задание фазы практически соответствует стационарной
оценке неизвестной фазы сигнала на приемной стороне с помощью
фазовой автоподстройки.
Напомним (с. 282), что описание случайной фазы п.в. (29)
включает в себя рассмотренные выше два примера (детер-
минированного сигнала и радиосигнала с равномерно распре-
деленной фазой) как частные случаи. Это непосредственно следует
из соотношений
lim ррг (ф)=1/2тс, |(р|^л; lim/?рг(ф) = 5(ф). (9.2.30)
А —О А—со
Прием радиосигнала с точно известной фазой (А->оо) принято
называть когерентным или синхронным, а прием радиосигнала
со случайной и равномерно распределенной фазой (А->0) называ-
ется некогерентным. В промежуточных случаях (конечных значе-
ний параметра А) прием следует называть квазикогерентным
или частично когерентным, причем величину А можно назвать
параметром когерентности.
Получим для указанных условий алгоритм оптимального
квазикогерентного приемника-обнаружителя.
При вычислении апостериорной п.в. р(Т, 1) теперь нужно
выполнить осреднение по фазе ф с п.в. (29). Для отношения
апостериорных вероятностей получим выражение
л Т
(т) А (т - т0) COS [(ОТ + ф (т - т0) + ф] -
р(Т, 1) ^(1) [ [ 2
Р(Т, 0) ррт(0) J и [Л'о J
429
|'ехр[У(л;+л)’+*,2x
Ao J PprW ^*МЛ/ J
— я
x cos (Ф-x)] d^=ppr (l)p-1 (0)7o 1(A)exp( )x
\ A° /
x/0(J(Ac + A)2 + yl), (9.2.31)
где Xc и Xs определены выражениями (20).
Величины E, No и Л предполагаются известными. Поэтому
вследствие монотонности Бесселя /0(х) обнаружение сигнала
можно осуществлять по правилу
о= 1
(Хс + Л)2 + Х2 h0
0 = 0
или по эквивалентному правилу
0=1
Х2 + Х2 + 2ХХС /? = /z0 —Л2, (9.2.32)
0 = 0
где порог h согласно критерию Неймана — Пирсона определяется
по заданной вероятности ложной тревоги.
Структурная схема оптимального квазикогерентного прием-
ника-обнаружителя, реализующего алгоритм (32), изображена на
рис. 9.6. Характерным свойством схемы является то, что ква-
зикогерентный обнаружитель представляет собой линейную ком-
бинацию ранее полученных оптимальных когерентного (рис. 9.3)
и некогерентного (рис. 9.5) обнаружителей соответственно с ве-
совыми коэффициентами 2Л и 1. Ясно, что при Л->оо вклад
некогерентного обнаружителя становится пренебрежимо малым
и приходим к когерентному обнаружителю (рис. 9.3). На практике
обычно стремятся получить по возможности большое значение
параметра когерентности Л и поэтому часто ограничиваются
использованием только когерентного приемника-обнаружителя.
Рис. 9.6. Структурная схема оптимального квазикогерентного обнаружителя сиг-
нала
430
Характеристики квазикогерентного обнаружителя вычисляются
таким же путем, как формулы (27) и (28), и выражаются через
табулированную функцию
ос-
Q(v,u)= х ехр /0(хv)dx. (9.2.33)
и
Считая выполненными условия Т»ти, (oT»i и пренебрегая
слагаемыми с удвоенной частотой 2со, можно показать, что при
0 = 0 гауссовские сл. в. Хс и Xs приближенно независимы и имеют
следующие м.о. и дисперсии:
М{Ус}=М{Х5}=0, М{А2} = М{А2}=2£’/А0-
Случайная величина
По = ис + Л)2 + Х2
описывается законом Райса. Поэтому вероятность ложной тревоги
выражается интегралом от п.в. Райса.
При 0 = 1 условные м.о. и дисперсии сл.в. Хс и Xs равны:
7НС = М {АЛс|(р} = (2£/W0) cos ф, ms = M {XJcp} = (2Е7УО) sin ср,
Dc = M {(Xc-mc )21ср} = M {(A; -,ns)21= Ds = 2E/N0.
Условная (при фиксированном <p) п.в. случайной величины
гц = (AC + A)2 + X* будет также райсовской, но с другими парамет-
рами. Последующее вычисление безусловной п.в. для тц сводится
к осреднению по случайной фазе ф с п.в. (29).
Отметим следующий факт. Характеристики рассматриваемого
квазикогерентного обнаружителя радиосигнала с «частично извест-
ной» фазой зависят от вероятностных характеристик случайной
фазы. Результаты же предыдущего примера показывают, что
характеристики оптимального некогерентного обнаружителя ра-
диосигнала с равномерно распределенной случайной фазой в ин-
тервале |ф|^л не зависят от характера фазы. Случай равномерно
распределенной фазы является исключительным; такое распределе-
ние наименее предпочтительно (с. 314). При фиксированных других
условиях получаемые при этом значения вероятности правильного
обнаружения определяют нижнюю границу. При любых других
распределениях фазы радиосигнала вероятность правильного
обнаружения не может быть ниже этой границы.
9.3. РАЗЛИЧЕНИЕ СИГНАЛОВ
Укажем кратко методику решения задачи различения несколь-
ких сигналов в непрерывном времени по наблюдению
^(/) = .у;(г, Э,., к;) + л0(?), /=Т^, (9.3.1)
43!
где параметры 9; и Х; считаются постоянными на интервале
наблюдения [О, Г], независимыми при i=l,m с заданными
априорными вероятностями
т
Ppr(Si,h)=PPr(Si)PprQ-k)’ Е /’pr(9i)=1- (9.3.2)
i= i
Если применяется критерий максимальной апостериорной
вероятности, то в качестве оценочного значения дискретного
параметра 0 = {9j,...,9m} принимается
0-шах 1 {р(Т, 9;)}, (9.3.3)
9,-
где р(Т, 9,)— значение апостериорной вероятности дискретного
параметра 0 = 9; в конце интервала наблюдения Т.
Требуемые апостериорные вероятности находим из решения
основного уравнения фильтрации, которое для не изменяющихся
во времени параметров 9; и Х; имеет вид
dp(t, 9f, X,)/5Z = [F(Z, 9,., X,.)-F(z)]p(z, 9;, ХД (9.3.4)
Записываем решение этого уравнения
p(t, 9;, А.;) = с (Г )ррг (9. )ppr(\) ехр [|F(t, 9„ Х;)<7т], Os^z^T,
о
I
где сомножитель ехр (— [ F(t) <Yt), как независящий от 9; и X,., включен
о
в нормировочную постоянную c(Z). Отсюда находим интересующую
пас апостериорную вероятность дискретного параметра
т
р(Т, 9;) = сррг (9;) \ррг (Х;) ехр [ f F(t, 9;, Х;) <Ут] (9.3.5)
О
где
m Т
с~г=^рРг (9;) \ppr (Xf) ехр [f F(t, 9,., \) di] d\.
i= i о
Для детерминированных сигналов, когда />рг (Х;) = 5 (X, — Х|0),
выражение (5) несколько упрощается:
р(Т, 9i) = Cexp(-B!./^o)Tpr(9i)exp[?i(T)], (9.3.6)
где т
9;, Х10)Л, Д = р,?(Х 9(, ^-о)Л,
I о
(9.3.7)
ТРг(9Дехр[7;(Т)].
О
432
На практике весьма часто встречается случай, когда вес
т сигналов априорно равновероятны и имеют одинаковую
энергию, т. е.
/>(Э;)=1М Et —Е, i=l,m. (9.3.8)
При этих условиях формула (6) еще более упрощается:
т
p(T,^cwp[qi(T)], (9.3.9)
i = 1
Учитывая монотонный характер показательной функции, пра-
вило принятия решения (3) принимает очень простой вид
0 = тах 1 {</,. (Т)},
(9.3.10)
где величина определена (7).
Структурная схема оптимального различителя т детермини-
рованных сигналов, реализующая алгоритм (10), представляет
собой m-канальный корреляционный приемник, выходные сигналы
которых подаются на схему выбора максимальной величины
при t = Т. Принимается решение о наличии в наблюдении того
сигнала, для которого выходной эффект при t=T максимален.
Пусть это будет, например, /-й канал.
Тогда
т
У
'*0
О
Э-, lkj0)dt, j=l,m.
(9.3.11)
Выражение для вероятности полной ошибки при различении
нескольких детерминированных сигналов на фоне белого шума
легко получается в частном случае1, когда сигналы априорно
равновероятны, имеют одинаковую энергию и ортогональны, т. е.
у f п j____ •
М, 9iA,o)^G, Эд = п п3 (9.3.12)
о и при I т2].
Рассмотрим подробнее различение двух сигналов трех видов.
Детерминированные сигналы. При различении двух детер-
минированных сигналов требование ортогональности (12) необя-
зательно. В данном случае из (И) следует, что решающее
правило можно представить в виде
1 См. сноску на с. 426.
433
Рис. 9.7. Оптимальные схемы для различения двух детерминированных сигналов
с использованием согласованных фильтров (а) и корреляторов (б)
э С 31
9=— к(/) [5j(t, А,10)-.у2(/, э2, х20)]^ ь.
J Э2
о
На рис. 9.7 показаны два варианта реализации этого алгоритма:
с использованием согласованных фильтров и корреляторов.
Вычислим
присутствует
Тогда сл. в.
N,
(9.3.13)
полную вероятность ошибочного приема. Пусть
первый сигнал, т. е. S,(/) = 5'1 (l, Э15 A.1) + n0(Z).
Г
а —а, -- —
’ 41 No
[5ДЦ Х10 ) + п0 (/)] [,yt (/, St, Хю)-
0
~s2(t, Э2, X20)]<fr
описывается
теристиками:
W1=M{91} = (2W0)(l-rs), = =
= W)(i-rs),
где
нормальной п.в. Pi(q) со следующими харак-
1
Е
(9.3.14)
si (А> ^2’ ^-2o)dt
о
называют коэффициентом взаимной корреляции между
условпо
сигналами.
434
Рис. 9.8. Зависимость вероятности
полной ошибки ре от коэффициента
взаимной корреляции г, между детер-
минированными сигналами
Рис. 9.9. Зависимость вероятно-
сти ошибки от отношения сиг-
нал-шум для детерминирован-
ных радиосигналов при ФМ,
ЧМ и AM
Если присутствует сигнал s2 (t, Э2, Х20), то сл.в. на q = q2
имеет нормальную п. в. p2(q) с характеристиками
m2 = M{g2} = (-2£’/Ar0)(l-rs), D2 = M{ql}-ml =
Вероятность полной ошибки определяется формулой
Ре =Ррг (»1 )Р (Э21 ) +РРг (Э2)^ (&! I Э2) = l- [ р2 (q) dq +
h
P\{q)dq}.
(9.3.15)
— 00
Значение порога h можно найти из условия минимума полной
ошибки, т. е. из уравнения dPeldh — Q. Для априорно равноверо-
ятных сигналов й = 0. Выполнив вычисления, получим
р= 1 -Ф(7(£/^)(1-гД), (9.3.16)
где Ф(х) — интеграл вероятности (1.1.11).
435
Следовательно, при известном отношении сигнал-шум 2E/N0
вычисление вероятности полной ошибки для детерминированных
равновероятных сигналов с одинаковыми энергиями сводится
к определению коэффициента взаимной корреляции между сиг-
налами. Так как интеграл вероятности Ф(х) является монотонно
возрастающей функцией аргумента, то при одинаковом Отноше-
нии сигнал-шум наибольшей помехоустойчивостью (меньшей
вероятностью ошибки ре) обладают сигналы, для которых
коэффициент взаимной корреляции минимален.
Коэффициент взаимной корреляции г, может изменяться от
— 1 (при ,Vj = — s2) до +1 (при 5j=52). Ясно, что одинаковые
сигналы (rs= 1) невозможно различить и поэтому ре — 1 — Ф(0) = 0,5.
Наоборот, если сигналы одинаковы по форме и противоположны
по знаку (rs= —1), то их различить легче, чем любые другие
два сигнала (например, ортогональные rs = 0). Сказанное иллюст-
рирует рис. 9.8, на котором представлены результаты расчетов
по формуле (16).
Кривые, характеризующие зависимость вероятности полной
ошибки ре от отношения сигнал-шум при оптимальных методах
приема детерминированных сигналов, в радиосвязи принято
называть кривыми потенциальной помехоустойчивости. Получим
их для простейших радиосигналов, применяемых в цифровой
связи.
Фазовая манипуляция (ФМ). При фазовой манипуляции ис-
пользуются сигналы
'.(0 = Л«3ШЛ 04(5,7. п)
s2 (!)=- — ЛшСО8(0/,
Для таких сигналов /у= —1 и из (16) имеем
Л=1-ф(уШо).
(9.3.18)
График этой зависимости представлен на рис. 9.9.
Частотная манипуляция (ЧМ). При ЧМ используются сигналы
oszs,r
y2(0 = ^mcos(®2z-(p2),
В данном случае при Ф1 = <р2 имеем
rs = sin (и2 - ®!) 7/'(0)2 - И! ) Т.
Этот коэффициент минимален и равен rsK — 0,21 при
(со2 — (о,) Т= 1,5п. Однако на практике обычно выполняется не-
равенство (о)2 — (о1) Тз> 1. Поэтому т, = 0 и из (16) получаем
ре=1--Ф(У£Ж).
(9.3.20)
Эта зависимость изображена на рис. 9.9.
436
Амплитудная модуляция (AM). При AM
5-] (Z) = Л„,cos(coZ4-ср), 52(Z) = 0, 0~<:г</Г (9.3.21)
В результате вычисления вероятности ошибочного приема с уче-
том того, что в данном случае второе из условий (8) не
выполняется, имеем
ре= 1-0(0,5725,^). (9.3.22)
График этой зависимости приведен на рис. 9.9.
Сравнивая графики рис. 9.9 для ФМ, ЧМ и AM, видим,
что при одной и той же энергии элементарных сигналов (а не
средней энергии) из трех рассмотренных видов манипуляции
наибольшей помехоустойчивостью обладает фазовая манипуляция
и наименьшей — амплитудная.
Радиосигналы с равномерно распределенной фазой. Запишем принимаемое
колебание в виде
^(/) = 0.ц(/, kJ + (l-O)i2(/, Х2)+«о(0’ (9.3.23)
где случайный параметр 0 принимает лишь два значения: 0=] (присутствует
сигнал ц (/, kJ) с априорной вероятностью />,,.(!) или 0 = 0 (присутствует сигнал
j2(/, к2)) с априорной вероятностью ppr(0)= 1 —ррг(1). Пусть сигналы имеют вид
5,-(/‘)=./i(z)cos(<nir4-v|/i(f)4-<p,-), /=1,2, (9.3.24)
где со, —несущие частоты; /(J и ф,(/) — функции, отображающие законы амп-
литудной и фазовой (частотной) модуляции; ф, — начальные фазы, представляющие
собой независимые сл. в., распределенные равномерно на интервале [ — л, л].
Предполагается, что ширина спектров сигналов .ц(/, kJ и ,y2(f, к2) много меньше
их несущих частот и, кроме того, [со2 — со 11 «ы,-.
По критерию идеального наблюдателя решим задачу различения двух таких
радиосигналов.
Апостериорные вероятности наличия сигналов ц (/, kJ и s2(f, к2) находим
путем осреднения по начальным фазам как сопровождающим параметрам:
п т
/ Е \ \ [ Г 2 Г
pps(T, l) = Cppr(l)expI —-2- — ехр 2- R(t)/J/)cosx
\ A'o/zrcJ L^oJ
— я 0
x(co]/ + l|j1 (rj + cpi)^ (/(pl,
я Т
/ Е?\ 1 Г Г 2 f
PPs(E 0) — Cppr (0) ехр — ехр —- Ц/)/2 (f)cos х
у 7V оу z7C 7V о J
— я о
х(<О2(Г + ф2р)-Ьф2)Л rf<p2,
(9.3.25)
(9.3.26)
Если ввести обозначения
437
т
Xic = к (t)f (О COS [со,t + Ф,• (?)] dt,
2*0 J
(9.3.27)
т
Хз = Т7- к(l)fi(0 sin [соit + фi (/)]dt,
^oj
о
Х = 7^ + ^., (9.3.28)
то из (25) и (26) для апостериорных вероятностей получим следующие выражения:
Pps(T, 1) = Сррт(1)ехр (-EJNojlolXt), (9.3.29)
pps(T, 0) = Сррт(0)ехр (~E2/N0)I0(X2), (9.3.30)
где 70 7) — функция Бесселя нулевого порядка от мнимого аргумента.
Согласно критерию идеального наблюдателя решение о наличии сигнала
5) (с, Xi) или s2(t, Х2) принимается в зависимости от выполнения неравенства
Pps(T, 1)_7у(1) и
Ррз(Т, 0) рРг(0) \ No J Ii)(X2} ll (J
или
, х , 0=1£,-£о р™(1)
InZ0(Xi)-lnZ0(jr2) £ -^+1п^У=Л. (9.3.31)
0 = 0 М> Ррг(0)
Положительная величина Х„ определенная равенством (28), равна корню
квадратному из суммы квадратов двух нормально распределенных случайных
переменных Xic и Хз- Физически величина X представляет собой значение
огибающей суммы сигнала S;(t, X) и шума n0(t) в момент времени t=T на
выходе согласованного фильтра, имеющего импульсную характеристику
)=k- (Т-/) приО^Т (9.3.32)
' ' (0 при К 0, t>0. v 7
Величину 1п70(Х) можно получить в явном виде на выходе детектора огибающей
с законом in /0 (*)•
Оптимальный приемник-различитель двух рассматриваемых радиосигналов
можно реализовать с использованием согласованных фильтров и корреляторов
(рис. 9.10).
Ограничимся в дальнейшем рассмотрением симметричных каналов, для
которых выполняются условия
ррт(1)=^г(0)=1/2, £1=£2 = £, p(sl\s2)=p(s2\si), (9.3.33)
где условные вероятности р (si 15;) определены формулой (37). Для таких каналов
пороговый уровень Л = 0, и решения о наличии сигналов Sj(f, Х^) и s2(t, Х2)
принимаются в зависимости от выполнения неравенств
1п7о(Х)й1п/о(^2). (9.3.34)
з2
438
Рис. 9.10. Оптимальные схемы различения двух радиосигналов с равномерно
распределенными фазами с использованием согласованных фильтров (я) и кор-
реляторов (б)
Вследствие монотонности функции Бесселя закон детек-
тирования не имеет существенного значения. Важно лишь, чтобы
выходное напряжение детектора было монотонной функцией
огибающей Х{. Если, например, в оптимальных приемниках
(рис. 9.10) применить линейные детекторы огибающей, то раз-
личение двух сигналов будет производиться на основании срав-
нения значений самих огибающих по правилу
Х2.
(9.3.35)
Для симметричных каналов формула вероятности полной ошибки имеет вид
Pe = (l/2)p(sl|S2) + (l/2)/>(S2|i'J)=p(jl Ы,
(9.3.36)
так как условные вероятности равны друг другу.
Условная вероятность р(^1|5г) есть вероятность исхода, заключающегося
в том. что значение Х1>Х2 в то время как реализация принятого колебания
содержит сигнал s2(t, >-2), т. е.
p(s1|s2)=P{X1>X2|s2}.
(9.3.37)
На плоскости хь х2 таким исходам соответствует область на первом квадранте,
расположенная ниже диагонали. Поэтому
439
,)с = Р { А'\ > Л': | s2} = f dxi j p (x!, x2 | s2 )dx2,
о 0
(9.3.38)
где «(a'i, л'2|х2) совместная и. в. огибающих па выходе согласованных фильтров
при условии, что на входе их присутствует сигнал s2(t, Х2).
Совместную условную П.В. /)(\ J, х2 | s2) можно получить следующим путем.
Положив в выражениях (27) i,{t)=s2(t, Х2) + /г0(/), записываем п. в. совместно
гауссовских сл. в. У1С, A4S, Х2с, Х2к. Затем по известному правилу нужно от
этих сл. в. перейзп к новым X, и Х2 в соответствии с выражениями (28).
Весьма громоздкие вычисления приводят к следующему окончательному
результату:
(9.3.39)
где
р5 = (1/£)хДУ+Л?, О^р.,^1,
! г
*« = 5 J./j [(®2-ГО|)^ + '|'2(0-'1'1(0]Л>
(9.3.40)
bs =• ~ J fl (/ )./з (И sin [(<0 2 - ffl 1) t + ф2 (0 - Ф! (/)]dt.
2 о
Здесь Q(p, и) табулированная функция (9.2.33).
Рис. 9.11. Зависимость вероятности
полной ошибки ре от коэффициента
взаимной корреляции ps. между радио-
сигналами с равномерно распределен-
ными фазами
На рис. 9.11 приведены вычисленные
по формуле (39) кривые, характеризу-
ющие зависимость вероятности ошибки
от коэффициента взаимной корреляции
сигналов р, при нескольких значениях
отношения сигнал-шум. Из кривых ви-
дно. что при заданном отношении си-
гнал-шум вероятность ошибки минима-
льна для ортогональных сигналов (р, = 0)
и равна
/)„ = (!/2)ехр( —£/2/^0), р, = 0.
Наоборот, для двух сигналов, совпада-
ющих по форме с точностью до началь-
ной фазы (ps=l), вероятность ошибки
всегда максимальна и равна ре = 0,5.
Радиосигналы с «частично из-
вестной» фазой. Пусть принятое
колебание определяется выраже-
нием (23), в котором радиосиг-
налы .?! ((, и s2(t, kt) имеют
вид (24), причем <р i = <р 2 = <р
440
и п. в. случайной фазы <р задана формулой (9.2.29). Поступая
так же, как при получении выражения (9.2.32), приходим к сле-
дующему алгоритму различения двух сигналов:
(A'?c + X?5)-(A'lc + Xis) + 2A(Xlc-X2c) J h, (9.3.41)
«о
где величины Xjc, Xis определены выражением (27). При исполь-
зовании критерия идеального наблюдателя для симметричного
канала связи порог h = 0.
Структурная схема квазикогерентного приемника различения
двух рассматриваемых сигналов реализует алгоритм (41). Как
и в случае обнаружения сигнала, квазикогерентный приемник
представляет собой линейную комбинацию двух приемников:
когерентного приемника различения двух детерминированных
сигналов (рис. 9.7) и некогерентиого приемника различения двух
сигналов со случайной и равномерно распределенной начальной
фазой (рис. 9.10).
Выражение для вероятности полной ошибки
ре квазикогерентного приема весьма громоздко и здесь не
приводится1. Вероятность ошибки зависит от отношения сигнал-
шум 2EIN0, параметра когерентности Л, а также от формы
сигналов .уД/, ХД и 52(г, Х2) через коэффициенты Ьс и /;s,
определенные выражением (40). Результаты расчетов показывают,
что наименьшая вероятность ошибки достигается при исполь-
зовании сигналов, для которых bs = 0. Укажем, что при
Ч (Л Х1) = х2 (/, Х2) (одинаковые сигналы по обеим гипотезам)
bc = E, os = 0; при уДц ХД= — s2(t, Х2) (противоположные сигналы,
например, ФМ) Ьс=—Е, bs = 0; для ортогональных сигналов
(например, ЧМ) bc — bs = O.
9.4. РАЗЛИЧЕНИЕ ЗАВИСИМЫХ
ДВОИЧНЫХ СИГНАЛОВ
Пусть принимаемое колебание имеет вид
1ДД = (1 (t — С)+«о(0’ [С, С+1), (9-4.1)
где 9v = 0,l—дискретный информационный параметр, постоянный
на тактовых интервалах фиксированной длины tv+l — tv=T,
причем случайная временная последовательность {ОД пред-
ставляет собой модернизированную цепь Маркова с двумя
состояниями и заданными вероятностями начального состояния
и матрицей вероятностей перехода я; у0(Д и хД/) — де-
терминированные сигналы. Требуется получить алгоритм
1 Витерби Э. Д. Принципы когерентной связи:
Б. Р. Левина. - М.: Сов. радио, 1970.— 392 с.
Пер. с англ./Под ред.
441
оптимальной оценки параметра 0V по располагаемой реализации
%(/) для /е[0, Zv+l) и определить количественные характеристики
этого алгоритма'. Такая постановка задачи различения двух
детерминированных сигналов предполагает учет информации
от предыдущих тактовых интервалов вследствие зависимости
0V и 0v+i.
Применительно к данному примеру алгоритм (9.3.3)
принимает вид
0v = max-1 {pt(tv+1 — 0)}, z = 0,l, (9.4.2)
где /?,(/)=/?(0v == г (£,о)- В начальный момент времени 1 — 0 веро-
ятности /?,(0) равны априорным вероятностям состояния цепи.
В пределах тактового интервала ;?,(/) удовлетворяет уравнению
Стратоновича
dpi(t)/dl = [Fi(t)-F(t)']pi(t), Ze[/V, Zv+1), (9.4.3)
где
2 ,=o
В точках t = tv пересчет Pi(t) осуществляется согласно (7.7.22).
Выражения (2), (3) и (7.7.22) определяют алгоритм оптималь-
ной фильтрации. Он справедлив для любой формы детер-
минированных элементарных сигналов.
Получим его количественные характеристики. Из вида ре-
шающего правила (2) следует, что при заданной реализации
£,(/) условная (апостериорная) вероятность принятия ошибочного
решения равна
/?(0v^0v|^o+1)=l -max{p,(/v+1-0)} = min {a(C+i-0)} =
= (1/2)-(1 /2)|/?0(/v+1 -0)-Pi (/v+1-0)|. (9.4.4)
Из-за случайности £(г) и 0V эта вероятность будет также сл. в.
Вероятность ошибки получаем осреднением (4) по возможным
реализациям S,(z) и 0V:
ре= 1 /2-(1/2)М{ |po(/v+i-0)-p1 (C+i~0)l }• (9.4.5)
Таким образом, задача определения характеристик алгоритма
состоит в вычислении ре для разных значений отношения
сигнал-шум и элементов матрицы л.
Для этой цели удобно перейти к переменной
1 Харисов В. Н., Дунчич Я. Г. Оптимальная фильтрация марковской цепи
с двумя состояниями//Йзв. вузов СССР. Радиоэлектроника.— 1989.—Т. 32, № 5.--
С. 89—92.
442
/(z) = ln[p0(z)/>i(z)]. (9.4.6)
При этом алгоритм (2), (3) и (7.7.22) преобразуется следующим
образом. Решающее правило (2) примет вид
ev = o
/(/v+1-0) 0. (9.4.7)
8V=1
Уравнение для /(z) внутри тактового интервала получается из (3):
4/(z)_ 1 dp0(t) 1 dPl(t)_F , } , а
—— «v)+(« —г»)] f X (9.4.8)
X (t *v) *^1 (t t,)]> Z G [Zv, tv+ 1 )•
Формула для пересчета /(z) в точках t = tv следует из (7.7.22)
и условия нормировки:
/(zv4-0)=/(/(zv-0)) = 2arth {я10-я01 +
+ [1 -(я10 + я01)] th [/(zv —0)/2]}. (9.4.9)
Действительно, согласно (7.7.22) и свойствам рассматриваемой
цепи Маркова имеем
Ро (tv+0) = (1 - л01 )р0 (tv - о) + л10/?1 (z v - 0),
Pl (Zv4“0) = T^OlPo (tv — 0) + (1 — Л1о)Р1 (zv —-0),
поэтому
l(,.+o)=ln!h)^fcfcy
' ' 7toi exp[/(zv-0)] + (1Лю)
Воспользовавшись известным равенством exp (x) = [14-th (x/2)] x
x [ 1 — th (x / 2)], получим
/(zv + 0) = ln [(1 4-4l)/(I —J)],
A = я io — яoi + [1 — (я ю 4-л oi)] th [/(zv — 0)/2].
Так как arthx = (l/2)ln(l 4-х)/(1 — х), то приходим к (9).
Выражение (5) для вероятности ошибки приводится к виду
pe=|-|M{|thl/(zv+i-0)|}=|-|
£ £ £
lthl/Щ/И (9.4.10)
где рк(1)—п. в. сл. в. Z(zv + i-O). Это выражение получается просто
из очевидных равенств:
Ро(t)/pt (z)=ехр [/(z)], р0 (/) +pi (z) = 1.
443
Отсюда следует, что
Ро (/) = ехр [/(/)]/{1 + ехр [/(/)]},/?! = 1 / {1 + ехр [Z(/)]}.
Из формулы (10) видно, что для нахождения ре на каждом
тактовом интервале нужно предварительно вычислить pv(l),
v=l,2, 3, ... Выполним эти вычисления.
Из (8) и (9) следует, что сл. пр. /(г) является марковским
[6]. Следовательно, последовательность {/v}, v= 1, 2, 3, ..., где
Zv = Z(/v + 1 — 0), является марковской как выборка из марковского
процесса. П. в. элементов марковской последовательности связаны
уравнением Колмогорова-Чэпмена:
pv(/v)= f n(Zv|/v_1)/7v_1(/v_1)<7Zv_1. (9.4.11)
Найдем конкретный вид ядра H(ZV|/V_1). По своему смыслу
n(Zv[Zv_1) равно
n(Zv|Zv^)= £p(zv, 0V = /|ZV^) =
i = O
= Xp(ev=f|zv_,)p(zv|ev=/, zv_t). (9.4.12)
i = 0
Зафиксируем Zv_x = Z(rv — 0). Тогда в силу (9) значение Z(/v + 0)
также однозначно определено: + Первый сомножи-
тель в (12) согласно (6) равен
p(ev=o|Zv_1)=p0(c+o)=^ i+th-^
p(6v=l |/V-1)=P1(?v + 0) = l 1-th^M
(9.4.13)
(9.4.14)
Вид второго сомножителя нетрудно получить из (8). Дейст-
вительно, если 0V = O, то из (8) при фиксированном начальном
условии Z(/V+O)=/(ZV_J следует, что сл.в. Zv = Z(/v + 1—0) нор-
мально распределена с м. о. /(Zv-t)+^3 и дисперсией 2q3:
p(Zv|0v = O, (9.4.15)
где q3 — эффективное отношение сигнал-шум:
С?о(/)-ч(/)]2Л.
о
Для сигналов с равной энергией Е оно связано с фактическим
отношением сигнал-шум q = 2Ej Nt) через коэффициент корреляции
rs сигналов х0(г) и 5i(/): <7, = (/(l-rs). Аналогично (15)
444
Рис. 9.12. Стационарная плотность вероятности логарифма отношения апостериор-
ных вероятностей
Jp(Zv|Ov=l, /.-Х^Нэ, 2q3\ (9.4.16)
Подставив (13)...(16) в (12), получим явный вид n(Zv]Zv_1):
n(Zv| Zv_t)=i
i+th<4-
2
+ 2q3~) +
+- 1 — th
2?э),
(9.4.17)
где /(•) определена формулой (9). Выражения (11) и (17)
позволяют вычислить p„(lv) для всех тактовых интервалов. Вид
стационарной п.в. pst[l) при я01=я10 = А, для значений Х = 0,5;
0,95 и дэ = 1; Ю показан на рис. 9.12.
Отметим, что если устремить длину тактового интервала
Т к нулю, уменьшив при этом q3, л01 и л10 пропорцио-
нально Т, то в результате предельного перехода из (11) и (14)
получатся уравнения фильтрации непрерывнозначного марковс-
кого процесса.
Итак, методика расчета количественных характеристик ал-
горитма оптимальной фильтрации рассматриваемой цепи состоит
в следующем.
1. Задаются значения q3, вид матрицы п и начальная п. в.
р0(/0). Например, если ро(О)=р1 (0) = 0,5, т. е. Zo = Z(0) = 0, то
РоРо) = ^(^о)- .
2. С помощью выражений (11), (17) вычисляется п.в. pv{lv)
сл.в. /v = Z(tv + 1—0) для v=l, 2, 3, ...
3. По формуле (10) определяется вероятность ошибки фильтра-
ции ре состояния цепи на каждом тактовом интервале.
4. В невырожденных случаях при постоянной матрице тс п. в.
(/J довольно быстро стремится к стационарному состоянию,
что позволяет определить ре в стационарном режиме.
Выполнение расчетов по данной методике не вызывает
затруднений. Интеграл в (11) вычисляется на ЭВМ (например,
445
Рис. 9.13. Вероятность ошибочного приема
двоичных зависимых сигналов
с помощью метода Симпсона) при
замене бесконечного интервала ин-
тегрирования конечным интервалом
[ — L, L], достаточно большим,
чтобы можно было пренебречь
«хвостами» функции распределения,
выходящими за его пределы. Для
симметричной цепи л01 = л10 = А ве-
личину L можно ориентировочно
вычислить по формуле
L^2arth(| 1-2Х|) + с7э + (3...5) j2t/3,
а шаг между узлами расчетной сетки взять А ж ^/2^/(5... 8).
Достигаемая при этом точность вычислений ре,>10”3.
По описанной методике для симметричной цепи Маркова
(л01 = я10 = А) в стационарном состоянии была рассчитана зави-
симость вероятности ошибочного приема ре от А для нескольких
отношений сигнал-шум q3 (рис. 9.13). Поскольку эта зависимость
симметрична относительно А = 0,5 при каждом q3, то она
представлена только для А^0,5. При А = 0,5 значения 0V
и 0v + 1 независимы. При этом вероятность ошибки максимальна
и равна
ре=1-Ф(У^/2),
что соответствует результату для независимых символов.
Уменьшение вероятности ошибки при отклонении А от 0,5
объясняется тем, что при оценке 0v используется дополнительная
информация от предыдущих тактовых интервалов (за счет
зависимости 0v-! и 0v).
Укажем, что в принципиальном плане обобщение приведенного
метода синтеза на цепи Маркова с тремя и большим числом
возможных состояний очевидно. Однако трудности реализации
метода существенно возрастают.
9.5. ОЦЕНКА НЕИЗМЕНЯЮЩИХСЯ
ПАРАМЕТРОВ СИГНАЛА
Пусть по наблюдению
А)+л0(Д (9.5.1)
на текущем интервале [0, г] требуется получить оптимальную
оценку векторного параметра А = {А15 А2, ..., АД, представляющего
собой сл. в. с известной априорной п. в. ррг(А). Поскольку
446
в конкретной реализации параметр X постоянен, т. е.
описывается уравнением
</Х/Л = 0, Х(0)=Хо,
где Хо—сл. в. с п. в. р (Хо) —ррг (Хо), то уравнение для апостери-
орной п. в. параметра X имеет вид
dp(t, X)/dz = [F(z, k)-F(t)]p(t, X), р(0, X)=ppr(X). (9.5.2)
Записываем решение этого уравнения
p(t, X) = C(z)ppr(X)exp|f F(x, X)t/r|, (9.5.3)
l о J
где C_1(z) = f^pr(X)exp| j F(r, Х)<й^Х.
Рассмотрим пока случай, когда все компоненты векторного
параметра X являются существенными (информационными). Про-
логарифмировав (3), получим следующий алгоритм нахождения
оценки по максимуму апостериорной п. в.:
X = max-1 6п^рГ(Х) + | Г(т, X) (9.5.4)
х \ о /
Во многих прикладных задачах априорная п. в. является
очень «широкой» и не оказывает существенного влияния на
положение максимума X. При этом оценка по максимуму
апостериорной п. в. (ее логарифма) практически совпадает с оцен-
кой по максимуму функционала правдоподобия (его логарифма):
Х(/) = шах 1 [ — E/N0 + q(t, X)],
1
где
q(t, Х)=-£- к(т)л(т, Х)с?т,
Ло J
о
£=f 52(т, X) dx.
о
(9.5.5)
(9.5.6)
Если оцениваются неэнергетические параметры сигнала (па-
раметры, от которых энергия сигнала Е не зависит), то их
оценку можно находить по алгоритму
X(z) = max 1 q(j, X),
х
т. е. максимально правдоподобные оценки неэнергетических парамет-
ров сигнала X — это такие значения £, которые доставляют
максимум логарифму функционала правдоподобия; они находятся
из решения системы уравнений правдоподобия
dq(t, Xj/axj^o, (9.5.7)
447
^2
Рис. 9.14. Структурная схема оптимального измерителя двух параметров сигнала
Эти уравнения определяют способы получения оценок пара-
метров сигнала. Часто применяют «параллельные» многоканаль-
ные измерители. Структурная схема оптимального измерителя,
позволяющего получить q(t, Х2) для______тхп фиксированных
значений двух параметров Ai;, X2j-, j=\,n, приведена
на рис. 9.14. На выходе решающего устройства выдаются значения
?vi; = Xi и Х2; = Х* с выхода канала (/,/), имеющего наибольший
выходной эффект; они и принимаются за оценки. Интервалы
возможных значений параметров и Х'г^Хт^Х'г опре-
деляются априорными п. в. этих параметров ррДХД и ррг(Х2).
При выбранных интервалах [Х'л, Х'(] и [Х2, Х2] увеличение числа
каналов т и п имеет смысл лишь определенных пределов,
определяемых дисперсиями оценок £>£ и .
Нижние границы для дисперсий оценок максимального прав-
доподобия, являющихся несмещенными, определяются неравен-
ством Рао — Крамера (6.4.11). Для нашей задачи
^-1пр(^|Х) = Д|^(/)-л’(т, A)]^-^<Zt, i=l, г
Учитывая, что п0 (/) = !;(/) — 5 (г, Хо), где Хо— истинное значение
параметра А, находим элементы информационной матрицы Фи-
шера (6.4.10):
2 Г ds (т, X) ds (т, л) .
JVo J ~д~^ дХ~~ 1 X = У
(9.5.8)
В частности, при i=j имеем
448
(9.5.9)
Поэтому нижние границы дисперсий оценок отдельных парамет-
ров сигнала равны
(9.5.10)
Много конкретных результатов по оценкам различных параметров
радиосигналов приведено в литературе1.
Оптимальные измерители параметров сигнала могут быть
реализованы не только в виде многоканальных устройств, но
и в виде следящих систем. Проиллюстрируем это на частном
примере.
Пример 9.5.1. Оценка случайной величины. Пусть требуется оценить постоян-
ную во времени, но неизвестную величину X по наблюдению ^(г) = 1 + и0(г).
Априорное уравнение для 1 имеет вид Л./Л = 0, 1(0) = 10, где 10— нормально
распределенная сл. в. с дисперсией Do.
Для данного примера применима теория линейной фильтрации. В частности,
уравнения (8.1.17) и (8.1.18) принимают вид
2 , , г , , л dR 2 ,
—=—Я(г) ГЕ(г)—£1, —=-------------Я2.
dt No ' ’ J dt Ао
Из последнего уравнения находим дисперсию ошибки фильтрации
К(г)=[По*+2г/Ао]-1-
Если Do велико, то Я(г)«А0/2г и приходим к оптимальному линейному
следящему фильтру
[£(г)-Х(г)].
Пример 9.5.2. Оценка случайной временной задержки радиосигнала2. Пусть
передается радиосигнал i (г )=/(/) cos ш0 г, где /(/)—огибающая радиосигнала
(например, видеоимпульс или пачка видеоимпульсов), а принимаемый полезный
радиосигнал имеет вид s(t, t)coso>0(i—т), где т—случайная, но не
изменяющаяся на интервале наблюдения [0, т] временная задержка с известной
априорной п. в. Ррг(т). По принятому колебанию
i,(t) = s(t, т)+п0(г)=/(/-т)со80)0(?_х) + по(0’ (9.5.11)
требуется получить оценку случайной временнбй задержки т.
1 Куликом Е. И., Трифонов А. П. Оценка параметров сигналов на фоне по-
мех.— М.: Сов. радио, 1978.— 296 с.
2 Тихонов В. И., Харисов В. Н. Объединенная синхронизация в радиотехничес-
ких системах//Радиотехника,— 1984.—Т. 39, №4.— С. 3—10.
15—2247
449
Рис. 9.15. Многомодальная апостериор-
ная плотность вероятности
Возможны несколько вариантов решения задачи, которые используются на
практике. Задержку т можно оценивать только по огибающей f(t—т) или по
радиочастотному колебанию costo0(r —т). Однако если задержки в огибающей
и высокочастотном колебании связаны между собой (в рассматриваемом примере
они жестко связаны), то для повышения точности определения задержки следует
использовать совокупную информацию, содержащуюся как в огибающей, так
и в высокочастотном колебании.
Так как параметр т неэнергетический и не изменяется во времени (dt/A = 0),
то решение уравнения Стратоновича
dp(t, т)/й/ = [Г(ц т)-£(/)]/>(/, т) (9.5.12)
имеет вид
т
р (т)=р (Т, т) = Сррг (т) ехр (1) / (г - т) cos w0 (r-т) dt^.
О
Его можно представить иначе:
р(т)= Cppr(t) ехр {А'(т) cos м0 (т — т(т))}, (9.5.13)
где
АГ(t) = [X (т) + X2 (т)]1/2, т (т) = (1 /соо) arctg X (т)/Х,: (т)],
(9л14)
*.*/ 1V q | /Sin COq IJ
о
Функция АГ(т) является медленно изменяющейся по сравнению с cosco0r.
Из (13) видно, что апостериорная п. в. р(т) является многомодальной
(рис. 9.15). В точках tt, удовлетворяющих равенству <оо(т4 —т)=2/сл, к —О, 1, ...,
она имеет максимумы (пики), общее число таких пиков на интервале неоп-
ределенности т равно целой части числа [7’/7’0] = К, где 7’0 = 2л/<о0 — пе-
риод высокочастотного колебания. Применение обычной многоканальной схемы
для определения т может оказаться практически неприемлемым из-за боль-
шого числа каналов. Если, например, оценивать т с ошибкой порядка
Ат = 7,0/36, соответствующей фазовой ошибке А<р = <о0Ат= 10°, то потребуется
36К каналов.
Непосредственное применение гауссовского приближения (§ 10.1) к данной
задаче недопустимо из-за многомодальности апостериорной п. в., поэтому требу-
ются другие аппроксимации решения уравнения (12). Здесь возможны различные
физически оправданные и разумные предложения.
450
Рис. 9.16. Плотность вероятности в методе дополнительной переменной
Рассмотрим метод разделения задержек (метод введения
дополнительной переменной)'. В этом методе вместо одной
переменной т рассматриваются две переменные {т, тд}, причем
их тождественность в исходной задаче учитывается в априорном
распределении
тд)=ррг(т)5(т-тд).
При оценке задержки удобно ввести тд так, чтобы «расщепить»
задержки огибающей и высокочастотного колебания сигнала:
s(t, т, тд) =/(/ - т) cos соо (t - тд).
При этом апостериорную п. в. можно записать в виде
р(т, тд) = Сррг(т)5(т-тд)ехр[У(т)cos<в0(тд-т(т))]. (9.5.15)
На рис. 9.16 изображена поверхность Дд(т, тд), которая с точ-
ностью до постоянной описывается правой частью выражения
(15) при опущенной дельта-функции. Наличие в (15) дельта-
функции 8(т — тд^ отражено на рисунке секущей плоскостью т = тд.
Пересечение этой плоскости с поверхностью рд(т, т ) с точностью
до нормировочного множителя совпадает с р(т), т. е. имеет
многопиковый характер рис. 9.15. Поверхность рд(т, тд) более
регулярна, чем />(т). Ее зависимость от т определяется медленно
меняющимися функциями Az(r), т(т) и ^рг(т). При обычных
формах огибающей сигнала /(/) функция рд(т, тд) унимодальна
по т. По переменной тд вид />д(т, тд) имеет многопиковый
характер, но эта многопиковость строго периодична: ^д(т, тд) =
=рд(т, тд + Т0), т. е. ее легко учесть.
1 Харисов В. Н. Нелинейная фильтрация при многомодальном апостериорном
распределении//Техническая кибернетика.— 1985.— № 6.—С. 147—155.
451
Суть метода дополнительной переменной состоит в том,
чтобы аппроксимировать не как обычно апостериорную п. в.
р(т) по переменной х, а функцию рд(т, тд) в расширенном
пространстве {т, тд}, определить параметры аппроксимирующего
распределения, по ним найти параметры получающейся аппрок-
симации для р(т) и, наконец, получить интересующую нас оценку.
Будем рассматривать {т, тд} как сл. в., с некоторой
априорной п. в.
Р2рг(т, Тд = т) = Сррт(т). (9.5.16)
При этом апостериорную п.в. для наблюдения (11) можно
выразить через функционал правдоподобия:
р2 (т, тд) = С1Р2рг (т, тд = т) Р I т, тд}. (9.5.17)
Из сравнения (15) и (17) с учетом (16) и фильтрующего свойства
дельта-функции 3(т —тд) следует, что
р (т, тд) = С2р2 (т, тд) 5 (т - тд). (9.5.18)
Из условия согласованности п. в. получаем основной результат:
р(т) = С2р2(т, т). (9.5.19)
Априорная п. в. р2рг(х, тд) выбирается из соображений удобства
аппроксимации р2(т, тД Например, рис. 9.15 иллюстрирует выбор
в виде р2рг(х,хя)=С3ррг(х)р1рг(хд), где р 1рг(гд)— несобственное
распределение тд, равномерное на (—оо, оо). В этом случае (17)
конкретизируется:
р2(т, тд) = С3ррг(т)ехр[^(т)со8(о0(тд-т(т))]. (9.5.20)
Максимум р2(т, тд) достигается в точках (тх, тл+кТо), к = 0,
+ 1, +2, ..., которые соответствуют максимумам горбов на рис. 9.16:
mt = max~'1 {А^-МпррДт)}, /ид = т(тт). (9.5.21)
Используем для аппроксимации каждого отдельного горба
р2(т, тд) двумерную нормальную п. в. с м. о., совпадающим
с положением максимума горба. С учетом периодичности р2(т, тд)
по тд запишем
р2(т, тд)«С £ ехр
к - ~ оо
xR^(T-mT, хд-тя-кТ0)^. (9.5.22)
Здесь R — (2 х 2)-матрица, которая определяется из условия равен-
ства квадратичных членов разложения показателей в (20) и (22),
т. е. по обычной методике локальной гауссовской аппроксимации:
452
-|(т-тт, Тд-Щд-А-Го) X
а21пр2(т, тд)/ататд
а21пр2(т, Тд)/5т2
о
(9.5.23)
т = тх
Т«)/5Т2
P2 1пЛ>(^ тд)/5т^тд
= ~-d2[X(mt) + lnppr(mr)/di:2
0
Итоговая аппроксимация для /;(т) следует из (19) и (22) после
выделения в показателе экспоненты членов, зависящих от т:
р(т)«С4р2(т, т) = f pkN(mk, Da). (9.5.24)
к = - оо
Здесь
рЛ = Сехр{-[/сТ0-(/ит-шд)]2/2/)}, (9.5.25)
D = Rli + R22 — 27?!2, Da = (7?227?ц — 7? 22)/П,
тк =(тл + кТ0) (Т?22 - Т?12)/Т) + тх (7?t t - 7?j 2)/D.
Выражения для D, Da и тк, записанные для матрицы R общего
вида, в рассматриваемом случае упрощаются, поскольку 7?12==0.
Из (24) получаем оценку по максимуму апостериорной п. в.:
т-[К + /<Го)/?22 + /»17?11](/?11+7?22)^ (9.5.26)
при
/с = тах-1 {ft}=min-1 {| кТ0-(тх-тя) |}. (9.5.27)
к к
Согласно (23) здесь 7?ц = { — д2 [У(тт) + 111ррг(тт)]/3т2}“1,
Т?22 = 1/ю^У(г?7т).
Оценка совпадает с положением максимума пика, ближайшего
к положению максимума огибающей. Получение оценки по
алгоритму (21), (26), (27) существенно проще прямого вычисления
апостериорной п. в. (например, с помощью параллельной мно-
гоканальной схемы).
Изложенный метод показывает, что априорную жесткую связь
параметров т и тд можно на время забыть, решить задачу при
менее ограничительном условии (16) и лишь после этого учесть
это априорное знание, просто положив т = т как это указано
в (18).
Отметим, что обычная гауссовская аппроксимация (§ 10.1),
которую удобно применять в расширенном пространстве перемен-
ных {г, тд}, эквивалентна некоторой сложной аппроксимации (24)
в исходном пространстве параметров, которую заранее трудно
предвидеть. При этом также отпадает необходимость вводить
в рассмотрение специальные виды аппроксимирующих п. в.,
обосновывать условия их применимости и разрабатывать про-
цедуры определения их параметров.
453
Хотя выше рассмотрение приведено для частной задачи, однако
подобная методика применима и в более общих случаях: вводится
дополнительный параметр Хд, заменяющий часть компонент
оцениваемого векторного параметра к, входящего в наблюдение,
выбирается априорная п. в. ррг(к, Хд), удовлетворяющая соотноше-
нию типа (16), аппроксимируется апостериорная п. в. р(к, Хд), из
которой следует аппроксимация для р(к) = Ср(Х, X). Эффективность
метода существенно зависит от удачного выбора Хд.
9.6. МОДЕЛИРОВАНИЕ УРАВНЕНИЯ
СТРАТОНОВИЧА
Алгоритм фильтрации. Рассмотрим задачу фильтрации винеровс-
кой фазы ф(/ ) узкополосного радиосигнала в обычной формулировке:
^(/) = Я cos[co0/+q)(r)] + /i0(/), (9.6.1)
dq>/dt = n(t), (9.6.2)
где и0(/) и и(/) — независимые БГШ с односторонними спект-
ральными плотностями No и N. Будем интересоваться фазой,
приведенной к интервалу значений [ — л, л]. Определим стаци-
онарное значение среднего квадрата фильтрации приведенной
фазы в зависимости от входного отношения сигнал-шум для
оптимального следящего измерителя (ФАП).
Имея в виду последующее применение методики численного
моделирования на ЭВМ, введем безразмерные величины — время
т, частоту Q и амплитуду полезного сигнала а:
T=Nt, О = со0/А, a = AjNN~0. (9.6.3)
В новых переменных исходная задача (1), (2) примет вид
(т) = a cos [Qi + ф (т)] + п0 (т), (9.6.4)
<7ф/Л = н(т), (9.6.5)
где й0(т) и й(т) — независимые БГШ с единичными односторон-
ними спектральными плотностями (Ао=1, А=1).
Введенные безразмерные величины имеют определенный фи-
зический смысл. Безразмерное время т пропорционально апри-
орной дисперсии набега винеровской фазы на временном ин-
тервале [0, тТ. Параметр а характеризует входное отношение
сигнал-шум. Действительно корреляционная функция полезного
радиосигнала s(t, ф) = A cos [соо/ + ф(?)] при винеровской фазе ф(/)
определяется выражением
7<.(А) = (Л 2/2) ехр( —A?A/4) cos®0A.
Такой корреляционной функции соответствует спектральная плот-
ность с шириной полосы N/2. Поэтому отношение средней
454
Рис. 9.17. Ступенчатая аппрок- Рис. 9.18. К трактовке
симация фазы в интервале случайной фазы
[-л, л]
мощности сигнала А2/2 к мощности аддитивного шума канала
в полосе частот сигнала равно
q = A2/NN0 = a2. (9.6.6)
Примем следующую аппроксимацию процесса ф(т). Разобьем
временную ось на малые подынтервалы [tv, tv+1) и будем считать
фазу ф на каждом таком подынтервале постоянной и равной
значению ф(т) в середине данного подынтервала (рис. 9.17).
Иначе говоря, вводится ступенчатая аппроксимация фазового
процесса вида ф(т) = фу + 1 при те[ту, tv + 1). Поскольку фаза на
подынтервале постоянна, то уравнение фильтрации Стратоновича
для апостериорной п. в. фазы на [tv, tv+1) примет вид
С \+1 >
р(фу+1) = О’(фУ + 1) ехр^2а J £(t)cos(Qt + 9v+1)<M, (9.6.7)
где С—нормировочный множитель; р(фу+1)—экстраполированная
п. в. Она находится путем пересчета апостериорной п. в. р(фу) на
предыдущем временном подынтервале с помощью соотношения
р(фу+1)1 р(фу)р(фу+11 Фу)й?Фу. (9.6.8)
— п
Здесь /»^pv + 1 | фу)—п.в. перехода. Для винеровской фазы, при-
веденной к интервалу [—я, я], она имеет вид
Дф..1|ф.)=Д== £ (9.6.9)
^уЛАТузз— qO J
где фу, фу+1 е [—я, я], At = tv+1 — tv. Выражение (9) является
очевидным результатом приведения обычной нормальной п. в.
к конечному интервалу.
С помощью (7)...(9) можно последовательно рассчитывать
апостериорную п. в. фазы для любого момента времени т.
455
Именно на этих соотношениях базируется численное моделирова-
ние оптимального алгоритма фильтрации.
Выбор параметров численной модели. Важным вопросом яв-
ляется выбор параметров численной модели, а применительно
к рассматриваемому примеру — выбор шага по времени Ат и диск-
рета Аф разбиения отрезка возможных значений фазы [ — л, л].
Этот вопрос решается на основе следующих соображений.
Погрешность ступенчатой аппроксимации фазового процесса оп-
ределяется средпеквадратическим отклонением фазы ф(т) на интерва-
ле длиной Ат от ее значения в середине этого интервала. Известно,
что для винеровского процесса дисперсия приращения фазы равна
Dtf = (N/2) Ат = Ат/2. (9.6.10)
При рассмотрении задачи (5), (6) в непрерывном времени
естественно потребовать выполнения неравенства
ЯФ«Я, (9.6.11)
где R—дисперсия апостериорной и. в. фазы. Согласно (10.1.43)
Поэтому условие (11) с учетом (10) можно
записать в виде
АтсУ2/а. (9.6.12)
Если задача решается в дискретном времени, то шаг по
времени Ат выбирается исходя из допустимого априорного набега
фазы на выбранном интервале. Тогда с использованием (10)
получаем следующее условие выбора величины Ат:
Ат = 4Рф, (9.6.13)
где /)ф—допустимое значение дисперсии набега фазы.
При выборе Аф можно исходить из следующих рассуждений.
Шаг по ф должен быть достаточно малым, чтобы не вносить
заметной дополнительной погрешности в определение оценки
фазы. Для этого должно выполняться условие (Аф)2сИф или
(А(р)2<§:1/«х/2. (9.6.14)
При моделировании число узлов на отрезке [ — я, я] составляло от
нескольких десятков при малых а до нескольких сотен при больших а.
Оценка приведенной фазы. При байесовской оценке фазы по
апостериорной п. в. необходимо задаться конкретной функцией
потерь с(ф,ф), где ф = ф(т)— оценка фазы ф(т). Удобно рассмат-
ривать значение фазы в каждый момент времени как точку на
единичной окружности. При этом значения фазы ф и ф + 2я£,
где к — целое число, будут эквивалентны (рис. 9.18). Тогда можно
ввести расстояние d между ф и ф как длину наименьшей из
двух дуг, соединяющих точки ф и ф. При этом функция потерь
с(<7) должна быть, очевидно, 2я-периодической. Поскольку на-
456
Рис. 9.19. Периодическая функция по-
терь
>\c(d)
-зл -лол
d
иболее часто в теории фильтрации используется квадратичная
функция потерь вида c(d)=d2, то в данной задаче рассматривается
ее периодический вариант (рис. 9.19).
Известно, что средний квадрат ошибки фильтрации дается
осреднением функции потерь с(ф,ф) по совместной п. в. фазы
и наблюдения:
8ф = ДО С(ф,ф)р(ф, 8т0)й?фй^Т0-
При выбранной функции потерь апостериорный риск совпадает
с дисперсией апостериорной п. в. приведенной фазы
Я
Л(ф)= J с(ф,ф)р(ф)й?ф. (9.6.15)
— я
Оценка ф находится из соотношения
ф = min R (ф), (9.6.16)
Ф
т. е. из равенства
к
j Ф’ФЫч>) £/(р=0- (9-6-17)
Непосредственно раскрыть это равенство не удается, так как
нет явного аналитического выражения для функции потерь с(ср,ф).
На рис. 9.20 представлена характерная ситуация, поясняющая
возникающие трудности. Для выполнения дифференцирования
преобразуем (17).
Подынтегральная функция периодическая и интеграл берется
по периоду этой функции. Поэтому значение интеграла
не изменится, если сместить отрезок интегрирования на
Рис. 9.20. Взаимное положение функции потерь
и апостериорной плотности вероятности
произвольную величину,
ф, можно написать
Сдвинув начало отсчета по ф на
л + ф
d
dip
(ф-ф)2р(ф) </ф'=
— я
л + ф
— п + ф
— л + ф
- (- л + ф — ф)2 р (— я + ф) = — 2
Ф/?(ф + ф) <7ф.
Следовательно, условие (17) имеет вид
J ф/?(ф + ф)б/ф = 0.
(9.6.18)
Оценка ф в каждый момент времени является решением интег-
рального уравнения (18).
Средний квадрат ошибки фильтрации е2 можно найти осреднением
R (ф), вычисляемой на каждом шаге, по большому числу наблюдений.
Моделирование алгоритма и анализ результатов. В результате
моделирования описанного оптимального алгоритма ФАП была
получена зависимость стационарного значения дисперсии ошибки
фильтрации приведенной фазы от отношения сигнал-шум
q = A2INN0 для двух значений максимально допустимой апри-
орной дисперсии набега фазы на интервале D . Соответствующие
графики дисперсий ошибок фильтрации приведены на рис. 9.21.
Кривые 1 относятся к рассмотренному оптимальному алгоритму,
а кривые 2 и 3— к двум приближенным алгоритмам, которые
для нашей задачи будут изложены в примерах § 10.3.
Рис. 9.21. Стационарная дисперсия ошибки фильтрации фазы
458
Рис. 9.22. Зависимость стационарной
дисперсии ошибки фильтрации фазы
от априорной дисперсии набега фазы
за Дт
Выбор параметров численной модели оптимальной ФАП
соответствовал приведенным выше рекомендациям. Шаг по
времени брался исходя из максимально допустимой априорной
дисперсии набега фазы на интервале. Для рис. 9.21 эта дисперсия
равна 0,1 рад2, и 0,01 рад2. По ходу моделирования постоянно
контролировалась точность получаемых оценок. Относительная
погрешность результатов составляет 4...6%.
Отметим, что хотя исходная задача (1), (2) сформулирована
в непрерывном времени, решалась она чисто дискретным методом.
Ясно, что численное решение непрерывной задачи можно получить,
задав достаточно малую величину D — априорную дисперсию набега
фазы на шаге по времени. Этот факт подтверждает и приведенная на
рис. 9.22 зависимость дисперсии ошибки фильтрации фазы от
дисперсии набега фазы Dv. Видно, что при /)ф^0,01 рад2
дискретность метода решения слабо влияет на величину
М{| ср- ф |2}. Это позволяет заключить, что результаты рис. 9.22
практически соответствуют решению задачи в непрерывном времени.
Выше была изложена методика моделирования уравнения
Стратоновича для частного примера, когда фильтруемым сооб-
щением являлся винеровский процесс. Эта методика может быть
обобщена на многомерные модели фильтруемого марковского
сообщения. Однако при этом значительно возрастает объем
вычислений. Особенно усложняется вычисление интеграла (8),
описывающего эволюцию апостериорной п. в. в соответствии
с априорной моделью фильтруемого процесса, который теперь
будет многомерным.
Глава 10. ПРИБЛИЖЕННЫЕ МЕТОДЫ
НЕЛИНЕЙНОЙ ФИЛЬТРАЦИИ
В гл. 7. были получены алгоритмы фильтрации марковских
процессов в дискретном времени (7.2.9), (7.2.10) и в непрерывном
времени (7.3.8). В теоретическом плане они дают полное решение
459
задачи фильтрации. Однако точные решения уравнений нелиней-
ной фильтрации известны в немногих случаях (гл. 9). Сущест-
вующая элементная и схемотехническая база часто не позволяет
практически реализовать численное решение точных уравнений.
В связи с этим возникает необходимость получения хотя бы
приближенных решений.
Часто приближенные решения уравнений фильтрации основаны
на аппроксимации решения — апостериорной п. в. p{t, к) неко-
торой функцией p(t, к; а) из параметризованного класса зе.?'.
Чаще всего используют нормальную и. в. p(t, к; а) = Лг(к(г), R(f)),
для которой сст(/) == {X.(/), 7?(?)}, — со<Х(?)<со, 0<7?(/)<со. По-
лученные таким путем алгоритмы для определения парамет-
ров aT(z) = {k(z), R(t)} называют алгоритмами гауссовского при-
ближения.
Широкое распространение гауссовского приближения объяс-
няется тем, что для большого класса задач апостериорная п. в.
p(t, к) при малых ошибках фильтрации (больших отношениях
сигнал-шум) становится нормальной и в этих условиях гауссовское
приближение соответствует точному решению уравнения фильтра-
ции. Получающиеся алгоритмы часто называют квазиоптималь-
ными (квазилинейными').
Однако в ряде задач апостериорная п. в. существенно от-
личается от нормальной. Кроме того, при больших ошибках
фильтрации (малых отношениях сигнал-шум) могут потребоваться
более точные приближения, основанные на физических представ-
лениях или результатах моделирования. В подобных случаях
аппроксимацию точного решения p(z, к) целесообразно осущест-
влять не обязательно нормальной плотностью.
Изложим несколько приближенных методов решения основ-
ного уравнения нелинейной фильтрации.
10.1. ЛОКАЛЬНАЯ ГАУССОВСКАЯ
АППРОКСИМАЦИЯ
Класс приближенных алгоритмов фильтрации может быть
получен на основе аппроксимации (локальной)^ точного решения
лишь в малой области оценочного значения k(z) фильтруемого
параметра. Именно такой смысл придается здесь термину «ло-
кальная». В противоположность локальной аппроксимации в § 10.3
будут изложены методы глобальной (интегральной) аппрок-
симации, которые предполагают аппроксимацию точного решения
p[t, к) п. в. /?(/, к; а) во всей области определения к по некоторому
интегральному критерию.
Обычно локальная аппроксимация базируется на замене п. в.
p(t, к) нормальной и. в. А(к(/), R (?)). Рассмотрим квазиоптималь-
ные алгоритмы, основанные на таком подходе.
460
10.1.1. РАСШИРЕННЫЙ ФИЛЬТР КАЛМАНА
1. Расширенный фильтр Калмана в непрерывном времени.
Рассматриваемый квазиоптимальный (квазилинейный) алгоритм
основан на приближенном сведении исходной нелинейной задачи
фильтрации к линейной. В § 8.1 указывалось, что нормальная
апостериорная п. в. является точным решением задачи линейной
фильтрации.
Предполагая, что априорная п. в. начального значения ррг(к0)
нормальная, для применения теории линейной фильтрации к за-
даче (7.1.6), (7.1.7) в этих уравнениях должны быть выполнены
следующие условия:
1) полезный сигнал s(z, X) зависит от сообщения X линейно:
sf(/,x)=M0+Z (10.1.1)
7=1
2) фильтруемое сообщение k(z) есть гауссовский процесс, т. е.
g,.(/, k) = f Ч-(г)+с;(г), NuAt} = N^ Ч (Ю.1.2)
7 = i
Аналогичный вид имеют условия и при фильтрации в дискретном
времени.
Расширенный фильтр Калмана получается следующим обра-
зом. Предположим, что удалось найти некоторую оценку сообще-
ния X*, не обязательно оптимальную. Разложим функции от
1 в уравнениях наблюдения и сообщения нелинейной задачи (7.1.6),
(7.1.7) в ряд Тейлора в точке Х = Х*, добиваясь аналогии с (1) и (2):
д<, V)+ f (10.1.3)
j=l
g;(/, X>g,.(z, k*)+ Д (10.1.4)
NUJ(t, X) = M;;(z, X*).
При этом уравнение наблюдения примет вид
£(z) = s0(z) + H(z)k + n0(z), (10.1.5)
где
H(z) = ds(z, X*)/aV, s0(z) = s(z, k*)-H(z)k*. (10.1.6)
Уравнение сообщения теперь можно записать
/ dt = Aq (t j -р A (/) X -Р (t), (10.1.7)
где
A0(z)=g(/,x*)-ag(z,x*)/arx*,
A(z) = ag(z, х*)/ахт, Njz) = Nk(z, X*). 1 J
461
Здесь были использованы следующие обозначения: д /'(к*)/<3к—
производная от функции /(X) по X, взятая в точке Х = Х*;
матрицы
[3s(/, Х.)/5ХТ]^ = 35((/, Х)/5Хр i=l,m; j=l,n.
Такая запись соответствует обычным векторно-матричным обо-
значениям: ds/dlT— формальное произведение т вектора ds на
и-строку dk\ результат которого есть (т х п)-матрица.
Уравнения (5) и (7) линейны относительно X, они полностью
аналогичны уравнениям (8.1.57) и (8.1.59) и, следовательно,
описывают задачу линейной фильтрации. Входящие в них функции
s0(z), H(/J, Ао(/), А(/) и Л\(/) известны, так как они определяются
известной по предположению оценкой V(r). Поэтому апостери-
орная п. в. будет нормальной и остаются в силе уравнения
линейной фильтрации, аналогичные (8.1.61):
<ZX/rf/ = A0(/) + A(r)X + R(z)HT(z)x
xNo^^O-So^-H^X], (10.1.9)
rfR/rf/ = Nj/)+A(z)R + RAT(/)-RHT(r)No !H(/)R. (10.1.10)
Входящие сюда коэффициенты определены выражениями (6) и (8).
Чаще всего в качестве выбирают саму квазиоптимальную
оценку Х(г), т. е. полагают !*(/) = X(t). Это допустимо, поскольку
X(z) вычисляется по прошлым наблюдениям и на текущий
момент времени t может считаться известной. В этом
случае имеем
s0(/) + H(/)X(r) = s(z, V)+[5s(z, X*)/aiT] (X-X*) |x. = £ = s(r, X),
Ao(0+A(/)X(/)=g(/, х-)+pg(t, x*)/av] (X-v) lv=£=g(/, X).
В результате приходим к окончательному алгоритму расширен-
ного фильтра Калмана в непрерывном времени:
<ZX/tZr = g(/, X) + R(/)ps(z, X)/3V]TNo X)], (10.1.11)
—=NX(/, Х) + Г^Ъ + вГ^Т-
dt ’ > |_ av J |_ dir
— R
(10.1.12)
Уравнения понимаются в смысле Стратоновича.
В уравнении для квазиоптимальной оценки (11) множитель
ds(t, l)/dlT можно трактовать как коэффициент линеаризации.
Он изменяется во времени и зависит от значения текущей
оценки Х(/). Для сравнения можно указать, что, например, при
линеаризации характеристик электронных ламп или транзисторов
используется обычно статическая линеаризация, при которой
462
коэффициенты разложения нелинейных функций в ряды пред-
ставляют собой постоянные величины. В отличие от такой
статической линеаризации изложенный метод локальной гаус-
совской аппроксимации называют методом текущей линеаризации.
Заметим, что если алгоритмы обычной линейной фильтрации
Калмана — Бьюси линейны относительно X, то уравнения расширен-
ного фильтра Калмана относительно £ нелинейны. Эта нелинейность
обусловлена нелинейной зависимостью s(z, X) и (или) g(z, X) от X.
Второе существенное усложнение процедуры фильтрации в рас-
ширенном фильтре Калмана по сравнению с линейной, как
и в других приближенных алгоритмах нелинейной фильтрации,
обусловлено тем, что теперь в уравнение для корреляционной
матрицы ошибок (12) входит текущая оценка Х(/). Поэтому его
нельзя проинтегрировать заранее, а необходимо решать совместно
с уравнением (11) в текущем времени. Это усложнение при
технической реализации особенно существенно при больших
размерностях п фильтруемого процесса X(z), так как кроме
п уравнений оценки (11) необходимо решать в реальном времени
еще п2 (или с учетом симметрии матрицы R — п(п + 1)/2) уравнений
(12) для элементов корреляционной матрицы ошибок.
Рассмотрим кратко соотношения между алгоритмами работы
расширенного фильтра Калмана в форме Стратоновича и Ито.
Если при линейной фильтрации не имеет значения, в какой
форме рассматриваются уравнения фильтра Калмана — Бьюси,
то для расширенного фильтра Калмана это не так. Причина
в том, что в уравнение для оценки (11) в коэффициент при
S,(z) входит функция <?s(z, Х)/5Х, зависящая от X(z).
Выделим четыре варианта: 1) исходные уравнения (7.1.6)
и (7.1.7) понимаются в смысле Стратоновича и алгоритмы
фильтрации записываются в форме Стратоновича; 2) исходные
уравнения и алгоритмы фильтрации понимаются в смысле Ито;
3) от уравнений, определяющих алгоритм фильтрации, получен-
ных в 1), осуществляется переход к форме Ито и, наоборот;
4) от уравнений фильтрации, полученных согласно 2), осущест-
вляется переход к форме Стратоновича.
Выше в форме Стратоновича для расширенного фильтра
Калмана получены уравнения (11) и (12). Чтобы получить
уравнения в форме Ито, нужно повторить предыдущий вывод.
После приближенного линейного представления функций, входя-
щих в исходные уравнения (7.1.6) и (7.1.7), придем к линейной
задаче, описываемой уравнениями (5) и (7). В результате вновь
получим уравнения (11) и (12), которые теперь, однако, следует
понимать в смысле Ито.
Таким образом, метод текущей линеаризации приводит к ал-
горитму расширенного фильтра Калмана, уравнения которого
имеют одинаковый вид (11), (12) как в форме Стратоновича,
так и в форме Ито.
463
Однако алгоритмы видоизменяются, если в них производится
переход к другой форме. Пусть, например, в уравнениях (11),
(12), понимаемых в смысле Стратоновича, дня скалярного случая
(т=1, и=1) осуществляется переход к форме Ито. Согласно
формуле перехода [4] для уравнения (11) получим дополнитель-
ный член
1 / 2 s(t, 1)\ S / 2 r8s(t, 1)\ No _ 1 tyd2s(t, 1)
iljvo si 31 51 512
В результате имеем другое уравнение для оценки (11):
^=г(гД)+л2-Г5(,)_1(,Д)_'Л^
14С 1 V Q LZ Л.
ds (г, 1)
51
(10.1.13)
Уравнение (12) при этом останется прежним. Полученный таким
путем алгоритм (13), (12) в форме Ито отличается от (11), (12).
Такой же по характеру результат получается при переходе
от уравнений (11), (12) в форме Ито к форме Стратоновича:
ds(t, £)
51
(10.1.14)
Здесь появилось дополнительное к (11) слагаемое. В итоге
приходим к новому алгоритму фильтрации (14), (12).
2. Расширенный фильтр Калмана в дискретном времени. Вывод
алгоритма расширенного фильтра Калмана в дискретном времени
аналогичен приведенному выше для непрерывного времени. При
линеаризации уравнения динамики фильтруемого процесса (7.1.11)
выберем точку разложения k* = £v_1. Тогда
Xv = AOv + AVXV _ ! + nXv,
которое аналогично (8.1.33) при AOv = g(*v, —Av£v-!,
Av = dg(/V, При линеаризации уравнения наблюдения
(7.1.10) обычно полагают X* = g(/v, Xv-i), что соответствует раз-
ложению в точке экстраполированной оценки. При этом уравнение
(7.1.10) переходит в соотношение
= ^Ov + HVXV + nOv,
которое аналогично (8.1.32) при HOv = s(/v, g(/v, £v_i)) —Hvg(/v, £v- J,
HV = 5S(ZV, gfVi))/^.
На основании (8.1.34) и (8.1.36) записываем алгоритм
фильтрации
£v = g(c, g(/v, Xv-0)], (10.1.15)
r^^a^amj-'+hx’U (10.1.16)
При малой размерности т вектора наблюдения £Д/) более
удобным для расчета Rv является алгоритм, аналогичный (8.1.39):
464
(10.1.17)
Rv — Rv — RVH: [ндн; + Vv] ~1 HVRV,
где ~
rv=avrv_iA;+K-
Если выбрать другие точки, в окрестности которых произ-
водится линеаризация, то можно получить другие алгоритмы.
Несколько таких алгоритмов получено в [7, § 2.3].
3. Расширенный фильтр Калмана при непрерывно-дискретной
и дискретно-непрерывной фильтрации. Поскольку соответствующие
алгоритмы получаются так же, как в двух предыдущих вариантах,
приведем здесь выражения для окончательных алгоритмов.
При непрерывно-дискретной фильтрации они имеют вид: для
d^/dt = g(t, 1),
^ = NJ(.i) + p
(10.1.18)
dg(f. £) T.
(10.1.19)
R + R
для t = tv
ds(t, k(7v-0))
v.;’
5XT
(10.1.20)
X(rv-O))
v -1 ds^’
(10.1.21)
Эквивалентная форма, удобная при т<п, записывается, как
и в линейном случае:
as(/v, £(?v-o))
OS (?v, 0))
okT
L dV
ds(/v, £(rv-0))
okT
+V,
os(rv, kpv —0))
oUT
(10.1.22)
Алгоритмы для дискретно-непрерывной фильтрации:
1V = 1V + R.
<5s(c, Xv)
<UT
(10.1.23)
ds(l, Zv)
~ cUT
Rv^Rv1
(10.1.24)
465
где _ „
Av = g(Zv, V.), &у = Фу+[<Э§(М V-l)/dXT] X
xv^zXOW.
В рассматриваемом случае отличие от обычной фильтрации
в дискретном времени заключается в том, что наблюдение
и полезный сигнал входят под интеграл. В общем случае для
уравнения (24) не существует эквивалентной формы типа (22).
10.1.2. ДРУГИЕ АЛГОРИТМЫ ЛОКАЛЬНОЙ
АППРОКСИМАЦИИ
При применении локальной аппроксимации основной путь
получения алгоритмов фильтрации, отличных от расширенного
фильтра Калмана, основан на поиске приближенных решений
уравнения Стратоновича в виде разложения логарифма апостери-
орной п.в. p(t, А.) в ряд Тейлора относительно приближенной
оценки X(z), соответствующей максимуму апостериорной п. в.
Для скалярной задачи (т = п =1) это означает, что решение
ищется в виде
Р(/, A) = exp{c(z) — V МП(10.1.25)
i=2 '
где c(z) = lnp(z, X(z)); к — порядок аппроксимации (к >2);
X(z) = max-1p(z, X), /?,(/)=—й‘1пд(/, А)/0А‘|
Член с ЛД?) отсутствует, так как при указанном выборе X имеем
/?! (/)= -~д lnp(z, A(z))/(?A = O. При к = 2 получаем гауссовскую ап-
проксимацию, а при к>2 — аппроксимацию плотностью, отличной
от нормальной. __
Параметры распределения (25) X(z) и //,(/). z = 2, к, находятся
подстановкой (25) в уравнение Стратоновича (7.3.8) и прирав-
ниванием коэффициентов при одинаковых степенях разности А,—Х(г).
Ограничимся здесь рассмотрением нескольких вариантов гаус-
совской аппроксимации {к = 2). Вывод алгоритма при к = 4
(учитываются асимметрия и эксцесс распределения) приведен
в [7, § 3.2].
Запишем (25) для вещественного процесса при к=2
в обычном виде
p(z, А) = ехр {c(z)~[A —X(z)]2/27?(z)}. (10.1.26)
Произведем некоторые преобразования в уравнении Стратоновича
Ч]Ч]+
+ [F(z, A) —F(z)]/?(z, А), (10.1.27)
466
где F(t, X)=(2/N0)^(t)s(t, X)-(l/N0)s2 *(t, к), F(l)=(F(t, X)p(t, MdX.
(10.1.28)
Чтобы после подстановки (26)_ в (27) и приравнивания
коэффициентов при степенях (А—А(/)) получилась замкнутая
система, нужно предварительно разложить также функции a(t, X),
Nx(t, А.) и F(/, А) или s(t, А) в ряды Тейлора. Как это часто
бывает при использовании приближенных методов, можно по-
лучить несколько различающихся алгоритмов в зависимости от
того, как осуществляются эти разложения. Рассмотрим несколько
вариантов.
I. Будем подставлять в (27) разложения коэффициентов п(/, А),
Nx(t, А^ и F(/, А) до второй степени (А —А(/)). Для сокращения
записей используем обозначения вида
/(/, А)«/+/'£+/"е2/,, /=./•(/, А), А)/аА,
f" = d2f(t, А)/<ЭА2, е = А-А,
а производные по времени обозначим точкой сверху. Тогда из
(27) получим
р\ С+-А+—
7? 2R2
а + «'£ + -й’"£2
2
N^ + N'^+'-N'^p
F+F's-H-F's2 j —F(t)] =
= -(г/' + а"£)р-^ + а'е + ^а"Е2Д-|/?^ + 1^> + 1(^+<Е)х
х ( - р ) + т М s+7V1'e2) Q-2 -1J р + (f+ F'e+~ F"e2 - F(t p =
= ff-a" + --~--~ + F'^E + (--7^ + -^4-^+^x
R 1R 47? J \R 2R 4R2 87? 2 J
X E2 + const (s) >p.
Здесь было учтено, что — sp/R=p'(t, А). Приравнивая коэффици-
енты при е и е2, приходим к следующему алгоритму:
SF(t, A) o2a(r, X)
</F
(10.1.29)
dR
~dt
R + ^^R2.
OtS
(10.1.30)
2. В [7, § 3.2] алгоритм получен несколько иначе: сначала
в (27) берутся производные
467
^+^(1, A)^^+[F(1, X)-F(t)]p(t, X) (10.1.31)
с'Л 4 С'Л.
и лишь затем подставляются разложения коэффициентов в (31).
Например, теперь da(t, к)/дкка’ + а"с + а'"82/2. Реализация этого
способа приводит к алгоритму
— = о(1, X)-3r,N^^ + R(t)
dt 1 ' 4 а ' 7
dF(t, \)_32<,(t. X) 1 ГЛ\(ь X)
дк ~ dx2-- + 4 ах3
(10.1.32)
~ = 1aU/, Х)+ 2г"('- Х’
dt 2U’7 <?Х
5 32N^t,l) d2F(t, л)
4 8Х2 dX2
а\/(/, х) 1
“Tv-+4
Х)~
5Х4
(10.1.33)
Заметим, что в отличие от алгоритма (29), (30) в (32), (33)
входят дополнительные члены с производными от а(р к) и Nx(t, А)
третьего и четвертого порядков. Хотя наличие этих дополнитель-
ных членов как бы свидетельствует о большей точности второго
метода, однако нет оснований утверждать, что он корректнее
первого.
Подставив в (32), (33) a(t, X)=g(t, A) + (l/4) [tW, (/, A)/t?A] и (28),
получим уравнения, выраженные через параметры исходных
уравнений наблюдения и сообщения:
X) д ЛлК(,ь.,(,. Л)«!ЬЗ_2&5}.
dt ' 7 2 ах ' 7).y0L ' J dx ах2 J
(10.1.34)
<ir i i -Г<Х?(х A)
— = -Д/РХ+2 —A--7
dt 2 n 7 5X
где
dX2 Na L 17 V 7J dX No |_ dX
3. При получении как алгоритма (29), (30), так и (32),
(33) использовалось разложение в ряд функции F(t, X). Однако
F(t, А) согласно (28) можно трактовать лишь как удобное
промежуточное обозначение и вместо нее можно разлагать в ряд
сигнал s{t, А). Если использовать разложение s[t. А) в ряд до
квадратичного члена, то в итоге придем к тем же алгоритмам,
что и при разложении Е(т, А), например к (34) и (35) при
втором методе.
468
Однако если ограничиться линейным разложением s(t, X)
и других функций, входящих в (27) или (31), то в результате
получим вместо (34) и (35) следующий алгоритм:
ад А В(()_ J(,.
д+2*Щ)д_.2_Г^т»ТЛ2,
dt 2 u 7 сХ ЛГ0|_ 5К
(10.1.36)
(10.1.37)
Сравнивая (36), (37) с уравнениями расширенного фильтра
Калмана (11), (12) для скалярного случая, видим, что они
практически совпадают. Отличие заключается в том, что в (36)
имеется дополнительный член — (1/2)<7Л\(/, Х)/<ЗХ. Оно связано
с тем, что при получении алгоритма расширенного фильтра
Калмана предполагалось Nx(t, Х)«ЛЙ,(г, Х) = const. (X), а при выводе
(36) использовалось линейное разложение для 7Vx(z, X).
В качестве вывода из предыдущего рассмотрения укажем,
что можно предложить много различных алгоритмов, базиру-
ющихся на локальной гауссовской аппроксимации. Наиболее
простой и важный из них — расширенный фильтр Калмана,
являющийся базовой структурой для остальных алгоритмов,
в которых к ней добавлены те или иные дополнительные члены.
Высказать суждение о необходимости и важности таких допол-
нений в общем плане затруднительно; в значительной степени
это определяется характером конкретной задачи.
Например, при фильтрации гауссовских процессов алгоритмы
(29), (30) и (32), (33) совпадают и имеют вид
(10.1.38)
СИ /V q (7/V
~=^z-2a^+t[^(r)-j(r, Х)]^Л-™Г^^1 (Ю.1.39)
dt 2 1 [Л'о1- ' V 7 йХ2 ЛГ0[_ ЙХ J J v 7
Для расширенного фильтра Калмана уравнение оценки (И) для
скалярного линейного случая совпадает с (38), а уравнение (12)
для R(t) принимает вид
dR/dt = Nl/2-2aR-(2/N0)R2[ds(t, Х)/5Х]2. (10.1.40)
По сравнению с этим уравнением в (39) имеется допол-
нительный член (первое слагаемое в фигурных скобках). Позже
(с. 499) из решения конкретного примера будет следовать, что
этот дополнительный член не улучшает, а ухудшает характеристи-
ки алгоритма. Хотя нет веских оснований придавать этому
результату общий характер, тем не менее он ставит под сомнение
значимость дополнительных членов разложения при локальных
методах аппроксимации. К сомнительной значимости допол-
нительных членов приводит также сравнение уравнений оценок
469
(11) или (38) с (14). В результате перехода от формы Ито
в (14) появился дополнительный член
(7?2/2)(a.s'(?, Х)/а)(а2.у(/, X)/aV),
который без этого не возникает даже при использовании более
общих локальных аппроксимаций (25) с к>2 и разложений
коэффициентов в ряды более высоких порядков.
Пример 10.1.1. Синтез ФАП. Рассмотрим задачу синхронизации двух гене-
раторов, возникающую в системах радиосвязи. Пусть генератор на передающей
стороне вырабатывает гармоническое колебание s(t, q>) = 4 sin(cooz + (p), причем
фаза <р(7) есть сл. пр., заданный уравнением
dtp/dt = п„ (t), М (nv (t,) (/2)} = (У„/2) 8 (f2 -t.).
На приемной стороне линии связи полезный сигнал принимается в смеси
с шумом д0(,):
^(/) = /lsin(<fl0r + (p) + n0(/).
Получим квазиоптимальный алгоритм фильтрации фазы <р(/) на приемной
стороне.
На основании (11) записываем уравнение квазиоптимальной оценки
dср/dt = (2/N„) R (t) A cos (<ool + <p) [c (l) — A sin + q>)].
Слагаемое, содержащее sin 2(«,,/ +<p), не играет существенной роли, и его можно
опустить. Тогда имеем
d <p/dt = (2 А / /\'о) R (/) Е, (7) cos (<э>0 / + <р). (10.1.41)
Согласно этому уравнению в составе устройства квазиоптимальной фильтра-
ции фазы <р(1) должен быть генератор колебаний A cos(tt>0l + <p), собственной
частоте которого сообщается управляемое отклонение dtp/dt, пропорциональное
произведению A cos(co0N-q>) на c(z). Соответствующую систему принято называть
фазовой автоподстройкой (ФАП). Обычно она выполняется (для упрощения) при
/? = const. Структурная схема ФАП приведена на рис. 10.1.
На основании (12) с учетом приближенного равенства А 2 cos2 (о)о/ + ф)~ 4 2/2
записываем уравнение для /?(/):
4Л/Л = (А,р/2)--(Я2/А0)Л2. (10.1.42)
Отсюда при dR/dt = 0 находим стационарное решение
R = (N,N0/2A2)112.
(10.1.43)
Дисперсия фазового рассогласования обратно пропорциональна амплитуде сигнала
синхронизации и растет с увеличением спектральной интенсивности шума в канале
и интенсивности фазовых флюктуаций.
/Zees (4)ff f+$)
Рис. 10.1. Упрощенная схема ФАП
470
Если использовать квазиоптимальный алгоритм фильтрации (38), (39), то
уравнение для оценки останется прежним, а уравнение для дисперсии оценки примет вид
dRldt = (Nvl2)-(2/N0)A0R2^t)sm((0ot + ^
где опущен член, содержащий cos(2co0/ + 2<p). Однако если здесь пренебречь шумом
в наблюдении ^(/) и положить <р(/)яе<р(/), то это уравнение станет эквивалентным
предыдущему. Следует отметить существенное упрощение алгоритма при исполь-
зовании не зависящего от наблюдения уравнения для дисперсии. Иначе говоря,
нужно отдать предпочтение алгоритму расширенного фильтра Калмана (11), (12).
Пример 10.1.2. Оценка частоты гармонического колебания. Пусть требуется
оценить постоянную во времени, но неизвестную частоту гармонического
колебания s(t, co) = Jcosa>/ по принятому колебанию
^(/) = j(z, <n) + n0(z), da>/dt = 0. (10.1.44)
Примем начальное значение частоты ш=а>0 при г=0 нормально распределенной
сл. в. с дисперсией Do.
Для данного примера уравнение оценки (11) будет иметь вид
d& 2А , . г_, , . -1 . . 2Л . , . ,
—=-------/Л (1) (Г)—4 cos <о Z ] sin со/ ~-tR(t)£,(i)sin(ot.
dt Nq No
На основании (12) записываем уравнение для дисперсии оценки
dR/dtxi—(А2 / N0)t2R2,
решение которого при начальном условии Л(0)=Во дается выражением
R(t)= 3NODOI(A 2Dot3 + 3N0). (10.1.45)
При очень большой априорной дисперсии Do эта дисперсия совпадает со
значением D*(t) = 3Noi'A2t3, которое получается методом максимального прав-
доподобия. Квадрат относительной ошибки оценки частоты равен
R(t)i'D„ = (l + A2Dot3/ЗЬ'о)"'. (10.1.46)
Как и следовало ожидать, дисперсия оценки постоянной частоты стремится
к нулю при увеличении длительности наблюдения.
Структурная схема измерителя частоты изображена на рис. 10.2. Он содержит
перемножитель с коэффициентом пересчета v, усилитель с переменным коэф-
фициентом усиления K(t) — 2AtR(t)lvNo, интегратор, управляющий элемент (УЭ)
и подстраиваемый генератор (ПГ).
По-видимому, теория нелинейной фильтрации (в частности, в гауссовском
приближении) является методической основой для синтеза и сравнения аналоговых
систем связи с разными видами модуляции. Много конкретных результатов из
этой области приведено в [7]. Рассмотрим один из простейших таких примеров.
Рис. 10.2. Структурная схема квазиоп-
тимального измерителя частоты
471
Пример 10.1.3. Квазиоптимальный прием сигналов с частотной модуляцией.
Пусть полезный сигнал, передаваемый по каналу связи, имеет вид
л(/)=.4 sin [<вог+ф(t)], г/ф/Л=Дш(г), (10.1.47)
где А —известная амплитуда сигнала, <оо- средняя частота и ф(г) сл. пр.,
обусловленный полезной модуляцией.
Если частотное отклонение До) пропорционально информационному сообще-
нию и в качестве последнего принят гауссовский экспоненциально кор-
релированный процесс (8.1.14), то можно записать априорные уравнения
d'if/di-Дю. <7(Д<о)/Л= —аДсо+и(1). (10.1.48)
Пусть принимаемое колебание имеет вид
E(/) = J sin (ci)oz + ф)+п0 (г). (10.1.49)
Характеристики БГШ «(/) и nn(i) указаны ранее.
Рассматриваемый пример является частным случаем достаточно общей задачи,
охватываемой системой уравнений (3) и (4), причем из сопоставления уравнений (47)
и (48) с (4) следует, что в нашем случае п = 2, gt (t, 1) = "k2 — До), g2 (/, Х)= — аХ2 = — аДо),
Ди =Ла12 = А?21 =0, N22 = N/2, а из сравнения (49) с (3) заключаем, что ш=1,
Г(г, Х) = (Г(/, ф)=(2/1/7V0) [Ц.')sin (ю0? + ф)-(1 /2) A sin2 (о)ог+ф)].
На основании (И) записываем уравнения квазиоптимального приемника:
</ф/Л = Д<в 1-(2/У0) Лц£(?) A cos((00/ + ф), (]() j 5{))
d&&/dt= — схДю + (2/Л/0) /?, ]£;(/) A cos (<й0/ + ф).
Уравнения для элементов корреляционной матрицы при использовании
алгоритма расширенного фильтра Калмана (12) примут вид
<//?! j jdt = 2Rl2 — (2/Д0) R i tA 2 cos2 (®0Z + ф),
dRi2[dt = — аЛ12 + —(2/Д0) Rl2A 2 cos2(<o0z + <j/), (10.1.51)
dR22ldt = N(ll2 — 2a.R22 — (2/Д0) R 2i2A 2 cos2 (о)0/ + ф).
Если принять cos2 (о)о/ + ф)~ 1/2, то решения системы (51) при /->сс будут
сходиться к постоянным величинам, которые можно найти, положив
dR, Xfdt — dRy2ldl = dR22ldt = O. Получаемая при этом система алгебраических
уравнений имеет относительно R22 следующее положительное решение:
Л22 = (а2/2</)(1 +2Рч/^-\/Г+4р>Д)л/Г+4Рф^. (10.1.52)
При записи этой формулы было использовано равенство Д = 4сс£>, где
D— дисперсия частотного отклонения, а также следующие обозначения:
г/ = Л2/2аУ0 -отношение мощности сигнала к мощности шума в полосе сооб-
щения, р = х/О/а индекс частотной модуляции. Индекс модуляции влияет не
только на ошибку фильтрации, но и на ширину спектра сигнала.
Поскольку частотное отклонение До) прямо пропорционально сообщению л,
то относительная ошибка фильтрации сообщения, являющаяся основной харак-
теристикой аналоговой системы связи, одинакова для них и равна
472
Рис. 10.3. Зависимость относитель- Рис. 10.4. Квазиоптимальный приемник
ной дисперсии ошибки от отноше- радиосигналов частотной модуляции
ния сигнал-шум
ё)2 = К22/Р = (1/29р2)(1 +2PV4-JT+7pV7)v/iT4p^. (10.1.53)
Графики зависимости ё2 от отношения сигнал-шум q приведены на рис. 10.3.
Структурная схема квазиоптимального приемника, построенного в соответствии
с уравнениями (50), показана на рис. 10.4. Приемник представляет собой фазовую ав-
топодстройку частоты, в которой управление частотой местного генератора осуще-
ствляется по двум параллельным каналам. Используя известное правило пересчета
параллельных фильтров в последовательный, можно убедиться, что последователь-
ный фильтр имеет передаточную функцию К(1+/)7'1)/(1+р7',), где р— оператор
дифференцирования. Такой фильтр принято называть пропорциональчо-шткгриру-
юирш. Итак, квазиоптимальной системой фильтрации гауссовского экспоненциально
коррелированного сообщения из часто гно-модулированного сигнала, принимаемого
на фойе белого шума, является ФАП, в которой между фазовым детектором
и управляющим элементом включен пропорционально-интегрирующий фильтр.
Укажем, что формула (53) справедлива только при достаточно больших
отношениях сигнал-шум q, пока ошибка фильтрации достаточно мала. Известно,
что при среднеквадратическом значении фазовой ошибки x//Ol,l,-_,t,) = 0,5... 1 рад
в устройствах типа ФАП наблюдается существенное расхождение между те-
оретическими и экспериментальными результатами. Оно обусловлено перескоками
фазы. На рис. 10.3 штриховой линией показана граница применимости результатов,
соответствующая условию О(,ь. ф(= 1 рад2.
10.1.3. АЛГОРИТМЫ ГАУССОВСКОЙ АППРОКСИМАЦИИ
ДЛЯ НАБЛЮДЕНИЯ ОБЩЕГО ВИДА
Алгоритмы фильтрации в гауссовском приближении можно
получить для уравнения наблюдения более общего вида, чем
(7.1.6) или (7.1.10). Приведем такой алгоритм для фильтрации
вещественного процесса в дискретном времени.
Заметим, что в рекуррентные соотношения (7.2.9), (7.2.10)
наблюдение входит только через функцию правдоподобия p(S,J Xv).
473
Вид ее можно определить для наблюдения общего характера
(в частности, шум канала nov может быть аддитивным и неад-
дитивным, гауссовским и негауссовским и т. д.).
Допустим, что функция правдоподобия p(^v|A,v) найдена и за-
дано уравнение сообщения (7.1.11). Поскольку априорное урав-
нение сообщения осталось прежним, а параметры Xv и Rv
экстраполированной п.в. (A,vj£,Ь-1) находятся из него, то для
скалярного сообщения A,v они определяются соотношениями
Xv = g(/v,Vi), ЖРЖ-Ж,
которые также следуют из (15) и (16) в отсутствие наблюдения,
т. е. при X.v) = 0.
При гауссовской аппроксимации апостериорные п. в^ считают-
ся нормальными: p(\,|£,o) = 7V(Xv, Л)’_ ) = ^(^v, Л,). Вывод
соотношений для определения параметров и Rv аналогичен
выводу (8.1.8), (8.1.9).
Разложим логарифм функции правдоподобия в ряд в точке
экстраполированной оценки:
lnp(^|X.v) = /'Ov + ^1v(\-Xv) + (l/2)/'2v(^-Xv)2,
Fi v=а; 1 n р (^v । Xv)/ax t. (ю.1.54)
Подставив выражение (54) и соответствующие нормальные п. в.
в (7.2.9), имеем
Av) = c1 ехр [/?lv(\ — Xv) +
+ (1 /2) F2v (Xv - Xv)2 ] exp [ - (Xv- Xv) 2 / 2 /?v ].
Приведя подобные члены в показателе экспоненты, получим
?7(XV, Rv) =
= с2 ехр { - (1 /2) (R~1 - F2v) [(Xv- Xv) - Flv/(RV~1 -F2v)] 2}.
Отсюда находим параметры нормальной п. в., стоящей в левой
части равенства:
XV = XV+F1V/?V, R”1 =R~1—F2v. (10.1.55)
Конкретизировав (13) и (14) для сообщения (7.1.11)
и подставив результат в (55), получим квазиоптимальный
алгоритм фильтрации:
Xv=g(rv, Ж)Ж, (ю.1.56)
1 = ([<Ш> V 1 )Я- ! ] Ж ! + К) “ 1 ~
-a2in/<|g(/v, Vi))Mv- (ю.1.57)
В более общем случае многомерного сообщения kv вывод
отличается лишь обозначениями. Окончательный алгоритм
имеет вид
474
kv = g(/v, Vi) + Rvain/;C;v|g(^ kv_J)/akv,
Rv~1 = (R j Г”
\ L fU*-i J J
(10.1.58)
<^2lnp(^|g(/v, Vi))
r”kvokj
(10.1.59)
10.1.4. ЛОКАЛЬНАЯ ГАУССОВСКАЯ АППРОКСИМАЦИЯ
ДЛЯ РАЗРЫВНЫХ И НЕПРЕРЫВНЫХ ПРОЦЕССОВ
Упростим полученный в § 7.9 алгоритм совместной фильтра-
ции разрывных и неразрывных марковских процессов, восполь-
зовавшись локальной гауссовской аппроксимацией. Для этого
в уравнениях (7.9.7), (7.9.8), (7.9.10) и (7.9.11) апостериорные
п.в. р0(/, к) и рД/, к, 0) полагаются нормальными с м. о.
и корреляционными моментами кп(/) = [кОя, а— 1, п}, R0o(p, а,
Р= 1, н, и хД1) = {к1а, а=1,п; 01а, а>«, а=1,п + г}, Ri„p, а,
Р = 1, п + г.
Для оценок и апостериорных корреляционных моментов
диффузионных компонент вектора к(1) при 0(1) = 0 получим
(10.1.60)
oV’ 'TH I п
Л?-------t- rvOav
Z'/yQv </?«(
ы+ i
= Ч)+ Е
, v о ^F(i.0,o) P4j} ,
ц V=1 о
Здесь
(10.1.61)
K = <*, ₽=1, п, у = 0, 1,
Rj“₽ ~ П(^а — \1«) Р“|3 — (^х> ^)d'kadXp,
Rlap = Rltz|5 + ^ItAip + к0ак0р — к1ак0р — koakjp.
Оценки и корреляционные моменты диффузионных и раз-
рывных компонент при 0(/)^0 определяются уравнениями
^х1а = йа(1, й,)+ £ /?1а₽^^+ц^(й0,-й1а),
7 «₽ = (/, х,) + "£ ГRlvp + Rlctv
dt ' ' 1 (7K1V C'Xlv
+
" г аМч.о,) л, ~ ,
+ “71 lav ай1ч,ай1р л’мр+Нол(Яо«р-К1«р),
(10.1.62)
(10.1.63)
где 6ар(-) = 0 при а>п при Р>«; а, р=1,« + г;
475
f^la = j4/?l (\x)Ax прижги,
(Ля = К/Л (0аЖ при а>«;
f ^Оа — |Мо(^)Ля приа^я,
bn0CI = jeaj?(eci)t/0CI при а>и;
R
lap — 5
7М-01а)(кр-^1Р)Р1(еа, ^)<ар
М^ШЛМ0.- 0рИЖ
И(^а'~^1а)(^р —^1р)/71 (\«’ ^-р)^а^р
Л
при ООП, Р^И,
при сои, Р>«,
при а<п, Р<и;
о«р —
(wea —0ia)(XOp ^-iji)
СГ»р+Я7ва/Лвр- 'Ива 01 р
-^Оар + ^Оа ^0 р — ^-Оа 1 р
— 'Пвр 01 а + 0,Л ip
— ^loAop + ^la^-jp
при сои, Р^и,
при а>и, Р>«,
при а^п, Р^и;
СТЖП(6а“'М(ер-Ш9р)Ж’ 9р)^а^р-
В векторно-матричной форме уравнения (60)...(63) примут вид
dljdt = АД0 + Ro Fo + ц t (Л /Ро) [к, -40]> (10.1.64)
dR0/dt = A0R0 + Ro А1 + Во + R0K0R0 + щ (Pt /Ро) [Rt - Ro],
(10.1.65)
dv,lldt = Ajiq -+- Rt Ft + n0(P0/P1)[z0-z1], (10.1.66)
^Rj/^-A^^R^H-B.+RjK^i + lioPo/^JERo-Ri]-
(10.1.67)
Здесь кроме ранее принятых введены обозначения
d2F(i0, 0) 32F(i0, 0)
(Aq! SA-oj с'Х-о,,
Ко =
Во-
а2л(£0, о) s2f{x0. о)
Sk0„r)X01 д2дХо„
Аналогично
Fj = (c)F(ku 01)/<3x1)T—(и + г)-мерный вектор-столбец;
— d2F(X1, O^/^ZjSz)д Aj =5a(zt)/5z], B1 = i(z1) — (« + г)-мерная
матрица.
476
10.1.5. ХАРАКТЕРИСТИКИ ДИСКРИМИНАТОРОВ
Синтезированные квазиоптимальные алгоритмы фильтрации
представляют собой системы автоматического управления, осу-
ществляющие слежение за сообщением Х(/). Наблюдаемый про-
цесс входит в алгоритмы через производную от логарифма
функционала правдоподобия dF(t, Х)/дХ; она определяет диск-
риминатор системы слежения. Дискриминатор содержит также
всю зависимость следящей системы от вида сигнала.
Другая часть следящей системы — низкочастотный фильтр. Он
полностью определяется априорными сведениями о фильтруемом
сообщении. Для гауссовских сообщений фильтр является линейным.
Выходное напряжение дискриминатора подается на фильтр
через коэффициенты усиления, которые выбираются оптималь-
ными и рассчитываются с помощью специального уравнения
для апостериорных дисперсий ошибок фильтрации.
Отметим, что строго оптимальный алгоритм, реализующий
уравнение Стратоновича, в общем случае не сводится к следящей
системе.
Важнейшей характеристикой дискриминатора является его
дискриминационная характеристика. Она определяется как среднее
значение выходного напряжения дискриминатора по совокупности
реализаций наблюдения ^(г) при фиксированных значениях от-
слеживаемого сообщения Х(/) = Х и его оценки Х(/) = Х:
/(/, К £)=м{д/ф, (10.1.68)
Часто дискриминационная характеристика зависит только от
ошибки оценки е = Х —А. Тогда
j\t, е)=м{ат(/Д)/ах|м,ьх(,)=Е}. (ю.1.69)
Для наблюдения вида
= X) + n0(f) (10.1.70)
из (68) получим
J\t, X, Х) = (2/А0)[х(/, Х)-х(/, Х)]&(г, Х)/5А. - (10.1.71)
Если сообщение Х(/) неэнергетическое (от него не зависит энергия
сигнала), то
f(t, X, Х) = (2/А0)х(/, Х)с>х(/, Х)/5Х. (10.1.72)
Например, для сигналов с угловой модуляцией х (/, X) = A cos (<в01 + <р)
/(б) = — (2А 2/А0) cos (о>о t+ ф) sin (®01 + ф)«(Л 2 /No) sin (ф - ф) =
= (А 2 /Ао) sin е,
где опущено слагаемое с двойной частотой. Таким образом,
дискриминационная характеристика системы ФАП является си-
нусоидальной (рис. 10.5).. В случае линейной зависимости сигнала
477
Рис. 10.5. Дискриминационная харак-
теристика ФЛП
s(t, к) от к, т. е. $(/, к) = Я(г)к, дискриминационная характеристи-
ка есть строго линейная функция:
f(t, Е) = [Я(/)к-Я(/)к]Я(/) = Я2(/)е.
На рис. 10.5 ей соответствует приближенно прямая линия. При
значении дисперсии ошибки Zk(<p (f)) < 1 рад2 мгновенные значения
ошибки с большой вероятностью лежат в заштрихованной
области на оси е (рис. 10.5), т. е. дискриминационную харак-
теристику допустимо считать линейной функцией.
Этот вывод имеет общий характер: близость дискриминаци-
онной характеристики к линейной функции в пределах диапазона
значений ошибок можно рассматривать как практический способ
проверки условия справедливости гауссовской аппроксимации.
Приведем несколько замечаний и обобщений: 1) когда сигнал
явно зависит от нескольких параметров (нескольких компонент
вектора к(/)), то будет несколько дискриминаторов, им соответ-
ствует векторная дискриминационная характеристика; 2) интер-
претация квазиоптимальной схемы, полученной в дискретном
времени, не имеет особенностей; 3) в ряде практических систем
(импульсная радиолокация, цифровая связь и др.) зависимость
/'(/, е) периодична по t с некоторым периодом Т, существенно
меньшим постоянной времени системы. В таких случаях удобно
осреднять
f (t, e) по времени
4) в общем случае dF(t, k)/f?k = 51np(£,|k)/5k может зависеть от
кик гораздо сложнее, чем в (71), а иногда/(е) можно определить
только методами статистического моделирования; 5) примените-
льно к наблюдению (70) из (68) можно получить следующее
полезное представление для дискриминационной характеристики:
fit, кД)=—м
' ' Ao
2 а
2
478
где R (к, X)— так называемая корреляционная функция сигнала,
Rfk, Х) = М{s(t, X)s(t, X)}; £(Х)— энергия сигнала.
Наглядный пример определения дискриминационной харак-
теристики системы синхронизации в цифровой связи приведен
в статье'; 6) отметим, что крутизна характеристики дискрими-
натора входит в уравнение (12) для дисперсии ошибок и пол-
ностью определяет влияние характера сигнала и шума канала
на величину ошибки. Действительно, из (71) следует
к X)
ах|Х=д
2 о
NodX
ds(t, X)
оХ
?
*0
[5 (г, >.) - s(t, X)]
г-, o1 2s(t, X) [ cs(t - X)
‘ ахг” \ ах
ds(t, X)
ах
2
Другой распространенной характеристикой дискриминатора
является флюктуационная характеристика. Если дискриминаци-
онная характеристика— среднее значение выходного напряжения
дискриминатора dF(t, Х)/<?Х, то флюктуационная характеристика —
спектральная плотность шума на выходе дискриминатора. Точнее,
если обозначить
иэ(?)=а^/, х)/ах-/(/, хД), (Ю.1.73)
то флюктуационная характеристика G(t, k, X)— это спектральная
плотность шума пэ(у) при частотах, близких к нулю.
Для наблюдения (70) из (71) и (73) имеем
иДН2/<)и0(/)&(/, х)/ах.
Видно, что шум иэ(/) белый с корреляционной функцией
м д (?)«, (t+?)}={2/n0 ) (t, x)/ax]2 s (т).
В данном случае флюктуационная характеристика зависит только
от t и X:
G(t, ^(2IN0)[8s(t, Х)Жу. (10.1.74)
Нетрудно проверить, что для радиосигналов как с линейной, так
и угловой модуляцией флюктуационная характеристика не зависит от
X: для линейной модуляции G(t)-2H2(t)/N0, а для угловой G = A2JN0.
По заданным характеристикам дискриминатора /'(/, X, X) и
G(t, ХЛ X) можно составить статистический эквивалент функции
dF(t, Х)/аХ:
8F(t, Х)/аХ=/(г,Х,Х) + иэ(/), (10.1.75)
где иэ(0 — белый шум со спектральной плотностью G(t, k, X).
1 Тихонов В. И., Харисов В. Н. Оптимальный прием дискретных сигналов со
случайной задержкой//Радиотехника и электроника.— 1980.— Т. 25, No 3.—
С. 529—551.
479
Рис. 10.6. Система слежения, реализующая квазиоптимальный алгоритм
При таком представлении система слежения, реализующая
квазиоптимальный алгоритм, преобразуется к виду, типичному
для систем автоматического управления. Для случая
/(?, X, Х)=/(е) соответствующая схема изображена на рис. 10.6.
Такое представление квазиоптимальных алгоритмов в стати-
стически эквивалентном виде полезно не только в методическом
плане, но и при выполнении моделирования, особенно для
сигналов сложной формы. Пусть, например, для исследования
системы применяется метод статистического моделирования. При
прямом использовании квазиоптимальных алгоритмов необходи-
мо моделировать^входной сигнал s(t, X), наблюдение ^(f) и опор-
ный сигнал s(i, X), а также выполнять необходимые операции
над ними для формирования dF(t, Х)/5Х. В этом случае частота
дискретизации для цифрового представления на ЭВМ должна
быть больше ширины спектра сигнала и шума. При эквивалент-
ном же представлении алгоритма с помощью дискриминационных
характеристик достаточно моделировать только выходной процесс
дискриминатора. Теперь частота дискретизации определяется
полосой фильтра в системе. Для сложных широкополосных
сигналов выигрыш может составить несколько порядков.
10.2. ОБНАРУЖЕНИЕ И РАЗЛИЧЕНИЕ
СИГНАЛОВ
Рассмотрим три частных примера: один по оптимальному
обнаружению сигнала и два по различению сигналов. Сущест-
венное отличие этих примеров от рассмотренных в § 9.2, 9.3
состоит в том, что ранее сопутствующие непрерывные параметры
полезных сигналов представляли собой сл. в., не изменяющиеся
на интервале наблюдения. Здесь же они считаются сл. пр.,
изменяющимися на интервале наблюдения. Решения приведенных
ниже примеров базируются на конкретизации и упрощении
точных алгоритмов, полученных в § 7.8.
1. Обнаружение замирающего радиосигнала. Рассмотрим задачу обнаружения
сигнала s(t, k(t)) на фоне БГШ n0(t):
= + О^Т, (10.2.1)
где 0—дискретный информационный параметр, принимающий два значения: 0 или
1 с априорными вероятностями р0 и pL, p0+Pi = l. Полезный сигнал имеет вид
480
I
s(t, X(z)) = A0coso>0z+H(r)X(r), (10.2.2)
где H(r)= [cosco0z, sin<nor], к(/)= [Xt(r), (r)]T—вектор независимых сопутству-
ющих параметров, представляющих собой гауссовско-марковские процессы, задан-
ные уравнениями
е/Х(/Л= — aX, + n,(r), M{nf(r)} = 0, М{п((г)п((г+т)} =N/28(t)/2, z=1, 2,
или, что то же самое, в векторно-матричном виде
z/X/z/Z = A(z)X(z)+n(r), (10.2.3)
где
A(z) = Я ° , n(z)= , N= ° , M{n(z)n(z + -r)}=N8(T).
' 7 L 0 aj ' ' Ln2(0J L 0 W2J '
Примем начальные условия для X(z) нулевыми: Х(0) = 0.
Сигнал (2) можно представить в другом виде:
5(z) = B(r)cos[a>0r+<p(z)], B(z) = {[A0 + X1(z)]2 + Xl(z)}1'2,
<р (z) = arctg {Х2 (z)/[A0 + XI (г)]},
где огибающая B(t) представлена по закону Райса, а случайная фаза распределена
в интервале ( — л, л).
Так как дискретный параметр 0 на интервале наблюдения Т постоянный,
то совместная апостериорная п. в. p(t, 0, X) будет определяться уравнением
dp(t, 0, l)/8t=L{p(t, 0, X)} + [F(z, 0, X)-F(r)]p(t, 0, X), (10.2.4)
где
F(t, 0, Х) = [2£(ф(г, 0, X)-j2(z, 0, Х)]/ЛГО, F(O=Lf^(', 0- 0.
Воспользуемся вторым представлением (7.8.8):
p(t, О, Х)=/>(г, 0)p(z, Х|0). (10.2.5)
Подставив (5) в (4) и проинтегрировав обе части уравнения по X, получим
}p(t, 0) = [fF(z, 9> X|0)z/X-F(z)]p(z, 0). (10.2.6)
Здесь было учтено условие нормировки для p(t, Х| 0) и получающееся из него
дифференцированием по времени тождество
jL{p(r, X|0)}z/X = O.
С учетом выражения для F(t, 0, X) можем написать
fF(t, 0, l)p(t, X|0)dX=—[2£(z)s(z, 0)-52(z, 0)-Л(Л 0)]. (10.2.7)
i No
Здесь s(t, 0)—апостериорное м. о. полезного сигнала по сопутствующему парамет-
ру X при фиксированном 0:
s(t, X)p(t, X|0)z7X = P^’ ®= ’’ (10.2.8)
1 I и, о=и;
481
16—2247
Я
R(t, 0)—дисперсия оценки сигнала при фиксированном 0:
Л(г, 0)=f[sk 0, 0)Г/>(?, X|9)tZX=<R^’ (10.2.9)
i (0, 0=0.
Подставив (7) в (6), для апостериорных вероятностей р, (t)=p(t, 0 = 1)
и р0(?)=р(?, 0=0) получим уравнения
ф1(?)/Л = (1/А0)[2^(г)5(1)-52(1)-Л(1)]р1(г)р0(1),
(10.2.10)
Фо(0/^М~ VM))[2£(040~^2W-^W]a (l)po W
с начальными условиями pi(0)=p1, ро(0)=Ро-
Будем принимать решение на основании сравнения с порогом логарифма
отношения апостериорных вероятностей г (?) = In [р, (0/Ро(ОI- Для нег0 из (’0) имеем
?Zz/A = (l/A0)[2^(z)5(z)-f2(z)-R(l)], z(0)=ln(p1/po). (10.2.11)
Определение z (t = Т) является основой алгоритма обнаружения сигнала. Так, по
критерию минимума вероятности средней ошибки (идеального наблюдателя)
оптимальный алгоритм имеет вид
т
6=1 р
[2^(/)5(г)-52(г)-Я(г)]Л In—=h. (10.2.12)
0 = 0 Pi
о
Этот алгоритм будет оптимальным и по критерию Неймана-Пирсона, если
выбрать соответствующий порог h.
Как следует из (8), для нахождения 5(г) необходимо знать п. в. p(t, Х|9).
Для нее путем подстановки (5) в (4) имеем
dp(t, К\^1Л=Ъ{р(1, Х|9)} + [F(t, 0, X)-/F(t, 0, Х)р(?, X|0)<7X]p(z, X/0). (10.2.13)
i
В рассматриваемом примере п. в. pit, Х|0) является нормальной, так как >. (/)
есть гауссовский процесс и он входит в уравнения наблюдения (1) и сообщения
(3) линейно. Если опустить слагаемые с удвоенной частотой 2<в0, то для вектора
м. о. Х(?) и корреляционной матрицы ошибок оценок R(z) получим уравнения
di (t)/dt = АХ + (2/JV0)RHT [Е, (г) - НХ - А0 cos <в01], (10.2.14)
<ZR (t)/dt = AR + RAT - (2/7V0) RHT HR + N. (10.2.15)
Можно показать, что в стационарном режиме (t -»оо)
А’и (oo) = R22(oo) = aA0 [(1 +2D/aN)1/2- 1] = R, R12 = 0,
где D = Nj4a.—дисперсия стационарных процессов X; (t) и X2(l); R совпадает
с дисперсией (9) оценки сигнала при t-юо.
Структурная схема оптимального обнаружителя замирающего радиосигнала
(2), реализующая алгоритм (12), (14), изображена на рис. 10.7. Схема состоит
из двух квадратурных каналов, связанных между собой через параметр R12.
Однако в стационарном режиме работы эта связь исчезает (W12 = 0).
Аналитический расчет характеристик обнаружения полученного оптимального
обнаружителя является довольно сложной и трудоемкой задачей. Его удается
482
Рис. 10.7. Структурная схема оптимального обнаружителя замирающего радиосиг-
нала
выполнить, например, в том случае, когда сл. пр. z(t) является приближенно
одномерным марковским диффузионным [8 ]. Для рассматриваемого примера
это выполняется, если интервал корреляции процесса X (/) много меньше интервала
наблюдения Т (быстрые замирания сигнала). Окончательные формулы для
вероятностей ложной тревоги pF и правильного обнаружения pD следующие:
рг=1-Ф(и0), РО=1-Ф(И1), (10.2.16)
где Ф(х)—интеграл вероятности,
и0=(Л—a07’)(Z>0T)-1/2,
Al(, R \ R2 Al R2 DR
a° 2ЛГД yJV0J 2yNl’ 01 2N0 2уЛ^+yNl’ Y a+RIN0’
_Al( А у R2 / R \
2DR D DR
1 o+(a+y)Nl +aN0 2a(a+y)JVo
Кривые обнаружения, рассчитанные по формуле (16), представлены на рис.
10.8, где по оси абсцисс отложено отношение сигнал-шум q— [2(Al/2+D)T/N0]112.
Рис. 10.8. Кривые обнаружения замирающего радиосигнала
483
С увеличением отношения DT/N0 качество обнаружения ухудшается: кривые
(сплошные) сдвигаются вправо. В отсутствие регулярной составляющей (Ао = 0),
т. е. когда огибающая сигнала B(t) имеет распределение Рэлея, качество
обнаружения еще больше ухудшается (штрихпунктирные линии). Если замирания
сигнала отсутствуют (Z> = 0), формула (16) переходит в (9.2.16), определяющую
характеристики обнаружения детерминированного сигнала, а кривые обнаружения
(штриховые) совпадают с потенциальными (см. рис. 9.2).
2. Различение фазоманипулироианных сигналов с райсовскими замираниями'.
Пусть на к-м тактовом интервале фиксированной длительности Т принимается
сумма сигнала s(t, 0 (/<), k(Г)) и белого шума л0(<):
£,(t) = s(t, 9(fc), к(г)) + и0(г), k=U 2, 3, ... (10.2.17)
Здесь ®(к)—дискретный информационный параметр, значения которого на разных
тактовых интервалах представляют собой однородную цепь Маркова с двумя
равновозможными значениями 0 или 1 (р0=Р] = 1/2) и вероятностями перехода
л,; =1/2, i, j = 0,l. Сигнал имеет вид
(10.2.18)
где H(z)= [cos<b0Z; sin<Boz], X(t) = [Хс(г), \(z)]T--транспонированный вектор не-
зависимых сопутствующих параметров, описываемый уравнением
d^dt = АХ (г) + nx (z),
NJ2 0
0 NJ2
Сигнал (18) можно представить также в виде
s(t, 9(Х), X(z)) = 5(/)cos[<boZ+(p(/) + 0(X)k],
B(t) = ' 140 + (?)]2 + X2 (г)}1/2, <р (г) = arctg [Xs(<)/(Л0 + Хс (<))],
где огибающая B(t) имеет распределение Райса, а фаза tp(z) распределена
в интервале ( — л, л). Такое задание сигнала позволяет учесть его амплитудные
и фазовые замирания.
Оценка дискретного параметра, оптимальная по критерию минимума веро-
ятности ошибки, осуществляется в соответствии с алгоритмом
б(/<) = тах 1 {p(t=kT-0, 9 = z)}, (10.2.19)
где max1 {/(()}—функция, обратная функции max{/(i)}; p(t=kT— 0, 9 = z)— апо-
i i
стериорная вероятность дискретного параметра в конце к-го интервала. Её
можно определить, если известна совместная апостериорная п.в. p(t, 9 = z, X).
При использовании представления
1 Мареха А. С. Оптимальная фильтрация фазоманипулированных сигналов
с замираниями//Радиотехника и электроника.— 1986.—Т. 31, № 12.— С. 2426—
2430.
484
p{t, 0 = z, X)=p(z, 0 = z)p(z, X|0 = z),
где p(t, 0) — апостериорная вероятность дискретного параметра (безусловная
относительно k), p(t, Х|0)— условная апостериорная и. в. непрерывного параметра
X(Z), алгоритм (19) преобразуется к виду
ьт 0=0
z(kT—0) = f [FO(Z, ХО(?))-^(Л 0. (10.2.20)
»-1)Т 0=1
Здесь
z(kT-0)=ln[p(t=kT-0, 9=0)/p(t=kT-0, 0 = 1)], F,(z, Xf(z))=
= (l/7V0)[2i;(z).s(z, 0 = z, X,(z)) — s2(t, 0 = z, X,(z))], X;(z) = JXp(z, X|0 = z)zZX.
Поскольку X(z) входит в (18) линейно, то p(t. Х|0 = z) является нормальной,
что позволяет перейти к вектору условных м. о. X,(Z) и корреляционной матрице
R,(z), описываемых внутри тактовых интервалов уравнениями
d'L, /dt = АХ;+(2/7V0) R,.HT [(- 1 )'£ (г) - (Ao cos <b0 t + HX,)],
z/Ri/zZz = AR, + RiAT-(2/A0)RiHTHRi + Nx, (k-l)T<t<kT. (10.2.21)
В стационарном режиме (t-юо) значения элементов корреляционной матрицы
R,(z) примут вид
Red = /<s, = azVo (л/1 + ~ 1) = R, Rcsz = O, (10.2.22)
где D = NJ4a—дисперсия процессов Xc(z) и Xs(z).
Соотношения, связывающие X,(z) в точках разрешенной смены состояний
0(/с), имеют вид
Xi(z = fcr+0)=(l/2)[Xo(z = fcT-0) + X1(z = fcr-0)] +
+ (1/2) [Xo(z = /cT-0)-X1 (г = СГ-0)] th { ‘j [FO(Z, x0(z))-/.;(z, X^t))]^}.
(t-l)T
(10.2.23)
При сравнительно больших значениях сигнал-шум справедливо приближенное
равенство th {-}az + 1, и уравнение (23) реализуется в виде алгоритма переприс-
воения непрерывных параметров
т i \ [Х0(1 = /сГ— 0) при 0(Л) = О,
4«=Z7+0)=ll(, = <.7+0).|Ii'(_tr_(i; при (10.2.24)
Структурная схема оптимального различителя сигналов (18), реализующая
алгоритм (20), (21), (24), представлена на рис. 10.9. Она является двухканальной
(по числу разрешенных значений информационного параметра). В каждом канале
имеются устройства фильтрации квадратурных составляющих Хс( и Xsi, пред-
ставляющие собой стационарные фильтры Калмана. Особенностью схемы является
наличие операции переприсвоения (24). Суть ее заключается в том, что на
тактовом интервале формируются условные оценки XJ( j = 0, 1, для каждого из
возможных значений 0. В конце интервала определяется оценка 0 в соответствии
с правилом (20), и в качестве финальной оценки X вектора непрерывных
485
Рис. 10.9. Структурная схема оптимального приемника ФМ-сигналов
параметров выбирается условная оценка А.(, соответствующая d=i. Начальные
значения оценок kj(t=kT+O) в следующем (Х+1)-м тактовом интервале делаются
равными X,..
Для расчета помехоустойчивости полученного алгоритма можно восполь-
зоваться методикой, применяемой в задачах обнаружения стохастических сигналов
[8]. Для этого введем в рассмотрение на к-м тактовом интервале апостериорные
вероятности ошибок
Ао(Л z)=P{z(fcT)>O|0(fc)=l, £(<)},
pOl (I, z) = P{z(/CT)<0|0(/c) = 0, £(,)},
(10.2.25).
удовлетворяющие условию
pi0(kT,z)=U(z),
p0l(kT,z)=\-U(z),
J 1 при 2>0,
(0 при z<0.
(10.2.26)
Очевидно, что введенные апостериорные вероятности до начала наблюдения
совпадают с обычными условными вероятностями ошибок р10 = р (^ol-^i)
и Poi =P(Si ко)- В общем случае вероятности (25) описываются многомерными
уравнениями в частных производных, решение которых представляет значительные
трудности. Приближенное решение можно получить для случая, когда выполняется
условие
т„«Т, (10.2.27)
где — интервал корреляции процесса f(l) — dzldt при 0 = ь При этом реальный
сл. пр. z(t) можно приближенно заменить одномерным марковским процессом,
а вероятности (25) описываются обратными уравнениями Колмогорова с началь-
ными условиями (26):
486
dpOi(t, z) opoi (t, z) 1 S2p01(t, z)
dt °0 bz 2Ь° 8z2 !
Здесь at и bt, (=0,1,— соответственно коэффициенты сноса и диффузии процесса
z(() при 0 = i, определяемые при выполнении (27) выражениями
a, = lim М{/;(()}, 6; = 2f M{^(z)^(z + t)}zZt. (10.2.29)
Значения коэффициентов at и bt, рассчитанные с учетом (20), (21), (22), равны
а0= — ai =a = 2Ao/(No + 2D/a), b0 = bl =2а.
При этом решения уравнений (28) при t=(k— 1)Т+0 имеют вид
р10 = Ф(4 р01 = 1-Ф(у), (10.2.30)
и
if / ?2\ / т\112 (т\1/2
ф(н) = -— ехр( )dt, х=—а1 — , y=-a0(-~) .
\ 2/ \^i/ \^о/
о
Вероятность общей ошибки при использовании критерия идеального наблюда-
теля равна
Pe=PoPoi+PlPlO =
Видно, что при выполнении условия
(27) воздействие помехи k(z) эквивален-
тно воздействию белого шума с одно-
сторонней спектральной плотностью
N-f = (со = 0) = 2D/a. Следовательно,
справедливый в общем случае алгоритм
(20), (21), (24) в том частном случае,
когда выполняется условие (27), эквива-
лентен обычному корреляционному при-
ему на фоне белого шума, имеющего
спектральную плотность N= Nn + N; .
Кривые помехоустойчивости, постро-
енные по формуле (31) при аГ=100, что
обеспечивает выполнение условия (27),
изображены на рис. 10.10. Видно, что
с увеличением глубины замираний, харак-
теризуемой отношением помеха-сигнал
Рис. 10.10. Кривые помехоустойчивости
замирающих ФМ-сигналов
487
по мощности 2£>/Ло = 0,1; 0,2; 0,4; 0,8 (кривые 7, 2, 3 и 4 соответственно),
помехоустойчивость ухудшается. Если замирания отсутствуют (0 = 0), формула
(31) совпадает с формулой (9.3.18) для детерминированных ФМ-сигналов, а график
помехоустойчивости (штриховая линия) — с соответствующей кривой потенциаль-
ной помехоустойчивости на рис. 9.9.
В заключение отметим два обстоятельства. Если огибающая имеет рас-
пределение Рэлея (Ло = 0). алгоритм (20), (21) при данной постановке задачи
становится вырожденным, так как at и обращаются в нуль при любом i.
Физически это можно объяснить тем, что в отсутствие регулярной составляющей
в наблюдении E,(f) информация о дискретном параметре 0 не содержится.
Хотя алгоритм переприсвоения в общем случае требует наличия п схем
оценки непрерывного параметра (по числу возможных состояний дискретного
параметра), в данном частном случае линейной фильтрации непрерывных
параметров возможна одноканальная реализация. Это объясняется тем, что
условные оценки (21) при начальных условиях (24) однозначно связаны между
собой.
10.3. ИНТЕГРАЛЬНАЯ АППРОКСИМАЦИЯ
В отличие от локальной аппроксимации, применимой при
малых ошибках фильтрации, когда требовалось получить хоро-
шую аппроксимацию решения основного уравнения фильтрации
в небольшой окрестности оценки Х(г) фильтруемого параметра
А((), основная цель интегральной (глобальной) аппроксимации
состоит в получении приближенного решения во всей области
возможных значений фильтруемого параметра A(f), что особенно
важно при малых отношениях сигнал-шум, а также в задачах,
связанных с выходом процесса за границы заданной области
(в частности, при расчете характеристик обнаружения и раз-
личения сигналов). Качественное соотношение между точным
решением p(t, А) уравнения фильтрации, локальной аппроксимаци-
ей pn(t, А) и интегральной аппроксимацией ри(/, А) иллюстрирует
рис. 10.11. Аппроксимирующая п. в. дл(/, А) обеспечивает хорошую
аппроксимацию п. в. p(t, А)
в окрестности ее наибольшего
максимума, а ри(1, А) должна
быть близка к p(t, А) «в среднем»
во всей области возможных зна-
чений A(z).
При интегральной аппрокси-
мации точное решение p(t, А) ап-
проксимируется некоторой плот-
ностью, выбираемой на основа-
нии физических представлений из
параметризованного класса
p(t, А, а), ае£, причем всегда
желательно, чтобы число пара-
Рис. 10.11. Характер локальной
/г, (/, А) и интегральной /?„(г, А) ап-
проксимаций плотности вероятности
488
метров а было небольшим. В качестве критерия близости п. в.
p(t, X) и p(t, X; а) берется минимум некоторого интегрального
расстояния J(p(t, X), p(t, X; а)), т. е. параметры а выбираются из
условия
ot*(/) = min 1 ./(р(/. X), p(t, X; а)). (10.3.1)
Рассмотрение конкретных радиотехнических примеров показы-
вает, что весьма удобным является критерий Кульбака (6.2.1),
согласно которому мера расстояния между двумя п. в. g(X; а)
и р (X) определяется выражением
р)= — [ г?(Х) in[g(X; а)/р(Х)]<7Х. (10.3.2)
Она удовлетворяет некоторым свойствам расстояния: J(g, р)^0
для всех разумных g(X, а) и р(Х); J(g, д) = 0 при g(X;, а)=р(Х).
Однако свойство симметрии не выполняется: J(g, p)^=j(p, g).
Характерное отличие критерия (2), например, от критерия
минимума среднеквадратического расстояния
Ж p)=f «)—p(X)]2t/X
состоит в подчеркивании значимости «хвостов» распределения
jp(X), придании им большей значимости, что должно обеспечивать
их хорошую аппроксимацию.
Теперь критерий (1) можно записать в виде
a* (r) = min
' ’ а.
Нр(,’Ч1п7мЛЬ
(10.3.3)
или, отбрасывая слагаемое, не зависящее от а,
a* = min 1 М { — lnp(r, X; а)}. (10.3.4)
а
Запишем необходимое условие минимума
X), p(t, a*)) = _м IS !np(b X; а*) |
да | да (
(10.3.5)
Рассмотрим конкретный пример, когда аппроксимирующая
п. в. отыскивается в классе нормальных п. в. JV(r, X; m, R) с м. о.
m и корреляционной матрицей R, т. е. p(t, X; a) = 7V(z, X; m, R).
Здесь составляющими вектора параметров а являются m и R,
хотя возможен и другой, эквивалентный, выбор, например
a={m, К}, где K = R-1^0. При этом
489
= А J —1(Х —m)T К(Х —m) + -ln | К|
да да [ 2V ' V ' 2 1 1
-K(X-m),
— <
-|(Х-т)(Х-т)т + 1к-1.
(10.3.6)
Здесь были использованы известные матричные соотношения
5(ХТКХ)/5Х = 2КХ; S In I КI /ак = к^1;
5(ХТКХ)/5К = ХХТ. (10.3.7)
Подставив (6) в (5), получим
m(z) = M{X(z)}=fXp(z, k) dl, (10.3.8)
К 1 (l) = R(z) = M{(Z-m) (X-т)т} =
= J (X —m) (X —m)Tp(z, Х)б/Х. (10.3.9)
Следовательно, наилучшая интегральная аппроксимация про-
извольного распределения р (t, к) нормальным законом Лф, X;
m, R) достигается приравниванием их м. о. и дисперсий. Такой
результат является естественным.
Продифференцируем обе части (8) по времени и подставим
вместо dp(t, X)/dt правую часть уравнения Стратоновича (7.3.8):
= jxL{p(l, X)} б/Х +
+ |x[F(l, X)-F(z)]p(l, X)iZX. (10.3.10)
Воспользуемся определением сопряженного с L {•} оператора
L+ { •} для всех допустимых h (X) и р (X):
fh(X)L{p(X)} <ZX = fp(X)L + {h(X)} <ZX.
Известно, что для прямого оператора ФПК сопряженным является
обратный оператор:
i Д 1 Л 2
L*{•}=!>,('.9^4 S
._q С/ Z, . = J V Kj
В нашем случае h(X) = X. Поэтому
f X-L{p(z, X)} <ZX = jp(z, X)L+ {X7}iZX =
= \p(t, X) JX = M{a/z, X)}, (10.3.11)
так как 5Х;/5Х; = 5^- и Э2Х^/5Х;5Хк = 0.
Второе слагаемое в правой части (10) запишем в виде
|X[F(Z, X)-F(z)]p(l, X)iZX = f (X-m)F(l, X)p(z, X)<ZX (10.3.12)
и выполним интегрирование по частям:
490
J(к — m) F(t, к) p(t, X) iZX = R J F(t, X) R 1 (X — m) p (t, X) dk =
= -R F(z, X)|-p(z, X)<ZX = R рЖ('’ X)iZX =
I v Az I С/ A,
= RMfe^l- (10.3.13)
( I
Таким образом, выражение (12) можно записать в более ком-
пактном виде:
М {kF(t, X)} =mF(z) + RM {dF(t, Х)/5Х}. (10.3.14)
Подстановка (И) и (13) в (10) приводит к уравнению
zZm/zZz = M{a(z, X)}+RM {5F(z, Х)/5Х)}. (10.3.15)
Уравнение для R получается аналогичным путем. В результате
дифференцирования (9) по времени имеем
^=^[(Х-т(<))(Х-т(/))ЧЦ<,Х)Л +
+ |(Х-ш(I)) (X-ш(<))' SX.
Первый интеграл справа равен нулю
— (zZm/iZz) J [X —m(z)]T/>(z, X) iZX —f {X —m(z)] x
xp(t, X) 6ZX(iZmT/iZz) = 0.
Воспользовавшись свойством сопряженного оператора, отсюда
получим
<ZR/<Zz = M {L+ {(X-m) (X —m)T}} + M {X —m) x
x (X —m)T [F(z, X)-F(z)]}. (10.3.16)
Далее поступаем также, как при получении выражения (11):
M{L+ {(X —m)(X —m)T}} = M{(X—m)aT(z, Х)} +
+M{a(z, X) (X-m)T} +M {Njz, X)} =
= M{NK(z, X)}+M{5a(z, X)/5XT}R +
+ R[M{Sa(z, X)/aXT}p. (10.3.17)
Используя дважды результат (13), имеем
М {(X —m) (X —m)T [F(Z, X)-F(z)]} = RM {5 [(X-m)T (F(z, X)-
— F(z))]/5X} =RM{F(z, X)-F(z)} + RM {[5F(z, X)/5X] (X-m)T} =
= RM{a2F(z. X)/5X3XT}R.
491
M T + MJ^l£MlR +
) 3XT I I 5XT (
В итоге из (16) придем к уравнению
^ = M{NJ/, k)} + R
+rmJ£2MIr. (ю.3.18)
Уравнения (15) и (18) составляют алгоритм интегральной
гауссовской аппроксимации.
Алгоритмы интегральной гауссовской аппроксимации в форме
Ито получаются также дифференцированием (8), (9) по t с ис-
пользованием уравнения фильтрации в форме Ито. Они
имеют вид:
dm/dt = M {а (z, Z)} + R [М {ds(t, X)/^V)]T х
х No 1 [^(z)-s(z)],
(10.3.19)
^ = M{NX(/, Z)} + R
м m r
( dU JJ ( dV j
f д2 1
I 1/Л1/Л j
+ R
N0-iMfe£Ml R.
( d* I
(10.3.20)
В алгоритмы интегральной гауссовской аппроксимации (15),
(18) и (19), (20) входит операция осреднения, которая согласно
(2) — (5) должна осуществляться с точной п. в. p(z, X). Очевидно,
необходима замена п. в. p(t, X) на аппроксимирующую п. в.
p(t, к; а), т. е. в полученных алгоритмах следует понимать
M{/(X)}=J/(l)p(r, К a)da. (10.3.21)
Подобная замена осуществляется во всех основных подходах
к приближенному решению дифференциальных уравнений, т. е.
это не является особенностью интегральной аппроксимации.
Часто выполнить интегрирование аналитически не удается,
а реализация (21) с помощью численного интегрирования также
затруднительна. Поэтому применяют приближенные способы
интегрирования. Обычно они основаны на разложении осредня-
емых подынтегральных функций в конечные ряды Тейлора, что
справедливо (как и при локальной аппроксимации) в случае
высокой точности фильтрации.
Самый простой приближенный алгоритм получается при
условии, что подынтегральные осредняемые функции меняются
медленно, так что их в пределах существенных значений п. в.
N(z, X; m, R) можно полагать постоянными. Это, по существу,
492
эквивалентно замене N(z, X; m, R) на дельта-функцию 8(X —m).
При этом, например, из (19) и (18) получаем алгоритм фильтрации
в симметризованной форме:
dm/dt = a(t, m) + R[dF(z, m)/dX], (10.3.22)
T
+ R
rfR
dt
= Njz, m)+
3a (t, m)
~3V
3a (t, m)
av
32F(t, m)
ахах.1
(10.3.23)
R + R
Для одномерного случая (m = ?? = !) этот алгоритм имеет вид
dm/dt = a(t, zn) + RM {(2/No) [£,(z)~s(t, »?)] s' (z, m)}, (10.3.24)
dRfdt = Nt(t, m)/2 + 2a'(t, m) R + R2M{(2/No) [(^(z)-
—s(t, m) — s'2(t, zn)]}, (10.3.25)
где штрихами обозначены производные по X.
Помимо такого приближения используются и другие'. Все
они базируются, как и различные алгоритмы локальной гаус-
совской аппроксимации, на разложении в ряды Тейлора до
определенной степени функций, входящих в описание исходной
задачи, т. е. g(z, X) или a(z, X), Nx(t, X) и s(t, X), или же функций,
входящих в уравнение фильтрации, для которого отыскивается
аппроксимация. В последнем варианте в дополнение к указанным
функциям производится разложение в ряд функций a'(t, X), s'{t, X)
и s"(z, X).
Если применить разложение функций до членов первой степени
(при этом s"(t, Х) = 0) в уравнениях (24) и (25), то придем
к алгоритму расширенного фильтра Калмана
t/Х/dt = a(t, ty + R(2/N0) [£(z)—s(t, X)] s'(t, X), (10.3.26)
dRldt=Nt{t, X)/2 + 2a'(t, X)-R2(2/7V0) s'2 (z, X). (10.3.27)
При квадратичной аппроксимации появятся дополнительные чле-
ны. Например,
d = M{a(z, X)} = M{a(z, m) + a'{t, m)(X —m) +
+ a"(z, m) (X — m)2/2} — a(t, m) + Ra"(t, m)/2.
На таком пути можно получить различные алгоритмы.
Кратко укажем путь получения алгоритмов интегральной
гауссовской аппроксимации в дискретном времени. Для этого п. в.,
входящие в основные формулы (7.2.9), (7.2.10), нужно аппроксими-
ровать нормальными п.в.: />(XV | l;o) = N(mv, Rv|, /z(Xv | £,о~ *) =
= 7V(niv, Rv), найти в соответствии с ~ методикои интегральной
аппроксимации сначала параметры mv, Rv экстраполирующей п. в.,
а затем параметры mv, Rv. Окончательный алгоритм следующий:
1 Jazwinski А. Н. Stochastic Processes and Filtering Theory.— N.Y.: Academic
Press, 1970.— 376 p.
493
mv = mv + RvMv /Я {р&| Xv)},
(10.3.28)
pWMl M MlMl
vl dlvdK J ’( av J
Я{р(^,1Ч)} “йдЖШ}
мЖ-М]
I 5k: J
x ЙМ1М) _
Rv — Rv + R,
R,
(10.3.29)
где
niv = Mv_1 {g(zv, Xv-i)}>
(10.3.30)
RV = MV~! {[g(zv, kv_!)-inv] [g(zv, kv_1)-mv]T}+'l'v, (10.3.31)
Mv_! {/(k)} = f/(X) JV(mv_ t, Rv_ 0dK
Mv{/W} = f/(Wv- Rv)^-
Можно убедиться, что для линейной задачи данный алгоритм
переходит в алгоритм фильтра Калмана. Если выполняется
условие малых ошибок фильтрации и применимо линейное
приближение
g (К -1) [<3g (mv -1)/ д Ц. _! ] (kv -1 - mv _ i),
s(Xv)»[5s(mv)/3Xj] (kv-mv),
то придем к алгоритму расширенного фильтра Калмана. При
разложении нелинейных функций до второй степени можно
получить другие локальные алгоритмы в дискретном времени.
Другая совокупность алгоритмов интегральной гауссовской
аппроксимации получится, если в (28), (29) перейти от осред-
нения по экстраполированной п. в. jV(mv, R,,) к осреднению по
аппроксимированной плотности p(Zv | »jV(mv, Rv). Полученный
таким путем итеративный алгоритм хотя и сложнее в реализации,
однако он имеет более широкую область применения (требует
высокой точности оценки mv, а не экстраполированной оценки mv).
Пример 10.3.1. Фильтрация винеровский фазы радиосигнала. Приведем ал-
горитмы локальной и глобальной гауссовской аппроксимации для примера 10.1.1.
Поскольку для этого примера a(t, k) = 0, TV (?, \) = NV, то из уравнений
локальной гауссовской аппроксимации (10.1.29) и (10.1.30) получаем
d^/dt = (2/N0) R £(z) A cos(<B0/ + <p), (10.3.32)
dR jdt = (Nv/2)-(2/No) R2i,(t}A sin [озог + ф(г)]. (10.3.33)
Уравнение оценки (32) совпадает с уравнением (10.1.11) расширенного фильтра
Калмана, а уравнение для дисперсии ошибки (33) несколько отличается от
494
(10.1.12). Однако если пренебречь шумом в наблюдении (;(?) и положить
ф(?)=кф(?), то (33) становится эквивалентным (10.1.12). При этом уравнение для
дисперсии (33) не будет зависеть от наблюдения, что существенно упрощает
алгоритм.
Воспользовавшись уравнениями интегральной гауссовской аппроксимации
(15), (18) и положив в них т(/) = ф(г), F(t, <р) = (2Л /No) £,(t) sin (cno г-I-<р), имеем
d(p/!dt = (2A /!N,,) ЯМ {cos (<в0? + ф)},
^/А = ^/2-(2Л/^)ЯЧ(/)М{ып(<в0? + (р)}.
При осреднении с нормальной п. в.
N(t, tp; ф, Я) = (2лЯ)'1/2ехр[ — (ф — ф)2/2Я]
учтем известный интеграл
00
J ехр(
?2х2)
cos[p(x+X)J
sin [р (х + X)]
р2 \ (cosрХ
Aq2J [sinрХ
В результате получим
dtpjdt = —R ехр( —Я/2) (2А/No) £,(?) cos(<B0z + p),
dRldt = (N4>/2) — R2 exp( — Я/2) (2A/No) (;(?) sin (<в0 г + ф).
(10.3.34)
(10.3.35)
Полученный алгоритм отличается от алгоритма (32), (33) только наличием
в правых частях дополнительного множителя ехр ( — Я/2).
В данном примере, как и в других задачах фильтрации фазы радиосигнала,
необходимое осреднение М{/(Х)} удается выполнить аналитически.
До сих пор рассматривалась гауссовская интегральная ап-
проксимация. Однако выбор нормальной и. в. в качестве ап-
проксимирующей функции не является заранее предрешенным.
В некоторых задачах лучшие результаты могут быть получены
при использовании других аппроксимирующих п. в. В связи
с этим укажем общую методику интегральной аппроксимации.
Примем, что аппроксимирующая п. в. зависит от времени не
непосредственно, а только через параметры a(z), т. е. р(1, к; а) =
«(()).
Запишем условие экстремума (5) для критерия Кульбака:
j [5 lnp(X; a(z))/<3Z]p(z, X.)tfX. = 0. (10.3.36)
Продифференцируем это равенство по времени:
51пр(Х;«(г)) 8p(t, X) 0
8а dt
d
dt
8 ln/> (X; at (?))
8a
(10.3.37)
p(t, k)tZk+
Учтем, что
8 сНпр(Х; а(г)) d2lnp(k; a(t))da(t)
dt da 8adaT dt
495
Введем обозначения
h(Z, Х) = 51пд(Х; a(z))/5a; (10.3.38)
U(z)=—f— ph X)<7X=M (Ю.3.39)
' ' J 5a 5a ' [ 5a5aT J
Используя введенные обозначения и подставляя для dp(t, Х)/5Х
выражение из уравнения Стратоновича, из (37) имеем
daldt^W1 (z)f h(z, X) [L{p(z, X)} + (F(z, X)-
X)]iZX. (10.3.40)
Воспользовавшись сопряженным оператором, можем написать
fh(z, X)L{p(z, Х)}Л = |д((, X)L+{h(z, Х)}Л.
Из условия (36) следует, что
f h(z, k)F(t)p(t, X)zZX=F(z)M{h(Z, X)} = 0.
С учетом этих равенств из (40) получаем общее уравнение для
параметров аппроксимирующей п. в. при интегральной аппрок-
симации в непрерывном времени
da/dt=U~1 (z) М {L+ {h(z, X)} +1Г1 (z) х
х M{h (Z, X)F(z, X)}. (10.3.41)
Здесь м. о. берутся с п.в. />(Х; a(/)) и L+{-}—оператор ФПК
в обратном времени:
и (*,(<• Ч)= i ».(>. j,
Применяя различные аппроксимирующие п. в., из (41) можно
получить разные алгоритмы. Выбор аппроксимирующей п. в.
для конкретной задачи обычно обосновывается физическими
соображениями.
Пример 10.3.2. Аппроксимация Т-распределением. Анализ работы системы
ФАП при наличии гауссовского шума показывает, что фазовая ошибка хорошо
описывается Т-распределением вида (9.2.29):
p(tp; а) = [2л/0(А)]-1 exp{Acos((p —т)}, (ре[/и —л, тп + л],
где IQ(x)— функция Бесселя нулевого порядка от мнимого аргумента, а = {т, А}т —
параметры распределения, А>0.
Данная п. в. отражает специфику задачи фильтрации фазы: она периодична
с периодом 2л, стремится к нормальному закону N(m, А-1) при больших А,
при А->0 она переходит в равномерную п. в.
Получим алгоритм интегральной аппроксимации с использованием Т-рас-
пределения. Для этого предварительно вычислим отдельные сомножители, вхо-
дящие в правую часть уравнения (41):
496
к/, л\ jAsin((p-AM) 1 г1п/0(Л) Д(Л)
h(?’ (р) = |со8((р-,и)-/(Л)Г /(Л)=“~5Л~=Ш
где /0(х), Ii (х)—модифицированные функции Бесселя;
УД) м[ м(Лс08(ф~т) -«п(<р-'и)1=ГЛ/(Л) О
[ да f [ — sin (<р —т) df(i\}/di\ J O tZ/(A)/<7A
где был использован известный интеграл
Я
2^jcosxexp(Acos.)^=^=/(A);
— я
о
' д2 'I
—:: ГЛ Sin(m— 1и)1 , . .
<5tp2 L ' ' I Nv ГЛ sm((p — ти)1
д1 _ , I 4 |cos(q>-m) (’
^p[cos(<p-/n)-/(A)] I J
, , , ,, N„ (A sin (m —ш)1 N„
M{L+ Л =-JM /ч JH-r ,
4 [cos(<p — m) J 4 |_—/(A)
. , 2A , , fA sin(<p — m} sin(<Bn7 + /H + (p — m} 1
M{h г, Ф )F(t, <p}=— Ut , 4 ’ J=
' 7 ' 7 No ' ' [[cos((p — m)—/(A)] sin(<»0/ + ni + <p — m)J
A cos(o>0i+ "1) M{sin2(tp—m)}
sin (<b0 t+m) M {cos 2 (tp—m) —f 2 (A)}_
/(A) cos(<»0/+m)
(1 —/(A)/A) sin(<B07+w?)_ ’
2/1 й. ,
2А
=—4(1)
так
1 f • 2 /* Л(Л) /(А)
как ~—гттт sm2x ехр Л cosx ах = -—
2тс/0(Л) J ' ’ Л/0(Л) Л
- я
Подставив найденные выражения в (41), получим алгоритм интегральной
Т-аппроксимации в задаче фильтрации винеровской фазы радиосигнала:
dm/dt = \~1 (2А /No) £,(?) cos(<»0Z+m), (10.3.42)
dK[dt= — (Wv/4)/(A) [tZ/(A)/tZA] 1 +(2A/No) ^(1) sin(<Bol+m). (10.3.43)
Для сопоставления с другими алгоритмами решения данной задачи положим
т = (р и К=1/\. Тогда можем окончательно записать
dq>ldt = K-2ANo1 Е, (f) cos (со0 f-|-ф), (10.3.44)
dK/dt = (Nv/2)f1{K)-K2-2ANo1 4(1) sin(<ooZ + 0), (10.3.45)
где /1(^)=(ЛГ2/2)/(1/^)р/(Л)/1/Л]Л=1/к.
Можно показать, что /1(Л')^1 при К-+0.
497
10.4. СРАВНЕНИЕ АЛГОРИТМОВ ФАП
На частном примере фильтрации винеровской фазы радиосиг-
нала (пример 10.1.1) проведем сравнение качества работы ал-
горитмов, полученных разными приближенными методами ап-
проксимации, с точным результатом, который основан на решении
уравнения Стратоновича
F(t, ф) = 2ААо 1 £,(/) sin(оэоГ + <р). (10.3.46)
Выше для данного примера были получены алгоритмы
расширенного фильтра Калмана (10.1.41), (10.1.42), локальной
(32), (33) и интегральной (34), (35) гауссовских аппроксимаций
и интегральной Т-аппроксимации (42), (43).
Работу всех этих алгоритмов можно моделировать единой
структурной схемой ФАП (рис. 10.12). Она содержит пере-
множитель, усилитель, подстраиваемый генератор (ПГ) и устрой-
ство оценки коэффициента усиления К, который для различных
алгоритмов определяется по-разному. Проще всего он вы-
числяется для расширенного фильтра Калмана. Поскольку
в уравнение (10.1.42) для 7? (г) наблюдение c,(z) и оценка
ф(?) не входят, то R(t) можно определить заранее. В дополнение
можно отметить, что R(t), а значит, и K(t) быстро стремятся
к постоянным стационарным значениям. Следовательно, алгоритм
расширенного фильтра Калмана реализуется простой схемой
ФАП с постоянным коэффициентом усиления. В остальных
алгоритмах коэффициент K\t) зависит от входной реализации
£,(/) и должен определяться специальной схемой оценки, что
усложняет их реализацию. Однако при этом получается более
высокая точность фильтрации фазы.
Для сравнения точности фильтрации фазы четыре указанных
алгоритма моделировались на ЭВМ, включая также точный
алгоритм, определяемый уравнением (46). Методика моделирова-
ния уравнения (46) подробно изложена в § 9.6. При этом
оценивался средний квадрат ошибки фильтрации фазы, приведен-
ной к интервалу ( — л, л):
iZ2 = M{ I ф(0-ф(0 |2}. (10.4.1)
Рис. 10.12. Общая структурная схе-
ма ФАП
498
Рис. 10.13. Зависимость дис-
персии стационарной ошиб-
ки фильтрации винеровской
фазы от отношения сиг-
нал-шум для разных алгори-
тмов:
1 — расширенный фильтр Калмана,
2 — локальная гауссовская аппрокси-
мация, 3— интегральная гауссовская
аппроксимация, 4—Т-аппроксимация,
5 — точное решение
По окончании переходного процесса приведенная к интервалу
( — я, я) ошибка оценки <р(г) — фи) является стационарной и эр-
годической. Поэтому оценку а2 можно получить по одной
реализации большой длительности, подаваемой на все
алгоритмы.
Результаты моделирования трех алгоритмов в дискретном
времени были представлены на рис. 9.21 (кривая 1 — точное
решение, 2 — Т-аппроксимация и 3—расширенный фильтр Кал-
мана).
На рис. 10.13 представлены зависимости d2 от отношения
сигнал-шум q — 4A2/N0N для всех пяти алгоритмов: расширен-
ного фильтра Калмана (кривая 7), локальной (кривая 2) и ин-
тегральной (кривая 3) гауссовских аппроксимаций, интегральной
Т-аппроксимации (кривая 4) и строго оптимального (кривая 5).
Величина q представляет собой отношение энергии радиосигнала
с винеровской фазой за интервал его корреляции tk = 4/7V
к спектральной плотности шума No.
Стремление всех кривых к пределу <72=л2/3 при q = 0
объясняется принятым критерием: в отсутствие полезного сигнала
приведенная ошибка для всех алгоритмов распределена равномер-
но в интервале ( — я, л), т. е. имеет дисперсию л2/3.
Сравнение результатов позволяет сделать следующие выводы.
1. В области больших отношений сигнал-шум все алгоритмы
имеют точность, почти совпадающую с потенциальной, причем
для всех значений q алгоритмы интегральной аппроксимации
499
расположены ближе к «потенциальной» кривой, чем алгоритмы
локальной аппроксимации.
2. Наиболее точным из всех приближенных алгоритмов во
всем диапазоне отношений сигнал-шум является алгоритм ин-
тегральной Т-аппроксимации. Его точность практически совпадает
с потенциальной.
3. Наихудшая точность в области малых отношений сигнал-
шум у квазиоптимального локального алгоритма; она заметно
хуже, чем у расширенного фильтра Калмана. Учитывая простоту
реализации алгоритма расширенного фильтра Калмана, следует
признать, что применение алгоритма локальной гауссовской
аппроксимации в задачах фильтрации фазы радиосигнала неце-
лесообразно.
Приведем результаты, характеризующие режим входа в син-
хронизм, для двух алгоритмов (рис. 10.14): Т-аппроксимации
(кривая 7) и расширенного фильтра Калмана (кривая 2) в за-
висимости от безразмерного времени v = Nvt/2. Они получены
статистическим моделированием с осреднением по многим
(п=104) реализациям. При t = 0 фаза радиосигнала равномерно
распределена в интервале ( — л, л).
Видно, что алгоритм Т-аппроксимации имеет существенный
(почти на порядок) выигрыш по времени входа в синхронизм по
сравнению с расширенным фильтром Калмана. Этого следовало
ожидать, так как в режиме входа в синхронизм имеют место
большие начальные ошибки. Такие условия допускаются при Т-
аппроксимации (она включает как частный случай равномерное
распределение при / = 0) и не соответствуют условиям локальных
аппроксимаций (в частности, расширенному фильтру Калмана).
500
10.5. СИНХРОНИЗАЦИЯ СКАЧКООБРАЗНЫХ
СИГНАЛОВ
Получим алгоритмы синхронизации с использованием интег-
ральной гауссовской аппроксимации для частного случая скач-
кообразных сигналов — широкополосных фазоманипулированных
(ФМ) радиосигналов, широко применяемых в радиотехнических
системах для повышения помехозащищенности, точности опре-
деления дальности до объекта и скрытности. Пусть принимается
аддитивная смесь полезного сигнала s(t — т(/)) с неизвестной
случайной задержкой t(z) и БГШ д0(/):
^t) = s(t-T(t)) + n0(t). (10.5.1)
Передаваемый сигнал представляет собой фазоманипулированное
колебание вида
ф) = Е 1Л гесф-&Г]50(/), (10.5.2)
k-1
где s0(t) — высокочастотное колебание с амплитудой A; rectfx]—
импульс единичной амплитуды и фиксированной длительности:
г fl, kT^t<(k+l)T,
L J (0, t<kT, t^\k+\)T-,
pt— известная на приемной стороне последовательность значений
1 и — 1 (например, псевдослучайная /^-последовательность);
— марковский процесс, описываемый, например, моделью вида
dx/dt=f {t, т) + пт(/); (10.5.3)
нт(г)— БГШ. Требуется оптимальным образом следить за случай-
ной задержкой тр).
Для решения задачи нельзя воспользоваться алгоритмами
локальной аппроксимации, связанными с разложением сигнала
в ряд; применительно к скачкообразным сигналам они оказывают-
ся неработоспособными. Это связано с тем, что в эти алгоритмы
входят производные от сигнала по оцениваемому параметру
ds(t — т)/5т и d1 2s(t— т)/<?т2, которые представляют собой дельта-
функции, возникающие из-за скачкообразного характера сигнала.
Умножение £,(/) на дельта-функцию в дискриминаторе системы
слежения за задержкой эквивалентно точечной выборке из
наблюдения с аддитивным БГШ. Вследствие бесконечной диспер-
сии последнего полезная информация о сигнале теряется *.
Поэтому часто применяют различные аппроксимации произ-
водной ds(t—т)/5т, например, заменяют ее конечной разностью
1 Величкии А. И., Иванов А. В., Харисов В. Н. Синхронизация фазоманипулиро-
ванных сигналов//Радиотехника и электроника.—1983.— Т. 28, №2.—С. 283—289.
501
за малый интервал времени А или заменяют дельта-функцию
импульсом малой длительности А. При этом значение А остается
неопределенным, так же как и степень приближения получающихся
в результате алгоритмов к оптимальному.
Для решения сформулированной задачи следует восполь-
зоваться алгоритмом интегральной гауссовской аппроксимации
(10.3.15), (10.3.18). Главным препятствием к использованию этого
алгоритма в общем случае является необходимость осреднения,
входящего в (10.3.15), (10.3.18), т. е. вычисление интегралов,
содержащих произведения функций ds(t — т)/5т и d2s(t — т)/5т2 на
нормальную п. в. В нашем примере, как и для ступенчатых
сигналов вообще, интегрирование легко выполняется на основе
фильтрующего свойства дельта-функции:
м [^лт)Ц 2 f =
i дт j No J v f dr v ’
2
Z (ц^+1-Рк)Ф1(/-лт-ш),
JV0 Jc=l
(10.5.4)
мШ
) йт2 j No <
7 r'
7V« k — 1
где ш = т(/) — оценка временной задержки т(г); R(t)—дисперсия
ошибки оценки;
Ф1(х) = (2л/?)'1'2 ехр( —х2/27?),
Ф2(х) = 7? ~ ! (2л7?)”1/2х ехр( — x2/2R).
На практике ошибка оценки существенно меньше длительности
элемента сигнала Т. т. е. /?1/2«:Т. Поэтому при фиксированном
значении t только одна из функций Ф^г — кТ—in) для разных
к не равна нулю, т. е. входящую в (4) сумму можно заменить
одним слагаемым:
И ~ 1
Z (pifc —Rfc-1)ф1 (t — iT—m),
k~O
где г = [(г—т — Т12)/Г] — целая часть числа. Аналогично
Z (Цк-Рк-1)ф2(^-кТ-т)^(ц1-ц;_))Ф2(/-/Г-т).
к = 0
В итоге в алгоритм интегральной гауссовской аппроксимации
войдут выражения
502
M{5F(Z, т)/дт}= -2N0 1^(/)50(г)(ц;-ц;_1)Ф1(г-/Т-7и),
(10.5.5)
M {d2F(t, т)/5т2} = 27VJ1 (г) ,v0(/) (ц;-ц,_!) Ф2 (г- VT-т).
В установившемся режиме работы ошибку фильтрации R мож-
но приближенно считать постоянной R = R и определять ее как
стационарное решение уравнения вида (10.3.18) с осредненной
по времени правой частью:
0 = 2М fej 7? + М {^} + Л2М Ы>, (10.5.6)
I ок I I Ок I
причем справедливо равенство
м J<</(/, »7)(_ д мm)(^ag(e)
) ёт1 ( ёт ) ёт ( ёе
Е = О
где g(e) — характеристика дискриминатора системы слежения. При
этом ковариационную матрицу ошибок можно вычислить заранее,
т. е. алгоритм фильтрации сводится к уравнению (10.3.15) с посто-
янными коэффициентами:
dm/dt = M{f(t, т)} — R -2./Vo xl;(r) s0(r) х
х (ц; — цг_1)Ф1(<—iT— т). (10.5.7)
Схема устройства, моделирующего (7), отличается от известных
схем синхронизации тем, что стробирующие импульсы имеют
непрямоугольную форму и, что особенно важно, точно определен-
ную длительность <y = y/R.
Характеристика дискриминатора системы синхронизации по-
лучается осреднением (5) по времени и имеет вид
g(E) = 2vA2(N0T)-1 [1-2Ф(е/ст)], е = ш-т0, (10.5.8)
где v — частота перепадов в последовательности {|лк}; т0 — ис-
тинное значение задержки. Крутизна характеристики равна
dg^/dE |Е=0= — 2vA 2(2VOT)-1 (2/дЯ)1'2. (10.5.9)
Отметим, что ширина дискриминационной характеристики (8)
согласована с дисперсией ошибки фильтрации так, что ошибки
фильтрации лежат в основном в пределах линейного участка
и, кроме того, обеспечивается возможно большая крутизна. Это
достигается благодаря тому, что ширина строба равна среднеквад-
ратическому отклонению ошибки фильтрации.
Решая уравнение (6) для конкретных моделей временной
задержки, можно получить значение R, которое в условиях
принятого метода гауссовской аппроксимации имеет смысл
стационарной дисперсии ошибки фильтрации. Близость расчетного
значения R к действительной дисперсии ошибки синхронизации
в приведенной схеме косвенно характеризует допустимость такой
503
аппроксимации. Справедливость аппроксимации гарантируется,
если ошибка фильтрации не выходит за пределы линейного
участка характеристики дискриминатора. В пашем случае это
выполняется лишь приближенно. Поэтому возникает необходи-
мость обосновать использование вычисленного значения R как
меры дисперсии ошибки фильтрации. С этой целью рассмотрим
два частных примера.
Пример 10.5.1. Оценка постоянного временного запаздывания. Применим
алгоритм интегральной гауссовской аппроксимации к частному случаю, когда
временное запаздывание скачкообразного сигнала не зависит от времени, т. е.
т = const. Уравнение (10.3.15) с учетом (9) примет вид
dR ,2v42/2\1/2 , , 2уЛ 2 /2\1/2
dt N„T\TtRJ N0T\nJ
Записываем его решение:
R '!/2(,') = A -1,2(O)+(v/f2 t/N0 T)(2/k)'12.
Отсюда для больших отношений Л(0)/Л(/) получаем
/?(/) л 1 л 1
7'2^2(72 TIN0)2^t iTy^2[(i~nvy' (Ю.5.10)
где </, —А 2 T/No--отношение сигнал-шум в элементе сигнала; nv- - число скачков.
Дисперсия оценки т по критерию максимального правдоподобия при больших
отношениях сигнал-шум дается формулой1
R(t)T -2 = (13/8)(с/| н v)“ 2. (10.5.11)
Сравнение (10) с (11) дает очень хорошее совпадение (л/2 = 1,57 х 13/8), при-
чем полностью совпадают зависимости как от qx, так и от числа скачков.
Сравнение, результатов моделирования и расчетов по формуле (11) показывает,
что они практически совпадают при RT~2< К) 2... 10“3 для любого числа
скачков и V.
Пример 10.5.2. Временное запаздывание—гауссовско-марковский процесс. При-
мем, что временное запаздывание т скачкообразного процесса описывается
гауссовским марковским процессом с м. о. т0 и дисперсией Do:
dt[di = — а(т—т0)+«г(/). (10.5.12)
В данном случае стационарное значение R находится из уравнения (6), которое
можно привести к виду
1 //Л3'2 R 1 /2 vjb
B\Dj D В у} n aT2
При обычно выполняющемся условии S“!>1 (большое отношение сигнал-
шум в полосе синхронизации) это уравнение имеет единственное вещественное
решение
! Ибрагимов И. А., Хасьмииский Р. 3. А симптотическая теория оценивания.—
М.: Наука, 1979,—529 с.
504
(10.5.13)
Результаты численного моделирования алгоритма интегральной гауссовской
аппроксимации на основе метода Рунге — Кутта четвертого порядка показывают,
что значения ошибки R, полученные из (6), близки к действительным значениям
дисперсии ошибки, что можно рассматривать в качестве критерия справедливости
интегральной гауссовской аппроксимации.
Таким образом, применение интегральной гауссовской ап-
проксимации к задаче слежения за случайной временной задерж-
кой скачкообразных сигналов позволило получить эффективные
алгоритмы синхронизации сигналов. Структура алгоритмов прак-
тически совпадает со структурой обычно используемых систем
синхронизации, т. е. они просто реализуются технически. Синтез
позволил, во-первых, оптимизировать длительность стробиру-
ющих импульсов и параметры фильтров для обеспечения наилуч-
шей точности слежения и, во-вторых, получить соотношения
для расчета дисперсий ошибок слежения.
10.6. АЛГОРИТМЫ С ГРУППИРОВАНИЕМ
НАБЛЮДЕНИЙ
Во многих радиотехнических задачах фильтруемые параметры
k(r) радиосигнала s(t, Х(г)) изменяются медленно по сравнению
с самим сигналом. При цифровой фильтрации таких параметров
интервал временной дискретизации T=tk + 1 — tk, к = 0, 1, 2, ...,
можно брать больше временного интервала A = /v+1 — tv, v = 0, 1, 2, ...,
аналого-цифрового преобразования входного колебания £(г).
Иначе говоря, совокупность отсчетов входного наблюдения на
интервале [zt, tk + l) можно объединить {сгруппировать) в некото-
рую достаточную статистику, используемую в алгоритме оценки
сообщения Х(г), и тем самым снизить требования к быстродей-
ствию устройства обработки без существенного ухудшения харак-
теристик приема. Рассмотрим возможный вариант реализации
этого предложения, базируясь на исходных уравнениях (7.1.6)
и (7.1.7), с той лишь разницей, что обозначим входящий в них
векторный фильтруемый процесс через 1о(О вместо Х(/).
Для получения алгоритма с группированием наблюдений используем сле-
дующее изменение задачи1. Ось времени разобьем на интервалы группирования
К, 4+1), к=0, 1, 2, ... На каждом из них процесс аппроксимируем квазнслучайным
1 Харисов В. Н., Эфендиев Р. Н. Алгоритмы нелинейной фильтрации с груп-
пированием наблюдений//Изв. вузов СССР. Радиоэлектроника.— 1989.— Т. 32,
№ 8,—С. 29—33.
505
Рис. 10.15. Фильтруемый
процесс X0(f) и его аппрок-
симация X(t)
процессом X(Z) (рис. 10.15), совпадающим с процессом X0(z) в некоторой точке
<*+1б[4, (t + i), т. е.
(t к+ 1) = ^-о(^ 4+ l) = ^k+ 1 ! (10.6.1)
и удовлетворяющим уравнению
dl(t)/dt = f(t, X). (10.6.2)
Предполагается, что это уравнение удовлетворяет условиям существования
и единственности решения: при заданном значении X(ft + 1) = Xt+1 для каждого
ze [zt, tk+i) можно определить решение
Х(1)=Ф(г, t'k+l, Х1+1). (10.6.3)
Полную ошибку оценки e(z)=X(z)— K0(z) можно разбить на две составляющие
e(z) = Ej(z) + e2(Z), где Ej (z) = X(t) — k(i)— ошибка фильтрации процесса X(z)
и e2(t)=X(t)—— ошибка аппроксимации. Функция f(t, X) и момент времени
z(+I у аппроксимирующего процесса выбираются так, чтобы обеспечить прием-
лемые значения ошибки аппроксимации е2(/ ) (см. ниже). В частности, при
Z»+i = 4 и f(z, Х) = 0, т. е. X(f)=X0(ft)=const на всем интервале [4, 4И), имеем
ступенчатую аппроксимацию.
Минимизация ошибки сД/) обеспечивается применением методов теории
оптимальной фильтрации марковского процесса X(z), в чем нетрудно убедиться.
Таким образом, приходим к задаче оценки марковского процесса X(z) при
ze[zt, tk + 1) по наблюдению
£(z) = s(z, X) + n0(z). (10.6.4)
Решение ее основано на определении апостериорной п. в. pk + l(t, X)=p(X(z) =
= X|^'*+i). Такая постановка задачи аналогична рассмотренной в § 7.5. Решение
такой модифицированной задачи, определяемой выражениями (1)...(4), рассмат-
ривается как приближенное решение исходной задачи фильтрации процесса X0(z),
стремящееся к нему при е2(?)-»0.
Аппроксимация (1)...(3) сама по себе не упрощает реализацию. Упрощение
обеспечивается за счет явного решения уравнения Стратоновича для поставленной
задачи, возможность которого является следствием аппроксимации.
Действительно, уравнение (2) для процесса X(Z) совпадает с уравнением
(9.1.15), задающим квазислучайный процесс. Процесс X0(Z) на каждом интервале
506
[д, tk+1) аппроксимируется процессом X(z). Поскольку квазислучайный процесс
полностью определяется заданием значения в некоторой точке, то это значит,
что Х(г) полностью определяется заданием последовательности Xt+1 = X(/j+i),
k=Q, 1, 2, ... Пользуясь модификацией результата (9.1.20), можно записать
выражение для апостериорной п. в.
pk+l(t, к) = \дФ(1'к+1, t, фХт1л+1(Х4 + 1)111+1=ф(11ч1.и), (10.6.5)
причем
Рк + i(>-4+i) = ct+1 Ркэ (>-t+i)exp№+1 (Xl+i)-E{kk+i)}. (10.6.6)
Здесь />1э(^-*+1)—экстраполированная п. в. по наблюдениям на предыдущих
интервалах, получаемая из рк(кк) по правилу
Pb(^'i+l)==f7t(^'*+l \^-к)Рк(^к)^^к> (10.6.7)
где 7t(Xfc+1|Xfc)—п.в. перехода; exp{Ft+1 (Xt + 1)-£(Xt+1)} — функционал правдо-
подобия при наблюдении £!‘ + 1:
1к
1к+1
Л+1(^+1)=Д j £(ф(/, Ф(г, H+i, Хк+1))Л;
*к
4 + 1
я»+1(х*+1)=4- b2(',®(MnbXt+i))*; (ю.6.8)
‘к
Ck+i — нормировочная константа. П.в. pk+l(t, X) является решением сформули-
рованной задачи оценки Х(г), заданной соотношениями (1)...(4).
Заметим, что при наличии на входе системы обработки аналого-цифрового
преобразователя наблюдение имеет вид
E,v=s(tv, X) + nOv, tk^tv^tk+i- (10.6.9)
При этом интеграл в (8) переходит в сумму, например:
2А
Л+tta+ih—W('v> *('v. t'k+l, xt+i)). (ю.6.10)
V
Все последующие результаты, записанные для наблюдения ^(г), останутся
справедливыми и для наблюдения в дискретном времени (9) при очевидной
замене (8) на (10).
Выражение (5) позволяет найти pk + l(t, X) для тех моментов времени t,
в которых необходимо иметь оценку Х(г). Если оценка определяется по
максимуму апостериорной п. в. pk+l(t, X), то при высокой точности оценки Х4+.
определение pk+l(t, X) можно опустить, так как из (5) следует, что
Х(/) = Ф(г, й+1, Xk+J), (10.6.11)
где Xk+i—максимально правдоподобная оценка, определяемая по pk+l (t, Xt+1).
Основным в алгоритме является соотношение (6), типичное для фильтрации
марковских последовательностей (см. § 7.3, 7.5). Особенность заключается в том,
что наблюдение i;(f) входит в (6) в виде взвешенной суммы Fk +, (Xk +1)
507
(корреляционного интеграла), т. е. /ч+ДХц.]) является достаточной статистикой
от совокупности наблюдений на (Х + 1)-м интервале. В результате оказывается
возможным осуществлять сложное вычисление значений апостериорной п. в. один
раз за T=tk+1 — tk>A в отличие от обычных цифровых алгоритмов, где подобные
вычисления необходимо выполнять в темпе поступления наблюдений Д (порядка
интервала корреляции сигнала).
В частном случае ступенчатой аппроксимации, когда /(/, Х) = 0, т. е.
Ф(/. т, Х) = Х при всех te [/t, tk + i), соотношение (5) становится тривиальным и не
используется, а (6) эквивалентно выражениям (7.5.2), (7.5.5). В другом частном
случае, когда /(/, X)— линейная функция, т. е. /(/, Х) = АХ, используемое в (5)
решение (3) уравнения (1) имеет вид Ф (г, t j+ь Х) = Ф (t — t'k+1) X, где
Ф(1) = ехр(А1)— матричная экспонента и Х(г) = Ф(г— zi+l)Xl+!.
Для дальнейшего упрощения технической реализации алгоритма (5), (6)
можно использовать различные методы аппроксимации для pk+l (t, X) и pk+l (Х1+1),
например расширенный фильтр Калмана. Ограничимся частным случаем гауссов-
ского процесса Х0(г) и выберем /(/, Х) = АХ в (2). Для последовательности Xt+!
справедливо равенство Xt+! =Ф (Г)Xt + nt+и где
'i+1
M{nt, n{} = f exp{A(/t+!-r)}N>.exp{AI(rt+!-?)}dt = D(T).
Итоговый алгоритм фильтрации будет иметь вид, аналогичный (10.1.23), (10.1.24):
Х(/) = Ф(/-/к+1)Хй + 1, (10.6.12)
rk+ 1
2 С G
xl+1=x?+1+Rl+1 — хэ(0)]-х(1, (Ю.6.13)
jVq 1 GK
‘к
‘к+1
, г / \ \ 1 2 Г 5s(t, X3(el5s(l, Хэ(1))
Rfr+!! = [®(T)Rt®T(r) + D(T)]-!+~r -Цт-Ц (Ю.6.14)
/vq 1 Ок G К
*к
где введены обозначения для экстраполированных оценок
X’(/) — Ф (/- / j + ।) Х( ,|, Х£+1 = Ф(гi — н)Х.
Структура алгоритма изображена на рис. 10.16 (матрица Rt + 1 считается
рассчитанной заранее). Входной сигнал ^(г) поступает на блок группирования,
который выполняет роль предпроцессора и формирует корреляционные интегралы
наблюдений. Наблюдения суммируются (интегрируются) с весами 5s (t, V (1))/ЗХ,
Рис. 10.16. Структура алгоритма фильтрации с группированием наблюдений
508
которые зависят от оценок параметров на основе предшествующих наблюдений.
Во втором, основном, блоке фильтрации вычисляется Х1+1. Третий блок служит
для вычисления оценки Х(?) процесса в нужные моменты времени. Каждый
блок работает в своем масштабе времени: первый — в самом высоком темпе,
определяемом дискретностью поступления отсчетов входного сигнала (в том
числе в непрерывном времени при аналоговой обработке), второй—с дискрет-
ностью Т, третий — с требуемой дискретностью вывода X(Z). В этом заключается
отличие от обычных алгоритмов фильтрации, где самый сложный в вычис-
лительном отношении расчет Xt+! по (13) требуется осуществлять в темпе
поступления отсчетов сигнала. В результате существенно упрощается техническая
реализация алгоритмов фильтрации.
Приведем соображения по выбору f(t, X), tk+1 и Т. При малых длительностях
Т интервала группирования справедлива практически любая аппроксимация (в
частности, ступенчатая). Увеличение Т, непосредственно влияющее на эффектив-
ность метода группирования, требует оптимизации f(/, А) и 1к + 1 с целью
уменьшения ошибки аппроксимации e2(z) = X(;) — X0(z).
Известно, что минимум среднего квадрата ошибки 8(0 =
= М {е2(I)е2(I)I A(r1) = Хо(/(+ ]) = /.к + j} при всех /е[Гь, tk+1) обеспечивается, если
Х(1) совпадает с условным м. о.: (Х(/) = Ф(г, lk+1, Хк+ j) = M {X0(r)| A0(rt + () = ').к , J .
Отсюда следует, что
f (1, А) = <5Ф(/, d + i, Х1 + 1)/<Эг =
| 71 (X Г), t | X А (t L J- 1 ) = X L -I- I ) . , . .
= Хо — ----002Ло = м [а /, Х<01 1}, (10.6.15)
J
где а(г, Хо) -коэффициент сноса, связанный с g(/, Хо) соотношением типа (3.6.26).
Если Хо(/)— гауссовско-марковский процесс, то конкретизация (15) дает
f(t, А)=М {g(i, Ао) | О + >} = М {АХ0 I Ч +!} = АХ (г), (10.6.16)
т. е. в этом случае f(/, X) = g(z, X).
Средний квадрат ошибки аппроксимации в (г) при выборе f (г, X) согласно
(15) совпадает с условной дисперсией D(z, G + i) приращения процесса X(z).
Например, для однородного гауссовско-марковского процесса
D(r — t'k+ i) = f ехр {А(1 —т)} ехр {А1 (/ —т)}Л.
Для обычно рассматриваемых в теории фильтрации процессов Х(/) (в частности,
однородных гауссовско-марковских) дисперсия приращения — неубывающая фун-
кция: D(r2 — li + 1)>D(G — t'k+ ।) при | (2 — tk+11 > |G — Д + 1 |. Здесь матричное неравен-
ство понимается в смысле А>В-+А —В>0, т. е. (А —В) —положительно определен-
ная матрица. Отсюда, в частности, следует, что для дисперсий всех компонент
вектора е2(1) выполняется неравенство £>„(г2 — l'k+1Dit(и — t'k+ j). Поэтому на-
ибольшее в указанном смысле значение ошибки аппроксимации достигают на
краю интервала группирования. Оптимизация выбора t'k+^ из условия минимума
наибольшего значения £>(;) на интервале группирования эквивалентна правилу
ri+i=min'I{£»(G+i-^+1), 1 —/fe)}. (10.6.17)
509
Отсюда видно, что оптимум достигается при =(tk+i + tk)/2, т. е. точка
t'k+i должна лежать в середине интервала группирования.
Выбор допустимого значения длительности Т тактового интервала естественно
производить из условия, чтобы увеличение дисперсии полной ошибки c(f) при
использовании алгоритма фильтрации с группированием наблюдений было мало
по сравнению с ошибкой обычного алгоритма фильтрации. Это обеспечивается,
если дисперсия ошибки фильтрации £ i (г) в алгоритме (14) близка к дисперсии
ошибки К4=Ф(Т)КцФт(Г) + В(Г). Кроме того, при выборе Т нужно учитывать
то обстоятельство, что в описанном алгоритме оценка £(г) производится
с задержкой (в среднем на Т/2) относительно момента наблюдения.
10.7. ФИЛЬТРАЦИЯ СЛАБЫХ СИГНАЛОВ
ПРИ НЕГАУССОВСКОМ ШУМЕ
Рассмотрим асимптотический случай дискретной фильтрации
при негауссовском шуме. Пусть обработке подвергаются времен-
ные отсчеты наблюдения
tv = s(tv, kv) + nv, fv+1 —tv=A, (10.7.1)
представляющего собой сумму полезного сигнала s(t, /,(?)) и ста-
ционарного негауссовского шума п (/), имеющего известную
одномерную п. в. Ро(п) с нулевым м. о. и дисперсией £>„.
Предполагается, что шум n(t) для синтезируемой системы можно
считать широкополосным (белым) с известной односторонней
спектральной плотностью N; его отсчетные значения «; = «(/,)
и nj=n(t^ при /V/ приближенно независимы, что может иметь
место, если А превышает интервал корреляции шума n(t).
Отношение сигнал-шум в отсчете p2 = s2(iv, kv)/D„ есть малая
величина (асимптотический случай).
Перейдем от (1) к нормированному наблюдению
^v = JD„-1/2^v=pv+«v, (10.7.2)
где безразмерный шум nv = D ~1/2nv имеет известную п. в.
p(nv) = D^l2po(D^l2nv). (10.7.3)
510
Требуется в дискретные моменты времени +'Л
(рис. 10.17), где Т—интервал группирования наблюдений (Т=ЛМ,
М—число отсчетов на интервале), получить апостериорную п. в.
p(tm, к) информационного параметра к (г). При этом принимается,
что длительность интервала Т не превышает интервала кор-
реляции процесса к (г) и поэтому на каждом интервале Т процесс
Х(г) можно полагать приближенно постоянным.
Применяя методику группирования наблюдений (см. § 10.6),
можем написать1
p(tm, = (10.7.4)
где cm — постоянная нормировки; p(£m-i|X)— функция правдопо-
добия наблюдения х 1 = {^(?v), tve{t,n_r, tm}; ртэ(Х)—экс-
траполированная на один шаг апостериорная п. в., определяемая
p(tml, X) и априорными сведениями об изменении Х(г) на
интервале (?m_b rm).
Поскольку отсчеты шума nv независимы, то функцию прав-
доподобия можно представить в виде произведения
p(t,m-i |Х) = Пр(^|Х) = сехр [£ln/?(^v| X)] = cexp£m(k), (10.7.5)
V
где умножение и суммирование ведется по всем номерам отсчетов
Zv, лежащим внутри интервала tm). Величина
£т(Х) = £1п/7(^|Х), (10.7.6)
V
определяющая вид функции правдоподобия (5), представляет
собой достаточную статистику наблюдаемых отсчетов. Входящая
в (5) функция правдоподобия р(С|Х.) для v-ro отсчета выражается
через распределение шума p(«v) согласно (2):
p^v\k)=p£v-pv). (Ю.7.7)
При достаточно большом числе отсчетов М величина pv,
входящая в (7), имеет порядок
М-1
Р
m
С лЯ1/2
s2(t, ^)dtl-
Раскладывая каждое слагаемое достаточной статистики (6)
в ряд Тейлора в окрестности точки pv = 0, имеем
£"(4=^+L^p.+U/(?.)+o(p.2).
v P\Sv) V
(10.7.8)
1 Харисов В. Н., Кириленко Ю. Н. Асимптотически оптимальные алгоритмы
нелинейной фильтрации в задачах цифровой обработки сигналов // Радиотехника
и электроника.— 1986.— Т. 31, № 8.— С. 1578—1584.
511
где
ЖНЛ^)/ЖЫИ^)/Ш]2}Р-
/(^v) = ^(^v~Pv)/^PvlPv = o,P"(Cv) = ^2/’(Cv-Pv)/^Pvlpv = o
Др2)— бесконечно малая величина, имеющая более высокий
порядок малости, чем р2.
Упростим выражение (8). Согласно центральной предельной
теореме распределение суммы £/(СУ) ПРИ больших М будет
близким к нормальному. Вычислим м. о. и дисперсию этой
суммы. Для м. о. имеем
м{£Ж)|х)}=1м{Д^|к)},
V V
где
00
М{Ж)1Ч= J/(?v)p(^-PvHt. (10.7.10)
Раскладывая p(£v— pv) в ряд Тейлора в окрестности точки
pv = 0 и подставляя (9) в (10), получаем
м{Ж)1М=р.2/{то- ‘p(m.+o(pS)=
— оо
= Pv р" (^v)<v-Pv ^Vy-^v + o(pv)-
Так как
f p"(Q^v=o,
~y2pv+o(pv),
где
y2 = M
HQ
Таким образом,
м{ЕЖ)1М=-у2Ер2+Др2)-
(10.7.11)
(10.7.12)
(10.7.13)
512
Перейдем к вычислению дисперсии
о{ЕЛ)1Ч = Е о{/ОМ,
V V
где
со
В{/ОЧ= f [Ж-М{Ж)|к}]2Ж-рЛ^. (10.7.14)
Разложив p(Cv~ Pv) в ряд Тейлора в окрестности pv = 0 и подставив
(9) и (11) в (14), получим
2
+ Y2
WM4 = pJ
XP(^v)^v + 0(Pv) = P2Pv+<5(Pv),
где Р2 — положительная ограниченная константа.
Таким образом, дисперсия суммы равна
D{E/(Ql^} = 32Epv^32PmaxEPv2, (10.7.15)
V V V
где р^ах — наибольшее отношение сигнал-шум в отсчете на
интервале (rm-15 /т).
Из сравнения выражений (13) и (15) видно, что при ограничен-
ном числе отсчетов М и достаточно малых отношениях сигнал-
шум в отсчете pv дисперсия рассматриваемой суммы имеет
более высокий порядок малости, чем м. о. При этом неравенство
Чебышева дает некоторое основание заменить сумму ее м. о.:
ЕЛ^м{£/да=-да. (Ю.7.16)
V V V
Подставив (16) в (8), получим
MM-c+Z^p.-^2Zp.2.
V Г (Sv) х
или
1 p'(Q
у p(Q
Tm(I) — с+ Е
(YPv)-^(YPv)2
(10.7.17)
Отметим, что при получении этого результата не исполь-
зовался конкретный вид функции правдоподобия (7). Поэтому
результат (17) при указанных выше условиях остается справед-
ливым для функций правдоподобия р | к) общего вида.
Из (17) видно, что в асимптотическом случае достаточная
статистика £т(Х) представляет собой линейную функцию от
эквивалентного наблюдения
17—2247
513
Рис. 10.18. Структура оптимальных алгоритмов фильтрации при негауссовском (а)
и гауссовском (б) шумах
^э = (\1у)д\пр(Щд^, (10.7.18)
£m(k) = c+ £ (t;v3pv3-^pv3), Pv3 = YPv. (10.7.19)
V
Это выражение по своей структуре совпадает с аналогичным
выражением для случая наблюдения полезного сигнала на фоне БГШ:
^G(M = c+Z(^Pv-^Pv2). (10.7.20)
V
Для проверки применим выражение (19) к гауссовскому шуму
с распределением /?(hv) = ./V(0,1), т. е. р(М = (2тг)1/2ехр ( —1^/2).
Нетрудно убедиться, что в данном случае у — 1, ^v3 = ^v, pv3 = pv
и выражение (19) переходит в (20)..
Таким образом, приходим к важному выводу, что структура
оптимального алгоритма фильтрации при негауссовском шуме
(рис. 10.18) в асимптотическом случае отличается от структуры
соответствующего алгоритма для гауссовского некоррелирован-
ного шума наличием дополнительного нелинейного безынерци-
онного элемента с характеристикой, определяемой распределением
входного шума’.
Формальный переход к задаче фильтрации на фоне негаус-
совского шума в непрерывном времени связан с трудностями
задания функционалов правдоподобия для негауссовских процес-
сов. Из физических соображений ясно, что вид структурной
схемы сохранится. При этом условие асимптотической малости
pv для широкополосных (белых) нёгауссовских шумов выполняется
автоматически, так как Z>„-+oo.
Описанный выше подход позволяет просто вычислить точ-
ностные характеристики алгоритма фильтрации в негауссовском
1 Антонов О. Е. Оптимальное обнаружение сигналов в негауссовых поме-
хах//Радиотехника и электроника.— 1967.—Т. 12, №4.— С. 579—587.
514
Рис. 10.19. Плотность ве-
роятности суммарной по-
мехи (а) и характеристи-
ка нелинейного элемента
(О
шуме. Сравнивая выражения (19) и (20), заключаем, что изменение
точности фильтрации в негауссовском шуме по отношению
к точности фильтрации в гауссовском шуме соответствует
изменению отношения сигнал-шум в у2 раз. Коэффициент у2
определяется выражением (12), т. е. законом распределения шума.
Всегда у2 1, причем у2 = 1 для гауссовского шума, что следует
из (6.4.1).
Пример 10.7.1. Фильтрация на фоне гауссовского шума и импульсной помехи.
Найдем характеристику входного нелинейного элемента и определим точность
асимптотически оптимального алгоритма фильтрации сообщения л(?) полезного
сигнала s(r,k(/)), принимаемого на фоне аддитивной смеси стационарного
гауссовского шума щ(г) и импульсной помехи n2(t) с гауссовской п. в., имеющих
нулевые м. о. и дисперсии Dt и Г), соответственно. Сигнал, шум и помеха
предполагаются независимыми. Суммарный шумовой процесс n(t)=nl(t)+n2(t)
имеет негауссовское распределение
Po(n)=PoN(p, Р^ + Р^О, Dj, (10.7.21)
где = 1—Р0—коэффициент, определяющий относительное время действия
импульсной помехи на интервале наблюдения; DI = £>1+P2—дисперсия суммар-
ного шумового процесса во время действия импульсной помехи. Дисперсия
суммарного шума равна D {п(/)} = £>„=Р0Р1 + Р1£>г.
Запишем п.в. нормированного шума (рис. 10.19,а)
р(й) = П'/2ро(Р,1'Я = РоЛ'(0, k^+p.n^ К22), K^D^D»)1'2, K2 = {D2ID„Yt2.
При этом
/г 1
/<v~Pv =-у==СХр
fev-Pv)2'
2Kj
Рг
—; ехр
V2tlK?
(gy-Pv)2'
2К2
На основании (18) находим выражение для характеристики входного нелиней-
ного элемента
Г = 1 Р'(Ы=(fo/-gi)exp(-gv2/2A()+(P1/^^)exp(-gv2/2^^)
7P(Q у(Р0/ЛГ1)ехр(-^/2^)+(/*1/А'2)ехр(-^/2^)-
(10.7.22)
Входной нелинейный элемент (рис. 10.19, б) можно реализовать как усилитель
с регулируемым по входу коэффициентом усиления. При появлении импульсной
515
помехи возрастает сигнал на входе этого усилителя, что приводит к уменьшению его
коэффициента усиления, и обеспечивается нормальная работа оптимального фильтра.
По формуле (12) определяем коэффициент у2 изменения отношения сигнал-
шум по отношению к оптимальному фильтру для гауссовского шума:
2 = _L_ f [(Ро/^Пехр(-^2/2^) + (А/^^ехр(-^/2^2)]2
7 х/2 kJ (Ро/^1)ехр(-^2/2ЛГ?) + (Л/^2)ехр(-^/2^)
— со
Для мощной импульсной помехи (/>,»£>!) большой скважности (Г; «/у,)
выражение (23) упрощается:
СО
, = _L f ,2[Ро/^?)ехр(-^/2^)]2 ^=P2(]+P\dA
J °D' °\ P0Dj-
— 00
Отсюда для р1=0,1 и DzIDl = 10 находим у2=1,7, что соответствует энер-
гетическому выигрышу на 2,3 дБ при оптимальном приеме сигнала из смеси
гауссовского шума и импульсной помехи по сравнению с оптимальным приемом
на фоне гауссовского шума с дисперсией D„.
Пример асимптотически оптимального обнаружения сигнала на фоне нега-
уссовской помехи рассмотрен в1. При этом п. в. помехи принята в виде
Ро («) = 5777^ ехр {-[<р(ц)|п|]'*}, ф(ц) —{Г(3/ц)/£>Г(1/ц)}1/2,
ZJ (i/pj
где Г( )—гамма-функция; ц> 1 /2—коэффициент, характеризующий степень дефор-
мации р0(п) по сравнению с нормальной плотностью (ц = 2) с нулевым м. о.
и дисперсией D. Нелинейное преобразование для ненормированных величин имеет вид
Uk = P4> (nMvT^sgn £v.
Отсюда видно, что для распределения Лапласа (ц=1) нелинейным элементом
является идеальный ограничитель.
10.8. ГРАНИЦА РАО —КРАМЕРА
ДЛЯ ОШИБКИ ФИЛЬТРАЦИИ
В большинстве задач практическая реализация строго оп-
тимального алгоритма (т. е. решение уравнения Стратоновича)
затруднительна и поэтому оптимальные алгоритмы заменяют
квазиоптимальными, получаемыми в результате различных упро-
щений. При этом возникает задача количественной оценки потерь,
обусловленных неоптимальностью фильтрующих систем. Хотя
в принципе это можно сделать с помощью статистического
моделирования на ЭВМ (см. § 9.6), однако получение харак-
теристик оптимальных устройств таким путем обычно оказыва-
ется весьма трудоемким.
1 Lu. N., Eisenstein В. Weak Signal Detection in Non-gaussian Noise of Unknown
Level//IEEE Trans.--1984. Vol. AES-20, № 6,—P. 830—834.
516
Один из путей преодоления этих трудностей состоит в опреде-
лении нижней границы для дисперсии ошибок оценок оптимально-
го фильтра. Если такая граница получена и дисперсия ошибки для
квазиоптимального фильтра близка к этой границе, то тем более
она близка к дисперсии ошибки оптимального фильтра. При этом
использование квазиоптимального фильтра будет обосновано.
При оценке не изменяющихся во времени параметров такая
нижняя граница определяется неравенством Рао — Крамера по
матрице J, задаваемой (6.4.10). Теперь требуется распространить
это неравенство на более общую задачу фильтрации сл. пр.
В принципиальном плане здесь нет особой сложности. Напри-
мер, при фильтрации в дискретном времени достаточно объеди-
нить совокупность временных отсчетов фильтруемого процесса
в вектор £о = {А.о, Хр ..., \,} и использовать неравенство (6.4.11)
для ошибки оценки этого вектора. Однако на этом пути возникают
трудности вычислительного характера, связанные с операцией
обращения информационной матрицы J высокого порядка. Чтобы
избежать эти трудности, в рассмотрение вводится некоторая
«эквивалентная» задача линейной фильтрации в том смысле, что
для нее информационная матрица J совпадает с соответствующей
матрицей для нелинейной задачи. Дисперсия ошибки в эквивалент-
ной линейной задаче меньше или равна дисперсии ошибки для
нелинейной задачи, т. е. является для последней нижней границей.
Дисперсия ошибки в задачах линейной фильтрации легко вычисля-
ется по известным уравнениям (§ 8.1).
Таким образом, рассматриваемый ниже подход является
распространением на задачи фильтрации границы Рао — Крамера,
представленной в форме, более удобной для выполнения расчетов.
Граница Рао — Крамера обычно более точна при малых ошибках
(больших отношениях сигнал-шум). Поэтому следует ожидать,
что и получаемая нижняя граница для задач оптимальной
фильтрации будет точна при больших отношениях сигнал-шум.
1. Дискретное время. Пусть наблюдение и сообщение имеют вид
^v = s(rv, kv) + nov, (10.8.1)
K = g(tv, K-ij+nxv, (10.8.2)
где nov и Пь> — взаимно независимые дискретные БГШ с матри-
цами дисперсий Nov и N>.v, причем теперь они не должны
зависеть от kv. Кроме того, матрица Nov должна быть поло-
жительно определена, а функции s(zv, kv) и g(/v, kv) должны
иметь производные первого порядка по kv.
Введем в рассмотрение «эквивалентную» линейную задачу
с уравнениями наблюдения и сообщения
4v = Hvkv + nov, (10.8.3)
\ = РЛ-1 + шУ, (10.8.4)
517
где матрицы Hv и 0V связаны c s(rv, kv) и g(rv, Xv_1) соотношениями
0v = Mpr{5g(rv, (10.8.5)
НЖ'Н^Мр,
t3g(zv, M
+ Mpr
ds(/v, X.v)
SXv
ад., Bv
ds(z„, у,)
No?
Nfv1
5g(^Avzl)_n 1
(10.8.6)
Здесь Mpr{-} обозначает м. о. по априорному распределению.
Априорная п. в. для «эквивалентной» линейной задачи считается
нормальной A(m0, Doj. причем ее м. о. т() и дисперсия Do
определяются априорной п. в. ppr (л0) для исходной нелинейной задачи:
m0 = f ^QPpr (Хо) dl0, Do = М { - д2 Inppr (10)/ .
Если Xv — одномерный процесс, то утверждается, что дисперсия
ошибки Rv для нелинейной задачи (1), (2) больше или равна
дисперсии ошибки Rlv в линейной задаче (3), (4). Для общего случая
векторного процесса kv справедливо аналогичное соотношение:
Rv^Rl, (10.8.7)
или, иначе, матрица (Rv — Rt) положительно определена: (Rv —R(,)$s
^0. Здесь Rv и R(, — ковариационные матрицы ошибок фильтрации,
например RV = MP.S. {(kv — £v)(kv — XV)T}; их называют также обобщенной
дисперсией. Известно, что из положительной определенности матрицы
А следует неотрицательность ее диагональных элементов: Ац^О.
Применительно к нашему случаю это означает, что дисперсии ошибок
оценок всех компонент вектора к в нелинейной задаче не меньше
соответствующих дисперсий в эквивалентной линейной задаче:
Rv^R'v^Rvli^Rlvii.
Докажем более общий результат, чем (7). а именно: если
R — обобщенная дисперсия ошибок оценки в нелинейной задаче
всего вектора A = {k0, ..., kv}, а не только kv и R(,—дисперсия
ошибок оценки А в эквивалентной линейной задаче, то справед-
ливо неравенство
R^R'. (10.8.8)
Отсюда следует, что результат, аналогичный (7), справедлив
и для интерполяционных оценок, которыми являются компоненты
Х(-(^о), z<v, вектора А(£о).
Зак как согласно неравенству Рао — Крамера R^J1, то для
доказательства результата (8) достаточно доказать справедливость
соотношения
J^J!, (10.8.9)
где согласно (6.4.10) J = —M{52lnp(A, £,o)/dA<5AT}; J' — аналогич-
ная матрица для линейной задачи.
518
Действительно, известно, что если А"1^В“1, то А^В.
(Формально это следует из того факта, что при А^О, В 5= О
справедливо АВ^О и цепочки соотношений
А"1 — В“1^0-»А(А“1-В”1)В^0-»В — А$гО.) Поэтому вместе с не-
равенством Рао — Крамера R>,J 1 справедливо также неравен-
ство R'saJ. Если выполняется (9), то имеем R -1 J=$ J' = (R') ”l.
Из R-1^(R')-1 следует (8).
Чтобы упростить выкладки и записи, не будем подчеркивать
векторный характер Х; и Так как X.v— марковский процесс, то
р(А, ^о)^(Л)77(^о|А)=ррг(Хо)Пр(Хг|Х;_1)Пр(^|Х/) (10.8.10)
1=1 1=1
или
1пр(Л, ^о) = 1пррг(Хо) + £ [1пр(Хг|А.г_1) + 1пр(^|А.,.)],
i=l
где согласно (1) и (2)
р (^ | Х;) = с! ехр {- (1 /2) - 5 (ti, Х;)] 2 N ф1},
P(^l^-i) = c2exP{-(1/2)[^,-g(?i, Vi)]2^-?},
q и с2 — нормировочные постоянные.
Для линейной задачи выражение для /Р(А, ^о) совпадает
с (10), только теперь согласно (3) и (4) имеем
p^(^|\) = C1exp{-(l/2)fe-ЯЛ)2^o;1},
р'(М\-1) = с2 ехр {-(1 /2)(Х;-t)2 Л\“4}.
В результате вычислений находим ненулевые члены, которые
после осреднения входят в матрицу J:
_ a2 inр (л, _ a2 in р (х,. । х,-_ J -1 4.-1) _
ах^х,-^ ах.-ах^,. u ax,_i
a2in/?(xi|xi_1) a2in/7(x,+i |х,-) а21пр(^,.|Х) 1< <; (10 8 11)
ax? ax? ax? ’ v • i
a2in/7(A, %o)_ a2inp(xf।x,-_i) a2in/7(x,-+11x,) a2in/7(ix|x,) _
ax? ” ax2 ax? ax?
г, [x!+., л,)]
, S2s(ti, X.;) , r„ , „ ds(ti, X) , ds(ti, X;)
+w- —kr1*51 '‘-V+
A-Noi1, l^iXv, (10.8.12)
_ ainp(A, ^o) = _ a2inp(xv|xv-;) _ a2in/7fev|xv) = _ t
ax2 ax2 ax2 Xv +
+^A)7V-1M^XJ + 7V (10.8.13)
519
Для — д2 In(Л, ^о)/^^о в выражении (12) появится дополнитель-
ный член — д21пррг(Х,о)/ЭХ,о.
В случае линейной задачи имеем
-d^n^A^WVi^u1!^ 1</<V, (10.8.14)
-а21пр(А, + + + (10.8.15)
- а2 inp(A, ^)/алКкКгкл0;,'к,--лк. (ю.8.16)
При вычислении м. о. от выражений (11)...(13) с п. в. р(А, ^о)
в (13) два члена, содержащие БГШ, равны нулю, так как
M{Xi+1-g(ri+1, А.;)} = М {лх ; + 1} = о,
М{^-5(/;, Хг)}=М{ио;} = 0.
Сравнивая (11)...(13) с (14)...(16) и учитывая (5) и (6),
заключаем, что все элементы матрицы J равны соответствующим
элементам матрицы J', кроме элемента (vv), для которого
Jlv-=М|Г*-рЛк;1 Г-PvlU0.
(L K-i _ L К-i JJ
Отсюда следует выполнение соотношения (9) и справедливость
неравенства (8). Результат (7) для Rv получается из доказанной
положительной определенности матрицы R —R‘K0.
2. Непрерывное время. В этом случае уравнения наблюдения
и сообщения имеют вид
^(/) = s(r, k)+n0(r), (10.8.17)
dk/dt = g(f, k) + njr), (10.8.18)
где n0(r) и пД/)— независимые БГШ с матрицами спектральных
плотностей N0(z) и Nx(r), которые не зависят от к (г), причем
N0(r) положительно определена, a s(z, к) и g(r, к) имеют произ-
водные первого порядка по к.
Запишем исходные уравнения для задачи линейной фильтрации
^(r)-H(r)X + n0(r), (10.8.19)
б/к/Л = Ф(г)к + пх(г). (10.8.20)
Здесь Н(/) и Ф(г) связаны с s(r, к) и g(z, к) соотношениями,
аналогичными (5) и (6):
Ф(г)=мрг{аё(г, к)/аг},
HT(r)No1(?)H(r) = Mpr
^)-Ф(г)
аг 1 7
К Дг) х
og(0 k)
аг
Ф (oil+Мрг |Г Т No 1 (0 Г
' ’ I I аг ' ’ ок ।
(10.8.21)
(10.8.22)
520
где Mpr{-}—м.о. по априорному распределению к. При этом
априорная п.в. для к0 = к при / = 0 нормальная N(m0, Do); ее
м. о. ш0 и дисперсия Dq связаны с априорной п. в. исходной
нелинейной задачи /?рг(к0) соотношениями
m0 = f l0Ppr (к0) d к0 = М {к0}, Do = М {- д2 In ррг (к0)/дкпдк?>} •
Матрица дисперсий ошибок R(/) фильтрации процесса к(/)
в нелинейной задаче (17), (18) ограничена снизу матрицей ошибок
фильтрации R((z) в линейной задаче (19)...(22):
R(z);sR((z). (10.8.23)
Аналогичный результат справедлив и для задачи интерпо-
ляции.
Не вполне строгое обоснование этого результата можно
получить предельным переходом в доказанном выше неравенстве
(8) для дискретного времени. Действительно, рассмотрим задачу
(1), (2) для некоторого момента времени tv=t. Обозначим
A = zv — rv_15 kv = k, ky^^k', и рассмотрим следующее задание
параметров уравнений (1), (2):
g('„ Vi) = g('v, k') = k' + g(7-A, k')A, (10.8.24)
s(zv, kv) = s(zv, k) = s(z, k), (10.8.25)
NOv = No(z)/A, Nkv = Njz)/A, (10.8.26)
где последние соотношения соответствуют при А->0 следующему
заданию дискретных шумов:
^Ov
л0(т)(7т, nlv =
t~ A
t-Д
Выражения (24)...(26) составлены так, чтобы при А->0 обес-
печивался переход от уравнений (1), (2) к (17), (18). Действительно,
при А -> 0 получаем
( Д 1 v-1j д
g(Z, к), к'->к,
(10.8.27)
NOV-NO(Z), iN^Njr).
Коэффициенты эквивалентной линейной задачи в дискретном
времени находим подстановкой (24)...(26) в (5) и (6):
pv=м ШЛтЛ=1 + мрг А,
(10.8.28)
521
HJNoM = AMpp f Г - мрг T Nf1 * (l) X
I GK I OK |
3g(t-A, X') pg(t-A, X'O ,M Jp^MTN-4z)^M)l д
x ~ ax- - ^ J JJ pr IL sv J ° ЙГ J
(10.8.29)
При A-+0 из (28) следует (21)
Mpr
M' ,£=м Р^-^1==Ф(г
л ₽г[ ахт J '
а (29) переходит в (22).
Таким образом, составлена задача в дискретном времени,
которая при А->0 переходит в исходную задачу в непрерывном
времени. Для полученной задачи в дискретном времени дисперсия
ошибки ограничена снизу: RV^R(,, где R'—дисперсия ошибки
в линейной задаче фильтрации с параметрами (28), (29). При
А->0 получившаяся линейная задача в дискретном времени
переходит в задачу (19)...(22) в непрерывном времени. Соотноше-
ние (7) справедливо при любом А, в том числе и при А->0.
Отсюда приходим к справедливости неравенства (23). Существует
более строгое доказательство этого результата1.
3. Фильтрация гауссовских процессов при нелинейном наблюде-
нии. Пусть фильтруемый гауссовский процесс описывается
линейным уравнением вида (8.1.59), а уравнение наблюдения
имеет вид (17), где полезный сигнал является нелинейной
функцией от Л(/).
Согласно результату п. 2 нижняя граница для матрицы
дисперсий ошибок фильтрации (и интерполяции) совпадает с дис-
персией ошибок R' в задаче линейной фильтрации с уравнением
наблюдения
£(l) = H(l)X(l)+n0(l),
где в данном случае
PTN01H = Mpr
3s (/, X)
3XT *
No1
3s (t, X)
"ax7”
Для R!(i) из последнего уравнения '(8.1.61) имеем
7R' . , , (FasO, Х)1\т_, 3s(t, X)]
^=nx+ar'+r'at-r'mJ No
at / ok ok |
(10.8.30)
1 Bobrovsky B. Z., Zakai M. A Lover Bound on the Estimation Error for
Certain Diffusion Processes//IEEE Trans.— 1976.— Vol. IT-22, № 1.— P. 45—52.
522
Сравнивая это уравнение с уравнением Риккати (10.1.12) для
корреляционной матрицы ошибок расширенного фильтра Кал-
мана, получаемого при применении гауссовской аппроксима-
ции к нелинейной задаче, замечаем, что они отличаются по-
следними членами в правой части; в фильтре Калмана отсут-
ствует м. о.
as (г, 1)хт-! as (г, 1)
----------------
Мрг
ds(t, x)M-i asp, х)
аг 0 аг
аг
(10.8.31)
Поскольку осреднение в (30) производится с априорной п. в.,
определяемой для любого t априорным уравнением (20) в от-
сутствие наблюдения (Я (() = (}), то оно оказывает большее влияние
на начальном интервале времени (в переходном режиме) и меньше
сказывается в дальнейшем (в частности, в стационарном состо-
янии). Для многих задач в (31) выполняется приближенно или
точно равенство.
Известно, что при малых ошибках оценки Х(г) гауссовская
аппроксимация становится точной. Поэтому уравнение Риккати
для расширенного фильтра становится точным и широко ис-
пользуется для оценки дисперсии ошибки квазиоптимальных
фильтров. При этом для получения решения входящий в него
член из правой части (31) приходится осреднять по £(/). Часто
эту операцию выполнить точно затруднительно. Использование
других алгоритмов гауссовской аппроксимации, отличных от
расширенного фильтра Калмана, не улучшает положение. В по-
добных случаях представляется более удобным и строгим ис-
пользование границ Рао — Крамера.
Дисперсию ошибки Rl(i), рассчитанную по формуле (30),
можно использовать для характеристики качества работы квази-
оптимальных фильтров не только в линейной области малых
ошибок фильтрации, но и в нелинейной области больших ошибок,
имеющих место при малых отношениях сигнал-шум. В этой
области Rf(z) определяет только нижнюю границу дисперсий
ошибок квазиоптимальных фильтров. Дисперсия R'(z) дает также
нижнюю границу для любых других алгоритмов оценки вектор-
ного процессе! !(/) или его любой компоненты.
Пример 10.8.1. Ошибки фильтрации при приеме сигналов с угловой модуляцией.
В системах радиосвязи с угловой модуляцией (фазовой — ФМ или частотной —
ЧМ) и при когерентном приеме радиосигналов возникает задача фильтрации
с уравнением наблюдения вида
Е, (г) = Л 0 cos [сооГ + ф (г)] + п0 (г),
где <р(г)—компонента (для определенности—первая) гауссовского процесса Х(г).
удовлетворяющего уравнению (18).
Нижняя граница для дисперсии ошибки фильтрации определяется уравнением
(30), в котором
523
м{|Н1И
Рис. 10.20. Соотношение
между дисперсией ошибки фильтрации А приведенной
фазы и ее границей R1
2
—-М {[ —Ло sin(coo14-<p)]2} 0...0
Ло 0 0...0
A2o/No 0...0
О 0...0
.............о
О 0...0
0 0...0
Для данного примера в (31) выполняется знак равенства.
Следовательно, в рассматриваемой задаче приема сигнала с угловой мо-
дуляцией на фоне белого шума граница Рао — Крамера задается уравнением
Риккати для расширенного фильтра Калмана.
Чтобы оценить близость реальных результатов к нижней границе Рао —
Крамера, зададим фазу <р(/) винеровским процессом:
rf<p/<7/ = nv(/). М{иф(/1)лф(г2)} = (^/2)5(г2-/1).
При этом уравнение (30) для граничной дисперсии ошибки принимает вид
dR'ldt=Nv/2~(A20/N0)(R')2.
На рис. 10.20 представлена зависимость стационарной граничной дисперсии
R'sl от отношения сигнал-шум q = A5/N0Nlf. Здесь также приведена зависимость
А„—стационарной дисперсии ошибки фильтрации фазы, приведенной к интервалу
[—л, л]. Она получена математическим моделированием оптимального алгоритма
524
Рис. 10.21. Зависи-
мость отношения дис-
персии ошибки
фильтрации к ее ниж-
ней границе от време-
ни для нескольких от-
ношений сигнал-шум
Iff -
9 -
8 -
1 Z 3 9 5 6 7 8 9 10 11 12 13 19 t,С
на ЭВМ. Как и следовало ожидать, обе кривые сходятся при больших значениях
q (малых Rsl). Для таких q дисперсия Rst достигает границы Рао — Крамера
R'st. В области малых q (больших ошибок) кривая Rsl выше границы.
На рис. 10.20 для случая Яф = 0 (<p(t) = const) представлены зависимости R(t]
и R'{t) от времени в переходном режиме. При Г-юо обе кривые стремятся
к нулю, причем при малых значениях ошибок R(t) и R'(f) практически
совпадают: R(t
Пример 10.8.2. Граница Рао—Крамера при фильтрации негауссовского процесса’.
Пусть по линейному наблюдению
Яо/2=1
фильтрации подлежит негауссовский процесс X (/), заданный уравнением
<7X/A = thX + nx(t), Л\/2=1, Х(0)=0.
Сформулированная задача является частным случаем примера 9.1.2, для которого
было получено аналитическое решение. Поэтому можно сравнить точное значение
дисперсии ошибки (см. рис. 9.1) с нижней границей Рао — Крамера.
Запишем для данного примера «параметры» эквивалентной линейной модели
(19).-(22):
ф (г) = Mpr {5th X / 5Х} = Mpr {ch ~ 2 X},
Н (t) = [Я 2 + Mpr {[5 th X / 5Х - Ф (t )]}]1/2.
Здесь м.о. берется с априорной плотностью вероятности для каждого t, которая
получается из выражений (9.1.49) и (9.1.50) в отсутствие наблюдения, т. е. при
Н=0. Из (9.1.49) с учетом того, что Х(0) = 0, следует m(t) = 0, Rl(t) = t и априорная
п. в. принимает вид
ppr(t, Х) = [7У(г, t)]/2 = exp( —X2/2t—t/2)chX,
где X и t—безразмерные величины.
1 Zeitenni О. On the Tightness of Some Error Bounds for the Nonlinear Filtering
Problem//IEEE Trans.— 1984. Vol. AC-29, № 9. P. 854—857.
525
Вычисляя численным интегрированием Ф(?) и /7 (г) и подставляя их
в уравнение
dR'/ж=\r'—H2(t)(R')2,
можно получить /?'(;).
На рис. 10.21 представлен характер изменения во времени отношения
Л(;)/А'(1). Видно, что при Г-»оо дисперсии R(t) и R'(t) стремятся к совпадению
при любом значении Н, т. е. при любом отношении сигнал-шум q — H2. При
Н>{ дисперсия ошибки фильтрации R(t) практически совпадает с границей
А'(1) при всех t. Для Н< 1 (малые отношения сигнал-шум) отклонения R(t)
от Rl(t) могут достигать 2 (при Н=0,2) и более раз.
Данный пример показывает, что и для негауссовских процессов степень
приближения к нижней границе существенно зависит от отношения сигнал-шум.
При не слишком малых отношениях сигнал-шум граничное значение
можно использовать в качестве оценки дисперсии ошибки фильтрации.
Глава 11. ПРИМЕРЫ СИНТЕЗА СИСТЕМ
Много конкретных примеров синтеза различных квазиоп-
тимальных радиотехнических систем на базе теории фильтрации
можно найти в книгах (например, по радиосвязи [7], по
радиолокации [8], по радионавигации и др.)'. Ниже рассмотрено
несколько самостоятельных примеров из области радиосвязи,
радионавигации и радиолокации. Методика и результаты их
решения, с одной стороны, иллюстрируют применение изложен-
ных ранее общетеоретических положений к решению прикладных
радиотехнических задач и, с другой стороны, представляют
практический интерес.
11.1. АЛГОРИТМЫ ЦИФРОВОЙ ОБРАБОТКИ
СИГНАЛОВ
Благодаря быстрому развитию микроэлектроники и появлению быстродей-
ствующих и многофункциональных цифровых элементов стало возможным
использование цифровой обработки не только в крупных радиотехнических
комплексах, но и в сравнительно простой аппаратуре. При этом естественно
возросла роль задач, связанных с синтезом и исследованием оптимальных
алгоритмов приема сигналов, ориентированных на использование цифровой
обработки.
1 Амиантов И. Н. Избранные вопросы статистической теории связи.— М.:
Сов. радио, 1971.—416 с.
Ярлыков М. С. Статистическая теория радионавигации.— М.: Радио и связь,
1985.-—434 с.
526
Рис. 11.1. Представление аналого-цифрового преобразования
Основной спецификой цифрового приема сигналов является преобразование
аналогового наблюдения £,(;) в цифровую форму. Процесс преобразования
включает два этапа: дискретизацию по времени и дискретизацию по уровню
(квантование). Процессы дискретизации и квантования осуществляются в аналого-
цифровом преобразователе (АЦП — рис. 11.1), состоящем из дискриминатора, на
выходе которого наблюдаются временные выборки c,v = £(/„) входного процесса,
и квантователя с некоторой характеристикой qv (E,v), преобразующего непрерыв-
нозначную выборку в выборку qv с конечным пронумерованным множеством
состояний. Сигнал qv, дискретизированный и по времени, и по уровням,
называется цифровым.
Аналого-цифровой преобразователь характеризуется двумя основными пара-
метрами: периодом дискретизации по времени A = tv+1 — tv и характеристикой
квантователя gv(E,v). Основными параметрами квантователя являются пороги
квантования. Если цифровой сигнал имеет М возможных значений, то пороги
квантования удобно перенумеровать hly h2, Лм-i- При этом г'-е состояние
цифрового сигнала qv реализуется в том случае, если аналоговая выборка c,v
попадает между /г, _гм и Л;-м порогами.
Рассмотрим задачу нелинейной фильтрации при наблюдении цифрового
сигнала. На входе квантователя АЦП действует дискретный во времени процесс
^ = ^,(M + «Ov, (Н.1.1)
где jv(Xv)=j(fv, X(fv))—отсчеты полезного сигнала, зависящие от информационного
параметра Xv = X(rv); nOv—дискретный БГШ с дисперсией Dnv = D0. Примем, что
kv — марковская последовательность, описываемая п.в. перехода /’(Av|Avl).
С выхода АЦП наблюдается последовательность квантованных отсчетов
?i = {?i>?2> —, Vi, qv}- Задача заключается в получении для каждого момента
времени апостериорной п.в. pv(X.)=p(tv, k| q\).
Напомним, что рекуррентные соотношения (7.2.7), (7.2.8) при дискретной
фильтрации в сокращенном виде можно записать так:
Pv(X) = CP(£v|k)Pv,(X).
(11.1.2)
527
Здесь р„,(Х)— экстраполированная на один шаг апостериорная п. в., определяемая
(7.2.8); р (E,v | X)—одношаговая функция правдоподобия
/?ftvl^) = (2’t£>o)-1/zexp{-sv(X)2}. (11.1.3)
Уравнение для апостериорной п. в. при наблюдении цифровой реализации
будет иметь вид, аналогичный (2):
pv(X) = cp(9v|X)pV3(X). (11.1.4)
Единственное отличие алгоритма фильтрации по цифровому наблюдению от
(2) заключается в специальном виде функции правдоподобия квантованного
отсчета qv. Теперь p(?v|X), равная условной вероятности принятия квантованным
процессом qv одного из М значений, совпадает с вероятностью попадания
гауссовской сл. в. E,v в один из интервалов (Л;. 1; /г;):
9v = A (11.1.5)
\ ТА) / \ Д / /
где ЛФ( ) — обозначение разности интегралов вероятности Ф().
Видно, что функция правдоподобия цифрового сигнала зависит от рас-
положения порогов квантователя АЦП.
Итак, соотношение (4) представляет собой общее уравнение оптимальной
нелинейной фильтрации при наблюдении цифрового сигнала. Единственная
особенность этого алгоритма—специфический вид функции правдоподобия. Эта
особенность связана со специальным видом цифровых отсчетов, наблюдаемых
на выходе квантователя.
Непосредственная реализация алгоритма (4) связана с решением разностного
уравнения и поэтому затруднительна. Проиллюстрируем особенности обработки
цифрового наблюдения на частном примере различения противоположных сиг-
налов для случая бинарного квантования. Бинарный квантователь (рис. 11.2)
имеет один нулевой порог и два фиксированных уровня (для определенности ±1).
Рассмотрим задачу проверки двух статистических гипотез, когда на входе
квантователя действуют соответственно дискретные процессы
H1:^v = sv + nOv; Но-.^= -s„+nOv.
Гипотезы и Но считаются априорно равновероятными: дрг(/7, (//0)= J/2.
По наблюдению N квантованных отсчетов qt, ..., qN требуется принять
оптимальное решение о том, какая из гипотез, //, или Но, имела место.
Известно, что оптимальный алгоритм состоит в сравнении отношения
правдоподобия с единичным порогом:
Рис. 11.2. Характеристика
бинарного квантователя
р{дЧ\Н^
Р^\но)но
(11.1.6)
Поскольку шумовые отсчеты rcOv независимы, то
совместные вероятности в числителе и знаменателе
выражаются через вероятности отдельных значений qt:
I _ пЖ1я1)^
528
Удобнее сравнивать с порогом логарифм отношения правдоподобия:
N Н,
1п/я = Z [1пЖ I "о)] 5 0.
V=1 Но
(11.1.7)
Для вычисления входящих сюда функций правдоподобия воспользуемся
выражением (5):
д(?„=1 |Я1)=
^=-11^) =
h/= со
Я.-1=0
/г, = 0
Л,-1 = — со
= 1-Ф(--^=)=Ф(-^=
\ W хуЯо.
'dJ
Ж=1|Яо)=Ф
?у
Эти выражения можно объединить в одну компактную запись
Р^\Н}) =
ф(?а£>01/2),;=1.
®(-?vjvz>6’t/2),7=o.
(11.1.8)
Подставив (8) в (7), запишем алгоритм различения в следующем виде:
N Н.
X g^yPo1'2) о, (11.1.9)
’=1 Яо
где g(x) = ln®(x)—1пф(—х). График этой функции приведен на рис. 11.3.
Учитывая тот факт, что функция g(x) нечетная, а принимает два
значения +1, квантованное наблюдение а, в (9) можно вынести за знак
функции. При этом окончательное вы-
ражение для оптимального алгоритма
различения примет вид
N Нх
£ gyg(M>0-1'2) £ 0. (11.1.10)
Яо
Структурная схема, реализующая ал-
горитм (10), изображена на рис. 11.4, а.
Она имеет две особенности, отличающие
ее от схемы алгоритма оптимального
различения противоположных сигналов
по непрерывным отсчетам E,v (рис. 11.4,6):
1) очень простая операция умножения,
которая сводится к сохранению или из-
менению знака опорного сигнала в за-
висимости от знака отсчета E,v (в этом
основное достоинство схемы); 2) наличие
нелинейного элемента на выходе гене-
ратора опорного сигнала.
18—2247
529
Рис. 11.4. Структурные схемы оптимального различения бинарных цифровых
сигналов («) и непрерывнозначных отсчетов (б)
Ясно, что схема рис. 11.4, а чувствительна только к знаку наблюдения и не
учитывает его абсолютную величину. Из-за наличия нелинейного элемента
в достаточной статистике более мощные отсчеты сигнала учитываются
с большим весом. Следовательно, нелинейный элемент оптимальным образом
компенсирует сильные искажения аналогового сигнала при бинарном квантовании
его.
Наличие нелинейного элемента усложняет структуру оптимального алгоритма.
В связи с этим имеет смысл произвести некоторые упрощения его. Они возможны
при следующих разумных предположениях:
1) число N наблюдаемых отсчетов довольно велико, а отношение сигнал-
шум на интервале наблюдения
Qu— X
v= 1
ограничено. При этом отношение сигнал-шум в отсчете Qv = sllD0 мало;
2) функция #(х) линейна в довольно широком интервале около нуля
и отношения sv/£>J/2 попадают в пределы линейного участка характеристики
нелинейного элемента. В этом случае нелинейный элемент в оптимальном
алгоритме (10) можно исключить и упрощенный алгоритм представить в виде
(рис. 11.5)
(11.1.11)
V=1 Но
Рис. 11.5. Упрощенная схема
оптимального различения би-
нарных цифровых сигналов
530
Оценим потери точности цифрового алгоритма различения (11), возникающие
за счет квантования аналогового сигнала. Для этого вычислим полную вероятность
ошибочного приема ре этого алгоритма
Ре = [/*(/«>ОI Яо) + Р(/,• <ОI Я,)] РМ. (11.1.12)
Для вычисления ре нужно знать условные распределения Д. Воспользуемся
сделанным выше предположением о большом числе отсчетов N. При этом
число слагаемых в сумме (11) велико, эти слагаемые независимы и согласно
центральной предельной теореме распределение Д стремится к нормальному
закону. Можно убедиться, что параметры этого закона распределения равны
М{Д |Kj}= —М{Д|Я0} = f [2Ф(М>о1/2)-фу = ,щ
Г1 (11.1.13)
О{Д|Я,}=В{Д|Н0} = 4 X Ф^£»о1'2)Ф(-5уРо1'2)5уг=Р.
v= 1
При таких параметрах выражение для вероятности ошибки дается известной
формулой
рс,= 1-Ф(ч/ш27Й), (11.1.14)
где
{£ [2Ф(гу£>о 1,2)-1]^о 1/2}2
т _ У= 1__________________________
D 4 £ Ф(^Ро1/2)Ф(-^о1У2)^2Ро1
v= 1
Последнее соотношение можно упростить, учтя, что при ограниченном отношении
сигнал-шум Qn на интервале наблюдения и достаточно большом числе N отсчетов
отношение svD о 1/2 стремится к нулю. Если разложить интегралы вероятности
Ф(-) в числителе и знаменателе в ряд Тейлора в окрестности точки svDo1,2 = 0,
то получим
т2 [2Ф'(О)£>о* X Jv]2 + o(£>o’24) „
--------------------------«4[Ф'(О)]2По 1 X
По1 X*v2 + o(£o20
V=1
Подставив это выражение в (14), имеем
Л»1-Ф(ч/2е,/4 (11.1.15)
Из сравнения этой формулы с выражением вероятности ошибки при
дискретной обработке в отсутствие квантователя
Qn^Do1 X ’v,
v—1
следует, что использование бинарного квантователя эквивалентно уменьшению
отношения сигнал-шум в л/2»1,6 раз (<ь на 2 дБ).
531
Укажем асимптотически оптимальный алгоритм цифровой фильтрации (при
малых отношениях сигнал-шум в отсчете) вне связи с конкретной задачей.
Преобразование оптимального алгоритма (4), (5) в этом случае выполняется
так же, как в случае фильтрации на фоне негауссовской помехи (§ 10.7).
Результирующий алгоритм имеет вид
(н.1.16)
где p(?v|X) = cexp{(Z>0/y2)-1 |7vsv(X)-sj?(X)/2]}, (11.1.17)
. = = у/Рр АФ'(0, 9,)
У2 P(<7vlM У2 ДФ(0, <7v) ’
у2 = М{[1п'ЛФ(0, 9v)]} = X [ЛФ'(0, 9v)]2/A®(0,9v). (11.1.18)
«,== 1
Структура алгоритма совпадает со структурой алгоритма фильтрации на
фоне негауссовской помехи (рис. 10.18, а), т. е. совпадает со структурой алгоритма
для неквантованного наблюдения, на входе которого включен нелинейный
элемент с характеристикой (18). Аналогами непрерывнозначных отсчетов
в асимптотическом алгоритме цифровой фильтрации являются выборки qv,
однозначно связанные с целочисленными значениями qy = i=\,M с выхода
квантователя соотношением (18). Укажем, что величины qy, из которых форми-
руется достаточная статистика, в асимптотическом случае к.Щ 1/2-+0) связаны
с наилучшими (в смысле минимума среднего квадрата) оценками непрерывно-
значных отсчетов по их квантованным наблюдениям
t = М {£,v I qy} = D J'2 [In ЛФ (0,9v)] '. (11.1.19)
С учетом определения у2 дисперсия величины qy равна
М {<72} = (Р0/у4)М {[In' ЛФ(0, <?v] 2} = Z>0/у2. (11.1.20)
Таким образом, асимптотические алгоритмы цифровой фильтрации удобно
трактовать как обычные алгоритмы дискретной фильтрации, в которых учет
квантования сводится к предварительной оценке непрерывнозначных отсчетов,
действующих на вход квантователя. При малых отношениях сигнал-шум в отсчете
syD о 1,2 дисперсия таких оценок совпадает с увеличенной в 1/у2 раз дисперсией
непрерывнозначных отсчетов и все влияние квантователя выражается в эк-
вивалентном увеличении в 1 /у2 раз дисперсия шума Do.
Из-за эквивалентности алгоритмов дискретной и цифровой фильтрации
в асимптотическом случае вопрос о применимости различных аппроксимаций
для апостериорного распределения при цифровом наблюдении сводится к задаче
обоснования применимости соответствующих аппроксимаций для решения задачи
дискретной фильтрации. При реализации приближенного алгоритма цифровой
фильтрации (например, расширенного фильтра Калмана) структура приближенного
алгоритма остается в основном прежней, только оптимальный фильтр заменяется
квазиоптимальным. Функцию qy(qy), определенную на множестве целочисленных
значений <?V=1M, удобно реализовать в виде запоминающего устройства с ад-
ресным входом qy, подключенным к выходу АЦП.
532
Рис. 11.6. Зависимость диспер-
сии шума квантования от числа
уровней при равномерных поро-
гах
Проанализируем потери асимптотически оптимальных алгоритмов фильтра-
ции. Как отмечалось, асимптотически оптимальный алгоритм цифровой фильтра-
ции имеет энергетический проигрыш по сравнению с дискретным алгоритмом,
выражающийся в увеличении в 1/у2 раз дисперсии входного шума. Эти потери
легко подсчитать по формуле (18). Например, при бинарном квантовании (М=2,
Л[ = 0) получим у2 = 2[ЛФ'(0, 1)]2/ЛФ(0, 1) = 2/п, т. е. приходим к результату (15).
В общем случае потери за счет квантования, как следует из (18), зависят от
расположения порогов. Известно [2], что минимум выражения (18) обеспечивается при
расположении порогов, соответствующих так называемому оптимальному гауссовско-
му квантователю, детально описанному в литературе1. Значения оптимальных порогов
и соответствующие значения у2 приведены в [2]. Использование четырехразрядного
оптимального квантователя (М = 16, 1 /у2 «0,05 дБ) практически не вносит дополни-
тельных потерь по сравнению с чисто аналоговой обработкой. Если выбрать
равномерную шкалу порогов квантования и оптимизировать шаг квантования, то
дополнительные потери, возникающие при этом, не превышают 0,013 дБ.
В задачах анализа при оценке потерь, приходящихся на квантование, часто
пользуются классическим представлением квантованного сигнала в виде суммы
неквантованного сигнала и шума квантования, имеющего равномерное рас-
пределение. Такое представление допустимо и в задачах синтеза асимптотических
цифровых алгоритмов фильтрации. Действительно, увеличение дисперсии входного
шума Т>0/у2, характеризующее влияние квантователя, можно трактовать как
действие независимого от n0(t) шума квантования с дисперсией
£»kb = -Do/Y2-£»o = £»o(1/Y2-1)- (11.1.21)
Для гауссовского шума наблюдения n0(t), используя (18) и (21), можно показать,
что при достаточно большом числе уровней М квантователя с равномерной
шкалой порогов = + й(Л/-> оо, /г£>о1/2-»0) дисперсия шума квантования
стремится к Л2/12. Зависимость дисперсии /Д„ от числа уровней М показывает
(рис. 11.6), что в рассматриваемой задаче синтеза значением £>кв = Л2/12 можно
пользоваться практически при М> 50. Для квантователей с малой разрядностью
дисперсию шума квантования можно рассчитать точно по формулам (18), (21).
1 Max J. Quantizing for Minimum Distortion//IRE Trans.—1960.— Vol. IT-6,
№ 1,—P. 7 12.
533
Результаты исследования количественных характеристик асимптотических
цифровых алгоритмов для типовых задач имеются в литературе1.
Пример 11.1.1. Расчет потерь при различении биполярных сигналов. Процесс
аналого-цифрового преобразования связан с потерями за счет временной диск-
ретизации наблюдения и квантования его по уровням. Вычислим раздельно эти
потери для частного примера—различения противоположных сигналов на фоне
гауссовского экспоненциально коррелированного шума по бинарно-квантованным
выборкам наблюдения.
Пусть на вход временного дискретизатора в течение времени Т воздействует
сл. пр.
£(z) = s(0) + >i(z), O^zsST. (11.1.22)
Здесь j(0) — полезный постоянный сигнал, который в зависимости от инфор-
мационного параметра 0 может принимать на интервале [О, Т ] положительную
или отрицательную полярность: .$ (0) = .у при 0=1 и .v(0)= — .v при 0=0. Значения
случайного параметра 0 = {О, 1} полагаются равновероятными. Шумовой процесс
n(z) предполагается гауссовским стационарным с нулевым м. о. и корреляционной
функцией А(т) = 7)ехр(—а|т|), D = a.N0/4, где No— односторонняя спектральная
плотность БГШ, формирующего процесс n(t).
Во временнбм дискретизаторе периодически, в моменты времени zv=zv_|+A,
берутся выборки из реализации сл. пр. (22): E,v=5(0)+ziv. По принятой реализации
^7 = {5,1, ..., требуется получить оценку параметра 0. Здесь А=[77Д]— число
отсчетов на интервале наблюдения.
Алгоритм оценки по критерию минимума вероятности полной ошибки
различения имеет вид
0 = тах“1{1пр(^|0)}. (11.1.23)
а
Здесь р(Е,1'|0) — функция правдоподобия, которую удобно представить следующим
образом:
' 1 °)= (27t£>)A,'2(l-p2)<iv^T»iеХр Х
N
f (i-p2)(^-4o))2+ х К,-^(е)-Р(^-!-5(0))]\
4---------------------’ (11J -24)
где р=ехр (—осЛ)—коэффициент корреляции между соседними шумовыми от-
счетами.
Подставив логарифм функции правдоподобия (24) в (23) и произведя
упрощения, получим
6 = max-1{(l-P2)^(9)+ Z
О v=2
1 Харисов В. Н., Кириленко Ю. Н. Асимптотически оптимальные алгоритмы
нелинейной фильтрации в задачах цифровой обработки сигналов//Радиотехника
и электроника.—1986.—Т. 31, № 8.— С. 1578—1589.
534
Отсюда получаем следующее правило различения:
N 6=1
(11.1.25)
v=2 е = о
которое при необходимости можно представить в симметричной форме:
/«=^+(1-₽)Е Wn ^0
v=2 0 = 0
Поскольку статистика определенная (25), имеет нормальное распределение
и ее условные м. о. M{/iv|0}=5(0) [У(1 —р) + 2Р] при различных гипотезах
0 противоположны, а дисперсии D {/N10} — D (1 + Р) [У(1 — Р)4-2р] равны между
собой, то полная вероятность ошибки различения
А=1-ф(х/а).
(11.1.26)
где
(11.1.27)
_(М{/„|0})2 52[7У(1-Р) + 2Р]
D{Zw|0} Z>(l + ₽)
Параметр Qd можно трактовать как отношение сигнал-шум в рассматриваемой
задаче различения. (Отметим, что данная задача отличается от рассмотренного
ранее цифрового согласованного фильтра отсутствием искажений полезного
сигнала.)
Для сравнения точности алгоритмов различения в непрерывном и дискретном
времени осуществим в (27) переход к непрерывному времени, устремив У-юо
при постоянном времени наблюдения
Qc= lim
л'—" D l+exp( — a.T/N) No \a.T J
Ухудшение точности алгоритма различения в дискретном времени по
отношению к аналоговому алгоритму можно характеризовать коэффициентом
энергетических потерь (относительным увеличением отношения сигнал-шум при
переходе к аналоговому наблюдению):
Qc (1+2/аТ) [1+ехр( —aT/TV)]
(4/аГ)ехр( —аГ/N)+(2/aTN" *) [1 -ехр(-аГ/#)] '
Графики зависимости потерь и от числа отсчетов N, построенные для различных
значений аТ (аГ—число интервалов корреляции шума на интервале наблюдения),
приведены на рис. 11.7.
Рассчитаем теперь дополнительные потери (по сравнению с оптимальной
обработкой непрерывнозначных выборок), возникающие за счет квантования
отсчетов наблюдения на два уровня (например, qv = 1 при 0 и д.., = 0 при
(11.1.29)
Оптимальный алгоритм различения в рассматриваемом случае состоит
в вычислении условных вероятностей р (д 7 10) наблюдаемой квантованной ре-
ализации q q2, , q^} для различных 0 и сравнении их между собой:
0 = тах-1р(9 ?| 0). (11.1.30)
535
Рис. 11.7. Зависимость потерь от числа отсчетов при различных значениях аТ
Если для многих реализаций каким-то образом вычислены условные веро-
ятности р (q * 10), то полная вероятность ошибки цифрового алгоритма различения
находится по формуле
Л=4£пйпр(‘71'10)- (11.1.31)
Здесь суммирование производится по всем возможным квантованным реализаци-
ям. Слагаемые суммы равны меньшей из двух вероятностей phi'll) или p(?i'|0)..
Сравнив (31) с вероятностью ошибки (26) для непрерывнозначных отсчетов,
можно оценить дополнительные потери при квантовании.
Функция правдоподобия р (д * 10) может быть найдена интегрированием
многомерной п.в. р(6,^19), описываемой выражением (24):
р(9?|0)= р(теж». (11.1.32)
П1 П2
Области интегрирования Ov, v=l, У, связаны с квантованными значениями qv
следующим образом: Qv = (0, от) при <?v=l и Qv = (—оо, 0) при qv — 0.
Расчет функций правдоподобия (32) оказывается сложным и для больших
У может быть проведен путем математического моделирования на ЭВМ. Однако
для небольших 7V--1, 2, 3 потери из-за квантования можно рассчитать аналити-
чески.
При N=1 функция правдоподобия (32) имеет вид
/ |м 1 f f пРи91=1,
/>(?110)=~7— I ехр<-------—г-,
ч/2лО J I 2£> j (ф(—s(Q)ly/D) при ?i = 0.
536
Рис. 11.8. Зависимость потерь за счет квантования от разных параметров
Согласно (31) вероятность ошибки равна
Л = [р(1 |0)+р(0| 1)]/2=1-Ф(5/75),
т. е. совпадает с вероятностью ошибки (26) при обработке непрерывнозначных
отсчетов. Поэтому дополнительные потери из-за квантования при N= 1 отсут-
ствуют:
r\ = Q,/Qq^2/D)/(S2/D)=\.
Для двух и трех отсчетов эти потери определяются соответственно формулами
2 /2 3\-23 —0
, N=2; П= -arctgp--) —tf=3.
' 1 + р \* 2/ ’+Р
Для значений N>3 потери за счет квантования получены моделированием
на ЭВМ. Моделирование проводилось по одной реализации при отношении сигнал-
шум в отсчете p2=j2/£> = 0,l и различных значениях аД. На рис. 11.8 приведены
результаты моделирования—зависимость потерь г] за счет квантования от аД,
а.Т и N.' При больших аД (независимые отсчеты) расчеты хорошо совпадают
с теоретическими результатами, согласно которым потери при увеличении числа
отсчетов N носят осциллирующий характер (зависисимость аТ^со на рис. 11.8, а)
и сходятся к значению п/2 как N членов разложения Валлиса:
2 2 4 4 6 6 N-1
13 3 5 5 7 N ’
2 2 4 4 6 6 #
Т'з’з’5’5’7’ ’ 'дг-Г
N—нечетное;
N— четное.
537
Характерно, что при уменьшении а Г (увеличении корреляции отсчетов)
осцилляции потерь сглаживаются. При этом сами потери уменьшаются. Следова-
тельно, некоррелированность шума является самым неблагоприятным случаем
с точки зрения погрешностей квантования и известные для этого случая
результаты можно рассматривать как верхнюю границу потерь.
11.2. РАДИОНАВИГАЦИОННЫЕ МЕТОДЫ
ФИЛЬТРАЦИИ КООРДИНАТ ПОДВИЖНОГО
ОБЪЕКТА
В радиотехнических системах дальней навигации (РСДН) и спутниковых
системах навигации возникает задача фильтрации координат подвижного объекта
(ПО) по наблюдению сигналов от синхронных источников излучения (ИИ)
с известным местоположением1.
Обычно применяют три метода определения координат: дальномерный (Д),
псевдодальномерный (ПД) и разностно-дальномерный (РД).
Применение наиболее точного Д-метода практически затруднено, так как
он требует наличия на ПО опорного генератора (ОГ) с очень высокой
стабильностью частоты. Поэтому широкое применение нашел РД-метод, а в по-
следнее время (особенно в спутниковых системах навигации) получил распрост-
ранение ПД-метод. Выясним соотношение между этими методами и сравним их
точностные характеристики. По существу задача сводится к оптимальному
определению координат ПО по наблюдению сигналов в условиях шумов с учетом
наличия рассогласования времени опорного генератора ПО относительно времени
синхронных ИИ. Полученный ниже оптимальный алгоритм обработки оказывается
близким к ПД-методу навигации.
Приведем формулировку задачи. На ПО с вектором координат X наблюдают-
ся сигналы от А источников излучения с известными координатами Хк, к=\, N,
в прямоугольной системе координат (определение координат ПО на плоскости
применительно к РСДН иллюстрирует рис. 11.9). Моменты прихода сигналов Тк
рассматриваются в шкале времени, задаваемой ОГ на ПО. Начало отсчета
временной задержки zv = vP в каждом периоде излучения имеет рассогласование
Д(г) относительно моментов излучения сигналов ИИ ZOv, v=l, 2, ... (рис. 11.10).
На входе приемника ПО наблюдается реализация
Ц')=Цг Ц0) + «о(0- (11-2.1)
N
Здесь s(t, X) = ^5j(z— ТкС>.))— полезный сигнал, представляющий собой сумму
1
сигналов sk(t— Тк(к)) от каждого ИИ; ГДХ) = тДХ) + Д —время прихода сигнала
к-го ИИ, тДХ^) = с ~1 Щ—х»)2+(у—л)2 + (г—Zj)2]1/2 — истинное время запазды-
вания сигнала к-го ИИ, с — скорость света; n0(z) -БГШ со спектральной
плотностью No.
1 Харисов В. Н., Яковлев А. И., Глущенко А. Г. Оптимальная фильтрация
координат подвижного объекта//Радиотехника и электроника.—1984.— Т. 29,
№ 10,—С. 1939-1947.
538
Рис. 11.9. Расположения ПО и ИИ на
плоскости
ИИк I *
hi 3 2 1*
ПО । | | |
| Ti Т2 Т1
I Рм I 1
Г I I
Рис. 11.10. Времена прихода си-
гналов от разных ИИ на ПО
Вектор X размерности т включает неизвестные параметры X и А, входящие
в описание сигнала, а также другие параметры, описывающие движение объекта
и изменение Л(О- Принято, что совокупность параметров может быть описана
гауссовским диффузионным марковским процессом, удовлетворяющим системе
стохастических дифференциальных уравнений
rfX/rff=FX + n(r).
(11.2.2)
Ниже при определении количественных характеристик алгоритма рассматривается
задача определения координат ПО на плоскости при следующем задании параметров:
dxjdt~v.(., dy)dt — vy, dtLldt = v^, dvjdt =
= -axwx+nJ(f), dvv!dt— -&yvy+ny(t), di)Jdt= -a^v^+n^t). (11.2.3)
Здесь nx(t), ny(t) и ид(г)— независимые БГШ с односторонними спектральными
плотностями Nx, Ny и соответственно. В данном случае вектор Х.т = (л, vx,
у, vy, Л, !>д), а матрицы коэффициентов сноса и диффузии имеют вид
0 1 0 0 0 0 0 1 0 0 0 0
0 —a 0 0 0 0 0 Ух/2 0 0 0 0
F= 0 0 0 0 0 0 1 -a. 0 0 0 0 0 0 0 0 0 0 0 М’/2 0 0 0 0
0 0 0 0 ’ 0 1 0 0 0 0 0 0
0 0 0 0 0- 0 0 0 0 0 Лд/2
Опуская алгоритм фильтрации в непрерывном времени, приведем более
простой и удобный алгоритм фильтрации с группированием наблюдений. При
этом учтем, что сигнал sk(t— Тк(к)) зависит только от сравнительно медленно
изменяющихся процессов X(t) и A(t'). которые на интервале времени Г приближен-
но постоянны. Поэтому с некоторым приближением можно считать, что на
каждом тактовом интервале (ty, fv+1) наблюдение представимо в виде
^)=/((Д)+л0(1), re(rv, rv+1),
где Xv = X(rv)—значение параметра в опорных точках ty = vT. В том случае
можно воспользоваться методом группирования наблюдений при ступенчатой
аппроксимации (§ 10.6).
539
Последовательность >.v удовлетворяет рекуррентному уравнению
Ху+1=ФХ„+пм (11.2.4)
где Ф = ехр{РГ}— переходная матрица уравнения (3) за время Т; и, —после-
довательность независимых гауссовских случайных векторов с нулевыми м. о.
и корреляционной матрицей
ф = М {n^ = f ехр {F (Т- т) Nx ехр {FT (Т- т)} d г.
о
Применительно к системе априорных уравнений (3) выражения для Ф и ф при
otTc 1 имеют вид
‘1 [1 — ехр( — а17’)]/ог[ 0 0 0 0 '
0 ехр(-ахТ) 0 0 0 0
0 0 1 [1-ехр(-а),7’)]/а), 0 0
0 0 0 ехр(— <хуТ) 0 0 ’
0 0 0 0 1 [1 — ехр( — ад7’)]/су.д
_0 0 0 0 0 ехр(—адГ)
~NxT3/6 NxT2/4 0 0 0 0 ’
ЛГХГ74 NxT/2 0 0 0 0
0 0 NyT3/6 NyT2^ 0 0
0 0 N,T2^ NyT/2 О О
0 0 0 0 N&T3/6 NtJ2^
_ 0 0 0 0 NtJ2^ NfyT/2 _
Уравнения расширенного фильтра Калмана для вектора оценок и кор-
реляционной матрицы ошибок Rv можно записать так:
2 ‘«+1
Xv+1=kv+1+—Rv+i f Hv+1 (r)[Е.Ц)—.у(л *v+i)]rfr, (11-2.5)
o tv
2 'v i
RV-A=RV"+’1+-— j ну+1(г)н;+1(фй, (11.2.6)
-W о tv
Rv+1=(DRv0T + q/v. (11.2.7)
Здесь Xv — ФХ v_ i — вектор экстраполированных оценок; R v +1 — корреляционная
матрица экстраполированной оценки;
я (П = — = У
<)>. dt dly
— матрица производных от полезного сигнала по параметрам X.
Необходимо заметить, что для радиосигналов апостериорная п. в. временного
запаздывания оказывается многомодальной (см. пример 9.5.2). При этом алгоритм
(5), (6) будет давать неоднозначную оценку (с точностью до целого числа
периодов высокочастотного колебания). В таких условиях полное решение задачи
можно получить, применив один из указанных в гл. 10 и § 11.6 методов
аппроксимации апостериорной и. в. Ниже предполагается, что неоднозначность
540
тем или иным способом устранена и работа осуществляется в окрестности
наибольшего максимума апостериорной п. в.
Учтем, что X — вектор неэнергетических параметров, т. е.
f . - ds(t, £v)
s(t, £v)—Ц------dtxO.
J dt
Поэтому уравнение (5) можно упростить:
xv+1=xv+1- X rt (11.2.8)
k=l J
где r*=(2/AT0)Rv+1(d7;/dXv).
Из выражений для 7i(X) следует, что
дТ»(Х)/дХ=е1/с, дТ»(1)/дД=1,
где ек—единичный вектор из точки X в направлении на к-й ИИ. Производные
от Tk(kv) по остальным компонентам вектора X равны нулю.
Уравнение (8) определяет алгоритм расширенного фильтра Калмана, осущест-
вляющего квазиоптимальный прием сигналов и фильтрацию координат ПО.
Для задачи на плоскости (см. рис. 11.9) имеем
dTk/dx = c"i (x-xll)[(x-xi)2 + (y-y)1)2] “1/2 = sina4/c,
^71/ду = с_1(у-у4)[(л-л-л)2 + (у-л)2] “1/2 = cosa4/e.
При этом для модели параметров (3) конкретизация векторного уравнения (8)
дает следующий рекуррентный алгоритм:
1—ехр(—а.хТ) X
xv+l=xv + vxv--------------F £ ГцВк,
“х 4=1
N
Гх.у+1 = Гхуехр(-а17’)+
к= 1
1 — ехр( — <х„Т) *
J’yl 1 — J'v + Vyv-~-------h £ Г 34 Вк,
аА 4=i
(11.2.9)
^y,v+l Vyv^Xp( OtyT*)-|-
к = 1
д -л 1-ехр(-адГ) *
&v+l— Av+^Av---------------г /, I 5k^k,
ОСд fc=1
N
^A,v+i=^Avexp(-aAr)+ Xr6k#k,
k= 1
где Bk=- ^(t)^^^dt, k=TjV,
541
а элементы Г;4(/=1,6, /<=1, N) векторов Г\ определяются через элементы
корреляционной матрицы Rv выражением
2 /Л„ Л,3 \
Гд=— —smat+—cosau + Rj5
Nu \ с с ) х=к
Приемник, реализующий алгоритм (9), состоит из N (по числу ИИ) временных
дискриминаторов и каналов формирования оценок параметров Zv. Каждый канал
оценки параметра состоит в общем случае из mxN умножителей на Гjk (7=1, т;
4 = 1, N), сумматора и фильтров нижних частот, формирующих соответствующие
оценки. По результатам опенки параметров формируются углы ak, которые
используются при вычислении Г,ь и производная от сигнала dsk[t — Tk(kv)]ldt.
В приемнике осуществляется оценка временного рассогласования Д(1), которая
затем используется для фильтрации координат X(f). Это полностью соответствует
концепции ПД-метода навигации. При высокой стабильности ОГ время рассогласова-
ния A(f)— медленно меняющаяся величина. Следовательно, она может быть
определена с высокой точностью за счет накопления наблюдений. Поэтому можно
ожидать, что точность определения координат ПД-метода близка к точности Д-метода,
работоспособного при Д(г) = О. Однако синтез показывает, что концепция ПД-метода
оптимальна при любых уходах Д, а не только при очень малых или очень медленных.
Отметим, что структура синтезированного устройства имеет некоторое отличие
от известных устройств, реализующих ПД-метод1. Обычно предполагается наличие
автономных систем слежения за моментом прихода сигналов от различных ИИ.
Опенки временного положения сигналов используются системами слежения за к.
В синтезированном устройстве нет отдельных систем слежения за временным
положением сигналов, а имеется единая замкнутая система слежения за параметрами
X, по которым рассчитываются моменты появления сигналов соответствующих ИИ.
При синтезе ПД- и РД-алгоритмов иногда ограничиваются оптимизацией
вторичной обработки. В этом случае предполагается наличие наблюдений
моментов прихода сигналов от ИИ в ПД-методе
Hv=7;(?4.) + nTv = Tt(Xv) + Av + nrv, k = lTN; v=l,2, ..., (11.2.10)
или наблюдений разностей времен прихода в РД-методе
8rL=nv-T’lv, k = 2~~N; v=l,2, ... (11.2.11)
Здесь nTv — ошибка определения Tk(/.v) следящей системой, описываемая диск-
ретным БГШ с дисперсией D,.
В отличие от этого алгоритм (5) при выполнении условия малости ошибки
является оптимальным для полного наблюдения входной реализации. Го обстоятель-
ство, что в результате синтеза получается устройство, оценивающее как координаты,
так и временное рассогласование Д, т. е. реализующее ПД-метод, доказывает его
преимущество по сравнению с РД-методом. Дальномерный метод является частным
случаем ПД-метода при точно известном времени излучения сигналов ИИ, т. е. при
Д(1) = 0. Поэтому для любой координаты справедливо соотношение
1 Кинкулькин И. Е., Рубцов В. Д., Фабрик М. А. Фазовый метод определения
координат.— М.: Сов. радио, 1979.— 279 с.
542
Д пд R РД5
(11.2.12)
где Ra, Ипд и Ирд—корреляционные матрицы ошибок оценок координат. Это
соотношение должно выполняться при любых характеристиках движения объекта
и нестабильности опорного генератора.
С целью получения точностных характеристик конкретизируем уравнение
(6) для корреляционной матрицы ошибок оценки параметра к, заданного
уравнениями (3). Получим
R^RJ+S+Q/Z),, Rv+! =<DRv+ 1Фт+ф,
(11.2.13)
n N°
где D, = ~
dsk(t, к)
dt
2
dt
Величина определяет дисперсию ошибки оценки временного положения
сигнала от каждого ИИ. В (13) выделена матрица Q, характеризующая геометрию
системы:
с~2 N £ sin2at 1 0 0 0 N c2 £sin atcos a* i 0 0 c~ 0 N *£ sinat 1 0 0 0
N N N
sin akcosafc 0 c~2£ cos2at 0 c~ *£ cosat 0
Q= 1 0 0 i 0 0 i 0 0
N N
с- £ sin ak 1 0 c ~1 £ cos a.k i 0 N 0
0 0 0 0 0 0
Для простоты принято, что дисперсии ошибок Лт одинаковы для сигналов всех
ИИ. Укажем, что синтез на основе наблюдений (10) также приводит к уравнениям (13),
т. е. в линейном приближении при эквивалентных D, характеристики алгоритмов
одинаковы.
При количественной оценке точности фильтрации в соответствии с (13) на
ЭВМ были взяты следующие исходные данные: среднеквадратическое значение
оценки временного положения сигнала x/d, = 2 мкс; относительный интервал
корреляции флюктуаций скорости ПО т„/Т= 1/ахТ=50; относительное время
корреляции частоты ОГ тд/Т= 1/ад7’= 1000, Т—период дискретизации. Спект-
ральные плотности шумов, формирующих процессы X(f) и А (г), определя-
ются соответственно выражениями Nx = 4axDl: и Л/д = 4ад (Лу//2), где
D„— дисперсия флюктуаций скорости ПО, л/Д/7/—относительная нестабильность
частоты ОГ.
На рис. 11.11 приведены результаты расчетов эллипсов ошибок определения
координат для РД-, ПД- и Д-методов в различных точках плоскости для
УБ7//=10-8, /л£с = 2 107. При этом рассматривались ошибки определения
543
Рис. 11.11. Эллипсы ошибок для разных си-
стем навигации (РД—сплошные кривые,
ПД—штрихо вые, Д—пунктирные)
Рис. 11.12. Зависимость макси-
мальной относительной ошибки от
относительной дальности при раз-
личных значениях нестабильности
частоты
Рис. 11.13. Изменение эллипса
ошибок в дальней зоне в зависимо-
сти от нестабильности частоты
Фпах
J Г
РД
д
—1_____I______I
кг1 urhTSJf
а)
Рис. 11.14. Зависимость максимальной ошибки определения координат в дальней
зоне от нестабильности частоты (а) и динамики ПО (б)
координат в «оптимизированной» РД-системе, т. е. оптимальной при условии
наблюдения разности времен прихода (11). Соотношение (12) для дисперсий
ошибок выполняется во всех точках (х, у). Отметим, что в ближней зоне
(ri/rf<l, рис. 11.9) все методы имеют практически эквивалентные характеристики,
а в дальней зоне (г1/<7>1) ПД-метод обеспечивает существенный выигрыш
относительно РД и его использование позволяет расширить рабочую зону
системы. На рис. 11.12 аналогичными кривыми представлена зависимость мак-
544
Рис. 11.15. Зависимость относительной ошибки
оценки рассогласования от нестабильности ча-
стоты
симальной относительной ошибки пс х/1), (большая полуось эллипса ошибок)
от относительной дальности rtjd до ИИ (диагональ на рис. 11.11) при различных
значениях относительной нестабильности частоты генератора -JОтмеченный
выигрыш ПД-метода существенно зависит от относительной нестабильности
частоты ОГ, что иллюстрируется рис. 11.13, где изображен эллипс ошибок
в точке 3 (рис. 11.11).
На рис. 11.14 приведены зависимости максимальной ошибки определения
координат в дальней зоне (точка 3 на рис. 11.11) от нестабильности частоты
ОГ и динамики ПО. Из рисунков следует, что при низкой стабильности частоты
ОГ и малоподвижном объекте (^уГГ/с-^О) ПД-метод приближается к РД. При
высокой стабильности частоты ОГ и быстрой динамике объекта ПД-метод
близок к Д-методу. Характерна близкая к пороговой зависимость ошибки
ПД-метода от относительной нестабильности частоты.
На рис. 11.15 представлена зависимость относительной ошибки оценки
рассогласования A (г) от нестабильности ОГ в точках ], 2 и 3 на рис. 11.11
(70^ = 2-КГ7). Из рисунка видно, что даже при низкой стабильности ОГ
рассогласование оценивается довольно точно и может эффективно использоваться
для синхронизации, например, в системах связи.
11.3. АЛГОРИТМЫ КОМПЛЕКСИРОВАНИЯ
ИЗМЕРИТЕЛЕЙ
В некоторых системах применяются несколько самостоятельных дублирующих
измерителей одной и той же «величины», изменяющейся случайным образом
во времени. Такое положение является характерным для авиационных навигаци-
онных систем (барометрический и радиотехнические измерители высоты, инер-
циональная система и радиотехническая система дальней навигации и др.).
Известно1, что при наличии нескольких наблюдений, содержащих информацию
о некотором интересующем нас параметре-процессе, для повышения точности
итогового результата целесообразна совместная (комплексная) обработка
располагаемых наблюдений. При этом возможны разные варианты комплексной
обработки: оптимальное комплексирование — комплексирование по входам
1 Малаховский Р. А,, Соловьев Ю. А. Оптимальная обработка информации
в комплексных навигационных системах самолетов и вертолетов // Зарубежная
радиоэлектроника.—1974.—№ 3. — С. 18—53.
545
19—2247
(осуществляется оптимальная совместная обработка наблюдений непосредственно
от соответствующих датчиков); комплексирование по выходам (производится
оптимальная обработка наблюдений от каждого датчика и затем результаты
на выходе каждого измерителя оптимальным образом объединяются). Возможны
и другие, модернизированные варианты объединения нескольких наблюдений'.
Пусть информационным параметром, подлежащим оценке (измерению),
является сл. пр. X(z) и его текущая оценка >.(/) должна быть получена на
основе двух независимых наблюдений £,(/) и r|(t), известных на интервале [0, /]
и имеющих в дискретном времени вид
^v = i(zv, Xv)+nOv, (11.3.1)
T)v=gGv, Ху)+е„- (11.3.2)
Здесь s(tv, kv) = s(rv, k(/v)), g(rv, Xv) = g(zv, X(/v))— известные детерминированные
функции аргументов; nOv— не зависящий от дискретный БГШ с дисперсией
£>„ = const; e = e(zv)— погрешность измерений, представляющая собой сл. пр., не
зависящий от к, и nOi, i=l, v. В дальнейшем примем, что сл. пр. Zv и ev являются
марковскими и для них известны условные п. в. (п. в. перехода) nt(Xv|kv_.1)
и nt(sv |ev_ !). Они обычно находятся из априорных дифференциальных уравнений,
определяющих вероятностные характеристики и sv.
Поскольку исчерпывающей характеристикой оценки является апостериорная
п. в., то получим сначала рекуррентные соотношения для нее при двух способах
комплексирования: оптимальном и модернизированном.
1. Оптимальное комплексирование. Пусть производится совместная обработка
двух наблюдений Ё,6== {^о, и Ло = {Ло, Пь , Л*}- Получим апостериор-
ную п. в. p(kv, £v|^6, Ло)-
Воспользовавшись известной формулой теории вероятностей
р(В\А, С)=р(А, В\С)1р(А\С)
и придавая каждый раз случайным событиям А, В и С разный смысл, можем
последовательно записать следующие соотношения:
p(Xv, sv|U, Л о) = с oP (^», Evl^o-1, Ло”‘)р(^, Л»|Ь», Ev, So-1, Ло’1), (11.3.3)
где со — постоянная, не зависящая от и sv и определяемая из условия
нормировки. Учтено также, что ^о = {^о‘, £,v}, Ло = {Ло~*, Л»};
p(kv, EvlU’1, Ло-1) = 11р(^у. kv-l, Ev, Ev- 1 I *, Ло'‘)А,-1&,-1;
p(kv, kv-1( £v, £v-l I^O-1, Ло-1)=р(Ь.-1, Ev-il^r1, Ло-1)х
xp(zv, ejlv-b Ev-1, £o~‘, Ло ')=p(^v-l, Ev-ll^o-1, ЛГ‘)р(1.., Ev| £V-1).
Так как иг,, /,_/=!, v, предполагаются априорно независимыми, то
p(kv, Ejky-!, Ev- 1 ) = Л), (kv I Xv- 1) Я, (s, I Ev-1 )
Следовательно, первый сомножитель в правой части (3) равен
1 Иванов В. И., Тихонов В. И. О комплексировании двух измерителей // Тех-
ническая кибернетика.— 1986.— № 1.— С. 139—145.
546
p(kv, eJISo"1, По ‘)=ffp(Xv-i, е,-11й \ По *)x
(11.3.4)
X7tx(Xv|Xv-l)7te(£v|Ev - i)zZXv- izZEv - i.
Аналогичным образом выразим второй сомножитель в правой части равенства
(3), который представляет собой функцию правдоподобия параметров и sv.
Поскольку S; и Ну независимы, то
?(Sw Ev. So"*, no“1)=/’(^v|Xv, Ev, So"*, Ho-1)x
X/>(Hv|Xv, Ev, So, Ho-1)=p(^vl><v, So"1 )p (n v I * v, Ev, По-1) =
(11.3.5)
=p„(£sv-s(tv, Xv))8(Hv-g(lv, >.v)-Ev).
Здесь p„(nOv)—известная нормальная п. в. дискретного БГШ nOv', 5(х)
—дельта-функция, причем последнее равенство написано с учетом вида наблюде-
ний (1) и (2), когда процессы So и по независимы и составной процесс {Zv, ev}
марковский.
Соотношения (3), (4) и (5) дают рекуррентный алгоритм определения
апостериорной п. в. параметров и е. Алгоритм определения апостериорной
п. в. одного параметра следует из этих соотношений и имеет вид
p(MSo, Ho)=fp(A.v, ev|So- Ho)</ev =
= cpn(Sv-^(c, Xv))fp(Xv-i ISo"1, nr'hJXJXv-Jx
xMnv-gGv, >"v)lHv-l-g(lv-l, Xv-ijjrfXv-!. (11.3.6)
Оптимальная оценка по критерию минимума среднего квадрата ошибки
и ее дисперсия Rv находятся по известным формулам
£v=fkvp(Xv|So, ПоЖ, Rv=f(Xv-£v)2p(Xv|So, Ho)rfU (11.3.7)
Если второе наблюдение отсутствует (г]о = О), то формулы (6) и (7) определяют
оптимальный алгоритм обработки одного наблюдения So-
2. Модернизированный вариант комплексирования. Рассмотрим случай, когда
один из измерителей не радиотехнический и состветственно второе наблюдение
имеет вид
rjv —Zv4-ev- (11.3.8)
Теперь применительно к двум наблюдениям So и т]о можно предложить
следующий (модернизированный) вариант комплексирования.
Хотя в наблюдении r|v величины и sv не разделимы (порознь не
измеряются), поступим пока формально так. Подставим kv=r]v—sv в первое
наблюдение (1):
Sv = ^Gv, Tlv-Ev)+Hov (11.3.9)
Теперь параметром, подлежащим фильтрации по двум наблюдениям, явля-
ется sv, а оценка интересующего нас параметра Zv определяется затем
равенством
kv = T|v-е„. (11.3.10)
547
При фиксированном наблюдении Г|о параметры и £v связаны однозначной
линейной зависимостью (8). Поэтому апостериорная п. в. для sv находится из
(6) простой заменой переменной XV = T|V—£v. В результате получим следующий
рекуррентный алгоритм апостериорной п. в.:
РоЫ^о, no) = cp4^v-j(^v, T|v-Sv))fpo(Sv-i По-1 )х
XTtzfTlv-EvInv-j-Sv-JnjEvlEv-J^Ev-i, (11.3.]])
где введено обозначение />0(е;| По)=/’(г11'~£;1 £о, Во)-
На основании (7) с помощью перехода к прежней переменной С нетрудно
убедиться, что дисперсия оценки £v совпадает с дисперсией оценки kv, т. е. при
рассматриваемом способе комплексирования точность оценки остается прежней,
как и при оптимальном комплексировании.
В некоторых практических приложениях при достаточно малом шаге
Д дискретизации по времени дисперсия набега ошибки £v много меньше дисперсии
kv. Поэтому в пределах «узкой» п. в. k(ev|£v-i) п. в. Kx(t|v — е„|r|v-1 — ev-1) можно
полагать приближенно постоянной и включить ее в постоянную с. Если это
условие выполняется, то формула (11) упрощается:
Po(Ev I Е.0, = TIv-EvBfPoX
x(ev-1|^0-1, Л 0 ‘ (£v [ Ev-1 ) 4ev-i . (11.3.12)
Разумеется, что при таком упрощении точность оценки несколько снижается (в
зависимости от соотношения указанных дисперсий). Однако приближенный
алгоритм (12) имеет определенные преимущества по сравнению с оптимальным
комплексированием. Во-первых, теперь не требуется априорного уравнения для
k(z), определяемого динамикой движения летательного аппарата, точное задание
которого часто неоднозначно и иногда сомнительно. Во-вторых, существенно
упрощается схемная реализация алгоритма (в частности, при применении
локальной гауссовской аппроксимации), причем сам алгоритм оказывается близким
к практически применяемым до настоящего времени схемам комплексирования.
Результаты моделирования двух методов комплексирования (в гауссовском
приближении) инерциальной и радиотехнической систем дальней навигации
показывают, что при типовых значениях отдельных параметров модернизирован-
ный вариант комплексирования по точности получаемых оценок близок к оп-
тимальному, но проще в схемной реализации.
11.4. КВАЗИОПТИМАЛЬНОЕ СЛЕЖЕНИЕ ЗА
МАНЕВРИРУЮЩЕЙ ЦЕЛЬЮ
Конкретизируем полученный в п. 10.1.4 квазиоптимальный алгоритм фильтра-
ции для частного примера оценивания параметров движения маневрирующей
цели1. Положим, что информационное сообщение входит в наблюдение
(7.9.1) линейно:
1 Тихонов В. И., Теплинский И. С. Квазиоптимальное слежение за манев-
рирующими объектами.— Радиотехника и электроника.— 1989.— Т. 34, №4.—
С. 792 797.
548
^(z) = HX(z) + n0(z), H = [l 1 О]1. (11.4.1)
Вектор k(z) = [r(z), c(z), <z(z)]T представляет собой совокупность оцениваемых
параметров (дальности до цели r(z), ее скорости v(t) и ускорения a(z)).
Априорные сведения о движении маневрирующей цели зададим системой
дифференциальных уравнений:
dr/dt = v(t), dv/dt= —yv(t)+a(t)+6(t),
da/dt= —аа + о-яч/2а «„(/). (11.4.2)
Здесь коэффициент у, ограничивающий рост дисперсии скорости во вре-
мени, зависит от типа объекта и условий движения; коэффициент а и
величина характеризуют соответственно ширину спектра и дисперсию
ускорения а (г); no(z)— БГШ с единичной спектральной плотностью. Импульсный
процесс 0(z) отражает ускорение цели вследствие маневров и задан уравнением
(7.9.2).
Нелинейный характер задачи фильтрации применительно к данному при-
меру обусловлен наличием в априорном уравнении (7.9.3) импульсного про-
цесса 0(z).
Согласно (10.1.64), (10.1.66) записываем уравнения для оценок параметров
r(z), r(z) и a(t) в отсутствие маневра (0(/) = 0), при наличии его (0(z)/0),
а также для самого маневра 0(z):
dfo/dt—vo + ROrr(2/Do] + pi (P1I Po )(^i — Do),
dvojdt= — yi5o + <5o + § + 7?on;(2/Ao)[^(z) —jD0] + Щ (Pi/Po)(ci— v0), (11.4.3)
ddo/dt= —ado + Rora (2/No) [4 (z) — Do ] + Pi (Pi /Po (<A ~~do )>
Idt = Vi + Rlrr(2/No) [£(0~] + Ho(Po/Pi )(Do~Di ),
z/Si /z/Z= — yCi +<Zi +6 + Лиг(2/Ao) —jDi ] + Po(Po/Pi )(Ф>— $i), (11.4.4)
rffli /z/z= — a<ii + A[r0 (2/Aq) (1) —jDi ] + Цо (Po/Pi) (во — di),
z/0/z/z=Plre(2/Ao)[^(z)-JD1] + po(Po/Pi)(me-0). (11.4.5)
Входящие в эти уравнения апостериорные вероятности наличия Pi(z) и отсутствия
Po(z) маневра определяются по следующему алгоритму:
z/PoM=-poPo + PiPi+(PoPi/^)[2^(/)(Po-A)-
— D о + D 1 — Rorr + Rirr ], Po + Pi = l. (11.4.6)
Структурная схема следящего измерителя, реализующего алгоритм (3)...(6),
изображена на рис. 11.16. Он содержит два информационных канала и канал
обнаружения и оценки маневра 0(z). На выходах каналов формируются условные
оценки информационного сообщения: i-i(z)— при наличии маневра, >-0(z)—в его
отсутствие. Безусловные оценки параметров f, v и а формируются на выходе
измерителя по правилу
k(z) = Po(z)£o(0 + ri(0^i(0- (11.4.7)
549
Рис. 11.16. Структурная схема квазиоптимального следящего измерителя
Управление работой информационных каналов осуществляется сигналами с выхода
канала обнаружения и оценки маневра. При наличии маневра происходит его
оценка и учет в соответствующем информационном канале. На схеме не показан
канал формирования апостериорных ошибок фильтрации, определяемый выраже-
ниями (10.1.65), (10.1.67). Однако следует иметь в виду, что в процессе работы
измерителя они должны определяться совместно с решением уравнений для оценок.
Результаты моделирования на ЭВМ синтезированного измерителя для
конкретных значений отдельных параметров представлены на рис. 11.17, где
приведены истинные значения параметров 0(z), v(t) и >(/), их оценки и разность
апостериорных вероятностей РД?)—Ро(0- При этом процесс 0 (z) представлял
собой последовательность прямоугольных импульсов со случайными амплитудами,
распределенными по нормальному закону с нулевым м. о. и дисперсией
Z)e = 100 м2-с“4, цо = Р1=0,1 с-1. Видно, что осуществляется слежение за парамет-
рами с некоторой ошибкой и небольшим временным запаздыванием.
На рис. 11.18 для £)е=1 м2 с-4 приведены зависимости дисперсии оценки
дальности D*, полученные моделированием синтезированного алгоритма, и из-
мерителя для случая 0(z)s0 (отсутствует канал обнаружения и оценки 0 (/)),
на который воздействует сигнал (1) с 0(/)/0. Видно, что в стационарном
состоянии выигрыш по дисперсии оценки дальности первого измерителя по
сравнению со вторым равен приблизительно 10 раз. При увеличении дисперсии
£)в выигрыш будет более существенным.
В тех случаях, когда в наблюдение (1) входит не видео-, а радиосигнал,
зависящий от параметров с априорными уравнениями (2), сформулированная
задача может быть решена с использованием изложенной методики фильтрации.
При этом вид структурной схемы квазиоптимального приемника в общих чертах
сохраняется, но значительно усложняются расчеты на ЭВМ ее количественных
характеристик.
550
в, м/с1
10
О
-10
0,5
О
-0,5
0(t^ \ §(t)
t / X —f 1 L \ \
50 70 leZZ'sj 90 100'^^110''^ 120-—t.c
J : —1^
/^\
,L\ /^\ / ’ / \_z
6(J JIO в 0' 90 100 х У 110 120 t,c 1 1 1 1
U, м/с
/г
u(t) J
/Г'х 1 1 > 1 \
/ / ZL л Ха
6(^'7 0 80 \90' 100 11 I I (Na 120 t,c
г,м
zz
r(t) . 7 / (r(t)
Sy
00 70 80 90 100 110 120 t,C
и их оценки (-----------)
Рис. 11.18. Зависимость
дисперсии оценки дально-
сти синтезированного из-
мерителя (кривая 7) и из-
мерителя без учета мане-
вра (кривая 2)
Рис. 11.17. Истинные значения параметров (—)
11.5. ДВУХКАНАЛЬНАЯ
ПРОСТРАНСТВЕННО-ВРЕМЕННАЯ
ФИЛЬТРАЦИЯ
Пусть приемник имеет антенную систему, состоящую из двух идентичных
ненаправленных элементов, расположенных на расстоянии d друг от друга. На
вход воздействуют полезный сигнал s(t, X) и помеха n(z). Направления прихода
сигнала и помехи относительно оси антенной системы характеризуются углами
<ps и <р„ (рис. 11.19). Сделаем следующие допущения. Принимаемый сигнал s(t, X)
является узкополосным процессом (его центральная частота f0 много больше
ширины спектра), а собственные шумы аппаратуры и помеху можно аппрок-
симировать БГШ (их спектр много шире спектра сигнала); волновые фронты
сигнала и помехи являются плоскими.
Из рисунка видно, что фронт плоской волны сигнала приходит ко второму
элементу с временным запаздыванием относительно первого, равным Ts = rfcos<ps/c,
где с—скорость света. Эта задержка приводит к фазовому сдвигу сигнала
x|)s = 2n/oTs = 2n<7cos<ps/Xo, где Х0 = с//0—длина волны, соответствующая частоте
/о- Аналогично для помехового сигнала имеем \|/„ = 2nz/cos<p„/X0.
Существенное упрощение выводов, компактность и наглядность выражений
достигаются комплексной формой описания сигналов и помех. Используя ее,
входное колебание каждого канала можно представить в виде
= Х) + >г(0 + иО1(0,
(11.5.1)
= ?^)ехр (j\|/s) + /i(z)exp(j\|/„ )ч-И02 (/),
где s(t, X) и й(/) — комплексные амплитуды сигнала и помехи; noi(z) и n02(z)
— независимые собственные шумы каналов, аппроксимируемые БГШ с двусторон-
ней спектральной плотностью /Vo/2. Векторный вариант записи (1) имеет вид
Ц0=Н(ф(г, Х)+С(/)й(/)+п0(г), (11.5.2)
„Г 1 1 г=Г 1
ГДе _ехр(jx|)s)_ ’ exp(j\|/„) ’
Для суммарного шума введем обозначение
n(z) = C(z)n(z)+n0(z); (11.5.3)
Рис. 11.19. Двухэлементная антенна
552
N = No + (N/2)CC- = ir^ + ^.1 х ,
' 7 2^ехр0ф„) Wo + W
где (•)* — операция эрмитова сопряжения. После этого запись
представить в виде
1^)=Н(ф(г, Х)+п(г).
Пусть априорные сведения о процессе X(t) заданы уравнением
d’k)dt = g{t, Х)+Их(г).
где «>.(/) — БГШ с односторонней спектральной плотностью №..
Применительно к сформулированной задаче уравнение
имеет вид
dp(t, X)/dt=L{p(t. Х)} + [Г(г, X)-77(z)]p(z, X),
N = N0 + (N/2)CC’ = -
(11.5.4)
(1) можно
(11.5.5)
(11.5.6)
Стратоновича
(11.5.7)
где
F(/.X)=-(l/2)R(<)-H(r),(rA)]^-1R(/)-H(z)5(r, X)].
Оптимальная оценка по минимуму среднего квадрата ошибки определяется
выражением
Х(г) = (Хр(/, Х)<Л.
(11.5.8)
(11.5.9)
Это выражение совместно с (7) составляют оптимальный алгоритм простран-
ственно-временной фильтрации.
Обычно в пространственно-многоканальных системах обработка принимаемых
сигналов выполняется в два этапа: сначала выполняется пространственная
обработка, а затем временная. Пространственная обработка позволяет перейти
от многих пространственных каналов к одному и максимизировать отношение
сигнал-шум на его выходе по угловым координатам. На втором этапе
осуществляется временная обработка, в результате которой максимизируется
отношение сигнал-шум по временным параметрам.
Покажем, что оптимальный алгоритм (7), (9) для сформулированной задачи
разбивается на пространственную и временную обработки.
Введем новые переменные
откуда следует, что
Р*Н=1. (11.5.11)
Преобразуем функционал (8), используя эти соотношения:
F(t, X)=-(1/2)[^-Hj]*[N“1-P₽*/№ + PP*/№][^-H5] =
= -(l/2)[^-HJ]*[N-I-pp*/№]K-HJ]-(l/2)|P4-P*HJ|2/№= (11.5.12)
= —(1/2)1;*[N~1—рр*/Л/3]1;—(l/2)|p*i;—s|2/№, = a(z)+/;’1(z, Ч
где через а (г) обозначено слагаемое, не зависящее от к, и
553
Пространственная обработка
Рис. 11.20. Схема двухканальной пространственно-временной фильтрации
Fx(t, X)=-(l/2)|p*(/)^(z)-s(z, Х)|2/ЛГЭ. (11.5.13)
Из (8) и (12) видно, что слагаемое а(г) содержится как в F{t, X), так
и в F(z), и поэтому отсутствует в уравнении (7). Следовательно, функционал
F(t, X) можно заменить на /•/(/, X), определенный выражением (13).
Таким образом, оптимальный алгоритм пространственно-временной фильтра-
ции разделился на пространственную фильтрацию, заключающуюся в фор-
мировании наблюдения
и временную, осуществляющую фильтрацию сообщения Х(/) по этому наблюдению
(рис. 11.20).
Произведение Р*£, представляет собой взвешенное наблюдение, поэтому
вектор Р можно назвать вектором весовых коэффициентов. Введенный согласно
(10) в качестве новой переменной параметр N, является спектральной плотностью
помехи, оставшейся после весового суммирования. Действительно,
М {| f*n |2 } = H*N“‘NN-1H/(H*N “‘Н)2= 1/H*NH = A/,. (11.5.14)
Из анализа выражения (13) следует, что решение (7), (9) задачи простран-
ственно-временной фильтрации при двухканальном наблюдении (5) эквивалентно
решению при одноканальном наблюдении
r|(0=s(X X)+n3(z), (11.5.15)
где n3(t)—комплексный БГШ со спектральной плотностью ЛХ,, определенной (10).
Таким образом, задача определения итоговых количественных характеристик
оптимальной двухканальной фильтрации процесса Х(/) сводится к задаче их
определения для случая одноканального приема полезного сигнала на фоне
шума с эквивалентной спектральной плотностью ЛГ,.
Заметим, что величина, обратная эквивалентной спектральной плотности
9=l/Ar3=H*N”1H, (11.5.16)
по смыслу является отношением сигнал-шум при двухканальном приеме.
Чтобы оценить итоговые характеристики двухканальной фильтрации, необ-
ходимо определить зависимость q от угла прихода полезного сигнала (ps при
554
Помеха
Помеха
Рис. 11.21. Эквивалентные диаграммы направленности двух- и трехэлементной
антенн
фиксированных остальных пространственных параметрах. Зависимость ?(<ps) условно
может быть названа диаграммой направленности', она определяется выражением
9(<ps) = H*(<ps)N-IH(<ps) = H*(<ps)[N0+(^/2)CC*]H(<p5). (11.5.17)
Применяя лемму об обращении матриц
получаем
9(<ps) = (2/№)[2-(7V/№)|/7*(<p5)C|2/(l+22V/№)]. (11.5.18)
Отметим, что, располагая зависимостью по известным графикам
ошибок фильтрации для данного вида сигнала при одноканальном приеме
можно определить их значения для двухканального приема.
Зависимости <?(<ps) для двух- и трехэлементной антенн приведены на рис. 11.21.
Диаграмма 1 соответствует двухэлементной антенне при расстоянии между
элементами <7=Х/4, отношении сигнал-шум в канала?; 2Е/Ni: — 10 дБ и отношении
спектральной плотности помехи к собственному шуму N/7Vo=10 дБ. Диаграммы
2 и 3 характеризуют «у (<р.,) одноканального приема соответственно при наличии
помехи в отсутствие ее. Видно, что для диаграммы 1 наличие помехи фактически
не оказывает влияния на возможность приема полезного сигнала с проти-
воположного направления. Характеристики пространственно-временной фильтра-
ции сильно зависят от числа элементов антенны и их взаимного расположения.
555
Для иллюстрации этого факта иа рис. 11.21 приведена диаграмма направленности
<?(<ps) трехэлементной антенны при сохранении значений указанных выше парамет-
ров, но при другом расположении элементов.
Более полные и подробные сведения о пространственно-временной обработке
сигналов имеются в литературе1.
11.6. ПРОБЛЕМА ОБЪЕДИНЕННОЙ
СИНХРОНИЗАЦИИ
Многомодальиость апостериорной п. в. Рассмотрим в качестве простого
примера принятое колебание вида
Цг) = л(г, т) +п0(1 )=/(/-т) cos c»0(z-t) +и0(1),
rfx/rff=nt(r), ' ' ’ ’
где f(t) — огибающая полезного радиосигнала; т(г)—случайное время появления
сигнала; n0(t) и nx(t)— независимые БГШ с односторонними спектральными
плотностями No и N,.
Под системой объединенной синхронизации (СОС) понимается система, осущест-
вляющая оптимальное определение временного запаздывания радиосигнала т(1)
на основе совместного (комплексного) использования информации, содержащейся
в его огибающей и высокочастотном колебании. Физически ясно, что при связи
временных задержек огибающей и высокочастотного колебания совместная
обработка их позволяет повысить точность оценки т (г).
Синтез СОС базируется на теории нелинейной фильтрации и имеет некоторые
особенности. Запишем для данного примера уравнение Стратоновича
<11.6.2)
где F(z, T) = (2/^)^(0/(l-'c)cosc°o(l-t), F(t) = $F(t, x)p{t, T)dz.
Запишем упрощенный алгоритм гауссовской аппроксимации уравнениями
расширенного фильтра Калмана
8i/8t=Rx8F(t,
8Rx/8t=(Nx/2)-R?82F(t, t(z))/5t2. 1 1
Из второго уравнения получаем приближенное решение в стационарном состоянии
( /8f\2 11/2 ( <в0 V
Rx = \N0Nxj2 — х^ , х=1+ т2 > (11.6.4)
( \8г J J \Дсо/
где черта сверху означает осреднение по времени, Д<в2 = (5//5т)2//2 характеризует
среднеквадратическую ширину спектра сигнала.
1 Ширмаи Я. Д., Маижос В. Н. Теория и техника обработки радиолокационной
информации на фоне помех.— М.: Радио и связь, 1981.—416 с.
Уидроу Б., Стириз С. Адаптивная обработка сигналов: Пер. с англ, под ред.
В. В. Шахгильдяна.— М.: Радио и связь, 1989.—440 с.
Ефименко В. С., Харисов В. Н. Оптимальная фильтрация в задачах простран-
ственно-временной обработки и ее характеристики//Радиотехника и электроника.—
1987,—Т. 32, № 8,—С. 1654—1662.
556
Если бы временная задержка определялась только по огибающей, т. е. для
радиосигнала s(t, т)=/(Г —т)со5со0Л то в (4) нужно было бы положить х=1.
Дисперсия оценки по огибающей и высокочастотному колебанию уменьшается
в у/у. раз.
Однако алгоритм гауссовского приближения (3) оказывается практически
неработоспособным. Это объясняется тем, что характеристика соответствующего
дискриминатора имеет множество точек устойчивого равновесия, и апостериорная
п. в. p(z, т), как и в примере 9.5.2, многомодальная (см. рис. 9.15).
При приближенном решении задачи фильтрации многомодальный характер
апостериорной п. в. можно учесть разными способами. Так, можно применить
полигауссовскую аппроксимацию1. При этом аппроксимирующая п. в. имеет вид п
Р(т)= Е PkN(mk, Dk),
к = 1
п
где рк— весовые коэффициенты, £/?t=l, рк>0; тк и Dk — м. о. и дисперсия
1
нормальной п. в. N(mk, Dk).
При этом число параметров, определяющих апостериорную п. в., равно Зп,
где п — число пиков апостериорной п. в. Оно имеет порядок числа периодов
высокочастотного колебания в огибаюхцей импульсного радиосигнала, т. е.
п ~<о0/&.&>. В зависимости от диапазона частот и ширины спектра сигнала число
параметров велико (и ~ 3 10...3 106), что является основным недостатком такой
аппроксимации.
Укажем два способа модификации полигауссовской аппроксимации2, позво-
ляющие уменьшить число определяющих параметров. Первый и очевидный путь
заключается в учете квазипериодического характера апостериорной п. в. (см.
рис. 9.15). Отдельные пики ее расположены через интервалы времени, приближенно
равные периоду высокочастотного колебания Го = 2я/соо. и имеют примерно
одинаковую ширину (DkxD'). С учетом этого аппроксимирующую п. в. можно
записать
п
р(т)= Е pkN(m+kT0, D). (11.6.5)
1
При этом число определяющих параметров (m, D, рк, к= 1, п) уменьшается до и + 2.
В результате решения уравнения (2) с использованием (5) для оценки и ее
дисперсии можно прийти к следующим формулам:
' и
т= т/?(т)(й = т + Т0/с, (11.6.6)
J к = 1
О
RT = D, = D+T0 V (к-к)2рк. (11.6.7)
1
1 Alspach D. L., Sorenson H. W. Recursive Bayesian Estimation Using Gaussian
Sum Approximations.— Automatica.— 1971.— Vol. 7.— P. 465—477.
2 См. сноску2 на с. 449.
557
Дальнейшего уменьшения числа определяющих параметров можно достигнуть
при втором способе, базирующемся на допустимости представления аппрок-
симирующей п. в. в виде произведения р (т)=р„ (т)р, (т), где р„(т)— плавно
изменяющаяся функция («огибающая») и р3(т)— быстро меняющаяся периодичес-
кая с периодом То функция («заполнение»). Такое представление соответствует
характеру апостериорной п. в. (рис. 9.15). Функции р„(т) и р,(т) можно задавать
нормальными п. в. или Т-распределениями типа (9.2.29). Однако задание р(т)
в виде произведения двух функций как бы постулирует апостериорную незави-
симость задержек огибающей и высокочастотного заполнения. Поэтому более
оправдано использовать обобщение такого представления:
00
p(*)=c Z ехР
к = — ао
1 , , . / т — in — к
-(х—т—кТо, x — niAR 1
2 \ т—Я70
(11.6.8)
Здесь С—нормировочная постоянная; т„ — м. о. «огибающей» ро(т);
т+кТп— точки максимума «заполнения» р,(т); R — корреляционная матрица
размера 2x2. Если R — диагональная матрица, то (8) переходит в произведение
р (т) =ро (т)р, (т). Аппроксимирующая п. в. (8) определяется пятью параметрами
(она не зависит от числа пиков апостериорной п. в.).
Заметим, что п. в. (8) встречалась ранее в (9.5.22) при рассмотрении примера
9.5.2 методом дополнительной переменной с использованием гауссовской ап-
проксимации. Действительно, при т = тд и очевидной замене обозначений (9.5.22)
совпадает с (8). Таким образом, предлагаемый метод «огибающая — заполнение»
является частным случаем метода дополнительной переменной. Учитывая общий
характер последнего метода, рассмотрим его подробнее.
Метод дополнительной переменной. Принципиальное содержание этого ме-
тода было изложено в примере 9.5.2 для частного примера постоянной
временной задержки т(г ) = x = const. Суть метода состоит в сведении задачи
аппроксимации многомодальной апостериорной п. в. к задаче обычной аппрок-
симации в расширенном пространстве переменных путем искусственного раз-
деления случайных временных задержек огибающей и высокочастотного колебания
радиосигнала.
Запишем наблюдение в виде
^(0=Лг-т)созшо('~тд) +»о(0, (11.6.9)
в котором временные задержки огибающей и высокочастотного колебания
сигнала расщеплены. Однако, чтобы учесть «жесткую» временную связь между
т(Г) и тд(г), зададим их уравнениями
c/iM = g(r, т)+щ(г), <7T„/A=--g(z, т)-Нг,(г), (11.6.10)
где g(r, т)—детерминированная функция аргументов.
Если в начальный момент времени т(О) = тд(О), то т(/) = тд(г) при всех г>0.
Равенству процессов при Г = 0 соответствует начальная (априорная) п. в. p(t=
= 0, т, тд)=ррг(т)8(т — тд). При этом апостериорная п.в. p(t, т, тд) должна
включать 5-функцию, так как т(/) = тд(г).
Вместо отыскания апостериорной п. в. непосредственно для такой задачи
получим ее с помощью решения вспомогательной задачи, отличающейся лишь
тем, что значения задержек в начальный момент времени не совпадают:
558
т(О)/тд(О). Согласно (10) при этом условии т(Г)/тд(/), а будут точно совпадать
их приращения во времени, т. е. тд(/) = т(/) + const.
Пусть в записи (9) полезного сигнала о>оТд(О = шо'с(О +<ро, где <р0—случайная
фаза радиосигнала, которую примем равномерно распределенной в интервале
(0,2п). При этом соотд (0) = о>(|г (0) + <р0- Если допустимые значения тд(0) ограничить
неравенством о>огл (0) < 2л, то согласно результату примера 1.5.2 п. в. сл. в.
тд(0) = т(0) +<ро/о>о будет равномерно распределенной в интервале (0, То) неза-
висимо от вида априорной п. в. ррг(~) для т(0). Это позволяет считать тд(0)
и т(0) независимыми сл. в. с совместной начальной (априорной) п. в.
рд(г = О, т, гд)=То 'рРг (г)- (11.6.11)
Таким образом, при одних и тех же уравнениях наблюдения (9) и сооб-
щения (10) исходная задача фильтрации отличается от вспомогательной только
начальным условием: в первой начальное условие содержит дельта-функцию
p(t = O, т, тл) =/?рг (т) 8 (т- тд), второй оно задано выражением (И). По истечении
некоторого времени, определяемого длительностью переходного процесса в си-
стеме, начальные условия «забываются» и не влияют на стационарный режим
работы. В этом режиме решения исходной и вспомогательной задач будут
совпадать.
Путем решения задачи фильтрации в расширенном пространстве переменных
(т, тд), т. е. применением метода дополнительной переменной почти в том же
виде, как он изложен в примере 9.5.2, можно доказать1, что решение p(t, т, тд)
исходной задачи фильтрации выражается через решение pa(t, т, тд) вспомогатель-
ной задачи:
p(t, т, тд)=срд(г, т, тд)8(т —тд) (11.6.12)
или, если интегрировать по тд,
р(г, т) = с/?д(/, т, т). (11.6.13)
При получении решения p„(t, т, тд) вспомогательной задачи фильтрации
нужно учесть, что апостериорная п. в. p(t, т, тд), рассматриваемая на оси
тде( — со, со), будет периодической по тд с периодом То (см. рис. 9.16). Это
объясняется тем, что, во-первых, оператор ФПК, входящий в уравнение
фильтрации, не зависит от тд согласно (10), во-вторых, в начальное условие
(11) тд не входит, в-третьих, полезный радиосигнал периодичен по тд. Поэтому
достаточно аппроксимировать один из горбов апостериорной п. в., применяя
обычные (для унимодальных п. в.) методы аппроксимации, а затем периодически
повторяя аппроксимирующее выражение. Оценка временной задержки т(/) при
использовании аппроксимации апостериорной п. в. выражается через параметры
аппроксимирующей п. в. (см. пример 9.5.2).
Из (12) видно, что апостериорная п. в. pit, т) для исходной задачи является
сечением п.в. pa(t, т, тд), изображенной на рис. 9.16, плоскостью т = тд. П.в.
Рд(Г, т, тд) строго периодична по тд. Поэтому pit, т) будет квазипериодической
по т, причем характер периодичности определяется огибающей радиосигнала,
которая характеризует изменение рд(/, т, тд) по т.
1 См. сноску на с. 451.
559
Изложенная методика решения задачи оптимального оценивания временной
задержки т (г) с помощью введения дополнительной переменной тд(Г) распрост-
раняется на радиосигналы более общего вида, когда они зависят не только
от т(/), но и от других параметров или когда т(/) является компонентой
векторного марковского процесса X(/) = {т (Z), ц(г)}. Пусть
t,(t) = s(t, X) +ZZ0(/)=/'(Z —Т, h)cOS(00(/-t) + ZZ0(z),
dr!dt=gx{t, X)+zzT(f), <7ji/«7 = gp(z, X)+nJz).
(11.6.14)
(11.6.15)
где nx(r)= [zz,(Z), n„(Z)]T — БГШ.
Вводится дополнительная переменная тд, описываемая уравнением
dтд/dt = gz(t, X) + zzx(z), (11.6.16)
и аргумент косинуса ю0(Г—т) заменяется на (o0(f —тд). т. е. полезный радиосигнал
s(t, X) представляется в виде s(t, X, тд). Априорная п. в. для вспомогательной
задачи задается в виде р(0, X, тл) = сррг(Х). Решив па основе того или иного
приближения уравнение фильтрации Стратоновича для вспомогательной задачи,
получим рд(г, X, тд)=рд(Г, т, ц. тд). Апостериорная п. в. для исходной задачи
p(t, т, и) определяется равенством p(t, \.) = cpa(t, т, р, тд = т), аналогичным (13).
Общий случай охватывает задачу синхронизации при нежесткой связи между
временными задержками огибающей и высокочастотного заполнения сигнала,
что часто обусловлено дисперсиоиностью канала (например, прохождением
сигнала через ионосферные слои атмосферы). В подобных случаях полезный
радиосигнал обычно можно представить в виде
s(t, т, ф) = f(t — t)cos [о>о(/ — г) +<р(Г)], где ср (Z)—марковский процесс, описыва-
ющий дополнительные флюктуации фазы. При таком представлении имеем
частный случай общей задачи при X(z) = {t(z), <р(г)}. По-прежнему вместо
задержки x(z), входящей в высокочастотное колебание, вводится дополнительная
переменная тд(г) и рассматривается вспомогательная задача фильтрации процесса
{т (7), t,(Z), <р(/)}. Решение исходной задачи дается соотношением
р(/, т, ср)=рд(г, т, тд = т, ср).
Структурная схема СОС. Рассмотрим подробнее задачу объединенной син-
хронизации для частного примера, когда т(г) есть винеровский процесс (в
уравнениях (10) g(t, т) = 0). Из алгоритма расширенного фильтра Калмана -Бьюси
имеем следующие уравнения для параметров:
dmJdt = (R„d/dr + R^d/dra)F(t, т„ сггд),
<7сид/Л = (Л1ДР/ат + Лдда/с)тд)£(г, zzzt, zzza),
dt 2 [_1 1J L 0 Wo./'2M_
(11.6.17)
(11.6.18)
(11.6.19)
где F(t, г, T„) = (2/A0)^(z)/(r-T)cosa>0(?-Tfl).
Оценка t(z) по максимуму апостериорной п. в. определяется через z/д,
тл и R выражениями (9.5.26) и (9.5.27). Значения элементов матрицы R находятся
из уравнения Риккати (19). Начальные условия для его решения следуют из
(И): RT,(0) = 0 (вследствие независимости т(0) и тд(0)), (0) = То/12 (дисперсия
сл. в. тд(0), равномерно распределенной в (0, То)), R„(0) равна априорной
дисперсии т(0). На практике интервал начальной неопределенности т много
560
больше периода То, т. е. Л„(0)э> Лдд(0). Расчеты по (19) показывают, что в этих
условиях переходные процессы для Rw(t) и Rm(t) завершаются намного раньше,
чем для R„(t). Однако в стационарном режиме элементы матрицы R одинаковы:
Rm = R,a = Rzz = R„ (11.6.20)
где Rx определено (4).
Учитывая, что кроме сравнительно кратковременного переходного процесса
выполняется равенство ЛТД = ЛДД, уравнение (17) можно упростить, подставив
в него (18):
dmz/dt = dmnldt+ (R„-Ran)8F(t, mT, ma)/dz=
= 8ma /dt + (R„ - Rm) (2/7Vo ) £ (?) (3/(1 - mj/dt) cos coo (t - шд).
Для радиосигналов обычно выполняется неравенство
(ау/атд)г/(г5/йт)2=со^/2/(а//ат)2=а>^/Аа)2» 1.
Поэтому первое слагаемое в правой части (18) много меньше второго и им
можно пренебречь. При этом уравнение (18) с точностью до обозначений (вместо
фазы фигурирует тд) переходит в уравнение, описывающее обычную ФАП:
<7тд/Л = сооЛдд(2/Ао)^(1)./'(1-'ид)8ша)о(?-/ид). (11.6.22)
Уравнения (21), (22) совместно с выражением (9.5.26) для оценки т(1)
определяют структурную схему СОС. Результаты моделирования и расчетов
различных систем радиосвязи и радионавигации показывают, что переход от
уравнений (17), (18) к упрощенным уравнениям (21), (22) практически допустим
уже при о>о/Д<п>-1.
На рис. 11.22 приведена структурная схема квазиоптимальной СОС, по-
строенная по уравнениям (21), (22), (9.5.26), когда огибающая f(t) радиосигнала
представляет собой периодическую последовательность видеоимпульсов (с
тактовой частотой f, и постоянной энергией импульса £), формируемых
из высокочастотного колебания cos2tu/()/ подстраиваемого генератора (ПГ)
Рис. 11.22. Структурная схема квазиоптимальной СОС
561
Рис. 11.23. Нормированные дисперсии
ошибок оценок временных задержек
радиосигнала
Рис. 11.24. Отношение дисперсий оши-
бок оценок задержек по огибающей
и СОС
с помощью делителя частоты. СОС состоит из ФАП, системы слежения
за задержкой огибающей (ССЗО) и вычислителя т(7).
Фазовая автоподстройка отслеживает задержку высокочастотного колебания
(с неопределенностью до целого числа периодов Го), давая точную оценку
Лтд(7) = тд(7) — тд(0), Выходное колебание ФАП используется в качестве
опорного для ССЗО. Поскольку изменения тд(7) и т(7) одинаковы, то полученная
оценка Ат используется в ССЗО для изменения задержки т (7) — т (0) в огибающей
входного сигнала. При этом роль ССЗО сводится к оценке начальной задержки
огибающей т(0). Управляемая линия задержки (УЛЗ) осуществляет задержку
тактовых импульсов, поступающих с делителя частоты, на регулируемое время
ш,(/). Импульсы с выхода УЛЗ запускают формирователь импульсов /(/—шт).
В блоке вычислителя оценки по т,, тл и R формируется оценка т(г).
Результаты моделирования показывают, что дисперсии оценки задержки
радиосигнала для исходной и вспомогательной задач точно совпадают в стационар-
ном режиме работы СОС и на большей части переходного режима. На рис. 11.23
представлены зависимости нормированной дисперсии ошибки оценки 5,2 = £>,/т^ от
безразмерного времени t/T при отношении сигнал-шум в импульсе q=2E]N0',
ти — длительность импульса, Т—период следования импульсов в пачке. Кривая
1 относится к СОС, а кривая 2—к системе оценивания задержки только по огибающей
радиосигнала. Видно, что дисперсия оценки временной задержки СОС на несколько
порядков меньше, чем для системы слежения за задержкой только по огибающей.
Результаты на рис. 11.23 характеризуют преимущества СОС при больших
отношениях сигнал-шум, когда ФАП работает в основном в линейном режиме.
При уменьшении отношения сигнал-шум из-за перескоков фазы в ФАП ком-
пенсация Ат осуществляется неточно. Улучшение работы СОС в этих условиях
достигается увеличением коэффициента усиления (Л„—Ядд) в ССЗО. Результаты
сравнения СОС со схемой синхронизации только по огибающей сигнала
представлены на рис. 11.24 зависимостью отношения дисперсий ошибок систем
р от д. Они получены математическим моделированием работы СОС (при
оптимально подобранном коэффициенте усиления ССЗО).
562
Хотя приведенные результаты относятся к конкретной системе дискретной
связи (модель т(?) задана линейными уравнениями вида (11.4.2) при г=т, 0 = 0,
27ти=6 104,/от„ = 2 102), однако они носят общий характер -применение СОС
в системах радиосвязи и радионавигации позволяет существенно повысить
точность оценивания временной задержки радиосигнала при любых отношениях
сигнал-шум. При малых отношениях сигнал-шум особенно продуктивным оказыва-
ется использование для аппроксимации p(t, т, тд) во вспомогательной задаче
обобщенной Т-аппроксимации (см. пример 10.3.2).
Глава 12. ИНТЕРПОЛЯЦИЯ СООБЩЕНИЙ
В задаче интерполяции (сглаживания) информационного сообщения
X(t) по наблюдению S,(f) = s(t, X(t)) + п0(t) на интервале [0, г] нужно
получить апостериорную п. в. для Х(т), те 10, ZJ или соответству-
ющую оптимальную оценку X (г), т. е. оценка сообщения отыскивается
в момент времени, предшествующий текущему моменту наблюдения.
Различают три вида интерполяции (сглаживания):
1) интерполяция на фиксированном интервале (обратная ин-
терполяция)— интервал наблюдения фиксирован (t—постоянная
величина), а т изменяется от 0 до t;
2) интерполяция в фиксированной точке (прямая интерполяция)
— фиксирован момент т, в который должна быть получена
оценка, и — текущее время;
3) интерполяция при фиксированной задержке — t и т изменя-
ются так, что t — т = const— постоянное время задержки.
Ниже для этих трех видов интерполяции получены алгоритмы
оптимального сглаживания в дискретном времени, затем пре-
дельным переходом — в непрерывном времени и, наконец, с ис-
пользованием методов гауссовской аппроксимации получены
квазиоптимальные алгоритмы. Как частный случай рассмотрена
линейная задача сглаживания.
12.1. ОПТИМАЛЬНАЯ ИНТЕРПОЛЯЦИЯ
В ДИСКРЕТНОМ ВРЕМЕНИ
Пусть наблюдаемый процесс есть сумма полезного сигнала
s(tv, Xv) и дискретного белого шума nOv:
= = + v = 0, 1, 2, ..., (12.1.1)
где Xv—марковский процесс в дискретном времени, заданный
п.в. перехода p(Xv+1|Xv) и начальной п.в. р(Х0).
Оптимальную обработку в задаче интерполяции определяет
апостериорная п. в.
Pv/m(M=P(^o)- (12.1.2)
563
Однако мы получим рекуррентные соотношения не для pv/m,
а для двумерной п. в.
(12.1.3)
При этом уравнения интерполяции получаются несколько проще
и единообразнее, а интересующая апостериорная п. в. находится
из известного условия согласованности п. в.
?v/,n (М = J рт, V (Ч„ М d К- (12.1.4)
При выводе уравнений оптимальной интерполяции восполь-
зуемся соотношением
для всех O^vcp^m, (12.1.5)
которое следует из равенств
=р(к, гх1,
=р(К ^Ы^/у/р^, ^-1)р(^\к)=р(к\\, sr1).
Рассмотрим последовательно указанные три вида оптимальной
интерполяции.
Интерполяция в фиксированной точке. В этой задаче по
известной п. в. р (Х„„ \ | £,”) требуется получить р(Хш+1, Xv| ^+1).
Решение задачи дается обычным алгоритмом оптимальной
фильтрации для вектора (A.m, A.v) с текущим т:
р(х„!+1, xv|^)=fp(xm, (12.1.6)
р(К.+ 1, ЧКо + 1) = т,„+1р(Хт+1, Ч1^Мт+1|Хш+1). (12.1.7)
Итак, рекуррентный алгоритм (6), (7) решает задачу оп-
тимальной интерполяции с фиксированной точкой. Уравнения
(6), (7) необходимо дополнить очевидным начальным условием
P (К, КI I т = V=Р (М 5 (хт - Ч). (12.1.8)
На рис. 12.1 представлена схема алгоритма, реализующего
оптимальное сглаживание в фиксированной точке. До момента
т +1 = v наблюдение поступает на оптимальный фильтр (ОФ),
вычисляющий p(Xm+i). В момент 77i+l=v на выходе главного
вычислителя, работающего согласно выражениям (6), (7), уста-
навливается начальное условие (8). Далее реализуется алгоритм
(6), (7).
Интерполяция на фиксированном интервале. Здесь по известной
п.в. p(Xm, X.v + 11 Е/о) требуется получить p(X.m,X.v | Е,'о). Решение
задачи обратной интерполяции дается формулой
р ч । ^)=р (м [ 44-444 +11 d +1 °2-1 -9)
J 1 I ЗД
564
Рис. 12.1. Алгоритм интерполяции в фиксированной точке
Эта формула получается следующим образом:
p(Km, xj К, Xv+1|^)JXv+1 =
=ШМ^+1> К» &)р(Ъп, K+1\^)dK+1.
Но согласно (5) имеем
p(XJZv + 1, Xm,Чо) = р(М^ + 1, ^6) =
=pMVo)p(^v+i |Xv)/p(Xv+11 Vo),
что и доказывает (9). Рекуррентный алгоритм (9) следует
дополнить начальным условием
p(km, A.v+1| V)=p(M5(Xm-Xv+1). (12.1.10)
Полный процесс обработки реализации может осуществить
вычислитель, схема которого представлена на рис. 12.2. Он включает
в себя три основных устройства: оптимальный фильтр (ОФ), блок
памяти (БП) и оптимальный интерполятор (ОИ), работающий
в соответствии с (9). Перед началом работы в БП заносят набор
априорных переходных вероятностей p(A.v+1 j A.v), v = 0, m— 1. «Про-
смотр» реализации V в прямом времени сопровождается рекуррент-
ным вычислением в ОФ апостериорной п. в. р(\,) и «экстраполиро-
ванных» плотностей p(X.v+11V) (по обычному алгоритму оптималь-
ной фильтрации) и записью их в БП. После просмотра устанавлива-
ется v+l=m, начальное условие (10) и начинается работа второй
ветви схемы в обратном времени. Наиболее сложным устройством
этой схемы является, по-видимому, БП: он должен запоминать
«целые кривые», соответствующие априорным и апостериорным п. в.,
либо заменяющие их наборы статистик.
Рис. 12.2. Алгоритм интерполяции на фиксированном интервале
565
Интерполяция при фиксированной задержке. Теперь по р {кт, Av |
нужно вычислить р(кт +1, kv +11 £о + *)• Требуемые соотношения можно
получить из (9), (6) и (7). Ясно, что теперь (9) следует рассматривать
как интегральное уравнение с неизвестной р(кт, Av + 11 с,”):
р(К, Av+1|^)JAv + 1. (12.1.11)
Выражения (6), (7) удобно объединить в одно уравнение
p(Am + 1,Xv+1|^+1) =
= ст+i р (^, +1| Xm + i) f р (Х„„ К + i | р (А„, +! | Ат) d Ат. (12.1.12)
Итак, задача интерполяции при фиксированной задержке
может быть решена, если использовать уравнение обратной
интерполяции (11), рассматриваемое в прямом времени, и урав-
нение прямой интерполяции (12). Для «вывода на режим»
алгоритма (11), (12) необходимо предварительно вычислить
/>(VvAKo7- Проще всего это можно сделать, используя
алгоритм (6), (7) сглаживания в фиксированной точке.
Алгоритм оптимальной интерполяции с постоянным запаз-
дыванием (т — v = к = const) может иметь следующий вид:
1. Установить /, v = 1, т = к +1.
2. /=/+1, пока 1^т, находить р(к„ Xv|£o), используя алгоритм
сглаживания в фиксированной точке (6), (7).
3. Решить (11) и найти p(Am, Xv+1 Цо)-
4. Вычислить p(Xm+1, Xv+11 £,o + l) согласно (12).
5. Установить v = v+l, т — т-\-\ и перейти к п. 3.
Пример 12.1.1. Оптимальная интерполяция с постоянным запаздыванием на
один шаг. Так как в данном случае v+1 =m, то
и достаточно решить (12). Имеем
о HV- W )=<•„.+.IV.)Ж)Ж,+.IU
рА1^о,+1)=^+1/’А.).1>(^+11 V)p(V I K^m+V (12.1.13)
Это соотношение определяет алгоритм оптимальной интерполяции с постоянным
запаздыванием на один шаг.
12.2. ОПТИМАЛЬНАЯ ИНТЕРПОЛЯЦИЯ
В НЕПРЕРЫВНОМ ВРЕМЕНИ
Уравнения оптимальной интерполяции в непрерывном времени
для всех трех случаев можно получить из соответствующих
уравнений в дискретном времени путем предельного перехода,
полагая tm~t, tv = x, Zv + i=t + A.
566
Если Хг = Х(Н— марковский диффузионный процесс, то усло-
вная п. в. p(XJ Xs) удовлетворяет уравнению ФПК
5p(Xt|Xs)/St = L!1t{p(Xt|Xs)}, т>5 (12.2.1)
и обратному уравнению Колмогорова
-3p(K\K)/ds = L^{p(Wks)}, t>s, (12.2.2)
где
(12.2.3)
(12.2.4)
я(Х, 1)— коэффициент сноса; £>(Х, z)— коэффициент диффузии.
Если Xt— векторный диффузионный процесс, то операторы
(3) и (4) имеют вид
МЭ=-^а(МИ+2[^ь(мУ1и. (12.2.5)
Lt {-}=aT(X, ()A{-)+lsp|b(l, ()('1V{.}1 (12.2.6)
t/Л i. I \ иЛ. J Ur. I
где a(X, z)—вектор коэффициентов сноса; b(X, z)— матрица ко-
эффициентов диффузии; Sp — след матрицы;
д а)т
ЭХ [SXi ’ ЗХ2’ ’ ’ 3XrJ
Конечное и начальное условия для (1) и (2) задаются
следующими соотношениями [8]:
Р (\ IМI S=T = 5 (Хт - Р (Хт I Х5) I т=5 = 8 (Хт - Х5).
В дальнейшем нам потребуются вытекающие из (1) и (2)
приближения1:
р(Хт+д|Хт)^8(Хт+д-Хт) + £х*{8(Хт+д-Хт)} А, (12.2.7)
р(Хт+д(Х>8(Хг+д-Хт)+£Ч+д{8(Хт+д-Хг)}А, (12.2.8)
а также справедливое для любых f и ф равенство
J/(X) Ц {ф (X)} JX = f ф (X) L? {/(X)} JX. (12.2.9)
Кроме этого будет также использовано приближенное равенство,
следующее из (7.3.5);
p(^v|Xv)^c[l+F(zv, XV)A], F(t, X)]2.(12.2.10)
1 Параев Ю. И. Введение в статистическую динамику процессов управления
и фильтрации.— М.: Сов. радио, 1976.— 184 с.
567
Интерполяция в фиксированной точке. Введем обозначения
t' = /+А, Х' = ХГ+Д, Х = Х(, подставим в (12.1.12) вместо д(Х'|Х)
выражение (7), заменим функционал правдоподобия согласно
(10) и используем (9). Выполнив интегрирование с дельта-
функцией, получим
РГ.т(Х',Хт) = с[а.т(Х', XT)+Lv{/?f.r(X', \)}A + F(Z', Х')р1л(Х', ХТ)А].
Вычислив нормировочный коэффициент с и перейдя затем
к пределу А-»0, придем к нужному результату
d/уДХ,, \)/dt = L^,{р,..(К, Xt)} + [F(z, Хт),
(12.2.11)
где F(z) = jF(r,
Начальное условие для (11) является аналогом (12.1.8):
А.#(, XT)|,=T=A(Xt)5(Xt-XT). (12.2.12)
Видно, что уравнение (11) фактически является уравнением
оптимальной фильтрации Стратоновича для расширенного век-
тора (Xf, Хт) и поэтому его вывод полностью аналогичен выводу
основного уравнения фильтрации (7.3.8).
Интерполяция на фиксированном интервале. Введем обозначения
С+1 =т' = т + А, rv = x, Xv+1 = X', XV = XT = X, Xm = X(. Подставим
в (12.1.9) выражение /?(Х'|Х) из (8), а п.в. р(Х'|£о) заменим
решением (1):
?(хТоЫхМ4ША-
Тогда
.. /а \ 6 (А/— А.)+Гзс {8 (Л/—X.)} А /л
Воспользовавшись (9) и приближением (1 +х) ”1 = 1 — х+о(х),
в результате предельного перехода А-»0 получим
м- им. «глаз)
( L Гт I'M J Гт\лт/
Это уравнение описывает эволюцию п. в. pf,T(Xf, Хт) при изменении
т от t до 0. Начальное условие для него имеет вид
pt.AK -U (12.2.14)
Интерполяция при фиксированной задержке. Учитывая, что
т = const, введем обозначения
tm + i t , С + 1 Т Хт+1 X, tm /, Xm X, Xv+i ц, Xv ц.
Подставим в (12.1.11), (12.1.12) д(ц'|ц) из (8) и /’(^'1^) из (7),
воспользуемся (9) и (1 +х) ~1 = 1 — х+о(х). Выполнив предельный
переход А-»0, получим
568
-pt-xLl_,{pt<t-xlpt-x} + [Ft^-F^pt,t-x, (12.2.15)
где для краткости обозначено
Рм-т=Рм--г(^> М Pt-x=Pt-W-x\, Ft,x=Noi\^t-s(t, \)]2;
Ff=jFfAipf>(_TtZl(Jl(_T.
Для «вывода на режим» решения уравнения (15) необходимо
использовать (11).
Укажем, что для векторных Х( и в уравнениях оптимальной
интерполяции необходимо брать соответствующие операторы
£{•} и £*{•}, а также функционал F(t, Xt).
12.3. КВАЗИОПТИМАЛЬНЫЕ АЛГОРИТМЫ
ИНТЕРПОЛЯЦИИ В НЕПРЕРЫВНОМ
ВРЕМЕНИ
Полученные выше уравнения оптимальной интерполяции яв-
ляются слишком сложными для реализации в реальной ап-
паратуре. Для их упрощения могут быть использованы различные
методы аппроксимации, в частности, рассмотренные в гл. 10.
Ниже приведены квазиоптимальные алгоритмы интерполяции
в гауссовском приближении при интегральной и локальной
аппроксимации. Ради простоты вывод дается для скалярного
случая интерполяции при постоянной задержке, для векторного
приведены окончательные алгоритмы.
Укажем вспомогательные формулы, которые будут исполь-
зованы в дальнейшем. Если рЦ)— нормальная п. в. N\m0, Ro), то
для любой дифференцируемой достаточное число раз функции
/(X) справедливы равенства
M{V(k)}=™0M{/} + /?0M{5//5X}, (12.3.1)
м{(?с-т)2/(х)}=л0м{/}+л^м{а2//ах2}. (12.3.2)
Обе эти формулы доказываются интегрированием по частям.
Имеют место также следующие соотношения:
= = (12.3.3)
ainp(X)/aA.= -(X-m0)/P0. (12.3.4)
Формула (3) следует из 112.2.9), а (4) — очевидна.
Пусть ХТ = (Х, Xi) и рш — нормальная п. в. N(m, 7?), р^Х^
— нормальная п. в. N(m1, kJ. Если р(Х) удовлетворяет уравнению
ар/ат = (р/р1)Е)11{р1}-р1£^ {р/рД, (12.3.5)
где L и L* — операторы, определенные (12.2.3) и (12.2.4), то,
положив
569
<9Л| 5Xj
7==M{/(x)}=f/(x)P(x)jx,
получим следующее дифференциальное уравнение для /:
82= м + м fbR г1 (2с! - mJ -М - М --М \b ^{1.
дт (5X.J ( ' 1 [aii aXjj 2 [ ax?j
(12.3.6)
Действительно, умножим обе части (5) на /(X) и проинтег-
рируем по X:
а_
dt
£{Р1}/ L{p'f'lpd'K=
Pl I Pl ) )
1 df 1
pY I oK1 2
,, df
= МГрГ
Pi
\hSfdPl^n db 8f XAn 82f
2Ь^,дГ,+ 2р'г^зЦ+iPl3^_
(ЗЛ-! ОЛ-! CM-! (ЗЛ-! 2 0Л1
Отсюда с использованием (4) придем к (6).
Заметим, что фактически (5) есть уравнение интерполяции
на фиксированном интервале. Полагая в (6)/=Xj или f=(k1~Xt)2,
можно получить уравнения для интерполяционной оценки или
ее дисперсии при интегральной гауссовской аппроксимации.
Интерполяция в фиксированной точке. Уравнение (12.2.11)
представляет собой уравнение оптимальной фильтрации вектора
ХТ = (Х(, Хт), где Хт = const. Поэтому коэффициенты сноса и диф-
фузии для векторного процесса X имеют вид
»('. Ч=[“( оМ]. ь('>4=[г,('’Чо
Умножив (12.2.11) на X и проинтегрировав обе части по X,
с учетом (1) и (3) получим
JX/Jt = M{a} + 7?M{JF/JX}, (12.3.7)
где X = JXptiT(Xt, XjJX, R = j(X — X)(X — X)Tpt>T (Xt, XjJX.
Если (12.2.11) умножить на (X — X)(X—Х)т и проинтегрировать
по X, то с учетом (2) и (3) придем к уравнению
dR/dt = М {(X — Х)ат} + М {а (X — Х)т} + М {b} — RM {F2} R, (12.3.8)
где = F(f’ М-
ОК \ OK / '
Уравнения (7), (8) определяют оценку интерполяции в фиксиро-
ванной точке. Если оценка оптимальной фильтрации в точке т есть
Хт, а ее дисперсия Rx, то начальные условия для фильтра имеют вид
570
Х(Т)=ГЯ R.=r» »]• (12-3.9)
Уравнения, соответствующие локальной гауссовской аппрок-
симации, можно получить из (7), (8) путем разложения функций
dFIffk, a(?,~k), b(7, X) и d2F(t, ty/dtf в ряд Тейлора в окрестности
точки Х = Х с учетом линейных членов. При этом получим
dX/dt=a(t,X) + RdF/dl, (12.3.10)
V = (12-3.11)
dt ffk \дк ) ' Зк (<А)
Систему уравнений (10), (11) следует решать при условии (9).
Если Xt и —векторы, то (7), (8) и (10), (11) описывают
векторный вариант соответствующих квазиоптимальных алго-
ритмов.
Приведем уравнения для линейной задачи:
ЖН°]’ <123 ,2)
£(z) = Hk(z) + n0(z), (12.3.13)
где Н= [h 0]. Алгоритм линейной интерполяции в фиксированной
точке имеет вид
d\_ dt "a(W 0 + R VN0-l[^(z 0 )-h(/)VT 9 (12.3.14)
d В -it RtT~l d „ = — ii — RAT + AR + A, 0 -RHTNo JHR (12.3.15)
~dt в RttJ 0 0
или
4?£[/4?Z = a(z)X( + R((hTNo —h£(),
XT/t = RT(hTNo 1 (£, —hX(),
dR[t/dt = aR„ + R„ ат + Nk - RI(h TN 0“1 hR„,
</RIt/J? = RTt[aT-liTN0”1hRtt], (12.3.17)
dRxxldt = — RtfhTNo 1 hR(T.
Пусть система работает в стационарном режиме
и R/t = Rz =const. Тогда из второго уравнения (17) следует, что
RtI (z) = R./: ехр {(ат —hTNo 1 hRZ;)(z —т)},
а из третьего имеем
t
Rit (t) = Rга - f RTt hT N о 1 hRtT dt.
T
571
Из двух последних соотношений ясно, что время, в течение
которого еще происходит улучшение характеристик интерполяци-
онной оценки, определяется постоянной времени, равной мак-
симальному собственному числу матрицы ат — hTNo ^R»-
Интерполяция на фиксированном интервале. Выше указывалось,
что уравнение (6) при подстановке в него вместо f соответст-
вующих функций позволяет получить квазиоптимальный алгоритм
интерполяции на фиксированном интервале:
й?Хт/(/<5?т = М{я(т, А.т)} + М{6(т, XT)Z?“1 (Хт —Хт)} — (12 3 18)
-м{г% \)/а\},
dR^ldx = М {2а (т, \) (А.т- Хт/()} +
+ M{2ft(r, (12.3.19)
-М{2(Хт-Х1/1)^(т, Хт)Ж}-М{6(т, Хт)}.
Если разложить функции я(т, \) и ft(r, Xt) в ряды Тейлора
в окрестности точки \ = Хт/( и ограничиться первым приближе-
нием, то получим алгоритмы при локальной гауссовской ап-
проксимации:
й?Хт/( = й(т, Хт/() + 6(т, А.т/()7?т-1 (Zt/(-\)-6>£>(t, XT/()/a£T/t, (12.3.20)
dRx/t/di: = 2[da(t, kx/t)lldXx/t']Rx/t + 2b{T, £T/t).
(12.3.21)
При выводе последнего уравнения учтено, что
м {(\ - Хт) (\ - £т/1)}=м {(л.т - Хт/Г)2}=Rx/t.
В линейном случае <7 = ц(т)Хт, b = b{t). Поэтому
JXT/I = а (т) XT/t + b (т) R f1 (£т/( - К\ (12.3.22)
dRxft jdi = 2а (т) Rx,t + 2b (т) R т~1 Rx,t - ft (т). (12.3.23)
Все три приведенные системы уравнений решаются в обратном
времени с начальными условиями
Xt/t = Xt, R,lt = Rt. (12.3.24)
Предварительно необходимо решить задачу текущей фильтрации
в прямом времени и запомнить все \ и Rr.
Приведем векторный вариант уравнений (18), (19):
г71т/1/^т = М{а(т, \)} + М{Ь(т, {^Ь(т, XT)/ftXj,
(12.3.25)
= М {biT} + М {aV} + М {bRf1 V} + М {XVR~1 b}-
-M{b}-M{iftb(L х)/ах}-м{(аь(т, х)/ах)тхт}. (12.3.26)
При локальной гауссовской аппроксимации будем иметь
572
Рис. 12.3. Алгоритм линей-
ной интерполяции в фикси-
рованной точке
<7Цг/</т = а(г, £t/() + b(x, (12.3.27)
dR^/di = Rt/f 3ат/3£(/г + [5ат/5лт/(] TRt/t +
+ Ь(т, XT/I)RT-1RT/I-|-RT/(RT-1b(T, Хт/1) —Ь(т, £T/t). (12.3.28)
Применительно к линейной задаче (а = А(т)Хт, Ь = Ь(т)) имеем
d^itfdx^ A(x)XT/I+b(T)RT_1 (£T/t —£т), (12.3.29)
JRT/t I di = RT/t А (т) + A (t) Rt/t + b (t) R ~1 Rt/t + RT/t R ~1 b (t) - b (t).
(12.3.30)
Пример 12.3.1. Линейная интерполяция в фиксированной точке гауссовско-мар-
ковского процесса. Рассмотрим случай
^(г) = Х(г) + и0(г), d'kjdt - — аХ + и1(г).
Применительно к этому примеру уравнения (14), (15) примут вид
o'/X,7-аХА /7?„А0’1(^-Х,)\
\ 0 /+2\л„а0-'(^-Х,)/
dRu/dt = -2nR„ + NJ2-2NolR?.,
dRxl /dt= — a.Ru — 2Ntl 1 Rlt Ru,
dRT,/dt=-2No1R^l.
На рис. 12.3 представлена схема устройства оптимального интерполирования
в фиксированной точке. Его составной частью является оптимальный фильтр.
Алгоритм сглаживания на фиксированном интервале для данного примера
следует из (22), (23) и имеет вид
d\lt /dr = -а^, + (NJ2)RX-1 (X,/(-X,),
dR^jdx = - 2<3.Rxl, + NxR;1 Rx/,-NJ..
На рис. 12.4 приведены зависимости относительной ошибки интерполяции
на фиксированном интервале от длительности наблюдения t и времени ин-
терполяции (8, = R,/D, 5x/t = Rxlt/D, где D=NJ4a). Видно, что ошибка интерполяции
достигает минимума в середине интервала наблюдения; на краях интервала
ошибка одинакова и равна установившейся ошибке фильтрации.
Интерполяция с фиксированной задержкой. Поскольку оператор
в правой части (12.2.15) является комбинацией правых
частей (12.2.11) и (12.2.13), получение квазиоптимальных
алгоритмов, соответствующих (12.2.15), не содержит новых
особенностей. Из-за громоздкости формул опустим вариант
интегральной гауссовской аппроксимации и приведем векторные
573
Рис. 12.4. Зависимость относительной ошибки интерполяции на закрепленном
интервале от длительности наблюдения az и времени интерполяции ах для двух
отношений сигнал-шум q
квазиоптимальные алгоритмы для локальной гауссовской
аппроксимации и для линейной задачи. При этом используем
следующие обозначения:
— М= l —A.( = k —kt,
R(z) = M{Xt V}, R;, = M{k(_T R1==M {kt
A'<'’ 4=saI('’ 4-
Квазиоптимальный алгоритм при локальной гауссовской ап-
проксимации:
j£(/z/? = a(?, k() + R(t)dF(t,
dkt-rlt/dx=a(t-x, k(_T/t) + b(?-T, X(_T/()R-1 (t-x)x (12.3.31)
x(£t_T/,-£t_T)-aZ>(?-T, + kt)/dlt;
dR (t)!dt = A (t, Xf)R (?) + R (?) AT (t, £t)+b (?, Xt) + R (?)F2 (?, X()R (0>
dRJdx = A (f- x, kt_x/()R„ + R„ AT (t- x, Xt_t/t) +
+ b(? — t, X( -T/f)R 1(/—x)R„+RuR 1 (? —r)b(z —T,£t-T/()— (12.3.32)
— b(? —t,£t_t/t) + RiF2(?, ^t)R]5
z/Rj fdt = A (/, Xt)Rj + Rj AT (? — x, X(_Ty() 4-
+ Rt R 1 (? — т)Ь (/ т, kt_ ty() + RF2 (?, kjjRj.
Соответствующий алгоритм для линейной задачи имеет вид
574
dkjdt = A (1)1,4-R (1)HN о 1 (£ (?) - Hl,),
JX,_t/,/Jt=A(i—t)X,_t/,+ (12.3.33)
+ b(i-T)R-1(?-T)(Xt-T/t-£(-I) + R1HTNo1(^W-H^);
t/R(()/c/t = A(()R(() + R(() AT(()+b(t) —R(t)F2(t)R(f),
dR„/dT = A(z-T)Ru + R„AT(*-T) + b(?-T)R~1(z-T)R„ +
+ R„R-1(z —т)Ь(? —t) —b(z —t) —RjF2(?)R1, (12.3.34)
JR1/J? = A(z)R1+R1AT(?-T) + R1R’1(z-T)b(z-T)-RF2 (/)RV
где F2 (z) = HtNq *H.
Пример 12.3.2. ФАП с постоянным запаздыванием. По принятому колебанию
%(г) = Ло8т(соо/ + <р(г)) + ио(г) оценке подлежит фаза (Х. = ср), описываемая апри-
орным уравнением
dqldt = — а<р + пф(г).
Для данного уравнения а (?) = — а<р (г), b(t) = Nv/2.
Пусть соо»1 /а, ошибка оценки фазы мала и, пренебрегая вибрационным
членом с удвоенной частотой, имеем
дР/дфя(2/М0)%(1)А0со$(т01 + ф(1)), д2Р)5ф2х-A%/No.
С учетом этого конкретизируем алгоритм (31), (32):
Лр,/Л = — аф, + (2A0/N0)R (?)^ (z)cos (соо 1 + ф,),
^Ф<-т/г= -«ф(-г/( + у Я"1 (Г —т)(ф,_т/, —ф,_т)+ (12.3.35)
+ R1 W ДГcos (“о1+ Ф');
dR (t)/dt = - 2aR (1) + NJ2 - (A 20/No) R (/),
А/?д7_т)=-27./?Д/-г)-^ + Лф/?Ч/-т)/?Л/-т)---^/?1(^т). (12.3.36)
c* L £ 1V q
4 , , Nm , , , . , An , , , ,
— R, (/—t)= — 2aR, (/—rl+ySj (t—t)R (f—т)---R,)/—t)R(/).
dt 2 Ь/q
Решение последней системы можно найти аналитически (первое уравнение
решается автономно). В стационарном состоянии (/->оо) получим
R(oo)=/f=(vT+A— l)/2q-,
R, (со) = R, = R exp (- ат^/1 + Л), (12.3.37)
«u(oo) = Ru = (D, + gR()R/(2^-R),
где q = Al/2aN0 — отношение сигнал-шум; Dv = Nv/4ol—стационарное значение
дисперсии фазы; Л=4<?£)ф.
575
Рис. 12.5. Схема ФАП с постоянной
задержкой
Рис.- 12.6. Зависимость квадрата отно-
сительной ошибки интерполяции с по-
стоянной задержкой от отношения
сигнал-шум
Схема ФАП, реализующая алгоритм (35), представлена на рис. 12.5, а за-
висимость 52 = /?и/Л от отношения сигнал-шум q, вычисленная по формулам
(37), приведена на рис. 12.6. Она характеризует выигрыш, достигаемый за счет
интерполяции с постоянной задержкой. Видно, что выигрыш по дисперсии
ошибки достигает двух раз.
Разумеется, что оценка ф,_т/, установится (станет соответствовать стационарной
дисперсии Ru) нс сразу. Длительность переходного процесса уменьшится, если R и
изменить в соответствии с (36) и дополнить схему блоком прямой интерполяции.
12.4. ДВУСТОРОННИЙ АЛГОРИТМ
ИНТЕРПОЛЯЦИИ
Приведем модернизированный алгоритм интерполяции, в ко-
тором обработка наблюдаемого процесса осуществляется с разных
концов фиксированного временного интервала навстречу друг
другу. Такой подход позволяет лучше понять процесс ин-
терполяции и оценить потенциальную точность, достигаемую
при интерполяции.
Пусть на интервале времени наблюдается сл. пр.
£,( = £,(?), зависящий от информационного сообщения X.t = X.(?).
Процессы {^, и \ предполагаются марковскими. Апостери-
орную п. в. всегда можно представить в виде
р(Шо) = МЖ, К Хг)Л0Лг/р(^). (12.4.1)
Распишем п. в., фигурирующие под интегралом. При этом
учтем, что в наблюдении присутствует аддитивный БГШ и рас-
сматриваемые процессы являются марковскими. Поэтому
576
р(4 14’ 4 4)—р(& 14’ 4 4> ^o)p(Vol4’ 4 4)-
хт)р^\х0, \).
p(x0, 4 xr)=p(xo)p(xfixo)p(xr|x1).
Подставив эти выражения в (1), получим
р(Шо)=1Жо14’ ^)р(44)^4[р(4)]”1х
х [jP(4)J A.r)p(Xr|Xr)/?(Xr)tZXr= (12.4.2)
= Фо (\ I £ о) Р (\ I ^1)1 Р (\)’
где с=р(^0)р(^г)/р(^).
Из формулы (2) видно, что решение задачи интерполяции
включает три операции: 1) определение апостериорной п. в.
444) ПРИ начальном условии р(4)—эт0 задача обычной
текущей оптимальной фильтрации; 2) определение апостериорной
п. в. 4Ж) при начальном условии p(4) = f 4414)4444—
это задача фильтрации в обратном времени и 3) вычисление
п. в. р(X() = fp(\|4)/?(4)J4.
Если существует стационарная п. в. pstl}.t} и 44)=Р44)’
то р44= .(444)Аг(444- При этом р(к(\Ц) можно получить
как решение обычного уравнения Стратоновича, заменив / на — t.
Просто выглядит в этом случае решение линейной задачи сгла-
живания для полубесконечного интервала наблюдения ( —оо, Г].
Пример 12.4.1. Интерполяция гауссовско-марковского процесса. Приведем реше-
ние задачи двусторонней интерполяции процесса X, на интервале ( — со, Г], когда
^(/) = \ + и0(г), d\fdt-= —nk,+nx(t),
где иор) и »,.(/) — независимые БГШ со спектральными плотностями No и N,.
Поскольку задача линейная, то все п. в. входящие в (2), нормальные, причем
дисперсия п. в. р(Х.,|^'_и)
Яя=2£>х/(1 + >Л+?)’ Dx = NJ4a, q=4DJaN0,
дисперсия п. в.
2Г\ 1 + А ехр (— 2ут)
i+4+?1-A2exp424’
л=
4+41
yr+?+i’
у = а^/1 +<?, r=T—t,
и дисперсия п. в. р(Х.,) равна Dx.
В соответствии с (2) для дисперсии А„(т) сглаженной оценки в точке t имеем
7?“1(т) = 7?я1+7?-1(т)—Отсюда получим
. , 1 оехр(—2ух)
Т = А —=+— J2- 4= .
Гл/Пн? (1+Л/1 + ?)2х/|+?-
Максимальный выигрыш за счет двусторонней интерполяции (т=оо) по
сравнению с обычной фильтрацией (т=0)
577
20—2247
А„(0) 2уТ;^
а и i+yr+^
2
1+уг+^
зависит от отношения сигнал-шум д и стремится к двум при </->оо.
Выигрыш за счет интерполяции может повышаться, если сглаживанию
подлежит компонента векторного процесса.
Глава 13. АДАПТИВНЫЙ ПРИЕМ СИГНАЛОВ
13.1. МЕТОДЫ УЧЕТА АПРИОРНОЙ
НЕОПРЕДЕЛЕННОСТИ
До сих пор решение различных задач оптимальной фильтрации
базировалось на допущении, что в принимаемом колебании £,(?)
вида (7.1.1) или (7.1.6) как функциональные зависимости в правой
части, так и необходимые вероятностные характеристики фигу-
рирующих там сл. пр. (полезных сигналов, сообщений и помех)
известны априорно точно. Однако в практических приложениях
такой исчерпывающий объем априорных сведений часто отсут-
ствует и неизбежны те или иные отклонения от принятой
идеальной модели. Эффективность функционирования оптималь-
ных устройств и систем, реализующих алгоритмы для идеальной
модели, зависит от значения таких отклонений.
Рассмотрим пока случай параметрической неопределенности,
когда априорная неопределенность относится к параметру а, от
которого зависит наблюдение £,(?). Эффективность функциони-
рования системы будем характеризовать величиной 7?(а|а*)—
средним риском (6.3.2) для наблюдения с, о с параметром а,
полученным при использовании решающего правила у(Ц). Это
правило предполагается оптимальным, когда в наблюдении
параметр равен а*.
В зависимости от объема и надежности априорных сведений
о принятом колебании условно можно различать три случая.
В первом случае отклонения параметров сигнала и помех от
значений, принятых при синтезе, во всем диапазоне априорной
неопределенности не приводят к существенному ухудшению
характеристик эффективности синтезированной системы.
Пусть («т.п, «max)—диапазон неопределенности параметра
а и а* — выбранное при синтезе значение параметра. Естественно,
его целесообразно взять наиболее правдоподобным для рас-
полагаемых априорных сведений, т. е. af = тах~1рр|.(а). Зависи-
мость среднего риска 7?(a|ajf) от а показана на рис. 13.1
(кривая 7). Величина 7?(a|af) остается меньше максимально
578
Рис. 13.1. Влияние отклонений /?/а|а7‘
параметров иа средний риск
допустимого риска Rm при отклонении а и а? в пределах
(“min, “max)- В данном случае представляет интерес исследование
чувствительности синтезированного алгоритма к отклонению а от
а*, т. е. определению 7?(ас|ас*) (§ 13.2).
Во втором случае алгоритмы более чувствительны к отклоне-
нию реальных условий от предполагаемых или диапазон неопреде-
ленности («min, “max) больше (a„in, а„ах), в результате чего риск
7?(ос|а*) алгоритмов, полученных для наиболее правдоподобного
значения а*, может превышать допустимую величину Rm для
некоторых а из (а^п, “max)- Однако при этом может оказаться, что
если синтезировать алгоритм для некоторых других значений
“*/“*, то риск 7?(a|a^) будет меньше Rm для всего диапазона
(“min, “max)- Такое положение поясняет кривая 2 рис. 13.1. для
которой R(a\a*)<Rm для всех ac(«min, “max), что можно записать
иначе: max7?(tx|aj)<7?ni. При таком подходе, гарантирующем
необходимую эффективность даже для наихудших условии, естест-
венно выбирать aj из критерия
ос* = rnin“1maxJ?(a|a2), (13.1.1)
»2
называемого минимаксным. Он обеспечивает наименьшее значение
риска для наихудших условий.
Кривые 1 и 2 показывают, что, хотя наихудшее значение
max7?(a|a^) для кривой 2 меньше, чем max7?(a|ajf) для кривой 1,
a a
в наиболее правдоподобных условиях (a = af) минимаксный
подход дает худшие результаты, так как /?(сс = a*|a*)>
>7?(a = af|«t). Минимаксный подход является основой ин-
тенсивно развивающихся в последнее время робастных алго-
ритмов, хотя в них чаще используют не параметрическое,
а более сложное описание неопределенности условий задачи
(§ 13.3).
579
Наконец, может оказаться, что даже при выбранном из
критерия (1) значении а* риск 7?(а|а$) превышает Rm при
некоторых а из диапазона (а^.п, “L)- В этом третьем случае
применяют адаптивные алгоритмы. Принципиальное отличие
адаптивных методов от двух предыдущих заключается в том,
что в них, кроме априорных сведений, используется также
наблюдение £,(?) для оценивания не только Х(?), но и а (§ 13.4).
Разумеется, алгоритм совместного текущего оценивания парамет-
ров {Х(?), а} оказывается более сложным, чем в первом (когда
учитываются только априорные сведения о а) и во втором
(ориентированном на наихудшие условия) случаях. Однако адап-
тивные алгоритмы обеспечивают лучшие характеристики оценки
а, чем неадаптивные. В адаптивных алгоритмах а*«а, т. е.
риск адаптивной системы 7?(а|а*)«1?(а|а). Кривая 3 рис. 13.1
иллюстрирует этот результат. Она везде проходит ниже кривых 1
и 2 и касается их в точках а* и а* соответственно. Это
свидетельствует о том, что только адаптивные алгоритмы
являются оптимальными. Такой результат объясняется полным
использованием в них всей доступной информации (как апри-
орной, так и содержащейся в наблюдении) для уменьшения
неопределенности исходных условий.
13.2. ЧУВСТВИТЕЛЬНОСТЬ АЛГОРИТМОВ
ФИЛЬТРАЦИИ
Рассмотрим чувствительность алгоритмов фильтрации к от-
клонениям параметров в рамках принятой модели. Начнем
с задачи линейной фильтрации. Пусть предполагаемые (принятые
при синтезе) модели наблюдения и сообщения заданы соответ-
ственно выражениями (8.1.57) и (8.1.59):
£(?) = Н(?)Х(/) + п0(/). (13.2.1)
й?Х/Л = А(^)Х + пД/). (13.2.2)
Оптимальный алгоритм (фильтр) для данной задачи был получен
ранее и дается выражениями (8.1.61):
c&ldt = А(?)Х + К(г)[^(/)-Н(?)Х], (13.2.3)
K(?) = R(?)HT(?)N0-1 (?), (13.2.4)
JR/Jr = Nx(z) + AR + RAT-RHTNo1HR, (13.2.5)
£(0) = М {X (0)}, R (0) = М {[X (0)- М {X (0)}] [X (0)-М {X(0)}]т}.
(13.2.6)
Пусть вид моделей сохраняется, т. е. реальные (истинные)
наблюдение и сообщение (они обозначены тильдой сверху)
имеют вид
580
^(?) = H(?)X(?) + n0(?),
Jk/J? = A(?)k + n)l(?),
(13.2.7)
(13.2.8)
ще п0(?)_и п^(?)— БГШ с матрицами спектральных плотностей
No(?) и 55Д?) того же размера, что и в (3), (5).
Применительно к действительной модели мгновенная ошибка
фильтрации теперь равна
£(?) = !(?)-£(?), (13.2.9)
где под Х(?) теперь следует понимать оценку оптимального
фильтра (3) при воздействии на него реального наблюдения ^(?):
^=а(^+к(1)[?(0-Н(1)£]= (13 2 10)
= А(?)Х + К(?)[Н(?)-Н(?)] + К(?)п0(?).
Продифференцировав равенство (9) по времени, с учетом (8)
и (10) для ошибки получим уравнение
d^dt = [А (?) - К (t )Н (?)] £ + [АА - К (?) АН] X + пк (?) — К (?)п0 (?),
(13.2.11)
где АА = А(?) —А(?); АН = Н(?) —Н(?). Если АА(?) и АН(?) не
равны тождественно нулю, то ошибка £(?) не образует марковский
процесс.
Введем векторные процессы
Составной процесс х(?) удовлетворяет векторному дифференци-
альному уравнению, объединяющему (8) и (11):
dxjdt = F (?)х + G (?) w (?),
(13.2.12)
где
где 1„ — единичная (п х и)-матрица.
Согласно теореме Дуба составной процесс х(?) является
марковским и кроме этого гауссовским. Используя последний
факт, по известным правилам записываем уравнения для м. о.
ш1(?) и корреляционной матрицы векторного процесса х(/):
t/mx(?) = F(z)mx(z), (13.2.14)
JRx(z)/Jz = F(z)Rx(z) + Rx(z)FT(z) + G(z)NwGT(z). (13.2.15)
Укажем начальные условия для этих уравнений:
581
mJ(0) = {M {X (0)} - M {X (0)}, М {X (0)}};
поскольку X (0) = М {X (0)}, то
Rk (0) = М {[X (0) - М {X (0)}] [X (0) - М {X (0)}] т.
В уравнения (14) и (15) входят векторы и матрицы удвоенной
размерности 2п. Обычно их расписывают в виде системы
уравнений для векторов и матриц размерности п. Для этого
воспользуемся представлением
!'А м>={к (;,\ 03.2.16)
«Д') j
где mE(z) —искомое м. о. ошибки е(г); mx(z)—м. о. X(z); R£(z)
—корреляционная_матрица ошибки e(z); Rx(z)—корреляционная
матрица процесса X(z); Ru(z)— взаимная корреляционная матрица:
Rfc(0 = M{[4')-"М')] [*(')-me(Z)]T}-
Подставив (16) и (13) в (14) и (15), получим
</m£M = (A-KH)mE + (AA-KAH)mx,
dmJdt = Ami, 1 ’
dRJdt =(А— КН) R£ + (АА - К АН) Ru + Rc (А - КН)Т+
+ RL(AA-KAH)+F<+KN0KT; (13.2.18)
z/RXE/i/Z = ARXE+RXE(A-KH)T+Rx(AA-KAH)T + Nx; (13.2.19)
dVLjdt = ARX + RXAT + NX. (13.2.20)
Начальное условие для уравнений (18)... (20) одинаково:
R£(0) = RXe(0) = Rx(0). Можно убедиться, что при А = А, Н = Й,
NX = NX и N0 = N0 получаем R£(z) = RX£(r) = R(z).
Решение системы уравнений (17) и (18)... (20) позволяет
определить м. о. m£(z) и корреляционную матрицу R£(z) ошибки
фильтра (3)...(6) при воздействии на него реальных наблюдения
(7) и сообщения (8).
^Приведем здесь следующий важный результат1. Если R[0)^
^R(O) и~для всех z>0 выполняются условия Nx(z)^Nx(z)
и lV0(z)^N0(z), а другие параметры предполагаемых и дейст-
вительных процессов одинаковы, то R£(z)^R(z) для всех z>0.
1 Сейдж Э., Меле Дж. Теория оценивания н ее применение в связи
и управлении: Пер. с англ.,/Под ред. Б. Р. Левина.— М.: Связь, 1976.-- 496 с.
Хоке Р. М., Мор Д. Б. Границы качественных показателей при адаптивном
оценивании//ТИИЭР.—1976. —Т. 64, № 8.— С. 28- 36.
582
Смысл этого результата состоит в том, что если у действующего
на входе фильтра сообщения диффузия и (или) спектральная
плотность шума наблюдения и (или) дисперсия в начальный
момент времени меньше, чем аналогичные характеристики процес-
сов, принятых при синтезе фильтра, то дисперсия ошибки
слежения будет меньше, чем расчетная. Важность этого результата
следует из того, что, выбирая для синтеза наибольшие возможные
значения No, N\ и R(0) из диапазона априорной неопределенности,
мы будем гарантированы, что дисперсия действительной ошибки
ограничена известным пределом Rp).
Уравнения (17)...(20) можно использовать в задачах нелиней-
ной фильтрации, если, например, рассматривать (3)...(6) как
уравнения расширенного фильтра Калмана, в которых
A(r)=ag(r, £)/аг, H(?)=as(r, £)/аг, Nx=Njr, £). (13.2.21)
При воздействии действительного наблюдения на вход такого
расширенного фильтра Калмана м. о. и дисперсия ошибки
определяются уравнениями (17)...(20), в которых теперь
A(z)=ag(r, £)/аг, й(?)=а§(г, £)/аг.
Разумеется, что это справедливо лишь при допустимости линейной
аппроксимации всех функций, входящих в предполагаемые и дей-
ствительные уравнения наблюдения и сообщения. В данном
случае это означает, что действительная ошибка, характеризуемая
дисперсией RE(z), должна находиться в пределах линейного
участка характеристики дискриминатора.
Заметим, что при этом приближенно ~справедлива замена
к на 1 в аргументах функций А, А, Н, II. Nb например
A=ag(r, £)/ar^ag(z, k)/ar. (13.2.22)
При таком приближении проще выполняется анализ чувствитель-
ности к отклонениям.
Пример 13.2.1. Параметрическая и структурная чувствительность фильтра
Калмана. Пусть заданы скалярное наблюдение
^t) = r(t) + n0(t) (13.2.23)
и сообщение
dr/dt=v(t), dv/dt=—a.v(t)+a(t),
dafdt=—$a{t)+na(t), (13.2.24)
где na(t)—БГШ с односторонней спектральной плотностью NJ2. Такое сообщение
часто используют в качестве одной из моделей движения летательного аппарата
на плоскости, причем под г(?) понимают расстояние до аппарата, г(г) и а(/)—его
скорость и ускорение. В данном примере вектор сообщения является трехком-
понентным Хт(г)={г(г), у(г), о(г)}. Пусть параметры модели сообщения р и Na
фиксированы (p=O,lc"1, NJ2= 1555,8 м2с"5), а параметр а может принимать
четыре значения: а=0; 0,1; 0,285 и 0,5 с"1.
583
Drst/flrost
Рис. 13.2. Относительная дисперсия фильтрации неоптимальными фильтрами
Обозначим дисперсию ошибки фильтрации г (г) оптимальными фильтрами
Калмана с указанными значениями параметров в стационарном состоянии через
Dr<isl. На эти четыре фильтра подавалось сообщение (24) со значением параметра
а = 0,285 с-1. и вычислялись дисперсии ошибки фильтрации г(г) в стационарном
состоянии Зависимость D„t/Drosl от отношения сигнал-шум </ = |2£»г(7) х
х 7’/7V0]1/2, Т= 50 с, представлена на рис. 13.2. Здесь Dr—дисперсия нестационар-
ного процесса г(1), заданного уравнением (24).
Видно, что точность фильтрации г(() в стационарном состоянии не очень
сильно зависит от отклонения параметра сообщения а от его оптимального
значения, а при больших отношениях сигнал-шум (<7>102) она практически
исчезает. Об этом же свидетельствуют результаты рис. 13.3, на котором для
нескольких отношений сигнал-шум приведены зависимости DrslIDrosl от отклонений
параметров а и Na от оптимальных значений.
Приведем теперь количественные результаты, характеризующие структурную
чувствительность фильтра Калмана. Пусть наблюдение остается прежним (23),
а модели сообщения имеют три разных вида: одна задана уравнением (24),
а две другие уравнениями
dr/dt — v(t], dv/dt= —av + nv(t), (13.2.25)
dr j dt = nr(t), (13.2.26)
где n„{t) и — белые гауссовские шумы с односторонними спектральными
интенсивностями Nv и Nr соответственно.
Для получения сопоставимых характеристик дисперсий ошибок фильтрации
Drsl сообщения г (г) в установившемся режиме работы параметры разных моделей
сообщений согласовывались подбором спектральных интенсивностей белых шумов,
обеспечивающих одинаковые дисперсии набега на единицу времени (Т=50с).
584
Рис. 13.3. Чувствительность фильтра
Калмана к отклонениям параметров
а и Na
Рис. 13.4. Иллюстрация структурной
чувствительности фильтра Калмана
Считались заданными значения следующих параметров: а=0,285 с1, р = 0,1 с
£>//2 = 300 м/с и Z)J/2 = 88,2 м/с2. Отсюда для модели (24) находим
NJ2 = 2рDa = 1555,8 м2/с5; для модели (25) Л^,/2 = 2а£>„ = 62154 м2/с3 и для модели
(26) 7Vr/2= 108 900 м2/с.
На рис. 13.4 показаны зависимости нормированных дисперсий ошибок
фильтрации Drsl в установившемся режиме от отношения сигнал-шум q. когда
на вход оптимальных фильтров для сообщений г(/), описываемых уравнениями
(24), (25) и (26), воздействует наблюдение (23) с сообщением (24). Потенциальную
точность дает случай г(г) = г(?‘) оптимального фильтра (кривая Г). Несколько
большую ошибку (примерно в два раза) дает двумерный фильтр (кривая 2)
и наихудшими характеристиками обладает одномерный фильтр (кривая 3). Из
графиков следует, что если возникает необходимость упрощения фильтра, то
при некотором ухудшении качества фильтрации можно применять модели
сообщения, более грубо описывающие истинное сообщение.
На рис. 13.4 также представлены результаты для случая, когда на более
сложный трехмерный оптимальный фильтр, настроенный на сообщение (24),
воздействует наблюдение (23) с более «грубыми» сообщениями (25)—кривая
4 и (26)—кривая 5. В этих случаях дисперсии ошибок возрастают значительно.
Из сравнения кривых 7, 2, 3 и 4, 5 можно сделать вывод, что в условиях
неопределенности лучше ориентироваться на более «грубые» модели.
Таким образом, фильтр Калмана не очень чувствителен к разбросу параметров
сообщения. Однако структурные изменения фильтра и входного сигнала приводят
к существенному ухудшению качества фильтрации.
585
Конечно, приведенными примерами не исчерпываются все
варианты априорных неопределенностей, которые могут возник-
нуть при практическом использовании линейных фильтров Кал-
мана. Например, шумы наблюдения и (или) сообщения могут
быть негауссовскими (некоррелированными или коррелирован-
ными) с неизвестными спектральными плотностями, модель
полезного сообщения может не принадлежать к рассматриваемому
классу и др. В подобных случаях следует обращаться к методам
синтеза робастных фильтров Калмана.
13.3. О РОБАСТНЫХ МЕТОДАХ ОБРАБОТКИ
Идейной основой робастного подхода к синтезу устройств
обработки является использование минимаксного критерия типа
(13.1.1), т. е. выбора для синтеза таких моделей входных
воздействий, при которых синтезированное оптимальное для нее
устройство обеспечивает наименьшее значение риска при наихудших
(в классе допустимых) воздействиях на ее вход. В § 13.1 в качестве
наиболее простого рассматривался случай параметрической неопре-
деленности входных воздействий (сигнала и шума), когда неопреде-
ленность сводится к неизвестности значения некоторого параметра
а или совокупности таких параметров. Хотя любая неопределен-
ность в принципе сколь угодно точно может быть описана
некоторой параметрической неопределенностью, в робастных
методах часто применяется непараметрическая неопределенность.
Из-за разнообразия методов описания неопределенности невоз-
можно указать единую универсальную процедуру применения
этого подхода для получения робастных алгоритмов применитель-
но к различным задачам. Поэтому приведем результаты рас-
смотрения нескольких характерных примеров, позволяющих со-
ставить представление как о характере задач, так и о робастных
методах их решения. Материал по робастным оптимальным
фильтрам изложен в § 4.4, п. 3. Расмотрим полезную задачу,
связанную с предыдущим примером 13.2.1.
Пример 13.3.1. Робастный фильтр Калмана. Пусть в задаче линейной
фильтрации матрица априорных дисперсий R(0) и матрицы шумов Nx(z) и N0(r)
известны не точно, а заключены в интервалах Rmin<R(0)^RmaK, NXmin^Nk(()^
^NXmax, Nomin^No(r)^NOmax. Требуется получить фильтр Калмана S', обес-
печивающий минимальные ошибки оценки g(?) при любых R(0), Nk(() и No(() из
указанных диапазонов неопределенности, т. е.
1 max M{£T£} = min-1 max tr{Rt(?)},
3F R(0), NZ1 N„ IF ft(0), N„ No
где tr{Rj—след матрицы R,.
Для заданных R(0), N,(r) и N0(r) структура фильтра Калмана определяется
однозначно. Определение фильтра S' эквивалентно поиску условий R(0), Nk(r)
586
и No(() для синтеза фильтра. Введем обозначения a* = {R(0), Nx(z), No (г)}
и a={R(0), N) (r), N0(r)}. Тогда по аналогии с (13.1.1.) имеем
a* = min-1 max trRja | a*). (13.3.1)
a* a
Согласно результату, приведенному в § 13.2, фильтр, синтезированный для
условий а* при входном воздействии с лучшими параметрами (т. е.
R(0)=gR(0), Nk(r)^Nk(r), N0(/)^N0(r)), имеет меньшую дисперсию ошибки
RE(a|a*), чем при входном воздействии с параметрами а*:
Rt(a|a*)<Re(a*|a*), а^а*.
Кроме того, при входном воздействии с худшими параметрами дисперсия
ошибки больше предполагавшейся:
RE(a | a*)>RE(a* | a*), a^a*.
Этот результат физически очевиден. Например, если N0(r)>N0(r), то это значит,
что к предполагавшемуся шуму наблюдения прибавляется дополнительный БГШ
с матрицей AN0(r) = N0(r)—No(r)>0. Аналогичное пояснение относится к Nk(r)
и Й(0). Отсюда также следует, что для всех справедливо неравенство Rc(a | а*)>
^Re(a* | а*). Поскольку диапазон изменения а ограничен <x^amax = {Rmal, NlmM,
Nomax}, то минимум по а.* достигается на границе диапазона а* = атах и равен
min max trR„(a | a*)=tr Re(amax I a„,„).
a* a
Таким образом, решением задачи синтеза робастного алгоритма линейной
фильтрации при неопределенных порождающем шуме, шуме наблюдения и ап-
риорной дисперсии процесса является фильтр Калмана, рассчитанный на наиболь-
шие значения Nx(r) = N,.nlax. No(/) = Nomax, R(0) = Rmax.
Пример 13.3.2. О робастном обнаружении сигнала. При обнаружении детер-
минированного сигнала иа фоне шума по независимой выборке оптимальное
правило (6.5.26) сводится к сравнению отношения правдоподобия /(£,") или его
логарифма с некоторым порогом
ln/(^)= Е Lfe) й Л. Г(У = 1пр(^-.у;)/р(у. (13.3.2)
i=l и.
Если | £(!;) | — неограниченная функция то отдельное значение для
которого |Z.(£j| велико, может настолько сильно влиять на логарифм отношения
правдоподобия, что превысит суммарный вклад других наблюдений в in /(с")
и будет определять выбор между гипотезами Но и Н1. Сам по себе этот
эффект не вызывает беспокойства, если модель для п. в. шума верна. Однако
такой эффект или может возникнуть при случайном ошибочном измерении, или
может быть следствием неправильного выбора п. в. шума р(п). В общем случае
п. в. р(л) задает только приближенную исходную модель, т. е. в реальной
ситуации возможны отклонения от принятой модели.
Чтобы уменьшить нежелательную чувствительность критерия, базирующегося
на отношении правдоподобия /(£,'(), целесообразно вместо функции /_(£,). со-
587
ответствующей исходной модели, использовать ограниченную ее модификацию
Lo(^) вида
-a
(13.3.3)
где а и b— постоянные. Можно ожидать, что при справедливости заданной
модели и не слишком малых значениях а и Ь эффективность критерия будет
падать только на краях области изменения Е,. С другой стороны, ограниченность
Z,o (Е,) влечет за собой нечувствительность (робастность) к влиянию небольшого
числа ложных наблюдений. Изменяя длину интервала [ — а, 6], можно добиться
компромисса между степенью робастности и снижением эффективности для
принятой модели. Такой алгоритм можно обосновать теоретически в рамках
робастного подхода.
Приведем в формализованном виде один из возможных вариантов фор-
мулировки задачи робастного обнаружения сигнала. Пусть —вектор незави-
симых и одинаково распределенных наблюдений Общая одномерная п. в.
наблюдений при нулевой гипотезе Но есть До(!;). а ПРИ альтернативной гипотезе
Я] есть pt (О- Требуется построить основанный на наблюдениях критерий
проверки гипотезы Но при альтернативе когда п. в. р0(У и Pi (У неизвестны.
Прежде всего возникает вопрос о классе допустимых п. в. при нулевой
и альтернативной гипотезах. Они должны выбираться с учетом возможности
последующего аналитического решения задачи. Можно выбирать эти классы
как окрестности некоторых исходных функций п. в.
Одной из часто используемых моделей таких классов в робастных методах
является пара классов с г-загрязиеиием, которые для //,,7-0, 1, определяются так:
е7)={р|р = (1-£у)р“ + £;Л7}, у = 0, 1. (13.3.4)
Здесь р° — исходная п. в. для гипотезы Нр, £,е[0, 1] — максимальный уровень
загрязнения для р°; hj— произвольная функция п. в. Таким образом, задача
заключается в выборе одной из двух гипотез: Но — наблюдения Е,; описываются
общей одномерной п.в. р0 из класса 3%; //,—наблюдения описываются
общей одномерной п. в. р,: из класса .Ф v
Сформулированная задача имеет следующее решение: для непересекающихся
классов .Фп и существует наименее благоприятная пара п.в. q0 и
определяемая выражениями
„ (eU0^0)^)’ Р0ЛЫр°®<^ (1335а)
' )(1 — £0)р°(s)/c" в противном случае;
О -<'<P°dWPo&’ (13.3.56)
с'(1 — cjpo(E) в противном случае,
где с'<с"— неотрицательные числа, такие, что с/0 и являются п. в. Отношение
правдоподобия /,(^;)=91 0;,)/<7о(^) Для единичного наблюдения и наименее благо-
приятной пары имеет вид (3):
588
(be", c'4/o(U
№)= Mo(U c'</0(y<c", (13.3.6)
где & = (1-е1)/(1-£0) и 10(Ь)=р°(Ъ)/р°(Ь).
Известны1 решения робастных задач обнаружения (найдены наименее благо-
приятные пары) и для других моделей неопределенностей п. в., соответствующих
гипотезам If,, и Яр
Пример 13.3.3. Робастная коррекция канала. Во многих практических приложе-
ниях (связь, локация, обработка изображений, сейсмология и др.) приходится
иметь дело с моделями линейных каналов, обусловливающих искажения или
«уширения» полезного сигнала при его прохождении через канал. В простейшем
случае линейного канала с постоянными параметрами такую ситуацию можно
описать с помощью модели наблюдения
^(г) = f k(t—т)я(т)dt + n(t), -oo<t<oo, (13.3.7)
— со
где k(t)—импульсная характеристика канала, s(t) и л(/)— вещественные, цент-
рированные, независимые, стационарные в широком смысле сл. пр., описывающие
соответственно полезный сигнал и шум. Пусть {s(l), — со<Ксо} и {гг(г),
— оосКоо) имеют соответственно спектральные плотности S\ (со) и S’» (со).
Требуется получить оценку f(r) полезного сигнала л(с) по наблюдению (7)—это
общая задача корректирующей фильтрации.
Если отыскать линейную оценку сигнала в форме
s(t)= f h(t — т)с(т)с/т, (13.3.8)
то при известных функциях S’,(co), S„(co) и k(t) частотная характеристика
оптимального фильтра по критерию минимума среднего квадрата ошибки
s2 = min М {| a(i) —s(l) |2} определяется выражением
| X(jco) |2 Ss(co) + S„(co)’
(13.3.9)
где К (j со) -- комплексная частотная характеристика канала, соответствующая
импульсной характеристике &(/); X*(jco) — ее комплексно-сопряженная функция.
На практике комплексная частотная характеристика канала редко известна
точно. Однако для построения оптимального корректирующего фильтра (9)
требуется точное знание ее. Поэтому приходится искать другой подход к по-
строению фильтра, который позволил бы учитывать неопределенность харак-
теристик канала. В частности, если канал описывается моделью с передаточной
функцией, принадлежащей некоторому классу неопределенности Ж, то для
построения фильтра можно применить минимаксный критерий среднего квадрата
ошибки, при котором поиск максимума ведется по всем каналам в классе Jf.
1 Кассам С. А., Пур Г. В. Робастные методы обработки сигналов//ТИИЭР.—
1985,—Т. 73, № 3,—С. 54 110.
589
Для иллюстрации сути решения такой минимаксной задачи коррекции канала
предположим, что канал имеет линейную фазовую характеристику, а его
амплитудно-частотная характеристика |K(j<o)| лежит в интервале между извест-
ными нижней И(ш) и верхней (/(<о) границами, т. е. для всех ш
Г(ш)<| А(»|«:£/(ш). (13.3.10)
При этих условиях амплитудно-частотная характеристика робастного (ми-
нимаксного) корректирующего фильтра определяется выражением
2 £»(<*>) , ,
r2(w)55(<o)
где
А (ш) = [ U (ш) — V (ш)]/2 V (ш).
(13.3.11)
(13.3.12)
Заметим, что А (ш) является мерой неопределенности нашей информации
о канале, а величина 5„(<о)/И2(<о) 5,(ш) характеризует максимально возможное
значение отношения шум-сигнал на частоте <о. Таким образом, неравенства (11)
означают, что если максимальное отношение шум-сигнал на данной частоте
больше, чем неопределенность модели канала, то на этой частоте усиление
фильтра оптимально для нижией границы Т(о>). В противном случае мы просто
пренебрегаем шумом и на этой частоте применяется усиление, обратное
среднеарифметическому от границ усиления канала. Аналогичный результат
получается н прн неизвестной фазочастотной характеристике канала.
Приведенные три примера позволяют составить некоторое
представление о характере формулировки робастных задач. Ра-
зумеется, что даже для одной конкретной задачи возможны
различные робастные решения в зависимости от вида самой
неопределенности и задания ее модели.
13.4. АДАПТИВНЫЕ МЕТОДЫ
На практике часто встречаются ситуации с большой априорной
неопределенностью, когда достаточно обоснованный и адекватный
выбор рассматриваемых моделей весьма проблематичен. В по-
добных случаях возникают задачи синтеза адаптивных (приспосаб-
ливающихся) систем и устройств, способных принимать инфор-
мацию в условиях априорной неопределенности. Параметры
и структура таких систем и устройств должны изменяться со
временем по мере «изучения» тем или иным способом рассмат-
риваемой ситуации.
Практически всегда неопределенность можно свести к конеч-
ному числу параметров, которые заранее неизвестны. Ограничимся
590
I
рассмотрением задач только с параметрической неопределен-
ностью.
Пусть полезный принимаемый сигнал зависит кроме инфор-
мационного параметра Х(1) от ряда других сопровождающих
неинформационных параметров а(/), т. е. наблюдение имеет вид
£,(t) = s(t, X, а) + и0(/). (13.4.1)
По своей физической сути вектор параметров а(/) не является
чем-то принципиально отличным от Х(1). Однако адаптивный
подход обычно целесообразен, когда сопровождающие параметры
изменяются медленно. Пусть информационный параметр Х(/)
задан стохастическим уравнением
d\/dt = g(t, X, a) + nz(z). (13.4.2)
Применительно к задаче (1), (2) возможны разные варианты
формулировки задачи адаптивного приема. Например, требуется
оптимальным образом фильтровать информационный параметр
Х(/) при недостатке априорных сведений о сопровождающих
параметрах а (г) и (или) о характеристиках шума канала и0(/)
и (или) формирующего шума и(1), причем шумы и0(/) и п\Ч
могут зависеть от Х(/) и а (г).
Основными характеристиками качества адаптивного приема
являются: точность фильтрации информационного сообщения
Х(г), время адаптации, сходимость процесса адаптации и чувст-
вительность к возможным изменениям условий работы.
Байесовский подход. Общая методика решения адаптивной
задачи сводится к следующему [9]. По свойству согласованности
п. в. имеем
I £b) = f Р(*> « I £о)*/«=j>(X|«, Vo)z>(«l£o)da.. (13.4.3)
Знание р (А. | Е,'о) позволяет найти оценку параметра Х(1) по
любому критерию. В частности, оценка по критерию минимума
среднего квадрата ошибки равна
X(r) = f Х/>(Х |^)^Х. (13.4.4)
Таким образом, если определить совместную апостериорную
п.в. а | ^о) всех неизвестных параметров (информационных
и сопровождающих), то на основании формул (3) и (4) легко
определить Х(/). Соответствующая последовательность операций
изображена на рис. 13.5.
Разумеется, что принятие процедуры (3) за основу при
определении />(Х| ^о), вообще говоря, необязательно. Однако,
во-первых, такая процедура оптимальна в том смысле, что при
Рис. 13.5. Последова-
тельность операций
при байесовском адап-
тивном приеме
591
использовании (3) гарантируется оптимальная (например, по
критерию минимума среднего риска) оценка, получающаяся
в результате реализации цепочки операций, изображенных на
рис. 13.5. Во-вторых, за исключением довольно редких случаев,
определение /?(Х| £/0) иным путем просто невозможно.
Когда совокупность параметров {Х(?), «(?)} можно описать
многокомпонентным диффузионным марковским процессом, апо-
стериорную п. в. р{\, а | X, а) находим из решения урав-
нения Стратоновича:
d-^~^=L{p(t, X, a)} + [F(f, X, a)-
— F(/, X, a)p(t, X, a) JXc/ot] p(t, X, a), (13.4.5)
X. a
где F(r, X, a) = (2/Лг0 )[£,(?) x(r, X, a)-(l/2).v2(r, X, a)].
В том частном случае, когда неизвестные сопровождающие
параметры не зависят от Х(г) и постоянны во времени, т. е. d<^jdt = Q,
в правую часть (5) войдет оператор ФПК для процесса Х(г):
L{p(t, X, a)} = Ljp(x X, a)},
поскольку для a(r) коэффициенты сноса и диффузии равны нулю.
Часто прием сигналов осуществляется на фоне суммы БГШ
/7о(7) и помехи с неполностью известными характеристиками:
= X)K(0 + M0- (13.4.6)
Пусть Ц?) — диффузионный марковский процесс вида (2) с неиз-
вестными параметрами а. Обобщение байесовского подхода для
подобных задач адаптивного приема не имеет особенностей.
Рассматривается многомерный процесс {X, а}. Уравнение для
апостериорной п. в. имеет вид
= X, «.)} + £,{/;(?, X, С, «)}+ (13.4.7)
+ [F(1, X, £)—J F(r, X, typ(t, X, a) d'kd^dai]p(t, К a),
где Lc{-} — оператор ФПК для процесса Ц1), зависящий от а;
F(t, К C) = (2/y0)g(r)[.v(/, X)4-C(z)]-(l/2) [>(Г, Х) + ^(г)]2}.
Возможны дальнейшие обобщения, основанные на комбинациях
описанных выше задач.
До сих пор рассматривались задачи фильтрации при наблюде-
нии в непрерывном времени с обязательным наличием БГШ.
Если белый шум отсутствует, необходимо использовать уравнение
Стратоновича (см. § 7.6) более общего вида, чем (7.3.8). Если
наблюдение ведется в дискретном времени, то вместо (5) и (7)
нужно использовать соответствующие рекуррентные соотношения.
592
Важно подчеркнуть, что во всех случаях параметрической
неопределенности описанный выше подход сводит задачу адап-
тации к решению обычной задачи фильтрации для всех (а не
только информационных) неизвестных параметров.
Для точного или приближенного решения уравнений для
апостериорной п. в. p(t, X, а) необходимо знать начальное условие
р(0, \ а). Ясно, что апостериорная п. в. в нулевой момент
времени, когда наблюдения еще не производились, совпадает
с априорной п.в. параметров X и а: р(0Д я)=р»(Х,а) или,
когда X и а априорно независимы, />(0, X. а)=ррг(А.)/7рг(а).
Необходимость знания />рг(а) иногда рассматривают как
недостаток указанного выше байесовского подхода к адаптивным
задачам и причину встречающегося иногда критического от-
ношения к нему. На самом деле причину нужно искать глубже — в
обоснованности байесовской методологии применительно к веро-
ятностным задачам вообще. В приведенных выше рассуждениях
сопутствующие параметры полагались случайными. Правомерен
вопрос, насколько это обосновано. Понятие случайности в теории
вероятностей предполагает определенную закономерность, по-
вторяемость в большом числе испытаний. В практических задачах
чаще всего не имеется достаточного объема предварительных
экспериментов по выяснению вероятностного характера неиз-
вестных параметров. Тем не менее их предполагают случайными
и априорные распределения для них задают из физических
соображений, используя как накопленный общетеоретический, так
и конкретный для данной задачи опыт. Успехи в приложениях
теории вероятностей к различным практическим задачам подтвер-
ждают правильность такого подхода.
Задачи адаптации не являются исключением. Конечно, чаще
всего к адаптивным относят задачи с большой априорной
неопределенностью. Однако смысловое содержание байесовского
подхода вовсе не определяется объемом имеющихся априорных
знаний. Степень полноты этих знаний влияет только на харак-
теристики оценок информационных параметров. Ухудшение ка-
чества приема, связанное с неопределенностью параметров а,
в адаптивных задачах может оказаться значительным. В ряде
случаев оценки (даже оптимальные) информационных параметров
при малом времени наблюдения настолько плохи, что являются
практически бесполезными. С увеличением времени наблюдения
оценки неинформационных параметров стремятся к истинным
значениям а, а качество оценок информационных параметров
улучшается, стремясь к качеству оценок при полностью известных
статистических характеристиках.
Обоснованности байесовского подхода способствует также то,
что при несущественных для практики ограничениях байесовские
правила решения образуют полный класс. Это означает, что
все самые хорошие (оптимальные) правила принятия решения
p($o !«)
Рис. 13.6. Соотношение между плот-
ностями вероятности при адаптивном
приеме
Руг
или алгоритмы обработки информации обязательно принадлежат
к полному классу, т. е. могут быть получены с помощью
байесовского подхода при некоторых априорных п. в. ppr(ty
и (а). Таким образом, нет необходимости рассматривать
алгоритмы, не являющиеся байесовскими правилами решения,
ибо заведомо существуют некоторые другие (байесовские) ал-
горитмы, обладающие лучшими характеристиками.
Указанная выше априорная трудность при синтезе в адап-
тивных задачах является существенной прежде всего в теоретичес-
ком отношении, в смысле обоснованности байесовского подхода.
При решении практических задач синтеза существенно облегчает
дело относительная асимптотическая нечувствительность адаптив-
ных задач к априорной п. в. Это означает, что изменение
априорной п. в. ррг(а) начинает мало влиять на вид апостериорной
п.в. /?(а|£,'о) при увеличении объема наблюдений. Эту нечувст-
вительность можно обосновать исходя из формулы Байеса
/’(«I Vo) = ^/’pr(a)/’(^b 1«), £ = const(a). (13.4.8)
Рисунок 13.6 иллюстрирует соотношение между двумя сомножи-
телями в правой части этого выражения.
При реальных значениях времени наблюдения t условная п. в.
р(^о | а) как функция а в окрестности истинного значения а0
значительно уже априорной п. в. /»рг(<х). Последнюю естественно
задавать медленно и плавно меняющейся функцией от а, так как
какие-то резкие изменения /грг(а) предполагают существенное
предпочтение одних значений ос другим на основе априорных знаний,
что чаще всего не имеет места. Однако для адаптивных задач
характерно соотношение, когда количество информации, содержащее-
ся в наблюдении ^'0, существенно превышает объем априорной
информации об а. Это находит свое отражение в том, что п. в.
р(£,'о | а), представляющая информацию за счет наблюдения как
функцию а, значительно уже, чем />рг(а). Поэтому основное влияние на
формирование р(а | £,'о) оказывает именно р(£,'о | а). Изменения /^(а)
в значительных пределах (пока она остается медленно меняющейся
функцией по сравнению с р{^‘0 | а)) незначительно влияют на /?(а | £‘о)-
Обучение и самообучение. В адаптивных задачах различают
«предварительное обучение» и «самообучение». Содержание этих
594
f
терминов следующее. Самообучение имеет место тогда, когда
неизвестные параметры а определяются одновременно с приемом
информации о X. Предварительное обучение — когда режиму
приема основной информации предшествует период приема
специальных вспомогательных сигналов, несущих информацию
только об и, а не о X. Такие специальные сигналы должны
позволять по возможности быстро и точно оценивать а. На-
пример, в синхронных системах связи для реализации квазико-
герентного приема радиосигналов предварительно (до приема
информации) посылаются специальные сигналы синхронизации,
которые принято называть синхропреамбулой.
В предыдущем рассмотрении мы ориентировались на режим
«самообучения», поскольку предполагалось, что в принимаемой
реализации содержатся сведения как об информационном
параметре Х(г), так и об а (г). С точки зрения синтеза режим
предварительного обучения не имеет принципиальных особен-
ностей. В этом случае по наблюдению реализации, содержащей
информацию об а (г), нужно составить уравнение для апостери-
орной п. в. p(t, а) сопровождающих параметров а. Это делается
обычным образом. Полученное решение для апостериорной п. в.
в конце интервала обучения используется затем в качестве
априорной для режима приема информации.
Вариант максимального правдоподобия. Отмеченную выше
нечувствительность к априорному распределению ррт(а) можно
считать основой распространенности методов решения адаптив-
ных задач, в которых априорная информация об а игнорируется.
Для обоснования этих методов распишем выражение (3) для
апостериорной п. в. информационного параметра:
р(Х | = а | Vo) <7a = f/>(X | £'о, а)р(а | Vo)^«- (13.4.9)
а
Если p(a|Vo) узкая, так что ее при интегрировании можно
приближенно принять за дельта-функцию р(а. | Vo)~S(a~a*), т0
из (9) имеем
^(X|Vo)~/#IV»«*)- (13.4.10)
Таким образом, апостериорная п. в. информационного пара-
метра в адаптивной задаче с неизвестным а равна апостериорной
п. в. информационного параметра в задаче с известным а,
в качестве которого используется оценочное значение а*. Остается
вопрос о методе определения а*. Чтобы не привлекать априорную
п. в. /?рг(а), считая, например, а неслучайной величиной, вычис-
ление а* можно выполнять по критерию максимального прав-
доподобия:
a* = шах-1 {/>(Vo I а)}- (13.4.11)
595
Оценка максимального правдоподобия обладает такими свойст-
вами, как несмещенность, эффективность и др.
Различные подходы, не требующие знания априорного рас-
пределения />рг.(а), по сути дела, основываются на соотношениях
(10), (11), которые совместно с (4) берутся в качестве исходных.
Эта методика, альтернативная строго байесовской методике,
в ряде случаев приводит к хорошим результатам. Однако иногда
из нее следуют алгоритмы с неудовлетворительными харак-
теристиками именно из-за неточного определения а вследствие
неучета априорных сведений.
Равномерно наилучшие решающие правила. Встречаются задачи,
в которых сопутствующий параметр неизвестен, однако его
незнание несущественно при выбранном критерии качества.
Последнее очень важно, так как при другом критерии это
незнание в той же задаче может оказаться существенным.
В последнем случае сопутствующий параметр а придется
определять, а характеристики приема информации окажутся
хуже, чем при известном а.
Например, пусть по критерию минимума суммарной вероят-
ности ошибки решается задача приема сигналов с амплитудной
манипуляцией по наблюдению вида (9.3.1):
^(г) = 0Л cos (ю01 + ср) + п0 (t).
В данном примере знание амплитуды является весьма сущест-
венным, так как от нее зависит значение порога в оптимальном
приемнике.
Другой случай имеем при решении задачи различения априорно
равновероятных противоположных сигналов по наблюдению
£,(/) = 0/1 cos((o0Z + (p)+(l — 0) ( — А) cos(o>0/+- ср) + п0 (г). (13.4.12)
При применении критерия минимума суммарной вероятности
ошибки порог в оптимальном приемнике равен нулю при любом
значении амплитуды. Это свидетельствует о том, что при
равновероятных сигналах оптимальный приемник (с нулевым
порогом) реализует равномерно наиболее мощное правило раз-
личения противоположных сигналов с неизвестной амплитудой
для критерия минимума вероятности полной ошибки.
Существование равномерно наилучших правил решения можно
ожидать в исключительных случаях. Однако сам факт их наличия
делает целесообразной при решении задач синтеза в условиях
априорной неопределенности проверку, является ли неопределен-
ность параметра а в данной задаче существенной. Если это не
так, т. е. равномерно наилучшее решение существует, то примене-
ние описанного выше байесовского подхода при произвольном
априорном распределении параметра а все равно приведет
к оптимальному приемнику. Однако его структура может оказать-
ся сложнее с точки зрения технической реализации, чем это
596
Рис. 13.7. Схема адаптив-
ного приемника радиоси-
гнала с неизвестной амп-
литудой
возможно. Например, для задачи (12) различения равновероятных
противоположных сигналов с неизвестной амплитудой оптималь-
ный адаптивный приемник, синтезированный стандартным байе-
совским методом, имеет структуру рис. 13.7. Но при нулевом
пороге умножение на положительное число можно опустить,
так как оно не влияет на принятие решения. Следовательно,
блок оценки амплитуды А является лишним с точки зрения
оценки информационного параметра 0.
Гауссовское приближение. До сих пор речь шла об уравнениях
нелинейной фильтрации вида (5), (7) с выбранными начальными
условиями как о полном решении задачи адаптивной фильтрации.
Это действительно так, если иметь в виду полное извлечение
информации о параметре к. Однако точные решения уравнения
нелинейной фильтрации можно получить лишь в частных случаях
(гл. 9). В большинстве задач не удается получить аналитическое
решение, а непосредственная техническая реализация алгоритмов
(5), (7) очень сложна. Возникает задача нахождения приближенных
алгоритмов решения уравнений вида (5), (7), которые можно
было бы реализовать аппаратурно. Для этого естественно
обратиться к различным приближенным методам (гл. 10), в ча-
стности к методам гауссовского приближения. Их применение
к адаптивным задачам не имеет существенных особенностей.
Рассмотрим следующий конкретный пример:
£,(/) = А.(/) + и0(/), dX/dt= — аХ + «(/). (13.4.13)
Допустим, что для гауссовского марковского процесса Х(/)
неизвестен постоянный во времени коэффициент диффузии N:
dN/dt = Q. Ширину спектра а процесса Х(/) будем считать пока
известной. Поэтому неопределенность относительно N эквивалент-
на незнанию дисперсии процесса D^ = Nl^n.
Непосредственным применением уравнений расширенного
фильтра Калмана к данному примеру получаем алгоритм
фильтрации векторного процесса {X, N}: уравнения для оценок
d\fdt = -aX+(2/2V0) ЛД^-Х), (13.4.14)
^М = (2/ЛГ0)^(^-Х) (13.4.15)
и уравнения для корреляционной матрицы ошибок
597
dRu/dt = (N/2)-2aR^-~(2/N0)R^ (13.4.16)
dRlN/dt=-(2/N0) RlNRu, dRNN/dt^-(2/N0)RlN. (13.4.17)
Последнее уравнение в (17) можно опустить, поскольку RNN не
входил ни в какое другое уравнение системы. Начальными
условиями для (14)...(17) являются априорные математические
ожидания {Х(О), Л'’(0)} и корреляционная матрица априорного
распределения к(0) с элементами {7?u(0), 7?ZN(0), ^nn(0)}-
Естественно считать, что условное априорное распределение
/)p,.(X.| jV) симметрично относительно нуля при любом N. При
этом Х(6) = 0 и /?ХЛг(0) = 0. Действительно, из симметрии ppr(k\N)
непосредственно следует равенство Х(0) = ] kppr(k | TV) dk = O, ис-
пользуя которое получаем
N Z
X Ppr[k, N)dXdN=$[N-N(Q)]ppr(N)hxppr(X\N)db\dN=O
при любом априорном распределении ppr(N\.
Формальное решение уравнений (14)...(17) дает оценки £(?)
и N(t). Получающаяся при применении локального ^гауссовского
приближения оценка информационного параметра £(/) является
оптимальной по критерию минимума среднего квадрата апостери-
орного распределения X. Приближенный адаптивный алгоритм
оценки, основанный на применении гауссовской аппроксимации,
оказывается достаточно простым.
Неработоспособность алгоритмов гауссовского приближения.
В большинстве случаев характеристики адаптивных алгоритмов,
полученных в гауссовском приближении, близки к оптимальным.
Однако имеются задачи адаптации, для которых применение
гауссовского приближения приводит к неработоспособным алгори-
тмам. В частности, это имеет место для приведенного примера
адаптивной фильтрации процесса с неизвестным коэффициентом
диффузии (13). Действительно, проанализируем алгоритм
(14)... (17). Обратимся к первому уравнению (17). Начальным
условием для него является 7?? Д0) = 0. Нетрудно убедиться, что
при этом уравнение (17) имеет решение RfrN(t)~O для всех />0.
Однако из (15) видно, что в таком случае dNfdt=Q и, следователь-
но, N(t)~N(0), г. е. оценка коэффициента диффузии не изменяется
в результате наблюдения £,(?) и остается равной априорной оценке.
Ошибка фильтрации может быть далека от оптимальной. Поэтому
применение гауссовской аппроксимации в данном примере приво-
дит к пеудовлетворигельному адаптивному алгоритму (14) ...(17).
Определить, работоспособен или нет адаптивный алгоритм,
полученный в гауссовском приближении, без моделирования его
598
на ЭВМ затруднительно. Например, относительно фильтрации
процесса Х(г), заданного уравнением (13), в котором спектральная
плотность N шума и(1) известна, а параметр а неизвестен,
в литературе встречаются противоположные мнения. Приведем
для этого случая результаты моделирования алгоритма рас-
ширенного фильтра Калмана в дискретном времени:
^v = ^v + «Ov, A.v=exp( —аА) Ку-^ + Иу. (13.4.18)
Здесь А — шаг дискретизации по времени; nOv—дискретный БГШ
с дисперсией Z)Ov = M (п ov} = 7VO/2A. Параметр а считается рав-
номерно распределенным в интервале (0, атах). При М{Пу} =
= [1 —ехр( — 2аA)]N/4а и А-+0 задача переходит в свой непрерыв-
ный аналог (13).
За критерий качества адаптации фильтра Калмана принято
среднее значение квадрата ошибки оценки а, нормированной
к атах, полученное осреднением по множеству реализаций.
Количество реализаций определялось достижением точности по-
лучаемых оценок 10... 15%.
Непрерывные кривые рис. 13.8 показывают зависимость
М {(а — а)5ата2} от нормированного времени. Результаты зависят
от шага А незначительно, и уже при Аатах = 0,5 они близки
к предельным (А->0).
Рис. 13.8. Средний квадрат нормированной ошибки адаптивной оценки параметра
процесса
599
Если в (18) положить М {и у } = (аУ/4) [1 — ехр( —2аА)], то при
А—*0 непрерывным аналогом будет уравнение d.'KIclt— — аА+аи(/).
При таком незначительном изменении уравнения сообщения
характеристики расширенного фильтра Калмана для адаптив-
ной задачи резко изменяются (они представлены штриховыми
кривыми). При больших Аатах~1 средний квадрат ошибки
оценки а данным фильтром уменьшается, однако ые до нуля,
а до некоторого предела, зависящего от А. При А-+0 (переход
к задаче в непрерывном времени) фильтр оказывается неработо-
способным.
Используя гауссовское приближение для п. в. /?(?, А|а) и p(t, а)
в (3) порознь, можно получить работоспособный алгоритм (27).
Алгоритм разделения. Вернемся к вопросу о приближенных
методах решения уравнений адаптивной фильтрации (5), (7).
Рассмотрим случай, когда неизвестный сопровождающий пара-
метр а постоянен во времени: dd.ld.t~ 0. Уравнение (5) примет вид
Дч(г, А, :Д/п/ = Lk {/>(/, К a)} + [F(z, А) —
— | F(t, typ(t, 'k, a)d'kda]p(t, A, a). (13.4.19)
Для получения одного технически реализуемого приближенного
алгоритма представим апостериорную п. в. p(t, X, а) в виде
/?(/, А, «)=/>(/, A|a)p(z, а). (13.4.20)
Подставив (20) в (19) и проинтегрировав обе части ( И) но •’
получим
A)/<y = [Fa(z)- j'Fj/)p(z, a)</a]/;(z. а), (13П.2О
где Fa(t)=^ | F(t, typ(t, A| a)<7A. (13.4.22)
Уравн ние (21) имеет решение
с.кр Дд,(т)<7т}/)рг(а)
---------------------. (13.4.2.3)
fexp
» о
В этом можно убедиться непосредственной подстановкой (23)
в (21). Уравнение для p(t. A|a) получается подстановкой (20),
(21) в (19):
P(L A| cz) = LjpK, А | a)] + [F(r, A)-Fx(/)]/>(*, M- (13.4.24)
Рыпе -ения (23) и (24) являются основой для получения
приближенны-; алгоритмов адаптивной фильтрации. Для этого
область во'можных значений параметра а дискретизируется, т. е.
считается, что а может принимать множество значений am,
т=1, М, из этой области. Например, если областью возможных
значений а является интервал (0, 1), то можно выбрать а.т—т!М.
600
В этом случае необходимо вычислять р (t, а) и р (/, X | а)
только в конечном числе точек ат. Решение (23) переходит
в выражение
СХР{1^(Т)^^}Ррг(аж)
p(t, «»)=—---------------------• (13-4.25)
Ё ехр {^(т)^}/>,,(«,,)
т= 1 О
Для вычисления p(t, Х|а) из уравнения (24) применяется
метод гауссовской аппроксимации. Подчеркнем, что гауссовская
аппроксимация применяется не для совместной плотности
p(t, X, а), а только для условной плотности p(t, Х|а) при фик-
сированном а. В результате вычисляется X* (а) и 7?Да) для
а = ат, т=\, М. Оценка X, например, по критерию минимума
среднего квадрата ошибки находится на основании (4), где
интегрирование по а заменяется суммированием:
м
£(') = Е ЦЬтЫ*’ <*т). (13.4.26)
т = 1
Адаптивный приемник представляет собой многофильтровую
схему, в которой каждый т-н фильтр осуществляет квазиоп-
тимальную фильтрацию процесса Х(/) в предположении, что
вектор параметров а(/) равен ат. Каждый фильтр настроен на
свое значение параметров помехи. Выходы фильтров объединя-
ются с весами p(t, am), также определяемыми самой схемой. За
счет этого выход фильтра, для которого апостериорная вероят-
ность больше, берется с большим весом. В пределе при больших
временах наблюдения t вероятность p(t, am)->l для фильтра,
у которого am наиболее близко к истинному значению а,
и />(/, ат)->0 для других фильтров. Поэтому при больших
временах наблюдения характеристики адаптивной фильтрации
становятся близки к характеристикам фильтрации при полностью
известных параметрах процесса Х(г).
Возможно некоторое упрощение алгоритма разделения, если
в (20) аппроксимировать нормальной п. в. не только p(t, X|a),
но и р (/, а). Это неэквивалентно гауссовской аппроксимации
совместной п. в. p(t, X, а). Чтобы совместная п. в. p(t, X, а) была
нормальной, нужно, чтобы p(t, X|a) и p(t, а) были порознь
нормальными и параметр а входил линейно в условное м. о.
mx(a) = M{X|a}. Использование гауссовской аппроксимации в ура-
внении (21) дает
р ^.(<)
dt За
dR^_ р2аЧ(/)
dt “ Sa2
(13.4.27)
a = a
Подстановка сюда выражения для Fa(t) позволяет получить для
частных задач замкнутую систему уравнений1. Для упрощения
601
реализации получающихся алгоритмов полезно производные по
а заменить конечными разностями. Выбрав достаточно малое
е, можно обеспечить сколь угодно точное приближение для
производных от Аа(7):
га 2s
'' 2 ~ 2F,(/ +(13 4 28)
с а2 s2 ' V • • /
Работоспособность адаптивного фильтра для X(z), реализующе-
го алгоритм разделения с гауссовской аппроксимацией как р (Z, X | а),
так и p(t, а), применительно к задаче (18) с непрерывным аналогом
tlK/dt — — аХ+ош(/), проверена путем статистического моделирова-
ния на ЭВМ. Результаты приведены на рис. 13.8 (пунктирные
кривые). Видно, что средний квадрат ошибки по а спадает до
нуля с асимптотикой, близкой к гиперболической. Скорость
сходимости по а увеличивается с уменьшением шага по времени А.
В алгоритме «разделения» наглядно видно усложнение адаптив-
ных приемников по сравнению с приемниками при полностью
известных характеристиках обрабатываемых процессов. Так, вместо
одного фильтра, настроенного на известное значение параметра
а принимаемого процесса, адаптивный приемник должен включать
целый набор таких адаптивных фильтров. Алгоритмы гауссовской
аппроксимации в адаптивных задачах также приводят к существенно
усложненным по сравнению со случаем известного а приемникам.
Кроме этого характеристики оценки информационных параметров
в адаптивных алгоритмах уступают соответствующим характери-
стикам алгоритмов обработки сигналов с известными характеристи-
ками и лишь по прошествии некоторого времени, затрачиваемого
фактически на оценку неизвестных параметров, стремятся к ним.
Алгоритм «разделения» в технической реализации обычно
сложнее алгоритмов, получающихся непосредственным примене-
нием метода гауссовской аппроксимации к уравнениям адаптивной
нелинейной фильтрации типа (5), (7), (19). Поэтому целесообразно
обращаться к ним в условиях, когда алгоритмы гауссовской
аппроксимации оказываются неработоспособными. Возможны си-
туации, когда неработоспособны и алгоритмы «разделения». Это
будет иметь место, если условная апостериорная п. в. p(t, Х|а)
плохо аппроксимируется нормальной плотностью для X. Однако
в целом область применимости алгоритмов «разделения» сущест-
венно шире. Например, для гауссовского процесса X(t) с неиз-
вестными параметрами строго доказано, что характеристики
адаптивного алгоритма «разделения» с вероятностью единица
1 Первачев С. В., Перов А. И. Многомерный алгоритм скользящего адаптив-
ного приема //Автоматика и телемеханика.— 1977.— № 6.— С. 14—18.
602
I
стремятся к характеристикам фильтра, параметры которого ближе
всего к истинным параметрам процесса Х(/). Отсюда, в частности,
следует, что алгоритм «разделения» эффективен в рассмотренном
выше примере адаптивной фильтрации процесса X(Z) с неизвест-
ным коэффициентом диффузии N или шириной спектра а, где
алгоритмы гауссовской аппроксимации оказались неприменимы-
ми. Таким образом, главное преимущество метода разделения - -
его универсальность. Однако для отдельных задач адаптации
возможны более простые решения.
В заключение укажем, что алгоритмы адаптивной фильтрации
нашли широкое практическое применение и оказались весьма
эффективными при пространственно-временной обработке радио-
сигналов (для компенсации помех от внешних локализованных
источников) и в адаптивных выравнивателях каналов, называемых
также эквалайзерами (для компенсации искажений сигналов,
обусловленных каналом)1.
ПРИЛОЖЕНИЕ.
СПРАВОЧНЫЕ ФОРМУЛЫ
Неравенство Кошн: для любых вещественных чисел а; и 6,- выполняется
неравенство
(Еа,^)2=?(Еа.2)(Е^.?)- (ПО
причем имеет место знак равенства, если и только если
aj=cb;, c=const. (П2)
Неравенство Шварца — Буяповского: для двух произвольных, в общем случае
комплексных функций /(д ) и g(.v) выполняется неравенство
СГ> ПО 03
I f /*(x)g(x)rfx|2=S f |/(х)[2о'х f |g(x)|2<Z,v, (ПЗ)
— ОС. — со —со
причем знак равенства имеет место в том и только в том случае, когда
g(x) = c/'(x). с — const. (П4)
Критерий сходимости Кошн: для того чтобы последовательность чисел
(действительных или комплексных) х„, /1=1, 2, 3, .... имела предел, необходимо
1 Ефименко В. С., Харисов В. Н. Оптимальная фильтрация в задачах простран-
ственно-временной обработки и ее характеристики//Радиотехника и электроника.—
1987.—Т. 32, № 8,—С. 1654—1662.
Парамонов А. А. Прием дискретных сигналов в присутствии межсимвольных
помех//Зарубежная радиоэлектроника.— 1985.— № 9.— С. 36—60.
603
и достаточно, чтобы для любого е>0 существовал такой номер N, что для
всех и mp;V выполнялось неравенство
|хл-х„,|<Е. (П5)
Замечательный предел
lim (1 — Z?/77)“" = ехр (— ah). (П6)
Дельта-функцня. Дельта-функция 8(х) равна нулю при x=£Q и обращается
в бесконечность при х=0, причем
f &(x)dx = 1, £>0. (П7)
Для любой непрерывной функции f(x) имеет место равенство
Ь /(*о), хое(а,Ь),
f/(x)8(x-x0)rfx=<f(/>)/2, x0—b;f(a)/2, х=а, (П8)
0, х0^[а,/?].
Дельта-функцию можно трактовать как предел бесконечной последовательности
обычных функций. Пусть имеется функция /(х), непрерывная в точке х0, и дано
семейство обычных функций <р, Cv), таких, что
ь
lim J/(х)<ра(х — x0)dx=f(x0), a<x0<b.
а~*®0 а
Тогда 8(х — х0) может быть записана в виде предела
5(х —х0) = lim (рДх—х0), (П9)
“—“о
5(сх-х0)=-^-8(х-—\ 8(/-/0) = 2л5(<в-<п0). (П10)
I с I у С )
Интегралы н специальные функции.
РЦ)
d f р<>’1
3" /(х, y)dx= f /'(х, )>•»’)-
аУ J а (у)
а(у)
-оф)ЛФЬ)- (пп)
Интеграл вероятности
If / t2\
Ф(.х)=—ехр! —Ф(—а)= 1 —Ф(х)> (П12)
х/2л J \ 2 у
604
функции f (X)
Для скалярной
Г
(П13)
((ПИ)
У_
дХ
df
-<‘К-
JLJ^L
' дхг \ах
а2,
' <У
дХ,
(П15)
s2f
дХдК
дХг дХг
dXxSX2
дХ-1ОХ1
(П16)
S2f
L дх„дх!
Лемма обращения
д Х„ д X.
матриц
ах.„ах.„
(A + BCD) ]=А I-A“IB(DA !В+С1DA
(П17)
СПИСОК ЛИТЕРАТУРЫ
1. Гнеденко Б. В. Курс теории вероятностей: Учебник для университетов,-- 6-е
изд., перераб. и доп.—М.: Наука, 1988.— 448 с.
2. Тихонов В. И. Статистическая радиотехника.— 2-е изд., перераб. и доп. М.:
Радио и связь, 1982.—624 с.
3. Гоноровскнй И. С. Радиотехнические цепи и сигналы: Учебник для вузов.—4-е
изд., перераб. и доп.—М.: Радио и связь, 1986.—512 с.
4. Тихонов В. И., Миронов М. А. Марковские процессы.— М.: Сов. радио, 1977.—
408 с.
5. Крамер Г. Математические методы статистики: Пер. с англ./Под ред.
А. Н. Колмогорова.— М.: Мир, 1975.—648 с.
6. Стратонович Р. Л. Условные марковские процессы. -М.: МГУ, 1966.— 319 с.
7. Тихонов В. И., Кульман Н. К. Нелинейная фильтрация и квазикогерентный
прием сигналов,- М.: Сов. радио, 1975.--704 с.
8. Сосулнн Ю. Г. Теория обнаружения и оценивания стохастических сигналов.—
М.: Сов. радио, 1978.—320 с.
9. Стратонович Р. Л. Принципы адаптивного приема.— М.: Сов. радио, 1973.—
143 с.
10. Градштенн И. С., Рыжик И. М. Таблицы интегралов, сумм, рядов и произ-
ведений.—М: Наука, 1971.— 1108 с.
605
ОГЛАВЛЕНИЕ
Предисловие ................................................... 3
Введение ...................................................... 5
Глава 1. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ ............................. 9
1.1. Случайная величина ....................................... 9
1.2. Моделирование случайных величин на ЭВМ .................. 25
1.3. Многомерные случайные величины .......................... 28
1.4. Гауссовские случайные величины ......................... 39
1.5. Преобразования случайных величин. Примеры ............... 44
Глава 2. СЛУЧАЙНЫЕ ПРОЦЕССЫ ............................ 54
2.1. Общие определения ............................................... 54
2.2. Описание случайных процессов и полей ............................ 57
2.3. Классификация процессов и полей ................................. 65
2.4. Корреляционная функция .......................................... 70
2.5. Спектральный анализ ............................................. 80
2.6. Гауссовские случайные процессы .................................. 91
2.7. Белый гауссовский шум ........................................... 98
2.8. Непрерывность, дифференцируемость и интегрируемость ........... 101
Глава 3. МАРКОВСКИЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ ..... 105
3.1. Классификация .марковских процессов ........................
3.2. Цепи Маркова ...............................................
3.3. Дискретные марковские процессы .............................
3.4. Непрерывный марковский процесс .............................
3.5. Гауссовско-марковские процессы .............................
3.6. Стохастические дифференциальные уравнения ..................
3.7. Многомерные марковские процессы ............................
3.8. Разрывные марковские процессы ..............................
3.9. Смешанные процессы .........................................
3.10. Представление непрерывных марковских процессов в дискретном
времени ..........................................................
105
107
117
126
139
144
161
166
175
Глава 4. СЛУЧАЙНЫЕ ПРОЦЕССЫ В ЛИНЕЙНЫХ СИСТЕ-
МАХ ............................................................. 186
4.1. Сведения из теории систем .................................. 186
4.2. Преобразование случайных процессов непрерывными системами . 198
4.3. Квазиоптимальные линейные фильтры .......................... 210
4.4. Оптимальные и согласованные линейные фильтры ............... 217
4.5. Дифференцирование случайного процесса ...................... 237
4.6. Линейные дифференциальные и разностные уравнения ....... 242
4.7. Огибающая и фаза узкополосного процесса .................... 249
4.8. О нормализации случайных процессов инерционными системами . 259
606
w
Глава 5. МЕТОДЫ АНАЛИЗА СЛУЧАЙНЫХ ПРОЦЕССОВ
В НЕЛИНЕЙНЫХ СИСТЕМАХ ......................... 261
5.1. Формулировка задачи. Методы анализа ...................... 261
5.2. Квазистатический метод .................................... 265
5 3 Метод линеаризации. Анализ работы автогенератора при наличии шу-
' ' ' ма ..................................................... 269
5.4. Метод марковских процессов. Статистическая динамика фазовой ав-
топодстройки .................................................. 275
5.5. Другие методы анализа ФАП. Сравнение результатов .......... 284
5.6. Проблема пересечений ...................................... 287
Глава 6. СВЕДЕНИЯ ИЗ МАТЕМАТИЧЕСКОЙ СТАТИСТИ-
КИ ............................................................. 298
6.1. Задачи математической статистики и оптимального приема сигна-
лов ........................................................... 298
6.2. Оценки плотности и функции распределения вероятностей ..... 306
6.3. Методы оценивания параметров .............................. 308
6.4. Граница Рао — Крамера ..................................... 315
6.5. Критерии различения гипотез ............................... 319
Глава?. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ФИЛЬТРАЦИИ ................ 328
7.1. Формулировка задачи фильтрации .......................... 328
7.2. Дискретная фильтрация ................................... 332
7.3. Аналоговая фильтрация ................................... 334
7.4. Непрерывно-дискретная фильтрация ................... 339
7.5. Дискретно-непрерывная фильтрация ................... 341
7.6. Фильтрация условных марковских процессов ................ 343
7.7. Фильтрация дискретных процессов ......................... 347
7.8. Фильтрация дискретно-непрерывных процессов .............. 355
7.9. Фильтрация разрывных и непрерывных процессов ............ 359
7.10. Порождающий процесс ...................................... 362
Глава 8. ' ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ................................. 366
8.1. Алгоритмы оптимальной линейной фильтрации ................. 366
8.2. Линейная фильтрация при ненормальном начальном распределе-
нии ........................................................... 387
8.3. Линейная фильтрация Колмогорова — Винера .................. 394
8.4. Сравнение фильтров Колмогорова -Винера и Калмана — Бьюси .. 402
8.5. О понижении размерности фильтров .......................... 404
8.6. Быстрый фильтр Калмана и адаптивные выравниватели ......... 407
Глава 9. ТОЧНЫЕ РЕШЕНИЯ ЗАДАЧ ........................... 411
9.1. Решения некоторых задач нелинейной фильтрации ............. 411
9.2. Обнаружение сигнала с неизменяющимися параметрами ......... 422
9.3. Различение сигналов ....................................... 431
9.4. Различение зависимых двоичных сигналов .................... 441
9.5. Оценка неизменяющихся параметров сигнала .................. 446
9.6. Моделирование уравнения Стратоновича ...................... 454
Глава 10. ПРИБЛИЖЕННЫЕ МЕТОДЫ НЕЛИНЕЙНОЙ
ФИЛЬТРАЦИИ ................................... 459
10.1 Локальная гауссовская аппроксимация ....................... 460
10.2. Обнаружение и различение сигналов ........................ 480
10.3. Интегральная аппроксимация ............................... 488
10.4. Сравнение алгоритмов ФАП ................................. 498
607
10.5. Синхронизация скачкообразных сигналов ........................ 501
10.6. Алгоритмы с группированием наблюдений ........................ 505
10.7. Фильтрация слабых сигналов при пет ауссовском шуме ........... 510
10.8. Граница Рао- Крамера для ошибки фильтрации ................... 516
Глава 11. ПРИМЕРЫ СИНТЕЗА СИСТЕМ ........................ 526
11.1. Алгоритмы цифровой обработки сигналов .................... 526
11.2. Радионавигационные методы фильтрации координат подвижного объ-
екта ........................................................... 538
11.3. Алгоритмы комплексирования измерителей ................... 545
11.4. Квазиоптимальное слежение за маневрирующей целью ......... 548
11.5. Двухканальная пространственно-временная фильтрация ...... 552
Пр ] ] .6. Проблема объединенной синхронизации .................... 556
Ввв
Глава 12. ИНТЕРПОЛЯЦИЯ СООБЩЕНИЙ ........................ 563
Гл 12.1. Оптимальная интерполяция в дискретном времени ............ 563
1.1. 12.2. Оптимальная интерполяция в непрерывном времени ........... 566
1.2. 12.3. Квазиоптимальные алгоритмы интерполяции в непрерывном време-
1.3. ни ................................................................... 569
1.4 12.4. Двусторонний алгоритм интерполяции ............................. 576
1 Глава 13. АДАПТИВНЫЙ ПРИЕМ СИГНАЛОВ ........................ 578
Гл 13.1. Методы учета априорной неопределенности .................. 578
2 ] 13.2. Чувствительность алгоритмов фильтрации ................... 580
2 2 13.3. О робастных методах обработки ............................ 586
2 ^' 13.4. Адаптивные методы ........................................ 590
Приложение. Справочные формулы ..................................... 603
25- Список литературы ....................................................... 605
2.6.
2.71
3-1
3.]
з.:
з.
3.
3.1
33
з.н
Г л1
4.1.
4.2J
4.3.
4.4.
4.5.
4.6.
4.7.
4.8]
606